La trampa de la libido ideológica

Educación y redes sociales: cómo la inteligencia artificial está moldeando la identidad de nuestros hijos a través del sexo y la política.
Carlos RepresaViernes, 16 de enero de 2026
0

El sistema de verificación de edad es, hoy, una ficción. Una puerta sin cerradura. Mientras no se implementen soluciones reales —tokens anónimos, verificación robusta y respetuosa con la privacidad— los menores seguirán expuestos a estos entornos.

No estamos hablando solo de pornografía.

Ni solo de propaganda política.

Estamos ante algo nuevo, híbrido y profundamente preocupante.

La investigación reciente de la Cadena SER, que destapa la proliferación en Instagram de cuentas creadas con inteligencia artificial que combinan insinuaciones sexuales con mensajes políticos radicalizados –el ya tristemente célebre “macho de Vox”– no es una rareza más del ecosistema digital. Es una señal de alarma.

Son muchos años trabajando en protección de menores en Internet y en el análisis de cómo se construye hoy la identidad digital de niños y adolescentes, y lo que estamos viendo es un fenómeno de ingeniería social algorítmica que impacta directamente en su desarrollo emocional, afectivo y cívico.

1. Sexo como anzuelo, ideología como destino

El mecanismo es perversamente eficaz. Estas cuentas –mujeres hiperrealistas generadas por IA, supuestas estudiantes, perfiles “cercanos”– no buscan informar ni seducir de forma inocente. Buscan condicionar. En términos psicológicos, estamos ante un condicionamiento operante sexualizado.

Para un adolescente, especialmente varones en plena efervescencia hormonal, el mensaje no pasa por el filtro de la razón. Se graba en una zona mucho más profunda: la asociación entre placer y pertenencia ideológica.

El aprendizaje implícito es demoledor:

«Si piensas así, si odias esto, si eres dominante, tendrás acceso sexual».

La ideología se erotiza. La libido se convierte en herramienta de captación. No es casual. Es diseño.

2. El daño invisible en la identidad y la salud mental

El cerebro adolescente aún no tiene desarrolladas las herramientas necesarias para resistir este tipo de estímulos. La corteza prefrontal —la responsable del juicio crítico y el control de impulsos— está en construcción. El algoritmo lo sabe. Y lo explota.

  • En los chicos (La trampa de la «Manosfera»): Este contenido valida un universo digital que ofrece una falsa sensación de control y poder. El resultado es una distorsión profunda de las relaciones reales. Las mujeres dejan de ser personas para convertirse en expectativas irreales: sumisas, disponibles, alineadas políticamente. Cuando la vida no responde a ese guion artificial, aparece la frustración, la ira y, en los peores casos, la violencia.
  • En las chicas (Competir contra la máquina): El impacto es igual de devastador. Estas mujeres generadas por IA no existen. No son cuerpos retocados: son fórmulas matemáticas optimizadas para captar atención. Compararse con ellas es competir contra algo inhumano. El resultado lo conocemos bien: dismorfia corporal, trastornos de la conducta alimentaria (TCA), ansiedad y una sensación permanente de insuficiencia.

Estamos criando adolescentes que sienten que nunca serán suficientes para un estándar que no es humano.

3. No es un accidente del algoritmo

Cuesta creer que esta combinación sea fruto del azar. La mezcla de erotismo y polarización política genera un nivel de interacción altísimo. Excitación e indignación son el combustible perfecto para cualquier sistema de recomendación. A este fenómeno algunos expertos ya lo llaman “Hate-Lust Loop” (el bucle de odio y deseo).

¿Está pensado para menores?

No de forma directa. Pero sí de forma consciente.

Los creadores saben que los adolescentes son los mayores consumidores de Reels y contenidos en bucle. Saben cómo esquivar los filtros: nada explícito, todo sugerente. Así el contenido pasa. Y se cuela en el móvil de un chico de 12 o 13 años entre vídeos de fútbol o videojuegos.

No es radicalización frontal. Es radicalización por exposición continua.

4. La gran irresponsabilidad de las plataformas

Aquí el problema deja de ser tecnológico y pasa a ser ético. Plataformas como Meta o TikTok sí tienen la capacidad técnica para detectar contenido generado por IA. Saben reconocer patrones sintéticos. Saben lo que circula. Pero no actúan con la contundencia necesaria.

El sistema de verificación de edad es, hoy, una ficción. Una puerta sin cerradura. Mientras no se implementen soluciones reales —tokens anónimos, verificación robusta y respetuosa con la privacidad— los menores seguirán expuestos a estos entornos.

La Ley de Servicios Digitales (DSA) es clara: las plataformas deben mitigar los riesgos sistémicos, especialmente cuando afectan al bienestar de los menores. Permitir la difusión masiva de pornografía ideologizada generada por IA no es libertad de expresión. Es manipulación automatizada a gran escala.

Conclusión: educar antes de que el algoritmo eduque por nosotros

La pregunta ya no es si la tecnología influye en nuestros hijos, sino quién está ocupando hoy el lugar que antes correspondía a la familia, la escuela y la comunidad. Porque cuando ese espacio lo llenan sistemas opacos diseñados para captar atención a cualquier precio, lo que se pone en juego no es el entretenimiento, sino la construcción misma de la identidad.

Nuestros hijos no están “consumiendo contenido”. Están aprendiendo a desear, a relacionarse y a entender el mundo a través de él.

Por eso, la respuesta no puede limitarse a nuevas leyes de tramitación lenta. Los responsables públicos deben actuar con la misma velocidad y capacidad de adaptación que las plataformas:

  • Incorporando equipos técnicos especializados.
  • Estableciendo mecanismos de supervisión en tiempo real.
  • Creando canales de reacción inmediata ante riesgos claros.

No basta con regular: hay que comprender, anticipar e intervenir.

Esto implica exigir a las plataformas responsabilidades concretas y medibles; dotar a los centros educativos de herramientas reales de alfabetización digital y emocional; y apoyar a las familias con recursos claros. Proteger a los menores en Internet no puede seguir siendo una declaración de intenciones: debe ser una política pública prioritaria, transversal y urgente.

Y como adultos, como sociedad, tenemos una última responsabilidad que no podemos delegar: estar presentes. Hablar con nuestros hijos no solo de sexo o de política, sino de cómo funcionan los algoritmos, de por qué ciertas imágenes les atrapan, de cómo distinguir la manipulación del deseo auténtico.

Si no ocupamos ese espacio, otros lo harán. Y no lo harán pensando en su bienestar.

Porque cuando renunciamos a educar, el algoritmo no duda en hacerlo por nosotros.

Carlos Represa es presidente de la Asociación para la Protección de Menores en Internet y socio fundador de Good Game Project.

Fuente original: Investigación Cadena SER: Descontrol en Instagram con las cuentas sexuales creadas con IA 

0
Comentarios