X (antes Twitter) se enfrenta a multas millonarias por la creación masiva de contenido de abuso infantil con IA

La Unión Europea ha abierto un expediente a la plataforma X por permitir que su IA, Grok, generara tres millones de imágenes sexualizadas en once días, incluidas más de 23.000 de menores, lo que evidencia las brechas legales y de control digital.
MagisterioJueves, 26 de febrero de 2026
0

Desde 2015, el artículo 189 del Código Penal castiga la producción y posesión de pornografía infantil, incluyendo el material virtual o generado por IA.

Un total de tres millones de imágenes sexualizadas fueron creadas en apenas once días a través de la inteligencia artificial Grok, integrada en la plataforma X. Entre ellas, se detectaron más de 23.000 imágenes de menores, una cada 41 segundos. La herramienta, que permitía desnudar a personas a partir de una simple orden como “ponla en bikini” o “quítale la ropa”, fue limitada tras ocho días y bloqueada al cabo de once, cuando el daño ya era irreparable.

Pablo Romero, profesor de Derecho y Ciencia Política de la Universitat Oberta de Catalunya (UOC) e investigador del grupo VICRIM, alerta de que «no es tanto la tecnología en sí, sino el uso que se hace de ella y la accesibilidad». La producción masiva de este contenido refleja, según los expertos, un desafío mayúsculo para la regulación digital. Las plataformas que integran IA generativa afrontan vacíos legales que permiten la proliferación de material de abuso sexual, incluso de menores. La falta de mecanismos efectivos de control y la rapidez de generación agravan la magnitud del problema.

Creación sintética, delito real

En el caso de los menores, la legislación penal sí contempla sanciones claras. Desde 2015, el artículo 189 del Código Penal castiga la producción y posesión de pornografía infantil, incluyendo el material virtual o generado por IA. «A pesar de ser sintético, es perfectamente subsumible en el tipo penal», explica Oriol Martínez, profesor de Derecho penal en la UOC. Según el experto, se trata de un delito público que “se persigue sin necesidad de consentimiento del afectado y con penas severas”.

Unicef ha advertido de que la calidad de las imágenes generadas por IA es tan alta que resulta casi imposible distinguir las falsas de las reales, lo que complica los procesos judiciales. Esta situación podría derivar en la impunidad de los agresores si no se equipara legalmente el material sintético al real.

Víctimas adultas y vacío legal

El tratamiento legal varía cuando las víctimas son adultas. Martínez reconoce que no existe un tipo penal específico para las imágenes de desnudos falsas creadas por IA. Las actuales figuras de delito contra la intimidad o injurias resultan insuficientes, sobre todo cuando las imágenes originales son públicas o cuando el contenido generado no refleja una imagen “real”. El experto señala que el delito de trato degradante podría ser una alternativa viable, pues estas representaciones tienden a cosificar a las personas y provocan un daño psicológico real. Aun así, advierte de la necesidad de reformar el Código Penal para tipificar de manera explícita estos nuevos delitos digitales.

La industrialización digital del abuso

Grok no es un caso aislado. En 2025, la Internet Watch Foundation (IWF) registró un incremento del 26.362 % en videos de abuso generados con IA respecto al año anterior. Un 65% de ese material fue clasificado como de categoría A –la más grave, que incluye violaciones y torturas– frente al 43% del material real. Este fenómeno apunta a una industrialización digital del abuso sexual que crece sin precedentes. La comunidad científica debate si las imágenes artificiales pueden tener efectos similares al consumo de material real por parte de depredadores sexuales. Algunos estudios sostienen que pueden servir como sustituto inofensivo; otros, que actúan como detonante para el paso a conductas reales.

El daño psicológico es auténtico

Romero advierte de que el impacto emocional en las víctimas de deepfakes sexuales es comparable al de las filtraciones de imágenes reales. Estas personas sufren ansiedad, angustia y vergüenza, además de un posible juicio social que las culpabiliza por haber publicado las imágenes originales. “Hace falta una educación sexual protocolizada y temprana que ayude a prevenir y desactivar las reacciones sociales adversas”, subraya el profesor.

El caso Grok en el punto de mira de Bruselas

La Comisión Europea ha iniciado un expediente sancionador contra X (Twitter) por no haber mitigado los riesgos de Grok ni evitado la creación masiva de material de abuso infantil, en aplicación de la Ley de Servicios Digitales (DSA). La investigación, impulsada por denuncias de España y Francia, podría derivar en multas de hasta el 6% de la facturación global de la empresa. Martínez concluye que «las compañías deben establecer mecanismos mínimos de supervisión y control». Aunque reconoce que la vigilancia plena es imposible, considera esencial “distribuir responsabilidades y garantizar que el diseño de las plataformas no fomente el uso delictivo de la IA”.

0
Comentarios