25/2/26 · Justicia

IA y explotación sexual: cuando un clic genera millones de imágenes de abuso

La funcionalidad de Grok en X permitió crear tres millones de imágenes sexualizadas en 11 días, incluidas más de 23.000 de menores, y evidencia las brechas legales y de control de las plataformas

La Ley de Servicios Digitales podría imponer multas millonarias a la plataforma tras la creación de contenido de abuso infantil con Grok
-

En solo 11 días (264 horas), los usuarios de Grok generaron tres millones de imágenes sexualizadas, una media de 190 por minuto. Entre ellas, se incluyen más de 23.000 imágenes de menores, creadas a un ritmo de una cada 41 segundos. Esta producción masiva se produjo tras la puesta en marcha de una nueva funcionalidad de la IA de X, Grok, que permitía desnudar a personas con un solo clic, con la orden "ponla en bikini" o "quítale la ropa".

"Hay una serie de personas que usan estas herramientas de inteligencia artificial para crear este tipo de materiales de abuso y de explotación sexual infantil. No es tanto la tecnología en sí, sino el uso que se hace de ella y, sobre todo, la accesibilidad que existe por parte de estas personas a determinadas aplicaciones", alerta Pablo Romero, profesor de los Estudios de Derecho y Ciencia Política de la Universitat Oberta de Catalunya (UOC) e investigador del grupo VICRIM. X tardó 8 días en poner los primeros límites y 11 días en bloquear funciones críticas, tiempo suficiente para que millones de imágenes se viralizaran.

“Desde 2015, la pornografía infantil castiga el uso de imágenes reales y virtuales generadas por IA.”

Un clic para desnudar: imágenes sintéticas, delitos reales

Crear, editar y difundir este material no es impune. En el caso de los menores, la respuesta penal es clara. "Desde 2015, los delitos de pornografía infantil castigan el uso de imágenes tanto reales como virtuales", explica Oriol Martínez, también profesor de la UOC y experto en derecho penal de la UOC. El artículo 189.1 II d) del Código Penal permite castigar la creación y la tenencia de material generado por IA porque, a pesar de ser sintético, es perfectamente subsumible en el tipo penal. "Es un delito público que se persigue sin necesidad de consentimiento del afectado y con penas severas", aclara Martínez.

En esta línea, UNICEF alertaba de que la IA generativa ha alcanzado un nivel en que las imágenes sintéticas ya no se pueden distinguir de las reales a simple vista. Esto crea un problema legal y forense: es casi imposible probar ante un tribunal si un niño representado existe realmente o no, lo que puede llevar a la impunidad de los agresores si no hay una legislación que, como comenta Martínez, equipare legalmente el material sintético con el real.

 

Cuando la víctima es adulta: un vacío legal preocupante

La situación cambia cuando la víctima es adulta. Martínez señala que "no hay ningún delito que tipifique expresamente esta conducta", lo que obliga a usar figuras legales "cogidas con pinzas". El delito contra la intimidad es difícil de aplicar si la IA se basa en fotos públicas de redes sociales y, técnicamente, el desnudo generado "no es 'realmente' la imagen de la persona".

El experto apunta al delito contra el honor (injurias), aunque las penas son bajas y es un delito privado. Ante esta carencia, el experto plantea como vía más contundente el delito de trato degradante, que castiga a quien "crea en las víctimas sentimientos de terror, de angustia y de inferioridad". Según Martínez, esta sería una figura "bastante óptima para subsumir el contenido de desaprobación material, dado que estas imágenes tienden a cosificar a las víctimas y conllevan penas de prisión de hasta dos años". Aun así, el profesor de derecho penal considera que hay que hacer evolucionar las interpretaciones legales: "La incertidumbre jurídica actual hace necesario crear un tipo específico que intente atender a las características de este tipo de criminalidad para evitar que la difusión y la reasignación de estos contenidos queden desprotegidas por interpretaciones legales restrictivas".

 

La industrialización digital del abuso

Sin embargo, Grok no es una excepción. La creación de material de abuso sexual infantil, ya sean vídeos o imágenes, a través de la IA es una realidad. En 2025, la Internet Watch Foundation detectó un aumento del 26,362 % en vídeos de abuso generados por IA respecto al año anterior. Además, identifica la gravedad de las imágenes: el 65 % del material fue clasificado como categoría A (la más extrema según la ley del Reino Unido), que incluye violaciones y torturas sexuales, en comparación con el material "real" (no IA), que tiene una proporción menor de categoría A (43 %).

 La ingente cantidad de material creado con IA puede hacer pensar que la imaginería artificial de imágenes de contenido sexual infantil puede servir para el consumo de depredadores sexuales. "Ahora mismo, la ciencia todavía no tiene una respuesta definitiva sobre si el valor de las imágenes sintéticas se asimila al de una imagen real", comenta. Históricamente, la investigación se ha centrado casi exclusivamente en las víctimas y en cómo tratar el impacto, dejando de lado el estudio de los perpetradores y sus motivaciones vitales. "A pesar de la falta de datos directos sobre la IA, el debate académico se enmarca en el caso de las muñecas anatómicas que simulan a niños y niñas", comenta. En este debate existen dos posturas contrapuestas, según el experto: estos recursos o bien pueden ser un factor protector (algunos estudios sugieren que pueden servir en el ámbito de la intervención y el tratamiento para evitar el contacto real) o bien pueden actuar como detonante (trigger), en cuyo caso el acceso a este material puede servir como un catalizador que haga pasar al individuo de la ideación a la perpetración real.

 

El daño es real, aunque la imagen sea falsa

Aunque la imagen sea fake, la víctima sufre el daño moral como si la foto fuera real. "Lo que nos indica la evidencia es que el impacto puede ser muy parecido en cuanto a los sentimientos o las consecuencias que puede tener en las víctimas, con la generación de sentimientos de angustia, de ansiedad o de vergüenza", comenta Romero. Aunque todavía es un fenómeno reciente, el impacto en las víctimas es comparable con el que se puede sufrir cuando hay filtraciones de imágenes de contenido sexual verídico. "El criterio tanto del legislador como de los tribunales es la equiparación del daño moral en los delitos de creación de deepfakes de contenido sexual y su difusión con el de los delitos de filtración de material de fotografías de contenido sexual verídico", explica Romero.

Además, la víctima a menudo sufre la victimización terciaria: el juicio social que la culpa por haber colgado la foto original. "La forma de evitar la reacción social adversa (victimización terciaria) que supone haber sufrido un hecho como la difusión de material de contenido sexual, tanto si es generado por inteligencia artificial o es verídico, es incidir en una educación sexual protocolizada, manualizada y que se implemente desde momentos muy tempranos del ciclo educativo de los niños y las niñas", alerta Romero.

 

La respuesta europea: expediente contra X

Tras lo que pasó en Grok entre el 29 de diciembre de 2025 y el 8 de enero de 2026, la Unión Europea ha abierto un expediente sancionador contra X (Twitter) en virtud de la Ley de Servicios Digitales (DSA) por no haber mitigado los riesgos de Grok y haber permitido la generación masiva de imágenes sexualizadas y material de abuso infantil. Esta investigación, apoyada por denuncias en España y Francia, podría derivar en multas de hasta el 6 % de la facturación global de la plataforma. "La regulación interna de estas empresas debería establecer mecanismos de supervisión y control de este tipo de actividades. Aunque es cierto que la capacidad de controlarlo todo es limitada, sería una forma positiva de distribuir cargas de gestión, estableciendo mecanismos mínimos de control", concluye Martínez, investigador del grupo VICRIM de la UOC. 

Expertos UOC

Contacto de prensa

También te puede interesar

Más leídos

Ver más sobre Justicia