Usuarios crean vídeos con niños generados por IA usando Sora 2
Vídeos falsos con menores de IA para contenido sexual o de fetichismo se han subido a TikTok. Se crearon con Sora 2, el generador de vídeo de OpenAI. La Fundación para la Vigilancia de Internet (IWF) reporta que los casos de material de abuso sexual infantil generado por IA (CSAM) se duplicaron en 2025 en el Reino Unido.
Contenido inquietante en redes sociales
Un falso anuncio mostrando a una niña de IA con un juguete con forma de vibrador, llamado «Vibro Rose», generó indignación en TikTok. Otros vídeos similares presentan juguetes que expulsan líquidos sobre imágenes hiperrealistas de niños. Estos contenidos, hechos con Sora 2, eluden los sistemas de protección de OpenAI.
Respuesta legal y de las plataformas
El Reino Unido prepara una enmienda legal para que «evaluadores autorizados» verifiquen que las herramientas de IA no puedan generar CSAM. En Estados Unidos, 45 estados tienen leyes contra el CSAM generado por IA. OpenAI prohibió varias cuentas tras la investigación y afirma que sus políticas prohíben explícitamente contenido que dañe a menores.
La delgada línea del contenido dañino
Otros vídeos parodian juguetes con temas de depredadores sexuales como Epstein o Diddy. Aunque su motivación pueda ser el humor negro, se mezclan en cuentas con material más explícito. Expertos como Mike Stabile, de la Free Speech Coalition, señalan que la matización del contexto es clave y difícil de moderar para las plataformas.
El reto de la moderación
Kerry Smith, directora de la IWF, subraya que la mayoría de las imágenes ilegales son de niñas. Aboga por un diseño seguro de las plataformas de IA desde el origen. TikTok ha eliminado algunos vídeos y bloqueado cuentas, pero otros contenidos, como el muñeco «Incredible Leaky», seguían online.
Antecedentes del caso
El 7 de octubre, una cuenta de TikTok publicó un anuncio falso creado con Sora 2. En él, una niña generada por IA sostenía un juguete con claras connotaciones sexuales. Esto ocurrió una semana después del lanzamiento limitado de Sora 2 en Estados Unidos.
Cierre e implicaciones
La situación expone limitaciones en la policía del contenido generado por IA. Mientras las leyes se actualizan, plataformas y creadores de modelos de IA enfrentan el reto de discernir y bloquear material dañino que explota la imagen de menores, aunque sean sintéticos.