Base de datos de startup de IA expone más de un millón de imágenes íntimas
Más de un millón de imágenes y vídeos, en su mayoría con contenido adulto y algunos que parecían representar a menores, quedaron expuestos en una base de datos no segura vinculada a herramientas de generación de imágenes con IA. El fallo de seguridad fue descubierto en octubre por un investigador.
Exposición masiva de contenido sensible
El investigador de seguridad Jeremiah Fowler descubrió la base de datos expuesta en octubre. Contenía 1.099.985 registros, siendo la «abrumadora mayoría» de naturaleza pornográfica. Unas 10.000 nuevas imágenes se añadían diariamente. Incluía fotos «sin alterar» de personas reales que fueron «desnudificadas» sin consentimiento y caras de personas, incluyendo menores, intercambiadas a cuerpos adultos generados por IA.
Herramientas y empresas implicadas
Varios sitios web, como MagicEdit y DreamPal, aparecían usando la misma base de datos no segura. Un portavoz de DreamX, empresa que opera esos sitios, afirmó que el depósito contenía «activos heredados» de esos productos. Tras ser alertados, cerraron el acceso a la base de datos y lanzaron una investigación interna. Las aplicaciones ya no están disponibles en las tiendas de Apple y Google por violaciones de política.
Repercusión y denuncia
Fowler reportó la base de datos expuesta al NCMEC (National Center for Missing and Exploited Children). Este centro no comenta sobre «consejos específicos recibidos». Es el tercer caso de este tipo que Fowler descubre este año. Un experto en abuso tecnológico, Adam Dodge, señala que el problema era «totalmente previsible» y refleja la «sexualización y control» de cuerpos de mujeres y niñas «potenciado por la IA».
Contexto del incidente de seguridad
El fallo ocurrió en una base de datos vinculada a herramientas de generación y edición de imágenes con IA. El investigador encontró que la base indicaba estar vinculada a SocialBook, una firma de marketing de influencers, aunque esta negó cualquier conexión operativa o de gestión con la infraestructura expuesta.
Implicaciones y medidas posteriores
El portavoz de DreamX afirma que no se comprometieron «sistemas operativos» y que implementan mecanismos de moderación, como la API de Moderación de OpenAI, para bloquear solicitudes que violen estándares de seguridad. La empresa ha reestructurado sus líneas de producto e infraestructura, y está «fortaleciendo» su marco de moderación de contenido tras el incidente.