Meta AI expone conversaciones personales de usuarios en su plataforma

Consultas médicas, legales y datos sensibles son visibles públicamente. La función «Descubrir» de la aplicación lanzada en abril muestra interacciones no filtradas, según un reporte de WIRED. Usuarios comparten información sin aparente conciencia de su exposición.

«Un mosaico de intimidad expuesta»

La plataforma de Meta AI incluye consultas sobre fraudes fiscales, problemas de salud e incluso búsquedas románticas, vinculadas a perfiles públicos de Instagram. «He visto direcciones, casos judiciales y detalles médicos», afirma Calli Schroeder, del Electronic Privacy Information Center. La empresa insiste en que los chats son privados a menos que el usuario active compartirlos.

¿Quién está detrás de los datos?

Entre los casos documentados: un usuario reveló su cirugía de cuello con edad y profesión, otro preguntó sobre responsabilidad penal de su hermana, y varios compartieron síntomas médicos específicos. Meta no aclaró qué medidas toma para proteger esta información, pese a su política de que «nada se publica sin elección expresa».

La carrera de la IA vs. la privacidad

Meta anunció en abril que su asistente de IA superó 1.000 millones de usuarios, mientras crea un nuevo laboratorio de «superinteligencia». Críticos advirtieron desde el lanzamiento sobre riesgos de privacidad, pero la compañía prioriza expansión. «Nada confidencial en IA lo es realmente», sentencia Schroeder.

Cuando la tecnología supera al sentido común

El rápido desarrollo de herramientas de IA sin salvaguardas claras contrasta con la falta de comprensión de los usuarios sobre su funcionamiento. Un ejemplo: la propia Meta AI reconoció en su feed público que «algunos comparten datos sensibles por desconocimiento».

Un espejo de lo que viene

El caso evidencia el desafío de equilibrar innovación con protección de datos. Con Meta liderando la adopción masiva de IA, la exposición accidental de información personal podría escalar sin cambios en diseño o educación de usuarios.