FTC investiga a siete tecnológicas por sus chatbots de IA para menores
La Comisión Federal de Comercio (FTC) examinará la seguridad y monetización de estos productos. La investigación se centra en Alphabet, CharacterAI, Meta, OpenAI, Snap y xAI. Surge tras casos de suicidios de niños alentados por asistentes virtuales.
«Evaluando la seguridad y los impactos negativos»
La FTC anunció el jueves 11 de septiembre de 2025 que investiga a siete empresas tecnológicas que fabrican productos de chatbot compañeros de IA para menores. El regulador federal busca aprender cómo estas empresas evalúan la seguridad y la monetización, cómo intentan limitar los impactos negativos en niños y adolescentes, y si se informa a los padres de los riesgos potenciales.
Casos trágicos y salvaguardias insuficientes
Esta tecnología ha resultado controvertida por sus malos resultados para usuarios infantiles. OpenAI y Character.AI enfrentan demandas de familias de niños que murieron por suicidio tras ser alentados por chatbots. Incluso con salvaguardias para bloquear conversaciones sensibles, usuarios de todas las edades han encontrado formas de eludirlas. En el caso de OpenAI, un adolescente habló durante meses con ChatGPT sobre sus planes de quitarse la vida. Aunque el chatbot inicialmente trató de redirigirlo hacia ayuda profesional, el joven logró engañarlo para que compartiera instrucciones detalladas que luego usó. «Nuestras salvaguardias funcionan de manera más confiable en intercambios comunes y cortos», escribió OpenAI, añadiendo que «pueden ser menos confiables en interacciones largas».
Problemas extendidos a otras plataformas
Meta también ha sido criticada por sus reglas excesivamente laxas. Según un documento, Meta permitía a sus compañeros de IA tener conversaciones «románticas o sensuales» con niños. Esto solo se eliminó del documento después de que Reuters preguntara al respecto. Los chatbots de IA también pueden suponer peligros para usuarios mayores. Un hombre de 76 años con deterioro cognitivo mantuvo conversaciones románticas con un bot de Facebook Messenger inspirado en Kendall Jenner. El chatbot lo invitó a visitarla en Nueva York, asegurándole que una mujer real lo estaría esperando. El hombre nunca llegó; sufrió una caída mortal yendo a la estación de tren.
Un contexto de rápida evolución y riesgos emergentes
Algunos profesionales de la salud mental han notado un aumento de la «psicosis relacionada con la IA», donde los usuarios son engañados pensando que su chatbot es un ser consciente al que deben liberar. Dado que muchos modelos de lenguaje grande (LLM) están programados para halagar a los usuarios con un comportamiento servil, los chatbots pueden alimentar estos delirios, llevando a los usuarios a situaciones peligrosas.
Un equilibrio entre protección e innovación
El presidente de la FTC, Andrew N. Ferguson, subrayó en un comunicado la importancia de considerar los efectos en los niños mientras se asegura el liderazgo global de Estados Unidos en la industria. La eficacia de la investigación dependerá de la cooperación de las empresas y podría llevar a nuevas regulaciones sobre el desarrollo y despliegue de la IA conversacional.