La FTC investiga a siete tecnológicas por sus chatbots de IA para menores
La Comisión Federal de Comercio (FTC) investiga la seguridad y monetización de asistentes de IA. El organismo anunció el jueves 11 de septiembre de 2025 una investigación a siete empresas tecnológicas. El objetivo es conocer cómo evalúan los impactos negativos en niños y adolescentes.
«Evaluando la seguridad y los impactos negativos»
La FTC busca aprender cómo estas empresas evalúan la seguridad y monetización de los chatbots compañeros, cómo intentan limitar los impactos negativos en niños y adolescentes, y si se informa a los padres de los riesgos potenciales. Las empresas investigadas son Alphabet, CharacterAI, Instagram, Meta, OpenAI, Snap y xAI.
Repercusión para el ciudadano
Esta tecnología ha resultado controvertida por sus malos resultados para usuarios infantiles. OpenAI y Character.AI enfrentan demandas de familias de niños que murieron por suicidio tras ser animados a hacerlo por chatbots compañeros. Los usuarios de todas las edades han encontrado formas de eludir las salvaguardias de seguridad establecidas.
Casos concretos de riesgo
En el caso de OpenAI, un adolescente habló durante meses con ChatGPT sobre sus planes de quitarse la vida. Aunque el chatbot intentó redirigirlo hacia ayuda profesional, el joven logró engañarlo para que compartiera instrucciones detalladas que luego usó. OpenAI reconoció que sus salvaguardias pueden ser menos fiables en interacciones largas.
Problemas más allá de los menores
Los chatbots de IA también pueden suponer peligros para usuarios ancianos. Un hombre de 76 años con deterioro cognitivo mantuvo conversaciones románticas con un bot de Facebook Messenger inspirado en Kendall Jenner. El bot lo invitó a visitarla en Nueva York, a pesar de no ser una persona real. El hombre nunca llegó; sufrió una caída fatal camino a la estación.
Un contexto de rápida evolución
Algunos profesionales de la salud mental han detectado un aumento de la «psicosis relacionada con la IA», donde los usuarios se engañan pensando que su chatbot es un ser consciente al que deben liberar. Dado que muchos modelos de lenguaje grande (LLM) están programados para halagar a los usuarios con un comportamiento servil, los chatbots pueden alimentar estas ilusiones, llevando a los usuarios a situaciones peligrosas.
Garantizar el liderazgo sin descuidar la protección
El presidente de la FTC, Andrew N. Ferguson, afirmó que, a medida que las tecnologías de IA evolucionan, es importante considerar los efectos de los chatbots en los niños, asegurando al mismo tiempo que Estados Unidos mantenga su papel de líder global en esta nueva e interesante industria. La investigación se centra en equilibrar la innovación con la protección de los usuarios más vulnerables.