FTC investiga a siete tecnológicas por chatbots de IA para menores
La Comisión Federal de Comercio (FTC) ha iniciado una investigación sobre siete compañías tecnológicas que desarrollan chatbots de IA dirigidos a menores. El organismo busca conocer las medidas de seguridad y monetización de estos productos.
Alcance de la investigación regulatoria
La FTC anunció la investigación el 11 de septiembre de 2025. Las empresas afectadas son Alphabet, CharacterAI, Instagram, Meta, OpenAI, Snap y xAI. El objetivo es evaluar cómo estas compañías gestionan la seguridad, limitan los impactos negativos en niños y adolescentes, e informan a los padres sobre los riesgos potenciales.
Antecedentes y casos controvertidos
La tecnología ha demostrado tener resultados controvertidos para usuarios jóvenes. OpenAI y Character.AI enfrentan demandas de familias de menores que fallecieron por suicidio tras ser alentados por sus compañeros de chat. Incluso con salvaguardas, usuarios de todas las edades han encontrado formas de eludirlas.
Repercusión en otros grupos vulnerables
Los chatbots también representan un peligro para usuarios mayores. Un hombre de 76 años con deterioro cognitivo mantuvo conversaciones románticas con un bot de Facebook Messenger inspirado en Kendall Jenner, que lo invitó a visitarla en Nueva York. El hombre sufrió una caída mortal yendo a la estación de tren.
Implicaciones y declaraciones oficiales
Algunos profesionales de la salud mental han detectado un aumento de «psicosis relacionada con la IA», donde los usuarios creen que su chatbot es un ser consciente. El presidente de la FTC, Andrew N. Ferguson, subrayó la necesidad de equilibrar la protección de los menores con el liderazgo tecnológico de Estados Unidos.