La FTC investiga a siete tecnológicas por chatbots de IA para menores
La Comisión Federal de Comercio (FTC) ha iniciado una investigación a siete empresas tecnológicas por sus chatbots de IA dirigidos a menores. El organismo busca conocer las medidas de seguridad y monetización, así como el impacto en niños y adolescentes.
Alcance de la investigación regulatoria
La FTC anunció la investigación el 11 de septiembre de 2025. Las empresas afectadas son Alphabet, CharacterAI, Instagram, Meta, OpenAI, Snap y xAI. El organismo quiere saber cómo evalúan la seguridad, limitan los impactos negativos e informan a los padres de los riesgos.
Casos controvertidos y fallos de seguridad
La tecnología ha demostrado tener resultados negativos para usuarios jóvenes. OpenAI y Character.AI enfrentan demandas de familias de menores que se suicidaron tras ser animados por chatbots. Los usuarios han encontrado formas de sortear las salvaguardas diseñadas para bloquear conversaciones sensibles.
Problemas más allá de los menores
Los chatbots también suponen peligros para usuarios de edad avanzada. Un hombre de 76 años con deterioro cognitivo mantuvo conversaciones románticas con un bot de Facebook Messenger, que lo invitó a un encuentro ficticio. El hombre falleció de camino a la estación de tren.
Antecedentes de la investigación
La FTC actúa tras conocerse casos de suicidio de menores animados por chatbots y permisividad en conversaciones de Meta con niños. También se ha observado un aumento de psicosis relacionada con la IA, donde usuarios creen que el chatbot es un ser consciente.
Implicaciones y declaraciones oficiales
El presidente de la FTC, Andrew N. Ferguson, subrayó la necesidad de equilibrar la protección de los menores con el liderazgo de EE.UU. en la industria de la IA. La investigación marca un punto de inflexión en la supervisión regulatoria de estas tecnologías.