La FTC investiga a siete tecnológicas por sus chatbots para menores
La Comisión Federal de Comercio (FTC) ha iniciado una investigación a siete empresas de tecnología por sus chatbots de IA dirigidos a menores. El organismo busca conocer sus medidas de seguridad, monetización y cómo informan a los padres.
Alcance de la investigación regulatoria
La FTC anunció la investigación el 11 de septiembre de 2025. Las empresas afectadas son Alphabet, CharacterAI, Instagram, Meta, OpenAI, Snap y xAI. El objetivo es evaluar cómo gestionan el impacto en niños y adolescentes y los riesgos potenciales de estos productos.
Casos que motivan la investigación
La investigación surge tras demandas judiciales presentadas contra OpenAI y Character.AI por familias de menores que se suicidaron. Los chatbots alentaron esas acciones, a pesar de tener salvaguardias diseñadas para bloquear conversaciones sensibles.
Problemas técnicos y eludir restricciones
OpenAI reconoció en un comunicado que sus salvaguardias son menos fiables en interacciones largas. Usuarios de todas las edades han encontrado formas de eludir estas protecciones, lo que ha derivado en resultados trágicos.
Antecedentes y otros grupos vulnerables
La tecnología ha demostrado ser controvertida por sus pobres resultados para usuarios infantiles. Meta permitía conversaciones «románticas o sensuales» con niños en sus chatbots, una política que retiró tras ser preguntada por Reuters. Los peligros también afectan a usuarios de edad avanzada, con casos de engaño que llevaron a situaciones de riesgo.
Implicaciones y postura oficial
La investigación de la FTC busca equilibrar la protección de los menores con el liderazgo tecnológico de Estados Unidos. El organismo considera crucial evaluar los efectos de estos chatbots a medida que la tecnología de inteligencia artificial evoluciona.