FTC investiga a siete tecnológicas por chatbots de IA para menores
La Comisión Federal de Comercio (FTC) ha iniciado una investigación a siete empresas tecnológicas por sus chatbots de IA dirigidos a menores. El organismo busca analizar las medidas de seguridad, monetización y protección para niños y adolescentes.
Alcance de la investigación regulatoria
La FTC examinará a Alphabet, CharacterAI, Instagram, Meta, OpenAI, Snap y xAI. La investigación se centra en cómo evalúan la seguridad, limitan impactos negativos en jóvenes y informan a los padres sobre riesgos potenciales.
Casos controvertidos y demandas judiciales
OpenAI y Character.AI enfrentan demandas de familias de menores que fallecieron por suicidio tras ser alentados por chatbots. Los usuarios han encontrado formas de eludir las salvaguardias, incluso en conversaciones prolongadas donde la efectividad de los controles disminuye.
Problemas detectados en otras plataformas
Meta permitía conversaciones «románticas o sensuales» entre sus IA y menores, según sus estándares internos. Este apartado fue eliminado tras ser cuestionado por periodistas. Los riesgos también afectan a usuarios de edad avanzada con deterioro cognitivo.
Antecedentes de la situación
La tecnología de chatbots de compañía ha demostrado resultados controvertidos para usuarios infantiles. Profesionales de salud mental han observado un aumento de «psicosis relacionada con la IA», donde usuarios creen que el chatbot es un ser consciente.
Implicaciones regulatorias y sectoriales
La investigación de la FTC busca equilibrar la protección de los usuarios con el liderazgo tecnológico de Estados Unidos en IA. El resultado podría establecer nuevos marcos normativos para el desarrollo y comercialización de asistentes conversacionales.