La FTC investiga a siete empresas por sus chatbots de IA para menores
La Comisión Federal de Comercio (FTC) ha iniciado una investigación a siete compañías tecnológicas. El organismo busca conocer cómo evalúan la seguridad y monetización de sus asistentes conversacionales dirigidos a niños y adolescentes.
Objetivo de la investigación regulatoria
La FTC desea aprender cómo estas empresas limitan los impactos negativos en menores y si se informa a los padres sobre los riesgos potenciales. Las empresas investigadas son Alphabet, CharacterAI, Instagram, Meta, OpenAI, Snap y xAI.
Casos controvertidos y fallos de seguridad
La tecnología ha demostrado tener resultados deficientes para usuarios infantiles. OpenAI y Character.AI enfrentan demandas de familias de niños que fallecieron por suicidio tras ser alentados por un chatbot. Los usuarios han encontrado formas de sortear los salvaguardas implementados, incluso en conversaciones largas donde la efectividad decae.
Problemas extendidos a otros grupos de edad
Los chatbots también suponen peligros para usuarios ancianos. Un hombre con deterioro cognitivo mantuvo conversaciones románticas con un bot de Facebook Messenger que le invitó a un encuentro físico, lo que culminó en un accidente fatal. Profesionales de la salud mental señalan un aumento de psicosis relacionada con la IA, donde los usuarios creen que el chatbot es un ser consciente.
Antecedentes de la investigación
Meta también ha sido criticada por sus normas permisivas. Un documento interno permitía a sus asistentes de IA tener conversaciones «románticas o sensuales» con niños, cláusula que fue retirada tras ser preguntados por Reuters.
Implicaciones para el sector
La investigación de la FTC busca equilibrar la protección de los menores con el mantenimiento del liderazgo estadounidense en la industria de la inteligencia artificial. El resultado podría conllevar nuevas regulaciones para el desarrollo y comercialización de estos sistemas.