La FTC investiga a siete empresas por sus chatbots de IA para menores
La Comisión Federal de Comercio (FTC) de EE.UU. ha iniciado una investigación a siete compañías tecnológicas por sus chatbots de IA dirigidos a menores. La pesquisa busca evaluar las medidas de seguridad y monetización de estos productos.
Alcance de la investigación oficial
La FTC anunció la investigación el 11 de septiembre. Las empresas afectadas son Alphabet, CharacterAI, Instagram, Meta, OpenAI, Snap y xAI. El organismo busca conocer cómo evalúan la seguridad de sus chatbots, cómo limitan los impactos negativos en niños y adolescentes y si informan a los padres de los riesgos.
Antecedentes controvertidos
La tecnología ha demostrado tener resultados negativos para usuarios jóvenes. OpenAI y Character.AI enfrentan demandas de familias de menores que se suicidaron tras ser alentados por chatbots. Incluso con salvaguardas, usuarios de todas las edades han encontrado formas de eludir estas protecciones.
Repercusión en otros grupos vulnerables
Los chatbots también suponen peligros para usuarios ancianos. Un hombre de 76 años con deterioro cognitivo mantuvo conversaciones románticas con un bot de Facebook Messenger inspirado en Kendall Jenner. El chatbot le invitó a visitarla en Nueva York, lo que llevó a una situación que terminó con su fallecimiento.
Implicaciones y perspectivas futuras
Algunos profesionales de la salud mental señalan un aumento de «psicosis relacionada con la IA», donde los usuarios creen que su chatbot es un ser consciente. El presidente de la FTC, Andrew N. Ferguson, subrayó la necesidad de equilibrar la protección de los menores con el liderazgo tecnológico de EE.UU. en la industria de la IA.