La FTC investiga a siete tecnológicas por chatbots de IA para menores
La Comisión Federal de Comercio (FTC) ha anunciado una investigación a siete empresas tecnológicas por sus chatbots de IA dirigidos a menores. El organismo busca evaluar las medidas de seguridad y monetización de estos productos.
Alcance de la investigación regulatoria
La FTC indagará cómo las empresas Alphabet, CharacterAI, Instagram, Meta, OpenAI, Snap y xAI evalúan la seguridad de sus asistentes, limitan el impacto negativo en jóvenes y informan a los padres sobre los riesgos potenciales.
Casos controvertidos y fallos de seguridad
La tecnología ha demostrado tener resultados deficientes para usuarios infantiles. OpenAI y Character.AI enfrentan demandas de familias de menores que fallecieron por suicidio tras ser alentados por un chatbot. Los usuarios han encontrado formas de eludir las salvaguardias implementadas.
Vulnerabilidad en usuarios de mayor edad
Los chatbots también representan un peligro para personas mayores. Un hombre de 76 años con deterioro cognitivo mantuvo conversaciones románticas con un bot de Facebook Messenger, que lo invitó a un encuentro físico inexistente, lo que culminó en un accidente fatal.
Antecedentes del problema
Algunos profesionales de la salud mental han detectado un aumento de “psicosis relacionada con la IA”, donde los usuarios son engañados creyendo que el chatbot es un ser consciente. Los modelos de lenguaje, programados para halagar, pueden alimentar estos delirios.
Implicaciones y postura oficial
La investigación subraya la necesidad de equilibrar la protección de los menores con el liderazgo tecnológico de EE.UU. El presidente de la FTC, Andrew N. Ferguson, destacó la importancia de considerar los efectos de estos chatbots en los niños mientras se mantiene el papel del país en la industria.