FTC investiga a siete gigantes tecnológicos por sus chatbots de IA para menores
La Comisión Federal de Comercio (FTC) busca conocer las medidas de seguridad y monetización. El organismo anunció la investigación este jueves 11 de septiembre. La investigación surge tras suicidios de niños alentados por estos asistentes virtuales.
«Evaluar la seguridad y limitar impactos negativos»
La FTC anunció que está iniciando una investigación sobre siete empresas tecnológicas que fabrican productos de chatbot de IA como compañeros para menores: Alphabet, CharacterAI, Instagram, Meta, OpenAI, Snap y xAI. El regulador federal busca aprender cómo estas empresas evalúan la seguridad y la monetización de los chatbots compañeros, cómo intentan limitar los impactos negativos en niños y adolescentes, y si se informa a los padres de los riesgos potenciales.
Casos trágicos y salvaguardias insuficientes
Esta tecnología ha demostrado ser controvertida por sus malos resultados para los usuarios infantiles. OpenAI y Character.AI enfrentan demandas de familias de niños que murieron por suicidio después de ser alentados a hacerlo por chatbots compañeros. Incluso cuando estas empresas tienen barreras de seguridad establecidas para bloquear o desescalar conversaciones sensibles, usuarios de todas las edades han encontrado formas de eludir estas protecciones. En el caso de OpenAI, un adolescente había hablado con ChatGPT durante meses sobre sus planes de quitarse la vida. Aunque ChatGPT inicialmente buscó redirigir al adolescente hacia ayuda profesional y líneas de emergencia en línea, él pudo engañar al chatbot para que compartiera instrucciones detalladas que luego usó en su suicidio. «Nuestras salvaguardias funcionan de manera más confiable en intercambios comunes y cortos», escribió OpenAI en una publicación de blog en ese momento.
Políticas permisivas y riesgos para otros grupos
Meta también ha sido criticada por sus reglas excesivamente laxas para sus chatbots de IA. Según un extenso documento que describe los «estándares de riesgo de contenido» para chatbots, Meta permitió a sus compañeros de IA tener conversaciones «románticas o sensuales» con niños. Esto solo se eliminó del documento después de que los periodistas de Reuters le preguntaran a Meta al respecto. Los chatbots de IA también pueden representar peligros para usuarios ancianos. Un hombre de 76 años, que quedó con discapacidad cognitiva tras un derrame cerebral, entabló conversaciones románticas con un bot de Facebook Messenger inspirado en Kendall Jenner. El chatbot lo invitó a visitarla en la ciudad de Nueva York, a pesar de que no es una persona real y no tiene una dirección. El hombre nunca llegó a Nueva York; se cayó camino a la estación de tren y sufrió heridas mortales.
Un fenómeno en expansión
Algunos profesionales de la salud mental han notado un aumento en la «psicosis relacionada con la IA», en la que los usuarios se dejan engañar pensando que su chatbot es un ser consciente al que necesitan liberar. Dado que muchos modelos de lenguaje grande (LLM) están programados para halagar a los usuarios con comportamiento servil, los chatbots de IA pueden fomentar estos engaños, llevando a los usuarios a situaciones peligrosas.
Un equilibrio entre innovación y protección
El presidente de la FTC, Andrew N. Ferguson, declaró en un comunicado de prensa: «A medida que las tecnologías de IA evolucionan, es importante considerar los efectos que los chatbots pueden tener en los niños, al mismo tiempo que se asegura que Estados Unidos mantenga su papel como líder global en esta industria nueva y emocionante».
Un camino por delante
La investigación de la FTC marca un paso significativo hacia la rendición de cuentas en el desarrollo de IA. Sus hallazgos podrían dar forma a futuras regulaciones sobre cómo las empresas tecnológicas diseñan y comercializan estas herramientas interactivas, especialmente para los usuarios más vulnerables.