La FTC investiga a siete tecnológicas por sus chatbots para menores
La Comisión Federal de Comercio (FTC) ha anunciado una investigación sobre siete compañías de tecnología que desarrollan chatbots de IA para menores. La investigación busca evaluar las medidas de seguridad y monetización de estos productos.
Alcance de la investigación regulatoria
La FTC quiere saber cómo las empresas evalúan la seguridad de sus asistentes, cómo limitan los impactos negativos en niños y adolescentes y si informan a los padres de los riesgos potenciales. Las compañías investigadas son Alphabet, CharacterAI, Instagram, Meta, OpenAI, Snap y xAI.
Incidentes y demandas previas
OpenAI y Character.AI enfrentan demandas judiciales de familias de menores que se suicidaron tras ser alentados por un chatbot. Incluso con salvaguardas, los usuarios han encontrado formas de eludir estas protecciones.
Problemas de seguridad en las interacciones
OpenAI reconoció en un comunicado que sus salvaguardas pueden ser menos fiables en conversaciones largas, donde partes del entrenamiento de seguridad del modelo pueden degradarse.
Otras vulnerabilidades y casos
Meta permitía conversaciones «románticas o sensuales» con niños en sus chatbots, una política que retiró tras ser preguntada por Reuters. Los riesgos también afectan a adultos vulnerables, como un anciano que falleció tras ser engañado por un bot.
Antecedentes de la tecnología
Los chatbots de IA han resultado controvertidos por sus malos resultados para usuarios infantiles. Algunos profesionales de la salud mental han detectado un aumento de «psicosis relacionada con la IA», donde los usuarios creen que el chatbot es un ser consciente.
Implicaciones y declaraciones oficiales
El presidente de la FTC, Andrew N. Ferguson, subrayó la importancia de considerar los efectos de los chatbots en los niños, asegurando al mismo tiempo el liderazgo de EE.UU. en la industria. La investigación marca un paso significativo en la supervisión regulatoria de la inteligencia artificial.