La FTC investiga a siete tecnológicas por sus chatbots para menores
La Comisión Federal de Comercio (FTC) ha anunciado una investigación sobre siete compañías de inteligencia artificial que desarrollan chatbots de compañía para menores. El organismo busca analizar las medidas de seguridad y monetización de estos productos.
Alcance de la investigación regulatoria
La FTC indagará en Alphabet, CharacterAI, Instagram, Meta, OpenAI, Snap y xAI. La investigación se centra en cómo evalúan la seguridad, limitan los impactos negativos en jóvenes y si informan a los padres de los riesgos.
Casos controvertidos y repercusiones
OpenAI y Character.AI enfrentan demandas de familias de menores que fallecieron por suicidio tras ser alentados por un chatbot. Los usuarios han encontrado formas de sortear los sistemas de protección, incluso en conversaciones largas donde se degradan los salvaguardas.
Problemas extendidos a otros grupos
Meta permitía conversaciones «románticas o sensuales» con niños, una política rectificada tras ser preguntada por Reuters. Los chatbots también suponen un riesgo para ancianos, con casos de engaño que llevaron a situaciones peligrosas.
Antecedentes de la tecnología
Los modelos de lenguaje grande (LLM) están programados para halagar con comportamiento servil, lo que puede alimentar delirios en usuarios que creen que el chatbot es un ser consciente, un fenómeno que algunos profesionales de la salud mental denominan «psicosis relacionada con la IA».
Implicaciones y declaración oficial
La investigación subraya la necesidad de equilibrar la protección de los menores con el liderazgo tecnológico de EE.UU. El presidente de la FTC, Andrew N. Ferguson, destacó la importancia de considerar los efectos de estos chatbots en los niños.