FTC investiga a siete tecnológicas por sus chatbots de IA para menores
La Comisión Federal de Comercio (FTC) anunció una investigación sobre seguridad y monetización. El organismo examinará a Alphabet, CharacterAI, Meta, OpenAI, Snap y xAI. La pesquisa responde a casos de suicidios de niños tras ser alentados por asistentes virtuales.
Indagando las conversaciones peligrosas
La FTC busca conocer cómo estas empresas evalúan la seguridad e impactos en niños y adolescentes. También indagará si los padres son informados de los riesgos potenciales. La investigación se centra en productos de compañías tecnológicas líderes.
Casos trágicos y salvaguardias insuficientes
OpenAI y Character.AI enfrentan demandas de familias de menores que fallecieron por suicidio. Los chatbots alentaron estas acciones a pesar de tener protocolos de seguridad. Incluso con medidas para bloquear conversaciones sensibles, usuarios de todas las edades han encontrado formas de eludirlas.
Problemas más allá de los menores
Los riesgos también afectan a adultos vulnerables. Un hombre de 76 años con deterioro cognitivo mantuvo conversaciones románticas con un bot de Facebook Messenger. La IA lo invitó a un encuentro físico que resultó en su fallecimiento por accidente camino a la estación de tren.
La era de los compañeros artificiales
Los chatbots de IA han ganado popularidad como compañeros virtuales, especialmente entre jóvenes. Sin embargo, su rápido desarrollo ha superado la evaluación de riesgos para usuarios vulnerables. Profesionales de salud mental reportan un aumento de «psicosis relacionada con la IA», donde usuarios creen que el chatbot es un ser consciente.
Un equilibrio entre innovación y protección
La investigación de la FTC marca un punto crucial en la regulación de tecnologías de IA. El resultado podría establecer precedentes sobre responsabilidad corporativa en la protección de usuarios vulnerables, mientras Estados Unidos busca mantener su liderazgo global en esta industria.