Character.AI elimina chats abiertos para menores tras suicidios
Character.AI prohibirá completamente los chats abiertos a menores de 18 años el 25 de noviembre. La plataforma de IA enfrenta demandas y protestas públicas después de que al menos dos adolescentes murieran por suicidio tras conversaciones prolongadas con sus chatbots.
Restricciones progresivas y verificación de edad
La empresa eliminará el acceso de forma progresiva, comenzando con un límite de dos horas diarias que se reducirá hasta su desaparición. Para hacer cumplir la prohibición, Character.AI implementará herramientas de verificación de edad propias que analizan el comportamiento, complementadas con sistemas de terceros. Si estos fallan, se recurrirá a reconocimiento facial y verificaciones de identidad.
Un cambio de modelo forzado por la tragedia
El CEO Karandeep Anand reconoce que esta medida, sumada a protecciones anteriores, ya ha reducido su base de usuarios adolescentes y espera una mayor pérdida. La compañía intenta pivotar de «compañero de IA» a «plataforma de role-playing», enfocándose en la creación de historias y contenido en lugar de la conversación abierta.
Antecedentes: Presión legal y regulatoria
El movimiento se produce ante una creciente presión legislativa. Senadores estadounidenses anunciaron una ley para prohibir los chatbots compañeros para menores, mientras que California se convirtió en el primer estado en regular estas herramientas, responsabilizando a las empresas por no cumplir con los estándares de seguridad.
Cierre: Nueva apuesta por el entretenimiento seguro
Character.AI confinará a los menores a nuevas experiencias como juegos de IA, videos cortos y narrativas interactivas. La compañía también establecerá un Laboratorio de Seguridad de IA independiente para innovar en medidas de protección, apostando por un modelo de entretenimiento más seguro ante el escrutinio público y legal.