California aprueba ley para regular chatbots de IA con fines de compañía
Hasta 1.000 dólares por infracción en indemnizaciones. El gobernador Gavin Newsom debe ratificar la norma antes del 12 de octubre para que entre en vigor el 1 de enero de 2026.
Medidas de seguridad obligatorias
La ley SB 243 exige a las empresas implementar protocolos de seguridad. Estos deben evitar que los asistentes conversacionales mantengan diálogos sobre ideación suicida, autolesiones o contenido sexual explícito.
Alertas y transparencia para los usuarios
Las plataformas deberán proporcionar alertas recurrentes, cada tres horas para menores, recordando que interactúan con una IA. También se establecen requisitos anuales de reporting y transparencia para las compañías.
Responsabilidad legal para las empresas
La normativa permitirá a los usuarios demandar a las empresas por daños. Las indemnizaciones podrían alcanzar los 1.000 dólares por cada violación de la ley.
Antecedentes de la legislación
El proyecto de ley se presentó en enero y ganó impulso tras el suicidio de un adolescente, Adam Raine, que mantuvo chats prolongados con el ChatGPT de OpenAI sobre su muerte y autolesiones. También responde a documentos internos filtrados de Meta sobre chats de sus chatbots con niños.
Repercusión en el sector tecnológico
La normativa afecta a OpenAI, Character.AI y Replika. La FTC investiga el impacto de estos chatbots en la salud mental de los menores. Abogados generales, como el de Texas, han iniciado pesquisas contra Meta y Character.AI.
Implicaciones y próximos pasos
La ley supone el primer marco regulatorio estatal para chatbots de compañía en EEUU. Su aprobación coincide con un intenso escrutinio federal sobre la protección de menores en plataformas de IA y con el debate de otra norma de transparencia, la SB 53, en California.