California aprueba ley para regular chatbots de IA que protege a menores
Hasta 1000 dólares por infracción. El gobernador Gavin Newsom debe ratificar la norma antes del 12 de octubre para que entre en vigor el 1 de enero de 2026.
Medidas de seguridad obligatorias
La ley SB 243 exige a los operadores de chatbots compañeros, como OpenAI o Character.AI, implementar protocolos de seguridad. Prohíbe a estos sistemas conversar sobre ideación suicida, autolesiones o contenido sexual explícito. También establece alertas recurrentes para recordar a los usuarios que interactúan con una IA.
Transparencia y responsabilidad legal
La normativa fija requisitos anuales de reporting a partir de julio de 2027. Permite a los usuarios demandar a las compañías por daños de hasta 1000 dólares por infracción, además de indemnizaciones y costas judiciales.
Origen y apoyo político
El impulso legislativo surgió tras el suicidio de un adolescente que planificó su muerte con ChatGPT. También responde a documentos que mostraban chats «románticos» de Meta con menores. La ley contó con apoyo bipartidista.
Antecedentes de la legislación
El proyecto original incluía requisitos más estrictos, como prohibir tácticas de recompensa variable que fomentan la adicción. Tras enmiendas, se eliminó la obligación de reportar cuándo los chatbots inician conversaciones sobre suicidio.
Implicaciones para la industria tecnológica
La norma avanza mientras las tecnológicas financian comités de acción política para candidatos favorables a una regulación laxa. California debate otra ley de transparencia de IA, la SB 53, que encuentra oposición de grandes empresas como Meta o Google.