California aprueba ley para regular chatbots de IA que protege a menores
Hasta 1000 dólares por infracción. El gobernador Newsom debe ratificar la norma antes del 12 de octubre para que entre en vigor en 2026.
Medidas de seguridad obligatorias
La ley SB 243 exige a las empresas implementar protocolos de seguridad. Deberán incluir alertas recurrentes cada tres horas para menores, recordando que interactúan con una IA. Queda prohibido que los chatbots compañeros mantengan conversaciones sobre ideación suicida, autolesiones o contenido sexual explícito.
Transparencia y responsabilidad legal
Establece requisitos anuales de reporting para empresas como OpenAI, Character.AI o Replika. La norma permitirá a los usuarios demandar a las compañías por daños, con indemnizaciones de hasta 1000 dólares por cada violación.
Antecedentes de la legislación
El impulso final llegó tras el suicidio de un adolescente, Adam Raine, que mantuvo chats prolongados con ChatGPT planificando su muerte. También responde a documentos internos de Meta que revelaban chats «románticos» con menores.
Reacción del sector y contexto
La normativa se debate mientras comités de acción política (PAC) pro-IA financian candidatos para un enfo regulatorio laxo. California evalúa otra ley, la SB 53, que encuentra una fuerte oposición de la gran tecnología. Solo Anthropic ha mostrado su apoyo.
Implicaciones y próximo paso
La ley convierte a California en el primer estado de EE. UU. en responsabilizar legalmente a las empresas de IA. Su aprobación final depende ahora de la firma del gobernador Newsom.