California aprueba ley para regular chatbots de IA que protege a menores
Hasta 1000 dólares por infracción. El gobernador Newsom debe ratificar la norma antes del 12 de octubre para que entre en vigor en 2026.
Medidas de seguridad obligatorias
La ley SB 243 exige a las plataformas implementar protocolos de seguridad. Deberán incluir alertas recurrentes cada tres horas para menores, recordando que interactúan con una IA. Prohíbe a los chatbots conversaciones sobre ideación suicida, autolesiones o contenido sexual explícito.
Transparencia y responsabilidad legal
Establece requisitos anuales de reporting para empresas como OpenAI, Character.AI o Replika. La norma permitirá a los usuarios demandar a las compañías por daños, con multas de hasta 1000 dólares por cada violación.
Antecedentes y contexto
El impulso legislativo surgió tras el suicidio de un adolescente, Adam Raine, que mantuvo chats prolongados con el ChatGPT de OpenAI planificando su muerte. También responde a documentos internos de Meta que mostraban chats «románticos» con niños.
Reacción de la industria y panorama regulatorio
La normativa se debate mientras compañías de Silicon Valley financian comités de acción política para apoyar una regulación laxa. California evalúa otra ley, la SB 53, que encuentra una fuerte oposición de la gran tecnológica. Solo Anthropic ha mostrado su apoyo.
Implicaciones y próximos pasos
La aprobación de la SB 243 convierte a California en el primer estado de EE. UU. en regular los chatbots compañeros. Su entrada en vigor supondría un marco de responsabilidad legal para las empresas de IA, marcando un posible precedente para otras jurisdicciones.