California aprueba ley para regular chatbots de IA con medidas de seguridad
Hasta 1000 dólares por infracción en demandas contra empresas. El proyecto de ley SB 243, con apoyo bipartidista, espera la firma del gobernador Newsom para entrar en vigor el 1 de enero de 2026.
Medidas de protección para usuarios
La normativa obliga a implementar protocolos de seguridad en chatbots compañeros. Exige alertas recurrentes cada tres horas para menores, recordando que interactúan con una IA. Prohíbe conversaciones sobre ideación suicida, autolesión o contenido sexual explícito.
Transparencia y responsabilidad legal
Establece requisitos anuales de reporting para empresas como OpenAI, Character.AI y Replika, efectivos desde julio de 2027. Permite a usuarios presentar demandas por daños hasta 1000 dólares por violación.
Antecedentes y motivación
El impulso legislativo surgió tras el suicidio de un adolescente tras chats prolongados con ChatGPT sobre autolesión, y por documentos filtrados que mostraban chats «románticos» de Meta con menores.
Reacción del sector y contexto
La ley se debate mientras compañías de Silicon Valley financian PACs para candidatos con regulación laxa. California también evalúa otra ley de transparencia de IA, la SB 53, mayormente opuesta por la industria.
Implicaciones y próximos pasos
La norma convierte a California en el primer estado en regular chatbots compañeros. El gobernador Newsom tiene hasta el 12 de octubre para firmar o vetar el texto, marcando un precedente regulatorio nacional.