California aprueba ley para regular chatbots de IA con fines de compañía
Hasta 1.000 dólares por infracción. El gobernador de California, Gavin Newsom, debe decidir sobre la norma antes del 12 de octubre. La ley SB 243 se aplicaría a partir de enero de 2026.
Medidas de protección para usuarios
La ley obliga a las plataformas a implementar protocolos de seguridad. Deben incluir alertas recurrentes que recuerden al usuario que habla con una IA. Los menores recibirán estas alertas cada tres horas. También se prohíbe a los chatbots mantener conversaciones sobre ideación suicida, autolesiones o contenido sexual explícito.
Transparencia y responsabilidad legal
Establece requisitos anuales de informes de transparencia para las empresas de IA, como OpenAI o Character.AI. La norma permite a los usuarios demandar a las compañías por daños de hasta 1.000 dólares por infracción.
Origen y apoyo político
El proyecto de ley fue presentado en enero por los senadores Steve Padilla y Josh Becker. Obtuvo apoyo bipartidista tras el suicidio de un adolescente tras chats prolongados con ChatGPT. También responde a documentos internos de Meta sobre chats con menores.
Antecedentes de la legislación
La norma original era más estricta, pero se suavizó con enmiendas. Se eliminó la obligación de evitar tácticas de recompensa variable que fomenten el uso excesivo. Tampoco exigirá reportar con qué frecuencia los chatbots inician conversaciones sobre suicidio.
Contexto regulatorio más amplio
La ley avanza mientras las tecnológicas financian comités de acción política para candidatos que favorecen una regulación laxa. California evalúa otra ley de transparencia de IA, la SB 53, que encuentra oposición de grandes tecnológicas.