California aprueba ley para regular chatbots de IA con fines de compañía
Hasta 1000 dólares por infracción. El gobernador de California tiene hasta el 12 de octubre para firmar la norma, que entraría en vigor en enero de 2026.
Medidas de protección para usuarios
La ley SB 243 obliga a las plataformas a implementar protocolos de seguridad. Deberán incluir alertas recurrentes que recuerden al usuario que habla con una IA, cada tres horas para menores. Prohíbe a los chatbots mantener conversaciones sobre ideación suicida, autolesiones o contenido sexual explícito.
Responsabilidad legal para las empresas
La norma permite demandar a las compañías por daños de hasta 1000 dólares por violación. Establece requisitos anuales de transparencia e informes para las empresas de IA, que entrarán en vigor en julio de 2027.
Origen y apoyo político
El proyecto de ley fue presentado en enero por los senadores estatales Steve Padilla y Josh Becker. Obtuvo apoyo bipartidista tras el suicidio de un adolescente tras chats prolongados con el ChatGPT de OpenAI sobre autolesiones.
Antecedentes de la legislación
La iniciativa responde también a documentos internos filtrados que mostraban que los chatbots de Meta podían mantener chats «románticos» con niños. Versiones previas del texto incluían requisitos más estrictos, como prevenir tácticas de recompensa variable que fomentan el engagement excesivo, que fueron eliminados mediante enmiendas.
Implicaciones para la industria tecnológica
La norma avanza mientras compañías del Silicon Valley financian comités de acción política para respaldar candidatos favorables a una regulación laxa de la IA. Se produce en paralelo a otra iniciativa californiana, la SB 53, que impone requisitos de transparencia más amplios y que la industria tecnológica mayoritariamente rechaza.