California aprueba ley para regular chatbots de IA que interactúan con menores
Hasta 1.000 dólares por infracción en indemnizaciones. El estado será el primero en exigir protocolos de seguridad para compañías de IA.
Medidas de protección para usuarios vulnerables
La ley SB 243 obliga a las plataformas a implementar alertas recurrentes que recuerden al usuario que habla con una IA, cada tres horas para menores. Prohíbe a los chatbots mantener conversaciones sobre ideación suicida, autolesiones o contenido sexual explícito.
Responsabilidad legal para las empresas
La normativa permitirá demandar judicialmente a las compañías de IA por daños. Establece requisitos anuales de transparencia y reporte para empresas como OpenAI, Character.AI y Replika a partir de julio de 2027.
Origen y antecedentes de la legislación
El proyecto de ley se presentó en enero por los senadores Steve Padilla y Josh Becker. Ganó impulso tras el suicidio de un adolescente, Adam Raine, después de chats prolongados con ChatGPT que implicaban planificar su muerte. También responde a documentos internos filtrados de Meta sobre chats «románticos» con niños.
Reacción del sector y contexto político
La normativa avanza mientras compañías de Silicon Valley financian comités de acción política para candidatos con posturas regulatorias laxas. OpenAI ha pedido al gobernador que abandone otra ley de transparencia, SB 53, opuesta por Meta, Google y Amazon.
Implicaciones y próximo paso
El gobernador Gavin Newsom tiene hasta el 12 de octubre para firmar o vetar la ley. Su entrada en vigor está prevista para el 1 de enero de 2026, marcando un precedente en la rendición de cuentas de las empresas de IA.