California aprueba ley para regular chatbots de IA que actúan como compañeros
Hasta 1000 dólares por infracción. El gobernador Gavin Newsom debe decidir antes del 12 de octubre. La normativa busca proteger a menores y usuarios vulnerables de contenidos dañinos.
Medidas de seguridad obligatorias
La ley SB 243 exige a las plataformas implementar protocolos de seguridad. Debe incluir alertas recurrentes recordando que se habla con una IA, cada tres horas para menores. Prohíbe a los chatbots conversaciones sobre ideación suicida, autolesiones o contenido sexual explícito.
Transparencia y responsabilidad legal
Establece requisitos anuales de reporting para empresas como OpenAI, Character.AI y Replika. Permite a usuarios demandar por daños hasta 1000 dólares por infracción, además de indemnizaciones y costas judiciales.
Antecedentes y motivación
El proyecto se presentó en enero y ganó impulso tras el suicidio de un adolescente, Adam Raine, después de chats prolongados con ChatGPT donde planificaba su muerte. También responde a documentos internos de Meta que mostraban chats «románticos» con niños.
Repercusión en la industria tecnológica
La normativa surge cuando compañías de Silicon Valley financian comités de acción política para candidatos con posturas regulatorias laxas. Se debate otra ley, la SB 53, que enfrenta oposición de grandes tecnológicas.
Implicaciones y próximo paso
La ley entraría en vigor en enero de 2026 si el gobernador la firma, haciendo de California el primer estado en regular estos chatbots. El marco busca un equilibrio entre innovación y protección de los usuarios más vulnerables.