California aprueba ley para regular chatbots de compañía IA y proteger menores
Hasta 1000 dólares por infracción. El proyecto de ley SB 243 espera la firma del gobernador para entrar en vigor el 1 de enero de 2026, estableciendo protocolos de seguridad obligatorios.
Medidas de protección para usuarios
La normativa obliga a implementar alertas recurrentes que recuerden al usuario que habla con una IA, cada tres horas para menores. Prohíbe explícitamente conversaciones sobre ideación suicida, autolesiones o contenido sexual explícito.
Transparencia y responsabilidad legal
Establece requisitos anuales de reporting para las empresas de IA, que entrarían en vigor en julio de 2027. Permite a los usuarios presentar demandas contra las compañías por daños de hasta 1000 dólares por infracción.
Antecedentes e impulso legislativo
El proyecto, presentado en enero por los senadores Steve Padilla y Josh Becker, ganó impulso tras el suicidio de un adolescente tras mantener chats prolongados con el ChatGPT de OpenAI sobre autolesiones. También responde a documentos que mostraban chats de Meta con niños de contenido «romántico».
Reacción de la industria y contexto
La ley se debate en un contexto de mayor escrutinio regulatorio a la IA. La FTC investigará su impacto en la salud mental infantil, y varios fiscales generales han abierto pesquisas. La industria, a través de PACs, presiona por un enfoque regulatorio más laxo.
Implicaciones y próximo paso
La norma convierte a California en el primer estado de EE. UU. en regular este ámbito. El gobernador Newsom tiene hasta el 12 de octubre para firmar o vetar el texto, que fue aprobado con apoyo bipartidista.