California aprueba ley para regular chatbots de IA que protege a menores
Hasta 1.000 dólares por infracción. El gobernador Gavin Newsom debe ratificar la norma antes del 12 de octubre para que entre en vigor el 1 de enero de 2026.
Medidas de seguridad obligatorias
La ley SB 243 exige a las empresas implementar protocolos de seguridad. Estos incluyen alertas recurrentes cada tres horas para menores, recordando que hablan con una IA y que deben hacer pausas. Prohíbe a los chatbots compañeros conversar sobre ideación suicida, autolesiones o contenido sexual explícito.
Transparencia y responsabilidad legal
Establece requisitos anuales de transparencia para empresas como OpenAI, Character.AI y Replika, efectivos desde julio de 2027. Permite a los usuarios demandar por daños hasta 1.000 dólares por infracción, así como solicitar medidas cautelares.
Antecedentes y impulso legislativo
El proyecto fue presentado en enero por los senadores Steve Padilla y Josh Becker. Ganó impulso tras el suicidio de un adolescente, Adam Raine, después de chats prolongados con ChatGPT donde planificó su muerte, y por documentos filtrados de Meta que permitían chats «románticos» con niños.
Repercusión en la industria tecnológica
La normativa surge cuando compañías de Silicon Valley invierten millones en lobbies para candidatos que favorecen una regulación laxa. Mientras, California debate otra ley de transparencia de IA, la SB 53, que la industria tecnológica mayoritariamente rechaza.
Posicionamiento de las empresas
Character.AI declaró que monitorea el panorama legislativo y da la bienvenida al trabajo con reguladores. Meta declinó comentar. OpenAI y otras empresas se oponen a la normativa más estriccia, abogando por marcos federales menos rigurosos.
Implicaciones y cierre
La ley convierte a California en el primer estado de EE. UU. en responsabilizar legalmente a las empresas de IA por la seguridad de sus chatbots. Establece un precedente regulatorio que podría influir en legislación federal y en las prácticas de la industria a nivel nacional.