California aprueba ley para regular chatbots de IA con medidas de seguridad
El gobernador Gavin Newsom tiene hasta el 12 de octubre para firmar la ley SB 243. La normativa, que entraría en vigor en enero de 2026, busca proteger a menores y usuarios vulnerables de contenidos peligrosos.
Medidas obligatorias para las empresas de IA
La ley exige a las plataformas implementar protocolos de seguridad. Deberán incluir alertas recurrentes cada tres horas para menores, recordando que interactúan con una IA. También prohíbe a los chatbots mantener conversaciones sobre ideación suicida, autolesiones o contenido sexual explícito.
Transparencia y responsabilidad legal
Establece requisitos anuales de reporting y transparencia para empresas como OpenAI, Character.AI y Replika, efectivos desde julio de 2027. Permite a los usuarios presentar demandas por daños de hasta 1.000 dólares por violación.
Origen y antecedentes de la legislación
El proyecto de ley fue presentado en enero por los senadores Steve Padilla y Josh Becker. Ganó impulso tras el suicidio de un adolescente, Adam Raine, después de mantener chats prolongados con ChatGPT sobre planificación de su muerte. También responde a documentos internos filtrados que mostraban chats de Meta de contenido «románticosensual» con niños.
Repercusión en el sector tecnológico
La normativa surge cuando compañías de Silicon Valley invierten millones en PACs pro-IA para apoyar candidatos con una regulación laxa. Mientras, California evalúa otra ley de seguridad de IA, la SB 53, que enfrenta la oposición de grandes tecnológicas.
Implicaciones y contexto regulatorio
La SB 243 convierte a California en el primer estado de EE. UU. en regular legalmente los chatbots compañeros. Su aprobación coincide con una mayor escrutinio federal sobre el impacto de la IA en la salud mental de los menores, incluyendo investigaciones de la FTC y varios fiscales generales.