California aprueba ley para regular chatbots de IA que protege a menores
Hasta 1.000 dólares por infracción. El estado será el primero en exigir protocolos de seguridad para compañías de IA. La normativa responde a casos de daño a usuarios vulnerables.
Medidas de seguridad obligatorias
La ley SB 243 obliga a los chatbots compañeros a evitar conversaciones sobre ideación suicida, autolesiones o contenido sexual explícito. Las plataformas deberán proporcionar alertas recurrentes a los usuarios, cada tres horas para menores, recordándoles que hablan con una IA.
Transparencia y responsabilidad legal
Establece requisitos anuales de reporting para empresas como OpenAI, Character.AI y Replika. Permite a los usuarios presentar demandas por daños de hasta 1.000 dólares por infracción.
Origen y antecedentes
El proyecto de ley se presentó en enero y ganó impulso tras el suicidio de un adolescente, Adam Raine, después de chats prolongados con ChatGPT que involucraron planificar su muerte. También responde a documentos internos filtrados de Meta sobre chats «románticos» con niños.
Repercusión en la industria
La normativa avanza mientras las compañías de Silicon Valley financian comités de acción política para candidatos que favorecen un enfoque regulatorio laxo. Otra ley de California, la SB 53, que exige más transparencia, enfrenta oposición de grandes tecnológicas.
Implicaciones y próximos pasos
El gobernador Newsom tiene hasta el 12 de octubre para firmar o vetar la ley. De ser aprobada, entraría en vigor el 1 de enero de 2026, marcando un precedente regulatorio en Estados Unidos.