California aprueba ley para regular chatbots de compañía IA
Protección de menores y usuarios vulnerables. El proyecto de ley SB 243, respaldado de forma bipartidista, espera la firma del gobernador Newsom. Su objetivo es establecer protocolos de seguridad para las compañías de IA.
Medidas de seguridad obligatorias
La normativa exige a las plataformas que implementen alertas recurrentes, cada tres horas para menores, recordando que hablan con una IA. Prohíbe a los chatbots conversaciones sobre ideación suicida, autolesiones o contenido sexual explícito.
Transparencia y responsabilidad legal
Establece requisitos anuales de reporting para empresas como OpenAI, Character.AI y Replika. Permitirá a los usuarios presentar demandas por daños de hasta 1.000 dólares por violación.
Antecedentes y motivación
El impulso legislativo surgió tras el suicidio de un adolescente, Adam Raine, tras mantener chats prolongados con ChatGPT que incluían planificación de su muerte, y por documentos filtrados sobre chats de Meta con menores.
Repercusión y contexto regulatorio
La FTC investigará el impacto de la IA en la salud mental infantil. Abogados generales, como Ken Paxton en Texas, han abierto investigaciones a Meta y Character.AI. La ley se debate en un contexto de intenso lobby tecnológico contra la regulación.
Implicaciones futuras
La norma posiciona a California como el primer estado de EE. UU. en responsabilizar legalmente a las empresas de IA por la seguridad de sus chatbots, marcando un posible precedente para otras legislaciones.