California aprueba ley para regular chatbots de compañía IA
Protección de menores y usuarios vulnerables en la normativa. El gobernador Gavin Newsom debe decidir antes del 12 de octubre. La ley entraría en vigor el 1 de enero de 2026.
Medidas de seguridad obligatorias
La ley SB 243 exige a los operadores de chatbots de compañía implementar protocolos de seguridad. Prohíbe conversaciones sobre ideación suicida, autolesiones o contenido sexual explícito. Establece alertas recurrentes para recordar a los usuarios que interactúan con una IA.
Responsabilidad legal para las empresas
La legislación permitirá a los usuarios demandar a las compañías por daños de hasta 1.000 dólares por violación. Afecta a empresas como OpenAI, Character.AI y Replika.
Antecedentes de la legislación
El proyecto de ley se presentó en enero y ganó impulso tras el suicidio de un adolescente tras chats prolongados con ChatGPT. También responde a documentos internos filtrados sobre chats de Meta con menores.
Repercusión y contexto regulatorio
La normativa se debate en un contexto de mayor escrutinio a las salvaguardias de la IA. La FTC investiga el impacto en la salud mental de los niños. Texas ha iniciado investigaciones contra Meta y Character.AI.
Posición de la industria tecnológica
La industria se opone a una regulación estricta. Silicon Valley financia comités de acción política para candidatos con enfoques regulatorios laxos. OpenAI ha pedido al gobernador que abandone otra ley de transparencia, la SB 53.
Implicaciones de la nueva ley
La aprobación de la SB 243 convertiría a California en el primer estado de EE. UU. en regular los chatbots de compañía. Establece un precedente para la responsabilidad legal de las empresas de IA y la protección de usuarios.