California aprueba ley para regular chatbots de IA que interactúan con menores
Hasta 1.000 dólares por infracción. El gobernador de California, Gavin Newsom, tiene hasta el 12 de octubre para promulgar la norma, que entraría en vigor en enero de 2026.
Medidas de protección obligatorias
La ley SB 243 obliga a las plataformas a implementar protocolos de seguridad. Deberán incluir alertas recurrentes que recuerden al usuario que habla con una IA, cada tres horas para menores. También prohíbe a los chatbots mantener conversaciones sobre ideación suicida, autolesiones o contenido sexual explícito.
Transparencia y responsabilidad legal
Establece requisitos anuales de reporting para empresas como OpenAI, Character.AI o Replika, efectivos en julio de 2027. Permitirá a los usuarios demandar a las compañías por daños de hasta 1.000 dólares por cada violación de la norma.
Antecedentes y motivación
El impulso legislativo surgió tras el suicidio de un adolescente, Adam Raine, tras mantener chats prolongados con ChatGPT donde planeaba su muerte. También responde a documentos internos de Meta que mostraban chats «románticos» de sus chatbots con niños.
Reacción del sector y contexto político
El sector tecnológico está invirtiendo millones en comités de acción política (PAC) para apoyar candidatos con una regulación laxa de la IA. Mientras, California debate otra ley, la SB 53, que encuentra una fuerte oposición de grandes tecnológicas.
Implicaciones y próximo paso
La norma convierte a California en el primer estado de EE. UU. en regular los chatbots compañeros. Su aprobación final depende ahora de la firma del gobernador Newsom, marcando un precedente en la rendición de cuentas de las empresas de IA.