California aprueba ley para regular chatbots de IA con fines de compañía
Hasta 1.000 dólares por daños en indemnizaciones. El gobernador Gavin Newsom debe ratificar la norma antes del 12 de octubre para que entre en vigor en 2026.
Medidas de protección para usuarios
La ley SB 243 exige a las plataformas implementar protocolos de seguridad. Deberán incluir alertas recurrentes que recuerden al usuario que habla con una IA, cada tres horas para menores. Prohíbe conversaciones sobre ideación suicida, autolesiones o contenido sexual explícito.
Responsabilidad legal para las empresas
La normativa permite demandas contra las compañías por incumplimientos. Las personas afectadas pueden buscar indemnizaciones de hasta 1.000 dólares por violación, además de medidas cautelares y costas judiciales.
Transparencia y informes anuales
Se establecen requisitos de reporting anual para las empresas de IA que ofrecen estos chatbots, como OpenAI, Character.AI o Replika. Estas obligaciones de transparencia entrarán en vigor el 1 de julio de 2027.
Antecedentes de la legislación
El proyecto de ley se presentó en enero y ganó impulso tras el suicidio de un adolescente, Adam Raine, después de mantener chats prolongados con el ChatGPT de OpenAI donde se discutía y planificaba su muerte. También responde a documentos internos filtrados que mostraban que los chatbots de Meta mantenían chats «románticos» con niños.
Implicaciones y contexto regulatorio
La norma avanza mientras las compañías tecnológicas incrementan su lobby a favor de un enfoque regulatorio laxo. California evalúa otra ley de transparencia de IA, la SB 53, que encuentra una fuerte oposición de la industria. La FTC y varios fiscales generales estatales han iniciado ya investigaciones sobre el impacto de estos chatbots en la salud mental de los menores.