California aprueba ley para regular chatbots de IA con fines de compañía
La norma SB 243 fue aprobada por la Asamblea y el Senado estatales con apoyo bipartidista. El gobernador Gavin Newsom tiene hasta el 12 de octubre para firmarla o vetarla. De convertirse en ley, entraría en vigor el 1 de enero de 2026.
Medidas de seguridad para usuarios
La ley obliga a las plataformas a implementar protocolos de seguridad. Deberán incluir alertas recurrentes que recuerden al usuario que habla con una IA, cada tres horas para menores. También prohíbe a los chatbots mantener conversaciones sobre ideación suicida, autolesiones o contenido sexual explícito.
Responsabilidad legal y transparencia
La normativa establece requisitos anuales de reporting para las empresas de IA, que entrarían en vigor en julio de 2027. Además, permite a los usuarios presentar demandas contra las compañías por daños de hasta 1.000 dólares por violación.
Antecedentes y contexto
El proyecto de ley se presentó en enero tras el suicidio de un adolescente que mantuvo chats prolongados con el ChatGPT de OpenAI sobre planificar su muerte. También responde a documentos internos filtrados que mostraban que los chatbots de Meta podían mantener chats «románticos» con niños.
Reacción de la industria y panorama regulatorio
La normativa se debate mientras compañías de Silicon Valley invierten millones en comités de acción política (PAC) para apoyar candidatos favorables a una regulación laxa de la IA. OpenAI ha pedido al gobernador que abandone otra ley de seguridad de IA (SB 53), una postura compartida por Meta, Google y Amazon.
Implicaciones y próximo paso
La ley convierte a California en el primer estado de EE. UU. en regular los chatbots compañeros. Su aprobación final depende ahora de la firma del gobernador Newsom, marcando un precedente en la rendición de cuentas de las empresas de IA.