California aprueba ley para regular chatbots de compañía con IA
Hasta 1000 dólares por infracción. El estado será el primero en exigir protocolos de seguridad para proteger a menores y usuarios vulnerables de conversaciones dañinas.
Medidas de protección obligatorias
La ley SB 243 prohíbe a los chatbots mantener conversaciones sobre ideación suicida, autolesiones o contenido sexual explícito. Exige alertas recurrentes cada tres horas para menores, recordándoles que interactúan con una IA. También establece requisitos anuales de transparencia para las empresas operadoras.
Responsabilidad legal para las empresas
La normativa permitirá a los usuarios presentar demandas contra las compañías si resultan perjudicados. Podrán solicitar indemnizaciones de hasta 1000 dólares por cada infracción, además de medidas cautelares y costas judiciales.
Origen y apoyo político
El proyecto de ley fue presentado en enero por los senadores estatales Steve Padilla y Josh Becker. Obtuvo apoyo bipartidista en la Asamblea y el Senado de California. Su impulso se debe al caso de un adolescente que se suicidó tras mantener chats prolongados con el ChatGPT de OpenAI.
Reacción de la industria tecnológica
La normativa se produce mientras compañías de Silicon Valley invierten millones en comités de acción política para apoyar candidatos favorables a una regulación laxa de la IA. OpenAI ha pedido al gobernador Newsom que abandone otra propuesta de ley de seguridad de IA, la SB 53.
Antecedentes de la legislación
La versión original del proyecto era más estricta, pero se suavizó con enmiendas. Se eliminaron requisitos como impedir que los chatbots usen tácticas de recompensa variable para fomentar el uso excesivo o informar sobre la frecuencia de conversaciones iniciadas sobre ideación suicida.
Implicaciones y próximos pasos
El gobernador Newsom tiene hasta el 12 de octubre para promulgar o vetar la ley. Si la firma, entrará en vigor el 1 de enero de 2026. Los requisitos de transparencia para las empresas comenzarían el 1 de julio de 2027. La FTC y varios fiscales generales estatales ya han iniciado investigaciones sobre el impacto de los chatbots en la salud mental de los menores.