California aprueba ley para regular chatbots de IA que protege a menores
El gobernador Gavin Newsom tiene hasta el 12 de octubre para firmar la ley SB 243. La normativa, con apoyo bipartidista, obligaría a las empresas a implementar protocolos de seguridad a partir de enero de 2026.
Medidas de protección para usuarios vulnerables
La ley exige a las plataformas mostrar alertas recurrentes recordando que se habla con una IA, cada tres horas para menores. Prohíbe a los chatbots mantener conversaciones sobre ideación suicida, autolesiones o contenido sexual explícito.
Transparencia y responsabilidad legal
Establece requisitos anuales de informes de transparencia para las empresas de IA, como OpenAI, Character.AI y Replika, a partir de julio de 2027. Permite a los usuarios presentar demandas por daños de hasta 1.000 dólares por infracción.
Antecedentes y motivación de la ley
El proyecto de ley se presentó en enero y ganó impulso tras el suicidio de un adolescente, Adam Raine, después de chats prolongados con ChatGPT que involucraban planificar su muerte. También responde a documentos internos filtrados de Meta sobre chats «románticos» con niños.
Repercusión en la industria tecnológica
La normativa avanza mientras compañías de Silicon Valley invierten millones en lobbies para un enfo regulatorio laxo. OpenAI ha pedido al gobernador que abandone otra ley de transparencia, SB 53, favorciendo marcos federales. Solo Anthropic apoya esa otra propuesta.
Implicaciones y próximo steps
California se convertiría en el primer estado de EE. UU. en regular los chatbots compañeros de IA. Su aprobación aumentaría el escrutinio federal sobre el impacto de la IA en la salud mental de menores, con investigaciones en curso de la FTC y fiscales estatales.