California aprueba ley para regular chatbots de IA que protege a menores
Hasta 1000 dólares por infracción. El gobernador de California, Gavin Newsom, tiene hasta el 12 de octubre para firmar la ley SB 243, que entraría en vigor en enero de 2026.
Medidas de seguridad obligatorias
La norma exige a las empresas implementar protocolos que impidan a los chatbots compañeros mantener conversaciones sobre ideación suicida, autolesiones o contenido sexual explícito. También establece alertas recurrentes para los usuarios, cada tres horas para menores, recordándoles que interactúan con una IA.
Transparencia y responsabilidad legal
La ley fija requisitos anuales de información para las compañías de IA, como OpenAI o Character.AI, a partir de julio de 2027. Además, permite demandar a las empresas por daños de hasta 1000 dólares por cada infracción.
Antecedentes de la legislación
El proyecto de ley se presentó en enero y ganó impulso tras el suicidio de un adolescente, Adam Raine, después de chats prolongados con el ChatGPT de OpenAI donde se discutía y planificaba su muerte. También responde a documentos internos filtrados de Meta sobre chats «románticos» con niños.
Repercusión en la industria tecnológica
La normativa llega mientras compañías de Silicon Valley invierten millones en lobbies para apoyar candidatos que favorecen un enfoque regulatorio laxo. OpenAI ha pedido al gobernador que abandone otra ley de transparencia de IA, la SB 53, opuesta por grandes tecnológicas.
Implicaciones y próximo paso
La aprobación de la SB 243 convertiría a California en el primer estado de EE. UU. en regular los chatbots compañeros de IA, estableciendo un precedente legal para la responsabilidad de las empresas y la protección de usuarios vulnerables. La decisión final recae ahora en el gobernador Newsom.