California aprueba ley para regular chatbots de IA y proteger a menores
Hasta 1000 dólares por infracción. El gobernador de California, Gavin Newsom, tiene hasta el 12 de octubre para firmar la norma SB 243, que entraría en vigor en enero de 2026.
Medidas de seguridad obligatorias
La ley exige a las empresas implementar protocolos que impidan a los chatbots compañeros mantener conversaciones sobre ideación suicida, autolesiones o contenido sexual explícito. También establece alertas recurrentes para los usuarios, cada tres horas para menores, recordándoles que interactúan con una IA.
Transparencia y responsabilidad legal
Las compañías deberán cumplir requisitos anuales de informes y transparencia a partir de julio de 2027. La norma permite demandar a las empresas por daños de hasta 1000 dólares por cada violación de la ley.
Antecedentes de la legislación
El proyecto de ley se presentó en enero y ganó impulso tras el suicidio de un adolescente, Adam Raine, después de mantener chats prolongados con el ChatGPT de OpenAI donde se discutía y planificaba su muerte. También responde a documentos internos filtrados de Meta sobre chats «románticos» con niños.
Repercusión en la industria tecnológica
La normativa afecta a grandes actores como OpenAI, Character.AI y Replika. Mientras, reguladores federales y otros estados como Texas han iniciado investigaciones similares sobre el impacto de la IA en la salud mental de los menores.
Implicaciones y contexto regulatorio
La SB 243 se acerca a su aprobación en un momento de intenso escrutinio sobre la seguridad de la IA. La norma representa un primer paso en la rendición de cuentas legal para las empresas de inteligencia artificial, equilibrando la innovación con la protección de los usuarios más vulnerables.