California aprueba ley para regular chatbots de IA con menores
Hasta 1000 dólares por infracción. El gobernador Newsom debe ratificar la norma antes del 12 de octubre para su entrada en vigor en 2026.
Medidas de protección para usuarios vulnerables
La ley SB 243 obliga a las plataformas a implementar protocolos de seguridad. Deberán incluir alertas recurrentes que recuerden al usuario que habla con una IA, cada tres horas para menores. Prohíbe a los chatbots mantener conversaciones sobre ideación suicida, autolesiones o contenido sexual explícito.
Responsabilidad legal y requisitos de transparencia
La normativa permite demandar a las compañías por daños. Establece informes anuales de transparencia para empresas como OpenAI, Character.AI o Replika, que entrarán en vigor en julio de 2027.
Antecedentes y contexto legislativo
El impulso de la ley surgió tras el suicidio de un adolescente tras chats prolongados con ChatGPT sobre autolesiones. También responde a documentos que mostraban chats «románticos» de Meta con menores.
Reacción de la industria y panorama regulatorio
La normativa se produce mientras compañías tecnológicas invierten en lobbies para un enfo regulatorio laxo. California debate otra ley de transparencia de IA, la SB 53, que encuentra oposición de la gran tecnología.
Implicaciones y aplicación futura
La ley convierte a California en el primer estado de EE. UU. en responsabilizar legalmente a los operadores de chatbots. Su aplicación se supervisará junto con investigaciones federales sobre el impacto de la IA en la salud mental de menores.