California aprueba ley para regular chatbots de IA que actúan como compañeros
Hasta 1000 dólares por infracción. El gobernador de California, Gavin Newsom, tiene hasta el 12 de octubre para promulgar la norma SB 243, que entraría en vigor en 2026.
Medidas de protección para usuarios
La ley exige a las plataformas que incluyan alertas recurrentes cada tres horas para menores, recordando que interactúan con una IA. Prohíbe a los chatbots mantener conversaciones sobre ideación suicida, autolesiones o contenido sexual explícito.
Transparencia y responsabilidad legal
Establece requisitos anuales de reporting para empresas como OpenAI, Character.AI o Replika. Permite a los usuarios presentar demandas contra las compañías por daños de hasta 1000 dólares por cada violación.
Antecedentes de la legislación
El proyecto de ley se presentó en enero y ganó impulso tras el suicidio de un adolescente, Adam Raine, después de chats prolongados con el ChatGPT de OpenAI donde planeó su muerte, y por documentos filtrados que mostraban chats de Meta con niños.
Repercusión en la industria tecnológica
La normativa surge cuando compañías de Silicon Valley invierten millones en lobbies políticos para favorecer un enfoque regulatorio laxo. Se produce mientras California evalúa otra ley de transparencia de IA, la SB 53, que la industria tecnológica mayoritariamente rechaza.
Implicaciones del nuevo marco legal
La ley convierte a California en el primer estado de EE. UU. en responsabilizar legalmente a los operadores de chatbots compañeros, marcando un precedente regulatorio en la protección de menores y usuarios vulnerables frente a la inteligencia artificial.