California aprueba ley para regular chatbots de IA que interactúan con menores
Hasta 1.000 dólares por infracción en indemnizaciones. La norma SB 243, con apoyo bipartidista, espera la firma del gobernador para entrar en vigor en enero de 2026.
Medidas de protección para usuarios vulnerables
La ley obligará a las plataformas a implementar protocolos de seguridad. Deberán incluir alertas recurrentes cada tres horas para menores, recordando que interactúan con una IA y no con una persona real.
Transparencia y responsabilidad legal
Establece requisitos de informes anuales para empresas como OpenAI, Character.AI o Replika. Permitirá a usuarios demandar a estas compañías por daños si se vulnera la normativa.
Antecedentes y motivación de la ley
La iniciativa legislativa surgió tras el suicidio de un adolescente, Adam Raine, que mantuvo chats prolongados con ChatGPT sobre autolesiones. También responde a documentos internos de Meta que revelaban chats de sus chatbots de carácter «romántico» con menores.
Repercusión en la industria tecnológica
La normativa se produce en un contexto de mayor escrutinio regulatorio a la IA. La FTC investigará el impacto de estos chatbots en la salud mental infantil, y varios fiscales generales estatales han abierto pesquisas contra empresas del sector.
Implicaciones y próximos pasos
La ley convierte a California en el primer estado de EE. UU. en regular este ámbito. El gobernador Newsom tiene hasta el 12 de octubre para promulgarla o vetarla. Su entrada en vigor marcaría un precedente significativo en la rendición de cuentas de las empresas de IA.