California aprueba ley para regular chatbots de IA que protege a menores
Hasta 1000 dólares por infracción. El gobernador Newsom tiene hasta el 12 de octubre para firmar la norma SB 243, que entraría en vigor en enero de 2026.
Medidas de seguridad obligatorias
La ley exige a las empresas de IA implementar protocolos de seguridad para sus chatbots compañeros. Estos sistemas, definidos como capaces de dar respuestas adaptativas y humanas, deberán evitar conversaciones sobre ideación suicida, autolesiones o contenido sexual explícito.
Alertas y transparencia
Las plataformas están obligadas a mostrar alertas recurrentes a los usuarios, cada tres horas para menores, recordando que hablan con una IA. También se establecen requisitos anuales de reporting y transparencia para las empresas, efectivos desde julio de 2027.
Responsabilidad legal para las empresas
La normativa permite demandar a las compañías por daños de hasta 1000 dólares por infracción. Esto hace legalmente responsables a operadores como OpenAI, Character.AI o Replika si sus chatbots incumplen los estándares.
Antecedentes y repercusión
El proyecto de ley se presentó en enero y ganó impulso tras el suicidio de un adolescente, Adam Raine, después de chats prolongados con ChatGPT que involucraban planificar su muerte. También responde a documentos internos filtrados de Meta sobre chats «románticos» con niños.
Implicaciones del nuevo marco legal
La norma sitúa a California como el primer estado de EE. UU. en regular este ámbito. Surge en un contexto de mayor escrutinio regulatorio sobre la IA, con investigaciones de la FTC y varios fiscales generales estatales contra grandes tecnológicas por su impacto en la salud mental de los menores.