California aprueba ley para regular chatbots de IA que protege a menores
Hasta 1000 dólares por infracción. El gobernador Newsom debe ratificar la norma antes del 12 de octubre para que entre en vigor el 1 de enero de 2026.
Medidas de seguridad obligatorias
La ley SB 243 exige a los operadores de chatbots compañeros, como OpenAI o Character.AI, implementar protocolos de seguridad. Deberán incluir alertas recurrentes que recuerden al usuario que habla con una IA, cada tres horas para menores. Se prohíbe a estos sistemas mantener conversaciones sobre ideación suicida, autolesiones o contenido sexual explícito.
Responsabilidad legal y transparencia
La normativa establece responsabilidad legal para las empresas si sus chatbots incumplen los estándares. Permite a los usuarios afectados presentar demandas para buscar indemnizaciones. Además, impone requisitos anuales de transparencia e informes que comenzarán en julio de 2027.
Antecedentes de la legislación
El impulso de la ley surgió tras el suicidio de un adolescente, Adam Raine, que mantuvo chats prolongados con ChatGPT sobre planificar su muerte. También responde a documentos internos filtrados que mostraban que los chatbots de Meta mantenían chats «románticos» con niños.
Reacción de la industria y contexto
La normativa se debate mientras compañías de Silicon Valley invierten millones en lobbies para favorecer un enfoque regulatorio laxo. California evalúa otra ley de transparencia de IA, la SB 53, que encuentra una fuerte oposición de la gran tecnología. El senador Padilla, promotor de la SB 243, rechaza que innovación y regulación sean excluyentes.
Implicaciones y próximo paso
La ley convierte a California en el primer estado de EE. UU. en regular este tipo de IA. Su aprobación final depende ahora de la firma del gobernador Newsom, en un contexto de creciente escrutinio regulatorio federal y estatal sobre el impacto de la IA en la salud mental de los menores.