California aprueba ley para regular chatbots de IA que protege a menores
Hasta 1000 dólares por infracción. El gobernador Newsom tiene hasta el 12 de octubre para firmar la norma, que entraría en vigor en enero de 2026.
Medidas de seguridad obligatorias
La ley SB 243 exige a las empresas implantar protocolos de seguridad. Estos deben evitar que los chatbots companion mantengan conversaciones sobre ideación suicida, autolesiones o contenido sexual explícito.
Alertas y transparencia
Las plataformas deberán proporcionar alertas recurrentes a los usuarios, cada tres horas para menores, recordándoles que hablan con una IA. También se establecen requisitos anuales de reporting y transparencia para las empresas.
Responsabilidad legal
La normativa permitirá a los individuos que se crean perjudicados presentar demandas contra las compañías de IA. Podrán buscar indemnizaciones de hasta 1000 dólares por infracción.
Antecedentes de la legislación
El proyecto de ley se presentó en enero y ganó impulso tras el suicidio de un adolescente después de chats prolongados con el ChatGPT de OpenAI que involucraban planificar su muerte. También responde a documentos internos filtrados de Meta sobre chats con niños.
Repercusión y cierre
La normativa sitúa a California como el primer estado de EE. UU. en regular este ámbito. La ley avanza mientras compañías tecnológicas se oponen a marcos regulatorios más estrictos y potencian su lobby político.