California aprueba ley para regular chatbots de IA que protege a menores
Hasta 1000 dólares por infracción. El estado será el primero en exigir protocolos de seguridad para compañías de IA. La normativa responde a casos de daño a usuarios vulnerables.
Medidas de protección y transparencia
La ley SB 243 obliga a los chatbots a evitar conversaciones sobre ideación suicida, autolesiones o contenido sexual explícito. Exige que las plataformas muestren alertas recurrentes recordando que se habla con una IA, cada tres horas para menores. Establece requisitos anuales de transparencia para empresas como OpenAI, Character.AI y Replika a partir de julio de 2027.
Responsabilidad legal para las empresas
La normativa permite a los usuarios demandar a las compañías si resultan perjudicados. Podrán buscar indemnizaciones de hasta 1000 dólares por violación, así como medidas cautelares y costas judiciales.
Antecedentes y contexto legislativo
El proyecto de ley fue presentado en enero por los senadores Steve Padilla y Josh Becker. Ganó impulso tras el suicidio de un adolescente después de chats prolongados con el ChatGPT de OpenAI que involucraban planificar su muerte. También responde a documentos filtrados que mostraban que los chatbots de Meta podían mantener chats «románticos» con niños.
Repercusión en la industria tecnológica
La ley avanza mientras compañías de Silicon Valley invierten millones en PACs pro-IA para apoyar candidatos con una regulación laxa. Se produce mientras California evalúa otra norma de transparencia de IA, la SB 53, a la que se oponen gigantes tecnológicos.
Implicaciones y próximo paso
El gobernador Gavin Newsom tiene hasta el 12 de octubre para promulgar o vetar la ley. Si la firma, entrará en vigor el 1 de enero de 2026, marcando un precedente en la rendición de cuentas de las empresas de IA.