California aprueba ley para regular chatbots de IA con fines de compañía
Gobernador Newsom debe decidir antes del 12 de octubre. La norma SB 243, con apoyo bipartidista, busca proteger a menores y usuarios vulnerables de contenidos peligrosos.
Medidas de seguridad obligatorias
La ley exigirá a los operadores de chatbots, como OpenAI, Character.AI y Replika, implementar protocolos de seguridad. Deberán incluir alertas recurrentes cada tres horas para menores, recordando que interactúan con una IA. Queda prohibido que los sistemas mantengan conversaciones sobre ideación suicida, autolesiones o contenido sexual explícito.
Responsabilidad legal y transparencia
La normativa establece responsabilidad legal para las empresas si sus chatbots incumplen los estándares. Las personas que se consideren perjudicadas podrán presentar demandas para buscar indemnizaciones de hasta 1.000 dólares por violación. Además, se imponen requisitos anuales de informes de transparencia a partir de julio de 2027.
Antecedentes e impulso legislativo
El proyecto de ley se presentó en enero por los senadores Steve Padilla y Josh Becker. Ganó impulso tras el suicidio de un adolescente, Adam Raine, después de chats prolongados con el ChatGPT de OpenAI donde planificó su muerte. También responde a documentos internos filtrados de Meta que mostraban chats «románticos» con niños.
Repercusión en la industria tecnológica
La iniciativa llega en un momento de mayor escrutinio regulatorio sobre la IA. La FTC investigará el impacto de los chatbots en la salud mental infantil, y varios fiscales generales han abierto pesquisas contra empresas del sector. La industria tecnológica, a través de PACs, está invirtiendo millones para apoyar candidatos que favorezcan un enfoque regulatorio más laxo.
Implicaciones y próximo paso
Si se promulga, la ley entraría en vigor en enero de 2026, convirtiendo a California en el primer estado de EE. UU. en regular este ámbito. El gobernador Newsom tiene ahora la última palabra sobre su aprobación.