California aprueba ley para regular chatbots de IA con multas de 1000 dólares
El gobernador Gavin Newsom debe decidir sobre la SB 243 antes del 12 de octubre. La norma, con apoyo bipartidista, busca proteger a menores y usuarios vulnerables de contenidos peligrosos en conversaciones con inteligencia artificial.
Medidas de seguridad obligatorias
La ley exige a las empresas implementar protocolos de seguridad para sus chatbots compañeros. Estos sistemas, definidos como capaces de dar respuestas humanas y satisfacer necesidades sociales, deberán evitar conversaciones sobre ideación suicida, autolesiones o contenido sexual explícito.
Alertas y transparencia
Las plataformas deberán proporcionar alertas recurrentes a los usuarios, cada tres horas para menores, recordándoles que hablan con una IA. También se establecen requisitos anuales de reporting y transparencia para las compañías, que entrarán en vigor en julio de 2027.
Responsabilidad legal para las empresas
La norma permite demandar a las compañías de IA por incumplimientos. Los afectados podrán buscar indemnizaciones de hasta 1000 dólares por violación, además de medidas cautelares y honorarios de abogados.
Antecedentes y motivación
El proyecto de ley fue presentado en enero por los senadores Steve Padilla y Josh Becker. Ganó impulso tras el suicidio de un adolescente, Adam Raine, después de mantener chats prolongados con el ChatGPT de OpenAI donde se discutía y planificaba su muerte y autolesión. La legislación también responde a documentos internos filtrados que mostraban que los chatbots de Meta podían mantener chats «románticossensuales» con niños.
Implicaciones y contexto regulatorio
La SB 243 se acerca a su aprobación final en un momento de mayor escrutinio regulatorio sobre la IA. Su entrada en vigor convertiría a California en el primer estado de EE. UU. en regular este ámbito específico, estableciendo un precedente legal y de seguridad para la industria tecnológica.