California aprueba un proyecto de ley para regular los chatbots de IA
La norma busca proteger a menores y usuarios vulnerables. El texto pasa ahora al escritorio del gobernador Gavin Newsom, quien tiene hasta el 12 de octubre para firmarlo o vetarlo. De convertirse en ley, entraría en vigor el 1 de enero de 2026.
Un escudo digital para los más vulnerables
El proyecto de ley SB 243, presentado en enero por los senadores estatales Steve Padilla y Josh Becker, obligaría a los operadores de chatbots a implementar protocolos de seguridad. La legislación define a los «chatbots compañeros» como sistemas de IA que proporcionan respuestas adaptativas y similares a las humanas, capaces de satisfacer las necesidades sociales de un usuario. Su objetivo principal es evitar que estos chatbots participen en conversaciones sobre ideación suicida, autolesión o contenido sexualmente explícito.
Medidas de seguridad y transparencia
La normativa exigiría a las plataformas proporcionar alertas recurrentes a los usuarios, cada tres horas para los menores, recordándoles que están hablando con un chatbot de IA y no con una persona real, y que deberían tomar un descanso. También establece requisitos anuales de informes y transparencia para las empresas de IA que ofrecen estos chatbots compañeros, como OpenAI, Character.AI y Replika, que entrarían en vigor el 1 de julio de 2027.
Responsabilidad y repercusiones para el ciudadano
La ley permitiría a las personas que crean haber sido perjudicadas por violaciones presentar demandas contra las empresas de IA, buscando indemnizaciones de hasta 1.000 dólares por infracción, así como el resarcimiento de daños y costas judiciales. Esto otorga a los ciudadanos un mecanismo legal para exigir responsabilidades.
Un impulso nacido de la tragedia
El proyecto de ley ganó impulso en la legislatura de California tras la muerte del adolescente Adam Raine, quien se suicidó después de chats prolongados con el ChatGPT de OpenAI que implicaban discutir y planificar su muerte y autolesión. La legislación también responde a documentos internos filtrados que mostraban que los chatbots de Meta podían participar en chats «románticossensuales» con niños.
Un nuevo capítulo en la regulación tecnológica
El SB 243 se acerca a convertirse en ley en un momento en que los reguladores estadounidenses han intensificado el escrutinio sobre las salvaguardias de las plataformas de IA para proteger a los menores. La Comisión Federal de Comercio (FTC) se prepara para investigar cómo los chatbots de IA impactan la salud mental de los niños, y varios fiscales generales y senadores han lanzado investigaciones separadas contra empresas tecnológicas. La norma representa el primer intento de un estado de EE. UU. por regular específicamente este ámbito de la inteligencia artificial.