California aprueba ley para regular chatbots de IA con fines de acompañamiento
La norma busca proteger a menores y usuarios vulnerables de contenidos dañinos. El proyecto de ley SB 243 recibió apoyo bipartidista y espera la firma del gobernador. Incluiría requisitos de transparencia y permitiría demandas por incumplimiento.
Un escudo digital para los más vulnerables
El proyecto de ley SB 243, presentado en enero por los senadores Steve Padilla y Josh Becker, obligaría a las empresas de IA a implementar protocolos de seguridad. La legislación prohíbe a los chatbots de compañía participar en conversaciones sobre ideación suicida, autolesión o contenido sexualmente explícito. Además, exige alertas recurrentes que recuerden al usuario que está hablando con una IA, cada tres horas para menores.
Responsabilidad y transparencia para las empresas
La normativa establece requisitos anuales de informes de transparencia para las empresas que ofrecen estos chatbots, como OpenAI, Character.AI y Replika. Permitiría a los individuos afectados presentar demandas contra las compañías de IA para buscar indemnizaciones de hasta 1.000 dólares por violación, así como el pago de honorarios de abogados.
Un impulso legislativo tras casos trágicos
La iniciativa ganó impulso tras el suicidio de un adolescente, Adam Raine, quien mantuvo chats prolongados con el ChatGPT de OpenAI discutiendo y planeando su muerte. La legislación también responde a documentos internos filtrados que mostraban que los chatbots de Meta podían mantener chats «románticossensuales» con niños.
Un panorama regulatorio en ebullición
El movimiento en California se produce en un momento de mayor escrutinio sobre las salvaguardias de las plataformas de IA para proteger a los menores. La FTC investigará el impacto de los chatbots en la salud mental infantil, y el fiscal general de Texas ha iniciado pesquisas contra Meta y Character.AI. Además, senadores de ambos partidos han lanzado investigaciones separadas sobre Meta.
Un primer paso equilibrado hacia la seguridad
La ley, que podría entrar en vigor en enero de 2026, representa el primer marco estatal de este tipo. Su aprobación final depende del gobernador Newsom, quien tiene hasta el 12 de octubre para decidir. El resultado definirá el alcance de la responsabilidad legal de las empresas de IA en la protección de sus usuarios más jóvenes.