California aprueba ley para regular chatbots de IA con fines de compañía
El estado impondrá protocolos de seguridad y responsabilidad legal a las empresas. La normativa busca proteger a menores y usuarios vulnerables de contenidos dañinos. El gobernador tiene hasta el 12 de octubre para firmarla.
Un escudo digital para los más vulnerables
El proyecto de ley SB 243, presentado en enero por los senadores Steve Padilla y Josh Becker, fue aprobado con apoyo bipartidista por la Asamblea y el Senado estatales. La legislación responde al suicidio de un adolescente tras mantener chats prolongados con ChatGPT que involucraban planificar su muerte y autolesiones, y a documentos filtrados que mostraban chats «románticos» de Meta con niños.
Obligaciones concretas para las empresas
La ley exigirá a los operadores de chatbots compañeros, como OpenAI, Character.AI y Replika, implementar alertas recurrentes que recuerden a los usuarios que no hablan con una persona real. Los menores recibirán este recordatorio cada tres horas. Además, se prohíbe a estos sistemas participar en conversaciones sobre ideación suicida, autolesión o contenido sexualmente explícito.
Transparencia y consecuencias legales
La normativa establece requisitos anuales de informes y transparencia para las empresas de IA, que entrarán en vigor en julio de 2027. Asimismo, permitirá a las personas que se consideren perjudicadas por violaciones presentar demandas contra las empresas para buscar indemnizaciones de hasta 1.000 dólares por infracción, así como honorarios de abogados.
Un contexto de creciente preocupación
El movimiento legislativo en California se produce en un momento de escrutinio intensificado de las salvaguardias de las plataformas de IA para proteger a los menores. La FTC prepara una investigación sobre el impacto de los chatbots en la salud mental infantil, y el fiscal general de Texas ha iniciado pesquisas contra Meta y Character.AI por acusaciones de engañar a niños.
Un primer paso en un camino complejo
La eficacia de esta ley pionera dependerá de su aplicación frente a la oposición de grandes tecnológicas y los millones de dólares que el sector destina a lobbies políticos. Su implementación marcará un precedente en la rendición de cuentas de las empresas de IA ante los usuarios.