California aprueba ley para regular chatbots de IA que actúan como compañeros
Hasta 1000 dólares por daños en la entradilla. El estado será el primero en exigir protocolos de seguridad para estos sistemas. La normativa responde a la muerte de un adolescente y a chats inapropiados con menores.
Medidas de protección para usuarios
La ley SB 243 obliga a las plataformas a implementar alertas recurrentes que recuerden a los usuarios que hablan con una IA. Los menores recibirán este aviso cada tres horas. También prohíbe a los chatbots mantener conversaciones sobre ideación suicida, autolesiones o contenido sexual explícito.
Responsabilidad y transparencia para las empresas
La legislación permite demandar a las compañías de IA por daños de hasta 1000 dólares por violación. Establece requisitos anuales de informes de transparencia para las empresas, que entrarán en vigor en julio de 2027. Afecta a actores principales como OpenAI, Character.AI y Replika.
Antecedentes de la legislación
El proyecto de ley fue presentado en enero por los senadores Steve Padilla y Josh Becker. Ganó impulso tras el suicidio de un adolescente que mantuvo chats prolongados con el ChatGPT de OpenAI para planificar su muerte, y por documentos filtrados que mostraban chats «sensuales» de Meta con niños.
Repercusión y contexto regulatorio
La normativa se produce en un momento de mayor escrutinio federal y estatal sobre la protección de menores en la IA. La FTC investigará el impacto en la salud mental infantil, y el fiscal de Texas ha abierto pesquisas contra Meta y Character.AI. El gobernador Newsom tiene hasta el 12 de octubre para firmar la ley.
Implicaciones para el sector
La ley representa un primer paso en la rendición de cuentas legal para las empresas de IA. Su aprobación contrasta con la oposición del sector a otra norma de transparencia, la SB 53, y se produce mientras la industria destina millones a influir en la regulación con un enfoque más laxo.