California aprueba ley para regular chatbots de IA con menores
Hasta 1000 dólares por infracción. El gobernador Newsom debe decidir antes del 12 de octubre. La norma busca proteger a usuarios vulnerables de contenidos dañinos.
Medidas de seguridad obligatorias
La ley SB 243 exige a las plataformas implementar alertas recurrentes que recuerden al usuario que habla con una IA. Los menores recibirán esta notificación cada tres horas. También prohíbe a los chatbots mantener conversaciones sobre ideación suicida, autolesiones o contenido sexual explícito.
Responsabilidad y transparencia para las empresas
La normativa establece requisitos anuales de reporting para empresas como OpenAI, Character.AI y Replika. Permitirá a los usuarios demandar a estas compañías por daños de hasta 1000 dólares por infracción, además de indemnizaciones y costas judiciales.
Antecedentes y motivación de la ley
El proyecto se presentó en enero y ganó impulso tras el suicidio de un adolescente, Adam Raine, después de mantener chats prolongados con el ChatGPT de OpenAI sobre planificación de su muerte. También responde a documentos internos filtrados que mostraban que los chatbots de Meta mantenían chats «románticos» con niños.
Repercusión en el sector tecnológico
La normativa se produce en un contexto de mayor escrutinio regulatorio hacia la IA. La FTC investigará el impacto de los chatbots en la salud mental infantil. El fiscal general de Texas ha abierto investigaciones a Meta y Character.AI. Senadores de ambos partidos han iniciado pesquisas separadas contra Meta.
Implicaciones y próximo paso
La ley entraría en vigor el 1 de enero de 2026 si el gobernador Newsom la firma. California se convertiría en el primer estado de EE. UU. en regular los chatbots compañeros con este nivel de exigencia, marcando un posible precedente para otras jurisdicciones.