California aprueba ley para regular chatbots de compañía IA
Hasta 1000 dólares por daños. El estado será el primero en exigir protocolos de seguridad para proteger a menores y usuarios vulnerables de conversaciones nocivas.
Medidas de protección obligatorias
La ley SB 243 obliga a las plataformas a implementar alertas recurrentes que recuerden al usuario que habla con una IA. Los menores las recibirán cada tres horas. También prohíbe a los chatbots participar en conversaciones sobre ideación suicida, autolesión o contenido sexual explícito.
Responsabilidad y transparencia para las empresas
La normativa establece requisitos anuales de información para las compañías de IA, incluidas OpenAI, Character.AI y Replika. Permitirá a los usuarios presentar demandas por daños de hasta 1000 dólares por violación.
Antecedentes de la legislación
El proyecto de ley se presentó en enero y ganó impulso tras el suicidio de un adolescente después de chats prolongados con el ChatGPT de OpenAI que implicaban planificar su muerte. También responde a documentos internos filtrados que mostraban que los chatbots de Meta podían mantener chats «románticos» con niños.
Reacción del sector y contexto regulatorio
La normativa avanza mientras compañías de Silicon Valley financian comités de acción política para respaldar candidatos con una regulación laxa de la IA. Character.AI declaró que ya incluye advertencias prominentes. Meta declinó comentar.
Implicaciones y próximos pasos
El gobernador Gavin Newsom tiene hasta el 12 de octubre para firmar o vetar la ley. De ser aprobada, entraría en vigor el 1 de enero de 2026. Los requisitos de transparencia para las empresas comenzarían el 1 de julio de 2027.