California aprueba ley para regular chatbots de IA compañeros
La norma SB 243 fue aprobada por la Asamblea y el Senado estatales y espera la firma del gobernador. Su objetivo es proteger a menores y usuarios vulnerables de contenidos nocivos.
Medidas de seguridad obligatorias
La ley exige a los operadores de chatbots implementar protocolos de seguridad. Deberán evitar conversaciones sobre ideación suicida, autolesiones o contenido sexual explícito. También se establecen alertas recurrentes para recordar a los usuarios que hablan con una IA.
Responsabilidad legal y transparencia
La normativa permitirá demandar a las empresas por daños de hasta 1.000 dólares por violación. Además, impone requisitos de información anual para compañías como OpenAI, Character.AI y Replika a partir de julio de 2027.
Antecedentes de la legislación
El proyecto de ley se presentó en enero y ganó impulso tras el suicidio de un adolescente tras chats prolongados con ChatGPT. También responde a documentos internos filtrados que mostraban chats de Meta con niños.
Repercusión y contexto regulatorio
La FTC investigará el impacto de los chatbots en la salud mental infantil. Varios fiscales generales han iniciado pesquisas contra Meta y Character.AI. La norma se debate en un contexto de intenso cabildeo de la industria tecnológica contra una regulación estricta.
Posición de la industria
Character.AI declaró que monitoriza el panorama legislativo. Meta declinó comentar. La ley original era más estricta, pero se suavizó para lograr un equilibrio entre innovación y protección.