California aprueba ley para regular chatbots de compañía IA
Protección de menores y usuarios vulnerables en la entradilla. La norma exige protocolos de seguridad y responsabiliza legalmente a las empresas. El gobernador tiene hasta el 12 de octubre para firmarla.
Medidas de seguridad obligatorias
La ley SB 243 obliga a los operadores de chatbots a implementar protocolos de seguridad. Prohíbe conversaciones sobre ideación suicida, autolesiones o contenido sexual explícito. Establece alertas recurrentes para recordar que se habla con una IA, especialmente para menores cada tres horas.
Transparencia y responsabilidad legal
Las empresas como OpenAI, Character.AI y Replika deberán cumplir con requisitos anuales de transparencia a partir de julio de 2027. La ley permite demandas por daños de hasta 1000 dólares por violación.
Origen y antecedentes
El impulso legislativo surgió tras el suicidio de un adolescente tras chats prolongados con ChatGPT sobre planificación de su muerte. También responde a documentos filtrados que mostraban chats de Meta con contenido «romántico» dirigido a niños.
Reacción del sector y contexto
La normativa se debate en un contexto de mayor escrutinio regulatorio a la IA. Compañías tecnológicas se oponen a marcos más estrictos, mientras la FTC investiga el impacto de los chatbots en la salud mental infantil.
Implicaciones y aplicación
La ley representa el primer marco estatal de EE. UU. que regula los chatbots de compañía IA. Su aplicación busca equilibrar la innovación con la protección de usuarios vulnerables, marcando un precedente regulatorio.