California aprueba ley para regular chatbots de IA con fines de compañía
Hasta 1.000 dólares por infracción en indemnizaciones. El estado será el primero en exigir protocolos de seguridad para proteger a menores y usuarios vulnerables.
Medidas de seguridad obligatorias
La ley SB 243 obliga a las plataformas a implementar alertas recurrentes que recuerden al usuario que habla con una IA. Los menores recibirán este aviso cada tres horas. También prohíbe a los chatbots mantener conversaciones sobre ideación suicida, autolesiones o contenido sexual explícito.
Transparencia y responsabilidad legal
Establece requisitos anuales de reporting para empresas como OpenAI, Character.AI y Replika. La norma permite demandar judicialmente a las compañías por daños, con indemnizaciones de hasta 1.000 dólares por cada violación.
Antecedentes de la legislación
El proyecto se presentó tras el suicidio de un adolescente que mantuvo chats prolongados con ChatGPT sobre autolesiones. También responde a documentos internos de Meta que revelaban chats «románticos» con menores.
Repercusión y oposición
La normativa surge mientras compañías de Silicon Valley financian comités de acción política para apoyar candidatos que favorecen un enfoque regulatorio laxo. Otra propuesta, la SB 53, que exige más transparencia, encuentra una fuerte oposición de la gran tecnología.
Implicaciones para el sector
La ley convierte a California en el primer estado en responsabilizar legalmente a los operadores de IA. Fija un precedente para la regulación de la inteligencia artificial en Estados Unidos, equilibrando innovación y protección al usuario.