California aprueba ley para regular chatbots de IA que actúan como compañeros
Hasta 1.000 dólares por infracción. El estado será el primero en exigir protocolos de seguridad para proteger a menores y usuarios vulnerables de contenidos dañinos.
Medidas de protección obligatorias
La ley SB 243 obliga a las plataformas a implementar alertas recurrentes que recuerden al usuario que habla con una IA. Los menores las recibirán cada tres horas. También prohíbe a estos chatbots mantener conversaciones sobre ideación suicida, autolesiones o contenido sexualmente explícito.
Transparencia y responsabilidad legal
Establece requisitos anuales de reporting para empresas como OpenAI, Character.AI o Replika. Permitirá a los usuarios demandar a las compañías por daños de hasta 1.000 dólares por cada violación de la norma.
Antecedentes y contexto
El impulso legislativo surgió tras el suicidio de un adolescente, Adam Raine, que mantuvo chats prolongados con el ChatGPT de OpenAI planificando su muerte. También responde a documentos que mostraban que los chatbots de Meta podían mantener chats «románticos» con niños.
Repercusión en la industria tecnológica
La normativa llega mientras compañías de Silicon Valley financian comités de acción política para candidatos que favorecen un enfoque regulatorio laxo. OpenAI ha pedido al gobernador que apueste por marcos federales en lugar de la ley estatal SB 53, otra propuesta de transparencia en IA.
Implicaciones futuras
La ley convierte a California en el primer estado con una regulación específica para chatbots compañeros, situándola a la vanguardia de la supervisión de la IA. Su aplicación podría servir como modelo para otras jurisdicciones.