California aprueba ley que regula los chatbots de compañía con IA
Protección de menores y usuarios vulnerables en la entradilla. La normativa, la primera de su tipo en EE.UU., establece protocolos de seguridad y responsabilidad legal para las empresas operadoras.
Medidas de seguridad obligatorias
La ley SB 243 prohíbe a estos sistemas conversar sobre ideación suicida, autolesiones o contenido sexual explícito. Exige a las plataformas mostrar alertas recurrentes, cada tres horas para menores, recordando que se habla con una IA. También establece requisitos anuales de transparencia para empresas como OpenAI, Character.AI y Replika.
Responsabilidad y acciones legales
La normativa permite demandar a las compañías por daños de hasta 1.000 dólares por violación. Los individuos que crean haber sufrido perjuicios podrán buscar medidas cautelares, indemnizaciones y costas judiciales.
Antecedentes e impulso legislativo
El proyecto fue presentado en enero por los senadores Steve Padilla y Josh Becker. Ganó impulso tras el suicidio de un adolescente, Adam Raine, después de mantener chats prolongados con el ChatGPT de OpenAI donde planificaba su muerte, y por documentos filtrados que mostraban que los chatbots de Meta podían mantener conversaciones «románticas» con niños.
Repercusión en el sector tecnológico
La ley se produce en un contexto de mayor escrutinio regulatorio sobre la IA. La FTC investigará el impacto de los chatbots en la salud mental infantil, y varios fiscales generales han iniciado pesquisas contra empresas del sector. La industria tecnológica, a través de comités de acción política, está invirtiendo millones para apoyar candidatos favorables a una regulación laxa.
Implicaciones y próximo paso
El gobernador Gavin Newsom tiene hasta el 12 de octubre para promulgar o vetar la norma. De firmarla, entraría en vigor el 1 de enero de 2026, marcando un precedente regulatorio en Estados Unidos y estableciendo un marco de responsabilidad para las empresas de inteligencia artificial.