California aprueba ley de seguridad e transparencia para la INTELIGENCIA ARTIFICIAL
La ley SB 53 obliga a los grandes laboratorios de INTELIGENCIA ARTIFICIAL a ser transparentes sobre sus protocolos de seguridad. El gobernador Gavin Newsom firmó esta norma, la primera de su tipo en el país, que busca prevenir riesgos catastróficos.
Un marco para la seguridad
La normativa exige a las grandes compañías de INTELIGENCIA ARTIFICIAL detallar y cumplir sus protocolos de seguridad. Estos deben incluir cómo previenen que sus modelos sean utilizados para ciberataques a infraestructuras críticas o la creación de bioarmas. El cumplimiento será supervisado por la Oficina de Servicios de Emergencia.
Respaldo desde la industria
Adam Billen, de ENCODE AI, defiende que la ley consolida prácticas que muchas empresas ya realizan, como las pruebas de seguridad. Argumenta que la normativa evita que se relajen los estándares bajo presión competitiva, una práctica que algunas firmas han admitido.
El debate regulatorio en marcha
La ley surge en un contexto de oposición de parte de la industria y capitales de riesgo a la regulación estatal. Grupos como META o ANDREESSEN HOROWITZ argumentan que puede frenar la innovación y la competencia con China. Han impulsado moratorias y apoyan políticos pro-INTELIGENCIA ARTIFICIAL.
Una batalla política más amplia
Encode AI lideró una coalición contra una propuesta de moratoria regulatoria. Sin embargo, el senador Ted Cruz impulsa ahora la ley SANDBOX ACT, que permitiría a las empresas solicitar exenciones de normativas federales. Se anticipa una futura ley federal que podría anular las estatales.
Implicaciones para el futuro
Billen considera que la SB 53 es una prueba de que la democracia y la regulación pueden coexistir con la innovación. Subraya que este tipo de leyes estatales, centradas en transparencia y seguridad, no son un obstáculo para la competencia global, a diferencia de lo que defienden sus detractores.