Senado de California aprueba ley de seguridad en inteligencia artificial SB 53
La norma exige transparencia a grandes empresas de IA. El gobernador Gavin Newsom debe decidir ahora su firma o veto. La propuesta incluye protecciones para denunciantes y la creación de una nube pública.
Contenido de la propuesta legislativa
El texto obliga a los grandes laboratorios de IA a informar sobre sus protocolos de seguridad. Además, establece protecciones para los empleados que actúen como alertadores y prevé la creación de CalCompute, una infraestructura de computación en la nube de acceso público.
Posición del gobernador y antecedentes
Gavin Newsom vetó el año pasado una iniciativa más amplia del mismo autor, el senador Scott Wiener. En su veto anterior, argumentó que aquel proyecto aplicaba «estándares rigurosos» de forma indiscriminada, sin considerar el nivel de riesgo de cada modelo.
Reacción de la industria tecnológica
La normativa ha generado críticas de empresas y grupos de presión de Silicon Valley. OpenAI, en una carta a Newsom, abogó por evitar duplicidades con estándares federales o europeos. La firma de capital riesgo Andreessen Horowitz (a16z) alegó posibles inconstitucionalidades. En cambio, Anthropic se ha posicionado a favor de la ley.
Antecedentes inmediatos
El senador Wiener modificó la propuesta tras el veto anterior de Newsom, incorporando recomendaciones de un panel de expertos en IA convocado por el propio gobernador. La versión final introduce umbrales de reporting diferenciados por volumen de facturación.
Implicaciones y próximo paso
La decisión final recae sobre el gobernador Newsom. Su firma convertiría a California en un referente regulatorio para la inteligencia artificial en Estados Unidos, en un contexto de ausencia de una normativa federal comprehensiva.