Senador de California propone informes obligatorios de seguridad en IA
El proyecto SB 53 exigiría a grandes empresas como OpenAI y Google publicar protocolos de seguridad. La iniciativa, influida por recomendaciones estatales, busca transparencia sin frenar la innovación. Incluye protecciones para denunciantes y excluye a startups.
«Transparencia como piso mínimo»
El senador Scott Wiener presentó enmiendas al SB 53, que obligaría a desarrolladores líderes de IA a reportar incidentes de seguridad. «Es un trabajo en progreso», afirmó el legislador, cuyo anterior proyecto (SB 1047) fue vetado en 2024. La versión actual evita responsabilizar a las empresas por daños de sus modelos.
Detalles clave
El texto define «riesgo crítico» como daños que causen más de 100 muertes o USD 1.000 millones en pérdidas. También crea CalCompute, un clúster público de computación para investigadores. No aplica para startups que ajusten modelos existentes, según el comunicado del senador.
Reacciones divididas
Nathan Calvin, de la ONG Encode, calificó la medida como «un paso razonable». Mientras, Google y OpenAI han reducido la publicación voluntaria de informes, como ocurrió con Gemini 2.5 Pro y GPT-4.1. Solo Anthropic apoyó públicamente mayor transparencia.
California marca el paso
El grupo estatal de IA, co-liderado por Fei-Fei Li, recomendó en 2025 exigir información sobre sistemas de IA. Nueva York evalúa una ley similar (RAISE Act), tras fracasar una moratoria federal que buscaba evitar normativas estatales dispersas.
Próximos pasos
El SB 53 pasará al Comité de Privacidad de California antes de posible votación. Geoff Ralston, ex presidente de Y Combinator, destacó su «enfoque equilibrado» ante la inacción federal. Las empresas seguirán de cerca el proceso, que podría obligarlas a divulgar más datos.