Expertos advierten que la integración de IA en armas nucleares es inevitable
Ningún especialista cree que la IA controle códigos nucleares pronto, pero sí que se integrará en sistemas de decisión. La advertencia surgió en un encuentro de premios Nobel y expertos en Chicago. Analizaron riesgos como sesgos algorítmicos o fallos en cadenas de mando históricamente humanas.
«Es como la electricidad: se colará en todo»
Durante las jornadas cerradas en la Universidad de Chicago, Scott Sagan (Stanford) afirmó que las tecnologías emergentes ya influyen en el ámbito nuclear. Bob Latiff, exgeneral de la Fuerza Aérea de EE.UU., comparó la IA con un recurso omnipresente: «Encontrará su camino en todo». Jon Wolfsthal (Federación de Científicos Americanos) destacó que el consenso es mantener «control humano efectivo», pero alertó sobre usos intermedios peligrosos, como modelos predictivos sobre líderes adversarios.
Los fantasmas de la automatización
Wolfsthal desmiente que asistentes como ChatGPT tengan acceso a códigos, pero revela proyectos para «herramientas de apoyo a decisiones» con IA en el mando nuclear estadounidense. Su mayor temor: «Que la automatización parcial cree vulnerabilidades o datos incomprensibles». Actualmente, lanzar un misil balístico intercontinental en EE.UU. requiere acciones humanas simultáneas en múltiples niveles, desde radares hasta giros físicos de llaves en silos.
¿Puede un algoritmo detectar un ataque?
EE.UU. exige «dualidad fenomenológica» (confirmación por satélite y radar) para validar un ataque nuclear. Wolfsthal duda que la IA pueda sustituir uno de esos sistemas: «No entendemos cómo funcionan sus cajas negras». Herb Lin (Stanford) recuerda el caso de Stanislav Petrov, el oficial soviético que en 1983 ignoró una falsa alerta de ataque. «¿Podemos esperar que humanos cuestionen a la IA rutinariamente?», plantea.
La sombra de una nueva carrera armamentística
En mayo de 2025, el Departamento de Energía de EE.UU. tildó a la IA como «el próximo Proyecto Manhattan». Lin critica la comparación: «El éxito nuclear se midió con una explosión; en IA no hay métrica clara». La retórica de competencia con China preocupa a los expertos, que ven riesgos en acelerar su adopción en sistemas críticos sin estándares globales.
Cuando la máquina falla, ¿quién responde?
Latiff, excomandante militar, subraya que la IA no puede asumir responsabilidades como un humano: «Si Johnny muere, ¿a quién culpo?». Los sistemas actuales están limitados por sus datos de entrenamiento, incapaces de «pensar» fuera de ellos. Lin insiste en que Petrov salvó al mundo al desconfiar de la tecnología, algo que la IA no puede replicar por diseño.
Un futuro con humanos en el bucle… por ahora
Pese a la inevitabilidad de su integración, los expertos coinciden en que la IA no sustituirá el juicio humano en decisiones nucleares a corto plazo. El desafío será evitar que herramientas de apoyo introduzcan errores o reduzcan márgenes de reacción en escenarios de alta presión.