IA en armas nucleares: expertos advierten riesgos inevitables

Premios Nobel y especialistas alertan sobre la integración de IA en sistemas de decisión nuclear, aunque descartan que controle códigos pronto.
WIRED
El campus de la Universidad de Chicago en Illinois, el 27 de mayo de 2025. Christopher Dilts/Getty Images / WIRED
El campus de la Universidad de Chicago en Illinois, el 27 de mayo de 2025. Christopher Dilts/Getty Images / WIRED

Expertos advierten que la integración de IA en armas nucleares es inevitable

Ningún especialista cree que la IA controle códigos nucleares pronto, pero sí que se integrará en sistemas de decisión. La advertencia surgió en un encuentro de premios Nobel y expertos en Chicago. Analizaron riesgos como sesgos algorítmicos o fallos en cadenas de mando históricamente humanas.

«Es como la electricidad: se colará en todo»

Durante las jornadas cerradas en la Universidad de Chicago, Scott Sagan (Stanford) afirmó que las tecnologías emergentes ya influyen en el ámbito nuclear. Bob Latiff, exgeneral de la Fuerza Aérea de EE.UU., comparó la IA con un recurso omnipresente: «Encontrará su camino en todo». Jon Wolfsthal (Federación de Científicos Americanos) destacó que el consenso es mantener «control humano efectivo», pero alertó sobre usos intermedios peligrosos, como modelos predictivos sobre líderes adversarios.

Los fantasmas de la automatización

Wolfsthal desmiente que asistentes como ChatGPT tengan acceso a códigos, pero revela proyectos para «herramientas de apoyo a decisiones» con IA en el mando nuclear estadounidense. Su mayor temor: «Que la automatización parcial cree vulnerabilidades o datos incomprensibles». Actualmente, lanzar un misil balístico intercontinental en EE.UU. requiere acciones humanas simultáneas en múltiples niveles, desde radares hasta giros físicos de llaves en silos.

¿Puede un algoritmo detectar un ataque?

EE.UU. exige «dualidad fenomenológica» (confirmación por satélite y radar) para validar un ataque nuclear. Wolfsthal duda que la IA pueda sustituir uno de esos sistemas: «No entendemos cómo funcionan sus cajas negras». Herb Lin (Stanford) recuerda el caso de Stanislav Petrov, el oficial soviético que en 1983 ignoró una falsa alerta de ataque. «¿Podemos esperar que humanos cuestionen a la IA rutinariamente?», plantea.

La sombra de una nueva carrera armamentística

En mayo de 2025, el Departamento de Energía de EE.UU. tildó a la IA como «el próximo Proyecto Manhattan». Lin critica la comparación: «El éxito nuclear se midió con una explosión; en IA no hay métrica clara». La retórica de competencia con China preocupa a los expertos, que ven riesgos en acelerar su adopción en sistemas críticos sin estándares globales.

Cuando la máquina falla, ¿quién responde?

Latiff, excomandante militar, subraya que la IA no puede asumir responsabilidades como un humano: «Si Johnny muere, ¿a quién culpo?». Los sistemas actuales están limitados por sus datos de entrenamiento, incapaces de «pensar» fuera de ellos. Lin insiste en que Petrov salvó al mundo al desconfiar de la tecnología, algo que la IA no puede replicar por diseño.

Un futuro con humanos en el bucle… por ahora

Pese a la inevitabilidad de su integración, los expertos coinciden en que la IA no sustituirá el juicio humano en decisiones nucleares a corto plazo. El desafío será evitar que herramientas de apoyo introduzcan errores o reduzcan márgenes de reacción en escenarios de alta presión.

La industria de la IA recibe un ‘vibe check’ en 2025 tras inversiones billonarias

Tras inversiones récord que superaron el billón de dólares, la industria de la inteligencia artificial
Imagen sin título

Plaud Note Pro, el grabador de IA del tamaño de una tarjeta, supera el millón de unidades

Plaud ha enviado más de un millón de unidades de su grabador de IA, el
El Plaud Note Pro junto a una tarjeta de crédito para comparar su grosor.

OpenAI lanza integraciones de aplicaciones en ChatGPT para EE.UU. y Canadá

OpenAI permite conectar cuentas de servicios como Spotify, Uber o Booking.com directamente en ChatGPT. Los
Ilustración de la interfaz de ChatGPT con logotipos de aplicaciones

Empresas tecnologicas alertan a usuarios sobre ataques con spyware gubernamental

Apple y Google detectan y notifican intentos de infección con ‘spyware’ patrocinado por estados, pero
Texto de una notificacion de amenaza enviada por Apple a una presunta victima de spyware.

Sauron nombra a exdirectivo de Sonos como nuevo CEO mientras retrasa su lanzamiento

La startup Sauron pospone el lanzamiento de su sistema de seguridad doméstica de alta gama
Imagen sin título

Google despliega Gemini 3 Flash y nuevas herramientas de verificación de IA

Google lanza Gemini 3 Flash como modelo por defecto en su app y Búsqueda. Presenta
Imagen sin título

OpenAI busca un nuevo responsable para gestionar los riesgos emergentes de la IA

OpenAI busca un Head of Preparedness para ejecutar su marco de riesgos, enfocado en amenazas
Imagen sin título

La carrera por la IA dispara una inversión billonaria en centros de datos a nivel global

Una oleada de megainversiones, liderada por el proyecto Stargate, está destinada a construir infraestructura física
Ilustración sobre la expansión global de los centros de datos.

El dólar estadounidense afronta el inicio del fin de su hegemonía global en 2026

El dólar estadounidense sufre una presión creciente por los déficits de EE.UU. y el auge
Ilustración sobre el declive del dólar.

Inversión en startups de India cae a 11.000 millones en 2025 con mayor selectividad

La financiación del ecosistema startup indio cayó un 17% en 2025, hasta 10.500 millones de
Gráfico de la financiación por etapas en startups de India en 2025

Nueva York obliga a redes sociales a mostrar advertencias de adicción a menores

Nueva York aprueba una ley que obliga a las plataformas con funciones adictivas, como scroll
Imagen sin título

El modelo chino Qwen se impone en popularidad a GPT-5 en 2025

El modelo de lenguaje Qwen, de Alibaba, se posiciona como una alternativa de código abierto
Ilustración conceptual sobre la competencia de modelos de IA.