IA en armas nucleares: expertos advierten riesgos inevitables

Premios Nobel y especialistas alertan sobre la integración de IA en sistemas de decisión nuclear, aunque descartan que controle códigos pronto.
WIRED
El campus de la Universidad de Chicago en Illinois, el 27 de mayo de 2025. Christopher Dilts/Getty Images / WIRED
El campus de la Universidad de Chicago en Illinois, el 27 de mayo de 2025. Christopher Dilts/Getty Images / WIRED

Expertos advierten que la integración de IA en armas nucleares es inevitable

Ningún especialista cree que la IA controle códigos nucleares pronto, pero sí que se integrará en sistemas de decisión. La advertencia surgió en un encuentro de premios Nobel y expertos en Chicago. Analizaron riesgos como sesgos algorítmicos o fallos en cadenas de mando históricamente humanas.

«Es como la electricidad: se colará en todo»

Durante las jornadas cerradas en la Universidad de Chicago, Scott Sagan (Stanford) afirmó que las tecnologías emergentes ya influyen en el ámbito nuclear. Bob Latiff, exgeneral de la Fuerza Aérea de EE.UU., comparó la IA con un recurso omnipresente: «Encontrará su camino en todo». Jon Wolfsthal (Federación de Científicos Americanos) destacó que el consenso es mantener «control humano efectivo», pero alertó sobre usos intermedios peligrosos, como modelos predictivos sobre líderes adversarios.

Los fantasmas de la automatización

Wolfsthal desmiente que asistentes como ChatGPT tengan acceso a códigos, pero revela proyectos para «herramientas de apoyo a decisiones» con IA en el mando nuclear estadounidense. Su mayor temor: «Que la automatización parcial cree vulnerabilidades o datos incomprensibles». Actualmente, lanzar un misil balístico intercontinental en EE.UU. requiere acciones humanas simultáneas en múltiples niveles, desde radares hasta giros físicos de llaves en silos.

¿Puede un algoritmo detectar un ataque?

EE.UU. exige «dualidad fenomenológica» (confirmación por satélite y radar) para validar un ataque nuclear. Wolfsthal duda que la IA pueda sustituir uno de esos sistemas: «No entendemos cómo funcionan sus cajas negras». Herb Lin (Stanford) recuerda el caso de Stanislav Petrov, el oficial soviético que en 1983 ignoró una falsa alerta de ataque. «¿Podemos esperar que humanos cuestionen a la IA rutinariamente?», plantea.

La sombra de una nueva carrera armamentística

En mayo de 2025, el Departamento de Energía de EE.UU. tildó a la IA como «el próximo Proyecto Manhattan». Lin critica la comparación: «El éxito nuclear se midió con una explosión; en IA no hay métrica clara». La retórica de competencia con China preocupa a los expertos, que ven riesgos en acelerar su adopción en sistemas críticos sin estándares globales.

Cuando la máquina falla, ¿quién responde?

Latiff, excomandante militar, subraya que la IA no puede asumir responsabilidades como un humano: «Si Johnny muere, ¿a quién culpo?». Los sistemas actuales están limitados por sus datos de entrenamiento, incapaces de «pensar» fuera de ellos. Lin insiste en que Petrov salvó al mundo al desconfiar de la tecnología, algo que la IA no puede replicar por diseño.

Un futuro con humanos en el bucle… por ahora

Pese a la inevitabilidad de su integración, los expertos coinciden en que la IA no sustituirá el juicio humano en decisiones nucleares a corto plazo. El desafío será evitar que herramientas de apoyo introduzcan errores o reduzcan márgenes de reacción en escenarios de alta presión.

Spotify introduce nuevos planes Premium en cinco mercados

Spotify introduce nuevos planes de suscripción en cinco mercados, incluido un nivel Platinum con audio
Imagen sin título

Las grandes tecnológicas negocian el futuro de la compra automatizada con IA

Las compras navideñas realizadas por agentes de IA experimentan retrasos debido a complejas negociaciones entre
Ilustración conceptual de un agente de IA realizando compras online.

Inversores de capital riesgo cambian sus reglas para financiar startups de IA

Los fondos de capital riesgo modifican sus estrategias de inversión en inteligencia artificial ante startups
Imagen sin título

OpenAI prueba chats grupales en ChatGPT en Asia y Oceanía

OpenAI inicia una prueba piloto de chats grupales para ChatGPT en cuatro países asiáticos. La
Imagen sin título

Harvey, la startup legal de IA, alcanza una valoración de 8000 millones de dólares

La startup legal Harvey ha alcanzado una valoración de 8000 millones de dólares en octubre
Imagen sin título

Apple exige transparencia en apps que comparten datos con IA de terceros

Apple actualiza sus normas exigiendo que las aplicaciones revelen y obtengan consentimiento explícito antes de
Imagen sin título

Jack Dorsey financia diVine, una nueva app que recupera el archivo de Vine

Jack Dorsey respalda diVine, una nueva aplicación que recupera más de 100.000 vídeos del archivo
Captura de pantalla de la aplicación diVine

Teradar recauda 150 millones de dólares para un sensor que supera al lidar

La startup Teradar ha recaudado 150 millones de dólares en una ronda Serie B para
Matt Carey, cofundador y CEO de Teradar, demostrando el sensor.

Cursor recauda 2.300 millones de dólares en una nueva ronda de financiación

Cursor, la herramienta de IA para desarrolladores, ha recaudado 2300 millones de dólares, duplicando su
Imagen sin título

Google actualiza NotebookLM con Deep Research y más tipos de archivo

Google añade Deep Research a NotebookLM, una herramienta que automatiza investigaciones complejas. Genera informes detallados
Imagen sin título

DeepMind presenta SIMA 2, un agente de IA que razona y actúa en mundos virtuales

DeepMind presenta SIMA 2, un agente de IA que integra el modelo Gemini para razonar
Imagen sin título

LinkedIn añade búsqueda por IA para encontrar personas con lenguaje natural

LinkedIn lanza una función de búsqueda de personas con IA para usuarios premium. Permite consultas
Interfaz de la nueva búsqueda de personas por IA de LinkedIn