IA en armas nucleares: expertos advierten riesgos inevitables

Premios Nobel y especialistas alertan sobre la integración de IA en sistemas de decisión nuclear, aunque descartan que controle códigos pronto.
WIRED
El campus de la Universidad de Chicago en Illinois, el 27 de mayo de 2025. Christopher Dilts/Getty Images / WIRED

Expertos advierten que la integración de IA en armas nucleares es inevitable

Ningún especialista cree que la IA controle códigos nucleares pronto, pero sí que se integrará en sistemas de decisión. La advertencia surgió en un encuentro de premios Nobel y expertos en Chicago. Analizaron riesgos como sesgos algorítmicos o fallos en cadenas de mando históricamente humanas.

«Es como la electricidad: se colará en todo»

Durante las jornadas cerradas en la Universidad de Chicago, Scott Sagan (Stanford) afirmó que las tecnologías emergentes ya influyen en el ámbito nuclear. Bob Latiff, exgeneral de la Fuerza Aérea de EE.UU., comparó la IA con un recurso omnipresente: «Encontrará su camino en todo». Jon Wolfsthal (Federación de Científicos Americanos) destacó que el consenso es mantener «control humano efectivo», pero alertó sobre usos intermedios peligrosos, como modelos predictivos sobre líderes adversarios.

Los fantasmas de la automatización

Wolfsthal desmiente que asistentes como ChatGPT tengan acceso a códigos, pero revela proyectos para «herramientas de apoyo a decisiones» con IA en el mando nuclear estadounidense. Su mayor temor: «Que la automatización parcial cree vulnerabilidades o datos incomprensibles». Actualmente, lanzar un misil balístico intercontinental en EE.UU. requiere acciones humanas simultáneas en múltiples niveles, desde radares hasta giros físicos de llaves en silos.

¿Puede un algoritmo detectar un ataque?

EE.UU. exige «dualidad fenomenológica» (confirmación por satélite y radar) para validar un ataque nuclear. Wolfsthal duda que la IA pueda sustituir uno de esos sistemas: «No entendemos cómo funcionan sus cajas negras». Herb Lin (Stanford) recuerda el caso de Stanislav Petrov, el oficial soviético que en 1983 ignoró una falsa alerta de ataque. «¿Podemos esperar que humanos cuestionen a la IA rutinariamente?», plantea.

La sombra de una nueva carrera armamentística

En mayo de 2025, el Departamento de Energía de EE.UU. tildó a la IA como «el próximo Proyecto Manhattan». Lin critica la comparación: «El éxito nuclear se midió con una explosión; en IA no hay métrica clara». La retórica de competencia con China preocupa a los expertos, que ven riesgos en acelerar su adopción en sistemas críticos sin estándares globales.

Cuando la máquina falla, ¿quién responde?

Latiff, excomandante militar, subraya que la IA no puede asumir responsabilidades como un humano: «Si Johnny muere, ¿a quién culpo?». Los sistemas actuales están limitados por sus datos de entrenamiento, incapaces de «pensar» fuera de ellos. Lin insiste en que Petrov salvó al mundo al desconfiar de la tecnología, algo que la IA no puede replicar por diseño.

Un futuro con humanos en el bucle… por ahora

Pese a la inevitabilidad de su integración, los expertos coinciden en que la IA no sustituirá el juicio humano en decisiones nucleares a corto plazo. El desafío será evitar que herramientas de apoyo introduzcan errores o reduzcan márgenes de reacción en escenarios de alta presión.

Qwant y Ecosia lanzan Staan, un índice de búsqueda europeo

Qwant y Ecosia presentan Staan, un nuevo índice de búsqueda europeo que promete privacidad y menores costes, compitiendo con
Imagen sin título MirageC / Getty Images AI / TechCrunch

Mineros de Bitcoin evitan aranceles de Trump con vuelos urgentes

Empresas mineras gastaron millones en transporte aéreo para eludir tasas del 32% tras el anuncio sorpresa de Trump. La
Ilustración de equipos de minería de Bitcoin en un avión de carga WIRED Staff/Getty Images / WIRED

IA en armas nucleares: expertos advierten riesgos inevitables

Premios Nobel y especialistas alertan sobre la integración de IA en sistemas de decisión nuclear, aunque descartan que controle
El campus de la Universidad de Chicago en Illinois, el 27 de mayo de 2025. Christopher Dilts/Getty Images / WIRED

Clay recauda 100 millones en ronda de financiación

La startup de automatización de ventas Clay cierra una ronda Serie C de 100 millones, alcanzando una valoración de
Imagen sin título Luis Nieto Dickens / TechCrunch

OpenAI lanza sus modelos en AWS por primera vez

OpenAI anuncia la disponibilidad de sus modelos de razonamiento en AWS desde el 6 de agosto, rompiendo la exclusividad
Kevin Winter / Getty Images AI Kevin Winter / TechCrunch

Linda Yaccarino asume como CEO de eMed tras dejar X

La exdirectora de X liderará ahora una startup de salud digital centrada en fármacos como Ozempic, impulsando plataformas basadas
Linda Yaccarino en un evento de Vox Media Jerod Harris/Getty Images for Vox Media / TechCrunch

OpenAI lanza modelos de IA de código abierto GPT-OSS

OpenAI libera dos modelos de IA de razonamiento (GPT-OSS-120B y GPT-OSS-20B) bajo licencia Apache 2.0, aunque con limitaciones técnicas
Imagen de los modelos de IA de OpenAI Jakub Porzycki/NurPhoto / Getty Images / TechCrunch

Ghost 6.0 integra redes sociales descentralizadas

Ghost lanza su versión 6.0 con integración en Mastodon, Threads y WordPress mediante ActivityPub, además de analíticas en tiempo
Imagen sin título Información de autor no disponible / TechCrunch

Google abre NotebookLM con IA a menores de 18 años

Google elimina restricciones de edad en NotebookLM, permitiendo su uso educativo para estudiantes desde los 13 años con funciones
Imagen sin título A. Martin UW Photography / Getty Images / TechCrunch

Perplexity defiende su acceso a webs pese a bloqueos de Cloudflare

Cloudflare acusó a Perplexity de evadir restricciones de acceso, mientras defensores argumentan que actúa como un usuario humano. El
Imagen sin título Kimberly White/Getty Images for TechCrunch AI / TechCrunch

OpenAI lanza sus primeros modelos de código abierto desde 2019

OpenAI publica los modelos gpt-oss-120b y gpt-oss-20b con pesos abiertos y licencia Apache 2.0, marcando un cambio estratégico hacia
Fotografía de Andrew Harnik/Getty Images Andrew Harnik / WIRED

WhatsApp lanza funciones contra estafas con ayuda de OpenAI

WhatsApp elimina 6,8 millones de cuentas fraudulentas e introduce alertas para chats sospechosos y protección en grupos, en colaboración
Captura de pantalla de las nuevas funciones de seguridad de WhatsApp Jakub Porzycki/NurPhoto / Getty Images / TechCrunch