Anthropic y EE.UU. desarrollan un filtro para impedir que su IA ayude a crear armas nucleares

Anthropic, en colaboración con el Departamento de Energía de EEUU, ha desarrollado un clasificador para bloquear que su IA Claude ayude en la construcción de armas nucleares. El filtro, probado en un entorno de alta seguridad, busca impedir conversaciones peligrosas sin afectar debates legítimos.
WIRED
Ilustración sobre inteligencia artificial y seguridad nuclear.
Ilustración sobre inteligencia artificial y seguridad nuclear. / Wired Staff; Getty Images / Wired

Anthropic y EEUU crean filtro para impedir que su IA ayude a construir armas nucleares

Anthropic ha desarrollado un «clasificador nuclear» en colaboración con el DOE y la NNSA. Este filtro actúa en su modelo Claude para bloquear conversaciones que puedan derivar en la construcción de armamento nuclear.

Colaboración en entorno seguro

La prueba se realizó en un entorno cloud de AWS con nivel de seguridad Top Secret. La NNSA realizó pruebas de red-teaming a modelos sucesivos de Claude, lo que permitió codefinir una lista de indicadores de riesgo nuclear para el clasificador.

Un filtro en desarrollo

El proceso de ajuste llevó varios meses hasta lograr que el sistema bloquee conversaciones peligrosas sin afectar debates legítimos sobre energía nuclear o isótopos médicos.

División entre los expertos

Mientras algunos expertos ven una medida prudente ante futuras capacidades de la IA, otros la califican de teatro de seguridad. La crítica principal argumenta que, si el modelo no fue entrenado con datos nucleares sensibles, el filtro carece de base real para demostrar su eficacia.

Preocupaciones sobre los datos

Surgen dudas sobre el acceso de corporaciones privadas a información sensible de seguridad nacional. Además, se señala la incapacidad de los modelos de lenguaje para realizar cálculos matemáticos básicos de forma fiable, un riesgo grave en un campo que requiere extrema precisión.

Un estándar voluntario para la industria

Anthropic pretende que este clasificador se convierta en una práctica de seguridad compartida y lo ofrece a otras empresas de IA. La compañía busca establecer un estándar voluntario para reducir riesgos en un dominio de seguridad nacional sensible.

Adobe lanza Adobe AI Foundry para crear modelos de IA generativa personalizados

Adobe lanza AI Foundry, un servicio que permite a las empresas crear modelos de IA
Imagen sin título

Anthropic lanza Claude Code en la web para suscriptores de pago

Anthropic lanza Claude Code en la web para suscriptores Pro y Max. La herramienta, que
Imagen sin título

Anthropic y EE.UU. desarrollan un filtro para impedir que su IA ayude a crear armas nucleares

Anthropic, en colaboración con el Departamento de Energía de EEUU, ha desarrollado un clasificador para
Ilustración sobre inteligencia artificial y seguridad nuclear.

TechCrunch Disrupt 2025 se celebrará en San Francisco del 27 al 29 de octubre

El evento TechCrunch Disrupt 2025 inicia el 27 de octubre en San Francisco, reuniendo a
Asistentes a una edición anterior del evento TechCrunch Disrupt.

La FTC elimina publicaciones de la era Lina Khan sobre riesgos de la IA

La FTC retira tres publicaciones de su blog que alertaban sobre los peligros de la
Imagen sin título

Google cierra oficinas en Nueva York por infestación de chinches

Google ha cerrado temporalmente su campus de Chelsea en Nueva York tras detectarse una infestación
Oficina de Google en el bajo Manhattan

TechCrunch Disrupt 2025 inicia su cuenta atrás con oferta de última hora

TechCrunch Disrupt 2025 ofrece un 60% de descuento en una segunda entrada hasta el inicio
Asistentes en una edición anterior de TechCrunch Disrupt

Meta AI duplica usuarios diarios tras el lanzamiento de su feed de vídeos Vibes

Meta AI alcanza 2,7 millones de usuarios diarios tras lanzar Vibes, su feed de vídeos
Gráfico de usuarios diarios de Meta AI proporcionado por Similarweb

Satélites Filtran Comunicaciones Militares y Corporativas a Nivel Global

Investigadores interceptaron comunicaciones de satélites con equipos de bajo coste, recogiendo datos sensibles de infraestructuras
Ilustración de satélites orbitando la Tierra

OpenEvidence recauda 200 millones de dólares con una valoración de 6.000 millones

La startup de IA médica OpenEvidence ha recaudado 200 millones de dólares, alcanzando una valoración
Logotipo de OpenEvidence

Bill Atkinson, pionero de Apple, fue defensor secreto de la «molécula de Dios»

Bill Atkinson, pionero de Apple, defendió el uso de dosis reducidas de 5-MeO-DMT bajo el
Bill Atkinson, pionero de Apple y defensor del 5-MeO-DMT

La FTC elimina publicaciones sobre IA de la era de Lina Khan

La FTC de EE.UU. ha eliminado varias entradas de blog sobre inteligencia artificial publicadas durante
Lina Khan, expresidenta de la FTC, testificando ante el Congreso en 2024.