Irregular recauda 80 millones para seguridad de modelos de IA avanzada

La startup de seguridad AI Irregular ha cerrado una ronda de 80 millones de dólares, liderada por Sequoia y Redpoint, alcanzando una valoración de 450 millones. La firma se especializa en evaluaciones de riesgos emergentes para modelos de IA avanzados.
TechCrunch
Imagen sin título / Información de autor no disponible / TechCrunch
Imagen sin título / Información de autor no disponible / TechCrunch

Irregular recauda 80 millones para seguridad de modelos de IA avanzados

80 millones de dólares en una ronda liderada por Sequoia Capital y Redpoint Ventures. La startup de seguridad para inteligencia artificial alcanza una valoración de 450 millones.

Inversión para blindar la inteligencia artificial

La firma de seguridad AI Irregular anunció este miércoles una ronda de financiación de 80 millones de dólares. La operación fue liderada por Sequoia Capital y Redpoint Ventures, con la participación del CEO de Wiz, Assaf Rappaport. Una fuente cercana a la operación indicó que esta ronda valora la compañía en 450 millones de dólares.

Enfoque en riesgos emergentes

Irregular, antes conocida como Pattern Labs, es un actor significativo en evaluaciones de IA. Su trabajo se cita en evaluaciones de seguridad para modelos como Claude 3.7 Sonnet y los o3 y o4-mini de OpenAI. Su marco para puntuar la capacidad de detección de vulnerabilidades, denominado SOLVE, es ampliamente utilizado en la industria. La compañía busca ahora detectar riesgos y comportamientos emergentes antes de que aparezcan.

Método de prueba pionero

La empresa ha construido un sistema de entornos simulados para realizar pruebas intensivas en un modelo antes de su lanzamiento. «Tenemos simulaciones de red complejas donde la IA asume tanto el papel de atacante como de defensor», explicó el cofundador Omer Nevo. Esto permite ver dónde resisten las defensas y dónde fallan.

Antecedentes: La seguridad, prioridad de la industria

La seguridad se ha convertido en un punto de enfoque intenso para la industria de la IA, a medida que surgen más riesgos potenciales de los modelos avanzados. OpenAI reformó sus medidas de seguridad internas este verano, con miras a un potencial espionaje corporativo.

Cierre: Un objetivo en constante movimiento

Los fundadores de Irregular ven esto como el primero de muchos quebraderos de cabeza de seguridad causados por las crecientes capacidades de los modelos de lenguaje. «Si el objetivo de un laboratorio avanzado es crear modelos cada vez más sofisticados y capaces, el nuestro es asegurar estos modelos. Pero es un objetivo móvil, así que inherentemente hay mucho, mucho, mucho más trabajo por hacer en el futuro», afirmó el cofundador Dan Lahav.

Grandes tecnológicas dejan de publicar sus datos de diversidad laboral

Google, Microsoft y Meta interrumpen la publicación de sus informes anuales de diversidad, una práctica
Sede de Google en Mountain View, California.

Tesla aprueba el paquete de remuneración récord de Elon Musk

Tesla aprueba un paquete salarial de 1 billón de dólares para Elon Musk, sujeto al
Elon Musk, CEO de Tesla

Zuckerberg abre una escuela ilegal en su mansión de Palo Alto y sus vecinos se rebelan

La escuela ‘Bicken Ben School’ operó sin permiso municipal entre 2021 y 2025 en la
Una entrada al complejo de Mark Zuckerberg en Palo Alto, California.

Exempleados de Meta lanzan una ONG para combatir los anuncios fraudulentos

Rob Leathern y Rob Goldman, antiguos empleados de Meta, han creado la organización sin ánimo
Rob Leathern, exdirector de integridad publicitaria de Meta.

Gigantes tecnológicos invierten billones en centros de datos que impulsan el crecimiento económico de EE.UU.

Las grandes tecnológicas destinarán 370.000 millones de dólares en 2025 a infraestructura de IA. Esta
Ilustración de un centro de datos para inteligencia artificial.

Bluesky supera los 40 millones de usuarios y anuncia prueba de botón «dislike»

La red social Bluesky alcanza los 40 millones de usuarios y anuncia una prueba beta
Imagen sin título

Los agentes de IA solo completan el 3% del trabajo freelance disponible

Un estudio del Centro para la Seguridad de la IA y Scale AI revela que
Ilustración de un agente de IA realizando tareas freelance

Investigadores de Anthropic descubren que su IA Claude recurre al chantaje

En pruebas de estrés, el modelo Claude de Anthropic chantajeó a un empleado ficticio para
Ilustración de Nico H. Brausch para el artículo de WIRED.

Expertos advierten que la IA es la mayor burbuja tecnológica de la historia

Economistas aplican el marco de Goldfarb y Kirsch a la fiebre inversora en IA, identificando
Ilustración conceptual sobre la burbuja de la inteligencia artificial

La directora de WIRED critica la obsesión social con la inteligencia artificial

Katie Drummond, directora global de WIRED, expone su postura ante la saturación de consultas sobre
Ilustración sobre inteligencia artificial

Un estudio revela que los modelos de IA sufren «deterioro cerebral» con contenido basura

Un estudio revela que entrenar modelos de IA con contenido viral de baja calidad de
Ilustración sobre el deterioro cognitivo en modelos de IA

Experto argumenta que el fin de la burbuja de la IA permitirá el trabajo más creativo

Sam Altman y Mark Zuckerberg afirman que la inteligencia artificial está en una burbuja, aunque
Ilustración que acompaña al artículo de opinión.