La destilación permite crear modelos de IA más pequeños y baratos

La destilación de conocimiento, técnica desarrollada por Google en 2015, permite entrenar modelos de IA más pequeños y económicos, preservando su precisión. Empresas como Google y OpenAI ya ofrecen este servicio, facilitando el acceso a tecnologías avanzadas.
Quanta Magazine
Imagen sin título
Imagen sin título / Nico H. Brausch / Quanta Magazine

La destilación reduce el coste y tamaño de los modelos de IA

La técnica permite entrenar modelos más pequeños con un coste inferior a 450 dólares. Desarrollada inicialmente por Google en 2015, se utiliza para crear versiones eficientes de sistemas complejos.

Fundamentos de la técnica

La destilación de conocimiento emplea un modelo grande como «profesor» para entrenar a uno más pequeño o «estudiante». La información se transmite mediante objetivos suaves, donde el profesor muestra probabilidades de cada opción. Este método preserva la precisión mientras reduce significativamente los recursos necesarios.

Origen conceptual

Investigadores de Google, incluido Geoffrey Hinton, introdujeron la idea en 2015. Identificaron que los modelos contienen conocimiento oscuro sobre similitudes entre categorías. Los objetivos suaves revelan que confundir un perro con un gato es menos grave que con un coche.

Expansión y aplicaciones

La técnica se popularizó con el crecimiento de los modelos. En 2019, DistilBERT demostró su eficacia al crear una versión reducida de BERT. Empresas como Google, OpenAI y Amazon ofrecen ahora destilación como servicio. El laboratorio NovaSky mostró en enero que funciona para modelos de cadena de razonamiento.

Impacto industrial

La destilación afecta a la competitividad del sector. El caso de DeepSeek mostró su repercusión en mercados, aunque la destilación directa de modelos cerrados como o1 de OpenAI no es posible sin acceso interno.

Antecedentes de la técnica

La destilación surgió para resolver el problema de los ensembles de modelos, que resultaban costosos y difíciles de ejecutar. La investigación inicial de Google buscaba comprimir múltiples modelos en uno solo más eficiente.

Implicaciones del método

La destilación permite accesibilidad económica a tecnologías de IA avanzadas. Reduce barreras de entrada para empresas y investigadores al abaratar el entrenamiento de modelos competentes, cambiando la dinámica competitiva del sector.

Apple lanza el pasaporte digital para usar en controles TSA de EE.UU.

Apple lanza Digital ID en Apple Wallet para identificarse en controles de la TSA en
Usuario mostrando la Identidad Digital de Apple en un iPhone

Google lanza nuevas herramientas de IA para revolucionar las compras navidenas

Google presenta nuevas funciones de compra con IA, incluyendo búsqueda conversacional, checkout autónomo y un
Interfaz de las nuevas herramientas de IA para compras de Google

Bindwell recauda 6 millones para diseñar pesticidas con IA

La startup Bindwell ha obtenido 6 millones de dólares en una ronda semilla para diseñar
Tyler Rose (izquierda) y Navvye Anand (derecha), cofundadores de Bindwell

Cursor recauda 2300 millones de dólares y duplica su valoración

La empresa de herramientas de desarrollo con IA Cursor ha recaudado 2.300 millones de dólares,
Imagen sin título

IA diseña experimentos físicos incomprensibles que funcionan

Un software de IA ha diseñado un interferómetro que aumenta la sensibilidad del observatorio LIGO
Rana Adhikari, físico del Caltech, empleó IA para mejorar detectores.

Carlo Rovelli defiende que no existe una realidad objetiva, solo perspectivas

El físico teórico Carlo Rovelli sostiene que no existe una realidad objetiva, solo una red
Carlo Rovelli en su casa con vistas a los acantilados de Cassis.

Matemáticos resuelven un problema geométrico de más de 300 años

Investigadores austriacos demuestran que el Noperthedron, un poliedro de 90 vértices, carece de la propiedad
Representación visual del Noperthedron, el primer poliedro convexo que no puede pasar a través de sí mismo.

La destilación permite crear modelos de IA más pequeños y baratos

La destilación de conocimiento, técnica desarrollada por Google en 2015, permite entrenar modelos de IA
Imagen sin título

Meta desarrolla un modelo de IA con intuición física similar a la de un bebé

El modelo V-JEPA de Meta alcanza un 98% de precisión en pruebas de física intuitiva.
El modelo V-JEPA muestra sorpresa ante escenarios no físicos.

Un modelo de IA analiza el lenguaje como un experto humano por primera vez

El modelo o1 de OpenAI demostró capacidades metalingüísticas avanzadas, analizando sintaxis compleja, recursión y fonología
Imagen sin título

Físicos eliminan los números imaginarios de la mecánica cuántica

Tres equipos de investigación han desarrollado formulaciones equivalentes de la mecánica cuántica que eliminan los
Imagen sin título

Físicos descubren el origen de la creatividad en los modelos de difusión de IA

La creatividad en IA de generación de imágenes no es aleatoria, sino un subproducto determinista
Imagen sin título