Estudio del MIT prevé rendimientos decrecientes en modelos grandes de IA
Los modelos más grandes ofrecerán rendimientos decrecientes. Una investigación del Instituto Tecnológico de Massachusetts (MIT) indica que la mejora de algoritmos podría igualar el rendimiento de modelos masivos con otros más modestos en cinco a diez años.
Límites de la escalabilidad
La investigación del MIT mapea las leyes de escalado frente a mejoras de eficiencia. Los modelos frontera actuales son superiores, pero esta ventaja se reducirá según el análisis de Hans Gundlach, Jayson Lynch y Neil Thompson.
Eficiencia versus potencia bruta
Thompson señala que afinar algoritmos es crucial cuando se invierte tanto en entrenamiento. Las ganancias de eficiencia, como el modelo de bajo coste de DeepSeek, ya suponen un revés para la industria.
Inversiones cuestionadas
El estudio surge durante una expansión masiva de infraestructuras de IA. Empresas como OpenAI firman acuerdos billonarios para centros de datos. Jamie Dimon, consejero delegado de JP Morgan, advierte sobre el alto nivel de incertidumbre.
Consecuencias para la innovación
La concentración en un único tipo de hardware podría hacer perder oportunidades. Enfoques alternativos al aprendizaje profundo o nuevos diseños de chips quedarían relegados.
Antecedentes: La obsesión por escalar
La industria de IA asume que los algoritmos mejoran con escala. La investigación del MIT sugiere que esto podría no continuar, analizando el rendimiento futuro de modelos frontera versus modelos modestos.
Cierre: Repercusiones del estudio
El análisis cuestiona la solidez de las inversiones billonarias en infraestructura. Sugiere explorar mejoras en algoritmos y hardware, no solo ampliar capacidad de cálculo, para evitar estancamientos tecnológicos.