NVIDIA y Mistral AI lanzan la familia de modelos abiertos Mistral 3
La familia Mistral 3, que incluye desde modelos de nivel avanzado hasta compactos, está optimizada para las plataformas de NVIDIA. Mistral AI anunció hoy esta nueva familia de modelos multilingües y multimodales de código abierto. Estará disponible en la nube, el centro de datos y el edge a partir del martes 2 de diciembre.
Eficiencia y rendimiento para la empresa
El modelo principal, Mistral Large 3, utiliza una arquitectura de mixture-of-experts (MoE). Cuenta con 41.000 millones de parámetros activos y una ventana de contexto de 256K. En el sistema NVIDIA GB200 NVL72 logró una ganancia de rendimiento 10 veces mayor en comparación con la generación anterior H200.
Optimizaciones técnicas clave
La arquitectura MoE granular aprovecha el dominio de memoria coherente de NVIDIA NVLink. Se combina con optimizaciones de inferencia de baja precisión NVFP4 y NVIDIA Dynamo. Esta combinación permite un menor coste por token y una mayor eficiencia energética.
Inteligencia distribuida hasta el edge
La suite compacta Ministral 3 está optimizada para ejecutarse en plataformas edge de NVIDIA. Incluye NVIDIA Spark, dispositivos RTX y Jetson. Los desarrolladores pueden probarla ya a través de frameworks como Llama.cpp y Ollama.
Disponibilidad y herramientas para desarrolladores
La familia de modelos Mistral 3 está abiertamente disponible en plataformas de código abierto y proveedores de servicios en la nube. Las empresas pueden personalizar los modelos con las herramientas de NVIDIA NeMo, como Data Designer y Customizer. Los marcos de inferencia TensorRT-LLM, SGLang y vLLM también están optimizados para esta familia.
Un paso hacia la inteligencia distribuida
La colaboración entre NVIDIA y Mistral AI pretende acortar la distancia entre los avances en investigación y las aplicaciones reales. La optimización conjunta de hardware y software facilita el despliegue de modelos de IA masivos. Se espera que los modelos estén disponibles pronto como microservicios NVIDIA NIM.