Mistral AI anuncia la familia de modelos Mistral 3, optimizada para plataformas NVIDIA

Mistral AI y NVIDIA presentan la familia de modelos abiertos Mistral 3, multilingües y multimodales. Optimizados para plataformas NVIDIA, ofrecen mayor rendimiento y eficiencia, y estarán disponibles en la nube, centros de datos y dispositivos edge.
NVIDIA Blog
Imagen sin título
Imagen sin título / Autor no disponible / NVIDIA News

NVIDIA y Mistral AI lanzan la familia de modelos abiertos Mistral 3

La familia Mistral 3, que incluye desde modelos de nivel avanzado hasta compactos, está optimizada para las plataformas de NVIDIA. Mistral AI anunció hoy esta nueva familia de modelos multilingües y multimodales de código abierto. Estará disponible en la nube, el centro de datos y el edge a partir del martes 2 de diciembre.

Eficiencia y rendimiento para la empresa

El modelo principal, Mistral Large 3, utiliza una arquitectura de mixture-of-experts (MoE). Cuenta con 41.000 millones de parámetros activos y una ventana de contexto de 256K. En el sistema NVIDIA GB200 NVL72 logró una ganancia de rendimiento 10 veces mayor en comparación con la generación anterior H200.

Optimizaciones técnicas clave

La arquitectura MoE granular aprovecha el dominio de memoria coherente de NVIDIA NVLink. Se combina con optimizaciones de inferencia de baja precisión NVFP4 y NVIDIA Dynamo. Esta combinación permite un menor coste por token y una mayor eficiencia energética.

Inteligencia distribuida hasta el edge

La suite compacta Ministral 3 está optimizada para ejecutarse en plataformas edge de NVIDIA. Incluye NVIDIA Spark, dispositivos RTX y Jetson. Los desarrolladores pueden probarla ya a través de frameworks como Llama.cpp y Ollama.

Disponibilidad y herramientas para desarrolladores

La familia de modelos Mistral 3 está abiertamente disponible en plataformas de código abierto y proveedores de servicios en la nube. Las empresas pueden personalizar los modelos con las herramientas de NVIDIA NeMo, como Data Designer y Customizer. Los marcos de inferencia TensorRT-LLM, SGLang y vLLM también están optimizados para esta familia.

Un paso hacia la inteligencia distribuida

La colaboración entre NVIDIA y Mistral AI pretende acortar la distancia entre los avances en investigación y las aplicaciones reales. La optimización conjunta de hardware y software facilita el despliegue de modelos de IA masivos. Se espera que los modelos estén disponibles pronto como microservicios NVIDIA NIM.

Nueva York obliga a revelar si los datos personales influyen en los precios

Una nueva ley en Nueva York obliga a los minoristas a informar si el precio
Imagen sin título

Google anuncia nuevas funciones de IA y personalización en Android 16

Google lanza Android 16, introduciendo resúmenes de notificaciones con IA, un organizador automático y mayor
Captura de pantalla mostrando las nuevas funciones de Android 16.

AWS lanza el chip Trainium3 y anuncia la compatibilidad con Nvidia en Trainium4

AWS presenta su chip Trainium3, con un rendimiento 4 veces superior y un 40% más
Imagen sin título

Mistral AI anuncia la familia de modelos Mistral 3, optimizada para plataformas NVIDIA

Mistral AI y NVIDIA presentan la familia de modelos abiertos Mistral 3, multilingües y multimodales.
Imagen sin título

AWS lanza nuevos modelos Nova 2 y un servicio para crear modelos personalizados

AWS presenta Nova 2 Lite, Pro, Sonic y Omni, cuatro nuevos modelos de IA con
Imagen sin título

ChatGPT incrementa un 28% sus referencias a apps de retail en el Black Friday

Las referencias de ChatGPT a aplicaciones de comercio electrónico crecieron un 28% durante el Black
Imagen sin título

AWS apuesta por la IA asequible y fiable para mantener su liderazgo en la nube

AWS anuncia una inversión de 50.000 millones en centros de datos y añade 3,8 gigavatios
Foto-ilustración del CEO de AWS, Matt Garman.

Amazon lanza Nova Forge, una herramienta para crear modelos de IA personalizados

Amazon presenta Nova 2 Lite, Pro, Sonic y Omni, una nueva generación de modelos de
Imagen sin título

AWS anuncia mejoras en su plataforma de agentes de IA Amazon Bedrock AgentCore

AWS presenta nuevas funciones para Amazon Bedrock AgentCore en re:Invent. Incluyen Policy para establecer límites
Imagen sin título

AWS re:Invent 2025 arranca en Las Vegas con foco en la inteligencia artificial

El evento anual de AWS comienza hoy en Las Vegas, del 2 al 4 de
Imagen sin título

OpenAI critica por sugerir apps como anuncios en ChatGPT

Un suscriptor premium de ChatGPT compartió una sugerencia no solicitada de la app de Peloton
Ilustración de un smartphone con el logo de ChatGPT.

NVIDIA y AWS amplían su colaboración estratégica en IA con nuevas integraciones tecnológicas

AWS integrará la plataforma NVIDIA NVLink Fusion en sus chips personalizados Trainium4, Graviton y en
Logotipos de NVIDIA y AWS