Nvidia lanza Alpamayo-R1, un modelo de IA abierto para vehículos autónomos
El modelo de lenguaje visual Alpamayo-R1 está disponible en GitHub y Hugging Face. Nvidia lo presentó en la conferencia NeurIPS en San Diego. La empresa lo describe como el primer modelo de lenguaje visual y acción centrado en la conducción autónoma.
Un modelo para dotar de «sentido común» a los vehículos
El Alpamayo-R1 es un modelo de razonamiento de visión y lenguaje. Permite a los vehículos procesar texto e imágenes para «ver» su entorno y tomar decisiones. Nvidia afirma que esta tecnología es crítica para alcanzar el nivel 4 de autonomía, que permite la conducción autónoma completa en un área definida.
Recursos para desarrolladores
Junto al modelo, Nvidia ha subido guías paso a paso y flujos de trabajo a GitHub. Este conjunto de recursos, llamado Cosmos Cookbook, cubre la curación de datos y la evaluación de modelos. Su objetivo es que los desarrolladores entrenen mejor los modelos Cosmos para sus casos de uso.
El impulso de Nvidia hacia la IA física
Este anuncio se enmarca en la apuesta de la empresa por la IA física, que incluye robots y vehículos autónomos. El científico jefe de Nvidia, Bill Dally, declaró que la compañía quiere «fabricar los cerebros de todos los robots». El CEO Jensen Huang ha señalado repetidamente que la próxima ola de la IA es la IA física.
Antecedentes de la familia de modelos Cosmos
El nuevo modelo se basa en Cosmos Reason, un modelo de razonamiento que piensa las decisiones antes de responder. Nvidia lanzó inicialmente la familia de modelos Cosmos en enero de 2025 y publicó modelos adicionales en agosto.
Cierre: Implicaciones para el sector
La publicación de Alpamayo-R1 como modelo abierto proporciona una herramienta de investigación para las empresas que desarrollan conducción autónoma. Nvidia busca establecer la tecnología base para la IA física, un nuevo campo para el uso de sus GPU avanzadas.