Clarifai lanza un motor de razonamiento que duplica la velocidad de la IA
Duplica la velocidad y reduce los costes un 40%. La plataforma de inteligencia artificial Clarifai ha presentado este jueves un nuevo motor de razonamiento. El sistema está diseñado para ser adaptable a diversos modelos y servicios en la nube.
Optimización del rendimiento
La tecnología emplea múltiples optimizaciones, desde núcleos CUDA hasta técnicas avanzadas de decodificación especulativa. El consejero delegado, Matthew Zeiler, afirma que el objetivo es obtener más potencia de inferencia del mismo hardware. Los resultados fueron verificados por la firma independiente Artificial Analysis, que registró récords de la industria en rendimiento y latencia.
Enfoque en la inferencia
El motor se centra específicamente en la inferencia, que es la fase operativa de un modelo de IA ya entrenado. Esta carga computacional se ha intensificado con el auge de los modelos agentivos y de razonamiento, que requieren múltiples pasos para una sola orden.
Antecedentes: La evolución de Clarifai
Clarifai, que comenzó como un servicio de visión artificial, ha centrado su crecimiento en la orquestación de procesos computacionales. La compañía anunció su plataforma de computación en AWS re:Invent en diciembre, pero este nuevo motor es el primer producto específicamente diseñado para modelos agentivos de múltiples pasos.
Cierre: Implicaciones para la infraestructura de IA
El lanzamiento se produce en un contexto de intensa presión sobre la infraestructura de IA. Mientras empresas como OpenAI proyectan un gasto billonario en centros de datos, Clarifai apuesta por optimizar el software existente. Zeiler sugiere que las mejoras algorítmicas pueden ayudar a combatir la necesidad de centros de datos de gigavatios, indicando que aún no se ha llegado al final de las innovaciones en este campo.