Google lanza Ironwood para mejorar la inferencia de IA
La nueva TPU Ironwood optimiza la inferencia de IA generativa. Este proceso permite a los sistemas de inteligencia artificial utilizar modelos para generar resultados basados en conocimiento. Google trabaja para hacer la inferencia más eficiente y accesible.
El motor de la IA generativa
Inference es el proceso que permite a los sistemas de IA usar modelos para crear resultados basados en conocimiento. Niranjan Hira lo describe como «emparejamiento de patrones», donde la IA predice lo que el usuario quiere basándose en datos anteriores. Fenghui Zhang añade que es la forma en que realmente usamos el modelo para hacer algo útil.
Aplicaciones prácticas de la inferencia
Modelos de aprendizaje profundo como los de lenguaje, generación de imágenes y audio utilizan inferencia para hacer predicciones. Los modelos de recomendación en YouTube y publicidad también dependen de este proceso. En AI Overviews de Búsqueda de Google, la inferencia comprende consultas y genera resúmenes útiles.
Evolución y mejora continua
La inferencia no es nueva en la IA, pero ha mejorado significativamente con modelos más capaces. Fenghui Zhang recuerda el ejemplo histórico de identificación de gatos en imágenes, donde la inferencia permitió a un modelo aprender y clasificar correctamente. Los avances actuales incluyen mejoras en física y textura para imágenes y traducciones más conversacionales.
Futuro de la inferencia accesible
Google se enfoca en reducir costes y mejorar la eficiencia. Fenghui Zhang explica que trabajan en versiones más pequeñas y asequibles de modelos como Gemini mediante la optimización del paradigma computacional. La TPU Ironwood, con diseño optimizado para inferencia, mayor potencia de cálculo y memoria, representa un avance clave en hardware para lograr este objetivo.