DeepSeek lanza modelo que reduce costes de API a la mitad
DeepSeek reduce el coste de las llamadas API hasta un 50% en operaciones de contexto largo. Investigadores de la empresa china DeepSeek publicaron el modelo experimental V3.2-exp, disponible en Hugging Face.
Nueva arquitectura de atención esparcida
El modelo incorpora DeepSeek Sparse Attention, un sistema que prioriza fragmentos del contexto mediante un «indexador relámpago» y selecciona tokens específicos. Esta aproximación permite operar con contextos extensos manteniendo cargas reducidas en servidores.
Impacto en costes de inferencia
Las pruebas preliminares indican que el precio de las llamadas API podría reducirse hasta un 50%. El modelo es de pesos abiertos y está disponible para verificación externa en Hugging Face y GitHub.
Antecedentes en eficiencia de IA
DeepSeek busca optimizar la arquitectura transformer fundamental. La empresa china ya generó atención anteriormente con su modelo R1, entrenado con menor coste que competidores estadounidenses.
Repercusión en el sector
Este desarrollo sobre costes de inferencia podría ofrecer técnicas valiosas a proveedores internacionales. El enfoque en eficiencia operativa representa una evolución práctica frente a aproximaciones anteriores más disruptivas.