Exploramos GMI Cloud Inference Engine 2.0 @gmi_cloud: una API unificada para ejecutar modelos de texto, imagen, vídeo y audio. Sin complicaciones de configuración. Simplemente escalado limpio y salidas fluidas gracias a NVIDIA DGX Cloud Lepton y Cluster Engine de GMI. Esto es lo que probamos 👇
Las mejoras en el rendimiento fueron fáciles de notar: • Inferencia 1,46 veces más rápida • Rendimiento entre un 25 % y un 49 % superior • Un 71% más económico que el proveedor V3 promedio La nueva interfaz de la consola simplifica la implementación. No tuvimos que modificar la infraestructura en ningún momento. Todo se ejecuta a través de una única API con escalado elástico integrado.
Probamos GMI Cloud IE 2.0 usando Sora-2 Pro para ver qué podía hacer para la generación de vídeo. Aquí tenéis tres ejemplos que hemos creado: una calle cinematográfica de Tokio, un desarrollador zombi arreglando su código y una ciudad de neón al amanecer. Todo generado directamente en @gmi_cloud usando Sora-2 Pro, sin necesidad de configuración ni post-procesamiento.
Probamos Qwen3 Coder 480B A35B Instruct FP8 en GMI Cloud IE 2.0. Creó una estructura completa de Subscription Tracker con FastAPI, MongoDB y autenticación JWT, además de README, pruebas curl y un Dockerfile, todo en una sola sesión. Rápido, estructurado y preciso.
Los nuevos usuarios obtienen 5 dólares en créditos gratuitos para probar Inference Engidiscord.gg/mbYhCJSbF6munidad GMI: https://tconsole.gmicloud.aia a probar aquí: https://t.co/h7zU2F1D8D
