Exploramos o GMI Cloud Inference Engine 2.0 @gmi_cloud - uma API unificada para executar modelos de texto, imagem, vídeo e áudio. Sem complicações na configuração. Apenas escalonamento preciso e resultados suaves, graças ao NVIDIA DGX Cloud Lepton e ao Cluster Engine da GMI. Eis o que testamos 👇
As melhorias de desempenho foram fáceis de notar: • Inferência 1,46 vezes mais rápida • Aumento de 25 a 49% na produtividade • 71% mais barato que a média dos fornecedores de V3 A nova interface de usuário do console simplifica a implantação. Não alteramos a infraestrutura em nenhum momento. Tudo funciona por meio de uma única API com escalonamento elástico integrado.
Testamos o GMI Cloud IE 2.0 usando o Sora-2 Pro para ver o que ele poderia fazer na geração de vídeo. Aqui estão três exemplos que criamos: uma rua cinematográfica de Tóquio, um desenvolvedor zumbi consertando seu código e uma cidade iluminada por neon ao amanhecer. Tudo gerado diretamente no @gmi_cloud usando o Sora-2 Pro, sem necessidade de configuração ou pós-processamento.
Testamos o codificador Qwen3 480B A35B Instruct FP8 no GMI Cloud IE 2.0. Criou-se uma estrutura completa de rastreamento de assinaturas com FastAPI, MongoDB e autenticação JWT, além de README, testes curl e um Dockerfile - tudo em uma única sessão. Rápido, estruturado e preciso.
Novos usuários recebem US$ 5 em créditos gratuitos para experimentar o Inference Enginediscord.gg/mbYhCJSbF6nidade GMI: https://t.console.gmicloud.aia testar aqui: https://t.co/h7zU2F1D8D
