Nous avons exploré GMI Cloud Inference Engine 2.0 @gmi_cloud - une API unifiée pour exécuter des modèles de texte, d'image, de vidéo et d'audio. Aucune configuration complexe. Profitez d'une mise à l'échelle fluide et d'un rendu impeccable grâce à NVIDIA DGX Cloud Lepton et au moteur de cluster de GMI. Voici ce que nous avons testé 👇
Les améliorations des performances étaient faciles à constater : • Inférence 1,46 fois plus rapide • Débit supérieur de 25 à 49 % • 71 % moins cher que le fournisseur V3 moyen La nouvelle interface utilisateur de la console simplifie le déploiement. Nous n'avons pas eu à intervenir sur l'infrastructure. Tout repose sur une seule API avec mise à l'échelle élastique intégrée.
Nous avons testé GMI Cloud IE 2.0 avec Sora-2 Pro pour voir ce qu'il pouvait faire en matière de génération vidéo. Voici trois exemples que nous avons créés : une rue de Tokyo digne d'un film, un développeur zombie en train de corriger son code et une ville illuminée par des néons à l'aube. Tout est généré directement sur @gmi_cloud à l'aide de Sora-2 Pro, sans configuration ni post-traitement.
Nous avons testé Qwen3 Coder 480B A35B Instruct FP8 sur GMI Cloud IE 2.0. Il a construit une structure complète de suivi des abonnements avec FastAPI, MongoDB et l'authentification JWT, ainsi que des fichiers README, des tests curl et un Dockerfile, le tout en une seule session. Rapide, structuré et précis.
Les nouveaux utilisateurs reçoivent 5 $ de crédits gratuits pour essayer Inference Engidiscord.gg/mbYhCJSbF6communauté GMI : httpsconsole.gmicloud.aimmencez les tests ici : https://t.co/h7zU2F1D8D
