テキスト、画像、ビデオ、オーディオ モデルを実行するための統合 API である GMI Cloud Inference Engine 2.0 @gmi_cloud を調査しました。 面倒なセットアップはもう不要。NVIDIA DGX Cloud LeptonとGMI Cluster Engineを活用し、クリーンなスケーリングとスムーズな出力を実現します。 テストしたものはこちらです👇
パフォーマンスの向上はすぐにわかりました。 • 推論速度が1.46倍に向上 • スループットが25~49%向上 • 平均的なV3プロバイダーよりも71%安い 新しいコンソールUIにより、デプロイメントがシンプルになりました。インフラには一切手を加えていません。すべてが単一のAPIを介して実行され、柔軟なスケーリング機能が組み込まれています。
Sora-2 Pro を使用して GMI Cloud IE 2.0 をテストし、ビデオ生成にどのような効果があるかを確認しました。 ここでは、私たちが作成した 3 つの例を紹介します。映画のような東京の街、コードを修正するゾンビ開発者、夜明けのネオン街です。 すべては Sora-2 Pro を使用して @gmi_cloud 上で直接生成され、セットアップや後処理は必要ありません。
Qwen3 Coder 480B A35B Instruct FP8 を GMI Cloud IE 2.0 でテストしました。 FastAPI、MongoDB、JWT 認証、README、curl テスト、Dockerfile を備えた完全なサブスクリプション トラッカー スキャフォールドをすべて 1 つのセッションで構築しました。 高速、構造化、正確。
新規ユーザーには、Inference Engine 2.0 を試すために 5 ドル分の無料クレジットが提供されます。 GMIコミュニティに参加しましょう: https:/discord.gg/mbYhCJSbF6ストを開始してください: https://t.co/h7zU2F1D8D
