我们探索了 GMI Cloud Inference Engine 2.0 @gmi_cloud - 一个用于运行文本、图像、视频和音频模型的统一 API。 无需繁琐的设置。NVIDIA DGX Cloud Lepton 和 GMI 的集群引擎可实现干净利落的缩放和流畅的输出。 以下是我们测试的内容👇
性能提升显而易见: • 推理速度提升 1.46 倍 • 吞吐量提高 25%–49% • 比平均 V3 提供商便宜 71% 全新的控制台用户界面简化了部署流程。我们完全无需改动基础架构。所有操作都通过一个内置弹性扩展功能的 API 完成。
我们使用 Sora-2 Pro 对 GMI Cloud IE 2.0 进行了测试,看看它在视频生成方面能做到什么程度。 以下是我们创作的三个例子——电影般的东京街景、正在修复代码的僵尸开发者,以及黎明时分的霓虹城市。 所有内容均直接在 @gmi_cloud 上使用 Sora-2 Pro 生成,无需任何设置或后处理。
我们在 GMI Cloud IE 2.0 上测试了 Qwen3 Coder 480B A35B Instruct FP8。 它使用 FastAPI、MongoDB 和 JWT 身份验证构建了一个完整的订阅跟踪器框架,外加 README、curl 测试和 Dockerfile——所有这些都在一个会话中完成。 快速、结构化、准确。
新用户可获得 5 美元免费积分,用于试用推理引擎 2.0。 加入 GMI 社区:https://t.co/NsGRNstYjx 从这里开始测试:https://t.co/h7zU2F1D8D
