这两个问题本质上是同一个问题。DeepSeek 过去使用平均批处理大小约为 90 的 V3 版本进行服务。他们完全可以像 Kimi-Turbo 那样,以更快的速度提供 V3.2 版本。当然,价格也会略高一些。考虑到时间就是金钱,我认为这反而可能让他们更具竞争力,即使价格更高,他们仍然会比 OpenAI 更低。
但他们并不想这样做。他们对托管和盈利API真的没什么兴趣。 这不是他们认为自己应该做的。
正在加载线程详情
正在从 X 获取原始推文,整理成清爽的阅读视图。
通常只需几秒钟,请稍候。
共 2 条推文 · 2025年12月1日 15:04
这两个问题本质上是同一个问题。DeepSeek 过去使用平均批处理大小约为 90 的 V3 版本进行服务。他们完全可以像 Kimi-Turbo 那样,以更快的速度提供 V3.2 版本。当然,价格也会略高一些。考虑到时间就是金钱,我认为这反而可能让他们更具竞争力,即使价格更高,他们仍然会比 OpenAI 更低。
但他们并不想这样做。他们对托管和盈利API真的没什么兴趣。 这不是他们认为自己应该做的。