很高兴它是开放权重的,但是比较密集模型和低密度模型,只看总参数是不公平的,如果看有效参数而不是总参数,情况就不同了: - GLM 4.6 (320亿):减少74% - Minimax M2 (10B):减少 92% - K2思维(32B):减少74% - V3.2 (37B):减少 70% 这里用大小(无论是总大小还是活跃大小!)来衡量并不合适,我们应该用 vllm/sglang 的速度来绘制同样的图表。
正在加载线程详情
正在从 X 获取原始推文,整理成清爽的阅读视图。
通常只需几秒钟,请稍候。
