感谢Artificial Analysis进行这项基准测试,但我对发布时间点深感担忧。即使附带“随着更多优化措施的实施,我们将进一步更新这些结果”的免责声明,我也并不赞成发布不完整的结果。 这看起来更像是为了继续缓解人们对 TPU 会蚕食英伟达市场份额的担忧——而这种担忧只是“人工智能专家”们煽动的恐慌,这些专家们会在感恩节周末给你一份 1000 页的秘籍,教你如何利用人工智能代理来打造七位数的 ARR 业务。 无论如何,只有当你确信受众会花时间阅读并理解结果时,这种附带免责声明的不完整结果才有用。但如果到处都有人工智能悲观论者潜伏,那就毫无意义了。 更重要的是,谷歌内部用于 TPU 运行的技术栈与如今社区可用的技术栈之间,确实存在着巨大的差距。这正是 CUDA 护城河存在的根本原因——CUDA 软件栈的成熟度领先于其他任何技术栈一代。 再见,感恩节快乐!该吃土豆了。
正在加载线程详情
正在从 X 获取原始推文,整理成清爽的阅读视图。
通常只需几秒钟,请稍候。