LogoThread Easy
  • 探索
  • 線程創作
LogoThread Easy

Twitter 線程的一站式夥伴

© 2025 Thread Easy All Rights Reserved.

探索

Newest first — browse tweet threads

Keep on to blur preview images; turn off to show them clearly

Yes!

Yes!

Subscribe https://t.co/Xm1OaUU8jk • seed investing • writing • ॐ •🙏• I use '—' • tweets saved 90 days • 📷

avatar for Steven Sinofsky
Steven Sinofsky
Thu Oct 30 04:06:42
Sad day :(

Am I the only one who still like using sonnet 3.5?

Sad day :( Am I the only one who still like using sonnet 3.5?

Indie hacker, solopreneur building a portfolio of products & SaaS: 🔌 https://t.co/rLuxXYrO8V 🟩 https://t.co/f93dEmKKZU 📋 https://t.co/zmLERuwToj ✍️ https://t.co/MW9HQLABxB 🏡 https://t.co/EtGIs3qLMx

avatar for Jason Leow
Jason Leow
Thu Oct 30 04:06:21
最近的会员群里面来了学 AI 编程 的大二学生,我说今天我给你演示一下什么叫 vibe coding 老手是怎么做的

他:????? 什么是 vibe coding
我:?????

最近的会员群里面来了学 AI 编程 的大二学生,我说今天我给你演示一下什么叫 vibe coding 老手是怎么做的 他:????? 什么是 vibe coding 我:?????

🖥️ Indie Maker 🛠️ 星球「海哥和他的小伙伴们」 📌 油管「海拉鲁编程客」 🌸 沦为程序员的段子手/猫咪

avatar for 海拉鲁编程客
海拉鲁编程客
Thu Oct 30 04:03:38
RT @Yuchenj_UW: SoftBank was the largest shareholder of Nvidia.

But they sold their entire 4.9% stake in Nvidia in 2019 for $3.6B.

Nivida…

RT @Yuchenj_UW: SoftBank was the largest shareholder of Nvidia. But they sold their entire 4.9% stake in Nvidia in 2019 for $3.6B. Nivida…

Co-founder & CTO @hyperbolic_labs cooking fun AI systems. Prev: OctoAI (acquired by @nvidia) building Apache TVM, PhD @ University of Washington.

avatar for Yuchen Jin
Yuchen Jin
Thu Oct 30 04:02:57
这篇论文提出了一个新的参数高效(PEFT)的方法,实现只需要0.02%的训练参数,获得了新的SOTA, 并且相较于传统的selection-based 的方法, 减少了GPU memory的占用。

这篇论文提出了一个新的参数高效(PEFT)的方法,实现只需要0.02%的训练参数,获得了新的SOTA, 并且相较于传统的selection-based 的方法, 减少了GPU memory的占用。

Prompt Engineer, dedicated to learning and disseminating knowledge about AI, software engineering, and engineering management.

avatar for 宝玉
宝玉
Thu Oct 30 04:01:32
转译自 Cline 的作者推文:为什么Cursor和Windsurf选择发布“速度优化”模型,而不是追求更高智能?

对Cursor和Windsurf这些公司来说,发布一款主打速度优化的模型,显然比打造一个从零开始、推动智能边界的基础模型(foundational model)更加实际。

为什么这么说呢?你想象一下:

1. 先拿开源的Qwen3大模型,直接用强化学习(RL)在自家任务环境上微调。
2. 再把微调后的模型部署到Cerebras或其它经过优化的GPU硬件上。
3. 接下来,就让这个智能“中等”、但速度超快的模型顺畅地运行(cook)起来。

相比之下,如果想从头构建一个全新的基础模型,其难度完全是另外一个量级的。这不仅意味着巨额的资金投入、长期的人才积累,还有大量难以预估的风险。而**对于那些做代码智能体(AI coding agent)的公司而言,真正带给市场价值的方式,就是在现有的开源模型基础上,做精细化的微调(fine-tune)和高效的推理(inference)优化**。

坦白说,这种路线恰恰是一种高效的战略——它能以最小的资源成本,尽可能接近速度和智能的帕累托前沿(pareto frontier)。我很乐意看到代码智能体公司们开始进入这个领域,这无疑是行业的积极信号。

但需要强调一点:这并不意味着代码智能体公司在宣称“中等智能但速度快”比“高智能但速度慢”更好。

毕竟,不同场景对智能和速度的需求本就不同。

转译自 Cline 的作者推文:为什么Cursor和Windsurf选择发布“速度优化”模型,而不是追求更高智能? 对Cursor和Windsurf这些公司来说,发布一款主打速度优化的模型,显然比打造一个从零开始、推动智能边界的基础模型(foundational model)更加实际。 为什么这么说呢?你想象一下: 1. 先拿开源的Qwen3大模型,直接用强化学习(RL)在自家任务环境上微调。 2. 再把微调后的模型部署到Cerebras或其它经过优化的GPU硬件上。 3. 接下来,就让这个智能“中等”、但速度超快的模型顺畅地运行(cook)起来。 相比之下,如果想从头构建一个全新的基础模型,其难度完全是另外一个量级的。这不仅意味着巨额的资金投入、长期的人才积累,还有大量难以预估的风险。而**对于那些做代码智能体(AI coding agent)的公司而言,真正带给市场价值的方式,就是在现有的开源模型基础上,做精细化的微调(fine-tune)和高效的推理(inference)优化**。 坦白说,这种路线恰恰是一种高效的战略——它能以最小的资源成本,尽可能接近速度和智能的帕累托前沿(pareto frontier)。我很乐意看到代码智能体公司们开始进入这个领域,这无疑是行业的积极信号。 但需要强调一点:这并不意味着代码智能体公司在宣称“中等智能但速度快”比“高智能但速度慢”更好。 毕竟,不同场景对智能和速度的需求本就不同。

Prompt Engineer, dedicated to learning and disseminating knowledge about AI, software engineering, and engineering management.

avatar for 宝玉
宝玉
Thu Oct 30 04:00:39
  • Previous
  • 1
  • More pages
  • 1790
  • 1791
  • 1792
  • More pages
  • 2117
  • Next