LogoThread Easy
  • 탐색
  • 스레드 작성
LogoThread Easy

트위터 스레드의 올인원 파트너

© 2025 Thread Easy All Rights Reserved.

탐색

Newest first — browse tweet threads

Keep on to blur preview images; turn off to show them clearly

Lucas is building the EAS/Capgo for Mac OS apps. 

Everything he does contains a lot of love and care for detail. If there’s one person that can pull this off it’s him.

Excited to see his journey of getting this into production.

Lucas is building the EAS/Capgo for Mac OS apps. Everything he does contains a lot of love and care for detail. If there’s one person that can pull this off it’s him. Excited to see his journey of getting this into production.

⚡ Founder & 🌊 Surfer bootstrapping SaaS. ✍️ Notion ➯ Help Center @HelpkitHQ 💰 Reddit ➯ Customers https://t.co/3kdqfXzlsK🔋 Battery ➯ Alerts https://t.co/cX8QhAoG55

avatar for Dominik Sobe ツ
Dominik Sobe ツ
Thu Dec 04 14:01:06
Mistral Large 3 debuts as the #1 open source coding model on the @arena leaderboard. We'd love for you to try it! 

More on coding in a few days... 👀

Mistral Large 3 debuts as the #1 open source coding model on the @arena leaderboard. We'd love for you to try it! More on coding in a few days... 👀

Frontier AI in your hands. https://t.co/VdyEwpQsiy Apps: https://t.co/1vZA5XdBYo https://t.co/rj5G4u5sHu

avatar for Mistral AI
Mistral AI
Thu Dec 04 14:00:14
基于 Gemini 3 Pro 模型、使用 Google AI Studio 和 Cursor 在几小时内构建博客网站

刚刚入职 Google 的 @fofrAI 分享了他基于 Gemini 3 Pro 模型,使用 Google AI Studio 和 Cursor 分阶段迭代配合,几个小时内从零构建个人博客 “fofr” 的全过程。

构建过程
采用迭代式提示驱动开发,分阶段推进:
1. AI Studio原型设计:在 Google AI Studio 中,以 React 框架为基础,通过详细提示生成博客原型。初始提示强调“优美排版、居中布局、理想行长”,并指定支持图像、视频、生成媒体、代码块和提示卡片的组件。随后迭代添加 “monstera 风情”主题(温暖、纸张般质感,使用 Merriweather 标题字体和 Inter 正文字体),并在首页展示最新帖子。设计采用移动优先(max-w-3xl 宽度),导出代码后进入本地开发。
   
2. Cursor 精炼与功能扩展:下载代码至 GitHub 仓库,使用 Cursor 安装依赖并本地运行。添加多页路由(react-router-dom)、Markdown 解析(react-markdown 处理自定义组件),并创建 posts 目录存放示例内容。关键增强包括:
   · 媒体组件:MediaCard 支持图像/视频显示、提示复制、全屏查看和下载;lightbox 模态框允许左右导航多张图像或多步提示迭代。
   · 交互元素:CompareSlider 比较生成物、PromptCard 突出提示工程示例。
   通过截图反馈 Gemini 修复视觉 bug,确保组件无缝集成。

3. 代码质量与部署优化:引入 ESLint 插件和 GitHub 工作流自动检查代码。托管于 Vercel,资产存储在 Cloudflare R2。Open Graph 图像初始尝试 Vercel OG 包失败,转用 satori 脚本静态生成;favicon 简化为 Emoji 图标。封面图像则由 Nano Banana Pro 模型基于博客 Markdown 和截图生成。

使用的技术和工具
· AI 模型核心:Gemini 3 Pro(AI Studio 原型、Cursor 代码生成/调试)。
· 前端栈:React 18+、TypeScript、Tailwind CSS、lucide-react 图标库。
· 辅助工具:react-markdown(解析)、Vercel(部署)、Cloudflare R2(存储)、ESLint(质量控制)。

遇到的挑战与解决方案
· 多页导航限制:AI Studio 不擅长复杂路由,先单页设计,后手动实现。
· 代码杂乱:AI 生成易生冗余,早引入linter自动修复。
· 动态图像生成:Open Graph 最耗时,多次迭代后简化静态方案。
· 视觉调试:依赖截图+AI 提示高效解决,无需手动编码。

阅读原文

基于 Gemini 3 Pro 模型、使用 Google AI Studio 和 Cursor 在几小时内构建博客网站 刚刚入职 Google 的 @fofrAI 分享了他基于 Gemini 3 Pro 模型,使用 Google AI Studio 和 Cursor 分阶段迭代配合,几个小时内从零构建个人博客 “fofr” 的全过程。 构建过程 采用迭代式提示驱动开发,分阶段推进: 1. AI Studio原型设计:在 Google AI Studio 中,以 React 框架为基础,通过详细提示生成博客原型。初始提示强调“优美排版、居中布局、理想行长”,并指定支持图像、视频、生成媒体、代码块和提示卡片的组件。随后迭代添加 “monstera 风情”主题(温暖、纸张般质感,使用 Merriweather 标题字体和 Inter 正文字体),并在首页展示最新帖子。设计采用移动优先(max-w-3xl 宽度),导出代码后进入本地开发。 2. Cursor 精炼与功能扩展:下载代码至 GitHub 仓库,使用 Cursor 安装依赖并本地运行。添加多页路由(react-router-dom)、Markdown 解析(react-markdown 处理自定义组件),并创建 posts 目录存放示例内容。关键增强包括: · 媒体组件:MediaCard 支持图像/视频显示、提示复制、全屏查看和下载;lightbox 模态框允许左右导航多张图像或多步提示迭代。 · 交互元素:CompareSlider 比较生成物、PromptCard 突出提示工程示例。 通过截图反馈 Gemini 修复视觉 bug,确保组件无缝集成。 3. 代码质量与部署优化:引入 ESLint 插件和 GitHub 工作流自动检查代码。托管于 Vercel,资产存储在 Cloudflare R2。Open Graph 图像初始尝试 Vercel OG 包失败,转用 satori 脚本静态生成;favicon 简化为 Emoji 图标。封面图像则由 Nano Banana Pro 模型基于博客 Markdown 和截图生成。 使用的技术和工具 · AI 模型核心:Gemini 3 Pro(AI Studio 原型、Cursor 代码生成/调试)。 · 前端栈:React 18+、TypeScript、Tailwind CSS、lucide-react 图标库。 · 辅助工具:react-markdown(解析)、Vercel(部署)、Cloudflare R2(存储)、ESLint(质量控制)。 遇到的挑战与解决方案 · 多页导航限制:AI Studio 不擅长复杂路由,先单页设计,后手动实现。 · 代码杂乱:AI 生成易生冗余,早引入linter自动修复。 · 动态图像生成:Open Graph 最耗时,多次迭代后简化静态方案。 · 视觉调试:依赖截图+AI 提示高效解决,无需手动编码。 阅读原文

邵猛,中年失业程序员 😂 专注 - Context Engineering, AI Agents. 分享 - AI papers, apps and OSS. ex Microsoft MVP 合作 - 私信/邮箱:shaomeng@outlook.com 📢 公众号/小红书: AI 启蒙小伙伴

avatar for meng shao
meng shao
Thu Dec 04 13:57:46
I just dislike many in West always measuring China with a different ruler than for example Japan

If Japan has lights, omg it's soooo futuristic UwU

If China has lights, it's a waste of energy, light pollution and unhealthy

It's so intellectually dishonest

I just dislike many in West always measuring China with a different ruler than for example Japan If Japan has lights, omg it's soooo futuristic UwU If China has lights, it's a waste of energy, light pollution and unhealthy It's so intellectually dishonest

🇪🇺 https://t.co/NdorAWrhrB @euacc 📸 https://t.co/lAyoqmT9Hv $115K/m 🏡 https://t.co/1oqUgfDEsx $36K/m 🛰 https://t.co/ZHSvI2wRou $39K/m 🌍 https://t.co/UXK5AFra0o $14K/m 👙 https://t.co/RyXpqGvdBB $14K/m 💾 https://t.co/M1hEUBB6da $6K

avatar for @levelsio
@levelsio
Thu Dec 04 13:52:47
RT @slotkinjr: I have a guest essay in @nytimes today about autonomous vehicle safety. I wrote it because I’m tired of seeing children die.…

RT @slotkinjr: I have a guest essay in @nytimes today about autonomous vehicle safety. I wrote it because I’m tired of seeing children die.…

research @cornell // language models, information theory, science of AI

avatar for dr. jack morris
dr. jack morris
Thu Dec 04 13:47:44
Transformer 中的“静默特征学习”

这是这周很有趣的一篇论文:它指出,loss 曲线可能会误导我们对模型学习内容的判断。

通常,我们会用 loss 作为衡量神经网络训练进度的主要指标。

如果 loss 没变化,就觉得模型没学到东西;loss 下降,就觉得学习在发生。

但这个假设在处理算法任务时就不成立了。

这项新研究用 Transformer 处理了 10 个基础算法任务,发现了“静默特征”:内部表征在 loss 停滞时也在发展。

研究发现,模型在提升输出性能之前,就已经学会了中间计算步骤。

比如:加法中的进位、BFS 中的队列成员关系、乘法中的部分积。

这些特征在长时间的平台期内逐渐形成,然后突然结合起来解决问题。

研究人员在二进制算术(加法、乘法)、图算法(BFS、最短路径、拓扑排序、MST)和序列优化(最大子数组、活动选择)中探测了内部表征。

六个任务都显示出明显的两阶段转换:长时间停滞后,性能突然提升。

消融实验证实了因果关系。

从 64 位加法模型中移除进位特征,准确率下降了 75.1%。

消融 BFS 中的队列成员关系,准确率下降了 43.6%。

算法任务需要多个子程序协同工作。

在所有部分都对齐之前,单个正确的组件不会降低 loss。

模型在平坦的 loss 曲线下积累了潜在的能力。

看来,交叉熵 loss 是一种不完整的诊断方法。

即使指标看起来停滞不前,也可能发生大量的内部学习。

这促使我们开发比 loss 曲线更丰富的监控工具。

🔖 论文链接:

Transformer 中的“静默特征学习” 这是这周很有趣的一篇论文:它指出,loss 曲线可能会误导我们对模型学习内容的判断。 通常,我们会用 loss 作为衡量神经网络训练进度的主要指标。 如果 loss 没变化,就觉得模型没学到东西;loss 下降,就觉得学习在发生。 但这个假设在处理算法任务时就不成立了。 这项新研究用 Transformer 处理了 10 个基础算法任务,发现了“静默特征”:内部表征在 loss 停滞时也在发展。 研究发现,模型在提升输出性能之前,就已经学会了中间计算步骤。 比如:加法中的进位、BFS 中的队列成员关系、乘法中的部分积。 这些特征在长时间的平台期内逐渐形成,然后突然结合起来解决问题。 研究人员在二进制算术(加法、乘法)、图算法(BFS、最短路径、拓扑排序、MST)和序列优化(最大子数组、活动选择)中探测了内部表征。 六个任务都显示出明显的两阶段转换:长时间停滞后,性能突然提升。 消融实验证实了因果关系。 从 64 位加法模型中移除进位特征,准确率下降了 75.1%。 消融 BFS 中的队列成员关系,准确率下降了 43.6%。 算法任务需要多个子程序协同工作。 在所有部分都对齐之前,单个正确的组件不会降低 loss。 模型在平坦的 loss 曲线下积累了潜在的能力。 看来,交叉熵 loss 是一种不完整的诊断方法。 即使指标看起来停滞不前,也可能发生大量的内部学习。 这促使我们开发比 loss 曲线更丰富的监控工具。 🔖 论文链接:

本内容由xaicreator翻译生成 https://t.co/Gxsobg3hEN

avatar for Yangyi
Yangyi
Thu Dec 04 13:46:41
  • Previous
  • 1
  • More pages
  • 1607
  • 1608
  • 1609
  • More pages
  • 5634
  • Next