LogoThread Easy
  • 探索
  • 線程創作
LogoThread Easy

Twitter 線程的一站式夥伴

© 2026 Thread Easy All Rights Reserved.

探索

Newest first — browse tweet threads

Keep on to blur preview images; turn off to show them clearly

Stable Diffusion背后的秘密:原来一直在去噪,不是在画图!

---

你可能用过 Stable Diffusion。

当输入"一只猫坐在沙发上"。

然后,你看着进度条,一点一点往前走。

10%... 20%... 30%...

图像慢慢从模糊变清晰。

一开始,全是噪点。

然后,隐约能看到一些形状。

再然后,能看到猫的轮廓。

最后,一张清晰的图出现了。

你有没有想过,它到底在干什么?

答案是:去噪。

它不是在"画"图。

它是在"去噪"。

一开始,给它一张纯噪声图。

就是那种电视没信号时的雪花屏。

然后,它一步一步把噪声去掉。

每去掉一点,图就清晰一点。

去了 50 步,图就清晰了。

这就是 DDPM:Denoising Diffusion Probabilistic Model。

(去噪扩散概率模型)

听起来很复杂,但核心就是两个字:去噪。

但这里有个神奇的地方:

它怎么知道该去成什么样?

我是说,同样是一堆噪声,

你可以去成猫,可以去成狗,可以去成车。

它怎么知道你要的是猫?

答案是:你告诉它的。

你输入"一只猫坐在沙发上"。

这段文字,会被变成一个向量。

然后,在每一步去噪的时候,

模型都会看这个向量,

知道:哦,你要的是猫,不是狗。

所以,它去噪的方向,是朝着"猫"去的。

这就是为什么,你输入不同的文字,

会生成不同的图。

因为去噪的方向不一样。

而这一切,都建立在一个简单的想法上:

生成,就是反向去噪。

你先学会怎么加噪声。

然后,反过来,学会怎么去噪声。

去噪的终点,就是生成的结果。

注意,这是 2020 年的论文突破。

从那之后,所有最好的图像生成模型,

Stable Diffusion、Midjourney、DALL-E 2,

全都用这个思路。

不是 GAN,是 Diffusion。

因为 Diffusion 更稳定,更可控,生成的图更真实。

另外,你玩Stable Diffusion时,可能调过下面参数:

Steps: 50

CFG Scale: 7.5

Sampler: DPM++ 2M Karras

代码跑通了,图生成了。

但你可能不知道这些参数是什么意思。

Steps 是去噪的次数。

Stable Diffusion 不是一次性生成图。

它是一步一步去噪。

Steps = 50,就是去 50 次噪。

每去一次,图就清晰一点。

Steps 越多,图越清晰,但也越慢。

Steps 越少,图越模糊,但也越快。

一般来说,50 步够了。

CFG Scale 是文字引导的强度。

CFG 是 Classifier-Free Guidance。

意思是:你输入的文字,对生成的影响有多大。

CFG Scale = 1,文字几乎没影响,模型随便生成。

CFG Scale = 20,文字影响很大,模型严格按照文字生成。

CFG Scale = 7.5,是一个平衡。

既听文字的,又有一点创造性。

太低,生成的图和文字不匹配。

太高,生成的图太死板,没有惊喜。

Sampler 是去噪的方法。

DDPM 说的是"去 1000 次噪"。

但 1000 次太慢了。

所以,后来有人发明了更快的方法。

DPM++、Euler、DDIM...

这些都是"怎么更快地去噪"。

有的方法,20 步就能达到 1000 步的效果。

有的方法,更稳定。

有的方法,更有创造性。

你选哪个 Sampler,就是在选"怎么去噪"。

这就是这些参数的意思。

Steps:去几次噪。

CFG Scale:文字影响有多大。

Sampler:用什么方法去噪。

----

AI生成好读的科普文,很适合学习复杂的概念。

Stable Diffusion背后的秘密:原来一直在去噪,不是在画图! --- 你可能用过 Stable Diffusion。 当输入"一只猫坐在沙发上"。 然后,你看着进度条,一点一点往前走。 10%... 20%... 30%... 图像慢慢从模糊变清晰。 一开始,全是噪点。 然后,隐约能看到一些形状。 再然后,能看到猫的轮廓。 最后,一张清晰的图出现了。 你有没有想过,它到底在干什么? 答案是:去噪。 它不是在"画"图。 它是在"去噪"。 一开始,给它一张纯噪声图。 就是那种电视没信号时的雪花屏。 然后,它一步一步把噪声去掉。 每去掉一点,图就清晰一点。 去了 50 步,图就清晰了。 这就是 DDPM:Denoising Diffusion Probabilistic Model。 (去噪扩散概率模型) 听起来很复杂,但核心就是两个字:去噪。 但这里有个神奇的地方: 它怎么知道该去成什么样? 我是说,同样是一堆噪声, 你可以去成猫,可以去成狗,可以去成车。 它怎么知道你要的是猫? 答案是:你告诉它的。 你输入"一只猫坐在沙发上"。 这段文字,会被变成一个向量。 然后,在每一步去噪的时候, 模型都会看这个向量, 知道:哦,你要的是猫,不是狗。 所以,它去噪的方向,是朝着"猫"去的。 这就是为什么,你输入不同的文字, 会生成不同的图。 因为去噪的方向不一样。 而这一切,都建立在一个简单的想法上: 生成,就是反向去噪。 你先学会怎么加噪声。 然后,反过来,学会怎么去噪声。 去噪的终点,就是生成的结果。 注意,这是 2020 年的论文突破。 从那之后,所有最好的图像生成模型, Stable Diffusion、Midjourney、DALL-E 2, 全都用这个思路。 不是 GAN,是 Diffusion。 因为 Diffusion 更稳定,更可控,生成的图更真实。 另外,你玩Stable Diffusion时,可能调过下面参数: Steps: 50 CFG Scale: 7.5 Sampler: DPM++ 2M Karras 代码跑通了,图生成了。 但你可能不知道这些参数是什么意思。 Steps 是去噪的次数。 Stable Diffusion 不是一次性生成图。 它是一步一步去噪。 Steps = 50,就是去 50 次噪。 每去一次,图就清晰一点。 Steps 越多,图越清晰,但也越慢。 Steps 越少,图越模糊,但也越快。 一般来说,50 步够了。 CFG Scale 是文字引导的强度。 CFG 是 Classifier-Free Guidance。 意思是:你输入的文字,对生成的影响有多大。 CFG Scale = 1,文字几乎没影响,模型随便生成。 CFG Scale = 20,文字影响很大,模型严格按照文字生成。 CFG Scale = 7.5,是一个平衡。 既听文字的,又有一点创造性。 太低,生成的图和文字不匹配。 太高,生成的图太死板,没有惊喜。 Sampler 是去噪的方法。 DDPM 说的是"去 1000 次噪"。 但 1000 次太慢了。 所以,后来有人发明了更快的方法。 DPM++、Euler、DDIM... 这些都是"怎么更快地去噪"。 有的方法,20 步就能达到 1000 步的效果。 有的方法,更稳定。 有的方法,更有创造性。 你选哪个 Sampler,就是在选"怎么去噪"。 这就是这些参数的意思。 Steps:去几次噪。 CFG Scale:文字影响有多大。 Sampler:用什么方法去噪。 ---- AI生成好读的科普文,很适合学习复杂的概念。

喜欢摇滚乐、爱钓鱼的PM 网站:https://t.co/vnUpLt752o

avatar for 向阳乔木
向阳乔木
Tue Nov 25 06:29:45
高端招聘:虎鲸文娱 招 AIGC编导/导演(P6-P7)
-----
优酷-AIGC编导/导演-北京
虎鲸文娱 · 北京

职位描述
1、负责运用AIGC工具生成短剧内容,搭建可复用的工作流,为生产流程提效,同时取得商业收益;
2、把控项目内容基础和视觉风格,根据短剧大纲、剧本等文字资料生成角色、场景、分镜等,并能熟练运用ComfyUI、Midjourney、Runway、可灵、即梦、万相等AI工具形成视频;
3、协助团队运用AI技术辅助真人短剧生产,包括但不限于实拍前的分镜/动态预演、特效画面生成等;
4、有一定技术基础,能够跟踪行业前沿技术,且能为生产链路提供技术优化支持;
职位要求
1、有影视、动画或游戏行业的美术、导演或技术美术相关经验;
2、熟练掌握国内外AIGC工具(文字、图片、视频、音频等),有实际项目经验和作品案例;
3、具备独立剪辑能力;
4、关注短视频/短剧内容,对其叙事节奏、用户心理和行业趋势有深刻洞察;
5、擅长沟通合作,有创新意识,具备基础的技术储备、良好的审美和统筹项目的能力;

------
报名地址详见:https://t.co/SgMGfxMeo4 搜索。

高端招聘:虎鲸文娱 招 AIGC编导/导演(P6-P7) ----- 优酷-AIGC编导/导演-北京 虎鲸文娱 · 北京 职位描述 1、负责运用AIGC工具生成短剧内容,搭建可复用的工作流,为生产流程提效,同时取得商业收益; 2、把控项目内容基础和视觉风格,根据短剧大纲、剧本等文字资料生成角色、场景、分镜等,并能熟练运用ComfyUI、Midjourney、Runway、可灵、即梦、万相等AI工具形成视频; 3、协助团队运用AI技术辅助真人短剧生产,包括但不限于实拍前的分镜/动态预演、特效画面生成等; 4、有一定技术基础,能够跟踪行业前沿技术,且能为生产链路提供技术优化支持; 职位要求 1、有影视、动画或游戏行业的美术、导演或技术美术相关经验; 2、熟练掌握国内外AIGC工具(文字、图片、视频、音频等),有实际项目经验和作品案例; 3、具备独立剪辑能力; 4、关注短视频/短剧内容,对其叙事节奏、用户心理和行业趋势有深刻洞察; 5、擅长沟通合作,有创新意识,具备基础的技术储备、良好的审美和统筹项目的能力; ------ 报名地址详见:https://t.co/SgMGfxMeo4 搜索。

找工作、找面试题、改简历、模拟面试。关注: 创业(冷启动) | 认知心理学|智能体 | 强化学习 building:https://t.co/A4YmEz9yqG

avatar for Y11
Y11
Tue Nov 25 06:29:04
pulled opus 4.5 in deep water to test its scientific intuition and was disappointed.

gpt 5.1 pro still remains most trustworthy (the bar is low) research collaborator.

pulled opus 4.5 in deep water to test its scientific intuition and was disappointed. gpt 5.1 pro still remains most trustworthy (the bar is low) research collaborator.

making models learn • eXperiments lab • memes and training lores

avatar for tokenbender
tokenbender
Tue Nov 25 06:24:26
pulled opus 4.5 in deep water to test its scientific intuition and was disappointed.

gpt 5.1 pro still remains most trustworthy (the bar is low) research collaborator.

pulled opus 4.5 in deep water to test its scientific intuition and was disappointed. gpt 5.1 pro still remains most trustworthy (the bar is low) research collaborator.

the eval signal on front page of twitter has nothing useful for me

avatar for tokenbender
tokenbender
Tue Nov 25 06:24:26
Hey @vuejs, I stream and I get "why not vue?" all the time.

They ask, have I heard of vapor? I had but forgot.

I googled it.

"We're currently building Vapor on core's vapor branch, this repo isn't maintained now."

I click into the core vapor branch... 404.

Hey @vuejs, I stream and I get "why not vue?" all the time. They ask, have I heard of vapor? I had but forgot. I googled it. "We're currently building Vapor on core's vapor branch, this repo isn't maintained now." I click into the core vapor branch... 404.

I would have reported this as an issue, but I couldn't figure out which issue template fit. I think this flow of discovery is something that needs to be considered every time something is deprecated and/or renamed. Also, sorry Evan for tagging you in the image.

avatar for Chris Griffing
Chris Griffing
Tue Nov 25 06:23:30
I would have reported this as an issue, but I couldn't figure out which issue template fit.

I think this flow of discovery is something that needs to be considered every time something is deprecated and/or renamed.

Also, sorry Evan for tagging you in the image.

I would have reported this as an issue, but I couldn't figure out which issue template fit. I think this flow of discovery is something that needs to be considered every time something is deprecated and/or renamed. Also, sorry Evan for tagging you in the image.

🥑 Developer Advocate at @GitKraken 👨‍💻 Somewhat Senior Software Dev 📹 Twitch: https://t.co/heAWl9dFFl 📽️ YouTube: https://t.co/uWnKkyc09Q

avatar for Chris Griffing
Chris Griffing
Tue Nov 25 06:23:30
  • Previous
  • 1
  • More pages
  • 2431
  • 2432
  • 2433
  • More pages
  • 5635
  • Next