LogoThread Easy
  • Explorar
  • Componer hilo
LogoThread Easy

Tu compañero integral para hilos de Twitter

© 2025 Thread Easy All Rights Reserved.

Explorar

Newest first — browse tweet threads

Keep on to blur preview images; turn off to show them clearly

智谱的 GLM Coding Plan 国内大促上线了,

包年立减 30%,包季立减 20%,邀请好友会有 40% 赠金,年 Lite Plan 只要 168

从这里进会给我返利

智谱的 GLM Coding Plan 国内大促上线了, 包年立减 30%,包季立减 20%,邀请好友会有 40% 赠金,年 Lite Plan 只要 168 从这里进会给我返利

关注人工智能、LLM 、 AI 图像视频和设计(Interested in AI, LLM, Stable Diffusion, and design) AIGC 周刊主理人|公众号:歸藏的AI工具箱

avatar for 歸藏(guizang.ai)
歸藏(guizang.ai)
Fri Nov 28 03:04:55
Frivolous thought:
Hajnali or any other warrior race admixture is actively BAD because it institutionalizes kanging.
India? Invaded by PIE who've built a caste society. Kanging basket case.
Japan? Jomon are functionally "white". Kanged to destruction.
Russia? Founded by Swedes.

Frivolous thought: Hajnali or any other warrior race admixture is actively BAD because it institutionalizes kanging. India? Invaded by PIE who've built a caste society. Kanging basket case. Japan? Jomon are functionally "white". Kanged to destruction. Russia? Founded by Swedes.

We're in a race. It's not USA vs China but humans and AGIs vs ape power centralization. @deepseek_ai stan #1, 2023–Deep Time «C’est la guerre.» ®1

avatar for Teortaxes▶️ (DeepSeek 推特🐋铁粉 2023 – ∞)
Teortaxes▶️ (DeepSeek 推特🐋铁粉 2023 – ∞)
Fri Nov 28 03:03:40
什么? 用 Claude Code 剪视频? 给大家带来新的AI邪修教程!

相信有很多朋友在制作视频的时候, 在痛苦的学AE, PR, Blender这些专业工具怎么用. 今天给大家带来新的视角, 其实简单的场景完全不需要用专业工具了, 直接让AI制作出运动路径和模式, 甚至复杂点的(比如视频中我演示的这个), 让AI帮你制作一个控制面板. 然后直接录屏就可以了. 神奇的实现了"AI实拍".

3D场景也是如此, 直接让AI建模然后制作动画, 可以增加各种物理和粒子效果, 只需要把背景处理为绿幕, 然后导入后抠像就可以了. 算是我压箱底的秘籍哈哈哈.

本次演示全程使用了 ClaudeCode + GLM-4.6. 主要是因为 GLM-4.6 在疯狂打折, 本着必须薅羊毛薅到秃的原则, 我直接全程用 GLM-4.6 生成, 大家看看效果怎么样?

#GLM #智谱 #AI邪修  #GLM46 #AI教程 #视频教程

什么? 用 Claude Code 剪视频? 给大家带来新的AI邪修教程! 相信有很多朋友在制作视频的时候, 在痛苦的学AE, PR, Blender这些专业工具怎么用. 今天给大家带来新的视角, 其实简单的场景完全不需要用专业工具了, 直接让AI制作出运动路径和模式, 甚至复杂点的(比如视频中我演示的这个), 让AI帮你制作一个控制面板. 然后直接录屏就可以了. 神奇的实现了"AI实拍". 3D场景也是如此, 直接让AI建模然后制作动画, 可以增加各种物理和粒子效果, 只需要把背景处理为绿幕, 然后导入后抠像就可以了. 算是我压箱底的秘籍哈哈哈. 本次演示全程使用了 ClaudeCode + GLM-4.6. 主要是因为 GLM-4.6 在疯狂打折, 本着必须薅羊毛薅到秃的原则, 我直接全程用 GLM-4.6 生成, 大家看看效果怎么样? #GLM #智谱 #AI邪修  #GLM46 #AI教程 #视频教程

A coder, road bike rider, server fortune teller, electronic waste collector, co-founder of KCORES, ex-director at IllaSoft, KingsoftOffice, Juejin.

avatar for karminski-牙医
karminski-牙医
Fri Nov 28 03:02:25
RT @buccocapital: I am watching my in-laws watching endless AI slop on Instagram reels as they howl with laughter and realizing I don’t own…

RT @buccocapital: I am watching my in-laws watching endless AI slop on Instagram reels as they howl with laughter and realizing I don’t own…

third thing https://t.co/jZh799yNH4 / https://t.co/IdaJwZJCXm

avatar for near
near
Fri Nov 28 02:59:22
🇨🇳 I found the rentable powerbanks in China

One scan to pay with Alipay and then you take the battery and you return it later

This would never work in US or Europe because people would just steal the powerbanks

🇨🇳 I found the rentable powerbanks in China One scan to pay with Alipay and then you take the battery and you return it later This would never work in US or Europe because people would just steal the powerbanks

🇪🇺https://t.co/NdorAWrhrB @euacc 📸https://t.co/lAyoqmT9Hv $125K/m 🏡https://t.co/1oqUgfDEsx $40K/m 🛰https://t.co/ZHSvI2wRou $38K/m 🌍https://t.co/UXK5AFra0o $16K/m 👙https://t.co/RyXpqGvdBB $14K/m 💾https://t.co/M1hEUBB6da $6K/m

avatar for @levelsio
@levelsio
Fri Nov 28 02:58:37
苹果新搞了一个RAG框架:ml-clara,解决长上下文处理效率低下、检索与生成优化过程的分离问题

其核心思想是,不要把整段文本塞给大模型,而是把“检索”和“生成”全部压缩到同一个可微的连续向量空间里,统一训练、一次推理

以此解决,1 上下文越来越长计算量爆炸,2 检索器和生成器独立训练导致优化目标不一致,3 梯度断流的问题

在NQ、HotpotQA、MuSiQue、2Wiki上,不同压缩比4×/16×/32×均保持领先,压缩到32×时仍优于未压缩的纯检索基线

上下文长度最高可压32×–64×,同时保留了生成准确答案所需的基本信息

具体是,1、首先压缩预训练,把文档压成32~256维向量,保留QA/复述语义

2、然后指令微调,让压缩向量适配下游问答任务

3、再端到端联合训练,检索器+生成器一起优化

#RAG #mlclara

苹果新搞了一个RAG框架:ml-clara,解决长上下文处理效率低下、检索与生成优化过程的分离问题 其核心思想是,不要把整段文本塞给大模型,而是把“检索”和“生成”全部压缩到同一个可微的连续向量空间里,统一训练、一次推理 以此解决,1 上下文越来越长计算量爆炸,2 检索器和生成器独立训练导致优化目标不一致,3 梯度断流的问题 在NQ、HotpotQA、MuSiQue、2Wiki上,不同压缩比4×/16×/32×均保持领先,压缩到32×时仍优于未压缩的纯检索基线 上下文长度最高可压32×–64×,同时保留了生成准确答案所需的基本信息 具体是,1、首先压缩预训练,把文档压成32~256维向量,保留QA/复述语义 2、然后指令微调,让压缩向量适配下游问答任务 3、再端到端联合训练,检索器+生成器一起优化 #RAG #mlclara

github:https://t.co/vf7TFI1Wna

avatar for AIGCLINK
AIGCLINK
Fri Nov 28 02:57:51
  • Previous
  • 1
  • More pages
  • 2153
  • 2154
  • 2155
  • More pages
  • 5634
  • Next