LogoThread Easy
  • 発見
  • スレッド作成
LogoThread Easy

Twitter スレッドの万能パートナー

© 2025 Thread Easy All Rights Reserved.

探索

Newest first — browse tweet threads

Keep on to blur preview images; turn off to show them clearly

RT @JusticeRage: I've been working on a side project for some time: autonomous reverse-engineering powered by Gepetto.
I shared some though…

RT @JusticeRage: I've been working on a side project for some time: autonomous reverse-engineering powered by Gepetto. I shared some though…

Choose disfavour where obedience does not bring honour. I do math. And was once asked by R. Morris Sr. : "For whom?" @halvarflake@mastodon.social

avatar for Halvar Flake
Halvar Flake
Tue Dec 16 14:15:05
RT @AztecaAlpaca: 穿越时空的滤镜——老照片修复

感谢宝玉老师的建议。多次尝试之后决定使用玻璃滤镜实现对老照片核心部分的“修复”。

效果图包括:

1. 清华二校门老照片(被毁之前)
2. 恭亲王照片(大概是中国人最早的相片)
3. 老登李鸿章
4. 20元…

RT @AztecaAlpaca: 穿越时空的滤镜——老照片修复 感谢宝玉老师的建议。多次尝试之后决定使用玻璃滤镜实现对老照片核心部分的“修复”。 效果图包括: 1. 清华二校门老照片(被毁之前) 2. 恭亲王照片(大概是中国人最早的相片) 3. 老登李鸿章 4. 20元…

Prompt Engineer, dedicated to learning and disseminating knowledge about AI, software engineering, and engineering management.

avatar for 宝玉
宝玉
Tue Dec 16 14:15:02
RT @duda_jarek: @mathelirium With Markov process as Maximal Entropy Random Walk ( https://t.co/QvVSXHHGw7 ) we can also model electron cond…

RT @duda_jarek: @mathelirium With Markov process as Maximal Entropy Random Walk ( https://t.co/QvVSXHHGw7 ) we can also model electron cond…

Choose disfavour where obedience does not bring honour. I do math. And was once asked by R. Morris Sr. : "For whom?" @halvarflake@mastodon.social

avatar for Halvar Flake
Halvar Flake
Tue Dec 16 14:13:17
I feel like robotics intelligence and llms are diverging farther not unifying for reasons i explained prior

I feel like robotics intelligence and llms are diverging farther not unifying for reasons i explained prior

Cofounder and Head of Post Training @NousResearch, prev @StabilityAI Github: https://t.co/LZwHTUFwPq HuggingFace: https://t.co/sN2FFU8PVE

avatar for Teknium (e/λ)
Teknium (e/λ)
Tue Dec 16 14:11:32
RT @percyliang: This is not just another strong open model. Nemotron actually releases training data (!), RL environments, and training cod…

RT @percyliang: This is not just another strong open model. Nemotron actually releases training data (!), RL environments, and training cod…

Choose disfavour where obedience does not bring honour. I do math. And was once asked by R. Morris Sr. : "For whom?" @halvarflake@mastodon.social

avatar for Halvar Flake
Halvar Flake
Tue Dec 16 14:11:20
LLM 长上下文处理的局限性与优化实践

来自 @svpino 的实战经验分享,他在调试多个 AI 应用后总结了经验,重点针对 LLM 在处理长上下文时的常见问题,分享了他的几点建议,一起看看 🔽

他学到的几件事
· 长提示并非免费:模型不会平等对待所有 token,中间部分的信息容易被忽略或弱化。
· 过度填充上下文会降低检索效果:在 RAG 系统中,塞入太多无关信息反而会干扰模型准确提取关键内容。
· 多步提示无法解决上下文污染:即使将任务拆分成多个步骤,也不能彻底消除无关或冗余信息的负面影响。
· 更大模型有帮助,但无法根除幻觉:更先进的模型能改善表现,但幻觉问题依然存在。

如何避免模型在大量上下文中“迷失”
1. 保持上下文尽可能简短:只提供必要信息,减少噪声。
2. 将关键信息放在末尾:模型对上下文末端的内容注意力更高。
3. 使用结构化上下文优于纯叙述:采用列表、JSON、表格等格式,而不是长段落文本,便于模型解析。
4. 优先使用工具而非纯提示:让模型调用外部工具来获取信息,而不是全部塞进提示中。
5. 采用重排序机制:检索时不止取相似度最高的 chunk,而是进一步排序选出最优质的片段。
6. 针对此失败模式进行明确评估:在系统测试中专门检查长上下文下的表现,确保鲁棒性。

LLM 长上下文处理的局限性与优化实践 来自 @svpino 的实战经验分享,他在调试多个 AI 应用后总结了经验,重点针对 LLM 在处理长上下文时的常见问题,分享了他的几点建议,一起看看 🔽 他学到的几件事 · 长提示并非免费:模型不会平等对待所有 token,中间部分的信息容易被忽略或弱化。 · 过度填充上下文会降低检索效果:在 RAG 系统中,塞入太多无关信息反而会干扰模型准确提取关键内容。 · 多步提示无法解决上下文污染:即使将任务拆分成多个步骤,也不能彻底消除无关或冗余信息的负面影响。 · 更大模型有帮助,但无法根除幻觉:更先进的模型能改善表现,但幻觉问题依然存在。 如何避免模型在大量上下文中“迷失” 1. 保持上下文尽可能简短:只提供必要信息,减少噪声。 2. 将关键信息放在末尾:模型对上下文末端的内容注意力更高。 3. 使用结构化上下文优于纯叙述:采用列表、JSON、表格等格式,而不是长段落文本,便于模型解析。 4. 优先使用工具而非纯提示:让模型调用外部工具来获取信息,而不是全部塞进提示中。 5. 采用重排序机制:检索时不止取相似度最高的 chunk,而是进一步排序选出最优质的片段。 6. 针对此失败模式进行明确评估:在系统测试中专门检查长上下文下的表现,确保鲁棒性。

邵猛,中年失业程序员 😂 专注 - Context Engineering, AI Agents. 分享 - AI papers, apps and OSS. ex Microsoft MVP 合作 - 私信/邮箱:shaomeng@outlook.com 📢 公众号/小红书: AI 启蒙小伙伴

avatar for meng shao
meng shao
Tue Dec 16 14:11:02
  • Previous
  • 1
  • More pages
  • 621
  • 622
  • 623
  • More pages
  • 5634
  • Next