LogoThread Easy
  • 탐색
  • 스레드 작성
LogoThread Easy

트위터 스레드의 올인원 파트너

© 2025 Thread Easy All Rights Reserved.

탐색

Newest first — browse tweet threads

Keep on to blur preview images; turn off to show them clearly

It's that time again X

What hotel you recommend in Tokyo?

It's that time again X What hotel you recommend in Tokyo?

🇪🇺https://t.co/NdorAWqJC3 📸https://t.co/lAyoqmSBRX $133K/m 🏡https://t.co/1oqUgfD6CZ $40K/m 🛰https://t.co/ZHSvI2wjyW $36K/m 🌍https://t.co/UXK5AFqCaQ $16K/m 👙https://t.co/RyXpqGuFM3 $14K/m 💾https://t.co/M1hEUBAynC $6k/m

avatar for @levelsio
@levelsio
Thu Nov 06 00:37:52
配了个音乐 uvx rogvibe —slot

配了个音乐 uvx rogvibe —slot

喜欢王小波,大概我们能成为朋友。 我的 2025 https://t.co/pAkSJnpKXA 我的 2024 https://t.co/HfDF6oduB7 我的 2023 https://t.co/QyV8PiZmOY ..............

avatar for yihong0618
yihong0618
Thu Nov 06 00:37:06
RT @ethereum: 0/ Privacy has always been at the heart of the Ethereum ecosystem.

Here are 8 privacy talks from the last 10 years of @EFDev…

RT @ethereum: 0/ Privacy has always been at the heart of the Ethereum ecosystem. Here are 8 privacy talks from the last 10 years of @EFDev…

Privacy @PrivacyEthereum | Events @ethereum | OSS 🛠️ Indie Maker @eth_gastracker https://t.co/xNlTAwRRp1

avatar for Wesley— oss/acc
Wesley— oss/acc
Thu Nov 06 00:33:50
👀

👀

Asst professor @MIT EECS & CSAIL (@nlp_mit). Author of https://t.co/VgyLxl0oa1 and https://t.co/ZZaSzaRaZ7 (@DSPyOSS). Prev: CS PhD @StanfordNLP. Research @Databricks.

avatar for Omar Khattab
Omar Khattab
Thu Nov 06 00:32:32
RT @dominiksumer: Just received the third Payout for Vemetric via Paddle 🤩

Means Vemetric has a total Revenue of 476,80€ so far .. not bad…

RT @dominiksumer: Just received the third Payout for Vemetric via Paddle 🤩 Means Vemetric has a total Revenue of 476,80€ so far .. not bad…

building @snappify_io & @VemetricHQ

avatar for Dominik Sumer ✨
Dominik Sumer ✨
Thu Nov 06 00:30:29
上下文工程 2.0:上下文工程的上下文

这篇论文提出了一个重要观点:上下文工程 (Context Engineering) 并非近年才出现的新概念,而是一个已经发展了20多年的领域。论文将其演进划分为四个阶段,并重点分析了 1.0 和 2.0 时代的特征。
论文地址:https://t.co/Mj5DyFf5fy

基本概念
上下文工程的本质是一个"熵减"过程。人类之间交流时,可以依靠共同知识、情感暗示和情境意识来"填补空白"。但机器目前还缺乏这种能力,因此我们必须为它们"预处理"上下文——将高熵的原始信息压缩成机器能理解的低熵表示。

论文给出的正式定义是:上下文是"任何可用于描述与用户和应用程序交互相关的实体状况的信息",而上下文工程则是"系统地设计和优化上下文收集、存储、管理和使用的过程"。

四个发展阶段
1.0 时代(1990年代-2020年):原始计算时代
· 机器智能水平低,只能处理结构化输入
· 人类必须将意图"翻译"成机器可读的格式
· 代表系统:Context Toolkit、位置感知应用
· 上下文主要来自传感器(GPS、时钟等)

2.0 时代(2020年至今):智能体时代
· 大语言模型的出现标志着转折点
· 机器开始理解自然语言,能处理模糊和不完整的信息
· 代表系统:ChatGPT、LangChain、AutoGPT
· 上下文包括对话历史、检索文档、工具 API 等

3.0 时代(未来):人类级智能
· 系统将具备类人的推理和理解能力
· 能感知社交线索、情感状态等复杂上下文
· 实现真正自然的人机协作

4.0 时代(推测性):超人智能
· 机器将超越人类能力,拥有"上帝视角"
· 不再被动适应人类定义的上下文,而是主动构建新上下文
· 发现人类未明确表达的隐藏需求

设计考量 - 上下文工程的三个核心维度
1. 上下文收集与存储
· 最小充分性原则:只收集和存储必要的信息
· 语义连续性原则:保持意义的连续性而非数据的连续性
· 存储策略从本地文件系统演进到分层架构(短期缓存+长期数据库+云存储)

2. 上下文管理
几种常见的文本上下文处理方法:
· 时间戳标记:简单但缺乏语义结构
· 功能标签:按角色(如"目标"、"决策"、"行动")组织信息
· 问答对压缩:适合检索但打断思维流
· 层次化笔记:树状结构,但难以表达因果关系

对于多模态上下文:
· 将不同模态映射到共享向量空间
· 使用自注意力机制联合处理
· 通过交叉注意力让一种模态关注另一种模态

3. 上下文使用
· 系统内共享:通过提示嵌入、结构化消息或共享内存
· 跨系统共享:使用适配器转换或共享表示(JSON、自然语言摘要、语义向量)
· 上下文选择:基于语义相关性、逻辑依赖、时效性、频率等因素

实际应用案例
· Gemini CLI:通过 GEMINI. md 文件管理项目上下文,支持层次化继承
· 通义 DeepResearch:处理开放式研究任务,定期压缩长交互历史
· 脑机接口:直接捕获神经信号,收集注意力、情感状态等内部认知状态

关键挑战
· 终身上下文的存储瓶颈:如何在资源约束下保留尽可能多的相关上下文
· 长上下文的处理退化:Transformer 的 O(n²) 复杂度导致效率和质量问题
· 系统稳定性:随着记忆累积,小错误可能产生广泛影响
· 评估困难:缺乏检验矛盾、追溯推理链的机制

上下文工程 2.0:上下文工程的上下文 这篇论文提出了一个重要观点:上下文工程 (Context Engineering) 并非近年才出现的新概念,而是一个已经发展了20多年的领域。论文将其演进划分为四个阶段,并重点分析了 1.0 和 2.0 时代的特征。 论文地址:https://t.co/Mj5DyFf5fy 基本概念 上下文工程的本质是一个"熵减"过程。人类之间交流时,可以依靠共同知识、情感暗示和情境意识来"填补空白"。但机器目前还缺乏这种能力,因此我们必须为它们"预处理"上下文——将高熵的原始信息压缩成机器能理解的低熵表示。 论文给出的正式定义是:上下文是"任何可用于描述与用户和应用程序交互相关的实体状况的信息",而上下文工程则是"系统地设计和优化上下文收集、存储、管理和使用的过程"。 四个发展阶段 1.0 时代(1990年代-2020年):原始计算时代 · 机器智能水平低,只能处理结构化输入 · 人类必须将意图"翻译"成机器可读的格式 · 代表系统:Context Toolkit、位置感知应用 · 上下文主要来自传感器(GPS、时钟等) 2.0 时代(2020年至今):智能体时代 · 大语言模型的出现标志着转折点 · 机器开始理解自然语言,能处理模糊和不完整的信息 · 代表系统:ChatGPT、LangChain、AutoGPT · 上下文包括对话历史、检索文档、工具 API 等 3.0 时代(未来):人类级智能 · 系统将具备类人的推理和理解能力 · 能感知社交线索、情感状态等复杂上下文 · 实现真正自然的人机协作 4.0 时代(推测性):超人智能 · 机器将超越人类能力,拥有"上帝视角" · 不再被动适应人类定义的上下文,而是主动构建新上下文 · 发现人类未明确表达的隐藏需求 设计考量 - 上下文工程的三个核心维度 1. 上下文收集与存储 · 最小充分性原则:只收集和存储必要的信息 · 语义连续性原则:保持意义的连续性而非数据的连续性 · 存储策略从本地文件系统演进到分层架构(短期缓存+长期数据库+云存储) 2. 上下文管理 几种常见的文本上下文处理方法: · 时间戳标记:简单但缺乏语义结构 · 功能标签:按角色(如"目标"、"决策"、"行动")组织信息 · 问答对压缩:适合检索但打断思维流 · 层次化笔记:树状结构,但难以表达因果关系 对于多模态上下文: · 将不同模态映射到共享向量空间 · 使用自注意力机制联合处理 · 通过交叉注意力让一种模态关注另一种模态 3. 上下文使用 · 系统内共享:通过提示嵌入、结构化消息或共享内存 · 跨系统共享:使用适配器转换或共享表示(JSON、自然语言摘要、语义向量) · 上下文选择:基于语义相关性、逻辑依赖、时效性、频率等因素 实际应用案例 · Gemini CLI:通过 GEMINI. md 文件管理项目上下文,支持层次化继承 · 通义 DeepResearch:处理开放式研究任务,定期压缩长交互历史 · 脑机接口:直接捕获神经信号,收集注意力、情感状态等内部认知状态 关键挑战 · 终身上下文的存储瓶颈:如何在资源约束下保留尽可能多的相关上下文 · 长上下文的处理退化:Transformer 的 O(n²) 复杂度导致效率和质量问题 · 系统稳定性:随着记忆累积,小错误可能产生广泛影响 · 评估困难:缺乏检验矛盾、追溯推理链的机制

专注 - Context Engineering, AI(Coding)Agents. 分享 - AI papers, apps and OSS. ex Microsoft MVP 合作 - 私信/邮箱:shaomeng@outlook.com 📢 公众号/小红书: AI 启蒙小伙伴 🔗 信息卡提示词 🔽

avatar for meng shao
meng shao
Thu Nov 06 00:28:24
  • Previous
  • 1
  • More pages
  • 783
  • 784
  • 785
  • More pages
  • 2111
  • Next