LogoThread Easy
  • 発見
  • スレッド作成
LogoThread Easy

Twitter スレッドの万能パートナー

© 2025 Thread Easy All Rights Reserved.

探索

Newest first — browse tweet threads

Keep on to blur preview images; turn off to show them clearly

RT @Saronic: Today we announce a $300 million investment to expand our Louisiana shipyard. Working alongside state and local officials, inc…

RT @Saronic: Today we announce a $300 million investment to expand our Louisiana shipyard. Working alongside state and local officials, inc…

Co-Founder, American Dynamism. General Partner @a16z. Catholic. Mother. American. 🇺🇸 🚀💪

avatar for Katherine Boyle
Katherine Boyle
Wed Dec 03 15:01:40
RT @Alex_Danco: One of the great joys of the a16z new media team has been getting to work with online writers I’ve followed and loved for a…

RT @Alex_Danco: One of the great joys of the a16z new media team has been getting to work with online writers I’ve followed and loved for a…

new media @a16z

avatar for Elena
Elena
Wed Dec 03 14:58:43
[论文解读] PromptBridge: LLM 的提示词跨模型迁移

核心主题
埃森哲这篇论文提出了 PromptBridge 框架,解决“换个模型,提示词就失效”的问题。它能让你在一个模型上精心调优的提示词,能够自动、低成本地“翻译”成另一个模型也能听懂并高效执行的最佳版本,而无需重新进行昂贵的人工调试或模型训练。

必须要解决的痛点:“模型漂移”
· 背景:在实际业务中,由于成本、隐私、部署限制或能力需求,开发者经常需要更换底层模型。
· 问题:提示词对模型极其敏感。一个在模型 A 上表现完美的提示词,直接搬到模型 B 上,效果往往大打折扣。
· 现状:为了适配新模型,开发者通常需要重新对每个任务进行提示词工程(反复修改、测试),这非常耗时且昂贵。

解决方案:PromptBridge
一个 无需训练 的框架。它的核心思想不是去微调模型,而是建立一个通用的“映射关系”,把源模型的提示词转换成目标模型的提示词。

PromptBridge 的工作流程主要包含两步:
第一步:校准 —— 建立基准
它只需要少量的对齐任务。
· MAP-RPE 技术:论文引入了一种叫做“模型自适应反射提示进化”的方法。简单说,就是让模型自己对自己进行“反思”和“迭代”,自动找出针对特定任务和特定模型的最优提示词。
· 通过这一步,系统获得了一组“成对”的高质量提示词(同一个任务,在模型 A 上的最佳写法 vs. 在模型 B 上的最佳写法)。

第二步:搭建桥梁 —— 学习映射
· 利用上面得到的这些“成对”数据,PromptBridge 学习出了源模型和目标模型之间的提示词映射关系。
· 神奇之处:一旦这个映射关系建立,当你在未来面对一个全新的、从未见过的任务时,你只需要提供源模型的提示词,系统就能利用这个映射关系,直接生成适配目标模型的优化版提示词。

核心优势与亮点
· 零训练成本:不需要对庞大的 LLM 进行参数微调,计算资源消耗极低。
· 即插即用:只需少量样本校准,即可应对各种未知的下游任务。
· 通用性强:实验表明,无论是单智能体还是多智能体场景,它都能显著提升模型切换后的表现。
· 自动化:将原本依赖人工经验的“改提示词”过程变成了自动化的算法流程。

一句话总结:
如果你想把基于 Gemini 3 开发的应用迁移到 GPT 5.1 或 Claude 或其他模型,但不想重写成百上千条提示词,PromptBridge 就是为你准备的自动化“翻译器”。

阅读论文:

[论文解读] PromptBridge: LLM 的提示词跨模型迁移 核心主题 埃森哲这篇论文提出了 PromptBridge 框架,解决“换个模型,提示词就失效”的问题。它能让你在一个模型上精心调优的提示词,能够自动、低成本地“翻译”成另一个模型也能听懂并高效执行的最佳版本,而无需重新进行昂贵的人工调试或模型训练。 必须要解决的痛点:“模型漂移” · 背景:在实际业务中,由于成本、隐私、部署限制或能力需求,开发者经常需要更换底层模型。 · 问题:提示词对模型极其敏感。一个在模型 A 上表现完美的提示词,直接搬到模型 B 上,效果往往大打折扣。 · 现状:为了适配新模型,开发者通常需要重新对每个任务进行提示词工程(反复修改、测试),这非常耗时且昂贵。 解决方案:PromptBridge 一个 无需训练 的框架。它的核心思想不是去微调模型,而是建立一个通用的“映射关系”,把源模型的提示词转换成目标模型的提示词。 PromptBridge 的工作流程主要包含两步: 第一步:校准 —— 建立基准 它只需要少量的对齐任务。 · MAP-RPE 技术:论文引入了一种叫做“模型自适应反射提示进化”的方法。简单说,就是让模型自己对自己进行“反思”和“迭代”,自动找出针对特定任务和特定模型的最优提示词。 · 通过这一步,系统获得了一组“成对”的高质量提示词(同一个任务,在模型 A 上的最佳写法 vs. 在模型 B 上的最佳写法)。 第二步:搭建桥梁 —— 学习映射 · 利用上面得到的这些“成对”数据,PromptBridge 学习出了源模型和目标模型之间的提示词映射关系。 · 神奇之处:一旦这个映射关系建立,当你在未来面对一个全新的、从未见过的任务时,你只需要提供源模型的提示词,系统就能利用这个映射关系,直接生成适配目标模型的优化版提示词。 核心优势与亮点 · 零训练成本:不需要对庞大的 LLM 进行参数微调,计算资源消耗极低。 · 即插即用:只需少量样本校准,即可应对各种未知的下游任务。 · 通用性强:实验表明,无论是单智能体还是多智能体场景,它都能显著提升模型切换后的表现。 · 自动化:将原本依赖人工经验的“改提示词”过程变成了自动化的算法流程。 一句话总结: 如果你想把基于 Gemini 3 开发的应用迁移到 GPT 5.1 或 Claude 或其他模型,但不想重写成百上千条提示词,PromptBridge 就是为你准备的自动化“翻译器”。 阅读论文:

邵猛,中年失业程序员 😂 专注 - Context Engineering, AI Agents. 分享 - AI papers, apps and OSS. ex Microsoft MVP 合作 - 私信/邮箱:shaomeng@outlook.com 📢 公众号/小红书: AI 启蒙小伙伴

avatar for meng shao
meng shao
Wed Dec 03 14:57:41
To perfectly understand a phenomenon is to perfectly compress it, to have a model of it that cannot be made any simpler.

If a DL model requires millions parameters to model something that can be described by a differential equation of three terms, it has not really understood it, it has merely cached the data.

To perfectly understand a phenomenon is to perfectly compress it, to have a model of it that cannot be made any simpler. If a DL model requires millions parameters to model something that can be described by a differential equation of three terms, it has not really understood it, it has merely cached the data.

Co-founder @ndea. Co-founder @arcprize. Creator of Keras and ARC-AGI. Author of 'Deep Learning with Python'.

avatar for François Chollet
François Chollet
Wed Dec 03 14:55:29
To perfectly understand a phenomenon is to perfectly compress it, to have a model of it that cannot be made any simpler.

If a DL model requires millions parameters to model something that can be described by a differential equation of three terms, it has not really understood it, it has merely cached the data.

To perfectly understand a phenomenon is to perfectly compress it, to have a model of it that cannot be made any simpler. If a DL model requires millions parameters to model something that can be described by a differential equation of three terms, it has not really understood it, it has merely cached the data.

Co-founder @ndea. Co-founder @arcprize. Creator of Keras and ARC-AGI. Author of 'Deep Learning with Python'.

avatar for François Chollet
François Chollet
Wed Dec 03 14:55:29
RT @acquiredotcom: Most founders wait too long to get exit-ready.

Then the deals stall. Or disappear.

Guided by Acquire fixes that. 

Dis…

RT @acquiredotcom: Most founders wait too long to get exit-ready. Then the deals stall. Or disappear. Guided by Acquire fixes that. Dis…

Founder and CEO of @acquiredotcom. https://t.co/wRMIssDmhl has helped 100s of startups get acquired and facilitated $500m+ in closed deals.

avatar for Andrew Gazdecki
Andrew Gazdecki
Wed Dec 03 14:54:10
  • Previous
  • 1
  • More pages
  • 1701
  • 1702
  • 1703
  • More pages
  • 5634
  • Next