我刚刚意识到,如果我们生活在一个卡帕西的“认知核心”论点(https://t.co/1RtvrEGIXd)以最大形式成立的世界里(即认知核心LLM实际上是更优越的——这是x.com/karpathy/statu…,
那么,人工智能市场的价值获取方式可能会发生根本性的变化。也就是说,只有规模最大的公司才能开发的那些庞大的“前沿”模型,其价值可能会大大降低。 另一方面,要高效利用“认知核心”,就需要访问权限。
高质量数据、适配器、插件等。 如果这些因素能够区分“好的人工智能”和“坏的人工智能”,那么我们应该期待所有的经济活动都发生在这里。 这为规模较小的专业公司创造了发展空间。
这可能会导致“信息金融”(去中心化)生态系统的发展,从而激励市场参与者提供更高质量的数据和组件。
最近一篇引入“墨盒”概念的论文(https://t.co/KE0lGXeia5)或许能为我们提供一些思路,让arxiv.org/abs/2506.06266 一个墨盒是一个 KV 前缀,它基于对文档语料库的“自学习”进行训练。
如果“认知核心”只知道最少的事实,那么上下文中必须包含大量信息,使用预先计算好的想法的卡带比每次查询都扫描原始文档要高效得多。
此外,之前的“前缀调谐”论文证明,KV 前缀也可以起到微调的作用,因此卡带也可以包含技能、文本样式等。而且与 LoRA 适配器不同,它们是可组合的。