新年伊始,Symbolic 将发布重大消息——敬请关注。届时,我会稍作庆祝,并分享一些我们取得这些成果的方法。不过,作为首席技术官,我最大的秘密武器是:我不相信人工智能的炒作🤷♂️
我不相信那些拥有海量 GitHub star 的“AI”项目。我克隆进去之后发现,里面并没有多少真正有价值的东西,任何有趣的东西我都可以直接移植到我自己的应用中,无需添加任何依赖。
我不相信“因为我在实验室里看到了这些秘密,世界即将瞬间改变”这种夸张的说法——我以前不相信那些含糊其辞的帖子,现在也不相信。你对实验室里的东西理解错了,你对世界的看法也错了。你掷出了两个1。
我不相信那些关于某个前沿实验室功能发布如何彻底颠覆整个产品类别的炒作。和你们大多数人不同,我会暂停演示视频,仔细观察输出结果,花时间进行评估,结果通常都很糟糕,虚假且过度吹捧。
我不相信“人工智能现在可以自动撰写新闻稿,内容都是现成的”这种说法——自从GPT-3问世以来,我就一直听到这种说法,但当时并非如此,现在依然如此。我之所以知道这一点,是因为我与一些试图让人工智能撰写新闻稿的记者合作,而这正是一个专业问题。
我不相信关于编码模型的炒作,至少不相信那些极端版本。人工智能的出现并没有降低软件工程中对优劣的深刻理解所带来的回报,反而提高了回报。(不过,初级开发人员确实面临困境。)
我并不相信向量数据库的种种吹捧。我一直都在用PostgreSQL,而pgvector在早期就足够好了,而且现在也越来越好了。不过话说回来,添加新依赖的门槛必须非常高,“星标多”可不是衡量标准。
我不相信智能代理的种种吹捧。真正好的智能代理其实很简单,在与人工客服沟通之前不会做太多事情。智能代理的错误并不会相互抵消,反而会不断累积。所以,最好尽可能地保持系统稳定运行。
我不相信前沿实验室的预测。我的意思是,实验室对未来基准性能的预测当然都实现了——你见过这些“数值上升”带来的巨额收益吗?!不过,这些东西和“智能”之间的脱节却越来越严重了。
我不相信关于潜在逻辑模型(LLM)的炒作。这是一种非常狭窄且脆弱的技术,它只能用于提取序列,而且需要大量的软件工程(尽管上下文工程的炒作确实存在)才能引导用户进入潜在空间中具有经济价值的区域。LLM ≠ 通用人工智能(AGI)。
在 Symbolic,我们看到了令人难以置信的回报,那就是保持冷静,不被情绪冲昏头脑,埋头苦干,做一件如果你想经营一家企业就绝对、肯定必须做的事情:识别并解决客户的实际问题。
作为一名人工智能领域的开发者,我一直很关注如何忽略人工智能的炒作、含糊不清的帖子、疯狂的 FOMO 心态以及论坛上的各种小角色,并将 LLM 视为工具箱中的一个工具,以及我可以调用并从中获得有用响应的另一个 REST API。
我对 2026 年人工智能的预测是,随着基准数字与将 LLM 融入到为真实客户进行实际工作的真实功能中的残酷现实越来越脱节,忽略 90% 的所有人工智能杂音所带来的优势只会增加。