新年伊始,Symbolic 將發布重大消息——敬請關注。屆時,我會稍作慶祝,並分享一些我們取得這些成果的方法。不過,身為技術官,我最大的秘密武器是:我不相信人工智慧的炒作🤷♂️
我不相信那些擁有海量 GitHub star 的「AI」計畫。我克隆進去之後發現,裡面並沒有太多真正有價值的東西,任何有趣的東西我都可以直接移植到我自己的應用中,無需添加任何依賴。
我不相信「因為我在實驗室裡看到了這些秘密,世界即將瞬間改變」這種誇張的說法——我以前不相信那些含糊其辭的帖子,現在也不相信。你對實驗室裡的東西理解錯了,你對世界的看法也錯了。你擲出了兩個1。
我不相信那些關於某個前沿實驗室功能發佈如何徹底顛覆整個產品類別的炒作。和你們大多數人不同,我會暫停演示視頻,仔細觀察輸出結果,花時間進行評估,結果通常都很糟糕,虛假且過度吹捧。
我不相信「人工智慧現在可以自動撰寫新聞稿,內容都是現成的」這種說法——自從GPT-3問世以來,我就一直聽到這種說法,但當時並非如此,現在依然如此。我之所以知道這一點,是因為我與一些試圖讓人工智慧撰寫新聞稿的記者合作,而這正是一個專業問題。
我不相信關於編碼模型的炒作,至少不相信那些極端版本。人工智慧的出現並沒有降低軟體工程中對優劣的深刻理解所帶來的回報,反而提高了回報。 (不過,初級開發人員確實面臨困境。)
我並不相信向量資料庫的種種吹捧。我一直都在用PostgreSQL,而pgvector在早期就夠好了,現在也越來越好了。不過話說回來,增加新依賴的門檻必須非常高,「星標多」可不是衡量標準。
我不相信智能代理的種種吹捧。真正好的智慧代理其實很簡單,在與人工客服溝通之前不會做太多事情。智能代理的錯誤並不會互相抵消,反而會不斷累積。所以,最好盡量保持系統穩定運作。
我不相信前沿實驗室的預測。我的意思是,實驗室對未來基準表現的預測當然都實現了——你見過這些「數值上升」帶來的巨額收益嗎? !不過,這些東西和「智能」的脫節卻越來越嚴重了。
我不相信關於潛在邏輯模型(LLM)的炒作。這是一種非常狹窄且脆弱的技術,它只能用於提取序列,而且需要大量的軟體工程(儘管上下文工程的炒作確實存在)才能引導用戶進入潛在空間中具有經濟價值的區域。 LLM ≠ 通用人工智慧(AGI)。
在 Symbolic,我們看到了令人難以置信的回報,那就是保持冷靜,不被情緒沖昏頭腦,埋頭苦幹,做一件如果你想經營一家企業就絕對、肯定必須做的事情:識別並解決客戶的實際問題。
作為一名人工智慧領域的開發者,我一直很關注如何忽略人工智慧的炒作、含糊不清的帖子、瘋狂的 FOMO 心態以及論壇上的各種小角色,並將 LLM 視為工具箱中的一個工具,以及我可以調用並從中獲得有用響應的另一個 REST API。
我對 2026 年人工智慧的預測是,隨著基準數字與將 LLM 融入到為真實客戶進行實際工作的真實功能中的殘酷現實越來越脫節,忽略 90% 的所有人工智慧雜音所帶來的優勢只會增加。