RT @shao__meng: 對話式逆向工程剖析ChatGPT 記憶系統❌ 完全沒有向量資料庫和RAG ✅ 而是一種分層、高效率的四級上下文結構 核心發現:比想像中更簡潔 ChatGPT 的「記憶」並非在一個巨大的資料庫中搜尋你過去說過的每一句話。相反,它透過巧妙地拼接…
正在載入線程內容
正在從 X 取得原始推文,整理成清爽的閱讀畫面。
通常只需幾秒鐘,請稍候。
正在載入線程內容
正在從 X 取得原始推文,整理成清爽的閱讀畫面。
通常只需幾秒鐘,請稍候。
共 1 則推文 · 2025年12月11日 晚上11:43
RT @shao__meng: 對話式逆向工程剖析ChatGPT 記憶系統❌ 完全沒有向量資料庫和RAG ✅ 而是一種分層、高效率的四級上下文結構 核心發現:比想像中更簡潔 ChatGPT 的「記憶」並非在一個巨大的資料庫中搜尋你過去說過的每一句話。相反,它透過巧妙地拼接…