RT @shao__meng: 對話式逆向工程剖析ChatGPT 記憶系統❌ 完全沒有向量資料庫和RAG ✅ 而是一種分層、高效率的四級上下文結構 核心發現:比想像中更簡潔 ChatGPT 的「記憶」並非在一個巨大的資料庫中搜尋你過去說過的每一句話。相反,它透過巧妙地拼接…
正在加载线程详情
正在从 X 获取原始推文,整理成清爽的阅读视图。
通常只需几秒钟,请稍候。
正在加载线程详情
正在从 X 获取原始推文,整理成清爽的阅读视图。
通常只需几秒钟,请稍候。
共 1 条推文 · 2025年12月11日 23:43
RT @shao__meng: 對話式逆向工程剖析ChatGPT 記憶系統❌ 完全沒有向量資料庫和RAG ✅ 而是一種分層、高效率的四級上下文結構 核心發現:比想像中更簡潔 ChatGPT 的「記憶」並非在一個巨大的資料庫中搜尋你過去說過的每一句話。相反,它透過巧妙地拼接…