不要把法學碩士(LLM)看作是實體,而應該看作是模擬器。例如,在探索某個主題時,不要問: 你對xyz有什麼看法? 世上沒有「你」。下次試試: “什麼樣的人適合去探索xyz?他們會怎麼說?” LLM可以引導/模擬多種視角,但它已經很久沒有「思考」某個問題了,也沒有像我們通常理解的那樣,隨著時間的推移形成自己的觀點。如果你用「你」這個角色來強迫它,它會根據微調資料的統計結果,採用一個隱含的性格嵌入向量,然後進行模擬,從而給出結果。這樣做當然沒問題,但與人們天真地認為的「詢問AI」相比,它遠沒有那麼神秘。
正在載入線程內容
正在從 X 取得原始推文,整理成清爽的閱讀畫面。
通常只需幾秒鐘,請稍候。