面試官問我:能用一句話解釋Word2Vec 嗎? 我當時腦子裡全是"Skip-gram""CBOW""負採樣"... 但我知道,這些字說出來,面試就結束了。 後來,我想明白了。 Word2Vec 就是為詞做定位。 就像給城市做定位。 北京和上海,都是大城市,所以它們在"城市規模"這個維度上很接近。 北京和天津,地理位置近,所以它們在"地理位置"這個維度上很接近。 Word2Vec 做的事情是一樣的。 它給每個字找一個位置。 意思相近的詞,位置就近。 怎麼找這個位置? 看它周圍是誰。 "蘋果"周圍經常是"水果""香蕉""新鮮"。 "手機"周圍常是"電腦""螢幕""充電"。 所以機器知道,"蘋果"應該和"香蕉"靠近,和"手機"遠離。 這就是Word2Vec。 不是教機器字典,是讓機器看大量文本,自己學會每個單字應該在哪裡。 學完之後,你就可以算任兩個字有多像。 甚至可以做加減法: King - Man + Woman = Queen 因為"性別"這個維度,在這個空間裡是可以被分離出來的。 這是2013 年的突破。 從那之後,機器才真的能"理解"語義。 所有現在的NLP,都建立在這個基礎上。 面試官聽完,點了點頭。 我過了。 --- 由AI 生成,科普word2vec 論文核心概念。
正在載入線程內容
正在從 X 取得原始推文,整理成清爽的閱讀畫面。
通常只需幾秒鐘,請稍候。