面接官は私に尋ねました。「Word2Vec を一文で説明できますか?」 その瞬間、私が考えていたのは「Skip-gram」「CBOW」「ネガティブサンプリング」のことばかりでした... しかし、その言葉を口にしたら、インタビューは終わってしまうことを私は知っています。 後になって、それが分かりました。 Word2Vec は単語の検索に使用されます。 それは都市の位置を定義するようなものです。 北京と上海はどちらも大都市なので、「都市規模」という点ではよく似ています。 北京と天津は地理的に近いため、「地理的な位置」という点では非常に似ています。 Word2Vecも同じことを行います。 各単語に位置を割り当てます。 似た意味を持つ単語はより近い位置に配置されます。 この場所を見つけるにはどうすればいいですか? 周りを見回して誰がいるか見てください。 「リンゴ」という単語は、多くの場合「フルーツ」「バナナ」「新鮮」などの単語に囲まれています。 「携帯電話」の周囲には、「コンピューター」や「スクリーン」、そして「充電器」が置かれていることが多いです。 したがって、機械は「リンゴ」が「バナナ」の近くにあり、「携帯電話」から遠く離れているはずだと認識します。 これは Word2Vec です。 機械に辞書を教えることではなく、機械に大量のテキストを読み込ませ、各単語がどこにあるべきかを自ら学習させることです。 学習が終わると、2 つの単語がどの程度類似しているかを計算できるようになります。 加算と減算も実行できます。 キング - 男 + 女 = 女王 なぜなら、この空間では「性別」という次元を切り離すことができるからです。 これは2013年の画期的な出来事でした。 それ以降、機械は意味を本当に「理解」するようになりました。 すべての現代の NLP はこの基盤の上に構築されています。 面接官は聞いてうなずいた。 合格しました。 --- これは AI によって生成され、word2vec 学術論文の中核となる概念を説明しています。
スレッドを読み込み中
X から元のツイートを取得し、読みやすいビューを準備しています。
通常は数秒で完了しますので、お待ちください。