[問題] embedding與word2vec觀念釐清

看板Python作者 (熠星)時間8年前 (2017/12/14 10:04), 編輯推噓4(409)
留言13則, 5人參與, 8年前最新討論串1/1
如題 embedding 應該是詞向量 那word2vec是詞向量組成的類似字典的東西 還是指組成字典的模型? -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 122.146.85.134 ※ 文章網址: https://www.ptt.cc/bbs/Python/M.1513217066.A.5C8.html

12/14 10:44, 8年前 , 1F
word2vec is one of word embedding approaches
12/14 10:44, 1F

12/14 11:25, 8年前 , 2F
word2vec是把字轉成特徵向量的機制、套件、或演算
12/14 11:25, 2F

12/14 11:25, 8年前 , 3F
法,embedding在keras裡面就只是負責轉換的一個lay
12/14 11:25, 3F

12/14 11:25, 8年前 , 4F
er
12/14 11:25, 4F

12/15 07:30, 8年前 , 5F
word embedding大致上就是把文字降維的總稱
12/15 07:30, 5F

12/15 07:31, 8年前 , 6F
然後word2vec基本上就是個autoencoder降維的方式
12/15 07:31, 6F

12/15 10:19, 8年前 , 7F
word2vec 是語言模型...不是什麼autoencoder
12/15 10:19, 7F

12/15 12:43, 8年前 , 8F
樓上對 autoencoder只是一種實作方式QQ
12/15 12:43, 8F

12/15 15:07, 8年前 , 9F
其實一樓就是解答吧
12/15 15:07, 9F

12/15 15:58, 8年前 , 10F
不是. autoencoder 是把自己映射到自己
12/15 15:58, 10F

12/15 15:58, 8年前 , 11F
word2vec是把context映射到word 完全不一樣的東西
12/15 15:58, 11F

12/15 18:28, 8年前 , 12F
對耶幹 自己映射到自已幹嘛… 抱歉我耍白痴 把訓練
12/15 18:28, 12F

12/15 18:28, 8年前 , 13F
過程跟降維搞混了
12/15 18:28, 13F
文章代碼(AID): #1QCTmgN8 (Python)