[問題] embedding與word2vec觀念釐清
如題
embedding 應該是詞向量
那word2vec是詞向量組成的類似字典的東西
還是指組成字典的模型?
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 122.146.85.134
※ 文章網址: https://www.ptt.cc/bbs/Python/M.1513217066.A.5C8.html
→
12/14 10:44,
8年前
, 1F
12/14 10:44, 1F
推
12/14 11:25,
8年前
, 2F
12/14 11:25, 2F
→
12/14 11:25,
8年前
, 3F
12/14 11:25, 3F
→
12/14 11:25,
8年前
, 4F
12/14 11:25, 4F
推
12/15 07:30,
8年前
, 5F
12/15 07:30, 5F
→
12/15 07:31,
8年前
, 6F
12/15 07:31, 6F
→
12/15 10:19,
8年前
, 7F
12/15 10:19, 7F
推
12/15 12:43,
8年前
, 8F
12/15 12:43, 8F
→
12/15 15:07,
8年前
, 9F
12/15 15:07, 9F
→
12/15 15:58,
8年前
, 10F
12/15 15:58, 10F
→
12/15 15:58,
8年前
, 11F
12/15 15:58, 11F
推
12/15 18:28,
8年前
, 12F
12/15 18:28, 12F
→
12/15 18:28,
8年前
, 13F
12/15 18:28, 13F