作者查詢 / pocession
作者 pocession 在 PTT [ Stock ] 看板的留言(推文), 共10則
限定看板:Stock
看板排序:
全部Gossiping92WomenTalk55Japan_Travel46JapanStudy16joke14studyabroad13movie12Stock10Biotech7toberich7Bioindustry6Biology6car4GMAT4MacShop4photo-buy4book3Statistics2WorldCup2AfterPhD1bookhouse1Boy-Girl1C_Chat1CSMU-AC921CSMU-MT931EuropeTravel1FJU-ACC90a1GetMarry1graduate1Haruhi1J-PopStation1KS94-3161Master_D1MBA1NTUE-Art971TigerBlue1Toy1TTU-AMath1YP95-3121<< 收起看板(39)
首頁
上一頁
1
下一頁
尾頁
157F→: 其實我覺得L大講的比較對。這篇的講法有些聞題03/10 04:41
158F→: 一開始的訓練並不是使用標記資料的。03/10 04:42
159F→: 就連在預訓練的前置訓練,像是word2vec這種淺層的03/10 04:43
160F→: 神經網路03/10 04:43
161F→: 也沒有標記什麼東西。03/10 04:43
162F→: 有的,只是輸入和輸出的配對,藉由訓練去找出規律,03/10 04:44
163F→: 就是所謂的模型03/10 04:44
164F推: 而在後面各式的task中,會對模型進行fine tuning 。03/10 04:48
165F→: 而有些task,例如NER或是NEN,就需要高品質的預先03/10 04:49
166F→: 標示好的資料。03/10 04:49
首頁
上一頁
1
下一頁
尾頁