作者查詢 / pocession
作者 pocession 的總覽 (PTT發文,留言,暱稱)
發文數量: 56
收到的『推』: 141 (53.6%)
收到的『→』: 122 (46.4%)
收到的『噓』: 0 (0.0%)
留言數量: 347
送出的『推』: 180 (51.9%)
送出的『→』: 162 (46.7%)
送出的『噓』: 5 (1.4%)
使用過的暱稱: 1
pocession 在 PTT 最新的發文, 共 56 篇
pocession 在 PTT 最新的留言, 共 347 則
42F推: 諾貝爾獎得主是老人。是因為他們的76.33.214.175 03/12 15:15
43F→: 發現需要時間驗證和產生巨大影響。76.33.214.175 03/12 15:15
44F→: 然後科學界才會認可。很多諾獎得主76.33.214.175 03/12 15:15
45F→: 的發現也都在他們3-40歲的時候76.33.214.175 03/12 15:15
20F推: 日本的醫生通常不建議做192.231.106.2 02/27 01:41
21F→: 然後他們因為羊膜穿刺而產生的流產192.231.106.2 02/27 01:41
22F→: ,機率比台灣高192.231.106.2 02/27 01:41
23F→: 我們當初也是因為這樣,所以才決定192.231.106.2 02/27 01:42
24F→: 回台灣的柯倉銘做192.231.106.2 02/27 01:42
25F→: 然後日本國立大學醫院的技術,跟一192.231.106.2 02/27 01:42
26F→: 般的醫院差很多,這些重要的侵入式192.231.106.2 02/27 01:43
27F→: 檢查,一定要在國立大學做192.231.106.2 02/27 01:43
58F推: 有喔,我有看過一個香港人帶肉粽,42.76.107.222 07/13 01:12
59F→: 在機場現繳200,00042.76.107.222 07/13 01:12
14F推: 好少推83.83.63.242 06/06 04:19
157F→: 其實我覺得L大講的比較對。這篇的講法有些聞題03/10 04:41
158F→: 一開始的訓練並不是使用標記資料的。03/10 04:42
159F→: 就連在預訓練的前置訓練,像是word2vec這種淺層的03/10 04:43
160F→: 神經網路03/10 04:43
161F→: 也沒有標記什麼東西。03/10 04:43
162F→: 有的,只是輸入和輸出的配對,藉由訓練去找出規律,03/10 04:44
163F→: 就是所謂的模型03/10 04:44
164F推: 而在後面各式的task中,會對模型進行fine tuning 。03/10 04:48
165F→: 而有些task,例如NER或是NEN,就需要高品質的預先03/10 04:49
166F→: 標示好的資料。03/10 04:49
pocession 在 PTT 的暱稱紀錄, 共 1 個
暱稱:阿宗
文章數量:55