作者查詢 / youngman77
作者 youngman77 在 PTT [ DataScience ] 看板的留言(推文), 共34則
限定看板:DataScience
看板排序:
全部KS96-317290DataScience34KR_Entertain19HIMYM16Unlight14BLEACH9CYCEsoftball8KoreanPop8DSLR7Python5Tech_Job5hypermall4Ind-travel4Key_Mou_Pad4KSHS_Talk4MAC4MATLAB4ONE_PIECE4uni-talk4ewsoft3Hsinchu3KS94-3203Notebook3PC_Shopping3tennis_life3BBSmovie2Coffee2FAIRYTAIL2Gossiping2GUNDAM2KS90-3012KS93-3022KS93-3102KS94-3022KS94-3152KS94-3162KS95-3022KS96-3102KS96-3142Little-Games2model2NCUFingrad032RDSS2SRW2Storage_Zone2TOEFL_iBT2WarCraft2Windows2AKMU1Anti-Fake1CSMUdancepub1CVS1DIGIMON1EuropeTravel1Evangelion1Facebook1FITNESS1FJU-ACC91a1GirlsDay1HCSHch13_3111iOS1Isayama1Jeans1KERORO1KG96-3091KoreaDrama1KR_1N2D1KS93-3201NARUTO1NCU97ME-B1Physics1shoes1Singapore1StarCraft1StupidClown1<< 收起看板(75)
首頁
上一頁
1
下一頁
尾頁
2F→: https://reurl.cc/oeXZ6D02/25 00:12
1F→: https://openreview.net/forum?id=Skgxcn4YDS02/07 00:16
7F→: Also, https://openreview.net/forum?id=HklUCCVKDB02/07 11:27
8F→: continual learning, catastrophic forgetting02/07 11:29
9F→: lifelong learning; these tags may help02/07 11:30
5F→: 不用pandas的話..用bash: cut -f1,2,3,8|sort|uniq -c01/18 20:34
3F推: 想求的是你說的後驗,按照Bayes rule把後驗展開成:06/22 18:38
4F→: P(會)P(特徵|會)和P(不會)P(特徵|不會)比較大小06/22 18:38
20F→: 如果理解沒有錯, 用RMSE Loss, output是gaussian mu06/08 20:15
21F→: 而且std=1, 所以你可以代回gaussian得到你要的機率06/08 20:16
22F→: posterior選擇gaussian approximation應該是個conven06/08 20:51
23F→: ient choice, 選擇gaussian除了可以進一步用ICLR14 K06/08 20:51
24F→: ingma提出的reparameterization trick進一步降低stoc06/08 20:51
25F→: hastic gradient of ELBO的variation以外, ELBO拆解06/08 20:51
26F→: 出來的KL divergence那一項也可以直接得到論文中推06/08 20:52
27F→: 導的解析解。06/08 20:52
1F→: sklearn.metrics.average_precision_score05/18 00:42
1F→: 沒辦法保證蒐集到所有需要被翻譯的sequence吧,overfi08/13 13:24
2F→: t的話就資料集有限制的狀況(有限的sequence分布)下08/13 13:24
3F→: 正確翻譯比例很高(training set跟test set同一組),08/13 13:24
4F→: 但你有所有目標sequence的分布資料的話也不用做mode08/13 13:24
5F→: l啦,不是用dictionary就好了嗎08/13 13:24
5F推: 你怎麼定義搜尋引擎問題,期望輸入的是對話還是token08/11 19:00
6F→: 期望模型推回的是token還是有序的對話08/11 19:01
7F→: 而且現在去google搜尋,會發現會預測你query的下一個08/11 19:07
8F→: 單字是什麼,應該是有做一些model預測你的query組成,08/11 19:07
9F→: 也許google曾經實驗證明加入NLP(猜的,也可能不是基於08/11 19:07
10F→: NLP的模型)來預測query本身也會對搜尋成功率有幫助吧08/11 19:07
11F→: 看你自己想承擔多少風險,要拿最多報酬就要承擔這產07/14 17:00
12F→: 業最後泡沫的風險去做金字塔頂端(念博班),想要喝點07/14 17:00
13F→: 湯就唸資工學一點ML,幫大老提出的演算法當個小草民07/14 17:00
14F→: 堆堆磚,但這邊倒了你還能跳去別的地方07/14 17:00
15F→: 但這篇文章原文不算無關版旨嗎?07/14 17:11
6F推: 直接試試看cosh(x)嗎?泰勒展開是2,4,6...的次方連加07/05 18:22
首頁
上一頁
1
下一頁
尾頁