作者查詢 / TOEFLiBT100
作者 TOEFLiBT100 在 PTT [ DataScience ] 看板的留言(推文), 共32則
限定看板:DataScience
看板排序:
全部NTU438C_Chat308studyabroad124sex35TOEFL_iBT33DataScience32AllTogether30TaichungBun26Tainan19EE_Comment17NTUcourse14GRE13AC_In9SENIORHIGH6Lifeismoney4toberich4Beauty3DigiCurrency3Gossiping3b05902xxx2give2PhD2Wanted2AfterPhD1H-GAME1kodomo1L_TaiwanPlaz1Math1ONE_PIECE1Shu-Lin1ShuangHe1SongShan1Tech_Job1<< 收起看板(33)
3F→: 留學板才有個只是修過課就拿到推特機器學習offer的07/16 13:53
4F推: 好 幫5樓報名看Self-Normalizing Neural Networks06/25 01:35
12F推: 5樓厲害了 將近90頁數學07/06 06:25
1F→: 推07/01 19:57
8F→: alphaGo就沒有用pooling, 用pooling隔壁棋子就不見了06/19 23:27
9F→: 還怎麼下贏?06/19 23:27
14F→: 你的字可不可以不要那麼亮QQ06/10 22:05
2F推: 推 海豹王05/19 03:38
3F→: 阿 不對 海獅王才對05/19 03:39
1F推: 這篇好詳細 謝謝分享05/14 16:52
4F→: 決的train acc有上升但太慢=>加大batch size05/01 02:58
5F→: 發現train acc卡住=>減小batch size05/01 02:59
6F→: 我昰這樣做的05/01 02:59
4F→: 如果所有output都是小於0呢?04/23 22:26
5F→: softmax應該還是會選出一個最靠近0的04/23 22:26
12F→: 最後一層還是有可能梯度消失吧 如果最後都是很大的值04/24 19:58
13F→: 那gradient算出來就是0 若有錯請大家指正04/24 19:59
14F→: 我上面昰假設最後接sigmoid的activation的情況下04/24 20:44
29F→: max out是非線性阿,ReLu就是maxout的一個特利04/22 16:38
30F→: *特例04/22 16:39