作者查詢 / Activation

總覽項目: 發文 | 留言 | 暱稱
作者 Activation 在 PTT [ DataScience ] 看板的留言(推文), 共21則
限定看板:DataScience
首頁
上一頁
1
下一頁
尾頁
[心得] PyTorch實作DRL分享
[ DataScience ]7 留言, 推噓總分: +2
作者: thefattiger - 發表於 2018/09/20 23:28(7年前)
1FActivation: 感謝分享09/21 02:09
[問題] GAN的discriminator要train比較多次理由
[ DataScience ]8 留言, 推噓總分: +1
作者: PyTorch - 發表於 2018/08/24 18:50(7年前)
3FActivation: 因為Discriminator的learning rate比較低吧,所以要tr09/05 21:37
4FActivation: ain比較多次,科學的說法可能是Discriminator的loss s09/05 21:37
5FActivation: urface比較崎嶇起伏09/05 21:37
7FActivation: 我看github上都是D的lr比G低耶,可能我看得不夠多09/05 23:53
8FActivation: 不過周遭同學也是把D設比較低才train起來09/05 23:54
[問題] batch size過大時,為什麼容易overfittin
[ DataScience ]22 留言, 推噓總分: +8
作者: Activation - 發表於 2018/08/29 11:38(7年前)
3FActivation: batch size小,random的成分比較大,反而會在外面繞圈08/29 13:39
4FActivation: 圈,不必然收斂快吧08/29 13:39
19FActivation: paper找一下應該有, 這方面的paper還蠻多的08/30 14:15
[問題] 關於作品
[ DataScience ]10 留言, 推噓總分: +1
作者: flypaper - 發表於 2018/08/27 14:54(7年前)
9FActivation: 我很好奇沒有paper能算data science嗎?坦白說我分不清08/29 02:16
10FActivation: 楚會寫code的統計所跟DS的不同08/29 02:16
[問題] 小的model在training時收斂會比較快嗎?
[ DataScience ]13 留言, 推噓總分: +2
作者: Activation - 發表於 2018/08/22 00:54(7年前)
2FActivation: 有沒有可能train的上去又收斂快? 我才疏學淺08/22 01:05
13FActivation: 了解 謝謝各位08/28 02:31
[徵文] Halide
[ DataScience ]20 留言, 推噓總分: +12
作者: jimmycool - 發表於 2018/08/20 02:44(7年前)
6FActivation: 大神08/20 22:44
[問題] 請推薦Tensorflow線上教學或課程
[ DataScience ]16 留言, 推噓總分: +7
作者: keras - 發表於 2018/08/18 14:29(7年前)
1FActivation: 就google的course08/18 15:29
15FActivation: 我不是 電梯向下08/19 23:37
[問題] GAN的mode collapse問題
[ DataScience ]10 留言, 推噓總分: 0
作者: Activation - 發表於 2018/08/17 16:00(7年前)
2FActivation: 對不起沒說清楚, 就是P_g跟P_data是對稱的08/17 19:46
3FActivation: KL(P_g|| P_data+P_g) + KL(P_data || P_data+P_g)08/17 19:48
4FActivation: 這樣應該沒有篇重P_g或P_data吧?08/17 20:16
5FActivation: *偏重08/17 20:17
[問題] 被某間在大陸的外商公司裡的大陸名校博士
[ DataScience ]12 留言, 推噓總分: +5
作者: ruthertw - 發表於 2018/08/11 15:58(7年前)
10FActivation: 沒頭沒尾的08/17 15:56
首頁
上一頁
1
下一頁
尾頁