[問題] DCGAN的generator使用relu非leaky的原因

看板DataScience作者 (硬train一發)時間6年前 (2018/05/19 17:56), 6年前編輯推噓2(209)
留言11則, 5人參與, 6年前最新討論串1/1
DCGAN的Discriminator用leaky ReLU 而Generator用ReLU 我想不懂為何Generator不用LeakyReLU? 自己測試人臉產生,使用Leaky在generator產生的人臉會有點糊糊的 不知道有沒有辦法解釋這種現象? 補充] 也有可能是我leakyReLu的alpha沒有調好, 我也有看到有人用selu得到不錯的結果 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 223.136.41.69 ※ 文章網址: https://www.ptt.cc/bbs/DataScience/M.1526723780.A.7AC.html ※ 編輯: CVPR (223.136.41.69), 05/19/2018 17:59:13

05/20 02:03, 6年前 , 1F
也許使用LReLU能夠得到的Model非線性程度較低,所以Model
05/20 02:03, 1F

05/20 02:04, 6年前 , 2F
在生產類似"邊界"的東西時對比會差一點?
05/20 02:04, 2F
感謝回應,我也是這樣猜,不過需要更多實驗證實

05/20 17:36, 6年前 , 3F
soumith 那個tricky不是盡量都用leaky嗎 avoid sparse
05/20 17:36, 3F

05/20 17:36, 6年前 , 4F
gradient
05/20 17:36, 4F

05/21 08:03, 6年前 , 5F
對 我也是看那個trick, 可是我自己試generator也是效果不太
05/21 08:03, 5F

05/21 08:03, 6年前 , 6F
05/21 08:03, 6F

05/21 08:04, 6年前 , 7F
DCGAN原本paper就有寫用ReLU在generator效果好
05/21 08:04, 7F

05/21 08:05, 6年前 , 8F
不過我generator沒有加dropout ,不知道leaky加了會怎樣
05/21 08:05, 8F
※ 編輯: CVPR (223.137.38.91), 05/21/2018 08:07:10

05/21 14:16, 6年前 , 9F
我自己試了一下 沒感覺relu有比leaky清楚
05/21 14:16, 9F

05/21 17:51, 6年前 , 10F
以前試是覺得都差不多 都不夠清晰
05/21 17:51, 10F

05/21 17:52, 6年前 , 11F
而且training set的品質影響很大 要花時間篩選
05/21 17:52, 11F
※ 編輯: CVPR (223.140.117.142), 05/22/2018 06:21:27
文章代碼(AID): #1Q__J4Ui (DataScience)