[討論] 關於投稿ICLR那篇BigGAN

看板DataScience作者 ('selu')時間5年前 (2018/10/10 23:23), 5年前編輯推噓2(206)
留言8則, 5人參與, 5年前最新討論串1/1
關於投稿ICLR那篇的BigGAN 不知道有沒有人測試過在其他dataset的效果? 或是大家看完有沒有什麼想法? 大家討論一下吧? -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 114.136.95.225 ※ 文章網址: https://www.ptt.cc/bbs/DataScience/M.1539185008.A.066.html ※ 編輯: Activation (114.136.95.225), 10/10/2018 23:24:09

10/11 00:03, 5年前 , 1F
也不是人人都能爽 train batch size 2048 的 model ...
10/11 00:03, 1F
文中說batch size變大有變強應該是因為兼顧diversity,那如果採用不像imagenet這麼diverse的dataset,不一定需要那麼大batch size?不過都要試了才知道

10/11 00:28, 5年前 , 2F
512 cores TPU for 24~48 hours
10/11 00:28, 2F

10/11 00:30, 5年前 , 3F
U錢人
10/11 00:30, 3F

10/11 07:54, 5年前 , 4F
一般人很難reproduce QQ
10/11 07:54, 4F
※ 編輯: Activation (114.136.150.168), 10/11/2018 17:39:37

10/11 22:47, 5年前 , 5F
code有release嗎 搜了一下沒看到有人開始reproduce
10/11 22:47, 5F

10/14 16:38, 5年前 , 6F
batch size 不變大不就是原本的SAGAN了
10/14 16:38, 6F

10/14 16:38, 5年前 , 7F
他後面那些trick都是基於batch size變大後做的改正
10/14 16:38, 7F

10/14 16:38, 5年前 , 8F
如果batch size沒那麼大做那些trick會發生什麼不好說
10/14 16:38, 8F
文章代碼(AID): #1RlXbm1c (DataScience)