作者查詢 / catxfish
作者 catxfish 在 PTT [ DataScience ] 看板的留言(推文), 共21則
限定看板:DataScience
看板排序:
全部JP_Entertain349Gossiping315movie239PlayStation200EAseries151Japandrama115nobunyaga64Japan_Travel52DataScience21MobileComm15Baseball14Militarylife13Soft_Job9SportLottery6Examination4NBA4WorldCup4Falcom3MLB3Tech_Job3Aviation2boxoffice2FigureSkate2H-GAME2J-League2Shadowverse2Steam2Stock2Tennis2aoiXaoi1cat1CFantasy1CTU-241GO1Insurance1iOS1joke1Olympics_ISG1Perfume_desu1Salary1V61<< 收起看板(41)
首頁
上一頁
1
下一頁
尾頁
7F→: 資料增強用一下現成的庫吧 albumentations/imgaug03/06 08:16
29F→: 在訓練樣本的抽樣上多下功夫比較實際吧02/14 00:56
30F→: 一般分類器用不平衡的訓練樣本怎麼可能會有好效果呢02/14 01:01
6F→: 我的猜測這種講法是在說train到背景那類時就只更新FC層11/29 01:04
7F→: 不讓背景那類去影響前方feature extractor的權重11/29 01:04
8F→: 不過我覺得你應該先釐清是不是樣本不平均問題...11/29 01:06
3F→: 做不出通用人工智慧是因為我們也不了解什麼是智慧11/19 20:11
4F→: 現在成果是用數據堆起來的 但生物的學習似乎不是這回事11/19 20:13
3F→: 通常會用相同數目的real image跟fake image去訓練05/22 22:48
4F→: 直接參考的實作預設是用64+6405/22 22:50
5F→: 直接亂數64個latent產生64個fake image進discriminator05/23 00:33
6F→: 不用重新產生 直接用同一組去算兩個的loss function05/23 00:36
7F→: G是64個input D是128個input 不過其實這些你都可以調整05/23 00:38
8F→: 但我以前測試最需要調整的是learning rate05/23 00:39
9F→: batch size反而還好05/23 00:39
10F→: 話說pytorch github example裡面就有DCGAN啊 XD05/23 00:49
10F→: 以前試是覺得都差不多 都不夠清晰05/21 17:51
11F→: 而且training set的品質影響很大 要花時間篩選05/21 17:52
13F→: 比較想詢問二次元的Dataset是不是自行蒐集比較多啊?05/14 11:39
21F→: 其實只是初學的話可以先用CPU版本跑MNIST的範例看看04/05 23:25
22F→: 真的想玩比較大的專案再來換硬體也不遲04/05 23:27
首頁
上一頁
1
下一頁
尾頁