作者查詢 / catxfish

總覽項目: 發文 | 留言 | 暱稱
作者 catxfish 在 PTT [ DataScience ] 看板的留言(推文), 共21則
限定看板:DataScience
首頁
上一頁
1
下一頁
尾頁
[問題] 一張圖片隨機亮度
[ DataScience ]14 留言, 推噓總分: +9
作者: CPU100 - 發表於 2020/03/04 11:47(5年前)
7Fcatxfish: 資料增強用一下現成的庫吧 albumentations/imgaug03/06 08:16
[問題] 遷移學習如何不破壞在原問題上學習的成果
[ DataScience ]31 留言, 推噓總分: +4
作者: karco - 發表於 2020/02/06 23:54(5年前)
29Fcatxfish: 在訓練樣本的抽樣上多下功夫比較實際吧02/14 00:56
30Fcatxfish: 一般分類器用不平衡的訓練樣本怎麼可能會有好效果呢02/14 01:01
[問題] CNN影像分類問題(背景類)
[ DataScience ]9 留言, 推噓總分: +3
作者: selfhiding - 發表於 2019/11/28 15:41(6年前)
6Fcatxfish: 我的猜測這種講法是在說train到背景那類時就只更新FC層11/29 01:04
7Fcatxfish: 不讓背景那類去影響前方feature extractor的權重11/29 01:04
8Fcatxfish: 不過我覺得你應該先釐清是不是樣本不平均問題...11/29 01:06
[問題] 通用人工智慧現在缺的是什麼?
[ DataScience ]32 留言, 推噓總分: +13
作者: dharma - 發表於 2019/11/19 17:17(6年前)
3Fcatxfish: 做不出通用人工智慧是因為我們也不了解什麼是智慧11/19 20:11
4Fcatxfish: 現在成果是用數據堆起來的 但生物的學習似乎不是這回事11/19 20:13
[問題] GAN訓練時batch的實作請教
[ DataScience ]10 留言, 推噓總分: +1
作者: PyTorch - 發表於 2018/05/22 19:35(7年前)
3Fcatxfish: 通常會用相同數目的real image跟fake image去訓練05/22 22:48
4Fcatxfish: 直接參考的實作預設是用64+6405/22 22:50
5Fcatxfish: 直接亂數64個latent產生64個fake image進discriminator05/23 00:33
6Fcatxfish: 不用重新產生 直接用同一組去算兩個的loss function05/23 00:36
7Fcatxfish: G是64個input D是128個input 不過其實這些你都可以調整05/23 00:38
8Fcatxfish: 但我以前測試最需要調整的是learning rate05/23 00:39
9Fcatxfish: batch size反而還好05/23 00:39
10Fcatxfish: 話說pytorch github example裡面就有DCGAN啊 XD05/23 00:49
[問題] DCGAN的generator使用relu非leaky的原因
[ DataScience ]11 留言, 推噓總分: +2
作者: CVPR - 發表於 2018/05/19 17:56(7年前)
10Fcatxfish: 以前試是覺得都差不多 都不夠清晰05/21 17:51
11Fcatxfish: 而且training set的品質影響很大 要花時間篩選05/21 17:52
[問題] 機器學習在動漫的應用
[ DataScience ]16 留言, 推噓總分: +3
作者: CVPR - 發表於 2018/05/13 18:15(7年前)
13Fcatxfish: 比較想詢問二次元的Dataset是不是自行蒐集比較多啊?05/14 11:39
[問題] 深度學習 硬體需求
[ DataScience ]24 留言, 推噓總分: +8
作者: Aiuddy - 發表於 2018/04/04 21:12(7年前)
21Fcatxfish: 其實只是初學的話可以先用CPU版本跑MNIST的範例看看04/05 23:25
22Fcatxfish: 真的想玩比較大的專案再來換硬體也不遲04/05 23:27
首頁
上一頁
1
下一頁
尾頁