作者查詢 / chchan1111

總覽項目: 發文 | 留言 | 暱稱
作者 chchan1111 在 PTT [ DataScience ] 看板的留言(推文), 共24則
限定看板:DataScience
首頁
上一頁
1
下一頁
尾頁
[問題] 關於使用Keras處理不均勻測資
[ DataScience ]15 留言, 推噓總分: +9
作者: tank123zzz - 發表於 2018/10/25 22:41(7年前)
8Fchchan1111: GOOGLE 'smote' 簡單一點就直接複製10/29 01:00
9Fchchan1111: 雖然多樣性不會變 但至少能解決資料不平衡10/29 01:01
10Fchchan1111: 其實增加資料量的方法很多 加高斯噪音 GAN SMOTE10/29 01:02
11Fchchan1111: 圖片的話還可以加一些模糊 銳利度之類的 自己玩看看10/29 01:02
[問題] 關於CNN架構設計及GAN的epoch設計
[ DataScience ]52 留言, 推噓總分: +9
作者: arch2453 - 發表於 2018/06/10 16:22(7年前)
11Fchchan1111: 請問你是用哪個資料集呢? 其實這也是蠻重要的06/10 21:12
12Fchchan1111: 用幾層通常是考量任務難度 影像大小反而不一定06/10 21:13
13Fchchan1111: 話說推文限30秒會不會太誇張 這樣是要怎麼討論啦06/10 21:14
[問題] batchsize 怎麼調?
[ DataScience ]12 留言, 推噓總分: 0
作者: lunashining - 發表於 2018/05/01 01:35(7年前)
1Fchchan1111: 可以去看李弘毅老師的這個課程中Gradient Descent05/01 02:11
2Fchchan1111: 的部分,裡面對batch size的概念說明的蠻清楚的05/01 02:12
3Fchchan1111: 補充 Machine Learning的課程05/01 02:12
[問題] cnn訓練時的問題
[ DataScience ]9 留言, 推噓總分: +1
作者: bg784533 - 發表於 2018/04/30 14:32(7年前)
8Fchchan1111: 沒說幾類你是怎麼判斷0.5沒學的?04/30 20:31
[問題] 在convolution layer的dropout行為?
[ DataScience ]9 留言, 推噓總分: +1
作者: Haikyuu - 發表於 2018/04/29 15:36(7年前)
1Fchchan1111: DROPOUT丟棄的機率是以單顆神經元來看的歐04/29 16:05
2Fchchan1111: 所以嚴格來說應該是每張feature maps 的每個pixel04/29 16:06
3Fchchan1111: 都有一半的機率訊息不會被往下傳遞04/29 16:06
6Fchchan1111: 是的 在dnn裡加dropout相當於每個神經元有一定機率被04/29 21:06
7Fchchan1111: 忽略 而cnn中每個pixel就相當於神經元04/29 21:06
8Fchchan1111: 另外feature maps跟filter是不一樣的歐04/29 21:08
[問題] neural net MT 的 Validation set 到底在做什麼?
[ DataScience ]59 留言, 推噓總分: +19
作者: lucien0410 - 發表於 2018/03/22 11:57(7年前)
33Fchchan1111: 這麼基本的也在問 真的有在念相關知識嗎...03/22 21:32
34Fchchan1111: 而且你說的調整 是調超參數 超參數是人調的03/22 21:33
35Fchchan1111: 不是讓機器學的03/22 21:33
36Fchchan1111: 而且驗證集是學界在用的 因為拿測試集來調參數算作弊03/22 21:36
37Fchchan1111: 因為測試集不能在調參時使用 才會把訓練集切一些出來03/22 21:36
38Fchchan1111: 藉由訓練時訓練集跟驗證集兩者LOSS的變化 觀察過擬合03/22 21:38
39Fchchan1111: 什麼時候發生 以及模型收斂情況03/22 21:38
首頁
上一頁
1
下一頁
尾頁