作者查詢 / chchan1111
作者 chchan1111 在 PTT [ DataScience ] 看板的留言(推文), 共24則
限定看板:DataScience
看板排序:
首頁
上一頁
1
下一頁
尾頁
8F推: GOOGLE 'smote' 簡單一點就直接複製10/29 01:00
9F→: 雖然多樣性不會變 但至少能解決資料不平衡10/29 01:01
10F→: 其實增加資料量的方法很多 加高斯噪音 GAN SMOTE10/29 01:02
11F→: 圖片的話還可以加一些模糊 銳利度之類的 自己玩看看10/29 01:02
11F→: 請問你是用哪個資料集呢? 其實這也是蠻重要的06/10 21:12
12F→: 用幾層通常是考量任務難度 影像大小反而不一定06/10 21:13
13F→: 話說推文限30秒會不會太誇張 這樣是要怎麼討論啦06/10 21:14
1F→: 可以去看李弘毅老師的這個課程中Gradient Descent05/01 02:11
2F→: 的部分,裡面對batch size的概念說明的蠻清楚的05/01 02:12
3F→: 補充 Machine Learning的課程05/01 02:12
8F→: 沒說幾類你是怎麼判斷0.5沒學的?04/30 20:31
1F→: DROPOUT丟棄的機率是以單顆神經元來看的歐04/29 16:05
2F→: 所以嚴格來說應該是每張feature maps 的每個pixel04/29 16:06
3F→: 都有一半的機率訊息不會被往下傳遞04/29 16:06
6F推: 是的 在dnn裡加dropout相當於每個神經元有一定機率被04/29 21:06
7F→: 忽略 而cnn中每個pixel就相當於神經元04/29 21:06
8F→: 另外feature maps跟filter是不一樣的歐04/29 21:08
33F→: 這麼基本的也在問 真的有在念相關知識嗎...03/22 21:32
34F→: 而且你說的調整 是調超參數 超參數是人調的03/22 21:33
35F→: 不是讓機器學的03/22 21:33
36F→: 而且驗證集是學界在用的 因為拿測試集來調參數算作弊03/22 21:36
37F→: 因為測試集不能在調參時使用 才會把訓練集切一些出來03/22 21:36
38F→: 藉由訓練時訓練集跟驗證集兩者LOSS的變化 觀察過擬合03/22 21:38
39F→: 什麼時候發生 以及模型收斂情況03/22 21:38
首頁
上一頁
1
下一頁
尾頁