[問題] 特徵萃取與微調的差異以及遷移學習問題

看板DataScience作者 (霸氣大師)時間3年前 (2020/07/30 23:16), 編輯推噓2(203)
留言5則, 1人參與, 3年前最新討論串1/1
各位前輩大家好 最近看到有關特徵萃取與微調的技術 想請問各位前輩 1.兩者的差異是不是主要差在一個完全凍結conv_base一個沒有 還是有什麼其他差異呢? 實作上是不是都以微調居多? 2.最近在使用一些model EX:VGG16, ResNet等 如何分辨輸入是否要壓縮至0~1之間 VGG16實作結果不壓縮準確率較高一些 是觀察本身模型是否有batch_norm嗎 還是注意什麼地方? 感謝各位前輩的解答 若您方便的話有關遷移學習的一些常犯錯誤 也提點一下小弟 謝謝! 作業系統:COLAB(linux) 問題類別:CNN 使用工具:Python, Keras -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 223.140.178.251 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/DataScience/M.1596122203.A.CE0.html

08/01 02:10, 3年前 , 1F
1大部分已經沒有這樣分了,我個人經驗,先fix,然後tra
08/01 02:10, 1F

08/01 02:10, 3年前 , 2F
in完後端後再unfix
08/01 02:10, 2F

08/01 02:12, 3年前 , 3F
2這要根據你的model當初是怎麼被train 的,你就用相同
08/01 02:12, 3F

08/01 02:12, 3年前 , 4F
方法 pytorch的話有獨立對rgb shift, tf的好像是縮放
08/01 02:12, 4F

08/01 02:12, 3年前 , 5F
到1~-1之間
08/01 02:12, 5F
文章代碼(AID): #1V8kHRpW (DataScience)