Re: 幹你娘

看板Marginalman作者 (溫水佳樹的兄長大人)時間5月前 (2025/07/17 18:14), 編輯推噓0(000)
留言0則, 0人參與, 最新討論串738/783 (看更多)
※ 引述 《sustainer123 (溫水佳樹的兄長大人)》 之銘言: :   : 從lose curve來說 :   : val持平 train持續下降 :   : 從指標來說 訓練集是驗證集兩倍 :   : 這擺明overfitting吧 :   : 為啥多加一層卷積反而效果更好 :   : 我怕不是學了假的深度學習 :   最後沒上升 但跟原本模型只差一點 而且recall變高 precision變低 通常訓練下去 兩個會平衡 然後f1 score上去 最重要的是訓練集跟測試集的少數類logit沒差多少 這點就很意外 通常overfitting越嚴重 少數類的logit就會往多數類偏移 然後跨過決策邊界 無法理解 明天增加epoch試試 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 223.136.141.131 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Marginalman/M.1752747272.A.D5F.html
文章代碼(AID): #1eUCq8rV (Marginalman)
文章代碼(AID): #1eUCq8rV (Marginalman)