Re: 幹你娘
看板Marginalman作者sustainer123 (溫水佳樹的兄長大人)時間5月前 (2025/07/17 18:14)推噓0(0推 0噓 0→)留言0則, 0人參與討論串738/783 (看更多)
※ 引述 《sustainer123 (溫水佳樹的兄長大人)》 之銘言:
:
: 從lose curve來說
:
: val持平 train持續下降
:
: 從指標來說 訓練集是驗證集兩倍
:
: 這擺明overfitting吧
:
: 為啥多加一層卷積反而效果更好
:
: 我怕不是學了假的深度學習
:
最後沒上升
但跟原本模型只差一點
而且recall變高 precision變低
通常訓練下去 兩個會平衡 然後f1 score上去
最重要的是訓練集跟測試集的少數類logit沒差多少
這點就很意外
通常overfitting越嚴重
少數類的logit就會往多數類偏移 然後跨過決策邊界
無法理解
明天增加epoch試試
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 223.136.141.131 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/Marginalman/M.1752747272.A.D5F.html
討論串 (同標題文章)