作者查詢 / wtchen
作者 wtchen 在 PTT [ DataScience ] 看板的留言(推文), 共84則
限定看板:DataScience
看板排序:
全部C_and_CPP972RumikoTWorld427gallantry412Aviation390China-Drama310Francais194book187BigSanchung118DataScience84Gossiping76LinuxDev76Soft_Job68pay_home65historia58FamilyCircle57nCoV201946ASM32C_Chat31movie31Linux28cookclub22funeral22Sub_CS20Translation20Plant19marriage15Isayama12DC10Physics10java9Psychiatry9Suckcomic9Swccyer8Insurance6Life6AiYazawa5CultureShock5foreigner5LivingGoods5translator5Anti-Cancer4Eclipse4Eng-Class4Fortran4France4HatePolitics4Programming4Database3LaTeX3PhD3Publish3Warfare3CMWang2e-shopping2EuropeTravel2gardener2MakeUp2marvel2outdoorgear2SYSOP2AfterPhD1Ang_Lee1BigBanciao1ChineseMed1E-appliance1EAseries1elderly1HanshinTiger1Health1Office1Oversea_Job1PLT1Python1Road_Running1single1Steam1SWORD1TaiwanDrama1Tea1WomenTalk1<< 收起看板(80)
1F推: 應該是先「假設」其distribution再去求相關參數吧03/21 18:53
1F→: 看不懂你的問題,overfit不就是test error止跌回升04/24 02:22
2F→: 跟你調的那些參數有啥關係04/24 02:23
14F推: 一般就是看loss跟acc趨勢來證明overfit04/24 21:04
15F→: k-fold幫助泛化的前提,一是資料分佈夠均勻,不會有其中04/24 21:09
16F→: 幾折表現特別奇怪,二是能達到像隨機森林那樣的效果04/24 21:10
17F→: (不然效果可能近似純裝袋法)04/24 21:11
18F→: 這可能要稍微用dropout04/24 21:12
3F推: 先跟老闆要水晶球...11/25 19:37
1F推: 資料集規模(相對於模型維數)很大嗎?若是很大還有可能08/14 23:41
2F→: training/validation/test分開08/14 23:42
3F→: 若是不夠就只能拆成training/test,甚至用交叉驗證硬幹08/14 23:44
3F推: 混口飯吃+106/24 02:20
1F推: 不能分batch嗎?06/07 16:32
4F推: AE這種模型你要用監督式搭配Keras還是能訓練出來06/01 20:02
5F→: 我只能說命題不太對06/01 20:03
6F→: 把AE二分法很奇怪06/01 20:04
5F推: AE是純粹的濃縮再解濃縮,可以用來做分類06/01 04:30
6F→: 用來當生成模型也行,訓練好用decoder那一半就行06/01 04:31
7F→: AE當然可以用監督式學習訓練,非監督式應該也OK06/01 04:32
8F→: 不過訓練演算法要配合資料,沒match好就是垃圾進垃圾出06/01 04:33
2F→: 調整filter大小+dropout或搭配residual connection05/16 20:39
7F推: 為何大家對中譯本有先入為主的壞印象?04/15 20:02
8F→: 應該不是沒好的譯者吧04/15 20:02