作者查詢 / LeFilsDuVent
作者 LeFilsDuVent 在 PTT [ Statistics ] 看板的留言(推文), 共22則
限定看板:Statistics
看板排序:
全部Stock341FuMouDiscuss286PublicIssue176Militarylife169Coffee127basketballTW67Gossiping41HatePolitics27Tennis23Statistics22Volleyball22Math21KingdomHuang18cookclub14joke13NBA13Python12Physics11car10Bank_Service6Plant6Baseball5HotBloodYuan5France4Salary4e-coupon3HomeTeach3LaTeX3Lifeismoney3movie3PublicServan3Teacher3Wanhua3Actuary2AdvEduUK2e-shopping2Hsinchu2I-Lan2KS98-3022MMA2MOD2sp_teacher2studyteacher2tax2Tea2Tech_Job2AfterPhD1Agriculture1Beauty1BuyTogether1CultureShock1DataScience1Germany1historia1HOT_Game1IVERSON1Kaohsiung1MdnCNhistory1medstudent1Miaoli1NCYU_Fst_981PUBLICISS_PT1soho1specialman1StupidClown1TAXI1THULAW1TW-history1Warfare1WorkinChina1WorldCup1Zhongshan1<< 收起看板(72)
首頁
上一頁
1
下一頁
尾頁
1F推: 1.44只是0.0056*79+1的大約值11/01 17:14
2F→: 你寫的 "0.0056=80-n1/79n1" 應該是11/01 17:14
3F→: 0.0056 = (80-n1)/79n111/01 17:15
4F→: 這題的重點在了解樣本平均標準差跟母體標準差的關係11/01 17:15
5F→: 還有當母體不是無限的時候的有限母體修正factor11/01 17:16
4F推: 考慮二元分類,若0類99%,1類1%,那模型把0類猜錯成09/20 22:12
5F→: 1類會常常受到處罰,反之1類的訓練量很少,猜錯成009/20 22:13
6F→: 處罰也不多,所以就學會全部猜0最划算。這個問題在09/20 22:14
7F→: 你給模型公平機會訓練0,1類的時候就減輕了09/20 22:15
18F推: test set就是看你模型的可推廣性,訓練就是從一堆09/21 10:15
19F→: 函數(hypothesis set)裡面挑出一個最好的,模型可以09/21 10:15
20F→: 認得1類的pattern那就可以推廣09/21 10:16
21F→: 舉個例子,你訓練出一個認貓狗的模型,之後測試時09/21 10:17
22F→: 故意每100張貓圖只摻1張狗圖,模型會認不出狗嗎?09/21 10:18
23F→: 權重是另外一回事了,如果不用up/down sampling,那09/21 10:20
24F→: 可以在訓練時使用權重讓辨認不出少數族群處罰很重09/21 10:21
25F→: 也就是:1.你的問題在imbalance時的可推廣性 2.對付09/21 10:22
26F→: imbalance情況可以up/down sampling或reweightingy09/21 10:22
27F→: 3.2裡面的方法為什麼有效就是訓練時處罰的概念09/21 10:22
15F推: 一般rule of thumb是scale超過五個就當連續吧06/26 17:39
16F→: 如果低於五個可以使用ordered logit或其他ordinal06/26 17:39
17F→: regression approaches06/26 17:39
首頁
上一頁
1
下一頁
尾頁