作者查詢 / aassdd926
作者 aassdd926 在 PTT [ Python ] 看板的留言(推文), 共79則
限定看板:Python
看板排序:
全部Gossiping807Hip-Hop90Python79nCoV201969Soft_Job46Boy-Girl35Beauty28C_Chat21ArenaOfValor19Stock18NTU17DataScience16Militarylife8Q_ary6StupidClown5EuropeTravel4Salary4studyabroad4sex3studyteacher3joke2ScienceNote2ClashRoyale1gallantry1graduate1HatePolitics1Headphone1KanColle1KOTDFansClub1L_TalkandCha1movie1NTUCivilism1NTUcourse1Oversea_Job1single1Talk_Service1TOEFL_iBT1Vocal1YOLO1<< 收起看板(39)
1F→: Random forest 本身就是多個DT,他的 feature importa04/09 10:50
2F→: nce 是所有樹加權平均過的。而這個數值主要依據樹以此04/09 10:50
3F→: 特徵分裂下,數據impurity的下降程度(樣本比例權重下04/09 10:50
4F→: )。用途上feature importance可以用來選取特徵,例如04/09 10:50
5F→: 重覆刪除後面10位不重要的特徵,以找出讓模型表現最好04/09 10:50
6F→: 的特徵subset,但也要小心過擬合的特徵feature improt04/09 10:50
7F→: ance 也會很高,容易受到誤導04/09 10:50
8F→: 如果要比較的話,我應該會把它轉換成 rank04/09 10:58
1F→: 每次的訓練集不同,模型就不同,等於 5 folds 給你 503/08 23:32
2F→: 個模型03/08 23:32
3F→: 而為何不同,就是因為模型會根據 training data fit03/08 23:36
4F→: 出它的 weights / parameters03/08 23:36
9F→: 我不太確定我理解的對否,但這樣的概念不就是1個訓練03/09 10:48
10F→: 集,然後你用不同的batch size03/09 10:48
12F推: 有個 between_time 的api 可以試試用這個過濾12/23 23:53
2F推: 餵狗”pandas show two dataframes”10/21 11:26
7F推: 這堂課我上過,html css 教的很全面,基本上夠用,js10/16 13:26
8F→: 的部分則還好,我後來在Udemy又補了一堂課,10/16 13:26
2F推: Heroku10/05 12:56
18F→: 這就是要開始做EDA的節奏08/04 00:04
2F→: 沒log什麼都de不了03/15 22:33
3F推: 久了就發現一個網路課程通常沒辦法涵蓋自己想學的所有03/11 23:11
4F→: 技能,所以後來都會先找有沒有 YT 的tutorial,或者書03/11 23:11
5F→: 可以看(速度也比較快03/11 23:11
5F推: 推樓上,想 project idea 從 0到1,遇到問題上網自己d03/10 20:32
6F→: ebug,應該能進步不少,但主要還是目標啦,看你文不太03/10 20:32
7F→: 確定你想怎麼繼續?03/10 20:33