作者查詢 / f821027

總覽項目: 發文 | 留言 | 暱稱
作者 f821027 在 PTT [ DataScience ] 看板的留言(推文), 共21則
限定看板:DataScience
首頁
上一頁
1
下一頁
尾頁
[問題] 請問數據標準化跟偏度處理
[ DataScience ]19 留言, 推噓總分: +2
作者: qddcynthia - 發表於 2022/11/10 13:23(3年前)
15Ff821027: X做標準化的部分同意4樓說的 有的模型對於outliers很敏11/11 20:28
16Ff821027: 感 就適合先做標準化 你說的boxcox是針對y轉換 因為y資11/11 20:28
17Ff821027: 料分佈標準差太大 把他做一個轉換後 再和X去build model11/11 20:28
18Ff821027: 這個model predict出的Y再用boxcox反函數轉回原本y的樣11/11 20:28
19Ff821027: 本空間11/11 20:28
[問題] cross validation請益
[ DataScience ]25 留言, 推噓總分: +5
作者: NDEJG - 發表於 2022/02/14 04:11(3年前)
8Ff821027: 多個模型的話就是比較cross_val_score去比較平均的mse或02/16 12:19
9Ff821027: mae等等哪個低02/16 12:19
10Ff821027: 單模的話可以把每個folde的mse或mae都算出來 畫成折線圖02/16 12:19
11Ff821027: 搭配std判斷資料的robustness02/16 12:19
12Ff821027: 可以參考下面各種 cv 方法 https://scikit-learn.org/sta02/16 12:24
13Ff821027: ble/modules/cross_validation.html02/16 12:24
14Ff821027: 有點不太確定你說的testing set的意思,我的認知是all d02/17 15:00
15Ff821027: ata 先分成training set 和 testing set,針對training02/17 15:00
16Ff821027: set去做k-fold cross validation 去確保build出來的模型02/17 15:00
17Ff821027: 參數會是最好的,當然fold越多的話 模型穩健度會越高,02/17 15:00
18Ff821027: 那這k個fold都會有你放進cross_val_score裡面scoring參02/17 15:00
19Ff821027: 數的指標,看你幾個fold,那這k個fold可以驗證你放的模02/17 15:00
20Ff821027: 型的穩健性,可以透過std判斷02/17 15:00
[問題] multi target regression求取feature im
[ DataScience ]9 留言, 推噓總分: +1
作者: f821027 - 發表於 2021/12/11 15:00(4年前)
3Ff821027: 樓上的意思是先把兩個y做正規化,再加權平均成一個y做特12/11 19:07
4Ff821027: 徵重要性排序嗎,不過我要怎麼知道兩個y權重要如何設定12/11 19:07
5Ff821027: 呢12/11 19:07
首頁
上一頁
1
下一頁
尾頁