Re: [問題] 請問經過PCA後的資料若反而對DATAMININ …
※ 引述《skyclouder (塵‧物換星移)》之銘言:
: ※ 引述《question18 (晡)》之銘言:
: : 請問一下
: : 學長說我的特徵太多,所以要使用PCA(principle analysis)降低feature dimension
: : 將100多個feature降低為10個factor
: : 可是降維之後 再去做datamining的classification研究
: : 結果效果反而變差了 可是學長說 降低維度後的分類結果才有意義
: : 可是
: : 特徵太多分類結果更好 可是我又沒有很充足的證據推翻旋長說的
: : 特徵太多的分類結果是沒意義的
: 一點淺見供參考
: 基本上對於分類問題來說
: 找到真正重要的分類特徵比較重要
: 如果能以最少的分類特徵數達到最好的分類效果當然是最好
: 所以如果說有100個分類特徵如果全部用下去也見得比只用50個較重要的變數好
: 所以也不能說學長說的是錯的
: 降低特徵維度方法很多 是比較少聽到用PCA的方法
: 因為一般來講PCA將各變數作線性組合後很難有實質上的意義
: 除非資料本身的特性可容許這樣做
'請問除了PCA以外,還有沒有別的方法是用來降低維度的較好方法呢?
目前是使用feature selection algorithm來選features。
但是我目前實驗的結果都是特徵刪越多效果越差
不過學長堅持特徵太多是沒有意義的
: 要講好處大概就是各維度之間是獨立的
: 同樣的若作因素分析多少也會遇到同樣的問題
: 因此建議可從眾多特徵變數當中挑出重要的變數來降低維度
: 看效果會不會比較好
--
※ 發信站: 批踢踢實業坊(ptt.cc)
◆ From: 140.116.243.66
討論串 (同標題文章)