Re: [問題] 請問經過PCA後的資料若反而對DATAMININ …
用dimension reduction去查就很多了
你學長的說法應該是有道理的
特徵太多務必要把那些相似 沒有分辨能力的特徵排除
參考ugly duckling theorem
雖然此類的技巧很多 但是有些方法在統計上很難有直覺的解釋
比如manifold dimension reduction之類
試過SVD了嗎
※ 引述《question18 (晡)》之銘言:
: ※ 引述《skyclouder (塵‧物換星移)》之銘言:
: : 一點淺見供參考
: : 基本上對於分類問題來說
: : 找到真正重要的分類特徵比較重要
: : 如果能以最少的分類特徵數達到最好的分類效果當然是最好
: : 所以如果說有100個分類特徵如果全部用下去也見得比只用50個較重要的變數好
: : 所以也不能說學長說的是錯的
: : 降低特徵維度方法很多 是比較少聽到用PCA的方法
: : 因為一般來講PCA將各變數作線性組合後很難有實質上的意義
: : 除非資料本身的特性可容許這樣做
: '請問除了PCA以外,還有沒有別的方法是用來降低維度的較好方法呢?
: 目前是使用feature selection algorithm來選features。
: 但是我目前實驗的結果都是特徵刪越多效果越差
: 不過學長堅持特徵太多是沒有意義的
: : 要講好處大概就是各維度之間是獨立的
: : 同樣的若作因素分析多少也會遇到同樣的問題
: : 因此建議可從眾多特徵變數當中挑出重要的變數來降低維度
: : 看效果會不會比較好
--
※ 發信站: 批踢踢實業坊(ptt.cc)
◆ From: 123.193.83.130
討論串 (同標題文章)