Re: [問題] 請問經過PCA後的資料若反而對DATAMININ …

看板Statistics作者 (晡)時間17年前 (2008/06/15 23:55), 編輯推噓0(000)
留言0則, 0人參與, 最新討論串3/6 (看更多)
※ 引述《skyclouder (塵‧物換星移)》之銘言: : ※ 引述《question18 (晡)》之銘言: : : 請問一下 : : 學長說我的特徵太多,所以要使用PCA(principle analysis)降低feature dimension : : 將100多個feature降低為10個factor : : 可是降維之後 再去做datamining的classification研究 : : 結果效果反而變差了 可是學長說 降低維度後的分類結果才有意義 : : 可是 : : 特徵太多分類結果更好 可是我又沒有很充足的證據推翻旋長說的 : : 特徵太多的分類結果是沒意義的 : 一點淺見供參考 : 基本上對於分類問題來說 : 找到真正重要的分類特徵比較重要 : 如果能以最少的分類特徵數達到最好的分類效果當然是最好 : 所以如果說有100個分類特徵如果全部用下去也見得比只用50個較重要的變數好 : 所以也不能說學長說的是錯的 : 降低特徵維度方法很多 是比較少聽到用PCA的方法 : 因為一般來講PCA將各變數作線性組合後很難有實質上的意義 : 除非資料本身的特性可容許這樣做 '請問除了PCA以外,還有沒有別的方法是用來降低維度的較好方法呢? 目前是使用feature selection algorithm來選features。 但是我目前實驗的結果都是特徵刪越多效果越差 不過學長堅持特徵太多是沒有意義的 : 要講好處大概就是各維度之間是獨立的 : 同樣的若作因素分析多少也會遇到同樣的問題 : 因此建議可從眾多特徵變數當中挑出重要的變數來降低維度 : 看效果會不會比較好 -- ※ 發信站: 批踢踢實業坊(ptt.cc) ◆ From: 140.116.243.66
文章代碼(AID): #18LJk7om (Statistics)
討論串 (同標題文章)
文章代碼(AID): #18LJk7om (Statistics)