Re: [問題] 請問經過PCA後的資料若反而對DATAMININ …

看板Statistics作者 (路人系草包)時間17年前 (2008/06/16 01:16), 編輯推噓0(000)
留言0則, 0人參與, 最新討論串4/6 (看更多)
用dimension reduction去查就很多了 你學長的說法應該是有道理的 特徵太多務必要把那些相似 沒有分辨能力的特徵排除 參考ugly duckling theorem 雖然此類的技巧很多 但是有些方法在統計上很難有直覺的解釋 比如manifold dimension reduction之類 試過SVD了嗎 ※ 引述《question18 (晡)》之銘言: : ※ 引述《skyclouder (塵‧物換星移)》之銘言: : : 一點淺見供參考 : : 基本上對於分類問題來說 : : 找到真正重要的分類特徵比較重要 : : 如果能以最少的分類特徵數達到最好的分類效果當然是最好 : : 所以如果說有100個分類特徵如果全部用下去也見得比只用50個較重要的變數好 : : 所以也不能說學長說的是錯的 : : 降低特徵維度方法很多 是比較少聽到用PCA的方法 : : 因為一般來講PCA將各變數作線性組合後很難有實質上的意義 : : 除非資料本身的特性可容許這樣做 : '請問除了PCA以外,還有沒有別的方法是用來降低維度的較好方法呢? : 目前是使用feature selection algorithm來選features。 : 但是我目前實驗的結果都是特徵刪越多效果越差 : 不過學長堅持特徵太多是沒有意義的 : : 要講好處大概就是各維度之間是獨立的 : : 同樣的若作因素分析多少也會遇到同樣的問題 : : 因此建議可從眾多特徵變數當中挑出重要的變數來降低維度 : : 看效果會不會比較好 -- ※ 發信站: 批踢踢實業坊(ptt.cc) ◆ From: 123.193.83.130
文章代碼(AID): #18LKw8ag (Statistics)
討論串 (同標題文章)
本文引述了以下文章的的內容:
以下文章回應了本文 (最舊先):
完整討論串 (本文為第 4 之 6 篇):
文章代碼(AID): #18LKw8ag (Statistics)