PTT
網頁版
登入/註冊
新聞
熱門文章
熱門看板
看板列表
作者查詢
最新文章
我的收藏
最近瀏覽
看板名稱查詢
批踢踢 PTT 搜尋引擎
看板
[
Statistics
]
討論串
[問題] 請問經過PCA後的資料若反而對DATAMININ …
共 6 篇文章
排序:
最新先
|
最舊先
|
留言數
|
推文總分
內容預覽:
開啟
|
關閉
|
只限未讀
首頁
上一頁
1
2
下一頁
尾頁
#6
Re: [問題] 請問經過PCA後的資料若反而對DATAMININ …
推噓
1
(1推
0噓 1→
)
留言
2則,0人
參與
,
最新
作者
question18
(晡)
時間
17年前
發表
(2008/06/16 14:22)
,
編輯
資訊
0篇文章回應此文
0
內文有0個圖片
image
0
內文有0個連結
link
0
內容預覽:
請問svd是什麼意思呢. --.
※
發信站:
批踢踢實業坊(ptt.cc)
. ◆ From: 140.116.164.183.
#5
Re: [問題] 請問經過PCA後的資料若反而對DATAMININ …
推噓
0
(0推
0噓 0→
)
留言
0則,0人
參與
,
最新
作者
question18
(晡)
時間
17年前
發表
(2008/06/16 01:49)
,
編輯
資訊
0篇文章回應此文
0
內文有0個圖片
image
0
內文有0個連結
link
0
內容預覽:
謝謝您的指教. 我先去查一下這個理論的意思. 如果有要把相似的特徵去除. PCA應該是一個方法,不過若是降維後分類效果沒有提升的話,. 做降維的貢獻除了1.減少類似的特徵外,還有其它的好處嗎?. 例如,提升分類的準確率之類的效果. --.
※
發信站:
批踢踢實業坊(ptt.cc)
. ◆ From:
#4
Re: [問題] 請問經過PCA後的資料若反而對DATAMININ …
推噓
0
(0推
0噓 0→
)
留言
0則,0人
參與
,
最新
作者
smallworld
(路人系草包)
時間
17年前
發表
(2008/06/16 01:16)
,
編輯
資訊
0篇文章回應此文
0
內文有0個圖片
image
0
內文有0個連結
link
0
內容預覽:
用dimension reduction去查就很多了. 你學長的說法應該是有道理的. 特徵太多務必要把那些相似 沒有分辨能力的特徵排除. 參考ugly duckling theorem. 雖然此類的技巧很多 但是有些方法在統計上很難有直覺的解釋. 比如manifold dimension reduc
#3
Re: [問題] 請問經過PCA後的資料若反而對DATAMININ …
推噓
0
(0推
0噓 0→
)
留言
0則,0人
參與
,
最新
作者
question18
(晡)
時間
17年前
發表
(2008/06/15 23:55)
,
編輯
資訊
0篇文章回應此文
0
內文有0個圖片
image
0
內文有0個連結
link
0
內容預覽:
'請問除了PCA以外,還有沒有別的方法是用來降低維度的較好方法呢?. 目前是使用feature selection algorithm來選features。. 但是我目前實驗的結果都是特徵刪越多效果越差. 不過學長堅持特徵太多是沒有意義的. --.
※
發信站:
批踢踢實業坊(ptt.cc)
. ◆
#2
Re: [問題] 請問經過PCA後的資料若反而對DATAMININ …
推噓
0
(0推
0噓 0→
)
留言
0則,0人
參與
,
最新
作者
skyclouder
(塵‧物換星移)
時間
17年前
發表
(2008/06/15 20:17)
,
編輯
資訊
0篇文章回應此文
0
內文有0個圖片
image
0
內文有0個連結
link
0
內容預覽:
一點淺見供參考. 基本上對於分類問題來說. 找到真正重要的分類特徵比較重要. 如果能以最少的分類特徵數達到最好的分類效果當然是最好. 所以如果說有100個分類特徵如果全部用下去也見得比只用50個較重要的變數好. 所以也不能說學長說的是錯的. 降低特徵維度方法很多 是比較少聽到用PCA的方法. 因為一
(還有274個字)
首頁
上一頁
1
2
下一頁
尾頁