Re: [問題] 迴歸分析、因素分析、集群分析
初淺的回答一下,若有誤,再麻煩板友幫忙指正,謝謝
※ 引述《blacklove (Tom)》之銘言:
: 各位版友大家好,
: 由於自己是經濟出身,比較少碰到尺度的資料,
: 有些觀念希望版友們有空的話,能不能幫忙釐清呢?謝謝你們了。
: 問題一:如果說迴歸中的依變項是區間尺度(非常重要~非常不重要),
: 那依變項是不是就不符合常態分配的假設呢?
: (我的觀念中,好像沒有上下限的依變項,才有可能會有成為常態分配的機會?)
: 這樣還能使用一般OLS的迴歸分析嗎?
回歸分析的假設,並不在依變數,而是殘差,這一點請切記
所以請去看殘差分布為何,不需太在意依變數
: 問題二:有人建議這樣的方式,需要使用ordinal logistic regression??但需要對
: 依變項進行proposional檢驗。由於一般問卷統計的書籍,也有直接使用regression,
: 想請教說使用ordinal與一般迴歸,有什麼不一樣呢?
可以使用ordinal logistic regression
ordinal看的東西跟一般回歸可以看的到不一樣,係數解釋方式也不同
ordinal係數要做odds ratio來解釋
: 問題三:當變項是區間尺度(重要~不重要,進行排序),還能夠使用因素分析嗎?
: 不知道在因素分析理論中,有沒有對此進行假設。
: 而名目尺度(轉換成1/0時),能夠與其它區間或比率尺度變項,一同進行因素分析嗎?
因素分析假設是假設其殘差為多元常態,不過甚少看到有人做這個檢驗
名目尺度實不宜放入做討論。
: 問題四:當需要對「人」進行集群分析時,變項如果是區間尺度,
: 或是轉換成dummy(1/0)的名目尺度,這些也可以進行一起納入進行集群分析的變項嗎?
: 不知道理論中,有沒有對此有相關的限制呢?
請問集群分析的方法為何?
k-means自然不行,但是近年有許多方法去量測個尺度的距離
應該都能找到相對應方式,只是適不適宜就要看個人了
: 因為這些問題困擾我好多年了,網路上查也沒辦法直接回答我的疑惑,希望有空的版友
: 順手回答一下囉!謝謝你了。
--
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 180.218.154.163
※ 文章網址: https://www.ptt.cc/bbs/Statistics/M.1450890814.A.C5B.html
推
12/24 02:53, , 1F
12/24 02:53, 1F
感謝指點
推
12/24 12:28, , 2F
12/24 12:28, 2F
→
12/24 12:28, , 3F
12/24 12:28, 3F
glm是廣稱,廣義上來說,response非整個實數線都可以稱之為glm
透過一個link function將response轉到實數線上,與covariates構成線性關係,便是GLM
EX: lognormal regression or gamma regression 其response都是恆正的正數
以link function: log 可得到 log(mu) = XB
其中,mu是E(Y),Y是response,X是covariates,B是回歸係數
但是你不能用glm with nonnegative response去稱呼lognormal or gamma reg.
所以glm with multicategorical variables並非特指ordinal logistic regression
而是所有可以處理multicategorical variables的link function之linear model...
ordinal logistic regression的link function是logit link
推
12/24 12:54, , 4F
12/24 12:54, 4F
→
12/24 12:54, , 5F
12/24 12:54, 5F
→
12/24 12:54, , 6F
12/24 12:54, 6F
推
12/24 13:00, , 7F
12/24 13:00, 7F
→
12/24 13:00, , 8F
12/24 13:00, 8F
區間尺度? 順序尺度拉XDD 劉老師在你的文章糾正囉XD,要用對詞
順序尺度可使用。
順序使度是按照程度高低作排序,所以非常重要到非常不重要是為此類
不過也有人說 非常重要到非常不重要也是區間尺度
這個說法是在每一個程度之間的差異是相當,方可這樣稱呼
因此,順序尺度較為合適XD
※ 編輯: celestialgod (140.109.74.87), 12/24/2015 13:38:21
討論串 (同標題文章)
本文引述了以下文章的的內容:
完整討論串 (本文為第 2 之 2 篇):