[問題] 請問相對效率之於檢定力的關係
大家好,我是統計半新手@@
最近高統上到RB-p design
有講到「相對效率」, relative efficiency 這個名詞
我對這個名詞的認識是
他的算法是 MSWG / MSRES
在資料如果有match的效果(不是random)時,這個值會比較大
如果資料是隨機的,則理論上是 1
此外,如果資料不是隨機的,
用RB-p design下去跑統計,得到的F值會比較大,比較容易達顯著
若是隨機的,用CR-p或RB-p做,F值會差不多
但因為RB-p的F值的分母自由度較小(一部分自由度花在估計π上)
查表的臨界值會比較大,與CR-p相比,就比較不容易達顯著
以上是我對相對效率的理解,那我想請問的問題是:
1.為甚麼實際產生隨機資料之後,用spss跑出來ANOVA table,
再回去算這個相對效率,會有小於 1 的情況產生?
(有算到.95多的值,是因為spss四捨五入的誤差?)
2.容易顯著與否跟檢定力的關係是??
我的想法是,H1固定
RB-p相較於CR-p會花費一部分的自由度在π效果上,
因此,RB-p的F值的分母自由度就會比CR-p來得小,
造成臨界值變大(右移),而檢定力會下降。
但是,題目的問法讓人產生一種
「當相對效率高時,RB-p設計的檢定力較大」的感覺
所以,不曉得自己這樣理解是不是哪裡疏忽了
第一次在統計板上面發文,有點落落長的感覺
多說了一點自己的想法是想請大家「除錯」...
先謝謝大家了 ~!!
--
※ 發信站: 批踢踢實業坊(ptt.cc)
◆ From: 118.168.35.245
※ 編輯: apporience 來自: 118.168.35.245 (01/03 00:41)