作者查詢 / kerwinhui
作者 kerwinhui 在 PTT [ Statistics ] 看板的留言(推文), 共87則
限定看板:Statistics
看板排序:
全部Math898HatePolitics293Linux202Eng-Class169Statistics87Chemistry86Physics84NTU64C_and_CPP45IA45LaTeX38Fortran23politics22trans_math19LinuxDev18Francais10nb-shopping10Gossiping9Python8Tennis8CodeJob7Notebook6TY_Research6Option5Prob_Solve5Teacher4Football3PC_Shopping3Editor2About_Life1L_SecretGard1PublicIssue1Sandy1Soft_Job1Valen1<< 收起看板(35)
1F→: (1+ρ)/(1-ρ)=6.9199 得 ρ=(6.9199-1)/(6.9199+1)07/05 19:55
12F推: 是沒有那麼流行,contingency table都有exact test了06/14 16:36
13F→: 而且Yates' continuity correction很多時候是太strict06/14 16:37
14F→: 所以除非是2x2而且expected frequency太低,否則不會用06/14 16:38
15F→: 可參考David Hitchcock 2009年的paper06/14 16:39
16F→: http://people.stat.sc.edu/Hitchcock/yates75tech.pdf06/14 16:39
17F→: 當然,考試會不會考和實際要不要用是兩回事06/14 16:48
1F推: 檢定一和檢定二是一樣的結果,但解釋不一樣11/15 15:02
3F推: r_i=y_i-yhat_i, Cov(r)=Cov(y-Py)=(I-P)cov(y)(I-P)10/25 00:45
4F→: P=X(X^TX)^{-1}X^T, X=(1 x_i) (nx2矩陣)10/25 00:48
5F→: Cov(y)=sigma^2 I,所以 var(r_i)=sigma^2 (1-P_ii)10/25 00:49
7F→: sum P_ii=tr P=tr X^TX(X^TX)^{-1}=tr I_2=2,所以得証10/25 00:59
1F→: 因為 yhat=x 並不是這幾個點的迴歸線…09/10 22:56
3F→: 你展開 SSR+SSE 看看就知道為什麼不是 SSTO 了09/10 23:24
3F→: 不建議學C++,要學R直接學S或R好了08/30 14:20
4F→: 要學生物統計是指簡單的還是Post-doc research的?花的08/30 14:21
5F→: 時間大有不同…08/30 14:21
12F→: 也有可能(1)是大數法測08/24 01:59
13F→: (2)就可能是說用大數法則定義機率的死循環,直到上世紀08/24 02:02
14F→: 發展出 frequentist 和 Bayesian 兩種不同的統計學08/24 02:04
15F→: (3)除了yhliu上述的答案,還有就是樣本之間獨立的問題08/24 02:13
22F→: 看你怎樣定義"推論"。大數法則拿來堆論是 Bernoulli08/24 22:25
23F→: 1713 年開始,Laplace 的 direct probabilty 是 177408/24 22:26
24F→: 高斯正態分佈的推論(finite variance)是 1809 年,08/24 22:28
25F→: 高斯拿小樣本是1823-28 年,所以除非你把之前一百多年08/24 22:32
26F→: 的統計學都不算(那貝葉斯就肯定不關推論統計什麼事了)08/24 22:34
27F→: 大數法則不需要樣本≒群體,在沒有Kolmogorov/Salvage/08/24 22:37
28F→: ...的機率論之前就已經在用了08/24 22:39
29F→: 比如說 Bernoulli 自己就有推論 Bernoulli trial 的 p08/24 22:43
30F→: 會在 N 越大時越穩定,也給了一個 lower bound08/24 22:45
31F→: 感覺若然答案是CLT的話,則出題者必為 frequentist…08/24 22:52
46F→: Bernoulli也有估計誤差啊,怎麼能說太粗糙?當然,他給08/26 11:51
47F→: 的誤差現在看來是很粗糙的。08/26 11:52
48F→: 我想我們的分歧是在於『推論統計』的定義上,若你把它08/26 11:55
49F→: 定義成 R.A.Fisher 的那一套上,當然可以說CLT是始祖08/26 11:58
50F→: 但若是定義廣泛一點,像 Cox 的 Principles of Stat.08/26 11:59
51F→: Inferences 的那樣,那麼weak LLN是第一步08/26 12:05
52F→: 因為它給了plug-in principle作為parameter estimation08/26 12:07
53F→: 然後才是『這個估算有多好?』的CLT,Edgeworth,...08/26 12:08
54F→: 能夠扯出 frequentist vs Bayesian 是因為 Bayesian 的08/26 12:09
55F→: 幾個中央極限定理在歷史上出現的時間都是頗後期的08/26 12:10
56F→: 而且Bayesian推論是根本可以不用asymptotics的08/26 12:12
57F→: 不用,CLT只要有獨立+有限一、二次矩都可以用,也有08/26 23:20
58F→: 非同分佈的版本、非獨立但相距"不遠"也可以在2+delta次08/26 23:24
59F→: 矩有限時用08/26 23:25
87F→: 的確,Wilcox好像出過幾份paper說明這個n>30仍然是不夠09/03 17:03
88F→: 大,主要原因是不知道σ的情況下s^2會偏離χ^2分佈09/03 17:05
89F→: 忘了說,30這個神奇的數字其實是來自於Student(t分佈的09/03 17:22
90F→: 那個)曾經說過他自己的經驗是correlation correction09/03 17:24
91F→: factor在兩個獨立抽樣, n=30時大概沒影響了,之後就被09/03 17:26
92F→: 人誤用至今…09/03 17:26
1F推: Breusch-Pagan test?08/18 00:52