■SDとSE
前回のコラムは,SD(標準偏差)とSE(標準誤差)の話が発端でした。今回はSDとSEに関連して,標本分布論の初歩となる部分を簡単に解説してみたいと思います。
===================================
(1)標本分布論
確率分布の特徴を表わすために,中心の尺度として母平均μ=E[x],変動の尺度として母分散σ2=E[(x-μ)^2]がよく使われます。μやσ2はモデルとしての確率分布を特徴づける定数であって観測不能な値です。これに対して,観測データから計算される平均m=Σxi/nは母平均と区別するため標本平均と呼ばれます。同様に,実際のデータから計算されるs2=Σ(xi-m)2/nは標本分散と呼ばれます。また,標本分散s2=Σ(xi-m)2/nのnの代わりにn−1で割ったものを,u2で表わし,u2=Σ(xi-m)2/(n-1)は標本不偏分散と呼ぶことにします。ここで,ns2=(n-1)u2の関係が成り立ちます。
分布の母数と実際の標本から得られる統計量は区別して扱う必要があります。標本平均や標本分散など,観測の結果に依存する関数は統計量と呼ばれますが,一般に,x1,・・・,xnのn個の観測値の関数tn=t(x1,・・・,xn)を統計量と呼びます。標本平均や標本分散は観測の結果に依存する関数であり,代表的な統計量(推定量)です。
x1,・・・,xnの同時分布から統計量tnの分布を求めるには多重積分が必要となりますから,一般の母集団について,統計量tnの分布は明示的に求まらないことが多いのですが,正規分布母集団を仮定すると,多くの統計量についてその標本分布が明示的に求められます。また,正規分布以外の一般の分布を仮定した場合には,統計量tnの分布を正確に求めることが困難であり,そのような場合には標本の大きさnが大きいときの近似理論が用いられます。
(2)正規母集団からの標本平均の分布
正規母集団N(μ,σ2)からn個のデータを取ってその標本平均値m=Σxi/nを計算すると母平均μに近い値が得られます。正規分布の従う確率変数の変数の和の分布は正規分布にしたがうという性質があり,標本平均の分布は厳密に正規分布N(μ,σ2/n)であることが証明されます。
E[m]=μ,V[m]=σ2/n
すなわち,母集団のデータのばらつき度合いがσであるのに対し,mは平均μ,標準偏差σ/sqr(n)の幅の狭い正規分布に従うことが示されことになり,このことはnが大きくなると標本平均がμからあまり離れないことを意味します。
ここで,標本平均の標準偏差σ/sqr(n)を母分布の標準偏差σと区別するため,とくに標準誤差(standard error)と呼びます。つまり,標準誤差SEは母平均μの信頼区間を表わす指標であり,未知の母平均μはm±2σ/sqr(n)の範囲に95%が含まれるであろうと予想されます。これに対し,標準偏差SD(=SE×sqr(n))は母分布のばらつきを表わす指標です。
データを整理して図表にまとめる場合に多くの論文で「平均値±標準偏差」に要約して記載されています。ところが,発表された論文をみるとSDとSEの混同が少なからず見られ,甚だしい場合はSDかSEのどちらを用いているか明記されていないことすらあります。母分布のばらつきに関心がある場合はSD,母平均に関心がある場合はSEを用いるべきで,多くの場合,母平均に関心があるわけですから,±表記も避けて,平均値(標準誤差)あるいは平均値(2×標準誤差)と書くことを勧めます。母平均がこの範囲内に入る割合は,正規分布であればそれぞれ68%,95%となります。
このことを知って正しく使い分けて下さること,少なくともどちらを用いているかを明記することを,この機会に是非お願いしたいと思います。
(3)正規母集団からの標本分散の分布
つぎに,「母集団分布が正規分布であるとき,標本分散と母分散の比はχ2分布にしたがう」すなわち
(n-1)u2/σ2〜χ2(n-1)
ns2/σ2〜χ2(n-1)
という統計的性質を使って,標本分散(の平方根)の分布がどうなるかを考えてみることにします。
まず最初に,uの分布を求めてみることにしましょう。
自由度n-1のχ2分布は
f(x)dx=1/2^((n-1)/2)Γ((n-1)/2)x^((n-3)/2)exp(-x/2)dx
で表されますから,
x=(n-1)u2/σ2で変数変換すると
uの分布:
g(u)du=1/2^((n-1)/2)Γ((n-1)/2)((n-1)u2/σ2)^((n-3)/2)exp(-(n-1)u2/2σ2)2(n-1)u/σ2du
が得られます。
次に,標本分散の期待値と分散を求めてみましょう。
E[u^k]=integral(0-∞)u^kg(u)du
において,(n-1)u2/2σ2=tとおいて整理すると,
E[u^k]=σ^kΓ((n-1)/2+k/2)/Γ((n-1)/2)(2/(n-1))^(k/2)
が得られます。
この式は,シュワール(Shewhart)の公式と呼ばれます。ガンマ関数の計算になれていないと,この式の誘導は難しいので,おしつけがましく結果だけを書いておきますが,ここでは,とりあえず,信じるものは救われる。ホレ信じなさい。というわけです。(天下り式で我慢できないかたはガンマ関数を参照しながら誘導を試みられたい。)
これより,k=1の場合,
E[u]=σΓ(n/2)/Γ((n-1)/2)(2/(n-1))^(1/2)
したがって,
E[uΓ((n-1)/2)/Γ(n/2)((n-1)/2)^(1/2)]=σ
となり,uΓ((n-1)/2)/Γ(n/2)((n-1)/2)^(1/2)が,σの不偏推定値です。
同様にして
k=2ではE[u2]=σ2(σ2の不偏推定値はu2)
k=3ではE[u3Γ((n-1)/2)/Γ(n/2+1)((n-1)/2)^(1/2)]=σ3
k=4ではE[(n-1)/(n+1)u4]=σ4
が成立します。
標本不偏分散u2の期待値が母分散σ2に一致することが確かめられましたが,上のことを利用すると簡単に標本不偏分散の分散が求まります。
E[u2]=σ2
E[u4]=σ4(n+1)/(n-1)
V[u2]=E[(u2-E[u2])2]=E[u4]-E[u2]2
=σ4(n+1)/(n-1)-σ4=2σ4/(n-1)
(4)不偏推定量と最尤推定量
推定値θ'の期待値E[θ']が推定しようとしている母数θに等しい場合,その推定量を不偏推定量と呼びます。
E[θ']=θ
不偏性は推定量に対する妥当性の基準としてもっとも普通に用いられる基準であり,母集団分布が正規分布の場合,標本平均は母平均の不偏推定量です。
E[m]=μ
一方,最尤法とは分布型がわかっている場合に,具体的に推定量を作り出すひとつの方法を与える考え方で,実現値が与えられたときにその実現値を与える確率(尤度関数)を最大にするような母数の推定値を最尤推定量と呼びます。最尤法の詳細については割愛し,ここでは事実だけを述べますが,μとσ2をそれぞれ母平均,母分散とする正規母集団N(μ,σ2)からの標本の場合,標本平均は母平均の不偏かつ最尤推定量です。平均の不偏推定量と最尤推定量は一致しますが,両方の推定量がいつも一致するとは限りません。
たとえば,標本分散s2は母分散σ2の最尤推定量ですが,
E[s2]=E[1/n(x-m)2]=1/nE[(x-μ)2]-1/nE[(m-μ)2]
=σ2−σ2/n
より偏り−σ2/nをもっていて,不偏推定量ではありません。
偏差平方和を(n−1)で割った不偏分散u2=Σ(xi-m)2/(n-1)は最尤推定量ではなく,推定値の期待値が母分散σ2と一致する不偏推定量となっています(E[u2]=σ2:この主張は正規分布以外の任意の独立同分布確率変数についても成立する。)このように分散の不偏推定量と最尤推定量は一致しません。
一方,標本分散s2の平方根sは最尤標準偏差ですが,不偏分散u2の平方根uは不偏標準偏差にはなりません。母標準偏差σの不偏推定量,すなわち,E[d]=σなるdは,
d=sqr(n/2)Γ{(n-1)/2}/Γ(n/2)s
=sqr{(n-1)/2}Γ{(n-1)/2}/Γ(n/2)u
で与えられます。ここで,sやuの係数は1より大きい値を示すところから,d>u>sになります。
ついでに,σ4の不偏推定値としてはu4を使えばよいのだろうかという問題の解答も掲げておきます。結論だけかいておくと
n2/(n2-1)s4=(n-1)/(n+1)u4=1/(n2-1){Σ(xi-m)2}2
(5)スチューデントのt分布(不偏推定値?,最尤推定値?)
測定では一般に母分散σ2を知ることはできません。そのかわり,何回かの測定のばらつきからnで割った標本分散s2とn−1で割った標本不偏分散u2が求められます。
s2=Σ(xi-m)2/n
u2=Σ(xi-m)2/(n-1)
スチューデントやウェルチのt検定では母分散σ2の代わりにその推定値を使うことになりますが,この推定量としては標本分散s2と標本不偏分散u2が考えられます。nが大きいとき標本分散s2と標本不偏分散u2の差は小さくなりますから,あまり問題にはなりませんが,nが小さいときにはその違いは案外大きくなります。
標本分散s2は母分散σ2の最尤推定量,標本不偏分散u2は不偏推定量になっていることを喚起しておきましたが,それでは母分散σ2の推定量としてどちらが好ましいのでしょうか?
標本分散s2はσ2の最尤推定量であるだけでなく,その平方根もまたσの最尤推定量です。一方,標本不偏分散u2の平方根uはσの不偏推定量にはなっていません。標本分散の平方根を用いると最尤推定量の一つの枠の中で議論できるという強みをもっているため,その意味で,u2でなくs2を使うべきだと主張する人もいます。
結論からいうと,母分散σ2の代わりにはその不偏分散u2が使われます。
1。「nで割る標本分散」は本来の分散σ2より小さい方に偏った答えを与える傾向があり,とくに,実験データのようにデータが少数の場合,このような偏りを補正するために「n−1で割る不偏分散」を使うべき
2。母標準偏差の不偏推定量,
d=sqr(n/2)Γ{(n-1)/2}/Γ(n/2)s
=sqr{(n-1)/2}Γ{(n-1)/2}/Γ(n/2)u
の定数がt分布の確率密度関数の定数であるから,
というのがもっともらしい理由としてあげられますが,これらは二義的な理由にすぎません。
t分布とのつながりを考えるとき,不偏分散(の平方根)でないといけないというのが第一義的な理由です。この節ではこのことを証明したいと思います。
(証明)
n個の観測値の標本平均と母平均の差(距離)を不偏標本分散の平方根で割った統計量t=(m-μ)/u/sqr(n)の分布が自由度n−1のt分布に従うことは,ゴセットが最初に発見し,フィッシャーが厳密に証明したことは歴史的事実として有名です。フィッシャーは統計量tの分布をn次元ユークリッド空間を使って導きましたが,オリジナルの導出法は多重積分が必要となりわずらわしいので,再び,「母集団分布が正規分布であるとき,標本不偏分散と母分散の比はχ2分布にしたがう」という統計的性質を使って求めてみることにします。
(3)節と同様にして,σの分布は
g(σ)dσ=1/2^((n-1)/2)Γ((n-1)/2)((n-1)u2/σ2)^((n-3)/2)exp(-(n-1)u2/2σ2)2(n-1)u2/σ3dσ
で与えられます。
標本平均xの分布はN(μ,σ2/n)すなわち
f(x)dx=sqr(n/2π)/σ-exp(-n(x-μ)^2/2σ^2)
であり,σの分布も上記の式で与えられますから,分布の混合によって
h(x)=integral(0-∞)f(x,σ)g(σ)dσ
=sqr(n/2π(n-1))Γ(n/2)/Γ((n-1)/2)u^(n-1){n/(n-1)(x-μ)2+u2}
ここで,(x-μ)/u/sqr(n)=tと変数変換すると
h(μ)dμ=1/sqr(π(n-1))Γ(n/2)/Γ((n-1)/2){1+t2/(n-1)}^(-n/2)dt
より
h(t)=1/sqr(π(n-1))Γ(n/2)/Γ((n-1)/2){1+t2/(n-1)}^(-n/2)
このようにして母集団の分散によらない分布が構成されます。この分布は自由度n−1のt分布にほかなりません。これより,「xがN(0,1),yが自由度nのχ2 分布に従うとき,t=x/sqr(y/n)は自由度nのt分布に従う。」という統計的性質が得られます。また,これによりt分布は正規分布よりも裾の重い混合正規分布の1つと考えることができます。
参考までに,x=ns2/σ2で変数変換すると,sの分布は
g(s)ds=1/2^((n-1)/2)Γ((n-1)/2)(ns2/σ2)^((n-3)/2)exp(-ns2/2σ2)2ns/σ2ds
で与えられます。したがって,t'=(x-μ)/s/sqr(n)の分布は
h(t')=1/sqr(πn)Γ(n/2)/Γ((n-1)/2){1+t2/n}^(-n/2)
となり,t分布とは異なっています。とりあえず,t’分布と名付けることにします。この分布はn→∞のとき正規分布に収束しますが,n=2のとき
h(t')=1/{sqr(2)π}{1+t2/2}^(-1)
となり,コーシー分布の幅を拡げたような分布になります。
(6)標本平均の漸近分布(中心極限定理)
「独立な確率変数xiがいずれも同一の平均値μと分散σ2をもつような任意の分布に対して,その標本平均の確率分布はn→∞の極限で正規分布N(μ,σ2/n)になる。」
このような内容の定理を「中心極限定理」といい,自然界における正規分布の普遍性を説明する1つの根拠とされています。中心極限定理にはいろいろなバリエーションがあり,s=(x1+x2+・・・+xn)/nとすると,標本平均s/nが適当な条件のもとで正規分布N(μ,σ2/n)に,s/sqr(n)がN(sqr(n)μ,σ2)に,あるいはsがN(nμ,nσ2)に収束することを示したものの総称です。
正規分布の積率母関数は,M(t)=exp(μt+σ2t2/2)ですから,キュムラント母関数はμt+σ2t2/2です。すなわち,正規分布では3次以上のキュムラントは0になりますから,ある分布が正規分布に近いかどうかを確かめるには,3次以上のキュムラントが0に近いかどうかを見ればよいことになります。キュムラント母関数を用いて,中心極限定理を証明してみましょう。
(証明)
独立な確率変数xiがいずれも同一の平均値μ,分散σ2と積率母関数M(t)をもつものとすると,n個の変数の和s=(x1+x2+・・・+xn)の積率母関数は,
M(t)=[Mx(t)]^n
したがって,z=s/sqr(n)とすると,その積率母関数は
Mz(t)=[Mx(t/sqr(n))]^n
これよりzのキュムラント母関数は
nlogMx(t/sqr(n))=n{κ1t/sqr(n)+κ2/2t^2/n+κ3/6(t/sqr(n))^3+・・・}
=sqr(n)μt+σ2/2t^2+κ3/6t^3/sqr(n)+・・・
r次のキュムラントはκrn^(-r/2+1)となって,n→∞のとき,3次以上のキュムラントが0に近づく。すなわち,s/sqr(n)はN(sqr(n)μ,σ2)に収束する。(厳密な証明ではありません)
(7)標本中央値の漸近分布
正規母集団以外であっても,その母平均,母分散をそれぞれμ,σ2として,標本平均値の分布が漸近的に正規分布N(μ,σ2/n)になることは高校の教科書にも取り上げられて,標本平均値についての統計的性質は「中心極限定理」としてよく知られています。しかし,標本中央値の漸近分布を取り上げたものは少ないようです。
以下では,標本中央値に関する極限定理「母集団のメジアンをμmとすると,メジアンの分布は漸近的に正規分布N(μm,1/{4n[f(μm)]^2})になる」ことを証明してみます。
(証明)
標本中央値の分布において,簡単のために,標本の大きさnを奇数とし,n=2m+1とおく。n=2m+1のとき,中央値x(m+1)の確率密度関数は
g(x)=(2m+1)!/(m!)2F(x)^m{1-F(x)}^mf(x)
で与えられる。母集団分布が一様分布や指数分布のときこれは簡単な形になるが,正規母集団のときには簡単にはならない。
xがg(x)=(2m+1)!/(m!)2F(x)^m{1-F(x)}^mf(x)にしたがうとき,
u=(x-μm)/sqr(1/{4n[f(μm)]^2})=2sqr(n)f(μm)(x-μm)が漸近的にN(0,1)にしたがうことを示せばよい。
uの確率密度関数は,x=u/2sqr(n)f(μm)+μm,dx=du/2sqr(n)f(μm)より,
h(u)du=g(x)dx=g(u/2sqr(n)f(μm)+μm)/2sqr(n)f(μm)du
h(u)=g(u/2sqr(n)f(μm)+μm)/2sqr(n)f(μm)
=(2m+1)!/(m!)2*{integral(-∞-u)f(t)dt*integral(u-∞)f(t)dt}^mf(u/2sqr(n)f(μm)+μm)/2sqr(n)f(μm)
ここで,n→∞のときの極限を考える。
スターリングの法則
m!=sqr(2π)m^(m+1/2)exp(-m)
(2m+1)!=sqr(2π)(2m+1)^(2m+3/2)exp(-2m-1)
を使って簡約化すると
(2m+1)!/(m!)2→1/sqr(2π)*sqr(n)*2^n
また,積分学における第1平均値定理により
{integral(-∞-u)f(t)dt*integral(u-∞)f(t)dt}^m
=2^(-2m){1-[uf(ξ)]2/n[f(μm)]2}^m→2/2^nexp(-u2/2)
f(u/2sqr(n)f(μm)+μm)/2sqr(n)f(μm)→1/2sqr(n)
したがって,h(u)→1/sqr(2π)exp(-u2/2)〜N(0,1)
ここでは直接的に証明しましたが,もっと技巧的な証明法もあり,F(q)=pなる統計量qの漸近分布はN(q,p(1-p)/{n[f(μm)]^2})となることを示すこともできます。ここで,p=1/2とおくと中央値の漸近分布,p=1/4とおくと第1四分位数の漸近分布が得られます。
【補】
スターリングの公式
n!=sqr(2π)n^(n+1/2)exp(-n)より(2n,n)〜2^(2n)/sqr(πn)
母集団分布が正規分布N(μ,σ2)のとき,
f(x)=1/√2πσexp{-(x-μ)2/2σ2}ですから,
μm=μ
f(μm)=1/sqr(2π)σ
となるので,標本中央値の分布は漸近的にN(μ,πσ2/2n)になります。すなわち,母集団分布が正規分布に従うとき,標本平均値と標本中央値は一致しますが,分散は標本中央値のほうが大きくなり,標本中央値の分散は標本平均値の分散のπ/2倍になることが示されます。
これより,標本中央値は標本平均に比べて(σ2/n)/(πσ2/2n)=2/π=0.637(約63。7%)の有効性しかもたないことがわかります。これを漸近相対効率(ARE:asymptotic relative efficiency)といいます。
(8)ロバスト推定量(1):標本中央値
標本平均は,母集団が正規分布N(μ,σ2)に従うとき,それぞれ母平均μ,の不偏推定量であり,かつ,あらゆる不偏推定量のなかで分散が最小です。したがって,正規分布の平均を推定するには,標本平均が一番よい推定量です。しかしながら,母分布が正規でなかったりという状況では必ずしも最適な推定量とはいえませんし,また,標本平均は外れ値の影響を受けやすいという欠点もあります。
標本平均のこの欠点を標本中央値に対する漸近相対効率(ARE)を調べることによって見てみます。前節で示したように
ARE=(中央値の漸近分散/標本平均の漸近分散)-1
=4f2(0)σ2で定義されます。
たとえば自由度νのt分布であれば母分散はν/(ν-2)ですから,標本平均の漸近分散はν/(ν-2)/n,一方,標本中央値の漸近分散は1/4n{f(0)}2=1/4νπΓ2(ν/2)/Γ2((ν+1)/2)/4n
ですから,まとめると以下の表が得られます。
ARE
正規分布 0.68
t分布
(df=3) 1.62
(df=4) 1.13
(df=5) 0.96
(df=10)0.76
両側指数分布 2
ロジスティック分布 0.82
コーシー分布 ∞
正規分布の場合は標本中央値の分散のほうが大きくなりましたが,表からわかるように,正規分布より少しでも裾が長いと想像されるときには,それがどんな分布であっても,位置母数推定に関しては,標本中央値のほうが標本平均よりAREが1より大きいか,または小さくてもそれ程小さくないという点で優れていると考えられます。この性質を称して,標本中央値は位置母数のロバスト推定量であるといいます。
一般的にいって,順序統計量は外れ値や分布形の非対称性の影響を受けにくい指標であり,たとえば,平均値と中央値を比べてみると,他のデータと非常にかけ離れた値が混入している場合でも,中央値のほうが平均値より狭い範囲に密集するため,安定した結果を与えてくれます。このように極端な値が混入しても,推定量が大きく変動することのないような性質を持った推定量をロバスト推定量といいます。標本平均や標本分散は外れ値の影響を受けやすく,頑健とはいえませんが,標本中央値や標本4分位数は外れ値に対して抵抗性があります。そのため,中心位置のロバスト推定量としては中央値,散らばりのロバスト推定量としては4分位偏差や範囲がよく用いられます。正規分布より相当にばらつきに大きいことが想定される場合か,あるいは分布形に関する情報が乏しいときは,ロバスト推定量の使用が薦められます。
(9)ロバスト推定量(2):ホッジス=レーマン推定量
ロバスト推定には大別して3つのクラスがあり,M推定(最尤法に基づくロバスト推定),L推定(順序統計量に基づくロバスト推定),R推定(順位統計量に基づくロバスト推定)があります。
一般に,R推定量は観測値の陽関数として表せないのですが,唯一の例外は母分布がロジスティック分布をとる場合であり,このとき,対応するR推定量はホッジス=レーマン推定量になります。ホッジス=レーマン推定量とは
(x(i)+x(j))/2,1<=i<=j<=n
なる(Σ(n-k+1)=)n(n+1)/2個の中央値のことを指します。これは中央値を一般化した特性値と考えられますが,中央値よりもさらにロバストであり,ウィルコクソンの順位和検定の漸近効率との関係で重要な指標となっています。
ホッジス=レーマン推定量の頑健性を調べてみることにしましょう。証明はハエック「ノンパラメトリック統計学」(日科技連)に譲りますが,ホッジス=レーマン推定量の漸近分散は
φ(t)=2t-1,
φ(t,f)=-f'[F-1(t)]/f[F-1(t)]として,
{integral(0,1)φ(t)φ(t,f)dt}^2/integral(0-1){φ(t)-φ}^2
=12*{integral(-∞,∞)f(x)^2dx}^2
で与えられます。
【補】
integral(0,1)φ(t)φ(t,f)dt=2integral(-∞,∞)f(x)^2dx
integral(0-1)φ(t)=0
integral(0-1){φ(t)}^2=1/3
また,実際に,位置母数θを未知母数とするt分布の位置母数モデルf(x-θ)のフィッシャー情報量を計算すると
V(θ)=(ν+3)/n(ν+1)
が示されます。すなわち,t分布の下で最適な位置母数の推定量を求めると,その分散下限(CRB)は上式のようになることが理解されます。
そこで,ある分布に対してある推定量がどのくらい推定量なのかを,その推定量の分散がCRBを達成している割合で示すことができます。いま,t分布を例にとって,CRBに対する標本平均,標本中央値,ホッジスレーマン推定量の漸近効率
(ν-2)(ν+3)/ν(ν+1)
4f(0)^2(ν+3)/(ν+1)=4/νπ{Γ((ν+1)/2)/Γ(ν/2)}^2(ν+3)/(ν+1)
12*{integral(-∞,∞)f(x)^2dx}^2(ν+3)/(ν+1)
を示すと,
自由度 1 2 3 5 10 ∞
標本平均 0 0 0.5 0.8 0.945 1
標本中央値 0.811 0.833 0.811 0.769 0.712 0.637
ホッジスレーマン 0.61 0.87 0.95 0.99 0.999 0.95
となります。標本平均は自由度5以上ではよいのですが,それ以下では急速に効率が低下します。それに対して,標本中央値やホッジスレーマン推定量は安定していることがわかります。とくに,ホッジスレーマン推定量は自由度4以上で常に95%以上となり,自由度7から15の範囲では99%以上です。
ウィルコクソン検定のように,観測値から順位に変換することで,ある程度の情報を失うことになります。しかし,情報の大部分はその順位の中に残っています。そこで,検定の漸近効率(ピットマン効率)を比較してみることにしましょう。ピットマン効率とは,母分布に応じて平均値の差異に関して最適な検定を想定して,その推定量が最良の推定量と同等の精度をもつために必要なサンプル標本サイズの逆数を示す指標です。
母分布が正規分布のとき,t検定は最適な検定(一様最強力不偏推定)となりますが,t検定に対するウィルコクソン検定のピットマン効率は表より0。95(3/π)と計算されます。これは,観測値のうちの5%を捨てるのと同じことになり,ウィルコクソン検定がt検定と同等の検出力を得るには1/0。95=1。05すなわち5%増のサンプルサイズを要することを意味しています。
【補】F検定に対するクラスカル・ワリス検定も3/π=0。95
F検定に対するフリードマン検定の相対効率は2/π=0。64
しかし,母分布が裾の重い分布に従うときには,ピットマン効率が1以上となり,t検定よりウィルコクソン検定のほうがかえって例数が少なかったりします。たとえば,表より,母分布が自由度5のt分布であれば,最適な検定に対し,t検定では1/0。8=1。25倍,ウィルコクソン検定では1/0。99=1。01倍となり,かえって例数が少なかったりします。このように,母分布が裾の重い分布に従うときには,t検定よりウィルコクソン検定のほうが望ましいことがわかります。
さらに,
y=f(x)をy軸に関して対称な任意の分布としたとき,
integral(-∞,∞)f(x)^2dxの値を付帯条件:integral(-∞,∞)f(x)dx=1,integral(-∞,∞)xf(x)dx=0,integral(-∞,∞)x^2f(x)dx=σ2
の下で最小にすると,最小値は3root(5)/(25σ)となりますから,t検定に対するウィルコクソン検定のピットマン効率は任意の分布に対して12*(3root(5)/25)^2=0。864以上とかなり高い値となり,ウィルコクソン検定は非常に望ましいノンパラメトリック検定法であることがわかります。
(証明)この問題はもっとも不利な分布を求める変分問題である。汎関数を
I(y)=integral(-∞,∞)y^2dxとおくと,ラグランジュの未定乗数法により,
integral(-∞,∞)[2y+λ+μx+νx^2]δydx
したがって,解は放物線型密度関数になる。分布yは偶関数であるから
y=-ax^2+b a>0,b>0
として,付帯条件を満足させるように未定係数を決定すると,
I(y)=3root(5)/(25σ)が示される。
なお,汎関数は関数を変数とする関数のことで,関数の関数と理解されます。統計学では,ノンパラメトリック法における漸近理論を展開するためにしばしば応用されます。
最後に,母分布を対称の範囲でいろいろに仮定したときのt検定に対するウィルコクソン検定,フィッシャー・イェーツ検定,中央値検定の漸近相対効率
を示します。
{integral(0,1)(2t-1)φ(t,f)dt}^2σ2=12*{integral(-∞,∞)f(x)^2dx}^2σ2
{integral(0,1)Φ-1(t)φ(t,f)dt}^2σ2
{integral(0,1)sgn(2t-1)φ(t,f)dt}^2σ2
を計算することによって
Wilcoxon:t FY: t 中央値検定:t
母分布
一様分布 1 - -
正規分布 0.95(3/π) 1 0.64(2/π)
ロジスティック分布 π^2/9 π/3 π^2/12
両側指数分布 1.5 4/π 2
コーシー分布 - - -
Wilcoxon:F-Y Wilcoxon:中央値
母分布
一様分布 - -
正規分布 0.95(3/π) 1.5
ロジスティック分布 1.047(π/3) 4/3
両側指数分布 1.178(3π/8) 3/4
コーシー分布 1.413 3/4
を得ることができます。もし,密度が正規型でなければ,これらの検定の検出力はt検定以上となります。従って,検出力という観点から,もっとも好ましくない分布型は正規分布です。
なお,下の分布ほど裾が重く,一様分布が一番短い裾をもち,次に,正規分布,ロジスティック分布,両側指数分布が来て,コーシー分布がもっとも長い裾をもちます。長い裾をもつほど飛び離れた値をもつ確率は高くなります。
【補】正規分布の累積分布関数の逆関数Φ-1(x)については
integral(0,1)Φ-1(x)dx=0
integral(0,1)[Φ-1(x)]^2dx=1
integral(0,1)xΦ-1(x)dx=1/(2sqr(π))
integral(0,1)sinπxΦ-1(x)dx=0.655978/sqr(2)
(Mathematicaの組み込み関数InverseErf(x)を使って計算)
が成り立ちます。