ウィルソンの信頼区間

ウィルソンの信頼区間(ウィルソンの得点区間)は二項分布の成功確率の信頼区間を与える。正規分布に近似して得られる信頼区間に比べて、少ないサンプルでも良い性質をもつとされる。エドウィン・ビドウェル・ウィルソン (1927)によって最初に提唱された[1]

ウィルソンの信頼区間

ウィルソンの信頼区間の上限と下限は、試行数を n {\displaystyle n} 、標本成功確率を p ^ {\displaystyle {\hat {p}}} Z値 z {\displaystyle z} として、以下のように与えられる。

w ± = 1 1 + 1 n z 2 [ p ^ + 1 2 n z 2 ± z 1 n p ^ ( 1 p ^ ) + 1 4 n 2 z 2 ] {\displaystyle w^{\pm }={\frac {1}{1+{\frac {1}{n}}z^{2}}}\left[{\hat {p}}+{\frac {1}{2n}}z^{2}\pm z{\sqrt {{\frac {1}{n}}{\hat {p}}\left(1-{\hat {p}}\right)+{\frac {1}{4n^{2}}}z^{2}}}\right]}

これは n {\displaystyle n} が小さい場合や p ^ {\displaystyle {\hat {p}}} が0や1に近い場合でも良い性質を持つ。

ウィルソン区間は2群(自由度1)のピアソンのカイ二乗検定から求めることができる。

Pr ( ( n p ^ n θ ) 2 n θ + ( n ( 1 p ^ ) n ( 1 θ ) ) 2 n ( 1 θ ) F χ 1 2 ( 1 α ) ) = Pr ( z 1 α 2 p ^ θ 1 n θ ( 1 θ ) z 1 α 2 ) = 1 α {\displaystyle {\mbox{Pr}}\left({\frac {(n{\hat {p}}-n\theta )^{2}}{n\theta }}+{\frac {\left(n(1-{\hat {p}})-n(1-\theta )\right)^{2}}{n(1-\theta )}}\leq F_{\chi _{1}^{2}}(1-\alpha )\right)={\mbox{Pr}}\left(-z_{1-{\frac {\alpha }{2}}}\leq {\frac {{\hat {p}}-\theta }{\sqrt {{\frac {1}{n}}\theta \left({1-\theta }\right)}}}\leq z_{1-{\frac {\alpha }{2}}}\right)=1-\alpha }

上の括弧内の式を θ {\displaystyle \theta } について解くことによって信頼区間が求まる。不等式の中央の項はスコア検定量(英語版)と等しいため、この信頼区間はウィルソンの得点区間とも呼ばれる。

ウィルソンの連続性修正を伴う得点区間

ウィルソン区間は連続性補正を用いて調整されることがある。下式の連続性補正を伴うウィルソンの信頼区間はニューカム(1998)により提案された[2]

w = max { 0 , 2 n p ^ + z 2 [ z z 2 1 n + 4 n p ^ ( 1 p ^ ) + ( 4 p ^ 2 ) + 1 ] 2 ( n + z 2 ) } {\displaystyle w^{-}=\operatorname {max} \left\{0,{\frac {2n{\hat {p}}+z^{2}-[z{\sqrt {z^{2}-{\frac {1}{n}}+4n{\hat {p}}(1-{\hat {p}})+(4{\hat {p}}-2)}}+1]}{2(n+z^{2})}}\right\}}
w + = min { 1 , 2 n p ^ + z 2 + [ z z 2 1 n + 4 n p ^ ( 1 p ^ ) ( 4 p ^ 2 ) + 1 ] 2 ( n + z 2 ) } {\displaystyle w^{+}=\operatorname {min} \left\{1,{\frac {2n{\hat {p}}+z^{2}+[z{\sqrt {z^{2}-{\frac {1}{n}}+4n{\hat {p}}(1-{\hat {p}})-(4{\hat {p}}-2)}}+1]}{2(n+z^{2})}}\right\}}

ウィルソン区間がピアソンのカイ二乗検定によく似ているように、連続性補正を伴うウィルソン区間はイェイツの連続性補正と同等のものである。

他の信頼区間との比較

ウィルソンの信頼区間と、他の二項分布の信頼区間を比較した報告はいくつか存在する[3][2][4][5]。 例えば、アグレスティとコウル (1998)[6]およびロス(2003)[7]の両者はクロッパー-ピアソン区間のようないわゆる正確法でさえも正しい信頼区間を与えないことがあると指摘している。

これらの多くの区間はR言語を使用したパッケージbinom、Python言語やJupyter Notebookを使用したパッケージebcic (Exact Binomial Confidence Interval Calculator)で計算することができる。

脚注

  1. ^ Wilson, E. B. (1927). “Probable inference, the law of succession, and statistical inference”. Journal of the American Statistical Association 22: 209–212. JSTOR 2276774. 
  2. ^ a b Newcombe, R. G. (1998). "Two-sided confidence intervals for the single proportion: comparison of seven methods". Statistics in Medicine 17 (8): 857–872.
  3. ^ Wallis, Sean A. (2013). “Binomial confidence intervals and contingency tests: mathematical fundamentals and the evaluation of alternative methods”. Journal of Quantitative Linguistics 20 (3): 178–208. doi:10.1080/09296174.2013.799918. http://www.ucl.ac.uk/english-usage/staff/sean/resources/binomialpoisson.pdf. 
  4. ^ Reiczigel J. (2003) Confidence intervals for the binomial parameter: some new considerations. Statistics in Medicine, 22, 611–621.
  5. ^ Sauro J., Lewis J.R. (2005) "Comparison of Wald, Adj-Wald, Exact and Wilson intervals Calculator". Proceedings of the Human Factors and Ergonomics Society, 49th Annual Meeting (HFES 2005), Orlando, FL, p2100-2104
  6. ^ Agresti, Alan; Coull, Brent A. (1998). “Approximate is better than 'exact' for interval estimation of binomial proportions”. The American Statistician 52: 119–126. doi:10.2307/2685469. JSTOR 2685469. 
  7. ^ Ross, T. D. (2003). “Accurate confidence intervals for binomial proportion and Poisson rate estimation”. Computers in Biology and Medicine 33: 509–531. doi:10.1016/S0010-4825(03)00019-2. 

関連項目

  • 区間推定
  • 正規近似区間(英語版)
  • ジェフリーの区間(英語版)
  • クロッパー-ピアソンの区間(英語版)
  • アグレスティ-コウルの区間(英語版)
  • 逆正弦変換(英語版)
  • 二項比率の信頼区間(英語版)
  • 範囲確率(英語版)
  • 得点検定(英語版)
  • カイ二乗検定
  • イェイツのカイ二乗検定
  • 連続性補正
  • 表示
  • 編集