Test dla wariancji

Test dla wariancji – test statystyczny służący do weryfikacji hipotez statystycznych dotyczących wartości wariancji w populacji generalnej lub też do porównania wartości wariancji w dwóch lub kilku populacjach – na podstawie znajomości wartości badanej cechy w losowej próbie (lub w kilku próbach).

Rozstrzygnięcie pytań dotyczących wariancji jest ważne m.in. dlatego, że wiele testów służących do porównania wartości średnich w dwóch lub kilku populacjach wymaga przyjęcia założenia o równości wariancji w tych populacjach (tak zwane założenie o jednorodności wariancji). Ponadto wariancja może być miernikiem dokładności w procesie pomiarowym lub produkcyjnym (zbyt duża wariancja wyników pomiaru może na przykład świadczyć o uszkodzeniu lub rozregulowaniu aparatury lub urządzeń).

Struktura i podział testów

Hipotezy dotyczące wariancji testuje się zgodnie z ogólnymi zasadami testowania hipotez statystycznych: formułujemy hipotezy, zakładamy poziom istotności α {\displaystyle \alpha } – dopuszczalną wartość błędu pierwszego rodzaju (tj. prawdopodobieństwo odrzucenia prawdziwej hipotezy zerowej) i na podstawie danych z próby wyznaczamy wartość statystyki testowej, po czym porównujemy ją z wartościami krytycznymi odczytanymi z tablic odpowiedniego rozkładu teoretycznego. Przy konstrukcji wszystkich omawianych niżej testów przyjmowane jest założenie, że badane cechy mają w populacjach generalnych rozkład normalny.

  • Postać stosowanej statystyki testowej zależy od kilku czynników:
    • czy badamy hipotezę dotyczącą jednej, dwóch czy wielu wariancji?
    • czy porównujemy próby niezależne, czy zależne (skorelowane, powiązane)?
    • jaka jest liczebność próby (prób)?. Przyjmuje się na ogół (dość arbitralnie), że próba jest duża, gdy jej liczebność przekracza 30 obserwacji ( n > 30 ) {\displaystyle (n>30)} (można wtedy zakładać, że statystyki mają rozkład normalny – patrz centralne twierdzenie graniczne). W przypadku przeciwnym – mamy do czynienia z próbami małymi.

Poniżej przedstawiono w skrócie kilka testów najczęściej stosowanych w poszczególnych sytuacjach.

Testy dla jednej wariancji

Porównujemy wariancję w populacji z „wzorcową” wartością σ 0 2 . {\displaystyle \sigma _{0}^{2}.}

Hipotezy mają postać:

  • H 0 : σ 2 = σ 0 2 , {\displaystyle H_{0}\colon \sigma ^{2}=\sigma _{0}^{2},}
  • H 1 : {\displaystyle H_{1}\colon } postać hipotezy alternatywnej zależy od sformułowania zagadnienia:
σ 2 > σ 0 2 {\displaystyle \sigma ^{2}>\sigma _{0}^{2}}
(1)

albo

σ 2 < σ 0 2 {\displaystyle \sigma ^{2}<\sigma _{0}^{2}}
(2)

albo też

σ 2 σ 0 2 . {\displaystyle \sigma ^{2}\not =\sigma _{0}^{2}.}
(3)

Postać statystyki i dalszy przebieg testu zależy od rozmiaru próby.

Próby małe

Wyznaczamy wartość statystyki

χ 2 = n s 2 σ 0 2 , {\displaystyle \chi ^{2}={\frac {n\cdot s^{2}}{\sigma _{0}^{2}}},}

gdzie:

s 2 {\displaystyle s^{2}} jest wariancją z próby,
n {\displaystyle n} jest liczebnością próby.

Statystyka ta ma przy założeniu prawdziwości hipotezy zerowej rozkład chi-kwadrat z n 1 {\displaystyle n-1} stopniami swobody. Wartość krytyczną χ k r y t 2 {\displaystyle \chi _{kryt}^{2}} odczytujemy z tablic rozkładu chi-kwadrat dla ν = n 1 {\displaystyle \nu =n-1} stopni swobody oraz:

  • dla poziomu istotności α {\displaystyle \alpha } gdy hipoteza alternatywna H 1 {\displaystyle H_{1}} ma postać (1),
  • dla poziomu istotności 1 α {\displaystyle 1-\alpha } gdy hipoteza alternatywna H 1 {\displaystyle H_{1}} ma postać (2),
  • gdy hipoteza alternatywna H 1 {\displaystyle H_{1}} ma postać (3) odczytujemy dwie wartości krytyczne:
    • χ k r y t 1 2 {\displaystyle \chi _{kryt1}^{2}} dla poziomu istotności 1 α 2 {\displaystyle 1-{\frac {\alpha }{2}}} oraz
    • χ k r y t 2 2 {\displaystyle \chi _{kryt2}^{2}} dla poziomu istotności α 2 . {\displaystyle {\frac {\alpha }{2}}.}

Obszar krytyczny:

  • w przypadku (1) obszar krytyczny jest prawostronny, czyli Q = { χ 2 : χ 2 > χ k r y t 2 } , {\displaystyle Q=\{\chi ^{2}:\chi ^{2}>\chi _{kryt}^{2}\},}
  • w przypadku (2) obszar krytyczny jest lewostronny, czyli Q = { χ 2 : χ 2 < χ k r y t 2 } , {\displaystyle Q=\{\chi ^{2}:\chi ^{2}<\chi _{kryt}^{2}\},}
  • w przypadku (3) obszar krytyczny jest obustronny, tzn. Q = { χ 2 : χ 2 < χ k r y t 1 2 χ 2 > χ k r y t 2 2 } . {\displaystyle Q=\{\chi ^{2}:\chi ^{2}<\chi _{kryt1}^{2}\lor \chi ^{2}>\chi _{kryt2}^{2}\}.}

Jeżeli wyznaczona wartość statystyki χ 2 {\displaystyle \chi ^{2}} nie należy do obszaru krytycznego Q , {\displaystyle Q,} to nie ma podstaw do odrzucenia hipotezy zerowej. Jeżeli wyznaczona wartość statystyki χ 2 {\displaystyle \chi ^{2}} należy do obszaru krytycznego Q , {\displaystyle Q,} to hipotezę zerową odrzucamy na korzyść hipotezy alternatywnej.

Próby duże

Dla liczebności próby n > 30 {\displaystyle n>30} możemy przekształcić wyznaczoną w poprzednim punkcie statystykę chi-kwadrat w statystykę Z {\displaystyle Z} o rozkładzie normalnym obliczając:

Z = 2 χ 2 2 ν 1 . {\displaystyle Z={\sqrt {2\chi ^{2}}}-{\sqrt {2\nu -1}}.}

Nie oznacza to, że nie można stosować nadal statystyk dla małych prób. Są one nadal dokładniejsze, wymagają jednak komputerowego obliczania rozkładu, gdyż tablice na ogół nie sięgają tak daleko.

W powyższym wzorze χ 2 {\displaystyle \chi ^{2}} oraz ν = n 1 {\displaystyle \nu =n-1} oznaczają statystykę chi-kwadrat i jej liczbę stopni swobody wyznaczone tak, jak w poprzednim paragrafie (dla prób małych).

Wartości krytyczne znajdujemy z tablic dystrybuanty rozkładu normalnego. Jeżeli F n ( z ) {\displaystyle F_{n}(z)} jest dystrybuantą standardowego rozkładu normalnego, a F n 1 ( α ) {\displaystyle F_{n}^{-1}(\alpha )} – funkcją odwrotną do dystrybuanty, natomiast α {\displaystyle \alpha } – założonym poziomem istotności – to odczytujemy:

  • dla przypadku (1)
Z k r y t = F n 1 ( 1 α ) , {\displaystyle Z_{kryt}=F_{n}^{-1}(1-\alpha ),}
  • w przypadku (2)
Z k r y t = F n 1 ( α 2 ) = F n 1 ( 1 α ) , {\displaystyle Z_{kryt}=F_{n}^{-1}\left({\frac {\alpha }{2}}\right)=-F_{n}^{-1}(1-\alpha ),}
  • w przypadku (3) mamy 2 wartości graniczne:
Z k r y t 1 = F n 1 ( 1 α 2 ) {\displaystyle Z_{kryt1}=F_{n}^{-1}\left(1-{\frac {\alpha }{2}}\right)}
oraz
Z k r y t 2 = Z k r y t 1 . {\displaystyle Z_{kryt2}=-Z_{kryt1}.}

Dalszy przebieg testu i wnioski – jak poprzednio.

Testy dla dwóch wariancji

Mamy tu do czynienia z dwiema próbami o liczebnościach n 1 {\displaystyle n_{1}} i n 2 , {\displaystyle n_{2},} znamy też „wariancje z próby” (estymatory wariancji) s 1 2 {\displaystyle s_{1}^{2}} i s 2 2 {\displaystyle s_{2}^{2}} – testujemy hipotezę, że próby te pochodzą z populacji o jednakowych wariancjach. Postać hipotez:

  • H 0 : σ 1 2 = σ 2 2 , {\displaystyle H_{0}\colon \sigma _{1}^{2}=\sigma _{2}^{2},}
  • H 1 : {\displaystyle H_{1}\colon } postać hipotezy alternatywnej zależy od sformułowania zagadnienia:
σ 1 2 > σ 2 2 {\displaystyle \sigma _{1}^{2}>\sigma _{2}^{2}}
(4)

albo

σ 1 2 < σ 2 2 {\displaystyle \sigma _{1}^{2}<\sigma _{2}^{2}}
(5)

albo też

σ 1 2 σ 2 2 . {\displaystyle \sigma _{1}^{2}\not =\sigma _{2}^{2}.}
(6)

Testy dla dwóch prób niezależnych

Próby małe

W tym przypadku można wykorzystać kilka testów:

Test F (Fishera)

Niech X 1 , , X n {\displaystyle X_{1},\dots ,X_{n}} i Y 1 , , Y m {\displaystyle Y_{1},\dots ,Y_{m}} będą próbami statystycznymi z rozkładu normalnego (test nie jest odporny na naruszenia tego założenia[1][2]), ze średnimi próbkowymi odpowiednio:

X ¯ = 1 n i = 1 n X i    i  Y ¯ = 1 m i = 1 m Y i . {\displaystyle {\overline {X}}={\frac {1}{n}}\sum _{i=1}^{n}X_{i}\ {\text{ i }}{\overline {Y}}={\frac {1}{m}}\sum _{i=1}^{m}Y_{i}.}

Niech

S X 2 = 1 n 1 i = 1 n ( X i X ¯ ) 2    i  S Y 2 = 1 m 1 i = 1 m ( Y i Y ¯ ) 2 {\displaystyle S_{X}^{2}={\frac {1}{n-1}}\sum _{i=1}^{n}\left(X_{i}-{\overline {X}}\right)^{2}\ {\text{ i }}S_{Y}^{2}={\frac {1}{m-1}}\sum _{i=1}^{m}\left(Y_{i}-{\overline {Y}}\right)^{2}}

będą wariancjami próbkowymi. Wtedy test statystyczny

F = S X 2 S Y 2 {\displaystyle F={\frac {S_{X}^{2}}{S_{Y}^{2}}}}

ma rozkład F Snedecora z ν 1 = n 1 , ν 2 = m 1 {\displaystyle \nu _{1}=n-1,\nu _{2}=m-1} stopniami swobody jeśli hipoteza zerowa o równości wariancji jest prawdziwa. Z tablic tego rozkładu, dla testu prawostronnego, odczytuje się wartość krytyczną:

F k r y t 1 = F ( 1 α , ν 1 , ν 2 ) . {\displaystyle F_{kryt1}=F(1-\alpha ,\nu _{1},\nu _{2}).}

Jeżeli stosuje się test lewostronny, to najprościej jest zamienić miejscami próby 1 i 2.

W przypadku testu obustronnego wyznacza się

F k r y t 1 = F ( α 2 , ν 1 , ν 2 ) {\displaystyle F_{kryt1}=F\left({\frac {\alpha }{2}},\nu _{1},\nu _{2}\right)}

oraz drugą wartość graniczną ze wzoru:

F k r y t 2 = 1 F k r y t 1 . {\displaystyle F_{kryt2}={\frac {1}{F_{kryt1}}}.}
Test t-Studenta

(dwie małe próby o równych liczebnościach)

Stosujemy statystykę

t = s 1 2 s 2 2 2 s 1 2 s 2 2 n 1 {\displaystyle t={\frac {s_{1}^{2}-s_{2}^{2}}{2{\sqrt {s_{1}^{2}\cdot {s_{2}^{2}}}}}}\cdot {\sqrt {n-1}}}

( n {\displaystyle n} jest tutaj wspólną liczebnością obu prób).

Statystyka ta ma rozkład Studenta o ν = n 1 {\displaystyle \nu =n-1} stopniach swobody.

Test t-Studenta stosujemy w przypadku, gdy próby pochodzą z populacji o rozkładzie normalnym i gdy nie znamy wariancji.

Test Linka

Gdy znane są jedynie rozstępy R 1 {\displaystyle R_{1}} i R 2 {\displaystyle R_{2}} obu prób, wtedy wyznaczamy statystykę

F = R 1 R 2 , {\displaystyle F^{*}={\frac {R_{1}}{R_{2}}},}

przy czym w liczniku powinna być większa wartość (hipoteza H 1 {\displaystyle H_{1}} ma postać (4)). Statystykę tę porównujemy z wartością krytyczną odczytaną ze specjalnych tablic dla testu Linka – patrz np. (Zieliński, 1972).

Próby duże

( n 1 > 30 , n 2 > 30 ) {\displaystyle (n_{1}>30,n_{2}>30)}

W tym przypadku można wykorzystać statystykę z o rozkładzie normalnym:

z = s 1 2 s 2 2 s 1 2 2 n 1 + s 2 2 2 n 2 {\displaystyle z={\frac {s_{1}^{2}-s_{2}^{2}}{\sqrt {{\frac {s_{1}^{2}}{2n_{1}}}+{\frac {s_{2}^{2}}{2n_{2}}}}}}}

i porównać jej wartość z wartościami granicznymi wyznaczonymi z tablicy standaryzowanego rozkładu normalnego w dokładnie taki sam sposób, jak opisano to dla testu dla jednej wariancji i dużej próby.

Tak jak poprzednio, nie oznacza to, że nie można stosować nadal statystyk dla małych prób. Są one nadal dokładniejsze, wymagają jednak komputerowego obliczania rozkładu, gdyż tablice na ogół nie sięgają tak daleko.

Testy dla dwóch prób zależnych

Przypadek taki zachodzi np. gdy badamy ten sam zbiór obiektów w dwóch różnych sytuacjach (w różnych warunkach) – wtedy na ogół liczebności prób są jednakowe ( n 1 = n 2 = n ) . {\displaystyle (n_{1}=n_{2}=n).}

Test Morgana dla prób małych

Wyznaczamy statystykę o rozkładzie t-Studenta:

t = s 1 2 s 2 2 2 s 1 2 s 2 2 ( 1 r 2 ) n 2 , {\displaystyle t={\frac {s_{1}^{2}-s_{2}^{2}}{2{\sqrt {{s_{1}^{2}}\cdot {s_{2}^{2}}\cdot (1-r^{2})}}}}{\cdot {\sqrt {n-2}}},}

gdzie n {\displaystyle n} jest wspólną liczebnością prób, a r {\displaystyle r} współczynnikiem korelacji Pearsona, który jest miarą korelacji pomiędzy wynikami w próbie 1 i próbie 2. Tę wartość statystyki t porównujemy z wartością krytyczną (lub 2 wartościami krytycznymi) odczytanymi z tablic rozkładu t-Studenta dla v = n 2 {\displaystyle v=n-2} stopni swobody.

Test Morgana dla prób dużych

Test przebiega podobnie, z tą różnicą, że wartości graniczne można odczytać z tablicy rozkładu normalnego (bo dla dużych wartości stopni swobody rozkład t-Studenta zmierza asymptotycznie do rozkładu normalnego).

Testy dla wielu wariancji

Mamy k prób. Hipotezy mają postać:

H 0 : σ 1 2 = σ 2 2 = = σ k 2 {\displaystyle H_{0}\colon \sigma _{1}^{2}=\sigma _{2}^{2}=\dots =\sigma _{k}^{2}}
H 1 : {\displaystyle H_{1}\colon } „nie H 0 {\displaystyle H_{0}} ” (nie wszystkie wariancje są równe)

Próby niezależne

Test Bartletta

Gdy liczebności prób są różne – stosujemy test Bartletta, oparty na statystyce chi-kwadrat:

χ 2 = ν ln s ¯ 2 j = 1 k ( ν j ln s j 2 ) c , {\displaystyle \chi ^{2}={\frac {\nu \cdot \ln {\overline {s}}^{2}-\sum _{j=1}^{k}(\nu _{j}\cdot \ln s_{j}^{2})}{c}},}

przy czym we wzorze tym:

n i {\displaystyle n_{i}} są liczebnościami poszczególnych prób,
s i 2 {\displaystyle s_{i}^{2}} – wariancjami z próby,
ν i = n i 1 , {\displaystyle \nu _{i}=n_{i}-1,}
ν = i = 1 k n i k , {\displaystyle \nu =\sum _{i=1}^{k}n_{i}-k,}
s ¯ 2 = i = 1 k ( n i 1 ) s i 2 n k , {\displaystyle {\overline {s}}^{2}={\frac {\sum _{i=1}^{k}(n_{i}-1)s_{i}^{2}}{n-k}},}
c = 1 + 1 3 ( k 1 ) ( i = 1 k 1 ν i 1 ν ) . {\displaystyle c=1+{\frac {1}{3(k-1)}}\cdot \left({\sum _{i=1}^{k}{\frac {1}{\nu _{i}}}-{\frac {1}{\nu }}}\right).}

Obliczona wartość χ 2 {\displaystyle \chi ^{2}} jest porównywana z wartością krytyczną wyznaczoną z tablic rozkładu chi-kwadrat dla k 1 {\displaystyle k-1} stopni swobody. Obszar krytyczny jest zawsze prawostronny (zbyt duże wartości statystyki świadczą o niejednorodności wariancji).

Aby można było stosować test Bartletta – musi być spełnione założenie, że liczebności prób nie są skrajnie małe, tzn. że n i 5 {\displaystyle n_{i}\geqslant 5} dla każdego i = 1 , 2 , , k . {\displaystyle i=1,2,\dots ,k.}

Gdy mamy k prób równolicznych, każda o liczebności n – możemy stosować też inne testy (prostsze rachunkowo):

Test Hartleya

Mamy k {\displaystyle k} prób o jednakowej liczebności ( n 1 = = n k = n ) . {\displaystyle (n_{1}=\dots =n_{k}=n).} Obliczamy wartość statystyki F h {\displaystyle F_{h}} zgodnie ze wzorem:

F h = s m a x 2 s m i n 2 , {\displaystyle F_{h}={\frac {s_{max}^{2}}{s_{min}^{2}}},}

gdzie:

  • s i 2 {\displaystyle s_{i}^{2}} – estymatory wariancji dla każdej z prób ( i = 1 , 2 , , k ) , {\displaystyle (i=1,2,\dots ,k),}
  • s m a x 2 = max ( s 1 2 , , s k 2 ) {\displaystyle s_{max}^{2}=\max(s_{1}^{2},\dots ,s_{k}^{2})} jest największą spośród wariancji s i 2 , {\displaystyle s_{i}^{2},}
  • s m i n 2 = min ( s 1 2 , , s k 2 ) {\displaystyle s_{min}^{2}=\min(s_{1}^{2},\dots ,s_{k}^{2})} jest najmniejszą spośród wariancji s i 2 . {\displaystyle s_{i}^{2}.}

Wartość statystyki F h {\displaystyle F_{h}} musi być porównywana z wartościami krytycznymi odczytywanymi z tablic specjalnie skonstruowanych dla tego testu (p. Zieliński 1972). Test Hartleya ma zawsze prawostronny obszar krytyczny.

Test Cadwella

Jest to test do badania hipotezy o jednorodności wariancji dla k prób niezależnych i równolicznych (o liczebności n każda). Test ten jest oparty na wartości rozstępów, wyznaczamy mianowicie wartość statystyki:

C = R m a x R m i n {\displaystyle C^{*}={\frac {R_{max}}{R_{min}}}}

(stosunek największego do najmniejszego rozstępu w badanych próbach) i porównujemy tę wartość z wartością krytyczną odczytaną z tablic specjalnie dostosowanych do tego testu, która zależy od poziomu istotności α , {\displaystyle \alpha ,} liczby prób k i ich liczebności n.

Test ten, tak jak poprzednie, jest zawsze prawostronny.

Próby zależne

Test Patnaika

Mamy k {\displaystyle k} prób zależnych o liczebności n {\displaystyle n} każda. Liczebności powinny spełniać warunek n k > 10. {\displaystyle n\cdot {k}>10.} Test oparty jest na wartościach rozstępów poszczególnych prób. Wyznaczamy dwie wartości:

  • średni rozstęp
R ¯ = 1 k i = 1 k R i {\displaystyle {\overline {R}}={\frac {1}{k}}\sum _{i=1}^{k}R_{i}}
oraz
  • „rozstęp rozstępów”
R R = R m a x R m i n , {\displaystyle R_{R}=R_{max}-R_{min},}

po czym porównujemy wartość stosunku q s = c R R R ¯ {\displaystyle q_{s}={\frac {cR_{R}}{\overline {R}}}} z odpowiednią wartością krytyczną q k r y t . {\displaystyle q_{kryt}.} Zarówno ta wartość krytyczna, jak i stała c {\displaystyle c} musi być odczytana z tablic specjalnie przygotowanych dla tego testu. Obszar krytyczny testu jest prawostronny, tj. gdy q s > q k r y t {\displaystyle q_{s}>q_{kryt}} – wnioskujemy, że wariancje w porównywanych populacjach nie są jednorodne. W takim przypadku – można stosować ten test sekwencyjnie (w kolejnych podgrupach).

Zobacz też

Zobacz w Wikiźródłach tablicę rozkładu normalnego
Zobacz w Wikiźródłach tablicę rozkładu chi-kwadrat
Zobacz w Wikiźródłach tablicę rozkładu Studenta
Zobacz w Wikiźródłach tablicę rozkładu F Snedecora


Przypisy

  1. G.E.P.G.E.P. BOX G.E.P.G.E.P., Non-Normality and Tests on Variances, „Biometrika”, 40 (3–4), 1953, s. 318–335, DOI: 10.1093/biomet/40.3-4.318, ISSN 0006-3444, JSTOR: 2333350 [dostęp 2017-02-19]  (ang.).
  2. Carol A.C.A. Markowski Carol A.C.A., Edward P.E.P. Markowski Edward P.E.P., Conditions for the Effectiveness of a Preliminary Test of Variance, „The American Statistician”, 44 (4), 1990, s. 322–326, DOI: 10.2307/2684360, JSTOR: 2684360 [dostęp 2017-02-19] .

Bibliografia

  • Zieliński R., „Tablice statystyczne”, PWN, Warszawa 1972
  • Barańska Z., „Podstawy metod statystycznych dla psychologów”, Wyd. Uniw. Gdańskiego, Gdańsk 2000, ISBN 83-7017-839-1 (m.in. cytowane są tablice dla testów Patnaika i Cadwella)