Test dla proporcji

Testy dla proporcji – testy parametryczne służące do weryfikacji hipotez dotyczących wartości proporcji w populacji generalnej lub też do porównania wartości proporcji w kilku populacjach – na podstawie znajomości wartości tej proporcji w losowej próbie (czy też dwóch lub kilku próbach) pobranych z populacji.

Proporcją w statystyce nazywamy liczbę (ułamek, procent) wyrażający, jaka część elementów pewnego zbioru spełnia określony warunek. Inne równoważnie stosowane określenia to: frakcja, wskaźnik struktury. Na przykład jeśli w grupie n {\displaystyle n} osób jest m {\displaystyle m} palących, to proporcja osób palących w tej grupie jest równa

p = m n . {\displaystyle p={\frac {m}{n}}.}

Struktura i podział testów

Hipotezy dotyczące proporcji testuje się zgodnie z ogólnymi zasadami testowania hipotez statystycznych: formułujemy hipotezy, zakładamy poziom istotności α {\displaystyle \alpha } – dopuszczalną wartość błędu pierwszego rodzaju, następnie na podstawie danych z próby wyznaczamy wartość statystyki testowej, po czym porównujemy ją z wartościami krytycznymi odczytanymi z tablic odpowiedniego rozkładu teoretycznego.

Postać stosowanej statystyki testowej zależy od następujących czynników:

  • czy badamy hipotezę dotyczącą jednej, dwóch, czy wielu proporcji,
  • jaka jest liczebność próby (prób) występujących w danym zagadnieniu,
  • w przypadku dwu lub więcej prób – czy próby są niezależne, czy zależne (powiązane).

Poniżej przedstawiono w skrócie kilka testów najczęściej wykorzystywanych w poszczególnych sytuacjach.

Testy dla jednej proporcji (test dla prób dużych)

W próbie losowej o liczebności n {\displaystyle n} jest m {\displaystyle m} elementów spełniających pewien warunek. Wówczas proporcja w próbie p = m n . {\displaystyle p={\frac {m}{n}}.} Chcemy sprawdzić, czy taki wynik losowania pozwala przyjąć, że w całej populacji proporcja ta ma zadaną z góry wartość p o . {\displaystyle p_{o}.} Hipotezy mają postać:

H 0 : p = p 0 , {\displaystyle H_{0}:p=p_{0},}
H 1 : {\displaystyle H_{1}{:}} postać hipotezy alternatywnej zależy od sformułowania zagadnienia:
p > p o {\displaystyle p>p_{o}}
(1)
p < p o {\displaystyle p<p_{o}}
(2)
p p o {\displaystyle p\neq p_{o}}
(3)

Założenia: próba musi być dostatecznie duża, to znaczy jej liczebność musi spełniać warunek n > 50 , {\displaystyle n>50,} a otrzymana wartość proporcji z próby powinna spełniać warunek: 0 , 2 < p < 0 , 8. {\displaystyle 0,2<p<0,8.} Można wtedy zastosować statystykę o rozkładzie normalnym.

Obliczamy:

z = p p o p o q o n , {\displaystyle z={\frac {p-p_{o}}{\sqrt {\frac {p_{o}\cdot q_{o}}{n}}}},}

gdzie q o = 1 p o . {\displaystyle q_{o}=1-p_{o}.} Jeśli hipoteza zerowa H 0 {\displaystyle H_{0}} jest prawdziwa, to statystyka z {\displaystyle z} ma w przybliżeniu standardowy rozkład normalny – wynika to z Centralnego Twierdzenia Granicznego.

Wartość tak obliczonej statystyki porównujemy z wartością krytyczną (lub dwiema wartościami krytycznymi) wyznaczonymi na podstawie poziomu istotności α {\displaystyle \alpha } dla zmiennej losowej o rozkładzie normalnym.

Wartości krytyczne znajdujemy z tablic dystrybuanty rozkładu normalnego. Jeżeli U {\displaystyle U} jest dystrybuantą standardowego rozkładu normalnego, a U 1 {\displaystyle U^{-1}} – funkcją odwrotną do dystrybuanty, natomiast α {\displaystyle \alpha } – założonym poziomem istotności – to odczytujemy:

  • dla przypadku (1):
z k r y t = U 1 ( 1 α ) {\displaystyle z_{kryt}=U^{-1}(1-\alpha )}
  • w przypadku (2):
z k r y t = U 1 ( α ) = U 1 ( 1 α ) {\displaystyle z_{kryt}=U^{-1}(\alpha )=-U^{-1}(1-\alpha )}
  • zaś w przypadku (3) mamy 2 wartości graniczne:
z k r y t 1 = U 1 ( 1 α 2 ) {\displaystyle z_{kryt1}=U^{-1}\left(1-{\frac {\alpha }{2}}\right)}
z k r y t 2 = z k r y t 1 . {\displaystyle z_{kryt2}=-z_{kryt1}.}

Przedział krytyczny:

  • w przypadku (1) jest prawostronny, czyli gdy z > z k r y t {\displaystyle z>z_{kryt}} – odrzucamy H 0 , {\displaystyle H_{0},} w przypadku przeciwnym – nie ma podstaw do jej odrzucenia,
  • w przypadku (2) przedział krytyczny jest lewostronny (dla z < z k r y t {\displaystyle z<z_{kryt}} odrzucamy H 0 {\displaystyle H_{0}} ),
  • w przypadku (3) przedział krytyczny jest obustronny (dla z > z k r y t 1 {\displaystyle z>z_{kryt1}} i dla z < z k r y t 2 {\displaystyle z<z_{kryt2}} odrzucamy H 0 {\displaystyle H_{0}} ).

Testy dla dwóch proporcji

Dwie próby niezależne

Poniżej omówiono dwa testy – jeden dla dużych liczebności prób, oparty na statystyce z {\displaystyle z} o rozkładzie normalnym, analogiczny do omówionego powyżej dla jednej próby, drugi, możliwy do zastosowania przy nieco mniejszych liczebnościach prób, oparty na statystyce o rozkładzie chi-kwadrat.

Test dla dwóch prób dużych

Liczebności prób powinny spełniać relacje: n 1 > 50 {\displaystyle n_{1}>50} i n 2 > 50. {\displaystyle n_{2}>50.} Jeżeli spośród n 1 {\displaystyle n_{1}} elementów pierwszej próby m 1 {\displaystyle m_{1}} spełnia określony warunek, to proporcja z próby jest równa

p 1 = m 1 n 1 . {\displaystyle p_{1}={\frac {m_{1}}{n_{1}}}.}

Analogicznie dla drugiej próby:

p 2 = m 2 n 2 . {\displaystyle p_{2}={\frac {m_{2}}{n_{2}}}.}

Wyznaczamy proporcję dla „próby połączonej”:

p ¯ = m 1 + m 2 n 1 + n 2 {\displaystyle {\bar {p}}={\frac {m_{1}+m_{2}}{n_{1}+n_{2}}}}

oraz q ¯ = 1 p ¯ , {\displaystyle {\bar {q}}=1-{\bar {p}},} a następnie wyznaczamy wartość statystyki z : {\displaystyle z{:}}

z = p 1 p 2 p ¯ q ¯ ( 1 n 1 + 1 n 2 ) . {\displaystyle z={\frac {p_{1}-p_{2}}{\sqrt {{\bar {p}}\cdot {\bar {q}}\cdot {\left({\frac {1}{n_{1}}}+{\frac {1}{n_{2}}}\right)}}}}.}

Statystyka ta ma rozkład normalny i wartości krytyczne oraz obszary krytyczne wyznaczamy dla tego testu tak samo, jak to opisano wcześniej w teście dla jednej proporcji.

Test dla dwóch prób o mniejszych liczebnościach (oparty na statystyce chi-kwadrat)

Tutaj liczebności muszą spełniać warunek n = n 1 + n 2 > 20. {\displaystyle n=n_{1}+n_{2}>20.}

Liczby elementów spełniających lub nie spełniających zadanego warunku w poszczególnych populacjach można zapisać w tabeli 2×2:

Liczba elementów Próba 1 Próba 2 Suma
spełniających warunek (TAK) a b a + b
nie spełniających warunku (NIE) c d c + d
Suma n1=a+c n2=b+d n=a+b+c+d

Na podstawie tabeli obliczamy wartość statystyki z poprawką Yatesa[1]:

χ 2 = ( | a d b c | n s 2 ) 2 n ( a + b ) ( c + d ) ( a + c ) ( b + d ) , {\displaystyle \chi ^{2}={\frac {\left(|ad-bc|-{\frac {n_{s}}{2}}\right)^{2}\cdot n}{(a+b)(c+d)(a+c)(b+d)}},}

gdzie:

n s = n 1 n 2 n 1 + n 2 . {\displaystyle n_{s}={\frac {n_{1}\cdot n_{2}}{n_{1}+n_{2}}}.}

Jeżeli liczebności prób są na tyle duże, że n 1 + n 2 > 40 {\displaystyle n_{1}+n_{2}>40} – można wówczas pominąć w liczniku składnik n s 2 {\displaystyle {\frac {n_{s}}{2}}} w nawiasie. Wartości krytyczne wyznacza się z tablic rozkładu chi-kwadrat o 1 stopniu swobody.

Dwie próby zależne

Ten przypadek występuje na przykład wtedy, gdy te same obiekty czy osoby stanowiące próbę są badane dwukrotnie w różnych warunkach. Wtedy zwykle liczebności obu prób są jednakowe: n 1 = n 2 = n . {\displaystyle n_{1}=n_{2}=n.}

Wynikiem takiego eksperymentu są 4 liczby, stwierdzające, ile obiektów w każdej z prób spełnia lub nie spełnia warunku. Wyniki takie można zestawić w tabelce 2×2:

Liczebności Próba 2: TAK Próba 2: NIE
Próba 1:TAK a b
Próba 1: NIE c d

Te same wyniki można też zaprezentować w postaci tabelki proporcji zamiast liczebności (gdzie np. p 11 = a n , p 10 = b n {\displaystyle p_{11}={\tfrac {a}{n}},p_{10}={\tfrac {b}{n}}} itd.)

Proporcje: Próba 2: TAK Próba 2: NIE
Próba 1:TAK p 11 {\displaystyle p_{11}} p 10 {\displaystyle p_{10}}
Próba 1: NIE p 01 {\displaystyle p_{01}} p 00 {\displaystyle p_{00}}

W zależności od liczebności prób możliwe są różne odmiany testu.

Liczebność duża

Jeżeli n 20 , {\displaystyle n\geqslant {20},} to wyznaczamy statystykę z {\displaystyle z} o rozkładzie normalnym z jednego ze wzorów:

z = b c b + c , {\displaystyle z={\frac {b-c}{\sqrt {b+c}}},}
z = p 10 p 01 p 10 + p 01 n , {\displaystyle z={\frac {p_{10}-p_{01}}{\sqrt {\frac {p_{10}+p_{01}}{n}}}},}
z = a d a + d , {\displaystyle z={\frac {a-d}{\sqrt {a+d}}},}
z = p 11 p 00 p 11 + p 00 n . {\displaystyle z={\frac {p_{11}-p_{00}}{\sqrt {\frac {p_{11}+p_{00}}{n}}}}.}

(Stosujemy dowolny z powyższych wzorów, zależnie od dostępnych danych).

Wartość statystyki z {\displaystyle z} porównujemy z wartością z k r y t {\displaystyle z_{kryt}} wyznaczoną z tablic rozkładu normalnego, przy czym postępowanie jest takie samo, jak opisane powyżej dla testu dla jednej proporcji.

Liczebność mała (test McNemara)

W tym przypadku hipotezy mają postać:

H 0 : p 11 = p 10 {\displaystyle H_{0}:p_{11}=p_{10}} (proporcje w obu doświadczeniach są równe),
H 1 : p 11 p 10 {\displaystyle H_{1}:p_{11}\neq {p_{10}}} (proporcje w obu przypadkach różnią się istotnie).

Jeżeli b + c > 10 {\displaystyle b+c>10} oraz zarówno b > 5 , {\displaystyle b>5,} jak i c > 5 {\displaystyle c>5} to można wykorzystać statystykę

χ 2 = ( b c ) 2 b + c . {\displaystyle \chi ^{2}={\frac {(b-c)^{2}}{b+c}}.}

Jeżeli natomiast liczebności są jeszcze mniejsze, tak, że b + c > 10 , {\displaystyle b+c>10,} ale b < 5 {\displaystyle b<5} lub c < 5 , {\displaystyle c<5,} należy wykorzystać nieco zmodyfikowany wzór:

χ 2 = ( | b c | 1 ) 2 b + c . {\displaystyle \chi ^{2}={\frac {(|b-c|-1)^{2}}{b+c}}.}

Wartość krytyczną odczytujemy z tablic rozkładu chi-kwadrat dla danego poziomu istotności α {\displaystyle \alpha } i ν = 1 {\displaystyle \nu =1} stopnia swobody. Obszar krytyczny testu jest prawostronny (odrzucamy H 0 , {\displaystyle H_{0},} gdy χ 2 > χ k r y t 2 {\displaystyle \chi ^{2}>\chi _{kryt}^{2}} ).

Testy dla wielu proporcji

Mamy tu k {\displaystyle k} prób o liczebnościach n 1 , n 2 , n k . {\displaystyle n_{1},n_{2},\dots {n_{k}}.} W i-tej próbie m i {\displaystyle m_{i}} elementów spełnia zadany warunek, zatem proporcja w i-tej próbie jest równa p i = m i n i . {\displaystyle p_{i}={\frac {m_{i}}{n_{i}}}.}

Testujemy hipotezy:

H 0 : p 1 = = p k {\displaystyle H_{0}:p_{1}=\dots =p_{k}} (wszystkie proporcje w populacjach są jednakowe),
H 1 : n i e   H 0 {\displaystyle H_{1}:\mathbf {nie} \ H_{0}} (proporcje w poszczególnych populacjach różnią się).

Próby niezależne

Test Fishera-Snedecora

Jeżeli wszystkie liczebności n i 20 {\displaystyle n_{i}\geqslant {20}} to można wyznaczyć statystykę o rozkładzie Fishera-Snedecora. Obliczamy najpierw „średnią proporcję”

p ¯ = i = 1 k n i p i i = 1 k n i {\displaystyle {\bar {p}}={\frac {\sum _{i=1}^{k}{n_{i}p_{i}}}{\sum _{i=1}^{k}{n_{i}}}}}

oraz

F = i = 1 k n i ( p i p ¯ ) 2 i = 1 k p i ( 1 p i ) k k 1 . {\displaystyle F={\frac {\sum _{i=1}^{k}{n_{i}(p_{i}-{\bar {p}})^{2}}}{\sum _{i=1}^{k}{p_{i}(1-p_{i})}}}\cdot {\frac {k}{k-1}}.}

Otrzymaną wartość statystyki F porównujemy z wartością krytyczną odczytaną z tablic rozkładu Fishera-Snedecora dla założonego poziomu istotności α {\displaystyle \alpha } oraz liczby stopni swobody ν 1 = k 1 {\displaystyle \nu _{1}=k-1} i ν 2 = . {\displaystyle \nu _{2}=\infty .} Obszar krytyczny jest prawostronny, czyli gdy F > F k r y t {\displaystyle F>F_{kryt}} – odrzucamy hipotezę H 0 . {\displaystyle H_{0}.}

Próby zależne

Jeżeli mamy do czynienia z k {\displaystyle k} zależnymi próbami (seriami wyników) o jednakowej liczebności n {\displaystyle n} każda (np. n {\displaystyle n} osób jest poddawanych k {\displaystyle k} razy badaniu, którego wynik klasyfikujemy w kategoriach: tak, nie), przy czym liczebności są n 20 , {\displaystyle n\geqslant 20,} możemy wykorzystać test Cochrana do stwierdzenia, czy wyniki w poszczególnych doświadczeniach różnią się istotnie:

H 0 : {\displaystyle H_{0}{:}} wyniki poszczególnych serii nie różnią się istotnie,
H 1 : {\displaystyle H_{1}{:}} wyniki różnią się (zmiana warunków eksperymentu wpływa na wyniki).

Niech:

  • m i {\displaystyle m_{i}} oznacza, jak poprzednio, liczbę obiektów w i-tej próbie, które spełniają warunek (wynik Tak), to znaczy i = 1 , 2 , k , {\displaystyle i=1,2,\dots k,} zaś 0 m i n , {\displaystyle 0\leqslant m_{i}\leqslant n,}
  • w j {\displaystyle w_{j}} oznacza liczbę prób, w których j-ty obiekt uzyskał wynik Tak – to znaczy j = 1 , 2 , n {\displaystyle j=1,2,\dots n} oraz 0 w j k . {\displaystyle 0\leqslant w_{j}\leqslant k.}

Obliczamy statystykę

χ 2 = ( k 1 ) [ k i = 1 k m i 2 ( i = 1 k m i ) 2 ] k j = 1 n w j j = 1 n w j 2 , {\displaystyle \chi ^{2}={\frac {(k-1)\left[{k\sum _{i=1}^{k}{m_{i}^{2}}-\left(\sum _{i=1}^{k}{m_{i}}\right)^{2}}\right]}{k\sum _{j=1}^{n}{w_{j}}-\sum _{j=1}^{n}{w_{j}^{2}}}},}

którą porównujemy z wartością krytyczną odczytaną z tablic rozkładu chi-kwadrat dla poziomu istotności α {\displaystyle \alpha } i ν = k 1 {\displaystyle \nu =k-1} stopni swobody. Obszar krytyczny testu jest prawostronny.

Przypisy

  1. PiotrP. Sulewski PiotrP., Wyznaczanie obszaru krytycznego przy testowaniu niezależności w tablicach wielodzielczych, „Wiadomości Statystyczne” (3), 2015, s. 1–18, ISSN 0043-518X [dostęp 2019-06-03]  (pol.).

Bibliografia

  • Fisher R.A., Yates F., Statistical tables for biological, agricultural and medical research, Oliver and Boyd, Edinburgh 1963.
  • Zieliński R., Tablice statystyczne, PWN, Warszawa 1972.

Linki zewnętrzne

Zobacz w Wikiźródłach tablicę rozkładu normalnego
Zobacz w Wikiźródłach tablicę rozkładu chi-kwadrat
Zobacz w Wikiźródłach tablicę rozkładu F Snedecora
  • Distribution Calculator Kalkulator obliczający prawdopodobieństwa i wartości krytyczne dla rozkładów: normalnego, Studenta, chi-kwadrat oraz F (Fishera-Snedeccora)