Twierdzenie o prawdopodobieństwie całkowitym

Twierdzenie o prawdopodobieństwie całkowitym – w teorii prawdopodobieństwa, twierdzenie pozwalające na obliczanie prawdopodobieństw zdarzeń, które mogą zajść w konsekwencji zajścia innych zdarzeń, takich jak doświadczenia wieloetapowe.

Twierdzenie

Niech ( Ω , F , P ) {\displaystyle (\Omega ,{\mathcal {F}},{\mathsf {P}})} będzie przestrzenią probabilistyczną oraz niech

{ H i : i I } F {\displaystyle \{H_{i}\colon i\in I\}\subset {\mathcal {F}}}

będzie rodziną zdarzeń o dodatnim prawdopodobieństwie, które tworzą rozbicie przestrzeni Ω , {\displaystyle \Omega ,} tj.

  • H i H j = ( i , j I , i j ) , {\displaystyle H_{i}\cap H_{j}=\varnothing \quad (i,j\in I,i\neq j),}
  • i I H i = Ω , {\displaystyle \bigcup _{i\in I}\,H_{i}=\Omega ,}
  • P ( H i ) > 0 ( i I ) . {\displaystyle {\mathsf {P}}(H_{i})>0\quad (i\in I).}

Wówczas dla dowolnego zdarzenia A F {\displaystyle A\in {\mathcal {F}}} zachodzi wzór

P ( A ) = i I P ( A H i ) P ( H i ) , {\displaystyle {\mathsf {P}}(A)=\sum _{i\in I}{\mathsf {P}}(A\mid H_{i}){\mathsf {P}}(H_{i}),}

przy czym P ( A H i ) {\displaystyle {\mathsf {P}}(A\mid H_{i})} oznacza prawdopodobieństwo warunkowe zajścia zdarzenia A {\displaystyle A} pod warunkiem zajścia H i . {\displaystyle H_{i}.}

Uwaga. Ze skończoności miary P {\displaystyle {\mathsf {P}}} wynika, że rodzina { H i : i I } {\displaystyle \{H_{i}\colon i\in I\}} składa się z co najwyżej przeliczalnie wielu zbiorów. Zdarzenia H i {\displaystyle H_{i}} nazywane są czasem hipotezami[1].

Dowód

Korzystając z definicji prawdopodobieństwa warunkowego oraz właściwości samego prawdopodobieństwa, mamy

P ( A ) = P ( i I A H i ) = i I P ( A H i ) = i I   P ( A H i ) P ( H i ) . {\displaystyle {\mathsf {P}}(A)={\mathsf {P}}\left(\bigcup _{i\in I}A\cap H_{i}\right)=\sum _{i\in I}{\mathsf {P}}(A\cap H_{i})=\sum _{i\in I}~{\mathsf {P}}(A\mid H_{i}){\mathsf {P}}(H_{i}).}

Zastosowania

Typowym zastosowaniem jest sytuacja w której dane zdarzenie może zajść na kilka sposobów, przy czym każdy sposób realizuje się z określonym prawdopodobieństwem. Twierdzenie – zgodnie ze swą nazwą – pozwala obliczyć całkowite prawdopodobieństwo zajścia danego zdarzenia.

Przykład

Żarówki pewnej marki są produkowane w dwóch fabrykach X i Y. Żarówki z fabryki X działają dłużej niż 5000 godzin w 99% przypadków, żarówki z fabryki Y tylko w 95% przypadków. Fabryka X dostarcza na rynek 60% żarówek tej marki. Jakie jest prawdopodobieństwo, że zakupiona losowo żarówka będzie sprawna dłużej niż 5000 godzin?

Twierdzenie podaje odpowiedź:

P ( A ) = P ( A | B 1 ) P ( B 1 ) + P ( A | B 2 ) P ( B 2 ) = 99 100 6 10 + 95 100 4 10 = 594 + 380 1000 = 974 1000 , {\displaystyle {\mathsf {P}}(A)={\mathsf {P}}(A|B_{1})\cdot {\mathsf {P}}(B_{1})+{\mathsf {P}}(A|B_{2})\cdot {\mathsf {P}}(B_{2})={\frac {99}{100}}\cdot {\frac {6}{10}}+{\frac {95}{100}}\cdot {\frac {4}{10}}={\frac {594+380}{1000}}={\frac {974}{1000}},}

gdzie:

  • P ( B 1 ) = 6 10 {\displaystyle {\mathsf {P}}(B_{1})={\frac {6}{10}}} to prawdopodobieństwo zdarzenia, że kupiona żarówka została wyprodukowana w zakładzie X;
  • P ( B 2 ) = 4 10 {\displaystyle {\mathsf {P}}(B_{2})={\frac {4}{10}}} to prawdopodobieństwo zdarzenia, że kupiona żarówka została wyprodukowana w zakładzie Y;
  • P ( A | B 1 ) = 99 100 {\displaystyle {\mathsf {P}}(A|B_{1})={\frac {99}{100}}} to prawdopodobieństwo zdarzenia, że żarówka będzie sprawna dłużej niż 5000 godzin pod warunkiem, że pochodzi z zakładu X;
  • P ( A | B 2 ) = 95 100 {\displaystyle {\mathsf {P}}(A|B_{2})={\frac {95}{100}}} to prawdopodobieństwo zdarzenia, że żarówka będzie sprawna dłużej niż 5000 godzin pod warunkiem, że pochodzi z zakładu Y.

Losowo zakupiona żarówka będzie działać dłużej niż 5000 godzin w 97,4% przypadków.

Twierdzenie o warunkowym prawdopodobieństwie całkowitym

Teza

Do założeń poprzedniego twierdzenia dodajmy zdarzenie B F {\displaystyle B\in {\mathcal {F}}} dla którego P ( B ) > 0. {\displaystyle P(B)>0.} Zachodzi wtedy wzór[2]:

P ( A | B ) = i I P ( A | B H i ) P ( H i | B ) . {\displaystyle {\mathsf {P}}(A|B)=\sum _{i\in I}{\mathsf {P}}(A|B\cap H_{i}){\mathsf {P}}(H_{i}|B).}

Dowód

Można, jak w poprzednim przypadku, przekształcić prawą stronę, otrzymując w ten sposób lewą, lub też zauważyć, że

P ( | B ) = P B ( ) {\displaystyle {\mathsf {P}}(\cdot |B)={\mathsf {P}}_{B}(\cdot )}

jest miarą probabilistyczną, a zatem jest więc sens mówić o P B ( A | C ) , {\displaystyle {\mathsf {P}}_{B}(A|C),} tj. prawdopodobieństwie zajścia zdarzenia A {\displaystyle A} pod warunkiem zajścia zdarzenia C , {\displaystyle C,} gdy wiemy, że zaszło zdarzenie B . {\displaystyle B.} Zachodzi równość[2]:

P B ( A | H ) = P B ( A H ) P B ( H ) = P ( A H B ) / P ( B ) P ( H B ) / P ( B ) = P ( A | H B ) . {\displaystyle {\mathsf {P}}_{B}(A|H)={\frac {{\mathsf {P}}_{B}(A\cap H)}{{\mathsf {P}}_{B}(H)}}={\frac {{\mathsf {P}}(A\cap H\cap B)/{\mathsf {P}}(B)}{{\mathsf {P}}(H\cap B)/{\mathsf {P}}(B)}}={\mathsf {P}}(A|H\cap B).}

Twierdzenie to jest więc wzorem na prawdopodobieństwo całkowite dla prawdopodobieństwa P B ( ) . {\displaystyle {\mathsf {P}}_{B}(\cdot ).}

Zobacz też

  • wzór Bayesa

Przypisy

Bibliografia

  • Jacek Jakubowski, Rafał Sztencel: Wstęp do teorii prawdopodobieństwa. Warszawa: Script, 2004. ISBN 83-89716-01-1.
Encyklopedie internetowe (twierdzenie):
  • Britannica: topic/law-of-total-probability