Skip to Content

Prawdopodobieństwo warunkowe

Zacznijmy od następującego przykładu.

Przykład 1 W dwóch urnach znajdują się czarne i białe piłeczki: w pierwszej urnie 3 czarne i jedna biała, a w drugiej 1 czarna i 3 białe. Wybieramy losowo urnę, a następnie losujemy z niej dwie piłeczki bez zwracania. Jeśli pierwsza wylosowana piłeczka jest czarna, to jakie jest prawdopodobieństwo, że druga też będzie czarna?

Gdybyśmy nie wiedzieli jakiego koloru jest pierwsza piłeczka, to z symetrii wynikałoby, że druga jest czarna z prawdopodobieństwem \(\frac{1}{2}\). To, że pierwsza piłeczka jest czarna sugeruje, że losujemy z pierwszej urny, co powinno zwiększyć prawdopodobieństwo wylosowania czarnej piłeczki w drugim losowaniu. Z drugiej strony, jeśli jednak losujemy z drugiej urny, to czarna piłeczka w pierwszym losowaniu oznacza, że w urnie nie ma już czarnych piłeczek. Który efekt jest mocniejszy? Czy prawdopodobieństwo czarnej piłeczki w drugim losowaniu jest większe czy mniejsze niż \(\frac{1}{2}\)?

Do tego przykładu jeszcze wrócimy, na razie spróbujmy poradzić sobie z prostszym przykładem.

Przykład 2 Rzucamy kostką sześcienną i, nie patrząc na wynik, pytamy kolegę o to, czy wypadła parzysta liczba oczek. Okazuje się, że tak.

  1. Jakie jest prawdopodobieństwo tego, że wypadła liczba podzielna przez 3?
  2. Jakie jest prawdopodobieństwo tego, że wypadła liczba większa niż 3?

Tym razem odpowiedź wydaje się prosta. Skoro wypadła liczba parzysta, to jest to 2, 4 lub 6. Zakładamy, że mamy do czynienia z idealnie symetryczną kostką, a zatem każdy z tych trzech wyników powinien być równie prawdopodobny. Stąd prawdopodobieństwo wypadnięcia liczby podzielnej przez 3 jest równe \(\frac{1}{3}\), bo spośród liczb 2,4,6 tylko jedna jest podzielna przez 3. Podobnie, prawdopodobieństwo wypadnięcia liczby większej niż 3 jest równe \(\frac{2}{3}\).

Spróbujmy przyjrzeć się uważniej temu rozumowaniu. Niech Ω = {1,2,3,4,5,6} będzie zbiorem wszystkich wyników, A = {2,4,6} zdarzeniem, o którym wiemy, że zaszło, a B1 = {3,6} i B2 = {4,5,6} zdarzeniami, których prawdopodobieństwa próbujemy policzyć. Te prawdopodobieństwa nie są zwykłymi prawdopodobieństwami, z jakimi mieliśmy dotychczas do czynienia, tylko prawdopodobieństwami przy założeniu A. Z reguły mówi się o prawdopodobieństwie "pod warunkiem A" i oznacza je odpowiednio P(B1 | A) i P(B2 | A). Metoda, którą zastosowaliśmy w rozumowaniu powyżej sugeruje, że aby obliczyć P(B1 | A) powinniśmy policzyć elementy A, które "pasują" do B1 i podzielić tę liczbę przez liczbę wszystkich elementów A, a zatem

\(P(B_1|A) = \frac{|B_1 \cap A|}{|A|}\)

i podobnie dla B2.

Jesteśmy już gotowi wrócić do przykładu z piłeczkami. Oznaczmy piłeczki z urny pierwszej c1,c2,c3,b1, a piłeczki z urny drugiej b2,b3,b4,c4. Jako Ω przyjmijmy zbiór wszystkich dwuelementowych ciągów piłeczek, które można wyciągnąć z tej samej urny, a zatem \(\Omega = \{ c_1c_2, c_2c_1, c_1c_3, c_3c_1, c_1b_1, \ldots \}\). Ponieważ z każdej z urn losujemy z tym samym prawdopodobieństwem i obie zawierają tę samą liczbę kul, prawdopodobieństwo każdego z ciągów w Ω powinno być takie samo, a zatem korzystamy ze schematu klasycznego.

Zdarzenie A, o którym wiemy, że zaszło wygląda tak

A = {c1c2,c1c3,c1b1,c2c1,c2c3,c2b1,c3c1,c3c2,c3b1,c4b2,c4b3,c4b4}.

Zdarzenie B, którego prawdopodobieństwo chcemy policzyć, zawiera wszystkie ciągi z Ω, w których obie piłeczki są czarne. A zatem \(A \cap B = \{c_1c_2,c_1c_3,c_2c_1,c_2c_3,c_3c_1,c_3c_2\}\). Łatwo sprawdzić, że | A | = 12 oraz \(|A \cap B| = 6\), a zatem \(P(B|A) = \frac{1}{2}\), czyli wylosowanie czarnej piłeczki w pierwszym losowaniu w jakimś sensie nic nam nie mówi o prawdopodobieństwie wylosowania czarnej piłeczki w drugim losowaniu.

Uwaga: W tym przykładzie nie byłoby dobrym pomysłem wybranie jako Ω zbioru wszystkich (nieuporządkowanych) par piłeczek, które można wyciągnąć z jednej urny. Widzisz dlaczego?

Odpowiedź:
Wiemy że w pierwszym losowaniu została wylosowana czarna piłeczki. Przy sugerowanej definicji Ω nie da się tego zdarzenia przedstawić jako podzbioru Ω. Sugerujemy czytelnikowi sprawdzenie tego.

Zadanie 1 Jak zmieni się odpowiedź w przykładzie 1, jeśli zamienimy liczbę 3 na 2. A co jeśli zamienimy 3 na 4? Spróbuj zgadnąć odpowiedź, a potem sprawdź czy udało ci się zgadnąć poprawnie.

Intuicja:
Jeśli w pierwszej urnie są 2 czarne piłeczki i 1 biała, a w drugiej 2 białe i 1 czarna, to dość jasne jest, że szukane prawdopodobieństwo powinno być mniejsze niż \(\frac{1}{2}\). Niezależnie bowiem od tego, z którą urną mamy do czynienia, zostało w niej co najwyżej tyle czarnych piłeczek ile białych, a może się zdarzyć, że czarnych piłeczek nie ma już w urnie.

Jeśli natomiast w pierwszej urnie są 4 czarne piłeczki i 1 biała, a w drugiej 4 białe i 1 czarna, to szukane prawdopodobieństwo powinno być większe niż \(\frac{1}{2}\). W tym przypadku pierwsza czarna piłeczka mocniej niż w oryginalnym zadaniu sugeruje, że mamy do czynienia z urną pierwszą. Co więcej, jeśli faktycznie tak jest, to w urnie zostało więcej niż poprzednio czarnych piłeczek.

Tyle mówi intuicja,sprawdź czy potwierdzi się ona w obliczeniach.

Rozwiązanie:
Postępujemy analogicznie jak w Przykładzie 1.

Jeśli mamy w pierwszej urnie 2 czarne piłeczki i jedną białą (ozn. c1,c2,b1), a w drugiej 2 białe i 1 czarną (ozn. c3,b2,b3), to zdarzenie A polegające na wyciągnięciu czarnej piłeczki w pierwszym losowaniu wygląda następująco: A = {c1c2,c1b1,c2c1,c2b1,c3b2,c3b3}. Jeśli teraz, tak jak poprzednio, przez B oznaczymy zdarzenie polegające na wyciągnięciu czarnej piłeczki w drugim losowaniu, to \(A \cap B = \{c_1c_2,c_2c_1\}\). Mamy więc | A | = 6 i \(|A \cap B|\) = 2, a zatem \(P(B|A) = \frac{1}{3}\).

Jeśli mamy w pierwszej urnie 4 czarne piłeczki i jedną białą, a w drugiej 4 białe i jedną czarną, to analogiczne rozumowanie prowadzi do wyniku | A | = 20 oraz \(|A \cap B| = 12\), a zatem \(P(B|A) = \frac{3}{5}\).

A zatem nasza intuicja potwierdziła się.

Udało nam się, jak dotąd, zdefiniować pojęcie prawdopodobieństwa warunkowego w sytuacji, gdy mamy do czynienia ze schematem klasycznym, tj. wszystkie zdarzenia elementarne są równie prawdopodobne. Spróbujmy uogólnić tę definicję na przypadek ogólny. Zauważmy, że w przypadku prawdopodobieństwa klasycznego mamy:

\(P(B|A) = \frac{|B \cap A|}{|A|} = \frac{\frac{|B \cap A|}{|\Omega|}}{\frac{|A|}{|\Omega|}} = \frac{P(B \cap A)}{P(A)}\)

Ten ostatni wzór jest szukanym przez nas uogólnieniem.

Prawdopodobieństwo warunkowe

Jeśli \(A,B \subseteq \Omega\) są zdarzeniami, przy czym P(A) > 0, to prawdopodobieństwem B pod warunkiem A, nazywamy

\( P(B|A) = \frac{P(A \cap B)}{P(A)}.\)

Uwaga Założenie, że P(A) > 0 jest potrzebne, żeby iloraz definiujący P(B | A) był dobrze określony.

Zadanie 2 Mamy 3 kartki, każda z nich jest z obu stron pomalowana na pewien kolor, przy czym może to być ten sam kolor dla obu stron. Pierwsza kartka jest biało-biała, druga biało-czarna, a trzecia czarno-czarna. Kolega losuje jedną z kartek i pokazuje nam jedną z jej stron, także wybraną losowo. Strona ta jest pomalowana na kolor czarny. Jakie jest prawdopodobieństwo tego, że kartka ta jest czarna z drugiej strony?

Rozwiązanie:
Niech A będzie zdarzeniem odpowiadającym temu, że wylosowana strona kartki jest czarna, a B temu, że obie są czarne. Naszym zadaniem jest obliczenie prawdopodobieństwa warunkowego P(B | A). Wiemy, że:

  • \(P(A)=\frac{1}{2}\) (z symetrii), oraz
  • \(P(B \cap A) = P(B) = \frac{1}{3}\) (ze schematu klasycznego, wylosowanie każdej z kartek jest równie prawdopodobne).

A zatem:

\(P(B|A) = \frac{P(B \cap A)}{P(A)} = \frac{\frac{1}{3}}{\frac{1}{2}} = \frac{2}{3} \)

Wynik ten dla osoby bez doświadczenia w analizowaniu tego typu sytuacji jest dość zaskakujący. Mogłoby się bowiem wydawać, że skoro mamy 2 kartki z czarnymi stronami - czarno-białą i czarno-czarną - to prawdopodobieństwa zobaczenia z drugiej strony koloru białego i czarnego będą równe \(\frac{1}{2}\). Dlaczego tak nie jest?

Można to dość łatwo wyjaśnić. Otoż, kartki biało-czarna i czarno-czarna są wybierane tak samo często, ale jeśli została wybrana ta pierwsza, to tylko w połowie przypadków zobaczymy czarną stronę.

Jeszcze inaczej: są trzy czarne strony, każdą z nich zobaczymy z tym samym prowadopodobieństwem, ale dwie z nich należą do kartki czarno-czarnej.

Zadanie 3 Z talii 52 kart wybieramy losowo dwie. Szybko spoglądamy na rożki kart i jedynym co zdążyliśmy dostrzec jest to, że obie karty są czarne (piki lub trefle). Jakie jest prawdopodobieństwo tego, że obie są pikami?

Rozwiązanie:
Niech Ω będzie zbiorem wszystkich dwuelementowych podzbiorów standardowej talii kart, tj. \(\Omega = \{\{A\spadesuit,K\spadesuit \},\{A\spadesuit,Q\spadesuit\},\{A\spadesuit,J\spadesuit\},\ldots\}\). Każdy z podzbiorów jest jednakowo prawdopodobny, a zatem korzystamy ze schematu klasycznego.

Niech \( A \subseteq \Omega\) będzie zdarzeniem odpowiadającym wyciągnięciu dwóch kart w kolorach czarnych (piki lub trefle), a \(B \subseteq \Omega\) niech odpowiada wyciągnięciu dwóch pików. Interesujące nas prawdopodobieństwo warunkowe to P(B | A). Z definicji wiemy, że

\( P(B|A) = \frac{P(B \cap A)}{P(A)} = \frac{P(B)}{P(A)}\) (bo \( B \subseteq A\)).

Ponieważ korzystamy ze schematu klasycznego to mamy też

\( P(B|A) = \frac{P(B)}{P(A)} = \frac{|B|}{|A|}\).

Pozostaje obliczyć moce zbiorów A i B. Elementami zbioru A są wszystkie dwuelementowe podzbiory 26-elementowego zbioru trefli i pików, a zatem \(|A| = {{26} \choose 2}\). Podobnie dostajemy \(|B| = {{13} \choose 2}\). A zatem:

\( P(B|A) =\frac{{{13} \choose 2}}{{{26} \choose 2}} = \frac{\frac{13!}{11!2!}}{\frac{26!}{24!2!}} = \frac{13\cdot 12}{26 \cdot 25} = \frac{12}{50} = 0.24\).

Do wniosku, że wynik będzie nieco mniejszy niż \(\frac{1}{4}\) można też dojść bez szczegółowych obliczeń. Wystarczy zauważyć, że są cztery czarne kombinacje as-król: \(A\spadesuit K\spadesuit, A\spadesuit K\clubsuit, A\clubsuit, K\spadesuit, A\clubsuit, K\clubsuit\), z których jedna składa się z samych pików. To samo można powiedzieć o dowolnej innej parze rang kart. Kombinacji pik-pik byłaby więc dokładnie \(\frac{1}{4}\), gdyby nie pary - dwa asy, dwa króle itd. można mieć tylko w różnych kolorach.

Zadanie 4 Dzwonimy do losowo wybranej osoby i pytamy ją, czy ma dokładnie dwójkę dzieci. Okazuje się, że tak. Pytamy teraz, czy któreś z dzieci jest chłopcem, i znów otrzymujemy odpowiedź pozytywną. Jakie jest prawdopodobieństwo tego, że drugie dziecko też jest chłopcem? Spróbuj zgadnąć odpowiedź, a następnie ją sprawdzić.

Wskazówka:
Mogłoby się wydawać, że prawdopodobieństwo to jest równe \(\frac{1}{2}\), ale nie jest to prawidłowa odpowiedź. Zastanów się jak należy zdefiniować w tym zadaniu Ω, aby móc użyć schematu klasycznego.
Rozwiązanie:
Przyjmiemy, że dwójka dzieci może przyjść na świat w jednej z czterech kolejności: chłopiec-chłopiec, chłopiec-dziewczynka, dziewczynka-chłopiec lub dziewczynka-dziewczynka i że każda z możliwości jest równie prawdopodobna. Jest to oczywiście pewne uproszczenie, ale dość bliskie temu co można w rzeczywistości zaobserwować.

Możemy zatem wziąć Ω = {cc,cd,dc,dd} i użyć schematu klasycznego do zdefiniowania prawdopodobieństwa. Niech teraz, \(A \subseteq \Omega\) będzie zdarzeniem odpowiadającym temu, że któreś z dzieci jest chłopcem, t.j. A = {cc,cd,dc}, a \(B \subseteq \Omega\) niech będzie zdarzeniem odpowiadającym dwóm chłopcom, t.j. B = {cc}. Chcemy obliczyć P(B | A). Z definicji dostajemy

\( P(B|A) = \frac{|B|}{|A|} = \frac{1}{3}\)

Wśród rodzin dwudzietnych, w których co najmniej jedno dziecko jest chłopcem, tylko w \(\frac{1}{3}\) jest dwóch chłopców.

Zadanie 5 (*) W sytuacji jak w poprzednim zadaniu pytamy osobę do której zadzwoniliśmy, czy któreś z jej dwójki dzieci ma na imię Jan. Okazuje się, że tak. Jakie jest prawdopodobieństwo tego, że drugie dziecko też jest chłopcem.

Wskazówka:
W tym zadaniu musisz przyjąć pewne dodatkowe założenia. Możesz na przykład założyć, że istnieje dokładnie 100 imion męskich i 100 imion żeńskich, oraz że każde z imion jest wybierane z równym prawdopodobieństwem. Wygodnie jest też nie wykluczać sytuacji, w której dwójka dzieci ma to samo imię. Może się wydawać, że odpowiedź uzyskana dzięki tak drastycznym uproszczeniom ma niewielką wartość. W praktyce okazuje się, że jest ona całkiem niezła.
Rozwiązanie:
Skorzystamy ze wskazówki i założymy, że istnieje dokładnie 200 imion: 100 męskich i 100 żeńskich, i że wszystkie mają to samo prawdopodobieństwo. Niech N będzie zbiorem wszystkich imion. Wtedy za Ω możemy wziąć zbiór wszystkich dwuelementowych ciągów elementów N, t.j. \(\Omega = \{(n_1,n_2): n_1,n_2 \in N\}\) (dopuszczamy sytuację, gdy dwójka dzieci ma to samo imię). Przyjmujemy, że wszystkie ciągi są równie prawdopodobne, tzn. korzystamy ze schematu klasycznego.

Niech teraz \(A \subseteq \Omega\) będzie zdarzeniem odpowiadającym sytuacji, w której co najmniej jedno z dzieci ma na imię Jan, a \(B \subseteq \Omega\) niech odpowiada sytuacji, w której dodatkowo drugie dziecko jest chłopcem. Interesuje nas wartość P(B | A) Możemy je obliczyć podobnie jak poprzednio, musimy jednak znać moce A i B.

Jest 200 ciągów, w których pierwszym elementem jest imię "Jan", a drugi element jest dowolny. Jest też 200 ciągów, w których drugim elementem jest "Jan". Razem ciągów, w których występuje imię "Jan" jest | A | = 200 + 200 − 1 = 399, bo ciąg (Jan,Jan) liczymy w ten sposób dwukrotnie. W podobny sposób dostajemy | B | = 100 + 100 − 1 = 199. A zatem:

\(P(B|A) = \frac{|B|}{|A|} = \frac{199}{399} \approx \frac{1}{2}\).

Zadanie 6 Mamy dwie monety: monetę symetryczną i monetę z orłem po obu stronach (tę drugą monetę będziemy nazywali fałszywą). Rzucamy losowo wybraną monetą. Niech A będzie zdarzeniem odpowiadającym wybraniu fałszywej monety, a B niech będzie zdarzeniem odpowiadającym wypadnięciu orła. Wtedy P(B) < 1, ale P(B | A) = 1. Można powiedzieć, że zdarzenie A zwiększa szansę zajścia zdarzenia B. Intuicyjnie, jeśli na rzuconej monecie wypadnie orzeł, to mamy prawo podejrzewać, że może to być moneta fałszywa, tj. spodziewamy się, że zachodzi także:

P(A | B) > P(A).

Czy jest tak rzeczywiście? I ogólniej, czy jeśli dla pewnych zdarzeń A,B zachodzi P(B | A) > P(B), to także P(A | B) > P(A)?

Rozwiązanie:
Sprawdźmy. Skoro \(P(B) < P(B|A) = \frac{P(B \cap A)}{P(A)}\), to \( P(B)P(A) < P(B \cap A)\). Stąd \(P(A) < \frac{P(B \cap A)}{P(B)} = P(A|B)\).

A zatem teza z treści zadania jest prawdziwa.

Uwaga Zdarzenia A,B takie jak w powyższym zadaniu nazywa się w teorii prawdopodobieństwa zdarzeniami dodatnio skorelowanymi. Można też mówić o zdarzeniach ujemnie skorelowanych - to takie, które nawzajem zmniejszają swoje szanse zajścia. Dokładniejsze omówienie tych pojęć wykracza poza zakres tego kursu.


Wzór na prawdopodobieństwo iloczynu zdarzeń

Przez pozostałą część tego rozdziału będziemy analizowali następujący, niezwykle pouczający, przykład.

Przykład 3 Wiadomo, że 0,001 populacji cierpi na chorobę X. Dysponujemy testem, który myli się z prawdopodobieństwem 0,05, tj.

  • jeśli badamy osobę zdrową, to z prawdopodobieństwem 0,95 test daje wynik negatywny (czyli mówi, że badana osoba jest zdrowa), a z prawdopodobieństwem 0,05 wynik pozytywny,
  • jeśli badamy osobę chorą, to z prawdopodobieństwem 0,95 test daje wynik pozytywny, a z prawdopodobieństwem 0,05 wynik negatywny.

Badamy losowo wybraną osobę i otrzymujemy wynik pozytywny. Jakie jest prawdopodobieństwo tego, że badana osoba faktycznie jest chora?

Zadanie 7 Jak sądzisz, ile wynosi to prawdopodobieństwo i dlaczego? W tym zadaniu pytamy jedynie o intuicję, formalnym rozwiązaniem zajmiemy się w dalszej części rozdziału.

Komentarz:
Poprawną odpowiedź poznamy w dalszej części rozdziału. Warto jednak w tym miejscu wspomnieć, że pytanie to zadano grupie amerykańskich lekarzy i większość z nich podała odpowiedź 0,95 bardzo daleką od prawidłowej. Jeśli także wybrałeś tę odpowiedź lub odpowiedź jej bliską, czeka Cię spora niespodzianka.

W jaki sposób moglibyśmy obliczyć to prawdopodobieństwo? Narzuca się następujące rozumowanie. Niech Ω będzie zbiorem zdarzeń elementarnych (którego w tym przypadku nie definiujemy, ponieważ nie jest to konieczne), zdefiniujmy następujące zdarzenia:

  • C - wylosowana osoba jest chora,
  • Z = Ω − C - wylosowana osoba jest zdrowa,
  • T - test dał wynik pozytywny (T jak TAK),

Na podstawie treści zadania wiemy, że:

  • P(C) = 0.001,
  • P(Z) = 0.999,
  • P(T | C) = 0.95,
  • P(T | Z) = 0.05.

Interesuje nas prawdopodobieństwo warunkowe P(C | T). Z definicji dostajemy

\( P(C|T) = \frac{P(C \cap T)}{P(T)}. \)

Zacznijmy od obliczenia wartości licznika \(P(C \cap T)\), mianownikiem zajmiemy się poźniej. Aby obliczyć wartość licznika, skorzystamy ze wzoru definiującego P(T | C), tzn.

\( P(T|C) = \frac{P(C \cap T)}{P(C)}. \)

Wynika z niego, że \(P(C \cap T) = P(C) P(T|C) = 0.001 \cdot 0.95 = 0.00095 \).

Stała się tutaj rzecz dość ciekawa - aby obliczyć prawdopodobieństwo iloczynu zdarzeń użyliśmy wzoru definiującego prawdopodobieństwo warunkowe. Ujmijmy tę technikę w twierdzenie, przy okazji uogólniając ją na więcej niż dwa zdarzenia.

Twierdzenie (Wzór na prawdopodobieństwo iloczynu zdarzeń)

Jeśli \(A,B \subseteq \Omega\) są zdarzeniami, przy czym P(A) > 0, to zachodzi

\( P(A \cap B) = P(A) P(B|A). \)

Ogólniej, jeśli \(A_1,\ldots,A_n \subseteq \Omega \) są zdarzeniami przy czym \(P(A_1 \cap \ldots \cap A_{n-1}) > 0\), to zachodzi

\( P(A_1 \cap \ldots \cap A_n) = P(A_1) P(A_2|A_1) P(A_3|A_1 \cap A_2) \ldots P(A_n|A_1 \cap \ldots \cap A_{n-1})\)

Dowód:
Dowód prostej wersji tego twierdzenia już przeprowadziliśmy.

Dowód trudniejszej przebiega przez indukcję. Przypadkiem bazowym jest prosta wersja twierdzenia, a dla n > 2 mamy

\( P(A_1 \cap \ldots \cap A_n) = P( (A_1 \cap \ldots \cap A_{n-1}) \cap A_n) = P(A_1 \cap \ldots \cap A_{n-1}) P(A_n|A_1 \cap \ldots \cap A_{n-1}) = P(A_1) P(A_2|A_1) P(A_3|A_1 \cap A_2) \ldots P(A_n|A_1 \cap \ldots \cap A_{n-1})\)

W drugim kroku korzystamy z prostej wersji twierdzenia, a w ostatnim z założenia indukcyjnego.

Zadanie 8 W urnie znajduje się 5 kul białych i 5 kul czarnych. Losujemy 3 kule bez zwracania. Jakie jest prawdopodobieństwo wylosowania kolejno kul: czarnej, białej, czarnej?

Rozwiązanie:
Niech C1,B2,C3 będą zdarzeniami odpowiadającymi wyciągnięciu odpowiednio: czarnej kuli w pierwszym losowaniu, białej kuli w drugim losowaniu i czarnej kuli w trzecim losowaniu (pomijamy tym razem definicję Ω - dowolna definicja, przy której da się przedstawić C1,B2,C3 jako podzbiory Ω jest dobra).

Interesuje nas prawdopodobieństwo \(P(C_1 \cap B_2 \cap C_3)\) Ze wzoru na iloczyn zdarzeń mamy \( P(C_1 \cap B_2 \cap C_3) = P(C_1) P(B_2 | C_1) P(C_3|C_1 \cap B_2) \).

Ponadto:

  • \(P(C_1) = \frac{5}{10}\),
  • \(P(B_2|C_1) = \frac{5}{9}\), bo jeśli w pierwszym losowaniu wyciągneliśmy kulę czarną, to w urnie zostało 9 kul, z czego 5 białych,
  • \(P(C_3|C_1 \cap B_2) = \frac{4}{8}\), j.w.

A zatem

\( P(C_1 \cap B_2 \cap C_3) = \frac{5}{10} \cdot \frac{5}{9} \cdot \frac{4}{8} = \frac{5}{36}\).

Zadanie 9 Jan i Stefan grają serię meczy tenisowych. Ponieważ grają oni na zbliżonym poziomie, każdy z nich ma szansę \(\frac{1}{2}\) na wygranie pierwszego meczu rozgrywanego danego dnia. Sytuacja komplikuje się w kolejnych meczach - ten kto ostatnio wygrał ma przewagę psychologiczną, która zwiększa jego szanse. Jeśli jeden z zawodników wygrał k ostatnich meczy, to jego szanse na zwycięstwo w kolejnym są równe \(\frac{k+1}{k+2}\).

Jakie jest prawdopodobieństwo wygrania przez Jana pierwszych trzech meczy danego dnia?

Rozwiązanie:
Niech J1,J2,J3 będą zdarzeniami odpowiadającymi zwycięstwu Jana odpowiednio w pierwszym, drugim i trzecim meczu danego dnia. Interesuje nas

\( P(J_1 \cap J_2 \cap J_3) = P(J_1) P(J_2|J_1) P(J_3| J_1 \cap J_2)\). Z treści zadania wynika, że:

  • \( P(J_1) = \frac{1}{2}\),
  • \( P(J_2|J_1) = \frac{2}{3} \),
  • \( P(J_3|J_1 \cap J_2) = \frac{3}{4} \).

A zatem

\( P(J_1 \cap J_2 \cap J_3) = \frac{1}{2} \cdot \frac{2}{3} \cdot \frac{3}{4} = \frac{1}{4} \)

Przykład 4 W urnie znajduje się 5 kul białych i 3 czarne. Losujemy 3 kule bez zwracania. Jakie jest prawdopodobieństwo wylosowania dokładnie 2 kul czarnych?

Postępujemy podobnie jak w zadaniu 8. Aby jednak móc skorzystać ze wzoru na iloczyn zdarzeń musimy interesujące nas zdarzenie odpowiednio przedstawić. Niech:

  • A będzie zdarzeniem odpowiadającym wyciągnieciu kolejno kul czarnej-czarnej-białej,
  • B j.w. dla kolejności czarnej-białej-czarnej,
  • C j.w. dla kolejności białej-czarnej-czarnej.

Wtedy naszym celem jest obliczenie \(P(A \cup B \cup C) = P(A)+P(B)+P(C)\) (bo A,B,C są rozłączne). Każde z tych trzech prawdopodobieństw można obliczyć metodą z poprzednich dwóch zadań uzyskując odpowiednio:

  • \(P(A)=\frac{3}{8}\cdot\frac{2}{7}\cdot\frac{5}{6} = \frac{5}{56} \),
  • \(P(B)=\frac{3}{8}\cdot\frac{5}{7}\cdot\frac{2}{6} = \frac{5}{56} \),
  • \(P(C)=\frac{5}{8}\cdot\frac{3}{7}\cdot\frac{2}{6} = \frac{5}{56} \)

(zachęcamy do uzasadnienia tych rachunków i zastanowienia się czy to, że trzykrotnie uzyskaliśmy ten sam wynik jest przypadkiem).

Ostatecznie dostajemy \(P(A \cup B \cup C) = \frac{15}{56}\).

Na powyższe rozumowanie można spojrzeć także w następujący sposób: Losowanie trzech kul można opisać za pomocą drzewka jak poniżej. Każde rozgałęzienie drzewka odpowiada dwóm możliwych wynikom losowania, liczby na krawędziach są prawdopodobieństwami tego, że w losowaniu uzyskamy dany rezultat. Warto zwrócić uwagę na to, że są to prawdopodobieństwa warunkowe. Na przykład drugiej krawędzi na ścieżce czarna-czarna przypisujemy prawdopodobieństwo \(\frac{2}{7}\), ponieważ po wylosowaniu czarnej kuli w urnie zostaje 7 kul, z czego 2 czarne.

Zdarzenia A,B,C odpowiadają trzem ścieżkom zaznaczonym na rysunku. Obliczenie ich prawdopodobieństw ze wzoru na prawdopodobieństwo iloczynu zdarzeń sprowadza się do wymnożenia wszystkich liczb na odpowiednich ścieżkach.

Taka metoda rozwiązywania zadań, w których pojawiają się prawdopodobieństwa warunkowe, prowadzi do rozwiązań czytelnych i zwięzłych - w rozwiązaniu za pomocą drzewka nie wprowadziliśmy żadnej definicji, wystarczył sam rysunek i linijka obliczeń! Warto jednak pamiętać o dwóch kwestiach. Po pierwsze, metoda drzewek nie musi się dać zastosować w każdym zadaniu. Po drugie, brak definicji i oznaczeń może także prowadzić do błędów i pomyłek. Szczególnie łatwo jest popełnić błąd na etapie konstruowania drzewka odpowiadającego danej sytuacji. Dlatego zachęcając do stosowania tej metody tam gdzie jest to możliwe, jednocześnie przestrzegamy przed używaniem jest w sposób mechaniczny.


Wzór na prawdopodobieństwo całkowite

Wróćmy teraz do przykładu 3

Przykład 3 (c.d.) Przekształcając w odpowiedni sposób definicję prawdopodobieństwa warunkowego udało nam się obliczyć \(P(T \cap C) = P(C)P(T|C)\), czyli licznik interesującego nas wyrażenia \(P(C|T) = \frac{P(T \cap C)}{P(T)}\).

A jak obliczyć mianownik, tzn. prawdopodobieństwo uzyskania w teście wyniku pozytywnego? Otóż możemy rozbić zdarzenie T na dwa przypadki:

  • \(C \cap T\) - wylosowaliśmy osobę chorą i test dał wynik pozytywny, lub
  • \(Z \cap T\) - wylosowaliśmy osobę zdrową i test dał wynik pozytywny.

Jest jasne, że \(T=(C\cap T) \cup (Z \cap T)\). Ponadto, zbiory te są rozłączne. A zatem

\( P(T) = P(C \cap T) + P(Z \cap T) \)

Pierwszy składnik tej sumy już znamy, drugi możemy obliczyć w analogiczny sposób uzyskując \( P(Z \cap T) = P(Z) P(T|Z) \). Łącząc te wyniki dostajemy

P(T) = P(C)P(T | C) + P(Z)P(T | Z) = 0.00095 + 0.04995 = 0.0509

Mamy już wszystkie dane, aby obliczyć prawdopodobieństwo tego, że mamy do czynienia z osobą chorą, jeśli test dał wynik pozytywny

\( P(C|T) = \frac{P(C \cap T)}{P(T)} = \frac{0.00095}{0.0509} \approx 0.02\)

A zatem prawdopodobieństwo to wynosi około 2%. Mało kto, widząc to zadanie po raz pierwszy, spodziewa się, że jest ono tak niskie.

Do tego wyniku i jego intuicyjnego uzasadnienia wkrótce wrócimy. Na razie przyjrzyjmy się użytej przez nas metodzie obliczenia prawdopodobieństwa P(T). Następujące twierdzenie opisuje ideę tej metody, przy okazji nieco ją uogólniając.

Twierdzenie (Wzór na prawdopodobieństwo całkowite):

Niech \(A_1,\ldots,A_k \subseteq \Omega\) będą parami rozłączne oraz niech \(A_1 \cup \ldots \cup A_k = \Omega\). Ponadto niech P(Ai) > 0 dla \(i=1,\ldots,k\). Wtedy dla dowolnego zdarzenia B zachodzi

\(P(B) = P(A_1)P(B|A_1)+\ldots+P(A_k)P(B|A_k).\)

Dowód:
Skoro zbiory \(A_1,\ldots,A_k\) są parami rozłączne i \(A_1 \cup \ldots \cup A_k = \Omega\), to mamy

\( P(B) = P(B \cap \Omega) = P(B \cap (A_1 \cup \ldots \cup A_k)) = P(B \cap A_1) + \ldots + P(B \cap A_k)\).

Każde z prawdopodobieństw postaci \(P(B \cap A_i)\) jest na mocy wzoru na iloczyn zdarzeń równe P(Ai)P(B | Ai) i dostajemy tezę twierdzenia.

Zbiory Ai w powyższym twierdzeniu to przypadki, z których dokładnie jeden zachodzi. Jeśli znamy prawdopodobieństwa przypadków oraz prawdopodobieństwa warunkowe interesującego nas zdarzenia B w każdym z przypadków, to możemy obliczyć prawdopodobieństwo B.

Zadanie 10 Grasz w turnieju szachowym, w którym z połową graczy masz szansę wygrania 30% (gracze mocni), z 25% graczy szansę 40% (gracze średni), i z 25% graczy szansę 50% (gracze słabi). Pierwszą partię rozgrywasz z losowym przeciwnikiem. Jakie są twoje szanse wygrania?

Rozwiązanie:
Niech A1,A2,A3 będą zdarzeniami odpowiadającymi trafieniu na gracza odpowiednio: mocnego, średniego i słabego. Ponadto niech B będzie zdarzeniem odpowiadającym wygranej. Naszym celem jest obliczenie P(B). Skorzystamy w tym celu ze wzoru na prawdopodobieństwo całkowite, przy czym naszymi przypadkami będą zdarzenia A1,A2,A3.

Łatwo sprawdzić, że założenia twierdzenia są spełnione. Ponadto z treści zadania wynika, że:

  • \(P(A_1) = \frac{1}{2}, P(A_2) = \frac{1}{4}, P(A_3) = \frac{1}{4}\),
  • \(P(B|A_1) = \frac{3}{10}, P(B|A_2) = \frac{4}{10}, P(B|A_3) = \frac{5}{10}\).

A zatem

\(P(B) = P(A_1)P(B|A_1)+P(A_2)P(B|A_2)+P(A_3)P(B|A_3)=\frac{1}{2}\cdot\frac{3}{10}+\frac{1}{4}\cdot\frac{4}{10}+\frac{1}{4}\cdot\frac{5}{10}= \frac{15}{40} = \frac{3}{8} \).

Zadanie 11 Mamy dwie urny, w pierwszej znajduje się 5 kul białych i 3 czarne, w drugiej 3 kule białe i 5 czarnych. Wybieramy losowo urnę, a następnie ciągniemy z niej dwie kule bez zwracania. Jakie jest prawdopodobieństwo tego, że obie kule są czarne?

Rozwiązanie:
Niech A1,A2 będą zdarzeniami odpowiadającymi losowaniu kul odpowiednio z pierwszej/drugiej urny. Niech ponadto B odpowiada wylosowaniu dwóch kul czarnych. Interesuje nas P(B). Z treści zadania wynika, że:

  • \(P(A_1) = P(A_2) = \frac{1}{2}\),
  • \(P(B|A_1) = \frac{3}{8} \cdot \frac{2}{7} = \frac{3}{28}\) (ze wzoru na iloczyn zdarzeń),
  • \(P(B|A_2) = \frac{5}{8} \cdot \frac{4}{7} = \frac{10}{28}\).

A zatem ze wzoru na prawdopodobieństwo całkowite dostajemy

\( P(B) = P(A_1)P(B|A_1) + P(A_2)P(B|A_2) = \frac{1}{2}\cdot\frac{3}{28} + \frac{1}{2} \cdot \frac{10}{28} = \frac{13}{56} \)


Wzór Bayesa

Wróćmy po raz ostatni do przykładu 3 i przypomnijmy uzyskany przez nas wzór na P(C | T):

\(P(C|T) = \frac{P(C \cap T)}{P(T)} = \frac{P(C)P(T|C)}{P(C)P(T|C)+P(Z)P(T|Z)}.\)

Jest to szczególny przypadek bardzo ważnego twierdzenia, zwanego twierdzeniem Bayesa.

Twierdzenie Bayesa:

Niech \(A_1,\ldots,A_k \subseteq \Omega\) będą parami rozłączne oraz niech \(A_1 \cup \ldots \cup A_k = \Omega\). Ponadto niech P(Ai) > 0 dla \(i=1,\ldots,k\). Wtedy dla dowolnego zdarzenia B i dowolnego \(i \in \{1,\ldots,k\}\) zachodzi

\(P(A_i|B) = \frac{P(A_i \cap B)}{P(A_1 \cap B)+\ldots+P(A_k \cap B)} = \frac{P(A_i)P(B|A_i)}{P(A_1)P(B|A_1)+\ldots+P(A_k)P(B|A_k)}.\)

Dowód:
Dowód wynika wprost z definicji prawdopodobieństwa warunkowego i ze wzoru na prawdopodobieństwo całkowite. Mamy mianowicie:

\( P(A_i|B) = \frac{P(A_i \cap B)}{P(B)} = \frac{P(A_i \cap B)}{P(A_1 \cap B)+\ldots+P(A_k \cap B)} \)

Druga równość wynika z tego, że zbiory Ai są rozłączne i sumują się do Ω, jak w dowodzie wzoru na prawdopodobieństwo całkowite. Aby pokazać drugą część tezy twierdzenia wystarczy zastąpić każde z wyrażeń \(P(A_i \cap B)\) iloczynem P(Ai)P(B | Ai) na mocy wzoru na iloczyn zdarzeń.

Zadanie 12 W sejmie zasiadają posłowie dwóch partii, nazwijmy je A i B. Posłów partii A jest a, a posłów partii B jest b. Posłowie partii A nigdy nie zmieniają zdania na żaden temat, a każdy z posłów partii B zmienia zdanie na temat głosowanej ustawy pomiędzy dwoma jej głosowaniami z prawdopodobieństwem p.

Obserwujemy losowego posła i głosuje on w ten sam sposób w dwóch kolejnych głosowaniach. Jakie jest prawdopodobieńswo, że poseł ten pochodzi z partii A?

Rozwiązanie:
Niech A,B będą zdarzeniami odpowiadającymi temu, że wylosowany przez nas poseł reprezentuje odpowiednio partię A/B. Niech ponadto zdarzenie T odpowiada sytuacji, w której poseł ten głosuje w ten sam sposób w obserwowanych przez nas dwóch kolejnych głosowaniach.

Chcemy obliczyć P(A | T). Z twierdzenia Bayesa dostajemy

\( P(A|T) = \frac{P(A)P(T|A)}{P(A)P(T|A)+P(B)P(T|B)}\)

Z treści zadania wiemy, że:

  • \( P(A) = \frac{a}{a+b}, P(B) = \frac{b}{a+b}\),
  • P(T | A) = 1,P(T | B) = p.

A zatem

\( P(A|T) = \frac{\frac{a}{a+b}}{\frac{a}{a+b}+\frac{b}{a+b}\cdot p} = \frac{a}{a+bp}\)

Zadanie 13 Załóżmy, że w sytuacji z zadania o turnieju szachowym, udało Ci się wygrać pierwszy mecz. Jakie jest prawdopdoobieństwo tego, że był to mecz ze słabym przeciwnikiem?

Rozwiązanie:
Przyjmując oznaczenia ze wspomnianego zadania, interesuje nas wartość P(A3 | B). Na mocy twierdzenia Bayesa jest ono równe

\( P(A_3|B) = \frac{P(A_3)P(B|A_3)}{P(A_1)P(B|A_1)+P(A_2)P(B|A_2)+P(A_3)P(B|A_3)}\).

Gdybyśmy nie rozwiązywali poprzedniego zadania o turnieju szachowym, musielibyśmy teraz obliczyć wartości wszystkich trzech iloczynów występujących w tym wzorze. Tak się jednak szczęśliwie składa, że znamy ich wartości (a także wartość sumy wszystkich trzech, t.j. P(B)) z rozwiązania poprzedniego zadania. Dostajemy:

\( P(A_3|B) = \frac{\frac{1}{8}}{\frac{3}{8}} = \frac{1}{3} \).

W tym i poprzednim zadaniu dobrze widać, że o twierdzeniu Bayesa można myśleć jak o uaktualnianiu naszej wiedzy poprzez branie pod uwagę nowych informacji. Na początku meczu mamy prawo sądzić, że nasz przeciwnik jest słaby z prawdopodobieństwem \(\frac{1}{4}\). Kiedy jednak udaje nam się z nim wygrać mecz, wartość ta rośnie do \(\frac{1}{3}\). Twierdzenie Bayesa świetnie nadaje się do przeprowadzania takich właśnie rozumowań. Spróbuj popatrzeć w podobny sposób na wynik poprzedniego zadania.

Zadanie 14 Wróćmy do zadania 11, w którym ciągniemy kule z losowej urny. Przyjmijmy, że nie wiemy, z którą urną mamy do czynienia (urny są wykonane z nieprzezroczystego materiału). Jeśli pierwsza wyciągnieta kula jest czarna, to jakie jest prawdopodobieństwo tego, że kolejna też będzie czarna.

Uwaga: To zadanie można rozwiązać korzystając bezpośrednio ze schematu klasycznego oraz z definicji prawdopodobieństwa warunkowego, tak jak w przykładzie 1. Spróbuj jednak wykorzystać wynik z zadania 11 oraz materiał z tego podrozdziału.

Rozwiązanie:
Tak jak poprzednio, niech A1,A2 odpowiadają losowaniu kul odpowiednie z pierwszej/drugiej urny. Niech ponadto B1,B2 odpowiadają wyciągnięciu czarnej kuli odpowiednio w pierwszym/drugim losowaniu.

Interesuje nas wartość P(B2 | B1), która z definicji jest równa

\( P(B_2|B_1) = \frac{P(B_2 \cap B_1)}{P(B_1)} \)

Z rozwiązania zadania 11 wiemy, że \(P(B_1 \cap B_2) = \frac{13}{56}\). Wartość P(B1) możemy obliczyć ze wzoru na prawdopodobieństwo całkowite

\( P(B_1) = P(A_1)P(B_1|A_1) + P(A_2) P(B_1|A_2) = \frac{1}{2} \cdot \frac{3}{8} + \frac{1}{2} \cdot \frac{5}{8} = \frac{1}{2} \) (ten wynik można także wywnioskować z symetrii sytuacji).

A zatem

\( P(B_2|B_1) = \frac{\frac{13}{56}}{\frac{1}{2}} = \frac{13}{28}\).