Bedingte Wahrscheinlichkeit
Motivation: Zusatzinformation verändert Wahrscheinlichkeiten
In vielen Situationen ändert sich die Wahrscheinlichkeit eines Ereignisses, wenn man zusätzliche Informationen erhält. Weiß man etwa, dass beim Würfeln eine gerade Zahl gefallen ist, steigt die Wahrscheinlichkeit für eine „6″ von \( \frac{1}{6} \) auf \( \frac{1}{3} \). Die bedingte Wahrscheinlichkeit formalisiert diesen Einfluss von Vorinformation auf Wahrscheinlichkeiten.
Definition
Die bedingte Wahrscheinlichkeit von \( A \) unter der Bedingung \( B \) (gelesen: „Wahrscheinlichkeit von \( A \) gegeben \( B \)“) ist definiert als:
$$P(A \mid B) = \frac{P(A \cap B)}{P(B)}, \quad \text{sofern } P(B) > 0$$
Man teilt die Wahrscheinlichkeit des gemeinsamen Eintretens beider Ereignisse durch die Wahrscheinlichkeit der Bedingung. Anschaulich: Man schränkt die Ergebnismenge auf \( B \) ein und fragt, welcher Anteil davon auch in \( A \) liegt.
Beispiel: Würfeln. \( A = \{6\} \), \( B = \{\text{gerade}\} = \{2, 4, 6\} \). \( P(A \cap B) = P(\{6\}) = \frac{1}{6} \), \( P(B) = \frac{3}{6} = \frac{1}{2} \). Also \( P(A \mid B) = \frac{1/6}{1/2} = \frac{1}{3} \).
Multiplikationsregel
Durch Umstellen der Definition erhält man die Multiplikationsregel:
$$P(A \cap B) = P(B) \cdot P(A \mid B) = P(A) \cdot P(B \mid A)$$
Die Wahrscheinlichkeit des gemeinsamen Eintretens berechnet sich als Produkt der Wahrscheinlichkeit des einen Ereignisses und der bedingten Wahrscheinlichkeit des anderen. Diese Regel ist besonders nützlich bei mehrstufigen Zufallsexperimenten und bildet die Grundlage der Pfadregeln im Baumdiagramm.
Bedingte Wahrscheinlichkeit im Baumdiagramm
Im Baumdiagramm stehen an den Ästen bedingte Wahrscheinlichkeiten. Entlang eines Pfades werden die Wahrscheinlichkeiten multipliziert (erste Pfadregel), und die Wahrscheinlichkeiten paralleler Pfade werden addiert (zweite Pfadregel). Die bedingten Wahrscheinlichkeiten an den Ästen der zweiten Stufe hängen davon ab, was in der ersten Stufe geschehen ist.
Beispiel: Urne ohne Zurücklegen. Eine Urne enthält 3 rote und 2 blaue Kugeln. Es wird zweimal ohne Zurücklegen gezogen. Die bedingte Wahrscheinlichkeit für „rot im 2. Zug“ hängt vom 1. Zug ab: War der erste Zug rot, bleiben 2 rote und 2 blaue Kugeln, also \( P(R_2 \mid R_1) = \frac{2}{4} = \frac{1}{2} \). War der erste Zug blau, bleiben 3 rote und 1 blaue, also \( P(R_2 \mid B_1) = \frac{3}{4} \).
Vertauschte Bedingung
Wichtig: Im Allgemeinen gilt \( P(A \mid B) \neq P(B \mid A) \)! Aus „95 % der Kranken haben Symptom X“ folgt nicht, dass „95 % der Personen mit Symptom X krank sind“. Die Verwechslung dieser beiden bedingten Wahrscheinlichkeiten ist einer der häufigsten Fehler in der Stochastik und kann in medizinischen oder juristischen Kontexten schwerwiegende Fehlschlüsse zur Folge haben.
Bedingte Wahrscheinlichkeit bei Laplace-Experimenten
Beim Laplace-Experiment vereinfacht sich die bedingte Wahrscheinlichkeit zu:
$$P(A \mid B) = \frac{|A \cap B|}{|B|}$$
Man zählt also die Ergebnisse, die sowohl in \( A \) als auch in \( B \) liegen, und teilt durch die Anzahl der Ergebnisse in \( B \). Die neue „Grundmenge“ ist \( B \).
Anwendungsbeispiel: Medizinischer Test
Ein Test erkennt eine Krankheit mit 99 % Sicherheit (Sensitivität), liefert aber bei 2 % der Gesunden ein falsches positives Ergebnis. Die Krankheit betrifft 0,5 % der Bevölkerung. Wie wahrscheinlich ist man krank, wenn der Test positiv ist? Diese Frage erfordert den Satz von Bayes (nächstes Thema), zeigt aber bereits, wie bedingte Wahrscheinlichkeiten in der Praxis zentral sind.
Zusammenfassung
Die bedingte Wahrscheinlichkeit \( P(A \mid B) = \frac{P(A \cap B)}{P(B)} \) quantifiziert, wie Vorinformation die Wahrscheinlichkeit eines Ereignisses beeinflusst. Die Multiplikationsregel verbindet gemeinsame und bedingte Wahrscheinlichkeiten. Im Baumdiagramm stehen bedingte Wahrscheinlichkeiten an den Ästen. Die Nichtvertauschbarkeit der Bedingung (\( P(A|B) \neq P(B|A) \)) ist eine häufige Fehlerquelle und zugleich der Ausgangspunkt für den Satz von Bayes.