Stochastische Unabhängigkeit
Definition
Zwei Ereignisse \( A \) und \( B \) heißen stochastisch unabhängig, wenn das Eintreten des einen keinen Einfluss auf die Wahrscheinlichkeit des anderen hat. Formal gilt:
$$P(A \cap B) = P(A) \cdot P(B)$$
Äquivalent dazu ist \( P(A \mid B) = P(A) \) (sofern \( P(B) > 0 \)), also: Die Kenntnis, dass \( B \) eingetreten ist, ändert die Wahrscheinlichkeit von \( A \) nicht. Die Multiplikationsregel vereinfacht sich bei Unabhängigkeit zum einfachen Produkt der Einzelwahrscheinlichkeiten.
Beispiele für Unabhängigkeit
Beispiel 1: Zweimaliges Würfeln mit einem fairen Würfel. Das Ergebnis des ersten Wurfs beeinflusst das des zweiten nicht. Also sind die Ereignisse \( A = \{\text{erster Wurf 6}\} \) und \( B = \{\text{zweiter Wurf gerade}\} \) unabhängig: \( P(A \cap B) = \frac{1}{6} \cdot \frac{1}{2} = \frac{1}{12} \).
Beispiel 2: Ziehen mit Zurücklegen aus einer Urne. Da die Urne nach jedem Zug wieder aufgefüllt wird, beeinflusst der erste Zug die Zusammensetzung beim zweiten nicht. Die Züge sind unabhängig.
Beispiele für Abhängigkeit
Beispiel 3: Ziehen ohne Zurücklegen. Eine Urne enthält 3 rote und 2 blaue Kugeln. \( P(R_1) = \frac{3}{5} \). Bedingt auf \( R_1 \): \( P(R_2 \mid R_1) = \frac{2}{4} = \frac{1}{2} \neq \frac{3}{5} = P(R_2) \). Die Ergebnisse sind abhängig, weil die Entnahme einer Kugel die Zusammensetzung verändert.
Beispiel 4: Beim einmaligen Würfeln sind die Ereignisse \( A = \{\text{gerade}\} \) und \( B = \{> 4\} = \{5, 6\} \) zu prüfen: \( P(A) = \frac{1}{2} \), \( P(B) = \frac{1}{3} \), \( P(A \cap B) = P(\{6\}) = \frac{1}{6} = \frac{1}{2} \cdot \frac{1}{3} \). Also sind \( A \) und \( B \) unabhängig – obwohl sie sich überlappen!
Unabhängigkeit ≠ Disjunktheit
Ein häufiges Missverständnis: Unabhängigkeit und Disjunktheit (Unvereinbarkeit) sind verschiedene Begriffe! Disjunkte Ereignisse (\( A \cap B = \emptyset \)) mit \( P(A) > 0, P(B) > 0 \) sind sogar maximal abhängig: Tritt \( A \) ein, kann \( B \) nicht eintreten, also \( P(B \mid A) = 0 \neq P(B) \). Zwei Ereignisse sind genau dann gleichzeitig disjunkt und unabhängig, wenn mindestens eines die Wahrscheinlichkeit 0 hat.
Unabhängigkeit bei mehrstufigen Experimenten
Werden \( n \) unabhängige Experimente durchgeführt, ist die Wahrscheinlichkeit einer bestimmten Ergebniskombination das Produkt der Einzelwahrscheinlichkeiten. Für \( n \) unabhängige Münzwürfe mit \( P(K) = \frac{1}{2} \):
$$P(\text{3-mal Kopf bei 3 Würfen}) = \left(\frac{1}{2}\right)^3 = \frac{1}{8}$$
Diese Multiplikationsregel für unabhängige Experimente ist die Grundlage der Binomialverteilung und vieler kombinatorischer Berechnungen.
Prüfung auf Unabhängigkeit
Um Unabhängigkeit zu prüfen, berechnet man \( P(A) \cdot P(B) \) und vergleicht mit \( P(A \cap B) \). Stimmen die Werte überein, sind die Ereignisse unabhängig; andernfalls abhängig. Bei empirischen Daten (z. B. Vierfeldertafeln) kann man den erwarteten Wert bei Unabhängigkeit berechnen und mit dem beobachteten vergleichen.
Zusammenfassung
Stochastische Unabhängigkeit liegt vor, wenn \( P(A \cap B) = P(A) \cdot P(B) \) gilt – das Eintreten eines Ereignisses beeinflusst die Wahrscheinlichkeit des anderen nicht. Typische Beispiele sind das Werfen mehrerer Würfel oder Ziehen mit Zurücklegen. Unabhängigkeit ist verschieden von Disjunktheit! Bei unabhängigen Experimenten multiplizieren sich die Einzelwahrscheinlichkeiten, was die Grundlage für die Binomialverteilung und viele weitere Modelle bildet.