Gesetz der großen Zahlen
Grundidee
Das Gesetz der großen Zahlen ist eines der fundamentalsten Resultate der Wahrscheinlichkeitstheorie. Es besagt in einfachen Worten: Bei wiederholten, unabhängigen Durchführungen eines Zufallsexperiments nähert sich die relative Häufigkeit eines Ereignisses mit wachsender Versuchszahl der theoretischen Wahrscheinlichkeit an.
Dies erklärt, warum die Wahrscheinlichkeit überhaupt einen praktischen Sinn hat: Sie ist der Langzeit-Durchschnittsanteil. Obwohl der Einzelausgang eines Zufallsexperiments unvorhersagbar ist, gibt es Regelmäßigkeit im Durchschnitt über viele Wiederholungen.
Formale Formulierung
Sei \( X \) die Anzahl der Erfolge in \( n \) unabhängigen Bernoulli-Versuchen mit Erfolgswahrscheinlichkeit \( p \). Die relative Häufigkeit \( \hat{p}_n = \frac{X}{n} \) konvergiert für \( n \to \infty \) gegen \( p \) – im Sinne, dass die Wahrscheinlichkeit einer Abweichung gegen null geht:
$$\lim_{n \to \infty} P(|\hat{p}_n – p| > \varepsilon) = 0 \quad \text{für jedes } \varepsilon > 0$$
Dies ist das schwache Gesetz der großen Zahlen. Es gibt auch das starke Gesetz der großen Zahlen, das eine stärkere Form der Konvergenz (fast sicher) aussagt.
Anschauliche Bedeutung
Wirft man eine faire Münze 10-mal, wird man vielleicht 7-mal Kopf erhalten (70 %) – eine erhebliche Abweichung von 50 %. Bei 100 Würfen wird die relative Häufigkeit meist zwischen 40 % und 60 % liegen. Bei 10 000 Würfen zwischen 49 % und 51 %. Die relative Abweichung vom theoretischen Wert wird immer kleiner, auch wenn die absolute Anzahl der Abweichung wachsen kann.
Quantitative Aussage
Präziser wird die Aussage durch die Standardabweichung der relativen Häufigkeit:
$$\sigma_{\hat{p}} = \sqrt{\frac{p(1-p)}{n}}$$
Sie sinkt mit \( 1/\sqrt{n} \). Um die Genauigkeit zu verdoppeln, braucht man viermal so viele Versuche. Um die Genauigkeit zu verzehnfachen, braucht man hundertmal so viele Versuche.
Beispiel: Bei \( p = 0{,}5 \): \( n = 100 \) → \( \sigma_{\hat{p}} = 0{,}05 \) (5 %). \( n = 10\,000 \) → \( \sigma_{\hat{p}} = 0{,}005 \) (0,5 %). \( n = 1\,000\,000 \) → \( \sigma_{\hat{p}} = 0{,}0005 \) (0,05 %).
Bedeutung für die Wahrscheinlichkeitsdefinition
Das Gesetz der großen Zahlen rechtfertigt die frequentistische Interpretation der Wahrscheinlichkeit: Die Wahrscheinlichkeit eines Ereignisses ist der Grenzwert der relativen Häufigkeit bei beliebig vielen Wiederholungen. Dadurch kann man Wahrscheinlichkeiten empirisch schätzen, selbst wenn keine theoretische Berechnung möglich ist (z. B. bei gezinkten Würfeln oder asymmetrischen Münzen).
Fehldeutung: Spielerfehlschluss
Das Gesetz der großen Zahlen wird oft missverstanden. Der sogenannte Spielerfehlschluss (Gambler’s Fallacy) besagt fälschlich: „Wenn beim Roulette fünfmal Rot gekommen ist, muss jetzt bald Schwarz kommen, um den Durchschnitt auszugleichen.“ Das ist falsch! Jede Drehung ist unabhängig. Das Gesetz besagt nur, dass die relative Häufigkeit sich auf lange Sicht 50 % nähert – nicht, dass sich vergangene Abweichungen ausgleichen müssen. Sie werden durch die wachsende Zahl der Versuche relativ gesehen verdünnt.
Anwendungen
Das Gesetz der großen Zahlen ist die Grundlage vieler praktischer Verfahren:
- Monte-Carlo-Simulationen: Wahrscheinlichkeiten durch viele Durchläufe schätzen
- Versicherungen: Der individuelle Schadensfall ist unvorhersehbar, aber bei vielen Versicherten ist der Gesamtschaden gut prognostizierbar
- Qualitätskontrolle: Ausschussraten werden aus großen Stichproben geschätzt
- Meinungsforschung: Große Stichproben liefern präzise Ergebnisse
Zusammenfassung
Das Gesetz der großen Zahlen garantiert, dass sich die relative Häufigkeit eines Ereignisses bei wachsender Versuchszahl an die theoretische Wahrscheinlichkeit annähert. Die Standardabweichung sinkt mit \( 1/\sqrt{n} \), was den Nutzen großer Stichproben quantifiziert. Das Gesetz rechtfertigt die frequentistische Wahrscheinlichkeitsdefinition und ist die Grundlage für Versicherungsmathematik, Qualitätskontrolle und Simulationen. Der Spielerfehlschluss ist eine häufige Fehldeutung, die aus dem Missverstehen relativer und absoluter Häufigkeiten entsteht.