Kombination von Zufallsgrößen

Kombination von Zufallsgrößen

Motivation

In vielen Anwendungen setzt sich eine interessierende Größe aus mehreren Zufallsgrößen zusammen. Die Gesamtzeit einer Fahrt ist die Summe der Einzelzeiten auf den Teilstrecken. Der Gesamtgewinn in einem Spiel ist die Summe vieler Einzelgewinne. Die Durchschnittsnote einer Klasse ist der Mittelwert einzelner Noten. Um Erwartungswert und Varianz solcher kombinierten Größen zu berechnen, braucht man Rechenregeln für Summen und andere Kombinationen von Zufallsgrößen.

Linearität des Erwartungswerts

Der Erwartungswert ist linear, und zwar uneingeschränkt – unabhängig davon, ob die Zufallsgrößen unabhängig sind oder nicht:

$$E(X + Y) = E(X) + E(Y)$$
$$E(aX + b) = a \cdot E(X) + b$$
$$E(aX + bY) = a \cdot E(X) + b \cdot E(Y)$$

Diese Linearität ist eine der mächtigsten Eigenschaften des Erwartungswerts. Sie ermöglicht die Berechnung von Erwartungswerten komplizierter Zufallsgrößen durch Zerlegung in einfachere Bestandteile.

Beispiel: Augensumme zweier Würfel. \( X_1, X_2 \) sind die Augenzahlen, \( E(X_1) = E(X_2) = 3{,}5 \). Also \( E(X_1 + X_2) = 7 \). Viel einfacher als die direkte Berechnung über die Verteilung der Summe!

Varianz der Summe

Bei der Varianz ist die Situation komplizierter. Für unabhängige Zufallsgrößen \( X \) und \( Y \) gilt:

$$\text{Var}(X + Y) = \text{Var}(X) + \text{Var}(Y)$$

Allgemein gilt mit der Kovarianz \( \text{Cov}(X, Y) = E[(X – \mu_X)(Y – \mu_Y)] \):

$$\text{Var}(X + Y) = \text{Var}(X) + \text{Var}(Y) + 2 \cdot \text{Cov}(X, Y)$$

Bei Unabhängigkeit ist die Kovarianz null, und die Varianzen addieren sich. Bei positiver Korrelation addieren sich zusätzlich die Kovarianzterme (größere Gesamtstreuung), bei negativer Korrelation reduzieren sie sich (geringere Gesamtstreuung).

Skalierung und Verschiebung

Für \( Y = aX + b \) gilt:

$$E(aX + b) = aE(X) + b, \quad \text{Var}(aX + b) = a^2 \text{Var}(X), \quad \sigma_{aX+b} = |a| \cdot \sigma_X$$

Eine additive Konstante verändert den Erwartungswert, nicht aber die Streuung. Ein Skalierungsfaktor wirkt linear auf den Erwartungswert, quadratisch auf die Varianz und linear auf die Standardabweichung.

Summe vieler unabhängiger Zufallsgrößen

Bei \( n \) unabhängigen, identisch verteilten Zufallsgrößen \( X_1, \ldots, X_n \) mit \( E(X_i) = \mu \) und \( \text{Var}(X_i) = \sigma^2 \):

$$E\left(\sum_{i=1}^n X_i\right) = n\mu, \quad \text{Var}\left(\sum_{i=1}^n X_i\right) = n\sigma^2$$

Die Summe hat also den \( n \)-fachen Erwartungswert und die \( n \)-fache Varianz. Für den Mittelwert \( \bar{X} = \frac{1}{n}\sum X_i \) folgt:

$$E(\bar{X}) = \mu, \quad \text{Var}(\bar{X}) = \frac{\sigma^2}{n}$$

Der Mittelwert bleibt erwartungstreu, aber seine Streuung sinkt mit \( 1/\sqrt{n} \) – dies ist die mathematische Grundlage für den Präzisionsgewinn bei größeren Stichproben.

Anwendungsbeispiel: Portfoliotheorie

In der Finanzmathematik werden die Erträge einzelner Aktien als Zufallsgrößen modelliert. Die Kombinationsregeln zeigen, warum Diversifikation wirkt: Durch Kombination mehrerer, teilweise unkorrelierter Aktien sinkt die Gesamtvarianz (das Risiko), während der Erwartungswert (die erwartete Rendite) als gewichteter Durchschnitt erhalten bleibt. Je geringer die Korrelation zwischen den Aktien, desto stärker der Diversifikationseffekt.

Zentraler Grenzwertsatz

Ein fundamentales Resultat: Die Summe vieler unabhängiger Zufallsgrößen ist näherungsweise normalverteilt – unabhängig von der Verteilung der Einzelgrößen. Das ist der Zentrale Grenzwertsatz. Er erklärt, warum so viele natürliche Phänomene (die sich als Summe vieler kleiner Einflüsse ergeben) näherungsweise normalverteilt sind.

Zusammenfassung

Die Linearität des Erwartungswerts gilt stets. Für die Varianz addieren sich die Einzelvarianzen bei Unabhängigkeit, sonst kommen Kovarianzterme hinzu. Skalierung wirkt quadratisch auf die Varianz. Bei Mittelwerten aus \( n \) Beobachtungen sinkt die Varianz proportional zu \( 1/n \), was die Präzision wachsender Stichproben begründet. Der Zentrale Grenzwertsatz macht Summen vieler unabhängiger Zufallsgrößen näherungsweise normalverteilt. Diese Regeln sind Grundlage von Statistik, Finanzmathematik und allen Anwendungen, in denen Zufallsgrößen kombiniert werden.