Hauptgrenzwertsatz

In der Wahrscheinlichkeitstheorie stellt der Hauptgrenzwertsatz (CLT) fest, dass, in Anbetracht bestimmter Bedingungen, die bösartige von einer genug hohen Zahl von unabhängigen zufälligen Variablen, jedem mit dem begrenzten bösartig und Abweichung, ungefähr normalerweise verteilt wird. Der Hauptgrenzwertsatz hat mehrere Varianten. In seiner Standardform müssen die zufälligen Variablen identisch verteilt werden. In Varianten kommt die Konvergenz des bösartigen zur Normalverteilung auch für den nichtidentischen Vertrieb vor, vorausgesetzt, dass sie bestimmte Bedingungen erfüllen.

In der allgemeineren Wahrscheinlichkeitstheorie ist ein Hauptgrenzwertsatz einige von einer Reihe von Theorien der schwachen Konvergenz. Sie alle drücken die Tatsache dass eine Summe von vielen unabhängig und identisch verteilt (i.i.d) aus. zufällige Variablen, oder wechselweise, zufällige Variablen mit spezifischen Typen der Abhängigkeit, werden dazu neigen, gemäß einem eines kleinen Satzes des attractor Vertriebs verteilt zu werden. Wenn die Abweichung der i.i.d. Variablen begrenzt ist, ist der attractor Vertrieb die Normalverteilung. Im Gegensatz, die Summe mehrerer i.i.d. zufälliger Variablen mit dem Macht-Gesetzschwanz-Vertrieb, der als wo \sum_ {i=1} ^ {n} \operatorname {E }\\groß [\, |X_ {ich} - \mu_ {ich} | ^ {2 +\delta }\\, \big] = 0 abnimmt

</Mathematik>

: ist dann zufrieden eine Summe dessen läuft im Vertrieb zu einer zufälligen normalen Standardvariable zusammen, als n zur Unendlichkeit geht:

::

\frac {1} {s_n} \sum_ {i=1} ^ {n} (X_i - \mu_i) \\xrightarrow {d }\\\mathcal {N} (0, \; 1).

</Mathematik>

In der Praxis ist es gewöhnlich am leichtesten, die Bedingung von Lyapunov dafür zu überprüfen. Wenn eine Folge von zufälligen Variablen die Bedingung von Lyapunov befriedigt, dann befriedigt es auch die Bedingung von Lindeberg. Die gegenteilige Implikation hält jedoch nicht.

Lindeberg CLT

In derselben Einstellung und mit derselben Notation wie oben kann die Bedingung von Lyapunov durch das folgende schwächere ein (von Lindeberg 1920) ersetzt werden. Für jeden ε> 0

:

\lim_ {n \to \infty} \frac {1} {s_n^2 }\\sum_ {ich = 1} ^ {n} \operatorname {E }\\groß [

(X_i - \mu_i) ^2 \cdot \mathbf {1} _ {\\{| X_i - \mu_i |> \varepsilon s_n \} }\

\big] = 0

</Mathematik>

wo 1 die Anzeigefunktion ist. Dann läuft der Vertrieb der standardisierten Summen zur Standardnormalverteilung N (0,1) zusammen.

Mehrdimensionaler CLT

Beweise, dass Gebrauch-Eigenschaft-Funktionen zu Fällen erweitert werden können, wo jede Person ein Unabhängiger ist und identisch zufälligen Vektoren in, mit dem Mittelvektoren und der Kovarianz-Matrix Σ (unter den individuellen Bestandteilen des Vektoren) verteilt hat. Jetzt, wenn wir die Summierungen dieser Vektoren nehmen, die als componentwise tun werden, dann stellt der mehrdimensionale Hauptgrenzwertsatz fest, dass, wenn erklettert, diese zu einer multivariate Normalverteilung zusammenlaufen.

Lassen Sie

: seien Sie der I-Vektor. Das kühne in Mitteln, dass es ein zufälliger Vektor, nicht eine zufällige (univariate) Variable ist.

Dann wird die Summe der zufälligen Vektoren sein

:

und der Durchschnitt wird sein

und deshalb

:.

Der multivariate Hauptgrenzwertsatz setzt das fest

:

wo die Kovarianz-Matrix gleich

ist:

{\\{Roter} Farbenvar \left (X_ {1 (1)} \right)} & {\\{Olivgrüner} Farbencov \left (X_ {1 (1)}, X_ {1 (2)} \right)} & Cov \left (X_ {1 (1)}, X_ {1 (3)} \right) & \cdots & Cov \left (X_ {1 (1)}, X_ {1 (n)} \right) \\

{\\{Olivgrüner} Farbencov \left (X_ {1 (2)}, X_ {1 (1)} \right)} & {\\{Türkiser} Farbenvar \left (X_ {1 (2)} \right)} & {\\Farbe {RubineRed} Cov \left (X_ {1 (2)}, X_ {1 (3)} \right)} & \cdots & Cov \left (X_ {1 (2)}, X_ {1 (k)} \right) \\

Cov \left (X_ {1 (3)}, X_ {1 (1)} \right) & {\\Farbe {RubineRed} Cov \left (X_ {1 (3)}, X_ {1 (2)} \right)} & Var \left (X_ {1 (3)} \right) & \cdots & Cov \left (X_ {1 (3)}, X_ {1 (k)} \right) \\

\vdots & \vdots & \vdots & \ddots & \vdots \\

Cov \left (X_ {1 (k)}, X_ {1 (1)} \right) & Cov \left (X_ {1 (k)}, X_ {1 (2)} \right) & Cov \left (X_ {1 (k)}, X_ {1 (3)} \right) & \cdots & Var \left (X_ {1 (k)} \right) \\

\end {bmatrix}. </Mathematik>

Hauptgrenzwertsätze für abhängige Prozesse

CLT unter der schwachen Abhängigkeit

Eine nützliche Generalisation einer Folge von unabhängigen, identisch verteilte zufällige Variablen sind ein sich vermischender Zufallsprozess in der diskreten Zeit; "das Mischen" bedeutet grob, dass zufällige Variablen zeitlich weit abgesondert von einander fast unabhängig sind. Mehrere Arten des Mischens werden in der ergodic Theorie und Wahrscheinlichkeitstheorie verwendet. Sieh das besonders starke Mischen (hat auch α-mixing genannt) definiert dadurch, wo α (n) so genannter starker sich vermischender Koeffizient ist.

Eine vereinfachte Formulierung des Hauptgrenzwertsatzes unter dem starken Mischen wird eingereicht:

Lehrsatz. Nehmen Sie an, dass X, X, … stationär ist und α-mixing mit und dass und


Henri Estienne / Gleichung von Dirac
Impressum & Datenschutz