Gesetz der großen Anzahl

In der Wahrscheinlichkeitstheorie ist das Gesetz der großen Anzahl (LLN) ein Lehrsatz, der das Ergebnis beschreibt, dasselbe Experiment eine Vielzahl von Zeiten durchzuführen. Gemäß dem Gesetz sollte der Durchschnitt der bei einer Vielzahl von Proben erhaltenen Ergebnisse dem erwarteten Wert nah sein und wird dazu neigen, näher zu werden, weil mehr Proben durchgeführt werden.

Zum Beispiel, eine einzelne Rolle eines sechsseitigen sterben erzeugt eine der Nummern 1, 2, 3, 4, 5, oder 6, jeder mit der gleichen Wahrscheinlichkeit. Deshalb, der erwartete Wert einer Single sterben Rolle ist

:

Gemäß dem Gesetz der großen Anzahl, wenn eine Vielzahl von sechsseitigen Würfeln, der Durchschnitt ihrer Werte gerollt wird (hat manchmal die Probe bösartig genannt), wird wahrscheinlich 3.5, mit der Genauigkeit nah sein, die zunimmt, weil mehr Würfel gerollt werden. Das nimmt an, dass alle möglich sterben, sind Rollenergebnisse bekannt, und dass Schwarze Schwan-Ereignisse wie eine sterben Landung auf dem Rand oder durch den Blitz geschlagen zu werden, Mitte Rolle nicht möglich oder ignoriert ist, wenn sie wirklich vorkommen.

Es folgt aus dem Gesetz der großen Anzahl, dass die empirische Wahrscheinlichkeit des Erfolgs in einer Reihe von Proben von Bernoulli zur theoretischen Wahrscheinlichkeit zusammenlaufen wird. Für einen Bernoulli zufällige Variable ist der erwartete Wert die theoretische Wahrscheinlichkeit des Erfolgs und der Durchschnitt von n solche Variablen (das Annehmen, dass sie unabhängig und identisch verteilt sind (i.i.d.)) ist genau die Verhältnisfrequenz.

Zum Beispiel ist ein schönes Münzwerfen eine Probe von Bernoulli. Wenn eine schöne Münze einmal geschnipst wird, ist die theoretische Wahrscheinlichkeit, dass das Ergebnis Köpfe sein wird, 1/2 gleich. Deshalb, gemäß dem Gesetz der großen Anzahl, sollte das Verhältnis von Köpfen in einer "großen" Zahl von Münzflips "" grob 1/2 sein. Insbesondere das Verhältnis von Köpfen danach n Flips wird fast sicher zu 1/2 als n Annäherungsunendlichkeit zusammenlaufen.

Obwohl sich das Verhältnis von Köpfen (und Schwänze) 1/2 nähert, fast sicher wird der absolute (nominelle) Unterschied in der Zahl von Köpfen und Schwänzen groß werden, wie die Zahl von Flips groß wird. D. h. die Wahrscheinlichkeit, dass der absolute Unterschied eine kleine Zahl ist, nähert sich Null, weil die Zahl von Flips groß wird. Außerdem fast sicher wird sich das Verhältnis des absoluten Unterschieds zur Zahl von Flips Null nähern. Intuitiv wächst erwarteter absoluter Unterschied, aber an einer langsameren Rate als die Zahl von Flips, wie die Zahl von Flips wächst.

Der LLN ist wichtig, weil er stabile langfristige Ergebnisse für zufällige Ereignisse "versichert". Zum Beispiel, während ein Kasino Geld in einer einzelnen Drehung des Roulette-Rades verlieren kann, wird sein Ertrag zu einem voraussagbaren Prozentsatz über eine Vielzahl von Drehungen neigen. Jede Glücksträhne durch einen Spieler wird schließlich durch die Rahmen des Spiels überwunden. Es ist wichtig sich zu erinnern, dass der LLN nur gilt (wie der Name anzeigt), wenn eine Vielzahl von Beobachtungen betrachtet wird. Es gibt keinen Grundsatz, dass eine kleine Zahl von Beobachtungen zum erwarteten Wert zusammenlaufen wird, oder dass ein Streifen eines Werts durch andere sofort "erwogen" wird. Sieh den Scheinbeweis des Spielers.

Geschichte

Der italienische Mathematiker Gerolamo Cardano (1501-1576) hat ohne Beweis festgesetzt, dass die Genauigkeiten der empirischen Statistik dazu neigen, sich mit der Zahl von Proben zu verbessern. Das wurde dann als ein Gesetz der großen Anzahl formalisiert. Eine spezielle Form des LLN (für eine binäre zufällige Variable) wurde zuerst von Jacob Bernoulli bewiesen. Er hat mehr als 20 Jahre gebraucht, um einen genug strengen mathematischen Beweis zu entwickeln, der in seinem Ars Conjectandi (Die Kunst des Mutmaßens) 1713 veröffentlicht wurde. Er hat diesen seinen "Goldenen Lehrsatz" genannt, aber es ist allgemein bekannt als "der Lehrsatz von Bernoulli" geworden. Das sollte mit dem Grundsatz in der Physik mit demselben Namen, genannt nach dem Neffen von Jacob Bernoulli Daniel Bernoulli nicht verwirrt sein. 1837 hat S.D. Poisson es weiter unter dem Namen "la loi des grands nombres" ("Das Gesetz der großen Anzahl") beschrieben. Danach war es unter beiden Namen bekannt, aber das "Gesetz der großen Anzahl" wird am häufigsten verwendet.

Nachdem Bernoulli und Poisson ihre Anstrengungen veröffentlicht haben, haben andere Mathematiker auch zu Verbesserung des Gesetzes, einschließlich Tschebyscheffs, Markovs, Borels, Cantellis und Kolmogorovs und Khinchins beigetragen (wer schließlich einen ganzen Beweis des LLN für willkürliche zufällige Variablen zur Verfügung gestellt hat). Diese weiteren Studien haben zwei prominente Formen des LLN verursacht. Einer wird das "schwache" Gesetz und den anderen das "starke" Gesetz genannt. Diese Formen beschreiben verschiedene Gesetze nicht, aber beziehen sich stattdessen auf verschiedene Weisen, die Weise der Konvergenz der kumulativen Beispielmittel zum erwarteten Wert zu beschreiben, und die starke Form bezieht das schwache ein.

Formen

Zwei verschiedene Versionen des Gesetzes der Großen Anzahl werden unten beschrieben; sie werden das 'Starke Gesetz der Großen Anzahl und das Schwache Gesetz der Großen Anzahl genannt.

Beide Versionen des Gesetzstaates dass - mit der virtuellen Gewissheit - der Beispieldurchschnitt

:

läuft zum erwarteten Wert zusammen

:

wo X, X... </U-Boot> eine unendliche Folge von i.i.d. integrable zufällige Variablen mit dem erwarteten Wert E (X) = E (X) =... = µ ist. Integrability meint dass E (X)) = Var (X) =... = σ

:

\overline {X} _n\\xrightarrow {p }\\\mu \qquad\textrm {wenn }\\n \to \infty.

</Mathematik>

Das heißt das für jede positive Zahl ε,

:

\lim_ {n\to\infty }\\Pr \!\left (\, | \overline {X} _n-\mu |> \varepsilon \,\right) = 0.

</Mathematik>

Dieses Ergebnis interpretierend, stellt das schwache Gesetz im Wesentlichen fest, dass für jeden Nichtnullrand, egal wie klein angegeben hat, mit einer genug großen Probe wird es eine sehr hohe Wahrscheinlichkeit geben, dass der Durchschnitt der Beobachtungen dem erwarteten Wert, d. h. innerhalb des Randes nah sein wird.

Die Konvergenz in der Wahrscheinlichkeit wird auch schwache Konvergenz von zufälligen Variablen genannt. Diese Version wird das schwache Gesetz genannt, weil zufällige Variablen schwach (in der Wahrscheinlichkeit) als oben zusammenlaufen können, ohne stark (fast sicher) als unten zusammenzulaufen.

Starkes Gesetz

Das starke Gesetz der großen Anzahl stellt fest, dass der Beispieldurchschnitt fast sicher zum erwarteten Wert zusammenläuft

:

\overline {X} _n\\xrightarrow {a.s. }\\\mu \qquad\textrm {wenn }\\n \to \infty.

</Mathematik>

Das, ist

:

\Pr \!\left (\lim_ {n\to\infty }\\Überstrich {X} _n = \mu \right) = 1.

</Mathematik>

Der Beweis ist komplizierter als dieses des schwachen Gesetzes. Dieses Gesetz rechtfertigt die intuitive Interpretation des erwarteten Werts einer zufälligen Variable als der "langfristige Durchschnitt, wenn es wiederholt ausfällt".

Fast sichere Konvergenz wird auch starke Konvergenz von zufälligen Variablen genannt. Diese Version wird das starke Gesetz genannt, weil, wie man versichert, zufällige Variablen, die stark zusammenlaufen (fast sicher) schwach (in der Wahrscheinlichkeit) zusammenlaufen. Das starke Gesetz bezieht das schwache Gesetz ein.

Das starke Gesetz der großen Anzahl kann selbst als ein spezieller Fall des pointwise ergodic Lehrsatz gesehen werden.

Außerdem, wenn die summands unabhängig, aber, dann nicht identisch verteilt

sind:

\overline {X} _n - \operatorname {E }\\groß [\overline {X} _n\big] \\xrightarrow {a.s. }\\0

</Mathematik>

vorausgesetzt, dass jeder X einen begrenzten zweiten Moment und hat

:

\sum_ {k=1} ^ {\\infty} \frac {1} {K^2} \operatorname {Var} [X_k]

Diese Behauptung ist als das starke Gesetz von Kolmogorov bekannt, sieh z.B.

Unterschiede zwischen dem schwachen Gesetz und dem starken Gesetz

Das schwache Gesetz stellt fest, dass für einen angegebenen großen n der Durchschnitt wahrscheinlich nahe μ sein wird. So verlässt es offen die Möglichkeit, die eine unendliche Zahl von Zeiten, obwohl an seltenen Zwischenräumen zufällig.

Das starke Gesetz zeigt, dass das fast sicher nicht vorkommen wird. Insbesondere es deutet an, dass mit der Wahrscheinlichkeit 1 wir das für etwas die Ungleichheit haben

Gleichförmiges Gesetz der großen Anzahl

Nehmen Sie an, dass f (x, θ) etwas Funktion ist, die für θ  Θ definiert ist, und in θ dauernd ist. Dann für irgendwelchen hat θ befestigt, die Folge {f (X, θ), f (X, θ), …} wird eine Folge von unabhängigen sein und hat identisch zufällige Variablen, solch verteilt, dass die dieser Folge bösartige Probe in der Wahrscheinlichkeit zu E [f (X, θ)] zusammenläuft. Das ist der pointwise (in θ) Konvergenz.

Das gleichförmige Gesetz der großen Anzahl setzt die Bedingungen fest, unter denen die Konvergenz gleichförmig in θ geschieht. Wenn

</ol>

Dann E [f (X, θ)] ist in θ und dauernd

:

\sup_ {\\theta\in\Theta} \left \| \frac1n\sum_ {i=1} ^n f (X_i, \theta) - \operatorname {E} [f (X, \theta)] \right \| \xrightarrow {\\mathrm {a.s.}} \0.

</Mathematik>

Das Gesetz von Borel der großen Anzahl

Das Gesetz von Borel der großen Anzahl, genannt nach Émile Borel, stellt dass fest, wenn ein Experiment eine Vielzahl von Zeiten unabhängig unter identischen Bedingungen wiederholt wird, dann kommt das Verhältnis von Zeiten, dass jedes angegebene Ereignis ungefähr vorkommt, der Wahrscheinlichkeit des Ereignisses des Ereignisses auf jeder besonderen Probe gleich; je größer die Zahl von Wiederholungen, desto besser die Annäherung dazu neigt zu sein. Genauer, wenn E das fragliche Ereignis, p seine Wahrscheinlichkeit des Ereignisses anzeigt, und N (E) die Zahl von Zeiten E in den ersten n Proben, dann mit der Wahrscheinlichkeit ein, vorkommt

:

Dieser Lehrsatz macht streng der intuitive Begriff der Wahrscheinlichkeit als die lang-geführte Verhältnisfrequenz eines Ereignisses eines Ereignisses. Es ist ein spezieller Fall von einigen von mehreren allgemeineren Gesetzen der großen Anzahl in der Wahrscheinlichkeitstheorie.

Beweis

In Anbetracht X, X... </U-Boot> eine unendliche Folge von i.i.d. zufälligen Variablen mit dem begrenzten erwarteten Wert E (X) = E (X) =... = µ

Das schwache Gesetz von Staaten der großen Anzahl:

Lehrsatz:

Beweis mit Tschebyscheffs Ungleichheit

Dieser Beweis verwendet die Annahme der begrenzten Abweichung (für alle). Die Unabhängigkeit der zufälligen Variablen bezieht keine Korrelation zwischen ihnen ein, und wir haben das

:

\operatorname {Var} (\overline {X} _n) = \operatorname {Var} (\tfrac1n (X_1 +\cdots+X_n)) = \frac {1} {N^2} \operatorname {Var} (X_1 +\cdots+X_n) = \frac {n\sigma^2} {n^2} = \frac {\\sigma^2} {n}.

</Mathematik>

Der allgemeine Mittel-μ der Folge ist der bösartige vom Beispieldurchschnitt:

:

E (\overline {X} _n) = \mu.

</Mathematik>

Das Verwenden Tschebyscheffs Ungleichheit darauf läuft auf hinaus

:

\operatorname {P} (\left | \overline {X} _n-\mu \right | \geq \varepsilon) \leq \frac {\\sigma^2} {n\varepsilon^2}.

</Mathematik>

Das kann verwendet werden, um den folgenden zu erhalten:

:

\operatorname {P} (\left | \overline {X} _n-\mu \right |

Als n Annäherungsunendlichkeit nähert sich der Ausdruck 1. Und definitionsgemäß der Konvergenz in der Wahrscheinlichkeit haben wir erhalten

:

Beweis mit der Konvergenz von charakteristischen Funktionen

Durch den Lehrsatz von Taylor für komplizierte Funktionen kann die charakteristische Funktion jeder zufälligen Variable, X, mit begrenztem Mittel-μ, als geschrieben werden

:

Alle X, X... </U-Boot> haben dieselbe charakteristische Funktion, so werden wir einfach diesen φ anzeigen.

Unter den grundlegenden Eigenschaften von charakteristischen Funktionen gibt es

:

\varphi_ {X+Y} (t) = \varphi_X (t) \varphi_Y (t) \quad \textrm {wenn \} X \, \textrm {und }\\, Y \, \textrm {\, \, unabhängig} sind. </Mathematik>

Diese Regeln können verwendet werden, um die charakteristische Funktion in Bezug auf φ zu berechnen:

:

Die Grenze e ist die charakteristische Funktion der unveränderlichen zufälligen Variable μ, und folglich durch den Kontinuitätslehrsatz von Lévy, läuft im Vertrieb zu μ zusammen:

:

μ ist eine Konstante, die andeutet, dass Konvergenz im Vertrieb zu μ und Konvergenz in der Wahrscheinlichkeit zu μ gleichwertig sind (sieh Konvergenz von zufälligen Variablen.) Deshalb,

:

Das zeigt, dass die bösartige Probe in der Wahrscheinlichkeit zur Ableitung der charakteristischen Funktion am Ursprung zusammenläuft, so lange der Letztere besteht.

Siehe auch

Referenzen


Geschlossen - in Syndrom / Korrelation und Abhängigkeit
Impressum & Datenschutz