Normalverteilung

In der Wahrscheinlichkeitstheorie das normale (oder Gaussian) ist Vertrieb ein dauernder Wahrscheinlichkeitsvertrieb, der eine glockenförmige Wahrscheinlichkeitsdichte-Funktion hat, die als die Funktion von Gaussian oder informell die Glockenkurve bekannt ist:

:

f (x; \mu, \sigma^2) = \frac {1} {\\sigma\sqrt {2\pi}} e^ {-\frac {1} {sind 2 }\\(\frac {x-\mu} {\\Sigma }\\Recht) ^2 }\abgereist

</Mathematik>

Der Parameter μ ist das bösartige oder die Erwartung (Position der Spitze) und ist die Abweichung. σ ist als die Standardabweichung bekannt. Der Vertrieb damit und wird die Standardnormalverteilung oder die Einheitsnormalverteilung genannt. Eine Normalverteilung wird häufig als eine erste Annäherung verwendet, um reellwertige zufällige Variablen dass Traube um einen einzelnen Mittelwert zu beschreiben.

Die Normalverteilung wird als der prominenteste Wahrscheinlichkeitsvertrieb in der Statistik betrachtet. Es gibt mehrere Gründe dafür: Erstens entsteht die Normalverteilung aus dem Hauptgrenzwertsatz, der feststellt, dass unter milden Bedingungen die Summe einer Vielzahl von zufälligen von demselben Vertrieb gezogenen Variablen ungefähr normalerweise ohne Rücksicht auf die Form des ursprünglichen Vertriebs verteilt wird. Das gibt ihm außergewöhnlich breite Anwendung in zum Beispiel ausfallend. Zweitens ist die Normalverteilung analytisch sehr lenksam, d. h. eine Vielzahl von Ergebnissen, die diesen Vertrieb einschließen, kann in der ausführlichen Form abgeleitet werden.

Aus diesen Gründen wird auf die Normalverteilung in der Praxis allgemein gestoßen, und wird überall in der Statistik, den Naturwissenschaften und den Sozialwissenschaften als ein einfaches Modell für komplizierte Phänomene verwendet. Zum Beispiel, wie man gewöhnlich annimmt, folgt der Beobachtungsfehler in einem Experiment einer Normalverteilung, und die Fortpflanzung der Unklarheit wird mit dieser Annahme geschätzt. Bemerken Sie, dass eine normalerweise verteilte Variable einen symmetrischen Vertrieb über sein bösartiges hat. Mengen, die exponential, wie Preise, Einkommen oder Bevölkerungen wachsen, werden häufig nach rechts verdreht, und können folglich durch anderen Vertrieb, wie der Lognormalvertrieb oder Vertrieb von Pareto besser beschrieben werden. Außerdem fällt die Wahrscheinlichkeit, einen normalerweise verteilten Wert zu sehen, der (d. h. mehr weit ist als einige Standardabweichungen) vom bösartigen, äußerst schnell ab. Infolgedessen ist die statistische Schlussfolgerung mit einer Normalverteilung zur Anwesenheit von outliers nicht robust (Daten, der vom bösartigen, erwarteten zu außergewöhnlichen Verhältnissen, Beobachtungsfehler, usw. unerwartet weit ist). Wenn outliers erwartet werden, können Daten mit einem Vertrieb mit dem schweren Schwanz wie der T-Vertrieb des Studenten besser beschrieben werden.

Von einer technischen Perspektive sind alternative Charakterisierungen zum Beispiel möglich:

  • Die Normalverteilung ist der einzige absolut dauernde Vertrieb alle sind dessen cumulants außer den ersten zwei (d. h. anders als das bösartige und die Abweichung) Null.
  • Für einen gegebenen bösartigen und Abweichung ist die entsprechende Normalverteilung der dauernde Vertrieb mit dem maximalen Wärmegewicht.

Die Normalverteilungen sind eine Unterklasse des elliptischen Vertriebs.

Definition

Der einfachste Fall einer Normalverteilung ist als die Standardnormalverteilung bekannt, die durch die Wahrscheinlichkeitsdichte-Funktion beschrieben ist

:

\phi (x) = \frac {1} {\\sqrt {2\pi} }\\, e^ {-\frac {\\scriptscriptstyle 1} {\\scriptscriptstyle 2\x^2}.

</Mathematik>

Der Faktor in diesem Ausdruck stellt sicher, dass das Gesamtgebiet unter der Kurve ϕ (x) einer gleich ist, und in der Hochzahl die "Breite" der Kurve (gemessen als Hälfte der Entfernung zwischen den Beugungspunkten) auch gleich einem macht. Es ist in der Statistik traditionell, diese Funktion mit dem griechischen Brief ϕ (phi) anzuzeigen, wohingegen Dichte-Funktionen für ganzen anderen Vertrieb gewöhnlich mit Briefen f oder p angezeigt werden. Die Alternative glyph φ wird auch ganz häufig verwendet, jedoch innerhalb dieses Artikels "φ" wird vorbestellt, um charakteristische Funktionen anzuzeigen.

Jede Normalverteilung ist das Ergebnis von exponentiating eine quadratische Funktion (gerade als sich ein Exponentialvertrieb aus exponentiating eine geradlinige Funktion ergibt):

:

f (x) = e^ {ein x^2 + b x + c}. \,

</Mathematik>

Das gibt die klassische "" Kurve-Glockengestalt, vorausgesetzt, dass \, e^ {\\frac {-(x-\mu) ^2} {2\sigma^2} }\nach

= \frac {1} {\\Sigma }\\, \phi \!\left (\frac {x-\mu} {\\Sigma }\\Recht).

</Mathematik>

Für eine Standardnormalverteilung, und. Der letzte Teil der Gleichung zeigt oben, dass jede andere Normalverteilung als eine Version der Standardnormalverteilung betrachtet werden kann, die horizontal durch einen Faktor σ gestreckt und dann nach rechts durch eine Entfernung μ übersetzt worden ist. So gibt μ die Position der Hauptspitze der Kurve der Glocke an, und σ gibt die "Breite" der Glockenkurve an.

Der Parameter μ ist zur gleichen Zeit das bösartige, die Mittellinie und die Weise der Normalverteilung. Der Parameter σ wird die Abweichung genannt; bezüglich jeder zufälligen Variable beschreibt es, wie konzentriert der Vertrieb um sein bösartiges ist. Die Quadratwurzel von σ wird die Standardabweichung genannt und ist die Breite der Dichte-Funktion.

Die Normalverteilung wird gewöhnlich durch N (, ) angezeigt. So, wenn eine zufällige Variable X normalerweise mit Mittel-μ und Abweichung σ verteilt wird, schreiben wir

:

X\\sim\\mathcal {N} (\mu, \, \sigma^2). \,

</Mathematik>

Alternative Formulierungen

Einige Autoren empfehlen, die Präzision statt der Abweichung zu verwenden. Die Präzision wird normalerweise als das Gegenstück der Abweichung definiert , obwohl es gelegentlich als das Gegenstück der Standardabweichung definiert wird. Dieser parametrization ist im Vorteil in numerischen Anwendungen, wo σ sehr Null nah ist und günstiger ist, um mit in der Analyse zu arbeiten, weil τ ein natürlicher Parameter der Normalverteilung ist. Dieser parametrization ist in der Statistik von Bayesian üblich, weil es die Analyse von Bayesian der Normalverteilung vereinfacht. Ein anderer Vorteil, diesen parametrization zu verwenden, ist in der Studie des bedingten Vertriebs im multivariate normalen Fall. Die Form der Normalverteilung mit der allgemeineren Definition ist wie folgt:

:

f (x; \, \mu, \tau) = \sqrt {\\frac {\\tau} {2\pi} }\\, e^ {\\frac {-\tau (x-\mu) ^2} {2}}.

</Mathematik>

Dessen Frage Normalverteilung die "normale" genannt werden sollte, wird auch verschieden von verschiedenen Autoren geantwortet. Als er von den Arbeiten von Gauss angefangen hat, wie man betrachtete, war der normale Standard derjenige mit der Abweichung:

:

f (x) = \frac {1} {\\sqrt\pi }\\, e^ {-x^2 }\

</Mathematik>

geht noch weiter und besteht der Standard, der normal ist, um mit der Abweichung zu sein:

:

f (x) = e^ {-\pi x^2 }\

</Mathematik>

Gemäß dem Autor ist diese Formulierung wegen einer viel einfacheren und easier-remember Formel, die Tatsache vorteilhaft, dass der pdf Einheitshöhe an der Null und einfache ungefähre Formeln für den quantiles des Vertriebs hat.

Charakterisierung

In der vorherigen Abteilung wurde die Normalverteilung durch das Spezifizieren seiner Wahrscheinlichkeitsdichte-Funktion definiert. Jedoch gibt es andere Weisen, einen Wahrscheinlichkeitsvertrieb zu charakterisieren. Sie schließen ein: die kumulative Vertriebsfunktion, die Momente, der cumulants, die charakteristische Funktion, die Momentenerzeugungsfunktion, usw.

Wahrscheinlichkeitsdichte-Funktion

Die Wahrscheinlichkeitsdichte-Funktion (pdf) einer zufälligen Variable beschreibt die Verhältnisfrequenzen von verschiedenen Werten für diese zufällige Variable. Der pdf der Normalverteilung wird durch die Formel erklärt im Detail in der vorherigen Abteilung gegeben:

:

f (x; \, \mu, \sigma^2) = \frac {1} {\\sqrt {2\pi\sigma^2}} \, e^ {-(x-\mu) ^2 \! / (2\sigma^2) }\

= \frac {1} {\\Sigma} \, \phi \!\left (\frac {x-\mu} {\\Sigma }\\Recht),

\qquad x\in\mathbb {R}.

</Mathematik>

Das ist eine richtige Funktion nur, wenn die Abweichung σ der Null nicht gleich ist. In diesem Fall ist das eine dauernde glatte Funktion, die auf der kompletten echten Linie definiert ist, und der die "Funktion von Gaussian" genannt wird.

Eigenschaften:

  • Funktion f (x) ist unimodal und um den Punkt symmetrisch, der zur gleichen Zeit die Weise, die Mittellinie und der bösartige vom Vertrieb ist.
  • Die Beugungspunkte der Kurve kommen eine Standardabweichung weg vom bösartigen (d. h., an und) vor.
  • Funktion f (x) ist mit dem Klotz konkav.
  • Die normale Standarddichte ϕ (x) ist ein eigenfunction des Fouriers verwandeln sich darin, dass, wenn ƒ eine normalisierte Funktion von Gaussian mit der Abweichung σ, in den Mittelpunkt gestellt an der Null ist, dann verwandelt sich sein Fourier, eine Funktion von Gaussian mit der Abweichung 1/σ ist.
  • Die Funktion ist vom Auftrag 2 superglatt, andeutend, dass es ungeheuer differentiable ist.
  • Die erste Ableitung von ϕ (x) ist; die zweite Ableitung ist. Mehr allgemein wird durch die n-te Ableitung gegeben, wo H das Polynom von Hermite des Auftrags n ist.

Wenn die Dichte-Funktion nicht besteht. Jedoch eine verallgemeinerte Funktion, die ein Maß auf der echten Linie definiert, und kann sie verwendet werden, um zum Beispiel zu rechnen, erwarteter Wert ist

:

f (x; \, \mu, 0) = \delta (x-\mu).

</Mathematik>

wo δ (x) die Delta-Funktion von Dirac ist, die der Unendlichkeit daran gleich ist und Null anderswohin ist.

Kumulative Vertriebsfunktion

Die kumulative Vertriebsfunktion (CDF) beschreibt Wahrscheinlichkeit einer zufälligen Variable, die im Zwischenraum fällt.

Der CDF der Standardnormalverteilung wird mit dem griechischen Kapitalbrief Φ (phi) angezeigt, und kann als ein Integral der Wahrscheinlichkeitsdichte-Funktion geschätzt werden:

:

\Phi (x) = \frac {1} {\\sqrt {2\pi}} \int_ {-\infty} ^x e^ {-t^2/2} \, dt

= \frac12\left [\, 1 + \operatorname {erf }\\ist (\frac {x} {\\sqrt {2} }\\Recht) \, \right], \quad x\in\mathbb {R} abgereist.

</Mathematik>

Dieses Integral kann in Bezug auf Elementarfunktionen nicht ausgedrückt werden, so wird einfach eine Transformation der Fehlerfunktion, oder erf, eine spezielle Funktion genannt. Numerische Methoden für die Berechnung des normalen normalen CDF werden unten besprochen. Für eine allgemeine normale zufällige Variable mit Mittel-μ und Abweichung σ> 0 wird der CDF gleich sein

:

F (x; \, \mu, \sigma^2)

= \Phi\left (\frac {x-\mu} {\\Sigma }\\Recht)

= \frac12\left [\, 1 + \operatorname {erf }\\ist (\frac {x-\mu} {\\sigma\sqrt {2} }\\Recht) \, \right], \quad x\in\mathbb {R} abgereist.

</Mathematik>

Die Ergänzung des normalen normalen CDF wird die Q-Funktion besonders in Techniktexten genannt. Das vertritt die obere Schwanz-Wahrscheinlichkeit des Vertriebs von Gaussian: D. h. die Wahrscheinlichkeit, dass eine zufällige normale Standardvariable X größer ist als die Nummer x. Andere Definitionen der Q-Funktion, von denen alle einfache Transformationen von Φ sind, werden auch gelegentlich verwendet.

Eigenschaften:
  • Der normale normale CDF ist Rotations-symmetrisch um den Punkt (0, ½) 2-fach:.
  • Die Ableitung von Φ (x) ist dem normalen normalen pdf ϕ (x) gleich:.
  • Die Antiableitung von Φ (x) ist:.

Für eine Normalverteilung mit der Nullabweichung ist der CDF die Schritt-Funktion von Heaviside (mit der Tagung):

:

F (x; \, \mu, 0) = \mathbf {1 }\\{x\geq\mu\}\\.

</Mathematik>

Funktion von Quantile

Die quantile Funktion eines Vertriebs ist das Gegenteil des CDF. Die quantile Funktion der Standardnormalverteilung wird die Pro-Bit-Funktion genannt, und kann in Bezug auf die umgekehrte Fehlerfunktion ausgedrückt werden:

:

\Phi^ {-1} (p) \equiv z_p = \sqrt2 \;\operatorname {erf} ^ {-1} (2 Punkte - 1), \quad p\in (0,1).

</Mathematik>

Quantiles der Standardnormalverteilung werden als z allgemein angezeigt. Der quantile z vertritt solch einen Wert, dessen eine zufällige normale Standardvariable X die Wahrscheinlichkeit genau p hat, um innerhalb des Zwischenraums zu fallen. Die quantiles werden in der Hypothese-Prüfung, dem Aufbau von Vertrauensintervallen und Q-Q-Anschlägen verwendet. Der "berühmteste" normale quantile ist. Eine zufällige normale Standardvariable ist größer als 1.96 im absoluten Wert in 5 % von Fällen.

Für eine normale zufällige Variable mit Mittel-μ und Abweichung σ ist die Quantile-Funktion

:

F^ {-1} (p; \, \mu, \sigma^2)

= \mu + \sigma\Phi^ {-1} (p)

= \mu + \sigma\sqrt2 \,\operatorname {erf} ^ {-1} (2 Punkte - 1), \quad p\in (0,1).

</Mathematik>

Charakteristische Funktion und Moment-Erzeugen-Funktion

Die charakteristische Funktion φ (t) einer zufälligen Variable X wird als der erwartete Wert von e definiert, wo ich die imaginäre Einheit bin, und t  R das Argument der charakteristischen Funktion ist. So ist die charakteristische Funktion der Fourier verwandeln sich der Dichte ϕ (x). Für normalerweise verteilten X mit Mittel-μ und Abweichung σ ist die charakteristische Funktion

:

\varphi (t; \, \mu, \sigma^2) = \int_ {-\infty} ^\\infty \! e^ {itx }\\frac {1} {\\sqrt {2\pi\sigma^2}} e^ {-\frac12 (x-\mu) ^2/\sigma^2} dx = e^ {i\mu t - \frac12 \sigma^2t^2}.

</Mathematik>

Die charakteristische Funktion kann zum kompletten komplizierten Flugzeug analytisch erweitert werden: Man definiert φ (z) e für den ganzen z  C.

Die Moment-Erzeugen-Funktion wird als der erwartete Wert von e definiert. Für eine Normalverteilung besteht die Moment-Erzeugen-Funktion und ist gleich

:

M (t; \, \mu, \sigma^2) = \operatorname {E} [E^ {tX}] = \varphi (-es; \, \mu, \sigma^2) = e^ {\mu t + \frac12 \sigma^2 t^2}.

</Mathematik>

Der cumulant, der Funktion erzeugt, ist der Logarithmus der Moment-Erzeugen-Funktion:

:

g (t; \, \mu, \sigma^2) = \ln M (t; \, \mu, \sigma^2) = \mu t + \frac {1} {2} \sigma^2 t^2.

</Mathematik>

Da das ein quadratisches Polynom in t ist, sind nur die ersten zwei cumulants Nichtnull.

Momente

Die Normalverteilung hat Momente aller Ordnungen. D. h. für normalerweise verteilten X mit Mittel-μ und Abweichung besteht die Erwartung] und ist für den ganzen solchen p dass begrenzt. Gewöhnlich interessieren wir uns nur in Momenten von Ordnungen der ganzen Zahl:.

:

\mathrm {E }\\ist [(X-\mu) ^p\right] = abgereist

\begin {Fälle }\

0 & \text {wenn} p\text {} \\seltsam

ist

\sigma^p \, (p-1)!! & \text {wenn} p\text {even. }\ist

\end {Fälle }\

</Mathematik>

Hier n!! zeigt den doppelten factorial an, der das Produkt jeder ungeraden Zahl von n bis 1 ist.

:

\operatorname {E }\\ist [|X-\mu |^p\right] = abgereist

\sigma^p (p-1)!! \cdot \left.\begin {Fälle }\

\sqrt {2/\pi} & \text {wenn} p\text {}, \\seltsam ist

1 & \text {wenn} p\text {sogar}, ist

\end {Fälle }\\right\}\

= \sigma^p \cdot \frac {2^ {\\frac {p} {2} }\\Gamma\left (\frac {p+1} {2 }\\Recht)} {\\sqrt {\\Pi} }\

</Mathematik>

Die letzte Formel ist für jede nichtganze Zahl wahr.

:

& \operatorname {E} \left [X^p \right] =

\sigma^p \cdot (-i\sqrt {2 }\\sgn\mu) ^p \;

U\left ({-\frac {1} {2} p}, \, \frac {1} {2}, \,-\frac {1} {2} (\mu/\sigma) ^2 \right), \\

& \operatorname {E} \left [|X |^p \right] =

\sigma^p \cdot 2^ {\\frac p 2\\frac {\\Gamma\left (\frac {1+p} {2 }\\Recht)} {\\sqrt\pi }\\;

_1F_1\left ({-\frac {1} {2} p}, \, \frac {1} {2}, \,-\frac {1} {2} (\mu/\sigma) ^2 \right). \\

\end {richten} </Mathematik> {aus}

Diese Ausdrücke bleiben gültig, selbst wenn p nicht ganze Zahl ist. Siehe auch hat Polynome von Hermite verallgemeinert.

</ul>

</Zentrum>

Eigenschaften

Das Standardisieren normaler zufälliger Variablen

Weil die Normalverteilung eine Positionsskala-Familie ist, ist es möglich, alle normalen zufälligen Variablen mit dem normalen Standard zu verbinden. Zum Beispiel, wenn X mit Mittel-μ und Abweichung σ, dann normal

ist:

Z = \frac {X - \mu} {\\Sigma }\

</Mathematik>

hat Mittelnull und Einheitsabweichung, die Z ist, hat die Standardnormalverteilung. Umgekehrt eine zufällige normale Standardvariable Z habend, können wir immer eine andere normale zufällige Variable mit spezifischem Mittel-μ und Abweichung σ bauen:

:

X = \sigma Z + \mu. \,

</Mathematik>

Diese "Standardisieren"-Transformation ist günstig, weil sie erlaubt, den PDF und besonders den CDF einer Normalverteilung zu schätzen, die den Tisch von PDF und CDF-Werten für den normalen Standard hat. Sie werden über verbunden sein

:

F_X (x) = \Phi\left (\frac {x-\mu} {\\Sigma }\\Recht), \quad

f_X (x) = \frac {1} {\\Sigma }\\, \phi\left (\frac {x-\mu} {\\Sigma }\\Recht).

</Mathematik>

Standardabweichung und Vertrauensintervalle

Ungefähr 68 % von von einer Normalverteilung gezogenen Werten sind innerhalb einer Standardabweichung σ weg vom bösartigen; ungefähr 95 % der Werte liegen innerhalb von zwei Standardabweichungen; und ungefähr 99.7 % sind innerhalb von drei Standardabweichungen. Diese Tatsache ist als die 68-95-99.7 Regel, oder die empirische Regel oder die 3-Sigmas-Regel bekannt.

Das Gebiet unter der Glockenkurve dazwischen genauer zu sein, und wird durch gegeben

:

F (\mu+n\sigma; \, \mu, \sigma^2) - F (\mu-n\sigma; \, \mu, \sigma^2) = \Phi (n)-\phi (-n) = \mathrm {erf }\\ist (\frac {n} {\\sqrt {2} }\\Recht), abgereist

</Mathematik>

wo erf die Fehlerfunktion ist. Zu 12 dezimalen Plätzen sind die Werte für die 1-, 2-, bis zu 6-Sigmas-Punkten:

Der folgende Tisch gibt die Rückbeziehung von Sigma-Vielfachen entsprechend einigen häufig verwendete Werte für das Gebiet unter der Glockenkurve. Diese Werte sind nützlich (um asymptotische) Vertrauensintervalle der angegebenen Niveaus zu bestimmen, die auf normalerweise gestützt sind, verteiltem (oder asymptotisch normal) Vorkalkulatoren:

wo der Wert auf dem verlassenen des Tisches das Verhältnis von Werten ist, die innerhalb eines gegebenen Zwischenraums fallen werden und n ein Vielfache der Standardabweichung ist, die die Breite des Zwischenraums angibt.

Hauptgrenzwertsatz

Der Lehrsatz stellt fest, dass unter bestimmten (ziemlich allgemeinen) Bedingungen die Summe einer Vielzahl von zufälligen Variablen eine ungefähr Normalverteilung haben wird. Zum Beispiel, wenn (x, …, x) eine Folge von iid zufälligen Variablen, jeder ist, Mittel-μ und Abweichung σ habend, dann setzt der Hauptgrenzwertsatz das fest

:

\sqrt {n }\\ist (\frac {1} {n }\\sum_ {i=1} ^n x_i - \mu \right) \\xrightarrow {d }\\\mathcal {N} (0, \, \sigma^2) abgereist.

</Mathematik>

Der Lehrsatz wird halten, ob die summands x nicht iid sind, obwohl einige Einschränkungen auf den Grad der Abhängigkeit und die Wachstumsrate von Momenten noch auferlegt werden müssen.

Die Wichtigkeit vom Hauptgrenzwertsatz kann nicht überbetont werden. Eine große Zahl der Teststatistik, Hunderte und Vorkalkulatoren hat sich begegnet in der Praxis enthalten Summen von bestimmten zufälligen Variablen in ihnen, noch mehr Vorkalkulatoren können als Summen von zufälligen Variablen durch den Gebrauch von Einfluss-Funktionen vertreten werden — alle diese Mengen werden durch den Hauptgrenzwertsatz geregelt und werden asymptotisch Normalverteilung infolgedessen haben.

Eine andere praktische Folge des Hauptgrenzwertsatzes ist, dass bestimmtem anderem Vertrieb durch die Normalverteilung zum Beispiel näher gekommen werden kann:

  • Der binomische Vertrieb B (n, p) ist ungefähr normaler N (np, np (1  p)) für großen n und für p nicht zu nahe zur Null oder ein.
  • Der Poisson (λ) Vertrieb ist ungefähr normaler N (, ) für große Werte von λ.
  • Der chi-karierte Vertrieb χ (k) ist ungefähr normaler N (k, 2k) für großen ks.
  • Der T-Vertrieb des Studenten t (ν) ist ungefähr normaler N (0, 1), wenn ν groß ist.

Ob diese Annäherungen genug genau sind, hängt vom Zweck ab, zu dem sie, und die Rate der Konvergenz zur Normalverteilung erforderlich sind. Es ist normalerweise der Fall, dass solche Annäherungen in den Schwänzen des Vertriebs weniger genau sind.

Einem General ober gebunden für den Annäherungsfehler im Hauptgrenzwertsatz wird durch den Lehrsatz der Beere-Esseen gegeben, Verbesserungen der Annäherung werden durch die Vergrößerungen von Edgeworth gegeben.

Verschieden

:

Axt + b\\sim\\mathcal {N} (a\mu+b, \, a^2\sigma^2).

</Mathematik>

Auch wenn X, X zwei unabhängige normale zufällige Variablen, mit Mitteln μ, μ und Standardabweichungen σ, σ sind, dann wird ihre geradlinige Kombination auch normalerweise verteilt:

:

aX_1 + bX_2 \\sim\\mathcal {N} (a\mu_1+b\mu_2, \, a^2 \!\sigma_1^2 + b^2\sigma_2^2)

</Mathematik>

Mehr allgemein, wenn X..., X unabhängige zufällige Variablen sind, dann werden zwei geradlinige Kombinationen aX und bX unabhängig sein, wenn, und nur wenn der ganze X normal ist und, wo die Abweichung X anzeigt.

:

X_1 + X_2 + \cdots + X_n \\sim\\mathcal {N} (\mu, \sigma^2)

</Mathematik>:

aX_1 + bX_2 \\sim\\sqrt {a^2+b^2 }\\cdot X_3\+ \(a+b-\sqrt {a^2+b^2}) \mu,

</Mathematik>

wo X auch ist. Diese Beziehung folgt direkt aus Eigentum (1).

:

D_\mathrm {KL} (X_1 \, \| \, X_2) = \frac {(\mu_1 - \mu_2) ^2} {2\sigma_2^2} \, + \, \frac12\left (\, \frac {\\sigma_1^2} {\\sigma_2^2} - 1 - \ln\frac {\\sigma_1^2} {\\sigma_2^2} \, \right) \.

</Mathematik>

Die Hellinger Entfernung zwischen demselben Vertrieb ist gleich

:

H^2 (X_1, X_2) = 1 \, - \, \sqrt {\\frac {2\sigma_1\sigma_2} {\\sigma_1^2 +\sigma_2^2}} \;

e^ {-\frac {1} {4 }\\frac {(\mu_1-\mu_2) ^2} {\\sigma_1^2 +\sigma_2^2} }\\.

</Mathematik>:

\mathcal I = \begin {pmatrix} \frac {1} {\\sigma^2} & 0 \\0 & \frac {1} {2\sigma^4} \end {pmatrix }\

</Mathematik>:

\mu | x_1, \ldots, x_n\\sim\\mathcal {N }\\ist abgereist (\frac {\\frac {\\sigma^2} {n }\\mu_0 + \sigma_0^2\bar {x}} {\\frac {\\sigma^2} {n} + \sigma_0^2}, \\left (\frac {n} {\\sigma^2} + \frac {1} {\\sigma_0^2} \right) ^ {\\!-1} \right)

</Mathematik>

</ol>

Zusammenhängender Vertrieb

Operationen auf einer einzelnen zufälligen Variable

Wenn X normalerweise mit Mittel-μ und Abweichung σ, dann verteilt wird

</ul>

Kombination von zwei unabhängigen zufälligen Variablen

Wenn X und X zwei unabhängige zufällige normale Standardvariablen, dann sind

</ul>

Kombination von zwei oder mehr unabhängigen zufälligen Variablen

:

t = \frac {\\Überstrich X - \mu} {S/\sqrt {n}} = \frac {\\frac {1} {n} (X_1 +\cdots+X_n) - \mu} {\\sqrt {\\frac {1} {n (n-1) }\\ist [(X_1-\overline X) ^2 +\cdots + (X_n-\overline X) ^2\right]}} \\sim\t_ {n-1} abgereist.

</Mathematik>:

F = \frac {\\ist (X_1^2+X_2^2 +\cdots+X_n^2\right)/n} abgereist {\\ist (Y_1^2+Y_2^2 +\cdots+Y_m^2\right)/m }\\\sim\F_ {n, \, M} abgereist.

</Mathematik></ul>

Operationen auf der Dichte-Funktion

Die Spalt-Normalverteilung wird am meisten direkt definiert, in Bezug auf sich erkletterten Abteilungen der Dichte-Funktionen von verschiedenen Normalverteilungen anzuschließen und die Dichte wiederzuerklettern, um zu einer zu integrieren. Die gestutzten Normalverteilungsergebnisse von Wiederschuppen einer Abteilung einer Funktion der einfachen Dichte.

Erweiterungen

Der Begriff der Normalverteilung, einer des wichtigsten Vertriebs in der Wahrscheinlichkeitstheorie seiend, ist weit außer dem Standardfachwerk des univariate erweitert worden (der eindimensional ist) Fall (Fall 1). Alle diese Erweiterungen werden auch normal oder Gesetze von Gaussian genannt, so besteht eine bestimmte Zweideutigkeit in Namen.

  • Normalverteilung von Multivariate beschreibt das Gesetz von Gaussian im k-dimensional Euklidischen Raum. Ein Vektor wird multivariate-normalerweise verteilt, wenn eine geradlinige Kombination seiner Bestandteile eine (univariate) Normalverteilung hat. Die Abweichung X ist eine k×k symmetrische positiv-bestimmte Matrix V.
  • Berichtigter Gaussian Vertrieb eine berichtigte Version der Normalverteilung mit dem ganzen negativen Element-Rücksetzen zu 0
  • Komplizierte Normalverteilung befasst sich mit den komplizierten normalen Vektoren. Wie man sagt, ist ein komplizierter Vektor normal, wenn sowohl seine echten als auch imaginären Bestandteile gemeinsam einen 2k-dimensional multivariate Normalverteilung besitzen. Die Abweichungskovarianz-Struktur X wird durch zwei matrices beschrieben: die Abweichungsmatrix Γ und die Beziehungsmatrix C.
  • Matrixnormalverteilung beschreibt den Fall von normalerweise verteiltem matrices.
  • Prozesse von Gaussian sind die normalerweise verteilten stochastischen Prozesse. Diese können als Elemente von einem unendlich-dimensionalen Raum von Hilbert H angesehen werden, und sind so die Entsprechungen von multivariate normalen Vektoren für den Fall. Wie man sagt, ist ein zufälliges Element normal, wenn für eine Konstante das Skalarprodukt eine (univariate) Normalverteilung hat. Die Abweichungsstruktur solchen Gaussian zufälliges Element kann in Bezug auf die geradlinige Kovarianz beschrieben werden. Mehrere Gaussian-Prozesse sind populär genug geworden, um ihre eigenen Namen zu haben:
  • Brownsche Bewegung,
  • Die Brownian Bridge,
  • Prozess von Ornstein-Uhlenbeck.
  • Q-Vertrieb von Gaussian ist ein abstrakter mathematischer Aufbau, der eine "Q-Entsprechung" der Normalverteilung vertritt.
  • der q-Gaussian ist eine Entsprechung des Vertriebs von Gaussian im Sinn, dass es das Wärmegewicht von Tsallis maximiert, und ein Typ des Vertriebs von Tsallis ist. Bemerken Sie, dass dieser Vertrieb vom Q-Vertrieb von Gaussian oben verschieden ist.

Einer des praktischen Hauptgebrauches des Gesetzes von Gaussian soll den empirischen Vertrieb von vielen verschiedenen zufälligen Variablen gestoßen in der Praxis modellieren. In solchem Fall würde eine mögliche Erweiterung eine reichere Familie des Vertriebs sein, mehr als zwei Rahmen habend und deshalb im Stande seiend, den empirischen Vertrieb genauer zu passen. Die Beispiele solcher Erweiterungen sind:

  • Vertrieb von Pearson — eine vierparametrische Familie des Wahrscheinlichkeitsvertriebs, der das normale Gesetz erweitert, um verschiedene Schiefe und Kurtosis-Werte einzuschließen.

Normalitätstests

Normalitätstests bewerten die Wahrscheinlichkeit, dass die gegebene Datei {x, …, x} aus einer Normalverteilung kommt. Normalerweise ist die ungültige Hypothese H, dass die Beobachtungen normalerweise mit unangegebenem Mittel-μ und Abweichung σ, gegen die Alternative H verteilt werden, dass der Vertrieb willkürlich ist. Eine große Zahl von Tests sind (mehr als 40) für dieses Problem ausgedacht worden, die prominenteren von ihnen werden unten entworfen:

  • "Seh"-Tests appellieren intuitiver, aber subjektiv zur gleichen Zeit, weil sie sich auf das informelle menschliche Urteil verlassen, um die ungültige Hypothese zu akzeptieren oder zurückzuweisen.
  • Q-Q Anschlag — ist ein Anschlag der sortierten Werte von der Datei gegen die erwarteten Werte des entsprechenden quantiles von der Standardnormalverteilung. D. h. es ist ein Anschlag des Punkts der Form (Φ (p), x), wo das Plotten von Punkten p p = (k  α) / gleich ist (n + 1  ) und α eine unveränderliche Anpassung ist, der irgendetwas zwischen 0 und 1 sein kann. Wenn die ungültige Hypothese wahr ist, sollten die geplanten Punkte auf einer Gerade ungefähr liegen.
  • P-P Anschlag — ähnlich dem Q-Q-Anschlag, aber verwendet viel weniger oft. Diese Methode besteht daraus, die Punkte zu planen (Φ (z), p), wo. Für normalerweise verteilte Daten sollte dieser Anschlag auf einer 45 ° Linie zwischen (0, 0) und (1, 1) liegen.
  • Test von Wilk-Shapiro verwendet die Tatsache, dass die Linie im Q-Q-Anschlag den Hang von σ hat. Der Test vergleicht kleinste Quadratschätzung dieses Hangs mit dem Wert der Beispielabweichung, und weist die ungültige Hypothese zurück, wenn sich diese zwei Mengen bedeutsam unterscheiden.
  • Normaler Wahrscheinlichkeitsanschlag (rankit Anschlag)
  • Moment-Tests:
  • Die K-squared von D'Agostino prüfen
  • Jarque-Bera prüfen
  • Empirische Vertriebsfunktionstests:
  • Test von Lilliefors (eine Anpassung des Tests von Kolmogorov-Smirnov)
  • Anderson-Lieblingstest

Bewertung von Rahmen

Es ist häufig der Fall, dass wir die Rahmen der Normalverteilung nicht wissen, aber sie stattdessen schätzen wollen. D. h. eine Probe (x, …, x) von einer normalen Bevölkerung habend, würden wir gern die ungefähren Werte von Rahmen μ und σ erfahren. Die Standardannäherung an dieses Problem ist die maximale Wahrscheinlichkeitsmethode, die Maximierung der Funktion der Klotz-Wahrscheinlichkeit verlangt:

:

\ln\mathcal {L} (\mu, \sigma^2)

= \sum_ {i=1} ^n \ln f (x_i; \, \mu, \sigma^2)

=-\frac {n} {2 }\\ln (2\pi) - \frac {n} {2 }\\ln\sigma^2 - \frac {1} {2\sigma^2 }\\sum_ {i=1} ^n (x_i-\mu) ^2.

</Mathematik>

Die Einnahme von Ableitungen in Bezug auf μ und σ und das Lösen des resultierenden Systems der ersten Ordnungsbedingungen geben die maximalen Wahrscheinlichkeitsschätzungen nach:

:

\hat {\\mu} = \overline {x} \equiv \frac {1} {n }\\sum_ {i=1} ^n x_i, \qquad

\hat {\\Sigma} ^2 = \frac {1} {n} \sum_ {i=1} ^n (x_i - \overline {x}) ^2.

</Mathematik>

Vorkalkulator wird die bösartige Probe genannt, da es die aller Beobachtungen bösartige Arithmetik ist. Das statistische ist abgeschlossen und für μ, und deshalb durch den Lehrsatz von Lehmann-Scheffé genügend, ist der Vorkalkulator der gleichförmig minimalen unvoreingenommenen Abweichung (UMVU). In begrenzten Proben wird es normalerweise verteilt:

:

\hat\mu \\sim\\mathcal {N} (\mu, \, \, \sigma^2 \! \! \;/n).

</Mathematik>

Die Abweichung dieses Vorkalkulatoren ist dem μμ-element des Gegenteils Informationsmatrix von Fisher gleich. Das deutet an, dass der Vorkalkulator effizient Begrenzt-Beispiel-ist. Der praktischen Wichtigkeit ist die Tatsache, dass der Standardfehler dessen zu proportional ist, d. h. wenn man den Standardfehler durch einen Faktor 10 vermindern möchte, muss man die Zahl von Punkten in der Probe durch einen Faktor 100 steigern. Diese Tatsache wird in der Bestimmung von Beispielgrößen für Meinungsumfragen und die Zahl von Proben in Simulationen von Monte Carlo weit verwendet.

Von der Einstellung der asymptotischen Theorie, entspricht, d. h. es läuft in der Wahrscheinlichkeit zu μ als n   zusammen. Der Vorkalkulator ist auch asymptotisch normal, der eine einfache Folgeerscheinung der Tatsache ist, dass es in begrenzten Proben normal ist:

:

\sqrt {n} (\hat\mu-\mu) \\xrightarrow {d }\\\mathcal {N} (0, \, \sigma^2).

</Mathematik>

Der Vorkalkulator wird die Beispielabweichung genannt, da es die Abweichung der Probe (x, …, x) ist. In der Praxis wird ein anderer Vorkalkulator häufig statt verwendet. Dieser andere Vorkalkulator wird s angezeigt, und wird auch die Beispielabweichung genannt, die eine bestimmte Zweideutigkeit in der Fachsprache vertritt; seine Quadratwurzel s wird die Beispielstandardabweichung genannt. Der Vorkalkulator s unterscheidet sich davon, indem er statt n im Nenner (die Korrektur des so genannten Bessels) gehabt wird:

:

s^2 = \frac {n} {n-1 }\\, \hat\sigma^2 = \frac {1} {n-1} \sum_ {i=1} ^n (x_i - \overline {x}) ^2.

</Mathematik>

Der Unterschied zwischen s und wird unwesentlich klein für den großen n's. In begrenzten Proben jedoch ist die Motivation hinter dem Gebrauch von s, dass es ein unvoreingenommener Vorkalkulator des zu Grunde liegenden Parameters σ ist, wohingegen beeinflusst wird. Außerdem durch den Lehrsatz von Lehmann-Scheffé ist der Vorkalkulator s gleichförmig minimale unvoreingenommene Abweichung (UMVU), die ihn den "besten" Vorkalkulatoren unter allen unvoreingenommenen macht. Jedoch kann es gezeigt werden, dass der voreingenommene Vorkalkulator "besser" ist als der s in Bezug auf das Kriterium des karierten Mittelfehlers (MSE). In begrenzten Proben sowohl s als auch haben chi-karierten Vertrieb mit Graden der Freiheit erklettert:

:

s^2 \\sim\\frac {\\sigma^2} {n-1} \cdot \chi^2_ {n-1}, \qquad

\hat\sigma^2 \\sim\\frac {\\sigma^2} {n} \cdot \chi^2_ {n-1 }\\.

</Mathematik>

Der erste von diesen Ausdrücken zeigt, dass die Abweichung von s dem gleich ist, der ein bisschen größer ist als der σσ-element des Gegenteils Informationsmatrix von Fisher. So ist s nicht ein effizienter Vorkalkulator für σ, und außerdem, da s UMVU ist, können wir beschließen, dass der effiziente Begrenzt-Beispielvorkalkulator für σ nicht besteht.

Die Verwendung der asymptotischen Theorie, beide Vorkalkulatoren s und entspricht, der ist, laufen sie in der Wahrscheinlichkeit zu σ als die Beispielgröße zusammen. Die zwei Vorkalkulatoren sind auch beide asymptotisch normal:

:

\sqrt {n} (\hat\sigma^2 - \sigma^2) \simeq

\sqrt {n} (s^2-\sigma^2) \\xrightarrow {d }\\\mathcal {N} (0, \, 2\sigma^4).

</Mathematik>

Insbesondere beide Vorkalkulatoren sind für σ asymptotisch effizient.

Durch den Lehrsatz von Cochran für die Normalverteilung ist die Probe bösartig und die Beispielabweichung s unabhängig, was bedeutet, dass es keinen Gewinn im Betrachten ihres gemeinsamen Vertriebs geben kann. Es gibt auch einen Rücklehrsatz: Wenn in einer Probe die Beispiel-Mittel- und Beispielabweichung unabhängig ist, dann muss die Probe aus der Normalverteilung gekommen sein. Die Unabhängigkeit zwischen und s können verwendet werden, um den so genannten t-statistic zu bauen:

:

t = \frac {\\hat\mu-\mu} {s/\sqrt {n}} = \frac {\\Überstrich {x}-\mu} {\\sqrt {\\frac {1} {n (n-1) }\\Summe (x_i-\overline {x}) ^2} }\\\sim\t_ {n-1 }\

</Mathematik>

Diese Menge t hat den T-Vertrieb des Studenten mit Graden der Freiheit, und es ist ein Hilfsstatistischer (unabhängig des Werts der Rahmen). Das Umkehren des Vertriebs dieser T-Statistik wird uns erlauben, das Vertrauensintervall für μ zu bauen; ähnlich wird das Umkehren des χ Vertriebs des statistischen s uns das Vertrauensintervall für σ geben:

:

& \mu \in \left [\, \hat\mu + t_ {n-1, \alpha/2 }\\, \frac {1} {\\sqrt {n}} s, \\

\hat\mu + t_ {n-1,1-\alpha/2 }\\, \frac {1} {\\sqrt {n}} s \, \right] \approx

\left [\, \hat\mu - |z_ {\\Alpha/2} | \frac {1} {\\sqrt n\s, \\

\hat\mu + |z_ {\\Alpha/2} | \frac {1} {\\sqrt n\s \, \right], \\

& \sigma^2 \in \left [\, \frac {(n-1) s^2} {\\chi^2_ {n-1,1-\alpha/2}}, \\

\frac {(n-1) s^2} {\\chi^2_ {n-1, \alpha/2}} \, \right] \approx

\left [\, s^2 - |z_ {\\Alpha/2} | \frac {\\sqrt {2}} {\\sqrt {n}} s^2, \\

s^2 + |z_ {\\Alpha/2} | \frac {\\sqrt {2}} {\\sqrt {n}} s^2 \, \right],

\end {richten} </Mathematik> {aus}

wo t und der p quantiles vom t- und χ-distributions beziehungsweise sind. Diese Vertrauensintervalle sind des Niveaus, bedeutend, dass die wahren Werte μ und σ außerhalb dieser Zwischenräume mit der Wahrscheinlichkeit α fallen. In Praxis-Leuten nehmen gewöhnlich, auf die 95-%-Vertrauensintervalle hinauslaufend. Die ungefähren Formeln in der Anzeige wurden oben aus dem asymptotischen Vertrieb und s abgeleitet. Die ungefähren Formeln werden gültig für große Werte von n, und sind für die manuelle Berechnung günstiger, da die normalen normalen quantiles z von n nicht abhängen. Insbesondere der populärste Wert dessen, läuft hinaus.

Analyse von Bayesian der Normalverteilung

Die Analyse von Bayesian von normalerweise verteilten Daten wird durch die vielen verschiedenen Möglichkeiten kompliziert, die betrachtet werden können:

  • Entweder das bösartige, oder die Abweichung oder keiner, können als eine feste Menge betrachtet werden.
  • Wenn die Abweichung unbekannt ist, kann Analyse direkt in Bezug auf die Abweichung, oder in Bezug auf die Präzision, das Gegenstück der Abweichung getan werden. Der Grund dafür, die Formeln in Bezug auf die Präzision auszudrücken, besteht darin, dass die Analyse von den meisten Fällen vereinfacht wird.
  • Sowohl univariate als auch multivariate Fälle müssen betrachtet werden.
  • Entweder verbundener oder unpassender vorheriger Vertrieb kann auf den unbekannten Variablen gelegt werden.
  • Ein zusätzlicher Satz von Fällen kommt in Bayesian geradliniges rückwärts Gehen vor, wo im Grundmodell, wie man annimmt, die Daten normalerweise verteilt werden, und normale priors auf den Regressionskoeffizienten gelegt werden. Die resultierende Analyse ist den grundlegenden Fällen von unabhängigen identisch verteilten Daten ähnlich, aber komplizierter.

Die Formeln für die Fälle "nicht geradliniges rückwärts Gehen" werden im verbundenen vorherigen Artikel zusammengefasst.

Die Summe von zwei quadratics

Skalarform

Die folgende Hilfsformel ist nützlich, für die späteren Aktualisierungsgleichungen zu vereinfachen, die sonst ziemlich langweilig werden.

:

Diese Gleichung schreibt die Summe von zwei quadratics in x durch die Erweiterung der Quadrate, die Gruppierung der Begriffe in x und die Vollendung des Quadrats um. Bemerken Sie den folgenden über die komplizierten unveränderlichen einigen der Begriffe beigefügten Faktoren:

  1. Der Faktor hat die Form eines gewogenen Mittelwertes von y und z.
  2. Das zeigt, dass von diesem Faktor als ergebend aus einer Situation gedacht werden kann, wo die Gegenstücke von Mengen a und b direkt so beitragen, um a und b selbst zu verbinden, ist es notwendig, das Ergebnis wieder zu erwidern, hinzuzufügen, und zu erwidern, um in die ursprünglichen Einheiten zurückzukommen. Das ist genau die Sorte der Operation, die durch die bösartige Harmonische durchgeführt ist, so ist es nicht überraschend, dass eine Hälfte der Harmonischen ist, die von a und b bösartig ist.

Vektor-Form

Eine ähnliche Formel kann für die Summe von zwei Vektoren quadratics geschrieben werden: Wenn Vektoren der Länge sind, und und, invertible matrices der Größe, dann symmetrisch

sind:wo:

Bemerken Sie, dass die Form eine quadratische Form genannt wird und ein Skalar ist:

:

Mit anderen Worten summiert es alle möglichen Kombinationen von Produkten von Paaren von Elementen von, mit einem getrennten Koeffizienten für jeden. Außerdem, seitdem, nur die Summe-Sachen für irgendwelche außerdiagonalen Elemente, und gibt es keinen Verlust der Allgemeinheit im Annehmen, das symmetrisch ist. Außerdem, wenn, dann die Form symmetrisch ist.

Die Summe von Unterschieden zum bösartigen

Eine andere nützliche Formel ist wie folgt:

:

wo

Mit der bekannten Abweichung

Für eine Reihe von i.i.d. spitzen normalerweise verteilte Daten X der Größe n an, wo jeder individuelle Punkt x mit der bekannten Abweichung &sigma folgt; der verbundene vorherige Vertrieb wird auch normalerweise verteilt.

Das kann leichter durch das Neuschreiben der Abweichung als die Präzision, d. h. das Verwenden Dann gezeigt werden, wenn und wir wie folgt weitergehen.

Erstens ist die Wahrscheinlichkeitsfunktion (das Verwenden der Formel oben für die Summe von Unterschieden zum bösartigen):

:

\begin {richten }\aus

p (\mathbf {X} | \mu, \tau) &= \prod_ {i=1} ^n \sqrt {\\frac {\\tau} {2\pi}} \exp\left (-\frac {1} {2 }\\tau (x_i-\mu) ^2\right) \\

&= \left (\frac {\\tau} {2\pi }\\Recht) ^ {n/2} \exp\left (-\frac {1} {2 }\\tau \sum_ {i=1} ^n (x_i-\mu) ^2\right) \\

&= \left (\frac {\\tau} {2\pi }\\Recht) ^ {n/2} \exp\left [-\frac {1} {2 }\\tau \left (\sum_ {i=1} ^n (x_i-\bar {x}) ^2 + n (\bar {x}-\mu) ^2\right) \right]

\end {richten }\aus

</Mathematik>

Dann gehen wir wie folgt weiter:

:\begin {richten }\aus

p (\mu |\mathbf {X}) \propto p (\mathbf {X} | \mu) p (\mu) & = \left (\frac {\\tau} {2\pi }\\Recht) ^ {n/2} \exp\left [-\frac {1} {2 }\\tau \left (\sum_ {i=1} ^n (x_i-\bar {x}) ^2 + n (\bar {x}-\mu) ^2\right) \right] \sqrt {\\frac {\\tau_0} {2\pi}} \exp\left (-\frac {1} {2 }\\tau_0 (\mu-\mu_0) ^2\right) \\

&\\propto \exp\left (-\frac {1} {sind 2 }\\(\tau\left (\sum_ {i=1} ^n (x_i-\bar {x}) ^2 + n (\bar {x}-\mu) ^2\right) + \tau_0 (\mu-\mu_0) ^2\right) \right) abgereist, \\

&\\propto \exp\left (-\frac {1} {2} (n\tau (\bar {x}-\mu) ^2 + \tau_0 (\mu-\mu_0) ^2) \right) \\

&= \exp\left (-\frac {1} {2} (n\tau + \tau_0) \left (\mu - \dfrac {n\tau \bar {x} + \tau_0\mu_0} {n\tau + \tau_0 }\\Recht) ^2 + \frac {n\tau\tau_0} {n\tau +\tau_0} (\bar {x} - \mu_0) ^2\right) \\

&\\propto \exp\left (-\frac {1} {2} (n\tau + \tau_0) \left (\mu - \dfrac {n\tau \bar {x} + \tau_0\mu_0} {n\tau + \tau_0 }\\Recht) ^2\right)

\end {richten }\aus</Mathematik>

In der obengenannten Abstammung haben wir die Formel oben für die Summe von zwei quadratics verwendet und haben alle unveränderlichen Faktoren beseitigt, die nicht einschließen. Das Ergebnis ist der Kern einer Normalverteilung, mit dem bösartigen und der Präzision, d. h.

:

Das kann als eine Reihe von Aktualisierungsgleichungen von Bayesian für die späteren Rahmen in Bezug auf die vorherigen Rahmen geschrieben werden:

:\begin {richten }\aus

\tau_0' &= \tau_0 + n\tau \\

\mu_0' &= \frac {n\tau \bar {x} + \tau_0\mu_0} {n\tau + \tau_0} \\

\bar {x} &= \frac {1} {n }\\sum_ {i=1} ^n x_i \\

\end {richten }\aus</Mathematik>

D. h. um Datenpunkte mit der Gesamtpräzision dessen zu verbinden (oder gleichwertig, Gesamtabweichung) und bösartig von Werten, leiten eine neue Gesamtpräzision einfach durch das Hinzufügen der Gesamtpräzision der Daten zur vorherigen Gesamtpräzision ab, und bilden einen neuen bösartigen durch einen gewogenen Mittelwert der Präzision, d. h. einen gewogenen Mittelwert der Daten bösartig und das vorherige bösartige, jeder, der durch die verbundene Gesamtpräzision beschwert ist. Das hat logischen Sinn, wenn von der Präzision als das Anzeigen der Gewissheit der Beobachtungen gedacht wird: Im Vertrieb des späteren bösartigen wird jeder der Eingangsbestandteile durch seine Gewissheit beschwert, und die Gewissheit dieses Vertriebs ist die Summe der individuellen Gewissheiten. (Für die Intuition davon, vergleichen Sie sich der Ausdruck "der Ganze ist (oder ist nicht) größer als die Summe seiner Teile". Denken Sie außerdem, dass die Kenntnisse des späteren aus einer Kombination der Kenntnisse des vorherigen und der Wahrscheinlichkeit kommen, so hat es Sinn, dass wir darin mehr sicher sind als von jedem seiner Bestandteile.)

Die obengenannte Formel offenbart, warum es günstiger ist, Analyse von Bayesian von verbundenem priors für die Normalverteilung in Bezug auf die Präzision zu tun. Die spätere Präzision ist einfach die Summe der vorherigen Präzision und Wahrscheinlichkeitspräzision, und das spätere bösartige wird durch einen gewogenen Mittelwert der Präzision, wie beschrieben, oben geschätzt. Dieselben Formeln können in Bezug auf die Abweichung durch die Erwiderung der ganzen Präzision, das Nachgeben der hässlicheren Formeln geschrieben werden

:\begin {richten }\aus

{\\sigma^2_0}' &= \frac {1} {\\frac {n} {\\sigma^2} + \frac {1} {\\sigma_0^2}} \\

\mu_0' &= \frac {\\frac {n\bar {x}} {\\sigma^2} + \frac {\\mu_0} {\\sigma_0^2}} {\\frac {n} {\\sigma^2} + \frac {1} {\\sigma_0^2}} \\

\bar {x} &= \frac {1} {n }\\sum_ {i=1} ^n x_i \\\end {richten }\aus</Mathematik>

Mit dem bösartigen bekannten

Für eine Reihe von i.i.d. spitzen normalerweise verteilte Daten X der Größe n an, wo jeder individuelle Punkt x mit dem bekannten bösartig &mu folgt; die verbundene vorherige von der Abweichung hat einen umgekehrten Gammavertrieb oder ein schuppiges Gegenteil chi-karierter Vertrieb. Die zwei sind abgesehen davon gleichwertig, verschiedenen parameterizations zu haben. Der Gebrauch des umgekehrten Gammas ist üblicher, aber das schuppige chi-karierte Gegenteil ist günstiger, so verwenden wir es in der folgenden Abstammung. Das vorherige für &sigma; ist wie folgt:

:

\frac {\\exp\left [\frac {-\nu_0 \sigma_0^2} {2 \sigma^2 }\\Recht]} {(\sigma^2) ^ {1 +\nu_0/2}} \propto \frac {\\exp\left [\frac {-\nu_0 \sigma_0^2} {2 \sigma^2 }\\Recht]} {(\sigma^2) ^ {1 +\nu_0/2}} </Mathematik>

Die Wahrscheinlichkeitsfunktion von oben, geschrieben in Bezug auf die Abweichung, ist:

:\begin {richten }\aus

p (\mathbf {X} | \mu, \sigma^2) &= \left (\frac {1} {2\pi\sigma^2 }\\Recht) ^ {n/2} \exp\left [-\frac {1} {2\sigma^2} \sum_ {i=1} ^n (x_i-\mu) ^2\right] \\

&= \left (\frac {1} {2\pi\sigma^2 }\\Recht) ^ {n/2} \exp\left [-\frac {S} {2\sigma^2 }\\Recht]

\end {richten }\aus</Mathematik>wo

Dann:

:\begin {richten }\aus

p (\sigma^2 |\mathbf {X}) \propto p (\mathbf {X} | \sigma^2) p (\sigma^2) & = \left (\frac {1} {2\pi\sigma^2 }\\Recht) ^ {n/2} \exp\left [-\frac {S} {2\sigma^2 }\\Recht] \frac {(\sigma_0^2\nu_0/2) ^ {\\nu_0/2}} {\\Gamma (\nu_0/2)} ~

\frac {\\exp\left [\frac {-\nu_0 \sigma^2} {2 \sigma_0^2 }\\Recht]} {(\sigma^2) ^ {1 +\nu_0/2}} \\

&\\propto \left (\frac {1} {\\sigma^2 }\\Recht) ^ {n/2} \frac {1} {(\sigma^2) ^ {1 +\nu_0/2}} \exp\left [-\frac {S} {2\sigma^2} + \frac {-\nu_0 \sigma_0^2} {2 \sigma^2 }\\Recht] \\

&= \frac {1} {(\sigma^2) ^ {1 + (\nu_0+n)/2}} \exp\left [-\frac {\\nu_0 \sigma_0^2 + S} {2\sigma^2 }\\Recht] \\

\end {richten }\aus</Mathematik>

Das ist auch ein schuppiges Gegenteil chi-karierter Vertrieb, wo

:\begin {richten }\aus

\nu_0' &= \nu_0 + n \\

\nu_0' {\\sigma_0^2}' &= \nu_0 \sigma_0^2 + \sum_ {i=1} ^n (x_i-\mu) ^2

\end {richten }\aus</Mathematik>

oder gleichwertig

:\begin {richten }\aus\nu_0' &= \nu_0 + n \\

{\\sigma_0^2}' &= \frac {\\nu_0 \sigma_0^2 + \sum_ {i=1} ^n (x_i-\mu) ^2} {\\nu_0+n }\

\end {richten }\aus</Mathematik>

In Bezug auf einen umgekehrten Gammavertrieb wiederparametrisierend, ist das Ergebnis:

:\begin {richten }\aus

\alpha' &= \alpha + \frac {n} {2} \\

\beta' &= \beta + \frac {\\sum_ {i=1} ^n (x_i-\mu) ^2} {2 }\

\end {richten }\aus</Mathematik>

Mit dem unbekannten bösartig und Abweichung

Für eine Reihe von i.i.d. spitzen normalerweise verteilte Daten X der Größe n an, wo jeder individuelle Punkt x mit dem unbekannten bösartig &mu folgt; und Abweichung &sigma; ein vereinigter (multivariate) paart sich vorherig wird über das bösartige und die Abweichung gelegt, aus einem Vertrieb des normalen umgekehrten Gammas bestehend.

Logisch entsteht das wie folgt:

  1. Von der Analyse des Falls mit der unbekannten bösartigen, aber bekannten Abweichung sehen wir, dass die Aktualisierungsgleichungen genügend Statistik einschließen, die von den Daten geschätzt ist, die aus den bösartigen von den Datenpunkten und der Gesamtabweichung der Datenpunkte bestehen, geschätzt der Reihe nach von der bekannten durch die Zahl von Datenpunkten geteilten Abweichung.
  2. Von der Analyse des Falls mit der unbekannten Abweichung, aber bekannt bösartig sehen wir, dass die Aktualisierungsgleichungen genügend Statistik über die Daten einschließen, die aus der Zahl von Datenpunkten und Summe von karierten Abweichungen bestehen.
  3. Beachten Sie, dass die spätere Aktualisierung Aufschlag als der vorherige Vertrieb schätzt, wenn weitere Daten behandelt werden. So sollten wir an unseren priors in Bezug auf die genügend Statistik gerade beschrieben, mit derselben Semantik beachtet so viel wie möglich logisch denken.
  4. Um den Fall zu behandeln, wo sowohl bösartig als auch Abweichung unbekannt sind, konnten wir unabhängigen priors über das bösartige und die Abweichung mit festen Schätzungen der durchschnittlichen Mittel-, Gesamtabweichung legen, die Zahl von Datenpunkten hat gepflegt, die Abweichung vorherig, und Summe von karierten Abweichungen zu schätzen. Bemerken Sie jedoch, dass in Wirklichkeit die Gesamtabweichung des bösartigen von der unbekannten Abweichung und der Summe von karierten Abweichungen abhängt, die in die Abweichung vorherig eintritt (erscheint zu) hängen vom unbekannten bösartigen ab. In der Praxis ist die letzte Abhängigkeit relativ unwichtig: Verschiebung der wirklichen Mittelverschiebungen die erzeugten Punkte durch einen gleichen Betrag, und durchschnittlich die karierten Abweichungen wird dasselbe bleiben. Das ist nicht der Fall jedoch mit der Gesamtabweichung des bösartigen: Als die unbekannte Abweichung zunimmt, wird die Gesamtabweichung des bösartigen proportional zunehmen, und wir würden gern diese Abhängigkeit gewinnen.
  5. Das weist darauf hin, dass wir einen bedingten vorherigen von den bösartigen auf der unbekannten Abweichung mit einem Hyperparameter schaffen, der die bösartigen von den Pseudobeobachtungen angibt, die mit dem vorherigen, und einem anderen Parameter vereinigt sind, der die Zahl von Pseudobeobachtungen angibt. Diese Zahl dient als ein kletternder Parameter auf der Abweichung, es möglich machend, die gesamte Abweichung des bösartigen hinsichtlich des wirklichen Abweichungsparameters zu kontrollieren. Das vorherige für die Abweichung hat auch zwei Hyperrahmen, das ein Spezifizieren der Summe von karierten Abweichungen der Pseudobeobachtungen, die mit dem vorherigen, und ein anderes Spezifizieren wieder die Zahl von Pseudobeobachtungen vereinigt sind. Bemerken Sie, dass jeder der priors einen Hyperparameter hat, der die Zahl von Pseudobeobachtungen angibt, und in jedem Fall das die Verhältnisabweichung davon vorherig kontrolliert. Diese werden als zwei getrennte Hyperrahmen gegeben, so dass die Abweichung (auch bekannt als das Vertrauen) der zwei priors getrennt kontrolliert werden kann.
  6. Das führt sofort zum Vertrieb des normalen umgekehrten Gammas, der als das Produkt des zwei Vertriebs gerade definiert, mit verbundenem priors verwendet (ein umgekehrter Gammavertrieb über die Abweichung und eine Normalverteilung über das bösartige, bedingte durch die Abweichung) und mit denselben vier gerade definierten Rahmen definiert wird.

Die priors werden normalerweise wie folgt definiert:

:\begin {richten }\aus

p (\mu |\sigma^2; \mu_0, n_0) &\\sim \mathcal {N} (\mu_0, \sigma_0^2/n_0) \\

p (\sigma^2; \nu_0, \sigma_0^2) &\\sim I\chi^2 (\nu_0, \sigma_0^2) = IG (\nu_0/2, \nu_0\sigma_0^2/2)

\end {richten }\aus</Mathematik>

Die Aktualisierungsgleichungen können abgeleitet werden und wie folgt aussehen:

:\begin {richten }\aus\bar {x} &= \frac {1} {n }\\sum_ {i=1} ^n x_i \\

\mu_0' &= \frac {n_0\mu_0 + n\bar {x}} {n_0 + n} \\

n_0' &= n_0 + n \\

\nu_0' &= \nu_0 + n \\

\nu_0' {\\sigma_0^2}' &= \nu_0 \sigma_0^2 + \sum_ {i=1} ^n (x_i-\bar {x}) ^2 + \frac {n_0 n} {n_0 + n} (\mu_0 - \bar {x}) ^2 \\

\end {richten }\aus</Mathematik>

Die jeweiligen Zahlen von Pseudobeobachtungen fügen gerade die Zahl von wirklichen Beobachtungen zu ihnen hinzu. Der neue Mittelhyperparameter ist wieder ein gewogener Mittelwert, der dieses Mal durch die Verhältniszahlen von Beobachtungen beschwert ist. Schließlich ist die Aktualisierung dafür dem Fall mit dem bekannten bösartig ähnlich, aber in diesem Fall wird die Summe von karierten Abweichungen in Bezug auf die beobachteten Daten bösartig aber nicht das wahre bösartige genommen, und infolgedessen muss ein neuer "Wechselwirkungsbegriff" hinzugefügt werden, um auf die zusätzliche Fehlerquelle aufzupassen, die von der Abweichung zwischen vorherigem und bösartigen Daten stammt.

Beweis ist wie folgt.

Der vorherige Vertrieb ist

:\begin {richten }\aus

p (\mu |\sigma^2; \mu_0, n_0) &\\sim \mathcal {N} (\mu_0, \sigma_0^2/n_0) = \frac {1} {\\sqrt {2\pi\frac {\\sigma^2} {n_0}}} \exp\left (-\frac {n_0} {2\sigma^2} (\mu-\mu_0) ^2\right) \\

&\\propto (\sigma^2) ^ {-1/2} \exp\left (-\frac {n_0} {2\sigma^2} (\mu-\mu_0) ^2\right) \\

p (\sigma^2; \nu_0, \sigma_0^2) &\\sim I\chi^2 (\nu_0, \sigma_0^2) = IG (\nu_0/2, \nu_0\sigma_0^2/2) \\

&= \frac {(\sigma_0^2\nu_0/2) ^ {\\nu_0/2}} {\\Gamma (\nu_0/2)} ~

\frac {\\exp\left [\frac {-\nu_0 \sigma_0^2} {2 \sigma^2 }\\Recht]} {(\sigma^2) ^ {1 +\nu_0/2}} \\

&\\propto {(\sigma^2) ^ {-(1 +\nu_0/2)}} \exp\left [\frac {-\nu_0 \sigma_0^2} {2 \sigma^2 }\\Recht] \\

\end {richten }\aus</Mathematik>

Deshalb ist das vorherige Gelenk

:\begin {richten }\aus

p (\mu, \sigma^2; \mu_0, n_0, \nu_0, \sigma_0^2) &= p (\mu |\sigma^2; \mu_0, n_0) \, p (\sigma^2; \nu_0, \sigma_0^2) \\

&\\propto (\sigma^2) ^ {-(\nu_0+3)/2} \exp\left [-\frac {1} {2\sigma^2 }\\ist (\nu_0\sigma_0^2 + n_0 (\mu-\mu_0) ^2\right) \right] abgereist

\end {richten }\aus</Mathematik>

Die Wahrscheinlichkeitsfunktion von der Abteilung oben mit der bekannten Abweichung und dem Schreiben davon in Bezug auf die Abweichung aber nicht Präzision, ist:

:\begin {richten }\aus

p (\mathbf {X} | \mu, \sigma^2) &= \left (\frac {1} {2\pi\sigma^2 }\\Recht) ^ {n/2} \exp\left [-\frac {1} {2\sigma^2} \left (\sum_ {i=1} ^n (x_i-\bar {x}) ^2 + n (\bar {x}-\mu) ^2\right) \right] \\

&\\propto {\\sigma^2} ^ {-n/2} \exp\left [-\frac {1} {2\sigma^2} \left (S + n (\bar {x}-\mu) ^2\right) \right] \\

\end {richten }\aus</Mathematik>wo

Deshalb ist das spätere (das Fallen der Hyperrahmen als das Bedingen von Faktoren):

:\begin {richten }\aus

p (\mu, \sigma^2 |\mathbf {X}) & \propto p (\mu, \sigma^2) \, p (\mathbf {X} | \mu, \sigma^2) \\

& \propto (\sigma^2) ^ {-(\nu_0+3)/2} \exp\left [-\frac {1} {2\sigma^2 }\\ist (\nu_0\sigma_0^2 + n_0 (\mu-\mu_0) ^2\right) \right] {\\sigma^2} ^ {-n/2} \exp\left [-\frac {1} {2\sigma^2} \left (S + n (\bar {x}-\mu) ^2\right) \right] \\abgereist

&= (\sigma^2) ^ {-(\nu_0+n+3)/2} \exp\left [-\frac {1} {2\sigma^2 ist }\\(\nu_0\sigma_0^2 + S + n_0 (\mu-\mu_0) ^2 + n (\bar {x}-\mu) ^2\right) \right] \\abgereist

&= (\sigma^2) ^ {-(\nu_0+n+3)/2} \exp\left [-\frac {1} {2\sigma^2 ist }\\(\nu_0\sigma_0^2 + S + \frac {n_0 n} {n_0+n} (\mu_0-\bar {x}) ^2 + (n_0+n) \left (\mu-\frac {n_0\mu_0 + n\bar {x}} {n_0 + n }\\Recht) ^2\right) \right] \\abgereist

& \propto (\sigma^2) ^ {-1/2} \exp\left [-\frac {n_0+n} {2\sigma^2 }\\ist (\mu-\frac {n_0\mu_0 + n\bar {x}} {n_0 + n }\\Recht) ^2\right] \\abgereist

& \quad\times (\sigma^2) ^ {-(\nu_0/2+n/2+1)} \exp\left [-\frac {1} {2\sigma^2 }\\ist (\nu_0\sigma_0^2 + S + \frac {n_0 n} {n_0+n} (\mu_0-\bar {x}) ^2\right) \right] \\abgereist

& = \mathcal {N} _ ist {\\mu |\sigma^2 }\\(\frac {n_0\mu_0 + n\bar {x}} {n_0 + n}, \frac {\\sigma^2} {n_0+n }\\Recht) \cdot {\\rm IG} _ {\\sigma^2 }\\link (\frac12 (\nu_0+n), \frac12\left (\nu_0\sigma_0^2 + S + \frac {n_0 n} {n_0+n} (\mu_0-\bar {x}) ^2\right) \right) abgereist. \\

\end {richten }\aus</Mathematik>

Mit anderen Worten hat der spätere Vertrieb die Form eines Produktes einer Normalverteilung im Laufe Zeiten ein umgekehrter Gammavertrieb mit Rahmen, die dasselbe als die Aktualisierungsgleichungen oben sind.

Ereignis

Das Ereignis der Normalverteilung in praktischen Problemen kann in drei Kategorien lose eingeteilt werden:

  1. Genau Normalverteilungen;
  2. Ungefähr normale Gesetze, zum Beispiel wenn solche Annäherung durch den Hauptgrenzwertsatz gerechtfertigt wird; und
  3. Vertrieb hat als normal — die Normalverteilung modelliert, die der Vertrieb mit dem maximalen Wärmegewicht für einen gegebenen bösartigen und Abweichung ist.

Genaue Normalität

Bestimmte Mengen in der Physik werden normalerweise verteilt, wie zuerst von James Clerk Maxwell demonstriert wurde. Beispiele solcher Mengen sind:

  • Geschwindigkeiten der Moleküle im idealen Benzin. Mehr allgemein werden Geschwindigkeiten der Partikeln in jedem System im thermodynamischen Gleichgewicht Normalverteilung wegen des maximalen Wärmegewicht-Grundsatzes haben.
  • Die Wahrscheinlichkeitsdichte-Funktion eines Bodens setzt in einem Quant harmonischen Oszillator fest.
  • Die Position einer Partikel, die Verbreitung erfährt. Wenn am Anfang die Partikel an einem spezifischen Punkt gelegen wird (der sein Wahrscheinlichkeitsvertrieb ist, ist die dirac Delta-Funktion), dann nachdem wird Zeit t seine Position durch eine Normalverteilung mit der Abweichung t beschrieben, der die Verbreitungsgleichung befriedigt. Wenn die anfängliche Position durch eine bestimmte Dichte-Funktion g (x) gegeben wird, dann ist die Dichte in der Zeit t die Gehirnwindung von g und dem normalen PDF.

Ungefähre Normalität

Ungefähr kommen Normalverteilungen in vielen Situationen, wie erklärt, durch den Hauptgrenzwertsatz vor. Wenn das Ergebnis durch eine Vielzahl von kleinen Effekten erzeugt wird, die zusätzlich und unabhängig handeln, wird sein Vertrieb in der Nähe vom normalen sein. Die normale Annäherung wird nicht gültig sein, wenn die Effekten multiplicatively (statt zusätzlich) handeln, oder wenn es einen einzelnen Außeneinfluss gibt, der einen beträchtlich größeren Umfang hat als der Rest der Effekten.

  • Im Zählen von Problemen, wo der Hauptgrenzwertsatz eine zum Kontinuum getrennte Annäherung einschließt, und wo ungeheuer teilbarer und zerlegbarer Vertrieb wie beteiligt wird
  • Binomische zufällige Variablen, die mit binären Ansprechvariablen vereinigt sind;
  • Poisson zufällige Variablen, die mit seltenen Ereignissen vereinigt sind;
  • Thermallicht hat einen Vertrieb von Bose-Einstein auf Skalen der sehr kurzen Zeit und eine Normalverteilung auf längeren Zeitskalen wegen des Hauptgrenzwertsatzes.

Angenommene Normalität

Es gibt statistische Methoden, diese Annahme empirisch zu prüfen, zu sehen, dass die obengenannte Normalität Abteilung prüft.

  • In der Biologie neigt der Logarithmus von verschiedenen Variablen dazu, eine Normalverteilung zu haben, d. h. sie neigen dazu, einen Lognormalvertrieb (nach der Trennung auf männlichen/weiblichen Subbevölkerungen) mit Beispielen zu haben, einschließlich:
  • Maßnahmen der Größe des lebenden Gewebes (Länge, Höhe, Hautgebiet, Gewicht);
  • Die Länge von trägen Anhängen (Haar, Klauen, Nägel, Zähne) biologischer Muster, in der Richtung auf das Wachstum; vermutlich fällt die Dicke des Baumrindes auch unter dieser Kategorie;
  • Bestimmte physiologische Maße, wie Blutdruck von erwachsenen Menschen.
  • In der Finanz insbesondere werden das Schwarze-Scholes Modell, die Änderungen im Logarithmus von Wechselkursen, Preisindizes und Aktienbörse-Indizes normal angenommen (diese Variablen benehmen sich wie Zinseszinsen, nicht wie einfaches Interesse, und sind auch multiplicative). Einige Mathematiker wie Benoît Mandelbrot haben behauptet, dass Vertrieb der Klotz-Erhebung, der schwere Schwänze besitzt, ein passenderes Modell insbesondere für die Analyse für Aktienbörse-Unfälle sein würde.
  • Maß-Fehler in physischen Experimenten werden häufig durch eine Normalverteilung modelliert. Dieser Gebrauch einer Normalverteilung deutet nicht an, dass man annimmt, dass die Maß-Fehler normalerweise verteilt, ziemlich verwendend werden, erzeugt die Normalverteilung die konservativsten Vorhersagen möglich gegeben nur Kenntnisse über das bösartige und die Abweichung der Fehler.
  • In der standardisierten Prüfung können Ergebnisse gemacht werden, eine Normalverteilung zu haben. Das wird durch jedes Auswählen der Zahl und Schwierigkeit von Fragen (als im IQ-Test), oder durch das Umwandeln der rohen Testhunderte in "Produktions"-Hunderte durch die Anprobe von ihnen an die Normalverteilung getan. Zum Beispiel basiert die traditionelle Reihe des SAT 200-800 auf einer Normalverteilung mit einem bösartigen von 500 und einer Standardabweichung 100.
  • Viele Hunderte werden aus der Normalverteilung, einschließlich Prozentanteil-Reihen ("Prozentanteile" oder "quantiles"), normale Kurve-Entsprechungen, stanines, Z-Hunderte und T-Hunderte abgeleitet. Zusätzlich basieren mehrere statistische Verhaltensverfahren in der Annahme, dass Hunderte normalerweise verteilt werden; zum Beispiel, T-Tests und ANOVAs. Das Glockenkurve-Sortieren teilt auf einer Normalverteilung von Hunderten gestützte Verhältnisränge zu.
  • In der Hydrologie, wie man häufig denkt, ist der Vertrieb der langen Dauer-Flussentladung oder des Niederschlags, z.B monatliche und jährliche Summen, gemäß dem Hauptgrenzwertsatz praktisch normal. Das blaue Bild illustriert ein Beispiel, die Normalverteilung an aufgereihte Niederschläge im Oktober zu passen, den auf dem binomischen Vertrieb gestützten 90-%-Vertrauensriemen zeigend. Die Niederschlag-Daten werden durch das Plotten von Positionen als ein Teil der kumulativen Frequenzanalyse vertreten.

Das Erzeugen von Werten von der Normalverteilung

In Computersimulationen, besonders in Anwendungen der Methode von Monte Carlo, ist es häufig wünschenswert, Werte zu erzeugen, die normalerweise verteilt werden. Die unter allen verzeichneten Algorithmen erzeugen den normalen Standard, geht da eine Dose ab, als erzeugt werden, wo Z normal normal ist. Alle diese Algorithmen verlassen sich auf die Verfügbarkeit eines Zufallszahlengenerators U fähig dazu, gleichförmigen zufälligen variates zu erzeugen.

:

& X = \sqrt {-2 \ln U} \, \cos (2 \pi V), \\

& Y = \sqrt {-2 \ln U} \, \sin (2 \pi V).

\end {richten} </Mathematik> {aus}

wird die Standardnormalverteilung sowohl haben und wird unabhängig sein. Diese Formulierung entsteht, weil für einen bivariate normalen zufälligen Vektoren (X Y) die karierte Norm den chi-karierten Vertrieb mit zwei Graden der Freiheit haben wird, die eine leicht erzeugte zufällige Exponentialvariable entsprechend der Menge 2ln (U) in diesen Gleichungen ist; und der Winkel wird gleichförmig um den Kreis verteilt, der durch die zufällige Variable V gewählt ist.

:

X = U\sqrt {\\frac {-2\ln S} {S}}, \qquad Y = V\sqrt {\\frac {-2\ln S} {S} }\

</Mathematik>

werden zurückgegeben. Wieder, X und Y wird unabhängig und normalerweise verteilt normal sein.

  • Erzeugen Sie zwei unabhängige Uniform lenkt U und V ab;
  • Rechnen Sie X = (V  0.5)/U;
  • Wenn X  5  4eU dann X und begrenzter Algorithmus akzeptieren;
  • Wenn X  4e/U + 1.4 dann X zurückweisen und vom Schritt 1 anfangen;
  • Wenn X  4 / lnU dann X akzeptieren, fangen Sie sonst über den Algorithmus an.
</ul>

Numerische Annäherungen für den normalen CDF

Der normale normale CDF wird in der wissenschaftlichen und statistischen Computerwissenschaft weit verwendet. Den Werten Φ (x) kann sehr genau durch eine Vielfalt von Methoden, wie numerische Integration, Reihe von Taylor, asymptotische Reihe und fortlaufende Bruchteile näher gekommen werden. Verschiedene Annäherungen werden abhängig vom gewünschten Niveau der Genauigkeit verwendet.

:

\Phi (x) = 1 - \phi (x) \left (b_1t + b_2t^2 + b_3t^3 + b_4t^4 + b_5t^5\right) + \varepsilon (x), \qquad t = \frac {1} {1+b_0x},

</Mathematik>

wo ϕ (x) der normale normale PDF und b = 0.2316419, b = 0.319381530, b = 0.356563782, b = 1.781477937, b = 1.821255978, b = 1.330274429 ist.

:

\Phi (x) = \frac12 + \phi (x) \left (x + \frac {x^3} {3} + \frac {x^5} {3\cdot5} + \frac {x^7} {3\cdot5\cdot7} + \frac {x^9} {3\cdot5\cdot7\cdot9} + \cdots \right)

</Mathematik>

um Φ (x) mit der willkürlichen Präzision zu berechnen. Der Nachteil dieses Algorithmus ist verhältnismäßig langsame Berechnungszeit (zum Beispiel es übernimmt 300 Wiederholungen, um die Funktion mit 16 Ziffern der Präzision wenn zu berechnen).

</ul>

Geschichte

Entwicklung

Einige Autoren schreiben den Kredit für die Entdeckung der Normalverteilung de Moivre, wer 1738 zu

veröffentlicht in der zweiten Ausgabe sein "Die Doktrin von Chancen" die Studie der Koeffizienten in der binomischen Vergrößerung dessen. De Moivre hat bewiesen, dass der mittlere Begriff in dieser Vergrößerung den ungefähren Umfang hat, und dass "Wenn M oder ½n, eine Menge ungeheuer groß sein, dann hat der Logarithmus des Verhältnisses, der ein Begriff, der von der Mitte durch den Zwischenraum  entfernt ist, zum mittleren Begriff, sind." Obwohl dieser Lehrsatz als der erste dunkle Ausdruck für das normale Wahrscheinlichkeitsgesetz interpretiert werden kann, weist Stigler darauf hin, dass de Moivre selbst seine Ergebnisse als nichts mehr interpretiert hat als die ungefähre Regel für die binomischen Koeffizienten, und in besonderem de Moivre am Konzept der Wahrscheinlichkeitsdichte-Funktion Mangel gehabt hat.

1809 hat Gauss seine Monografie veröffentlicht, wo unter anderem er mehrere wichtige statistische Konzepte, wie die Methode von kleinsten Quadraten, die Methode der maximalen Wahrscheinlichkeit und die Normalverteilung einführt. Gauss hat M verwendet, um die Maße von etwas unbekannter Menge V anzuzeigen, und hat den "wahrscheinlichsten" Vorkalkulatoren gesucht: Derjenige, der die Wahrscheinlichkeit maximiert, die beobachteten experimentellen Ergebnisse zu erhalten. In seiner Notation ist φΔ das Wahrscheinlichkeitsgesetz der Maß-Fehler des Umfangs Δ. Nicht wissend, wie die Funktion φ ist, verlangt Gauss, dass seine Methode zur wohl bekannten Antwort abnehmen sollte: die der gemessenen Werte bösartige Arithmetik. Von diesen Grundsätzen anfangend, demonstriert Gauss, dass das einzige Gesetz, das die Wahl der als ein Vorkalkulator des Positionsparameters bösartigen Arithmetik rational erklärt, das normale Gesetz von Fehlern ist:

\varphi\mathit {\\Delta} = \frac {h} {\\surd\pi }\\, e^ {-\mathrm {hh }\\Delta\Delta},

</Mathematik>

wo h "das Maß der Präzision der Beobachtungen" ist. Mit diesem normalen Gesetz als ein allgemeines Modell für Fehler in den Experimenten formuliert Gauss, was jetzt als die Methode der nichtlinear hat kleinste Quadrate beschwert (NWLS) bekannt ist.

Obwohl Gauss erst war, um das Normalverteilungsgesetz anzudeuten, hat Laplace bedeutende Beiträge geleistet. Es war Laplace, der zuerst das Problem aufgeworfen hat, mehrere Beobachtungen 1774 anzusammeln, obwohl seine eigene Lösung zum Vertrieb von Laplacian geführt hat. Es war Laplace, der zuerst den Wert des Integrals 1782 berechnet hat, die für die Normalverteilung unveränderliche Normalisierung zur Verfügung stellend. Schließlich war es Laplace, der 1810 bewiesen hat und der Akademie den grundsätzlichen Hauptgrenzwertsatz präsentiert hat, der die theoretische Wichtigkeit von der Normalverteilung betont hat.

Es ist von Interesse, um zu bemerken, dass 1809 ein amerikanischer Mathematiker Adrain zwei Abstammungen des normalen Wahrscheinlichkeitsgesetzes gleichzeitig und unabhängig von Gauss veröffentlicht hat. Seine Arbeiten sind größtenteils unbemerkt durch die wissenschaftliche Gemeinschaft geblieben, bis 1871 sie von Abbe "wieder entdeckt" wurden.

In der Mitte des 19. Jahrhunderts hat Maxwell demonstriert, dass die Normalverteilung nicht nur ein günstiges mathematisches Werkzeug ist, aber auch in natürlichen Phänomenen vorkommen kann: "Die Zahl von Partikeln, deren Geschwindigkeit, die in einer bestimmten Richtung aufgelöst ist, zwischen x und x + dx liegt, ist

:

\mathrm {N }\\; \frac {1} {\\Alpha \;\sqrt\pi }\\; e^ {-\frac {x^2} {\\alpha^2}} dx

</Mathematik>

Das Namengeben

Seit seiner Einführung ist die Normalverteilung durch viele verschiedene Namen bekannt gewesen: Das Gesetz des Fehlers, das Gesetz der Möglichkeit von Fehlern, das zweite Gesetz von Laplace, Gesetz von Gaussian, usw. Gauss selbst haben anscheinend den Begriff bezüglich der "normalen Gleichungen ins Leben gerufen, die" an seinen Anwendungen beteiligt sind, damit seine technische Bedeutung von orthogonalen aber nicht "üblichen" normal zu haben. Jedoch am Ende des 19. Jahrhunderts hatten einige Autoren angefangen, die Namennormalverteilung zu verwenden, wo das "normale" Wort als ein Adjektiv — der Begriff verwendet wurde, jetzt als ein Nachdenken der Tatsache gesehen, dass dieser Vertrieb als typisch, üblich - und so "normal" gesehen wurde. Peirce (einer jener Autoren) hat einmal "normal" so definiert: "... das 'normale' ist nicht der Durchschnitt (oder jede andere Art von bösartigen) dessen, was wirklich vorkommt, aber dessen, was, im langen Lauf, unter bestimmten Verhältnissen vorkommen würde." Um die Umdrehung des 20. Jahrhunderts hat Pearson den Begriff normal als eine Benennung für diesen Vertrieb verbreitet.

Außerdem war es Pearson, der zuerst den Vertrieb in Bezug auf die Standardabweichung σ als in der modernen Notation geschrieben hat. Kurz nachdem das, das Jahr 1915, Fisher den Positionsparameter zur Formel für die Normalverteilung hinzugefügt hat, es in der Weise ausdrückend, wie es heutzutage geschrieben wird:

:

Der Begriff "Standard-normaler", der die Normalverteilung mit der Null bösartig und Einheitsabweichung anzeigt, ist in allgemeinen Gebrauch um die 1950er Jahre eingetreten, in den populären Lehrbüchern von P.G. Hoel (1947) "Einführung in die mathematische Statistik" und vormittags Stimmung (1950) "Einführung in die Theorie der Statistik" erscheinend.

Wenn der Name verwendet wird, wurde der "Vertrieb von Gaussian" nach Carl Friedrich Gauss genannt, der den Vertrieb 1809 als eine Weise eingeführt hat, die Methode von kleinsten Quadraten, wie entworfen, oben rational zu erklären. Die zusammenhängende Arbeit von Laplace, der auch oben entworfen ist, hat zur Normalverteilung werden manchmal genannt Laplacian besonders in französisch sprechenden Ländern geführt. Unter englischen Sprechern sowohl "Normalverteilung" als auch "ist Vertrieb von Gaussian" in der üblichen Anwendung mit verschiedenen von verschiedenen Gemeinschaften bevorzugten Begriffen.

Siehe auch

  • Behrens-Fischer-Problem — das langjährige Problem der Prüfung, ob zwei normale Proben mit verschiedenen Abweichungen dieselben Mittel haben;
  • Entfernung von Bhattacharyya - Methode hat gepflegt, Mischungen von Normalverteilungen zu trennen
  • Erdős-Kac Lehrsatz — auf dem Ereignis der Normalverteilung in der Zahlentheorie
  • Makel von Gaussian — Gehirnwindung, die die Normalverteilung als ein Kern verwendet
  • Summe von normalerweise verteilten zufälligen Variablen
  • Normalerweise verteilt und unkorreliert bezieht unabhängigen nicht ein

Zeichen

Zitate

  • Übersetzt durch S.M.Stigler in der Statistischen Wissenschaft 1 (3), 1986:.

Außenverbindungen


Am 2. November / Niklas Luhmann
Impressum & Datenschutz