Normalverteilung von Multivariate

In der Wahrscheinlichkeitstheorie und Statistik, der multivariate Normalverteilung oder multivariate Vertrieb von Gaussian, ist eine Generalisation der eindimensionalen (univariate) Normalverteilung zu höheren Dimensionen. Eine mögliche Definition ist, dass, wie man sagt, ein zufälliger Vektor normalerweise verteilter p-variate ist, wenn jede geradlinige Kombination seiner p Bestandteile eine univariate Normalverteilung hat. Jedoch leitet seine Wichtigkeit hauptsächlich von Multivariate Hauptgrenzwertsatz ab. Die multivariate Normalverteilung wird häufig verwendet, um, mindestens ungefähr, jeden Satz von (vielleicht) aufeinander bezogenen reellwertigen zufälligen Variablen jede von denen Trauben um einen Mittelwert zu beschreiben.

Notation und parametrization

Die multivariate Normalverteilung eines k-dimensional zufälligen Vektoren kann in der folgenden Notation geschrieben werden:

:

\mathbf {x }\\\sim\\mathcal {N} (\boldsymbol\mu, \, \boldsymbol\Sigma),

</Mathematik>

oder es ausführlich bekannt zu machen, dass X k-dimensional, ist

:

\mathbf {x }\\\sim\\mathcal {N} _k (\boldsymbol\mu, \, \boldsymbol\Sigma).

</Mathematik>

mit k-dimensional bedeuten Vektoren

:

und k x k Kovarianz-Matrix

:

Definition

Wie man

sagt, hat ein zufälliger Vektor die multivariate Normalverteilung, wenn es die folgenden gleichwertigen Bedingungen befriedigt.

  • Jede geradlinige Kombination seiner Bestandteile Y = Axt + … + Axt wird normalerweise verteilt. D. h. für jeden unveränderlichen Vektoren hat die zufällige Variable eine univariate Normalverteilung.
  • Dort besteht ein zufälliger  - Vektor z, dessen Bestandteile unabhängige zufällige normale Standardvariablen, ein K-Vektor μ, und ein k×  Matrix A, solch dass sind. Hier ist  die Reihe der Kovarianz-Matrix. Besonders im Fall von der vollen Reihe, sieh die Abteilung unten auf der Geometrischen Interpretation.
  • Es gibt einen K-Vektoren μ und eine symmetrische, nichtnegativ-bestimmte k×k Matrix Σ, solch, dass die charakteristische Funktion von x ist

::

\varphi_\mathbf {x} (\mathbf {u}) = \exp\Big (i\mathbf {u} '\boldsymbol\mu - \tfrac {1} {2} \mathbf {u} '\boldsymbol\Sigma \mathbf {u} \Big).

</Mathematik>

Der Kovarianz-Matrix wird erlaubt, einzigartig zu sein (in welchem Fall der entsprechende Vertrieb keine Dichte hat). Dieser Fall entsteht oft in der Statistik; zum Beispiel, im Vertrieb des Vektoren von residuals im Üblichen kleinstes Quadratrückwärts Gehen. Bemerken Sie auch, dass die X im Allgemeinen ziemlich abhängig sind; sie können als das Ergebnis gesehen werden, die Matrix auf eine Sammlung von unabhängigen Variablen von Gaussian z anzuwenden.

Eigenschaften

Dichte-Funktion

Nichtdegenerierter Fall

Wie man

sagt, ist die multivariate Normalverteilung "nichtdegeneriert", wenn die Kovarianz-Matrix der multivariate Normalverteilung symmetrisch ist und positive bestimmt. In diesem Fall hat der Vertrieb Dichte

:

f_\mathbf {x} (x_1, \ldots, x_k) \, =

\frac {1} {(2\pi) ^ {k/2} | \mathbf\boldsymbol\Sigma |^ {1/2} }\

\exp\left (-\frac {1} {2} ({\\mathbf x} - {\\mathbf\boldsymbol\mu}) ^T {\\mathbf\boldsymbol\Sigma} ^ {-1} ({\\mathbf x} - {\\mathbf\boldsymbol\mu})

\right),

</Mathematik>

wo die Determinante dessen ist. Bemerken Sie, wie die Gleichung oben zu dieser der univariate Normalverteilung abnimmt, wenn eine Matrix (d. h. eine reelle Zahl) ist.

Fall von Bivariate

Im 2-dimensionalen nichtsingulären Fall ist die Wahrscheinlichkeitsdichte-Funktion eines Vektoren

:

f (x, y) =

\frac {1} {2 \pi \Sigma_x \Sigma_y \sqrt {1-\rho^2} }\

\exp\left (

- \frac {1} {2 (1-\rho^2) }\\ist [abgereist

\frac {(x-\mu_x) ^2} {\\Sigma_x^2} +

\frac {(y-\mu_y) ^2} {\\Sigma_y^2} -

\frac {2\rho (x-\mu_x) (y-\mu_y)} {\\Sigma_x \Sigma_y }\

\right]

\right),

</Mathematik>

wo ρ die Korrelation zwischen X und Y ist. In diesem Fall,

:

\boldsymbol\mu = \begin {pmatrix} \mu_x \\\mu_y \end {pmatrix}, \quad

\boldsymbol\Sigma = \begin {pmatrix} \Sigma_x^2 & \rho \Sigma_x \Sigma_y \\

\rho \Sigma_x \Sigma_y & \Sigma_y^2 \end {pmatrix}.

</Mathematik>

Im bivariate Fall haben wir auch einen Lehrsatz, der die erste gleichwertige Bedingung für die multivariate Normalität weniger einschränkend macht: Es ist genügend nachzuprüfen, dass zählbar viele verschiedene geradlinige Kombinationen X und Y normal sind, um zu beschließen, dass der Vektor normal bivariate ist.

Wenn geplant, im x, y-plane der Vertrieb scheint, zur Linie gedrückt zu werden:

:

y\left (x \right) = {\\mathop {\\rm sgn}} \left (\right) \frac} }\\ist ({x - {\\mu _x}} \right) + {\\mu _y }\abgereist

</Mathematik>

als der Korrelationsparameter ρ Zunahmen. Das ist, weil der obengenannte Ausdruck der karierte am wenigsten Mittelfehler von Y gegeben ein Wert von X ist.

Degenerierter Fall

Wenn die Kovarianz-Matrix nicht volle Reihe ist, dann ist die multivariate Normalverteilung degeneriert und hat keine Dichte. Genauer hat es keine Dichte in Bezug auf das k-dimensional Maß von Lebesgue (der das übliche Maß ist, das in Rechnungsniveau-Wahrscheinlichkeitskursen angenommen ist). Wie man sagt, haben nur zufällige Vektoren, deren Vertrieb in Bezug auf ein Maß absolut dauernd ist, Dichten (in Bezug auf dieses Maß). Um über Dichten zu sprechen, aber zu vermeiden, sich mit mit dem Maß theoretischen Komplikationen zu befassen, kann es einfacher sein, Aufmerksamkeit auf eine Teilmenge der Koordinaten von solchen einzuschränken, dass die Kovarianz-Matrix für diese Teilmenge bestimmt positiv ist; dann kann von den anderen Koordinaten als eine affine Funktion der ausgewählten Koordinaten gedacht werden.

Um über Dichten bedeutungsvoll im einzigartigen Fall dann zu sprechen, müssen wir ein verschiedenes Grundmaß auswählen. Das Verwenden des Zerfall-Lehrsatzes wir können eine Beschränkung des Maßes von Lebesgue zu - dimensionaler affine Subraum dessen definieren, wo der Vertrieb von Gaussian unterstützt wird, d. h. In Bezug auf dieses Wahrscheinlichkeitsmaß hat der Vertrieb Dichte:

:

wo das verallgemeinerte Gegenteil ist und det* die Pseudodeterminante ist.

Wahrscheinlichkeitsfunktion

Wenn die Mittelmatrix und Abweichungsmatrix unbekannt sind, würde eine passende Klotz-Wahrscheinlichkeitsfunktion für eine einzelne Beobachtung x sein:

wo x ein Vektor von reellen Zahlen ist. Der komplizierte Fall, wo z ein Vektor von komplexen Zahlen ist, würde sein:.

Eine ähnliche Notation wird für das vielfache geradlinige rückwärts Gehen verwendet.

Kumulative Vertriebsfunktion

Die kumulative Vertriebsfunktion (cdf) F (x) eines zufälligen Vektoren x wird als die Wahrscheinlichkeit definiert, dass alle Bestandteile von x weniger sind als oder gleich den entsprechenden Werten im Vektoren x. Obwohl es keine geschlossene Form für F (x) gibt, gibt es mehrere Algorithmen, die es numerisch schätzen.

Normalerweise verteilt und unabhängig

Wenn X und Y normalerweise verteilt und unabhängig werden, deutet das an, dass sie gemeinsam normalerweise "verteilt werden", d. h. das Paar (X, Y) muss multivariate Normalverteilung haben. Jedoch braucht ein Paar gemeinsam normalerweise verteilter Variablen nicht unabhängig zu sein.

Zwei hat normalerweise zufällige Variablen verteilt braucht nicht gemeinsam bivariate normal zu sein

Die Tatsache, dass zwei zufällige Variablen X und Y beide eine Normalverteilung haben, deutet nicht an, dass das Paar (X, Y) eine gemeinsame Normalverteilung hat. Ein einfaches Beispiel ist dasjenige, in dem X eine Normalverteilung mit dem erwarteten Wert 0 und der Abweichung 1, und Y = X wenn |X> c und Y = X wenn |X hat

Bedingter Vertrieb

Wenn μ und Σ wie folgt verteilt werden

:

\boldsymbol\mu

\begin {bmatrix }\

\boldsymbol\mu_1 \\

\boldsymbol\mu_2

\end {bmatrix }\

\quad </Mathematik> mit Größen

:

\boldsymbol\Sigma

\begin {bmatrix }\

\boldsymbol\Sigma_ {11} & \boldsymbol\Sigma_ {12} \\

\boldsymbol\Sigma_ {21} & \boldsymbol\Sigma_ {22 }\

\end {bmatrix }\\quad </Mathematik> mit Größen

dann ist der Vertrieb von x, der dadurch bedingt ist, normal wo multivariate

:

\bar {\\boldsymbol\mu }\

\boldsymbol\mu_1 + \boldsymbol\Sigma_ {12} \boldsymbol\Sigma_ {22} ^ {-1 }\

\left (

\mathbf - \boldsymbol\mu_2

\right)

</Mathematik>

und Kovarianz-Matrix

:

\overline {\\boldsymbol\Sigma }\

\boldsymbol\Sigma_ {11} - \boldsymbol\Sigma_ {12} \boldsymbol\Sigma_ {22} ^ {-1} \boldsymbol\Sigma_ {21}.

</Mathematik>

Diese Matrix ist die Ergänzung von Schur von Σ in Σ. Das bedeutet, dass, um die bedingte Kovarianz-Matrix zu berechnen, man die gesamte Kovarianz-Matrix umkehrt, die Reihen und Säulen entsprechend den Variablen fallen lässt, die darauf bedingen werden, und dann zurück umkehrt, um die bedingte Kovarianz-Matrix zu bekommen. Hier ist das verallgemeinerte Gegenteil von

Bemerken Sie, dass das Wissen, das die Abweichung verändert, obwohl die neue Abweichung vom spezifischen Wert von a nicht abhängt; vielleicht überraschender wird das bösartige dadurch ausgewechselt; vergleichen Sie das mit der Situation, den Wert von a nicht zu wissen, in welchem Fall x Vertrieb haben würde

.

Eine interessante Tatsache hat abgestammt, um dieses Ergebnis zu beweisen, ist, dass die zufälligen Vektoren und unabhängig sind.

Die Matrix ΣΣ ist als die Matrix von Regressionskoeffizienten bekannt.

Im bivariate Fall, wo x in X und X verteilt wird, ist der bedingte Vertrieb X gegeben X

:

wo der Korrelationskoeffizient zwischen X und X ist.

Bivariate bedingte Erwartung

Im Fall

:

\begin {pmatrix }\

X_1 \\

X_2

\end {pmatrix} \sim \mathcal {N} \left (\begin {pmatrix }\

0 \\

0

\end {pmatrix}, \begin {pmatrix }\

1 & \rho \\

\rho & 1

\end {pmatrix} \right)

</Mathematik>

das folgende Ergebnis hält

:

\operatorname {E} (X_1 | X_2> z) = \rho {\phi (z) \over \Phi (-z)},

</Mathematik>

wo das Endverhältnis hier das umgekehrte Mühle-Verhältnis genannt wird.

Randvertrieb

Den Randvertrieb über eine Teilmenge von multivariate normalen zufälligen Variablen, einzige Bedürfnisse zu erhalten, die irrelevanten Variablen (die Variablen fallen zu lassen, deren man marginalisieren will), vom Mittelvektoren und der Kovarianz-Matrix. Der Beweis dafür folgt aus den Definitionen von multivariate Normalverteilungen und geradliniger Algebra.

Beispiel

Lassen Sie, multivariate normale zufällige Variablen mit dem Mittelvektoren und der Kovarianz-Matrix Σ (Standard parametrization für multivariate Normalverteilungen) zu sein. Dann ist der gemeinsame Vertrieb dessen normal mit dem Mittelvektoren und der Kovarianz-Matrix multivariate

\begin {bmatrix }\

\boldsymbol\Sigma_ {11} & \boldsymbol\Sigma_ {13} \\

\boldsymbol\Sigma_ {31} & \boldsymbol\Sigma_ {33 }\

\end {bmatrix }\

</Mathematik>.

Transformation von Affine

Wenn eine affine Transformation dessen ist, wo c ein Vektor von Konstanten ist und B eine unveränderliche Matrix ist, dann hat y eine multivariate Normalverteilung mit dem erwarteten Wert und der Abweichung BΣB d. h.. Insbesondere jede Teilmenge des x hat einen Randvertrieb, der auch multivariate normal ist.

Um das zu sehen, denken Sie das folgende Beispiel: Die Teilmenge (x, x, x), Gebrauch herauszuziehen

:

\mathbf {B }\

\begin {bmatrix }\

1 & 0 & 0 & 0 & 0 & \ldots & 0 \\

0 & 1 & 0 & 0 & 0 & \ldots & 0 \\

0 & 0 & 0 & 1 & 0 & \ldots & 0

\end {bmatrix }\</Mathematik>

der die gewünschten Elemente direkt herauszieht.

Eine andere Folgeerscheinung ist, dass der Vertrieb, wo b ein unveränderlicher Vektor derselben Länge wie x und der Punkt ist, ein Vektorprodukt anzeigt, ist univariate Gaussian damit. Dieses Ergebnis folgt durch das Verwenden

:

\mathbf {B} = \begin {bmatrix }\

b_1 & b_2 & \ldots & b_n \\

0 & 0 & \ldots & 0 \\

\vdots & \vdots & \ddots & \vdots \\

0 & 0 & \ldots & 0

\end {bmatrix }\</Mathematik>

und nur den ersten Bestandteil des Produktes denkend (ist die erste Reihe von B der Vektor b). Beobachten Sie, wie die positive Bestimmtheit von Σ andeutet, dass die Abweichung des Punktproduktes positiv sein muss.

Eine affine Transformation von x solcher als 2x ist nicht dasselbe als die Summe von zwei unabhängigen Realisierungen von x.

Geometrische Interpretation

Die equidensity Konturen einer nichtsingulären multivariate Normalverteilung sind Ellipsoide (d. h. geradlinige Transformationen von Hyperbereichen) in den Mittelpunkt gestellt am bösartigen. Die Richtungen der Hauptäxte der Ellipsoide werden durch die Eigenvektoren der Kovarianz-Matrix Σ gegeben. Die karierten Verhältnislängen der Hauptäxte werden durch den entsprechenden eigenvalues gegeben.

Wenn ein eigendecomposition ist, wo die Säulen von U Einheitseigenvektoren sind und Λ eine Diagonalmatrix des eigenvalues ist, dann haben wir

::

Außerdem kann U gewählt werden, um eine Folge-Matrix zu sein, weil das Umkehren einer Achse keine Wirkung auf N (0, Λ) hat, aber das Umkehren einer Säule ändert das Zeichen der Determinante von U. Der Vertrieb N (μ, Σ) ist tatsächlich N (0, I) erklettert durch Λ, der durch U rotieren gelassen ist und durch μ übersetzt ist.

Umgekehrt gibt jede Wahl von μ, volle Reihe-Matrix U und positive diagonale Einträge Λ eine nichtsinguläre multivariate Normalverteilung nach. Wenn ein Λ Null ist und U, die resultierende Kovarianz-Matrix quadratisch ist, ist UΛU einzigartig. Geometrisch bedeutet das, dass jedes Kontur-Ellipsoid ungeheuer dünn ist und Nullvolumen im n-dimensional Raum hat, weil mindestens eine der Hauptäxte Länge der Null haben.

Korrelationen und Unabhängigkeit

Im Allgemeinen können zufällige Variablen unkorreliert, aber hoch abhängig sein. Aber wenn ein zufälliger Vektor eine multivariate Normalverteilung dann irgendwelche zwei oder mehr seiner Bestandteile hat, die unkorreliert sind, sind unabhängig. Das deutet an, dass irgendwelche zwei oder mehr seiner Bestandteile, die pairwise Unabhängiger sind, unabhängig sind.

Aber es ist nicht wahr, dass zwei zufällige Variablen, die (getrennt, geringfügig) normalerweise verteilt und unkorreliert sind, unabhängig sind. Zwei zufällige Variablen, die normalerweise verteilt werden, können scheitern, gemeinsam normalerweise verteilt zu werden, d. h. der Vektor, dessen Bestandteile sie sind, kann scheitern, eine multivariate Normalverteilung zu haben. Für ein Beispiel zwei hat normalerweise zufällige Variablen verteilt, die unkorreliert, aber ziemlich abhängig sind, normalerweise verteilt sehen und unkorreliert unabhängig nicht einbezieht.

Höhere Momente

Die Kth-Ordnungsmomente von x werden durch definiert

:

mu _ {1, \dots, N} (\mathbf {x}) \\stackrel {\\mathrm {def}} {= }\\mu _ {r_ {1}, \dots, r_ {N}} (\mathbf {x}) \\stackrel {\\mathrm {def}} {= }\\E\left [

\prod\limits_ {j=1} ^ {N} x_j^ {r_ {j} }\\Recht]

</Mathematik>

wo

Die HauptK-Ordnung Hauptmomente wird wie folgt gegeben

(a) Wenn k seltsam ist.

(b) Wenn k sogar mit, dann ist

:

mu _ {1, \dots, 2\lambda} (\mathbf {x}-\boldsymbol\mu) = \sum \left (\Sigma _ {ij }\\Sigma _ {k\ell }\\cdots\Sigma _ {XZ }\\Recht)

</Mathematik>

wo die Summe alle Zuteilungen des Satzes übernommen wird

\right\} </Mathematik> in λ (nicht eingeordnete) Paare. D. h. wenn Sie einen kth Hauptmoment haben, werden Sie die Produkte von Kovarianzen summieren (die Notation ist in den Interessen des Geizes fallen gelassen gewesen):

:

& {} E [x_1 x_2 x_3 x_4 x_5 x_6] \\

& {} = E [x_1 x_2] E [x_3 x_4] E [x_5 x_6] + E [x_1 x_2] E [x_3 x_5] E [x_4 x_6] + E [x_1 x_2] E [x_3 x_6] E [x_4 x_5] \\

& {} + E [x_1 x_3] E [x_2 x_4] E [x_5 x_6] + E [x_1 x_3] E [x_2 x_5] E [x_4 x_6] + E [x_1 x_3] E [x_2 x_6] E [x_4 x_5] \\

&+ E [x_1 x_4] E [x_2 x_3] E [x_5 x_6] +E [x_1 x_4] E [x_2 x_5] E [x_3 x_6] +E [x_1 x_4] E [x_2 x_6] E [x_3 x_5] \\

& + E [x_1 x_5] E [x_2 x_3] E [x_4 x_6] +E [x_1 x_5] E [x_2 x_4] E [x_3 x_6] +E [x_1 x_5] E [x_2 x_6] E [x_3 x_4] \\

& + E [x_1 x_6] E [x_2 x_3] E [x_4 x_5] + E [x_1 x_6] E [x_2 x_4] E [x_3 x_5] + E [x_1 x_6] E [x_2 x_5] E [x_3 x_4].

\end {richten} </Mathematik> {aus}

Das gibt Begriffe in der Summe (15 im obengenannten Fall), jeder nach, das Produkt von λ (in diesem Fall 3) Kovarianzen seiend. Seit den vierten Ordnungsmomenten (vier Variablen) gibt es drei Begriffe. Seit Momenten der sechsten Ordnung gibt es 3 × 5 = 15 Begriffe, und seit Momenten der achten Ordnung gibt es 3 × 5 × 7 = 105 Begriffe.

Die Kovarianzen werden dann durch das Ersetzen der Begriffe der Liste durch die entsprechenden Begriffe der Liste bestimmt, die aus r, dann r Zweien usw. besteht. Um das zu illustrieren, untersuchen Sie die folgende 4. Ordnung Hauptmoment-Fall:

:::::</Mathematik>

wo σ die Kovarianz von x und x ist. Die Idee mit der obengenannten Methode ist Sie finden zuerst den allgemeinen Fall seit einem kth Moment, wo Sie k verschiedene x Variablen haben - und dann Sie das entsprechend vereinfachen können. Sagen Sie, Sie haben dann Sie lassen einfach und begreifen das.

Kullback-Leibler Abschweifung

Die Kullback-Leibler Abschweifung von zu, für nichtsingulären matrices Σ und Σ, ist:

:

D_\text {KL} (\mathcal {N} _0 \| \mathcal {N} _1) = {1 \over 2} \left (\mathrm {tr} \left (\boldsymbol\Sigma_1^ {-1} \boldsymbol\Sigma_0 \right) + \left (\boldsymbol\mu_1 - \boldsymbol\mu_0\right) ^ {\\rm T} \boldsymbol\Sigma_1^ {-1} (\boldsymbol\mu_1 - \boldsymbol\mu_0)-\ln \left ({\det \boldsymbol\Sigma_0 \over \det \boldsymbol\Sigma_1} \right) - k \right).

</Mathematik>

Der Logarithmus muss gebracht werden, um e zu stützen, da die zwei Begriffe im Anschluss an den Logarithmus selbst Grund-E-Logarithmen von Ausdrücken sind, die entweder Faktoren der Dichte sind, fungieren oder entstehen sonst natürlich. Die Gleichung gibt deshalb ein in nats gemessenes Ergebnis. Das Teilen des kompletten Ausdrucks oben durch den Klotz 2 Erträge die Abschweifung in Bit.

Bewertung von Rahmen

Die Abstammung des Vorkalkulatoren der maximalen Wahrscheinlichkeit der Kovarianz-Matrix einer multivariate Normalverteilung ist vielleicht überraschend fein und elegant. Sieh Bewertung der Kovarianz matrices.

Kurz gesagt, die Wahrscheinlichkeitsdichte-Funktion (pdf) normalen N-dimensional multivariate ist

:

und der ML Vorkalkulator der Kovarianz-Matrix von einer Probe von n Beobachtungen ist

:

der einfach die Beispielkovarianz-Matrix ist. Das ist ein voreingenommener Vorkalkulator, dessen Erwartung ist

:

Eine unvoreingenommene Beispielkovarianz ist

:

Die Fischer-Informationsmatrix, für die Rahmen einer multivariate Normalverteilung zu schätzen, hat einen geschlossenen Form-Ausdruck. Das kann zum Beispiel verwendet werden, um den Cramér-Rao zu schätzen, der für die Parameter-Bewertung in dieser Einstellung gebunden ist. Sieh Fischer-Information für mehr Details.

Schlussfolgerung von Bayesian

In der Bayesian Statistik ist der verbundene vorherige vom Mittelvektoren eine andere multivariate Normalverteilung, und die verbundene vorherige von der Kovarianz-Matrix ist ein umgekehrter-Wishart Vertrieb. Denken Sie dann, dass wir n Beobachtungen beobachtet haben

:

und wir teilen einen verbundenen vorherigen zu

:

Dann,

:

\begin {Reihe} {rcl }\

p (\boldsymbol\mu\mid\boldsymbol\Sigma, \mathbf {Y}) & \sim & \mathcal {N }\\ist (\frac {n\bar {\\mathbf {x}} + k\boldsymbol\mu_0} {n+k}, \frac {1} {n+k }\\boldsymbol\Sigma\right) \\abgereist

p (\boldsymbol\Sigma\mid\mathbf {Y}) & \sim & \mathcal{W}^{-1}\left(\boldsymbol\Psi+n\mathbf{S}+\frac{nk}{n+k}(\bar{\mathbf{x}}-\boldsymbol\mu_0)(\bar{\mathbf{x}}-\boldsymbol\mu_0)', n+n_0\right) \\

\bar {\\mathbf {x}} & = & n^ {-1 }\\sum_ {i=1} ^ {n} \mathbf {x} _i \\

\bar {\\mathbf {S}} & = & n^ {-1 }\\sum_ {i=1} ^ {n} (\mathbf {x} _i - \bar {\\mathbf {x}}) (\mathbf {x} _i - \bar {\\mathbf {x}})'

\end {ordnen }\

</Mathematik>

Wärmegewicht

Das Differenzialwärmegewicht der multivariate Normalverteilung ist

:\begin {richten }\aus

h\left (f\right) & =-\int_ {-\infty} ^\\infty \int_ {-\infty} ^\\infty \cdots\int_ {-\infty} ^\\infty f (\mathbf {x}) \ln f (\mathbf {x}) \, d\mathbf {x} \\

& = \frac12 \left (N+N\ln\left (2\pi\right) + \ln\left | \boldsymbol\Sigma \right |\right) \\

& = \frac {1} {2 }\\ln\{(2\pi e) ^N \left | \boldsymbol\Sigma \right |\}\

\end {richten }\aus</Mathematik>

wo die Determinante der Kovarianz-Matrix Σ ist.

Normalitätstests von Multivariate

Normalitätstests von Multivariate überprüfen einen gegebenen Satz von Daten für die Ähnlichkeit zur multivariate Normalverteilung. Die ungültige Hypothese ist, dass die Datei der Normalverteilung ähnlich ist, deshalb zeigt ein genug kleiner P-Wert nichtnormale Daten an. Normalitätstests von Multivariate schließen den mit dem Steuermann kleinen Test ein

und Smith und die Anpassung von Jain des Tests von Friedman-Rafsky.

Der Test von Mardia basiert auf multivariate Erweiterungen der Schiefe und Kurtosis-Maßnahmen. Für eine Probe {x..., x} p-dimensional Vektoren schätzen wir

:

& \hat\boldsymbol\Sigma = \frac {1} {n} \sum_ {j=1} ^n (\mathbf {x} _j - \bar \mathbf {x}) (\mathbf {x} _j - \bar \mathbf {x})' \\

& = \frac {1} {6n} \sum_ {i=1} ^n \sum_ {j=1} ^n \Big [(\mathbf {x} _i - \bar \mathbf {x}) '\hat\boldsymbol\Sigma^ {-1} (\mathbf {x} _j - \bar \mathbf {x}) \Big] ^3 \\

& B = \frac {\\sqrt {n}} {\\sqrt {8 Punkte (p+2)} }\\bigg [\frac {1} {n} \sum_ {i=1} ^n \Big [(\mathbf {x} _i - \bar \mathbf {x}) '\hat\boldsymbol\Sigma^ {-1} (\mathbf {x} _i - \bar \mathbf {x}) \Big] ^2 - p (p+2) \bigg]

\end {richten} </Mathematik> {aus}

Laut der ungültigen Hypothese der multivariate Normalität wird der StatistikA ungefähr einen chi-karierten Vertrieb mit Graden der Freiheit haben, und B wird ungefähr normaler normaler N (0,1) sein.

Mardia kurtosis statistisch wird verdreht und läuft sehr langsam zur Begrenzungsnormalverteilung zusammen. Für mittlere Größe-Proben

Die Tests von Mardia sind affine invariant, aber nicht konsequent. Zum Beispiel entspricht der multivariate Schiefe-Test gegen nicht

symmetrische nichtnormale Alternativen.

Der BHEP-Test schätzt die Norm des Unterschieds zwischen der empirischen charakteristischen Funktion und der theoretischen charakteristischen Funktion der Normalverteilung. Die Berechnung der Norm wird im L (μ) Raum von Quadrat-Integrable-Funktionen in Bezug auf Gaussian durchgeführt, der Funktion beschwert. Der statistische Test ist

:

T_\beta &= \int_ {\\mathbb {R} ^p} \Big | {\\textstyle \frac1n \sum_ {j=1} ^n e^ {i\mathbf {t} '\hat\boldsymbol\Sigma^ {-1/2} (\mathbf {x} _j - \bar \mathbf {x})}} - e^ {-| \mathbf {t} | ^2/2} \Big |^2 \; \boldsymbol\mu_\beta (\mathbf {t}) d\mathbf {t} \\

&= \frac {1} {N^2} \sum_ {ich, j=1} ^n e^ {-\frac {\\Beta} {2} (\mathbf {x} _i-\mathbf {x} _j) '\hat\boldsymbol\Sigma^ {-1} (\mathbf {x} _i-\mathbf {x} _j)} -

\frac {2} {(1 + \beta^2) ^ {p/2}} \frac {1} {n} \sum_ {i=1} ^n e^ {-\frac {\\beta^2} {2 (1 +\beta^2)} (\mathbf {x} _i-\bar \mathbf {x}) '\hat\boldsymbol\Sigma^ {-1} (\mathbf {x} _i-\bar \mathbf {x})} + \frac {1} {(1 + 2\beta^2) ^ {p/2} }\

\end {richten} </Mathematik> {aus}

Der Begrenzungsvertrieb dieses statistischen Tests ist eine belastete Summe von chi-karierten zufälligen Variablen, jedoch in der Praxis ist es günstiger, die Probe quantiles das Verwenden der Simulationen von Monte Carlo zu schätzen.

Durch einen ausführlichen Überblick über diese und anderen Testverfahren wird gegeben.

Die Zeichnung von Werten vom Vertrieb

Eine weit verwendete Methode, für einen zufälligen Vektoren x von der Normalverteilung von N-dimensional multivariate mit dem Mittelvektoren μ und Kovarianz-Matrix Σ zu ziehen, arbeitet wie folgt:

  1. Finden Sie jede echte Matrix Einen solchen dass. Wenn Σ positiv-bestimmt ist, wird die Zergliederung von Cholesky normalerweise verwendet. Im allgemeineren nichtnegativ-bestimmten Fall kann man die Matrix = verwenden, der bei einer geisterhaften Zergliederung Σ = UΛU von Σ erhalten ist.
  2. Lassen Sie, ein Vektor zu sein, dessen Bestandteile N unabhängiger normaler normaler variates sind (der zum Beispiel erzeugt werden kann, durch das Verwenden des Kastens-Muller verwandeln sich).
  3. Lassen Sie x sein. Das hat den gewünschten Vertrieb wegen des affine Transformationseigentums.

Siehe auch

  • Vertrieb von Chi, der pdf des 2-Normen-(oder der Euklidischen Norm) eines multivariate normalerweise verteilter Vektor.
  • Komplizierte Normalverteilung, für die Generalisation zum Komplex hat zufällige Variablen geschätzt.
  • Die stabile Vertriebserweiterung von Multivariate der multivariate Normalverteilung, wenn der Index (Hochzahl in der charakteristischen Funktion) zwischen der Null zu zwei ist.
  • Entfernung von Mahalanobis
  • Vertrieb von Wishart

Literatur


Museum der Wissenschaft und Industrie (Chicago) / Ella Fitzgerald
Impressum & Datenschutz