Kovarianz

In der Wahrscheinlichkeitstheorie und Statistik ist Kovarianz ein Maß dessen, wie viel zwei zufällige Variablen zusammen ändern. Wenn die größeren Werte einer Variable hauptsächlich den größeren Werten der anderen Variable entsprechen, und dasselbe für die kleineren Werte hält, d. h. die Variablen dazu neigen, ähnliches Verhalten zu zeigen, ist die Kovarianz eine positive Zahl. Im entgegengesetzten Fall, wenn die größeren Werte einer Variable hauptsächlich den kleineren Werten vom anderen, d. h. den Variablen entsprechen, neigen dazu, entgegengesetztes Verhalten zu zeigen, die Kovarianz ist negativ. Das Zeichen der Kovarianz zeigt deshalb die Tendenz in der geradlinigen Beziehung zwischen den Variablen. Der Umfang der Kovarianz ist so nicht leicht zu dolmetschen. Die normalisierte Version der Kovarianz, des Korrelationskoeffizienten, zeigt jedoch durch seinen Umfang die Kraft der geradlinigen Beziehung.

Eine Unterscheidung muss zwischen (1) die Kovarianz von zwei zufälligen Variablen gemacht werden, die ein Parameter der Grundgesamtheit ist, der als ein Eigentum des gemeinsamen Wahrscheinlichkeitsvertriebs, und (2) die Beispielkovarianz gesehen werden kann, die als ein geschätzter Wert des Parameters dient.

Definition

Die Kovarianz zwischen zwei gemeinsam verteilten reellwertigen zufälligen Variablen X und Y mit den begrenzten zweiten Momenten ist

:

\operatorname {Cov} (X, Y) = \operatorname {E} {\\groß [(X - \operatorname {E} [X]) (Y - \operatorname {E} [Y]) \big] }\

</Mathematik>

wo E [X] der erwartete Wert von X ist. Durch das Verwenden des Linearitätseigentums von Erwartungen kann das zu vereinfacht werden

:

\operatorname {Cov} (X, Y) = \operatorname {E }\\groß [X Y\big] - \operatorname {E} [X] \operatorname {E} [Y]

</Mathematik>

Für zufällige Vektoren X und Y (der Dimension M und n beziehungsweise) ist die m×n Kovarianz-Matrix gleich

:

\begin {richten }\aus

\operatorname {Cov} (X, Y)

& = \operatorname {E }\\verlassen [(X - \operatorname {E} [X]) (Y - \operatorname {E} [Y]) ^T\right] \\

& = \operatorname {E }\\verlassen [X Y^T\right] - \operatorname {E} [X] \operatorname {E} [Y] ^T

\end {richten }\aus

</Mathematik>

wo M das Umstellen einer Matrix (oder Vektor) M ist.

(Ich, j)-th Element dieser Matrix ist der Kovarianz Cov (X, Y) zwischen dem i-th Skalarbestandteil X und dem j-th Skalarbestandteil von Y gleich. Insbesondere Cov (Y, X) ist das Umstellen von Cov (X, Y).

Weil ein Vektor von n gemeinsam zufällige Variablen mit den begrenzten zweiten Momenten verteilt hat, wird seine Kovarianz-Matrix als definiert:

:

Zufällige Variablen, deren Kovarianz Null ist, werden unkorreliert genannt.

Die Einheiten des Maßes der Kovarianz sind Cov (X, Y) diejenigen von Xmal diejenigen von Y. Im Vergleich ist Korrelation, die von der Kovarianz abhängt, ein ohne Dimension Maß der geradlinigen Abhängigkeit. (Tatsächlich kann Korrelation einfach als eine normalisierte Version der Kovarianz verstanden werden.)

Eigenschaften

  • Abweichung ist ein spezieller Fall der Kovarianz, wenn die zwei Variablen identisch sind:
:
  • Wenn X, Y, W, und V reellwertige zufällige Variablen sind und a, b, c, d unveränderlich sind ("unveränderlich" in diesen Zusammenhang-Mitteln nichtzufällig), dann sind die folgenden Tatsachen eine Folge der Definition der Kovarianz:
: \begin {richten }\aus

\operatorname {Cov} (X, a) &= 0 \\

\operatorname {Cov} (X, X) &= \operatorname {Var} (X) \\

\operatorname {Cov} (X, Y) &= \operatorname {Cov} (Y, X) \\

\operatorname {Cov} (Axt, durch) &= ab \, \operatorname {Cov} (X, Y) \\

\operatorname {Cov} (X+a, Y+b) &= \operatorname {Cov} (X, Y) \\

\operatorname {Cov} (aX+bY, cW+dV) &= ac \,\operatorname {Cov} (X, W) +ad \,\operatorname {Cov} (X, V) +bc \,\operatorname {Cov} (Y, W) +bd \,\operatorname {Cov} (Y, V)

\end {richten }\aus</Mathematik>

Für Folgen X..., X und Y..., Y zufälliger Variablen, haben wir

:

Für eine Folge X..., X von zufälligen Variablen und Konstanten a..., a, haben wir

:

Eine allgemeinere Identität für die Kovarianz matrices

Lassen Sie, ein zufälliger Vektor zu sein, und zu lassen zeigen seine Kovarianz-Matrix an und lassen, eine Matrix zu sein, die folgen kann. Dann

Unkorreliertkeit und Unabhängigkeit

Wenn X und Y unabhängig sind, dann ist ihre Kovarianz Null. Das folgt weil unter der Unabhängigkeit,

:

Das gegenteilige ist jedoch nicht allgemein wahr. Lassen Sie zum Beispiel X in [-1, 1] gleichförmig verteilt und Y = X gelassen werden. Klar, X und Y, sind aber abhängig

: \begin {richten }\aus

\operatorname {Cov} (X, Y) &= \operatorname {Cov} (X, X^2) \\

&= \operatorname {E }\\! \left [X \cdot X^2\right] - \operatorname {E} [X] \cdot \operatorname {E }\\! \left [X^2\right] \\

&= \operatorname {E }\\! \left [X^3\right] - \operatorname {E} [X] \operatorname {E }\\! \left [X^2\right] \\

&= 0 - 0 \cdot \operatorname {E }\\! \left [X^2\right] \\

&= 0.

\end {richten }\aus</Mathematik>

Beziehung zu Skalarprodukten

Viele der Eigenschaften der Kovarianz können elegant durch das Bemerken herausgezogen werden, dass sie ähnliche Eigenschaften zu denjenigen eines Skalarprodukts befriedigt:

  1. bilinear: für Konstanten a und b und zufällige Variablen X, Y, und U, Cov (Axt + durch, U) = Cov (X, U) + b Cov (Y, U)
  2. symmetrisch: Cov (X, Y) = Cov (Y, X)
  3. positiv halbbestimmt: Var (X) = deuten Cov (X, X)  0, und Cov (X, X) = 0 an, dass X eine unveränderliche zufällige Variable (K) ist.

Tatsächlich deuten diese Eigenschaften an, dass die Kovarianz ein Skalarprodukt über den erhaltenen Quotient-Vektorraum definiert, indem sie den Subraum von zufälligen Variablen mit dem begrenzten zweiten Moment genommen wird und irgendwelche zwei identifiziert wird, die sich durch eine Konstante unterscheiden. (Diese Identifizierung dreht die positive Halbbestimmtheit oben in die positive Bestimmtheit.), Dass Quotient-Vektorraum zum Subraum von zufälligen Variablen mit dem begrenzten zweiten Moment und der Mittelnull isomorph ist; auf diesem Subraum ist die Kovarianz genau das L Skalarprodukt von reellwertigen Funktionen auf dem Beispielraum.

Infolgedessen für zufällige Variablen mit der begrenzten Abweichung hält die folgende Ungleichheit über die Ungleichheit von Cauchy-Schwarz:

:

Beweis: Wenn Var (Y) = 0, dann hält es trivial. Lassen Sie sonst zufällige Variable

:

Dann haben wir:

: \begin {richten }\aus

0 \le \operatorname {Var} (Z) & = \operatorname {Cov }\\hat (X - \frac {\\operatorname {Cov} (X, Y)} {\\operatorname {Var} (Y)} Y, X - \frac {\\operatorname {Cov} (X, Y)} {\\operatorname {Var} (Y)} Y \right) \\[12pt] verlassen

& = \operatorname {Var} (X) - \frac {(\operatorname {Cov} (X, Y)) ^2} {\\operatorname {Var} (Y) }\

\end {richten }\aus</Mathematik>

QED.

Das Rechnen der Beispielkovarianz

Die Beispielkovarianz von N Beobachtungen von K Variablen ist die K-by-K Matrix mit den durch gegebenen Einträgen

:

Die Probe bösartig und die Beispielkovarianz-Matrix ist unvoreingenommene Schätzungen des bösartigen und die Kovarianz-Matrix des zufälligen Vektoren, ein Zeilenvektor, dessen j Element (j = 1..., K) eine der zufälligen Variablen ist. Der Grund hat die Beispielkovarianz-Matrix im Nenner aber nicht ist im Wesentlichen, dass die bösartige Bevölkerung nicht bekannt ist und durch die bösartige Probe ersetzt wird. Wenn die bösartige Bevölkerung bekannt ist, wird die analoge unvoreingenommene Schätzung durch gegeben

:

Anmerkungen

Die Kovarianz wird manchmal ein Maß der "geradlinigen Abhängigkeit" zwischen den zwei zufälligen Variablen genannt. Das bedeutet dasselbe Ding wie im Zusammenhang der geradlinigen Algebra nicht (sieh geradlinige Abhängigkeit). Wenn die Kovarianz normalisiert wird, erhält man die Korrelationsmatrix. Davon kann man den Koeffizienten von Pearson erhalten, der uns die Güte des passenden für die bestmögliche geradlinige Funktion gibt, die die Beziehung zwischen den Variablen beschreibt. In diesem Sinn ist Kovarianz ein geradliniges Maß der Abhängigkeit.

Siehe auch

  • Algorithmen, um variance#Covariance zu rechnen
  • Analyse der Kovarianz
  • Autokovarianz
  • Korrelation
  • Kovarianz-Funktion
  • Kovarianz-Matrix
  • Kovarianz-Maschinenbediener
  • Entfernungskovarianz oder Kovarianz von Brownian.
  • Wirbel-Kovarianz
  • Gesetz der Gesamtkovarianz
  • Fortpflanzung der Unklarheit

Außenverbindungen


Korrelation und Abhängigkeit / Kampf der Dünen (1658)
Impressum & Datenschutz