Lehrsatz von Gauss-Markov

In der Statistik stellt der Lehrsatz von Gauss-Markov, genannt nach Carl Friedrich Gauss und Andrey Markov, fest, dass in einem geradlinigen Modell des rückwärts Gehens, in dem die Fehler Erwartungsnull haben und unkorreliert sind und gleiche Abweichungen haben, wird dem am besten geradlinigen unvoreingenommenen Vorkalkulatoren (BLUE) der Koeffizienten vom Üblichen kleinster Quadratvorkalkulator gegeben. Hier "am besten" bedeutet, den niedrigstmöglichen karierten Mittelfehler der Schätzung zu geben. Die Fehler brauchen nicht normal, noch unabhängig und (nur unkorreliert und homoscedastic) identisch verteilt zu sein.

Behauptung

Nehmen Sie an, dass wir haben

:

weil ich = 1..., n, wo β nichtzufällige, aber unbeobachtbare Rahmen, X sind, sind nichtzufällig und erkennbar (hat die "erklärenden Variablen" genannt), ε sind zufällig, und so sind Y zufällig. Die zufälligen Variablen ε werden die "Fehler" genannt (um mit "residuals" nicht verwirrt zu sein; sieh Fehler und residuals in der Statistik). Bemerken Sie, dass, um eine Konstante ins Modell oben einzuschließen, man beschließen kann, die Variable einzuschließen, X alle sind dessen beobachteten Werte Einheit: X = 1 für alles ich.

Die Annahmen von Gauss-Markov sind

(d. h. alle Fehler haben dieselbe Abweichung; das ist "homoscedasticity"), und

weil ich  j; d. h. irgendwelche zwei verschiedenen Werte des Fehlerbegriffes werden vom "unkorrelierten" Vertrieb gezogen. Ein geradliniger Vorkalkulator von β ist eine geradlinige Kombination

:

in dem den Koeffizienten c nicht erlaubt wird, von den zu Grunde liegenden Koeffizienten β abzuhängen, da diejenigen nicht erkennbar sind, aber erlaubt werden, von den Werten X abzuhängen, da diese Daten erkennbar sind. (Die Abhängigkeit der Koeffizienten auf jedem X ist normalerweise nichtlinear; der Vorkalkulator ist in jedem Y und folglich in jedem zufälligen ε geradlinig, der ist, warum das "geradliniges" rückwärts Gehen ist.), wie man sagt, ist der Vorkalkulator wenn und nur wenn unvoreingenommen

:

unabhängig von den Werten von X. Lassen Sie jetzt, eine geradlinige Kombination der Koeffizienten zu sein. Dann ist der karierte Mittelfehler der entsprechenden Bewertung

:

d. h. es ist die Erwartung des Quadrats der belasteten Summe (über Rahmen) von den Unterschieden zwischen den Vorkalkulatoren und den entsprechenden zu schätzenden Rahmen. (Da wir den Fall in Betracht ziehen, in dem alle Parameter-Schätzungen unvoreingenommen sind, ist dieser karierte Mittelfehler dasselbe als die Abweichung der geradlinigen Kombination.) Der am besten geradlinige unvoreingenommene Vorkalkulator (BLUE) des Vektoren β Rahmen β ist ein mit dem kleinsten karierten Mittelfehler für jeden Vektoren λ geradliniger Kombinationsrahmen. Das ist zur Bedingung das gleichwertig

:

ist eine positive halbbestimmte Matrix für jeden anderen geradlinigen unvoreingenommenen Vorkalkulatoren.

Das Übliche kleinster Quadratvorkalkulator (OLS) ist die Funktion

:

Y und X (wo das Umstellen X anzeigt)

das minimiert die Summe von Quadraten von residuals (misprediction Beträge):

:

Der Lehrsatz stellt jetzt fest, dass der OLS Vorkalkulator ein BLAU ist. Die Hauptidee vom Beweis besteht darin, dass der Am-Wenigsten-Quadratvorkalkulator mit jedem geradlinigen unvoreingenommenen Vorkalkulatoren der Null, d. h., mit jeder geradlinigen Kombination unkorreliert

ist

wessen Koeffizienten vom unbeobachtbaren β nicht abhängen, aber dessen erwarteter Wert immer Null ist.

Beweis

Lassen Sie, ein anderer geradliniger Vorkalkulator zu sein und C dadurch gegeben werden zu lassen, wo D eine Nichtnullmatrix ist. Da wir auf unvoreingenommene Vorkalkulatoren einschränken, bezieht minimaler quadratisch gemachter Mittelfehler minimale Abweichung ein. Die Absicht ist deshalb zu zeigen, dass solch ein Vorkalkulator eine Abweichung hat, die nicht kleiner ist als dieser, der OLS Vorkalkulator.

Die Erwartung dessen ist:

:

\begin {richten }\aus

E (CY) &= E (((X'X) ^ {-1} X' + D) (X\beta + \varepsilon)) \\

&= ((X'X) ^ {-1} X' + D) X\beta + ((X'X) ^ {-1} X' + D) \underbrace {E (\varepsilon)} _0 \\

&= (X'X) ^ {-1} X'X\beta + DX\beta \\

&= (I_k + DX) \beta. \\

\end {richten }\aus

</Mathematik>

Deshalb, ist wenn und nur wenn unvoreingenommen.

Die Abweichung dessen ist

:\begin {richten }\aus

V (\tilde\beta) &= V (CY) = LEBENSLAUF (Y) C' = \sigma^2 CC' \\

&= \sigma^2 ((X'X) ^ {-1} X' + D) (X (X'X) ^ {-1} + D') \\

&= \sigma^2 ((X'X) ^ {-1} X'X (X'X) ^ {-1} + (X'X) ^ {-1} X'D' + DX (X'X) ^ {-1} + DD') \\

&= \sigma^2 (X'X) ^ {-1} + \sigma^2 (X'X) ^ {-1} (\underbrace {DX} _ {0})' + \sigma^2 \underbrace {DX} _ {0} (X'X) ^ {-1} + \sigma^2DD' \\

&= \underbrace {\\sigma^2 (X'X) ^ {-1}} _ {V (\hat\beta)} + \sigma^2DD'.

\end {richten }\aus</Mathematik>

Da DD' eine positive halbbestimmte Matrix ist, geht durch eine positive halbbestimmte Matrix zu weit.

Verallgemeinert kleinster Quadratvorkalkulator

Vorkalkulator von verallgemeinert kleinsten Quadraten (GLS) oder Aitken erweitert den Lehrsatz von Gauss-Markov zum Fall, wo der Fehlervektor eine Nichtskalarkovarianz matrixthe hat, ist Vorkalkulator von Aitken auch ein BLAU.

Siehe auch

  • Unabhängige und identisch verteilte zufällige Variablen
  • Geradliniges rückwärts Gehen
  • Maß-Unklarheit

Andere unvoreingenommene Statistik

  • Am besten geradlinige unvoreingenommene Vorhersage (BLUP)
  • Minimale Abweichung unvoreingenommener Vorkalkulator (MVUE)

Referenzen

Links


Wüste-Klima / Elfe-Komiker
Impressum & Datenschutz