Gleichzeitiges Gleichungsmodell

Gleichzeitige Gleichungsmodelle sind eine Form des statistischen Modells in der Form von einer Reihe geradliniger gleichzeitiger Gleichungen. Sie werden häufig in econometrics verwendet.

Strukturelle und reduzierte Form

Nehmen Sie an, dass es M Gleichungen des rückwärts Gehens der Form gibt

:

y_ {es} = y_ {-i, t} '\gamma_i + x_ {es} '\; \!\beta_i + u_ {es}, \quad i=1, \ldots, M,

</Mathematik>

wo ich die Gleichungszahl bin, und der Beobachtungsindex bin. In diesen Gleichungen ist x der k×1 Vektor von exogenous Variablen, y ist die abhängige Variable, y ist der n×1 Vektor aller anderen endogenen Variablen, die in mich Gleichung auf der rechten Seite eingehen, und u die Fehlerbegriffe sind. Die "i" Notation zeigt an, dass der Vektor y einigen des y's abgesehen von y enthalten kann (da es bereits auf der linken Seite da ist). Die Regressionskoeffizienten β und γ sind Dimensionen k×1 und n×1 entsprechend. Vertikal die T Beobachtungen entsprechend mir Gleichung aufschobernd, können wir jede Gleichung in der Vektor-Form als schreiben

:

y_i = Y_ {-i }\\gamma_i + X_i\beta_i + u_i, \quad i=1, \ldots, M,

</Mathematik>

wo y und u T×1 Vektoren sind, X ist eine T×k Matrix von exogenous regressors, und Y ist eine T×n Matrix von endogenem regressors auf der rechten Seite meiner Gleichung. Schließlich können wir alle endogenen Variablen zur linken Seite bewegen und die M Gleichungen gemeinsam in der Vektor-Form als schreiben

:

Y\Gamma = X\Beta + U. \,

</Mathematik>

Diese Darstellung ist als die Strukturform bekannt. In dieser Gleichung ist die T×m Matrix von abhängigen Variablen. Jeder der matrices Y ist tatsächlich eine n-columned Submatrix dieses Y. Die m×m Matrix Γ, der die Beziehung zwischen den abhängigen Variablen beschreibt, hat eine komplizierte Struktur. Es hat auf der Diagonale und alle anderen Elemente jeder Säule ich bin entweder die Bestandteile des Vektoren  γ oder Nullen, abhängig von denen Säulen von Y in die Matrix Y eingeschlossen wurden. Die T×k Matrix X enthält den ganzen exogenous regressors von allen Gleichungen, aber ohne Wiederholungen (d. h. sollte Matrix X der vollen Reihe sein). So ist jeder X eine k-columned Submatrix X. Matrix Β hat Größe k×m, und jede seiner Säulen besteht aus den Bestandteilen von Vektoren β und Nullen, abhängig von welchen des regressors von X eingeschlossen oder von X ausgeschlossen wurden. Schließlich, ist eine T×m Matrix der Fehlerbegriffe.

Die Strukturgleichung mit postmultiplizierend, kann das System in der reduzierten Form als geschrieben werden

:

Y = X\Beta\Gamma^ {-1} + U\Gamma^ {-1} = X\Pi + V. \,

</Mathematik>

Das ist bereits ein einfaches allgemeines geradliniges Modell, und es kann zum Beispiel durch das Übliche kleinste Quadrate geschätzt werden. Leider wird die Aufgabe, die geschätzte Matrix in die individuellen Faktoren Β zu zersetzen, und ganz kompliziert, und deshalb ist die reduzierte Form für die Vorhersage, aber nicht Schlussfolgerung passender.

Annahmen

Erstens, die Reihe der Matrix X von exogenous regressors müssen k, sowohl in begrenzten Proben als auch in der Grenze als gleich sein (bedeutet diese spätere Voraussetzung, dass in der Grenze der Ausdruck zu einer nichtdegenerierten k×k Matrix zusammenlaufen sollte). Wie man auch annimmt, ist Matrix Γ nichtdegeneriert.

Zweitens, wie man annimmt, sind Fehlerbegriffe serienmäßig unabhängig und identisch verteilt. D. h. wenn die t Reihe der Matrix U durch u angezeigt wird, dann sollte die Folge von Vektoren {u} iid, mit der Null bösartig und eine Kovarianz-Matrix Σ sein (der unbekannt ist). Insbesondere das bezieht das ein, und.

Letzt, die Identifizierungsbedingungen verlangt, dass die Zahl von unknowns in diesem Gleichungssystem die Zahl von Gleichungen nicht überschreiten sollte. Mehr spezifisch verlangt die Ordnungsbedingung, dass für jede Gleichung, die als ausgedrückt werden kann, "die Zahl von ausgeschlossenen exogenous Variablen größer oder der Zahl von eingeschlossenen endogenen Variablen gleich ist". Die Reihe-Bedingung von identifiability besteht darin, dass, wo Π eine Matrix ist, die bei Π durch das Ausstreichen jener Säulen erhalten wird, die den ausgeschlossenen endogenen Variablen und jenen Reihen entsprechen, die den eingeschlossenen exogenous Variablen entsprechen.

Bewertung

Zwei Stufen kleinste Quadrate (2SLS)

Das einfachste und die allgemeinste Bewertungsmethode für das gleichzeitige Gleichungsmodell sind das so genannte zweistufige kleinste Quadratmethode, entwickelt unabhängig durch und. Es ist eine Gleichung-für-Gleichung-Technik, wo die endogenen regressors auf der rechten Seite jeder Gleichung mit dem regressors X von allen anderen Gleichungen instrumentiert werden. Die Methode wird "zweistufig" genannt, weil sie Bewertung in zwei Schritten führt:

: Schritt 1: Rückwärtsbewegung Y auf X und erhält die vorausgesagten Werte;

: Schritt 2: Schätzen Sie γ, β durch das Übliche kleinstes Quadratrückwärts Gehen von y auf und X.

Wenn ich Gleichung im Modell als geschrieben wird

:

y_i = \begin {pmatrix} Y_ {-i} & X_i\end {pmatrix }\\beginnen {pmatrix }\\gamma_i \\\beta_i\end {pmatrix} + u_i

\equiv Z_i \delta_i + u_i,

</Mathematik>

wo Z ein (n + k) Matrix sowohl endogenen als auch exogenous regressors in mir Gleichung ist, und δ (n + k) - dimensionaler Vektor von Regressionskoeffizienten, dann 2SLS ist, wird dem Vorkalkulatoren von δ durch gegeben

:

\hat\delta_i = \big (\hat {Z} '_i\hat {Z} _i\big) ^ {-1 }\\Hut {Z} _i y_i

= \big (Z' _iPZ_i \big) ^ {-1} Z' _iPy_i,

</Mathematik>

wo die Vorsprung-Matrix auf den geradlinigen Raum ist, der durch den exogenous regressors X abgemessen ist.

Indirekt kleinste Quadrate

Indirekt sind kleinste Quadrate eine Annäherung in econometrics, wo die Koeffizienten in einem gleichzeitigen Gleichungsmodell vom reduzierten Form-Modell das Verwenden gewöhnlich kleinste Quadrate geschätzt werden. Dafür wird das Strukturgleichungssystem in die reduzierte Form zuerst umgestaltet. Sobald die Koeffizienten geschätzt werden, wird das Modell in die Strukturform zurückgestellt.

Beschränkte Informationsmaximum-Wahrscheinlichkeit (LIML)

Die "beschränkte Information" maximale Wahrscheinlichkeitsmethode wurde dadurch angedeutet. Die ausführliche Formel für diesen Vorkalkulatoren ist:

:

\hat\delta_i = \Big (Z' _i (I-\lambda M) Z_i\Big) ^ {\\!-1} Z' _i (I-\lambda M) y_i,

</Mathematik>

wo, und λ die kleinste charakteristische Wurzel der Matrix ist

:

\Big (\begin {bmatrix} y_i&Y_ {-i }\\Ende {bmatrix}' M_i \begin {bmatrix} y_i&Y_ {-i }\\Ende {bmatrix} \Big)

\Big (\begin {bmatrix} y_i&Y_ {-i }\\Ende {bmatrix}' M \begin {bmatrix} y_i&Y_ {-i }\\Ende {bmatrix} \Big) ^ {\\!-1}.

</Mathematik>

Bemerken Sie das, wenn der LIML Vorkalkulator mit 2SLS Vorkalkulator zusammenfällt.

Dreistufig kleinste Quadrate (3SLS)

Das dreistufige kleinster Quadratvorkalkulator wurde dadurch eingeführt. Es verbindet sich zweistufig kleinste Quadrate (2SLS) mit dem rückwärts Gehen anscheinend ohne Beziehung (SUR).

Siehe auch

Referenzen

Links


Kettenstich / Der See Como
Impressum & Datenschutz