Geradlinige Unabhängigkeit

In der geradlinigen Algebra ist eine Familie von Vektoren linear unabhängig, wenn keiner von ihnen als eine geradlinige Kombination von begrenzt vielen anderen Vektoren in der Sammlung geschrieben werden kann. Eine Familie von Vektoren, die nicht linear unabhängig ist, wird linear abhängig genannt. Zum Beispiel im dreidimensionalen echten Vektorraum haben wir das folgende Beispiel.

:

\begin {Matrix-}\

\mbox {unabhängiger }\\qquad \\

\underbrace {\

\overbrace {\

\begin {bmatrix} 0 \\0 \\1\end {bmatrix},

\begin {bmatrix} 0 \\2 \\-2\end {bmatrix},

\begin {bmatrix} 1 \\-2 \\1\end {bmatrix }\

},

\begin {bmatrix} 4 \\2 \\3\end {bmatrix }\

}\\\

\mbox {abhängiger }\\\

\end {Matrix-}\

</Mathematik>

Hier sind die ersten drei Vektoren linear unabhängig; aber der vierte Vektor kommt 9mal dem ersten plus 5mal das zweite plus 4mal das dritte gleich, so sind die vier Vektoren zusammen linear abhängig. Geradlinige Abhängigkeit ist ein Eigentum der Familie, nicht jedes besonderen Vektoren; zum Beispiel in diesem Fall konnten wir genauso gut den ersten Vektoren als eine geradlinige Kombination der letzten drei schreiben.

:

In der Wahrscheinlichkeitstheorie und Statistik dort ist ein Maß ohne Beziehung der geradlinigen Abhängigkeit zwischen zufälligen Variablen.

Definition

Eine begrenzte Teilmenge von n Vektoren, v, v..., v, vom Vektorraum V, ist linear abhängig, wenn, und nur wenn dort eine Reihe von n Skalaren, a, a..., a, nicht die ganze Null, solch dass besteht

:

Bemerken Sie, dass die Null rechts der Nullvektor, nicht die Zahl-Null ist.

Wenn solche Skalare nicht bestehen, dann, wie man sagt, sind die Vektoren linear unabhängig.

Wechselweise kann geradlinige Unabhängigkeit wie folgt direkt definiert werden: Eine Reihe von Vektoren ist linear unabhängig, wenn, und nur wenn die einzigen Darstellungen des Nullvektoren weil geradlinige Kombinationen seiner Elemente triviale Lösungen sind, d. h., wann auch immer a, a..., solche Skalare dass sind

:

wenn und nur wenn = 0 weil ich = 1, 2..., n.

Wie man

dann sagt, ist eine Reihe von Vektoren linear abhängig, wenn es nicht linear unabhängig ist.

Lassen Sie mehr allgemein V ein Vektorraum über Feld K sein, und {v | iI} zu lassen, eine Familie von Elementen V zu sein. Die Familie ist über K linear abhängig, wenn dort eine Familie {| jJ} Elemente von K, nicht der ganzen Null, solch dass besteht

:

wo der Index untergegangen ist, ist J eine nichtleere, begrenzte Teilmenge von mir.

Ein Satz X von Elementen V sind linear unabhängig, wenn die entsprechende Familie {x} linear unabhängig ist.

Gleichwertig ist eine Familie abhängig, wenn ein Mitglied in der geradlinigen Spanne des Rests der Familie ist, d. h. ein Mitglied ist eine geradlinige Kombination des Rests der Familie.

Eine Reihe von Vektoren, der linear unabhängig ist und einen Vektorraum abmisst, bildet eine Basis für diesen Vektorraum. Zum Beispiel hat der Vektorraum aller Polynome in x über den reals für eine Basis die (unendliche) Teilmenge {1, x, x...}.

Geometrische Bedeutung

Ein geografisches Beispiel kann helfen, das Konzept der geradlinigen Unabhängigkeit zu klären. Eine Person, die die Position eines bestimmten Platzes beschreibt, könnte sagen, "Es ist 5 Meilen der nördlich und 6 Meilen der östlich von hier." Das ist genügend Information, um die Position zu beschreiben, weil das geografische Koordinatensystem als ein 2-dimensionaler Vektorraum betrachtet werden kann (Höhe ignorierend). Die Person könnte beitragen, "Der Platz ist 7.81 Meilen der nordöstlich von hier." Obwohl diese letzte Behauptung wahr ist, ist es nicht notwendig.

In diesem Beispiel die "5 Meilen" Nordvektor und die "6 Meilen" Ostvektor sind linear unabhängig. Das heißt, kann der Nordvektor nicht in Bezug auf den Ostvektoren, und umgekehrt beschrieben werden. Die dritten "7.81 Meilen" Nordostvektor ist eine geradlinige Kombination der anderen zwei Vektoren, und macht er den Satz von Vektoren linear abhängig, d. h. einer der drei Vektoren ist unnötig.

Bemerken Sie auch, dass, wenn Höhe nicht ignoriert wird, es notwendig wird, einen dritten Vektoren zum linear unabhängigen Satz hinzuzufügen. Im Allgemeinen, n linear unabhängige Vektoren sind erforderlich, jede Position im n-dimensional Raum zu beschreiben.

Beispiel I

Die Vektoren (1, 1) und (&minus;3, 2) darin sind linear unabhängig.

Beweis

Lassen Sie λ und λ zwei solche reelle Zahlen dass sein

:

Jede Koordinate allein nehmend, bedeutet das

:

\lambda_1 - 3 \lambda_2 & {} = 0, \\

\lambda_1 + 2 \lambda_2 & {} = 0.

\end {richten} </Mathematik> {aus}

Für λ und λ lösend, finden wir dass λ = 0 und λ = 0.

Alternative Methode mit Determinanten

Eine alternative Methode verwendet die Tatsache, dass n Vektoren darin linear abhängig sind, wenn, und nur wenn die Determinante der gebildeten Matrix durch die Einnahme der Vektoren als seine Säulen Null ist.

In diesem Fall ist die durch die Vektoren gebildete Matrix

:

Wir können eine geradlinige Kombination der Säulen als schreiben

:

Wir interessieren uns für ob = 0 für einen Nichtnullvektoren Λ. Das hängt von der Determinante von A ab, der ist

:

Da die Determinante Nichtnull ist, sind die Vektoren (1, 1) und (&minus;3, 2) linear unabhängig.

Nehmen Sie sonst an, dass wir M Vektoren von N-Koordinaten, mit der M &lt haben; n. Dann ist A eine n×m Matrix, und Λ ist ein Spaltenvektor mit der M Einträge, und wir interessieren uns wieder für = 0. Wie wir vorher gesehen haben, ist das zu einer Liste von n Gleichungen gleichwertig. Denken Sie die erste M Reihen von A, die erste M Gleichungen; jede Lösung der vollen Liste von Gleichungen muss auch auf die reduzierte Liste zutreffen. Tatsächlich, wenn i..., ich  ist jede Liste der M Reihen, dann die Gleichung, für jene Reihen wahr sein muss.

:

Evanston / Liste von Städten in Nordkorea
Impressum & Datenschutz