Orthogonale Matrix

In der geradlinigen Algebra ist eine orthogonale Matrix eine Quadratmatrix mit echten Einträgen, deren Säulen und Reihen orthogonale Einheitsvektoren (d. h., orthonormale Vektoren) sind.

Gleichwertig ist eine Matrix Q orthogonal, wenn sein umstellen seinem Gegenteil gleich ist:

:

der zur Folge hat

:

wo ich die Identitätsmatrix bin.

Eine orthogonale Matrix Q, ist invertible (mit dem Gegenteil) notwendigerweise quadratisch, einheitlich, und normal. Als eine geradlinige Transformation bewahrt eine orthogonale Matrix das Punktprodukt von Vektoren, und handelt deshalb als eine Isometrie des Euklidischen Raums, wie eine Folge oder Nachdenken. Mit anderen Worten ist es eine einheitliche Transformation.

Der Satz von n × n orthogonaler matrices bildet eine Gruppe O (n), bekannt als die orthogonale Gruppe. Die Untergruppe SO (n), aus orthogonalem matrices mit der Determinante +1 bestehend, wird die spezielle orthogonale Gruppe genannt, und jedes seiner Elemente ist eine spezielle orthogonale Matrix. Als eine geradlinige Transformation handelt jede spezielle orthogonale Matrix als eine Folge.

Die komplizierte Entsprechung einer orthogonalen Matrix ist eine einheitliche Matrix.

Übersicht

Eine orthogonale Matrix ist die echte Spezialisierung einer einheitlichen Matrix, und so immer einer normalen Matrix. Obwohl wir nur echten matrices hier denken, kann die Definition für matrices mit Einträgen von jedem Feld verwendet werden. Jedoch entstehen orthogonale matrices natürlich aus Punktprodukten, und für matrices von komplexen Zahlen, der stattdessen zur einheitlichen Voraussetzung führt. Orthogonale matrices bewahren das Punktprodukt, so, für Vektoren u, v in einem n-dimensional echten Euklidischen Raum

:

wo Q eine orthogonale Matrix ist. Um die Skalarprodukt-Verbindung zu sehen, denken Sie einen Vektoren v in einem n-dimensional echten Euklidischen Raum. Geschrieben in Bezug auf eine orthonormale Basis ist die karierte Länge von v vv. Wenn eine geradlinige Transformation, in der Matrixform Qv, Vektor-Längen, dann bewahrt

:

So endlich-dimensionale geradlinige Isometrien — Folgen, Nachdenken und ihre Kombinationen — erzeugen orthogonalen matrices. Das gegenteilige ist auch wahr: Orthogonale matrices beziehen orthogonale Transformationen ein. Jedoch schließt geradlinige Algebra orthogonale Transformationen zwischen Räumen ein, die weder endlich-dimensional sein können noch derselben Dimension, und diese keine orthogonale Matrixentsprechung haben.

Orthogonale matrices sind aus mehreren Gründen wichtig, sowohl theoretisch als auch praktisch. Die n×n orthogonalen matrices bilden eine Gruppe, die orthogonale Gruppe, die durch O (n) angezeigt ist, der — mit seinen Untergruppen — in der Mathematik und den physischen Wissenschaften weit verwendet wird. Zum Beispiel ist die Punkt-Gruppe eines Moleküls eine Untergruppe von O (3). Weil Schwimmpunkt-Versionen von orthogonalem matrices vorteilhafte Eigenschaften haben, sind sie Schlüssel zu vielen Algorithmen in der numerischen geradlinigen Algebra wie QR-Zergliederung. Als ein anderes Beispiel mit der passenden Normalisierung verwandelt sich der getrennte Kosinus (verwendet in der MP3 Kompression) wird durch eine orthogonale Matrix vertreten.

Beispiele

Unten sind einige Beispiele von kleinem orthogonalem matrices und möglichen Interpretationen.

\begin {bmatrix }\

1 & 0 \\

0 & 1 \\

\end {bmatrix} \qquad (\text {Identitätstransformation}) </Mathematik>

\begin {bmatrix }\

0.96 &-0.28 \\

0.28 & \; \; \, 0.96 \\

\end {bmatrix} \qquad (\text {Folge durch} 16.26^\\circ) </Mathematik>

\begin {bmatrix }\1 & 0 \\

0 &-1 \\

\end {bmatrix} \qquad (\text {Nachdenken über} x\text {-Achse}) </Mathematik>

\begin {bmatrix }\

0 &-0.80 &-0.60 \\

0.80 &-0.36 & \; \; \, 0.48 \\

0.60 & \; \; \, 0.48 &-0.64

\end {bmatrix} \qquad \left (\begin {richten} &\\Text {rotoinversion:} \\&\\Text {Achse} (0,-3/5,4/5), \text {Winkel} 90^ {\\circ }\\Ende {{aus}, richten }\\Recht aus) </Mathematik>

\begin {bmatrix }\

0 & 0 & 0 & 1 \\

0 & 0 & 1 & 0 \\

1 & 0 & 0 & 0 \\

0 & 1 & 0 & 0

\end {bmatrix} \qquad (\text {Versetzung von Koordinatenäxten}) </Mathematik>

Elementare Aufbauten

Niedrigere Dimensionen

Die einfachsten orthogonalen matrices sind 1×1 matrices [1] und [1], den wir als die Identität und ein Nachdenken der echten Linie über den Ursprung interpretieren können.

2×2 haben matrices die Form

:

p & t \\

q & u

\end {bmatrix}, </Mathematik>

welche Orthogonality-Anforderungen die drei Gleichungen befriedigen

:

\begin {richten }\aus

1 & = p^2+q^2, \\

1 & = t^2+u^2, \\

0 & = pt+qu.

\end {richten }\aus

</Mathematik>

In Anbetracht der ersten Gleichung, ohne Verlust der Allgemeinheit lassen p =, weil θ, q = θ sündigen; dann entweder t = &minus;q, u = p oder t = q, u = &minus;p. Wir können den ersten Fall als eine Folge durch θ interpretieren (wo θ = 0 die Identität ist), und das zweite als ein Nachdenken über eine Linie in einem Winkel von θ/2.

:\begin {bmatrix }\

\cos \theta &-\sin \theta \\

\sin \theta & \cos \theta \\

\end {bmatrix }\\Text {(Folge), }\\qquad

\begin {bmatrix }\

\cos \theta & \sin \theta \\

\sin \theta &-\cos \theta \\

\end {bmatrix }\\Text {(Nachdenken) }\

</Mathematik>

Der spezielle Fall der Nachdenken-Matrix mit θ = erzeugen 90 ° ein Nachdenken über die Linie 45 ° Linie y=x und tauschen deshalb x und y aus; es ist eine Versetzungsmatrix, mit einzelnem 1 in jeder Säule und Reihe (und sonst 0):

:

0 & 1 \\

1 & 0

\end {bmatrix}. </Mathematik>

Die Identität ist auch eine Versetzungsmatrix.

Ein Nachdenken ist sein eigenes Gegenteil, das andeutet, dass eine Nachdenken-Matrix (gleich seinem symmetrisch ist umstell) sowie orthogonal. Das Produkt von zwei Folge matrices ist eine Folge-Matrix, und das Produkt von zwei Nachdenken matrices ist auch eine Folge-Matrix.

Höhere Dimensionen

Unabhängig von der Dimension ist es immer möglich, orthogonalen matrices als rein Rotations- oder nicht, aber für 3×3 matrices und größer zu klassifizieren, der Nichtrotationsmatrices kann mehr kompliziert sein als Nachdenken. Zum Beispiel,

:\begin {bmatrix }\

- 1 & 0 & 0 \\

0 &-1 & 0 \\

0 & 0 &-1

\end {bmatrix }\\Text {und }\

\begin {bmatrix }\0 &-1 & 0 \\

1 & 0 & 0 \\

0 & 0 &-1

\end {bmatrix} </Mathematik>

vertreten Sie eine Inversion durch den Ursprung und

ein rotoinversion über die z Achse.

Folgen werden auch mehr kompliziert; sie können durch einen Winkel nicht mehr völlig charakterisiert werden, und können mehr als einen planaren Subraum betreffen. Während es üblich ist, 3×3 Folge-Matrix in Bezug auf eine Achse und Winkel zu beschreiben, ist die Existenz einer Achse ein zufälliges Eigentum dieser Dimension, die in keinen anderen gilt.

Jedoch haben wir elementare Bausteine für Versetzungen, Nachdenken und Folgen, die im Allgemeinen gelten.

Primitive

Die elementarste Versetzung ist eine Umstellung, die bei der Identitätsmatrix durch das Austauschen von zwei Reihen erhalten ist. Jede n×n Versetzungsmatrix kann als ein Produkt nicht mehr als n  1 Umstellungen gebaut werden.

Ein Wohnungsinhaber-Nachdenken wird von einem nichtungültigen Vektoren v als gebaut

:

Hier ist der Zähler eine symmetrische Matrix, während der Nenner eine Zahl, der karierte Umfang von v ist. Das ist ein Nachdenken in der Hyperflugzeug-Senkrechte zu v (jede Vektor-Teilparallele zu v verneinend). Wenn v ein Einheitsvektor ist, dann genügt Q = ich  2vv. Ein Wohnungsinhaber-Nachdenken ist normalerweise an gleichzeitig die Null der niedrigere Teil einer Säule gewöhnt. Jede orthogonale Matrix der Größe n×n kann als ein Produkt am grössten Teil von n solches Nachdenken gebaut werden.

Eine Givens Folge folgt einem zweidimensionalen (planaren) Subraum, der durch zwei Koordinatenäxte abgemessen ist, durch einen gewählten Winkel rotierend. Es ist normalerweise an die Null ein einzelner subdiagonaler Zugang gewöhnt. Jede Folge-Matrix der Größe n×n kann als ein Produkt am grössten Teil von n (n  1)/2 solche Folgen gebaut werden. Im Fall von 3×3 matrices genügen drei solche Folgen; und indem wir die Folge befestigen, können wir so alle 3×3 beschreiben Folge matrices (obwohl nicht einzigartig) in Bezug auf die drei Winkel verwendet, häufig genannt Euler angelt.

Eine Jacobi Folge hat dieselbe Form wie eine Folge von Givens, aber wird als eine Ähnlichkeitstransformation verwendet, die zum Null-beide außerdiagonalen Einträge 2×2 symmetrische Submatrix gewählt ist.

Eigenschaften

Matrixeigenschaften

Eine echte Quadratmatrix ist orthogonal, wenn, und nur wenn seine Säulen eine orthonormale Basis des Euklidischen Raums R mit dem gewöhnlichen Euklidischen Punktprodukt bilden, das der Fall ist, wenn, und nur wenn seine Reihen eine orthonormale Basis von R bilden. Es könnte verführerisch sein, eine Matrix mit dem orthogonalen anzunehmen (nicht orthonormal) Säulen würden eine orthogonale Matrix genannt, aber solche matrices haben kein spezielles Interesse und keinen speziellen Namen; sie befriedigen nur MM = D, mit D eine Diagonalmatrix.

Die Determinante jeder orthogonalen Matrix ist +1 oder 1. Das folgt aus grundlegenden Tatsachen über Determinanten wie folgt:

:

Das gegenteilige ist nicht wahr; eine Determinante +1 zu haben, ist keine Garantie von orthogonality sogar mit orthogonalen Säulen, wie gezeigt, durch das folgende Gegenbeispiel.

:

2 & 0 \\

0 & \frac {1} {2 }\

\end {bmatrix} </Mathematik>

Mit der Versetzung matrices die Determinante vergleicht die Unterschrift, +1 oder 1 seiend, weil die Gleichheit der Versetzung sogar oder seltsam ist, weil die Determinante eine Wechselfunktion der Reihen ist.

Stärker als die bestimmende Beschränkung ist die Tatsache, dass eine orthogonale Matrix immer diagonalized über die komplexen Zahlen sein kann, um einen vollen Satz von eigenvalues auszustellen, von denen alle (kompliziertes) Modul 1 haben müssen.

Gruppeneigenschaften

Das Gegenteil jeder orthogonalen Matrix ist wieder orthogonal, wie das Matrixprodukt von zwei orthogonalen matrices ist. Tatsächlich befriedigt der Satz von allen n&times;n orthogonaler matrices alle Axiome einer Gruppe. Es ist eine Kompaktlüge-Gruppe der Dimension n (n  1)/2, genannt die orthogonale Gruppe und angezeigt durch O (n).

Die orthogonalen matrices, deren Determinante +1 ist, bilden eine Pfad-verbundene normale Untergruppe von O (n) vom Index 2, die spezielle orthogonale Gruppe SO (n) von Folgen. Die Quotient-Gruppe O (n) / SO (n) ist zu O (1), mit der Vorsprung-Karte isomorph [+1] oder [1] gemäß der Determinante wählend. Orthogonale matrices mit der Determinante 1 schließen die Identität nicht ein, und so bilden Sie keine Untergruppe, aber nur einen coset; es wird auch (getrennt) verbunden. So fällt jede orthogonale Gruppe in zwei Stücke; und weil sich die Vorsprung-Karte aufspaltet, O ist (n) ein halbdirektes Produkt SO (n) durch O (1). In praktischen Begriffen ist eine vergleichbare Behauptung, dass jede orthogonale Matrix durch die Einnahme einer Folge-Matrix und vielleicht das Verneinen von einer seiner Säulen erzeugt werden kann, wie wir mit 2×2 matrices gesehen haben. Wenn n seltsam ist, dann ist das halbdirekte Produkt tatsächlich ein direktes Produkt, und jede orthogonale Matrix kann durch die Einnahme einer Folge-Matrix und vielleicht das Verneinen von allen seinen Säulen erzeugt werden. Das folgt aus dem Eigentum von Determinanten, dass das Verneinen einer Säule die Determinante und so das Verneinen eines sonderbaren verneint (aber nicht sogar), verneint die Zahl von Säulen die Determinante.

Ziehen Sie jetzt (n+1) × (n+1) orthogonaler matrices mit dem untersten Recht-Zugang gleich 1 in Betracht. Der Rest der letzten Säule (und letzten Reihe) muss Nullen sein, und das Produkt irgendwelcher zwei solcher matrices hat dieselbe Form. Der Rest der Matrix ist eine n×n orthogonale Matrix; so O ist (n) eine Untergruppe von O (n + 1) (und aller höheren Gruppen).

:

& & & 0 \\

& O (n) & & \vdots \\

& & & 0 \\

0 & \cdots & 0 & 1

\end {bmatrix }\

</Mathematik>

Da ein elementares Nachdenken in der Form einer Wohnungsinhaber-Matrix jede orthogonale Matrix auf diese gezwungene Form reduzieren kann, kann eine Reihe solchen Nachdenkens jede orthogonale Matrix zur Identität bringen; so ist eine orthogonale Gruppe eine Nachdenken-Gruppe. Die letzte Säule kann zu jedem Einheitsvektor befestigt werden, und jede Wahl gibt eine verschiedene Kopie von O (n) in O (n+1); auf diese Weise O ist (n+1) ein Bündel über den Einheitsbereich S mit der Faser O (n).

Ähnlich SO ist (n) eine Untergruppe SO (n+1); und jede spezielle orthogonale Matrix kann durch Flugzeug-Folgen von Givens mit einem analogen Verfahren erzeugt werden. Die Bündel-Struktur dauert an: SO (n)  SO (n+1)  S. Eine einzelne Folge kann eine Null in der ersten Reihe der letzten Säule erzeugen, und die Reihe von n1 Folgen wird Null alle außer der letzten Reihe der letzten Säule einer n×n Folge-Matrix. Da die Flugzeuge befestigt werden, hat jede Folge nur einen Grad der Freiheit, seines Winkels. Durch die Induktion, SO (n) hat deshalb

:

Grade der Freiheit, und so O (n).

Versetzung matrices ist noch einfacher; sie formen sich, nicht eine Lüge-Gruppe, aber nur eine begrenzte Gruppe, der Auftrag n! symmetrische Gruppe S. Durch dieselbe Art des Arguments ist S eine Untergruppe von S. Die gleichen Versetzungen erzeugen die Untergruppe der Versetzung matrices der Determinante +1, des Auftrags n!/2 Wechselgruppe.

Kanonische Form

Weit gehender trennt sich die Wirkung jeder orthogonalen Matrix in unabhängige Handlungen auf orthogonalen zweidimensionalen Subräumen. D. h. wenn Q orthogonal dann speziell ist, kann man immer eine orthogonale Matrix P, eine (rotations)-Änderung der Basis finden, die Q in die Block-Diagonale-Form bringt:

:

R_1 & & \\& \ddots & \\& & R_k

\end {bmatrix }\\(n\text {sogar}), \P^ {T} QP = \begin {bmatrix }\

R_1 & & & \\& \ddots & & \\& & R_k & \\& & & 1

\end {bmatrix }\\(n\text {seltsam}). </Mathematik>

wo die matrices R..., R 2×2 Folge matrices, und mit der restlichen Einträge-Null sind. Außergewöhnlich kann ein Folge-Block, ±I diagonal sein. So, eine Säule nötigenfalls verneinend und bemerkend, dass 2×2 Nachdenken diagonalizes zu einem +1 und 1, jede orthogonale Matrix zur Form gebracht werden kann

:

\begin {matrix}-R_1 & & \\& \ddots & \\& & R_k\end {Matrix} & 0 \\

0 & \begin {Matrix-}\\Premierminister 1 & & \\& \ddots & \\& & \pm 1\end {Matrix} \\

\end {bmatrix}, </Mathematik>

Die matrices R..., R geben verbundenen Paaren von eigenvalues, der auf dem Einheitskreis im komplizierten Flugzeug liegt; so bestätigt diese Zergliederung, dass alle eigenvalues absoluten Wert 1 haben. Wenn n seltsam ist, gibt es mindestens einen echten eigenvalue, +1 oder 1; für 3×3 Folge ist der Eigenvektor, der mit +1 vereinigt ist, die Drehachse.

Lügen Sie Algebra

Nehmen Sie an, dass die Einträge von Q differentiable Funktionen von t sind, und dass t = 0 Q = ich gibt. Das Unterscheiden der orthogonality Bedingung

:

Erträge

:

Die Einschätzung an t = 0 (Q = I) bezieht dann ein

:

In Lüge-Gruppenbegriffen bedeutet das, dass die Lüge-Algebra einer orthogonalen Matrixgruppe daraus besteht, verdrehen - symmetrischer matrices. Die andere Richtung gehend, verdreht die von irgendwelchem Exponential-Matrix - symmetrische Matrix ist eine orthogonale Matrix (tatsächlich, speziell orthogonal).

Zum Beispiel ruft die dreidimensionale Gegenstand-Physik winkelige Geschwindigkeit ist eine Differenzialfolge, so ein Vektor in der Lüge-Algebra-Tangente zu SO (3). Gegebener ω = (, , ), mit v = (x, y, z) ein Einheitsvektor, verdrehen die richtigen - die symmetrische Matrixform von ω ist

:

\Omega = \begin {bmatrix }\

0 &-z\theta & y\theta \\

z\theta & 0 &-x\theta \\

- y\theta & x\theta & 0

\end {bmatrix}. </Mathematik>

Das Exponential-davon ist die orthogonale Matrix für die Folge um die Achse v durch den Winkel θ; c = untergehend, weil θ/2, s = θ/2, sündigen

:

\exp (\Omega) =

\begin {bmatrix }\

1 - 2s^2 + 2x^2 s^2 & 2xy s^2 - 2z sc & 2xz s^2 + 2y sc \\

2xy s^2 + 2z sc & 1 - 2s^2 + 2y^2 s^2 & 2yz s^2 - 2x sc \\

2xz s^2 - 2y sc & 2yz s^2 + 2x sc & 1 - 2s^2 + 2z^2 s^2

\end {bmatrix }\

. </Mathematik>

Numerische geradlinige Algebra

Vorteile

Numerische Analyse nutzt viele der Eigenschaften von orthogonalem matrices für die numerische geradlinige Algebra aus, und sie entstehen natürlich. Zum Beispiel ist es häufig wünschenswert, eine orthonormale Basis für einen Raum oder eine orthogonale Änderung von Basen zu schätzen; beide nehmen die Form von orthogonalem matrices an. Determinante ±1 und den ganzen eigenvalues des Umfangs 1 zu haben, ist des großen Vorteils für die numerische Stabilität. Eine Implikation ist, dass die Bedingungszahl 1 ist (der das Minimum ist), so werden Fehler nicht vergrößert, wenn man mit einer orthogonalen Matrix multipliziert. Viele Algorithmen verwenden orthogonalen matrices wie Wohnungsinhaber-Nachdenken und Folgen von Givens aus diesem Grund. Es ist auch nützlich, dass, nicht nur eine orthogonale Matrix invertible ist, aber sein Gegenteil ist im Wesentlichen frei, durch das Austauschen von Indizes verfügbar.

Versetzungen sind für den Erfolg von vielen Algorithmen, einschließlich des Arbeitspferds Beseitigung von Gaussian mit dem teilweisen Drehen notwendig (wo Versetzungen das Drehen tun). Jedoch erscheinen sie selten ausführlich als matrices; ihre spezielle Form erlaubt effizientere Darstellung wie eine Liste von n Indizes.

Ebenfalls verwenden Algorithmen mit dem Wohnungsinhaber und Givens matrices normalerweise spezialisierte Methoden der Multiplikation und Lagerung. Zum Beispiel betrifft eine Folge von Givens nur zwei Reihen einer Matrix, die sie multipliziert, eine volle Multiplikation des Auftrags n zu einem viel effizienteren Auftrag n ändernd. Wenn der Gebrauch dieses Nachdenkens und Folgen Nullen in einer Matrix einführt, ist der frei gemachte Raum genug, um genügend Daten zu versorgen, um das Umgestalten wieder hervorzubringen, und so robust zu tun. (Im Anschluss an versorgen wir keinen Drehwinkel, der sowohl teuer ist als auch sich schlecht benommen hat.)

Zergliederungen

Mehrere wichtige Matrixzergliederungen schließen orthogonalen matrices, einschließlich besonders ein:

:; QR Zergliederung: M = QR, Q orthogonal, R ober dreieckig.

:; einzigartige Wertzergliederung: M = UΣV, U und V orthogonal, Σ nichtnegative Diagonale.

:; Eigendecomposition einer symmetrischen Matrix (Zergliederung gemäß dem Geisterhaften Lehrsatz): S = Q&Lambda;Q, S symmetrisch, Q orthogonal, &Lambda; Diagonale.

:; polare Zergliederung: M = QS, Q orthogonal, S symmetrische bestimmte Nichtverneinung.

Beispiele

Denken Sie ein überentschlossenes System von geradlinigen Gleichungen, wie es mit wiederholten Maßen eines physischen Phänomenes vorkommen könnte, um experimentelle Fehler zu ersetzen. Schreiben Sie Axt = b, wo A m×n, m> n ist.

Eine QR Zergliederung nimmt zu oberem dreieckigem R ab. Zum Beispiel, wenn A 5×3 dann R ist, hat die Form

:

\star & \star & \star \\

0 & \star & \star \\

0 & 0 & \star \\

0 & 0 & 0 \\

0 & 0 & 0

\end {bmatrix}. </Mathematik>

Das geradlinige kleinstes Quadratproblem ist, den x zu finden, der Ax  b  minimiert, der zur Projektierung b zum durch die Säulen von A. abgemessenen Subraum gleichwertig ist (Denken an eine Taube, die über einen Parkplatz mit der Sonne gerade oben fliegt; sein Schatten schlägt den nächsten Punkt auf dem Boden.) Ist das Annehmen der Säulen (und folglich R) unabhängig, die Vorsprung-Lösung wird von AAx = Ab gefunden. Jetzt ist AA (n×n) und invertible quadratisch, und auch RR gleich. Aber die niedrigeren Reihen von Nullen in R sind im Produkt überflüssig, das so bereits in der Niedrig-Dreiecksober-Dreiecksfactored-Form, als in der Beseitigung von Gaussian (Zergliederung von Cholesky) ist. Hier ist orthogonality nicht nur wichtig, um AA = (RQ) QR zu RR zu reduzieren, sondern auch um Lösung zu erlauben, ohne numerische Probleme zu vergrößern.

Im Fall von einem geradlinigen System, das underdetermined, oder sonst non-invertible Matrix ist, ist einzigartige Wertzergliederung (SVD) ebenso nützlich. Mit Einem factored als UΣV verwendet eine befriedigende Lösung das Pseudogegenteil von Moore-Penrose, den VΣU, wo Σ bloß jeden diagonalen Nichtnullzugang durch sein Gegenstück ersetzt. Satz x zu VΣUb.

Der Fall eines Quadrats invertible Matrix hält auch Interesse. Nehmen Sie zum Beispiel an, dass A 3×3 Folge-Matrix ist, die als die Zusammensetzung von zahlreichen Drehungen und Umdrehungen geschätzt worden ist. Das Schwimmen des Punkts vergleicht das mathematische Ideal von reellen Zahlen nicht, so hat A seinen wahren orthogonality allmählich verloren. Ein Prozess des Gramms-Schmidt hat orthogonalize die Säulen gekonnt, aber es ist nicht am zuverlässigsten, noch, noch der grösste Teil der invariant Methode am effizientesten. Die polaren Zergliederungsfaktoren eine Matrix in ein Paar, von denen einer die einzigartige nächste orthogonale Matrix zur gegebenen Matrix oder einer der nächsten ist, wenn die gegebene Matrix einzigartig ist. (Nähe kann durch jede Matrixnorm invariant unter einer orthogonalen Änderung der Basis, wie die geisterhafte Norm oder die Norm von Frobenius gemessen werden.) Für eine nah-orthogonale Matrix kann die schnelle Konvergenz zum orthogonalen Faktor durch eine Methode eines "Newtons" erreicht werden nähern sich wegen (1990), wiederholt die Matrix mit seinem Gegenteil im Durchschnitt zu betragen, stellt um. hat eine beschleunigte Methode mit einem günstigen Konvergenz-Test veröffentlicht.

Ziehen Sie zum Beispiel in Betracht (sehr!) nichtorthogonale Matrix, für die der einfache Mittelwertbildungsalgorithmus sieben Schritte macht

:

\rightarrow

\begin {bmatrix} 1.8125 & 0.0625 \\3.4375 & 2.6875\end {bmatrix }\

\rightarrow \cdots \rightarrow

\begin {bmatrix} 0.8 &-0.6 \\0.6 & 0.8\end {bmatrix} </Mathematik>

und den Beschleunigung zu zwei Schritten (mit γ = 0.353553, 0.565685) zurechtmacht.

:\rightarrow

\begin {bmatrix} 1.41421 &-1.06066 \\1.06066 & 1.41421\end {bmatrix }\

\rightarrow\begin {bmatrix} 0.8 &-0.6 \\0.6 & 0.8\end {bmatrix} </Mathematik>

Gramm-Schmidt gibt eine untergeordnete Lösung nach, die durch eine Entfernung von Frobenius 8.28659 statt der minimalen 8.12404 gezeigt ist.

:\rightarrow

\begin {bmatrix} 0.393919 &-0.919145 \\0.919145 & 0.393919\end {bmatrix} </Mathematik>

Randomization

Einige numerische Anwendungen, wie Methoden von Monte Carlo und Erforschung von hoch-dimensionalen Datenräumen, verlangen Generation gleichförmig verteilten zufälligen orthogonalen matrices. In diesem Zusammenhang wird "Uniform" in Bezug auf das Maß von Haar definiert, das im Wesentlichen verlangt, dass sich der Vertrieb nicht, wenn multipliziert, mit jeder frei gewählten orthogonalen Matrix ändert. Orthogonalizing matrices mit unabhängigen gleichförmig verteilten zufälligen Einträgen läuft auf gleichförmig verteilten orthogonalen matrices nicht hinaus, aber die QR Zergliederung des Unabhängigen hat normalerweise zufällige Einträge verteilt tut, so lange die Diagonale von R nur positive Einträge enthält. ersetzt das durch eine effizientere Idee, die später als der "Untergruppe-Algorithmus" verallgemeinert hat (in der Form er genauso gut für Versetzungen und Folgen arbeitet). Um (n + 1) × (n + 1) orthogonale Matrix zu erzeugen, nehmen Sie einen n×n ein und ein gleichförmig verteilter Einheitsvektor der Dimension n + 1. Bauen Sie ein Wohnungsinhaber-Nachdenken vom Vektoren, dann wenden Sie ihn auf die kleinere Matrix (eingebettet in der größeren Größe mit 1 an der untersten Ecke) an.

Nächste orthogonale Matrix

Das Problem, die orthogonale Matrix am nächsten eine gegebene Matrix zu finden, ist mit dem Orthogonalen Procrustes Problem verbunden. Es gibt mehrere verschiedene Weisen, die einzigartige Lösung zu bekommen, von denen der einfachste die einzigartige Wertzergliederung dessen nimmt und die einzigartigen Werte durch ersetzt. Eine andere Methode drückt ausführlich aus, aber verlangt den Gebrauch einer Matrixquadratwurzel:

:

Das kann mit der babylonischen Methode verbunden werden, für die Quadratwurzel einer Matrix herauszuziehen, um ein Wiederauftreten zu geben, das zu einer orthogonalen Matrix quadratisch zusammenläuft:

:

wo. Diese Wiederholungen sind stabil hat die Bedingungszahl dessen zur Verfügung gestellt ist weniger als drei.

Drehung und Nadel

Ein feines technisches Problem quält etwas Gebrauch von orthogonalem matrices. Nicht nur sind die Gruppenbestandteile mit der Determinante +1 und &minus;1 nicht verbunden mit einander, sogar der +1 Bestandteil, SO (n), wird nicht einfach verbunden (abgesehen von SO (1), der trivial ist). So ist es manchmal vorteilhaft, oder sogar notwendig, um mit einer Bedeckungsgruppe SO (n), der Drehungsgruppe, Drehung (n) zu arbeiten. Ebenfalls O hat (n) Bedeckung von Gruppen, den Nadel-Gruppen, Nadel (n). Für n> 2 wird Drehung (n) einfach, und so die universale Bedeckungsgruppe für SO (n) verbunden. Bei weitem ist das berühmteste Beispiel einer Drehungsgruppe Drehung (3), der nichts als SU (2), oder die Gruppe der Einheit quaternions ist.

Die Nadel- und Drehungsgruppen werden innerhalb von Algebra von Clifford gefunden, die selbst von orthogonalem matrices gebaut werden können.

Rechteckiger matrices

Wenn Q nicht eine Quadratmatrix ist, dann die Bedingungen QQ = ich und QQ = bin ich nicht gleichwertig. Die Bedingung QQ = sage ich, dass die Säulen von Q orthonormal sind. Das kann nur geschehen, wenn Q eine m×n Matrix mit n  M ist. Ähnlich QQ = sage ich, dass die Reihen von Q orthonormal sind, der n  M verlangt

Es gibt keine Standardfachsprache für diese matrices. Sie werden manchmal "orthonormalen matrices", manchmal "orthogonaler matrices", und manchmal einfach "matrices mit orthonormalen Reihen/Säulen" genannt.

Siehe auch

  • Orthogonale Gruppe
  • Koordinatenfolge
  • Einheitliche Matrix
  • Matrix von Symplectic
  • Verdrehen Sie - symmetrische Matrix, eine Matrix, deren umstellen, ist sein negativer

Referenzen

http://www.ma.man.ac.uk/~higham/pap-mf.html

Links


Spielbach, Alaska / Musik Spaniens
Impressum & Datenschutz