Einzigartige Wertzergliederung

In der geradlinigen Algebra ist die einzigartige Wertzergliederung (SVD) ein factorization einer echten oder komplizierten Matrix, mit vielen nützlichen Anwendungen in der Signalverarbeitung und Statistik.

Formell ist die einzigartige Wertzergliederung einer m×n echten oder komplizierten MatrixM ein factorization der Form

:

wo U eine m×m echte oder komplizierte einheitliche Matrix ist, ist Σ eine m×n rechteckige Diagonalmatrix mit nichtnegativen reellen Zahlen auf der Diagonale, und V* (stellen die verbundenen von V um), ist eine n×n echte oder komplizierte einheitliche Matrix. Die diagonalen Einträge Σ Σ sind als die einzigartigen Werte der M bekannt. Die M Säulen von U und die n Säulen V wird die linken einzigartigen Vektoren und richtigen einzigartigen Vektoren der M beziehungsweise genannt.

Die einzigartige Wertzergliederung und der eigendecomposition sind nah verbunden. Nämlich:

:* Die linken einzigartigen Vektoren der M sind Eigenvektoren von

:* Die richtigen einzigartigen Vektoren der M sind Eigenvektoren von

:* Die einzigartigen Nichtnullwerte der M (gefunden auf den diagonalen Einträgen von Σ) sind die Quadratwurzeln der Nichtnull eigenvalues beider und

Anwendungen, die den SVD verwenden, schließen Computerwissenschaft des Pseudogegenteils, kleinste Quadratanprobe von Daten, Matrixannäherung und Bestimmung der Reihe, der Reihe und des ungültigen Raums einer Matrix ein.

Behauptung des Lehrsatzes

Nehmen Sie an, dass M eine m×n Matrix ist, deren Einträge aus Feld K kommen, das entweder das Feld von reellen Zahlen oder das Feld von komplexen Zahlen ist. Dann dort besteht ein factorization der Form

:

wo U eine m×m einheitliche Matrix über K ist, ist die Matrix Σ eine m×n Diagonalmatrix mit nichtnegativen reellen Zahlen auf der Diagonale, und n×n einheitlicher MatrixV* zeigt an, dass die verbundenen von V umstellen. Solch ein factorization wird die einzigartige Wertzergliederung von M. genannt

Die diagonalen Einträge von Σ sind als die einzigartigen Werte der M bekannt. Eine allgemeine Tagung ist, die einzigartigen Werte in der hinuntersteigenden Ordnung zu verzeichnen. In diesem Fall wird die Diagonalmatrix Σ durch die M einzigartig bestimmt (obwohl die matrices U und V sind nicht).

Intuitive Interpretationen

Folge, Schuppen, Folge

Im speziellen, aber allgemeinen Fall, in dem M gerade eine m×m Quadratmatrix mit der positiven Determinante ist, deren Einträge einfache reelle Zahlen dann sind, sind U, V *, und Σ m×m matrices von reellen Zahlen ebenso, Σ kann als eine kletternde Matrix betrachtet werden, und U und V* können als Folge matrices angesehen werden.

Wenn die obengenannten erwähnten Bedingungen entsprochen werden, kann der Ausdruck so als eine Zusammensetzung (oder Folge) von drei geometrischen Transformationen intuitiv interpretiert werden: eine Folge, ein Schuppen und eine andere Folge. Zum Beispiel erklärt die Zahl oben, wie eine scheren Matrix als solch eine Folge beschrieben werden kann.

Einzigartige Werte als Halbachse einer Ellipse oder Ellipsoids

So gezeigt in der Zahl können die einzigartigen Werte interpretiert werden wie die Halbäxte einer Ellipse im 2. Dieses Konzept kann zum n-dimensional Euklidischen Raum mit den einzigartigen Werten jeder n×n Quadratmatrix verallgemeinert werden, die als die Halbäxte eines n-dimensional Ellipsoids wird ansieht. Sieh unten für weitere Details.

U und V sind orthonormale Basen

Da U und V* einheitlich sind, bilden die Säulen von jedem von ihnen eine Reihe orthonormaler Vektoren, die als Basisvektoren betrachtet werden können. Durch die Definition der einheitlichen Matrix ist dasselbe für ihr verbundenes wahr stellt U* und V um. Kurz gesagt, U, U *, V, und V* sind orthonormale Basen.

Beispiel

Ziehen Sie 4×5 Matrix in Betracht

:

\begin {bmatrix }\

1 & 0 & 0 & 0 & 2 \\

0 & 0 & 3 & 0 & 0 \\

0 & 0 & 0 & 0 & 0 \\

0 & 4 & 0 & 0 & 0\end {bmatrix}.

</Mathematik>

Eine einzigartige Wertzergliederung dieser Matrix wird durch gegeben

:

U = \begin {bmatrix }\

0 & 0 & 1 & 0 \\

0 & 1 & 0 & 0 \\

0 & 0 & 0 & 1 \\

1 & 0 & 0 & 0\end {bmatrix}, \;

\Sigma = \begin {bmatrix }\

4 & 0 & 0 & 0 & 0 \\

0 & 3 & 0 & 0 & 0 \\

0 & 0 & \sqrt {5} & 0 & 0 \\

0 & 0 & 0 & 0 & 0\end {bmatrix}, \;

V^* = \begin {bmatrix }\

0 & 1 & 0 & 0 & 0 \\

0 & 0 & 1 & 0 & 0 \\

\sqrt {0.2} & 0 & 0 & 0 & \sqrt {0.8 }\\\

0 & 0 & 0 & 1 & 0 \\

\sqrt {0.8} & 0 & 0 & 0 &-\sqrt {0.2 }\\Ende {bmatrix}.

</Mathematik>

Benachrichtigung enthält Nullen außerhalb der Diagonale. Ein diagonales Element ist Null. Außerdem, weil die matrices und einheitlich sind, stellt das Multiplizieren mit ihrem jeweiligen verbundenen Ertrag-Identität matrices, wie gezeigt, unten um. In diesem Fall, weil und geschätzt echt sind, sie ist jeder eine orthogonale Matrix.

:\begin {bmatrix }\0 & 0 & 1 & 0 \\0 & 1 & 0 & 0 \\0 & 0 & 0 & 1 \\

1 & 0 & 0 & 0\end {bmatrix }\

\cdot

\begin {bmatrix }\0 & 0 & 0 & 1 \\0 & 1 & 0 & 0 \\

1 & 0 & 0 & 0 \\

0 & 0 & 1 & 0\end {bmatrix }\

\begin {bmatrix }\1 & 0 & 0 & 0 \\0 & 1 & 0 & 0 \\0 & 0 & 1 & 0 \\

0 & 0 & 0 & 1\end {bmatrix }\

\equiv I_4

</Mathematik>

und

:\begin {bmatrix }\

0 & 0 & \sqrt {0.2} & 0 & \sqrt {0.8 }\\\

1 & 0 & 0 & 0 & 0 \\

0 & 1 & 0 & 0 & 0 \\0 & 0 & 0 & 1 & 0 \\

0 & 0 & \sqrt {0.8} & 0 &-\sqrt {0.2 }\

\end {bmatrix }\

\cdot\begin {bmatrix }\0 & 1 & 0 & 0 & 0 \\0 & 0 & 1 & 0 & 0 \\\sqrt {0.2} & 0 & 0 & 0 & \sqrt {0.8 }\\\0 & 0 & 0 & 1 & 0 \\

\sqrt {0.8} & 0 & 0 & 0 &-\sqrt {0.2 }\\Ende {bmatrix }\

\begin {bmatrix }\1 & 0 & 0 & 0 & 0 \\0 & 1 & 0 & 0 & 0 \\0 & 0 & 1 & 0 & 0 \\0 & 0 & 0 & 1 & 0 \\

0 & 0 & 0 & 0 & 1\end {bmatrix }\

\equiv I_5.

</Mathematik>

Es sollte auch bemerkt werden, dass diese besondere einzigartige Wertzergliederung nicht einzigartig ist. Die solche Auswahl dass

:V^* = \begin {bmatrix }\0 & 1 & 0 & 0 & 0 \\0 & 0 & 1 & 0 & 0 \\\sqrt {0.2} & 0 & 0 & 0 & \sqrt {0.8 }\\\

\sqrt {0.4} & 0 & 0 & \sqrt {0.5} &-\sqrt {0.1 }\\\

- \sqrt {0.4} & 0 & 0 & \sqrt {0.5} & \sqrt {0.1} \end {bmatrix }\

</Mathematik>

ist auch eine gültige einzigartige Wertzergliederung.

Einzigartige Werte, einzigartige Vektoren und ihre Beziehung zum SVD

Eine nichtnegative reelle Zahl σ ist ein einzigartiger Wert für die M, wenn, und nur wenn dort Einheitslänge-Vektoren u in K und v in solchem K dass bestehen

:

Die Vektoren u und v werden nach links einzigartige und richtig-einzigartige Vektoren nach σ beziehungsweise genannt.

In jeder einzigartigen Wertzergliederung

:

die diagonalen Einträge von Σ sind den einzigartigen Werten der M gleich. Die Säulen von U und V, sind beziehungsweise, nach links und richtig-einzigartige Vektoren für die entsprechenden einzigartigen Werte. Folglich deutet der obengenannte Lehrsatz dass an:

  • Eine M &times; n MatrixM hat mindestens einen und am grössten Teil von p = Minute (M, n) verschiedene einzigartige Werte.
  • Es ist immer möglich, eine orthogonale Basis U für K zu finden, der aus nach links einzigartigen Vektoren der M besteht.
  • Es ist immer möglich, eine orthogonale Basis V für K zu finden, der aus richtig-einzigartigen Vektoren der M besteht.

Ein einzigartiger Wert, für den wir zwei verlassene (oder Recht) einzigartige Vektoren finden können, die linear abhängig sind, wird degeneriert genannt.

Nichtdegenerierte einzigartige Werte haben immer einzigartige linke und richtige einzigartige Vektoren, bis zur Multiplikation durch einen Einheitsphase-Faktor e (für den echten Fall bis zum Zeichen). Folglich, wenn alle einzigartigen Werte der M nichtdegeneriert sind und Nichtnull, dann ist seine einzigartige Wertzergliederung, bis zur Multiplikation einer Säule von U durch einen Einheitsphase-Faktor und gleichzeitigen Multiplikation der entsprechenden Säule V durch denselben Einheitsphase-Faktor einzigartig.

Degenerierte einzigartige Werte haben definitionsgemäß nichteinzigartige einzigartige Vektoren. Außerdem, wenn u und u zwei nach links einzigartige Vektoren sind, die beide dem einzigartigen Wert σ entsprechen, dann ist jede normalisierte geradlinige Kombination der zwei Vektoren auch ein linker einzigartiger Vektor entsprechend dem einzigartigen Wert σ. Die ähnliche Behauptung ist für richtige einzigartige Vektoren wahr. Folglich, wenn M degenerierte einzigartige Werte hat, dann ist seine einzigartige Wertzergliederung nicht einzigartig.

Anwendungen des SVD

Pseudogegenteil

Die einzigartige Wertzergliederung kann verwendet werden, für das Pseudogegenteil einer Matrix zu schätzen. Tatsächlich ist das Pseudogegenteil der MatrixM mit der einzigartigen Wertzergliederung

:

wo Σ das Pseudogegenteil von Σ ist, der durch das Ersetzen jedes diagonalen Nichtnullzugangs durch sein Gegenstück und das Umstellen der resultierenden Matrix gebildet wird. Das Pseudogegenteil ist eine Weise, geradlinig kleinste Quadratprobleme zu lösen.

Das Lösen homogener geradliniger Gleichungen

Eine Reihe homogener geradliniger Gleichungen kann bezüglich einer Matrix und Vektoren geschrieben werden. Eine typische Situation ist das ist bekannt, und eine Nichtnull soll bestimmt werden, der die Gleichung befriedigt. Solch ein

gehört 's ungültiger Raum und wird manchmal einen (richtigen) ungültigen Vektoren von genannt

. kann als ein richtiger einzigartiger Vektor entsprechender charakterisiert werden

zu einem einzigartigen Wert davon ist Null. Diese Beobachtung bedeutet, dass, wenn eine Quadratmatrix ist und keinen verschwindenden einzigartigen Wert hat, die Gleichung keine Nichtnull als eine Lösung hat. Es bedeutet auch, dass, wenn es mehrere verschwindende einzigartige Werte gibt, jede geradlinige Kombination der entsprechenden richtigen einzigartigen Vektoren eine gültige Lösung ist. Analog

zur Definition eines (richtigen) ungültigen Vektoren, eine Nichtnull, die befriedigt

, mit der Bezeichnung des verbundenen stellen um

, wird einen linken ungültigen Vektoren dessen genannt.

Ganz kleinste Quadratminimierung

Eine Summe, die kleinstes Quadratproblem auf die Bestimmung des Vektoren verweist, der den 2-Normen-von einem Vektoren unter der Einschränkung minimiert. Die Lösung erweist sich, der richtige einzigartige Vektor entsprechend dem kleinsten einzigartigen Wert zu sein.

Reihe, ungültiger Raum und Reihe

Eine andere Anwendung des SVD ist, dass er eine ausführliche Darstellung der Reihe und ungültigen Raum einer MatrixM zur Verfügung stellt. Die richtigen einzigartigen Vektoren entsprechend verschwindenden einzigartigen Werten der M Spanne der ungültige Raum der M. Z.B wird der ungültige Raum durch die letzten zwei Säulen im obengenannten Beispiel abgemessen. Die linken einzigartigen Vektoren entsprechend den einzigartigen Nichtnullwerten der M Spanne die Reihe der M. Demzufolge kommt die Reihe der M der Zahl von einzigartigen Nichtnullwerten gleich, die dasselbe als die Zahl von diagonalen Nichtnullelementen darin ist.

In der numerischen geradlinigen Algebra können die einzigartigen Werte verwendet werden, um die wirksame Reihe einer Matrix zu bestimmen, weil Rundungsfehler zu kleinen, aber einzigartigen Nichtnullwerten in einer Reihe unzulängliche Matrix führen kann.

Matrixannäherung der niedrigen Reihe

Einige praktische Anwendungen müssen das Problem beheben, einer Matrix mit einer anderen Matrix näher zu kommen, hat gestutzt gesagt, der eine spezifische Reihe hat. Im Fall, dass die Annäherung auf der Minderung der Norm von Frobenius des Unterschieds zwischen und unter der Einschränkung basiert, dass es sich herausstellt, dass die Lösung durch den SVD, nämlich gegeben wird

:

\tilde {M} = U \tilde {\\Sigma} V^ *

</Mathematik>

wo dieselbe Matrix wie ist, außer dass sie nur die größten einzigartigen Werte enthält (die anderen einzigartigen Werte werden durch die Null ersetzt). Das ist als der Lehrsatz von Eckart-Young bekannt, weil es von jenen zwei Autoren 1936 bewiesen wurde (obwohl, wie man später fand, es früheren Autoren bekannt gewesen war; sieh).

Trennbare Modelle

Vom SVD kann als das Zerlegen einer Matrix in eine belastete, bestellte Summe von trennbarem matrices gedacht werden. Durch den trennbaren meinen wir, dass eine Matrix als ein Außenprodukt von zwei Vektoren, oder in Koordinaten geschrieben werden kann. Spezifisch kann die MatrixM als zersetzt werden:

:

Hier und sind ich Säulen des entsprechenden SVD matrices, sind die bestellten einzigartigen Werte, und jeder ist trennbar. Der SVD kann verwendet werden, um die Zergliederung eines Bildverarbeitungsfilters in trennbare horizontale und vertikale Filter zu finden. Bemerken Sie, dass die Zahl der Nichtnull genau die Reihe der Matrix ist.

Trennbare Modelle entstehen häufig in biologischen Systemen, und die SVD Zergliederung ist nützlich, um solche Systeme zu analysieren. Zum Beispiel kann ein Sehgebiet V1 einfache Zellen empfängliche Felder durch einen Filter von Gabor im Raumgebiet gut beschrieben werden, das mit einer Modulationsfunktion im Zeitabschnitt multipliziert ist. So, in Anbetracht eines geradlinigen Filters, der durch, zum Beispiel, Rückkorrelation bewertet ist, kann man die zwei Raumdimensionen in eine Dimension umordnen, so einen zwei dimensionalen Filter nachgebend (Raum, Zeit), der durch SVD zersetzt werden kann. Die erste Säule von U in der SVD Zergliederung ist dann Gabor, während die erste Säule V die Zeitmodulation (oder umgekehrt) vertritt. Man kann dann einen Index der Trennbarkeit definieren, der der Bruchteil der Macht in der MatrixM ist, die durch die erste trennbare Matrix in der Zergliederung verantwortlich gewesen wird.

Nächste orthogonale Matrix

Es ist möglich, den SVD zu verwenden, die orthogonale Matrix zu bestimmen, die daran am nächsten ist. Die Nähe von passenden wird durch die Norm von Frobenius dessen gemessen. Die Lösung ist das Produkt. Das hat intuitiv Sinn, weil eine orthogonale Matrix die Zergliederung haben würde, wo die Identitätsmatrix, so dass ist, wenn dann sich das Produkt auf das Ersetzen der einzigartigen Werte mit beläuft.

Ein ähnliches Problem, mit interessanten Anwendungen in der Gestalt-Analyse, ist das orthogonale Problem von Procrustes, das daraus besteht, eine orthogonale Matrix zu finden, die am nächsten dazu kartografisch darstellt. Spezifisch,

:

\Omega=I, </Mathematik>

wo die Norm von Frobenius anzeigt.

Dieses Problem ist zur Entdeckung der nächsten orthogonalen Matrix zu einer gegebenen Matrix gleichwertig.

Der Kabsch Algorithmus

Der Kabsch Algorithmus (hat das Problem von Wahba in anderen Feldern genannt), verwendet SVD, um die optimale Folge zu schätzen (in Bezug auf die Am-Wenigsten-Quadratminimierung), der eine Reihe von Punkten auf einen entsprechenden Satz von Punkten ausrichten wird. Es wird unter anderen Anwendungen verwendet, um die Strukturen von Molekülen zu vergleichen.

Andere Beispiele

Der SVD wird auch umfassend auf die Studie von geradlinigen umgekehrten Problemen angewandt, und ist in der Analyse von regularization Methoden wie die von Tikhonov nützlich. Es wird in der Statistik weit verwendet, wo es mit der Hauptteilanalyse und mit der Ähnlichkeitsanalyse, und in der Signalverarbeitung und Muster-Anerkennung verbunden ist. Es wird auch in der Produktion-Only-modalen Analyse verwendet, wo die nichtschuppigen Weise-Gestalten von den einzigartigen Vektoren bestimmt werden können. Und doch ist ein anderer Gebrauch das latente semantische Indexieren in der Textverarbeitung der natürlichen Sprache.

Der SVD spielt auch eine entscheidende Rolle im Feld der Quant-Information in einer als die Zergliederung von Schmidt häufig gekennzeichneten Form. Dadurch werden Staaten von zwei Quant-Systemen natürlich zersetzt, eine notwendige und genügend Bedingung für sie zur Verfügung stellend, um verfangen zu werden: Wenn die Reihe der Matrix größer ist als eine.

Eine Anwendung von SVD zu ziemlich großem matrices ist in der numerischen Wettervorhersage, wo Methoden von Lanczos verwendet werden, um das am meisten geradlinig schnell Wachsen weniger Unruhen zur numerischen Hauptwettervorhersage im Laufe eines gegebenen anfänglichen Vorwärtszeitabschnitts - d. h. die einzigartigen Vektoren entsprechend den größten einzigartigen Werten des linearized Verbreiters für das globale Wetter über diesen Zeitabstand zu schätzen. Die Produktion einzigartige Vektoren ist in diesem Fall komplette Wettersysteme. Diese Unruhen werden dann das volle nichtlineare Modell durchbohrt, um eine Ensemble-Vorhersage zu erzeugen, einen Griff auf etwas von der Unklarheit gebend, die um die aktuelle Hauptvorhersage zugelassen werden sollte.

Eine andere Anwendung von SVD für das tägliche Leben ist, dass der Punkt in der Perspektiveansicht in einem Foto mit der berechneten SVD Matrix ungeplant werden kann, führt diese Anwendung zu Messlänge (a.k.a. die Entfernung von zwei ungeplanten Punkten im Perspektivefoto) durch das Bestimmen der 4 Eckpunkte des Gegenstands der bekannten Größe in einem einzelnen Foto. PRuler ist eine Demo, um diese Anwendung durch die Einnahme eines Fotos einer regelmäßigen Kreditkarte durchzuführen

Beziehung zur eigenvalue Zergliederung

Die einzigartige Wertzergliederung ist im Sinn sehr allgemein, dass sie auf jede M &times angewandt werden kann; n Matrix, wohingegen eigenvalue Zergliederung nur auf bestimmte Klassen des Quadrats matrices angewandt werden kann. Dennoch sind die zwei Zergliederungen verbunden.

In Anbetracht eines SVD der M, wie beschrieben, oben, halten die folgenden zwei Beziehungen:

:

M^ {*} M = V \Sigma^ {*} U^ {* }\\, U \Sigma V^ {*} =

V (\Sigma^ {*} \Sigma) V^ {* }\\,

</Mathematik>:

M M^ {*} = U \Sigma V^ {*} \, V \Sigma^ {*} U^ {*} =

U (\Sigma \Sigma^ {*}) U^ {*}. \,

</Mathematik>

Die rechten Seiten dieser Beziehungen beschreiben die eigenvalue Zergliederungen der Seiten der linken Hand. Folglich:

:* Die Säulen V (richtige einzigartige Vektoren) sind Eigenvektoren von

:* Die Säulen von U (hat einzigartige Vektoren verlassen), sind Eigenvektoren von

:* Die Nichtnullelemente von Σ (einzigartige Nichtnullwerte) sind die Quadratwurzeln der Nichtnull eigenvalues oder

des

Im speziellen Fall, dass M eine normale Matrix ist, die definitionsgemäß quadratisch sein muss, sagt der geisterhafte Lehrsatz, dass es unitarily diagonalized das Verwenden einer Basis von Eigenvektoren sein kann, so dass es für eine einheitliche Matrix U und eine Diagonalmatrix D geschrieben werden kann. Wenn M halbbestimmt auch positiv ist, ist die Zergliederung auch eine einzigartige Wertzergliederung.

Jedoch unterscheiden sich die eigenvalue Zergliederung und die einzigartige Wertzergliederung für ganze andere matrices M: Die eigenvalue Zergliederung ist, wo U nicht notwendigerweise einheitlich ist und D halbbestimmt nicht notwendigerweise positiv ist, während der SVD ist, wo Σ eine Diagonale positiv halbbestimmt ist, und U und V einheitliche matrices sind, die nicht notwendigerweise außer durch die MatrixM verbunden sind.

Existenz

Ein eigenvalue λ einer Matrix wird durch die algebraische Beziehung M u = λ u charakterisiert. Wenn M Hermitian ist, ist eine abweichende Charakterisierung auch verfügbar. Lassen Sie M ein echter n &times sein; n symmetrische Matrix. Definieren Sie f: R  R durch f (x) = x M x. Durch den äußersten Wertlehrsatz erreicht diese dauernde Funktion ein Maximum an einem u, wenn eingeschränkt, auf den geschlossenen Einheitsbereich |x  1\. Durch den Vermehrer-Lehrsatz von Lagrange, u befriedigt notwendigerweise

:

wo das nabla Symbol der del Maschinenbediener ist.

Eine kurze Berechnung zeigt, dass der obengenannte zu M u = λ u führt (die Symmetrie der M ist hier erforderlich). Deshalb ist λ der größte eigenvalue der M. Dieselbe auf der orthogonalen Ergänzung von u durchgeführte Berechnung gibt den folgenden größten eigenvalue und so weiter. Der komplizierte Fall von Hermitian ist ähnlich; dort f (x) = x* M x ist eine reellwertige Funktion 2n echte Variablen.

Einzigartige Werte sind darin ähnlich sie können algebraisch oder von abweichenden Grundsätzen beschrieben werden. Obwohl, verschieden vom eigenvalue Fall, Hermiticity oder der Symmetrie, der M nicht mehr erforderlich ist.

Diese Abteilung gibt diese zwei Argumente für die Existenz der einzigartigen Wertzergliederung.

Gestützt auf dem geisterhaften Lehrsatz

Lassen Sie M eine m-by-n Matrix mit komplizierten Einträgen sein. M*M ist halbbestimmt und Hermitian positiv. Durch den geisterhaften Lehrsatz, dort besteht eine einheitliche n-by-n Matrix V solch dass

:

wo D diagonal ist und positiver bestimmt. Teilung V passend, so können wir schreiben

:

\begin {bmatrix} V_1 ^* M^* M V_1 & V_1 ^* M^* M V_2 \\V_2 ^* M^* M V_1 & V_2 ^* M^* M V_2 \end {bmatrix }\

\begin {bmatrix} D & 0 \\0 & 0\end {bmatrix}.

</Mathematik>

Deshalb V*M*MV = D und V*M*MV = 0. Die letzten Mittel MV = 0.

Außerdem seitdem V, ist V*V = ich, V*V = ich und VV* + VV* = ich einheitlich.

Definieren Sie

:

Dann

:

Wir sehen, dass das fast das gewünschte Ergebnis ist, außer dass U und V im Allgemeinen, aber bloß Isometrien nicht einheitlich sind. Um das Argument zu beenden, muss man einfach diese matrices "ausfüllen", um unitaries zu erhalten. Zum Beispiel kann man solchen U dass wählen

:ist

einheitlich.

Definieren Sie:

\Sigma = \begin {bmatrix} \begin {bmatrix} D^ {1/2} & 0 \\0 & 0\end {bmatrix}

\\0

\end {bmatrix }\</Mathematik>

wo Extranullreihen hinzugefügt oder entfernt werden, um die Zahl von Nullreihen der Zahl von Säulen von U gleichkommen zu lassen. Dann

:\\0

\end {bmatrix} \begin {bmatrix} V_1 & V_2 \end {bmatrix} ^*

\begin {bmatrix} U_1 & U_2 \end {bmatrix} \begin {bmatrix} D^ {1/2} V_1^* \\0 \end {bmatrix }\

U_1 D^ {1/2} V_1^*

M,

</Mathematik>

der das gewünschte Ergebnis ist:

:

Bemerken Sie, dass das Argument mit diagonalizing MM* aber nicht M*M beginnen konnte (Das zeigt direkt, dass MM* und M*M dieselbe Nichtnull eigenvalues haben).

Gestützt auf der abweichenden Charakterisierung

Die einzigartigen Werte können auch als die Maxima von uMv, betrachtet als eine Funktion von u und v über besondere Subräume charakterisiert werden. Die einzigartigen Vektoren sind die Werte von u und v, wo diese Maxima erreicht werden.

Lassen Sie M eine M &times anzeigen; n Matrix mit echten Einträgen. Lassen Sie und zeigen Sie die Sätze der Einheit 2-Normen-Vektoren in R und R beziehungsweise an. Definieren Sie die Funktion

:

\sigma (u, v) = u^ {T} M v \,

</Mathematik>

für Vektoren u  und v . Betrachten Sie die Funktion σ als eingeschränkt auf &times;. da beide und Kompaktsätze sind, ist ihr Produkt auch kompakt. Außerdem, da σ dauernd ist, erreicht er einen größten Wert für mindestens ein Paar von Vektoren u  und v . Dieser größte Wert wird angezeigt σ und die entsprechenden Vektoren werden u und v angezeigt. Seitdem ist der größte Wert davon muss nichtnegativ sein. Wenn es negativ wäre, würde das Ändern des Zeichens entweder von u oder von v es positiv und deshalb größer machen.

Behauptung: u werden v verlassen und richtige einzigartige Vektoren der M mit dem entsprechenden einzigartigen Wert σ.

Beweis: Ähnlich dem eigenvalues Fall durch die Annahme befriedigen die zwei Vektoren die Vermehrer-Gleichung von Lagrange:

:

Nach einer Algebra wird das

:und:

Das Multiplizieren der ersten Gleichung vom linken durch und der zweiten Gleichung vom linken durch und die Einnahme || u = || v = 1 in die Rechnung geben

::

So σ = 2 λ = 2 λ. Durch Eigenschaften des funktionellen durch definierten φ

:

wir haben

:

Ähnlich

:

Das beweist die Behauptung.

Mehr einzigartige Vektoren und einzigartige Werte können durch die Maximierung σ (u, v) über normalisierten u, v gefunden werden, die zu u und v beziehungsweise orthogonal sind.

Der Durchgang vom echten bis Komplex ist dem eigenvalue Fall ähnlich.

Geometrische Bedeutung

Weil U und V einheitlich sind, wissen wir, dass die Säulen u..., u U eine orthonormale Basis von K und den Säulen v..., v nachgeben

V geben eine orthonormale Basis von K (in Bezug auf die Standardskalarprodukte auf diesen Räumen) nach.

Die geradlinige Transformation T: K  K, der einen Vektoren x zu Mx nimmt, hat eine besonders einfache Beschreibung in Bezug auf diese orthonormalen Basen: Wir haben T (v) = σ u, weil ich = 1..., Minute (M, n), wo σ der i-th diagonale Zugang von Σ und T (v) = 0 für i> die Minute (M, n) ist.

Der geometrische Inhalt des SVD Lehrsatzes kann so wie folgt zusammengefasst werden: für jede geradlinige Karte T: K  K kann man orthonormale Basen von K und K solch finden, dass T den i-th Basisvektoren von K zu einem nichtnegativen Vielfache des i-th Basisvektoren von K kartografisch darstellt, und die übrigen Basisvektoren an die Null sendet.

In Bezug auf diese Basen wird die Karte T deshalb durch eine Diagonalmatrix mit nichtnegativen echten diagonalen Einträgen vertreten.

Um einen mehr visuellen Geschmack nach einzigartigen Werten und SVD Zergliederung — mindestens zu bekommen, wenn man an echten Vektorräumen arbeitet — denken den Bereich S vom Radius ein in R. Die geradlinige Karte T stellt diesen Bereich auf ein Ellipsoid in R kartografisch dar. Einzigartige Nichtnullwerte sind einfach die Längen der Halbäxte dieses Ellipsoids. Besonders, wenn n=m und alle einzigartigen Werte verschieden sind und Nichtnull, kann der SVD der geradlinigen Karte T als eine Folge von drei Konsekutivbewegungen leicht analysiert werden: Denken Sie das Ellipsoid T (S) und spezifisch seine Äxte; dann betrachten Sie die Richtungen in R als gesandt durch T auf diese Äxte. Diese Richtungen sind zufällig gegenseitig orthogonal. Wenden Sie zuerst eine Isometrie v* das Senden dieser Richtungen zu den Koordinatenäxten von R an. Auf einer zweiten Bewegung, wenden Sie einen Endomorphismus d diagonalized entlang den Koordinatenäxten und dem Ausdehnen oder dem Schrumpfen in jeder Richtung, mit den Halbaxt-Längen von T (S) als das Ausdehnen von Koeffizienten an. Die Zusammensetzung dv* sendet dann den Einheitsbereich auf ein Ellipsoid, das zu T (S) isometrisch ist. Um die dritte und letzte Bewegung u zu definieren, wenden Sie eine Isometrie auf dieses Ellipsoid an, um es über T (S) zu tragen. Wie leicht überprüft werden kann, fällt die Komposition u dv* mit T zusammen.

Das Rechnen des SVD

Numerische Annäherung

Der SVD einer MatrixM wird normalerweise durch ein Zweipunktverfahren geschätzt. Im ersten Schritt wird die Matrix auf eine bidiagonal Matrix reduziert. Das nimmt O (mn) Schwimmpunkt-Operationen (Misserfolge), annehmend, dass M  n (verwendet diese Formulierung die große O Notation). Der zweite Schritt ist, den SVD der bidiagonal Matrix zu schätzen. Dieser Schritt kann nur mit einer wiederholenden Methode (als mit eigenvalue Algorithmen) getan werden. Jedoch in der Praxis genügt es, um den SVD bis zu einer bestimmten Präzision wie das Maschinenepsilon zu schätzen. Wenn diese Präzision unveränderlich betrachtet wird, dann nimmt der zweite Schritt O (n) Wiederholungen, jeder, O (n) Misserfolge kostend. So ist der erste Schritt teurer, und die gesamten Kosten sind O (mn) Misserfolge.

Der erste Schritt kann mit dem Wohnungsinhaber-Nachdenken für Kosten 4mn &minus getan werden; 4n/3-Misserfolge, annehmend, dass nur die einzigartigen Werte erforderlich sind und nicht die einzigartigen Vektoren. Wenn M viel größer ist als n dann, ist es vorteilhaft, zuerst die MatrixM auf eine Dreiecksmatrix mit der QR Zergliederung zu reduzieren und dann Wohnungsinhaber-Nachdenken zu verwenden, um weiter die Matrix auf die Bidiagonal-Form zu reduzieren; die vereinigten Kosten sind 2mn + 2n Misserfolge.

Der zweite Schritt kann durch eine Variante des QR Algorithmus für die Berechnung von eigenvalues getan werden, der zuerst dadurch beschrieben wurde. Der LAPACK Unterprogramm-DBDSQR führt diese wiederholende Methode mit einigen Modifizierungen durch, um den Fall zu bedecken, wo die einzigartigen Werte sehr klein sind. Zusammen mit einem ersten Schritt mit dem Wohnungsinhaber-Nachdenken und, wenn passend, QR Zergliederung, bildet das die DGESVD Routine für die Berechnung der einzigartigen Wertzergliederung.

Derselbe Algorithmus wird in GNU Scientific Library (GSL) durchgeführt. Der GSL bietet auch eine alternative Methode an, die einseitigen Jacobi orthogonalization im Schritt 2 verwendet. Diese Methode schätzt den SVD der bidiagonal Matrix durch das Lösen einer Folge von 2 durch 2 SVD Problemen, die dem ähnlich sind, wie der Algorithmus von Jacobi eigenvalue eine Folge 2 durch 2 eigenvalue Methoden löst. Und doch verwendet eine andere Methode für den Schritt 2 die Idee von teilen-und-überwinden eigenvalue Algorithmen.

Analytisches Ergebnis von 2 durch 2 SVD

Die einzigartigen Werte 2 durch 2 Matrix können analytisch gefunden werden. Lassen Sie die Matrix sein

wo komplexe Zahlen sind, die die Matrix parametrisieren, ist die Identitätsmatrix, und zeigen Sie Pauli matrices an. Dann werden seine zwei einzigartigen Werte durch gegeben

:

&= \sqrtz_0 |^2 + | z_1 |^2 + | z_2 |^2 + | z_3 |^2\pm2\sqrt {\

(\mathrm {Re} z_0z_1^ *)^2 + (\mathrm {Re} z_0z_2^ *)^2 + (\mathrm {Re} z_0z_3^ *)^2

+ (\mathrm {Im} z_1z_2^ *)^2 + (\mathrm {Im} z_2z_3^ *)^2 + (\mathrm {Im} z_3z_1^ * {richten})^2}}.\end </Mathematik> {aus}

Reduzierter SVDs

In Anwendungen ist es für den vollen SVD einschließlich einer vollen einheitlichen Zergliederung des ungültigen Raums der Matrix ziemlich ungewöhnlich, erforderlich zu sein. Statt dessen ist es häufig (sowie schneller genügend, und für die Lagerung mehr wirtschaftlich), eine reduzierte Version des SVD zu schätzen. Der folgende kann für m&times;n MatrixM der Reihe r bemerkenswert sein:

Dünner SVD

:

Nur die n Spaltenvektoren von U entsprechend den Zeilenvektoren von V* werden berechnet. Die restlichen Spaltenvektoren von U werden nicht berechnet. Das ist bedeutsam schneller und mehr wirtschaftlich als der volle SVD, wenn n so m&times;n ist, ist Σ n&times;n Diagonale, und V ist

n&times;n.

Die erste Stufe in der Berechnung eines dünnen SVD wird gewöhnlich eine QR Zergliederung der M sein, die für eine bedeutsam schnellere Berechnung wenn n machen kann

Nur die r Spaltenvektoren von U und r Zeilenvektoren von V* entsprechend den einzigartigen Nichtnullwerten Σ werden berechnet. Die restlichen Vektoren von U und V* werden nicht berechnet. Das ist schneller und mehr wirtschaftlich als der dünne SVD, wenn r so m&times;r ist, ist Σ r&times;r Diagonale, und V* ist

r&times;n.

Gestutzter SVD

:

Nur die t Spaltenvektoren von U und t Zeilenvektoren von V* entsprechend den t größten einzigartigen Werten Σ werden berechnet. Der Rest der Matrix wird verworfen. Das kann viel schneller und mehr wirtschaftlich sein als der kompakte SVD, wenn t so m&times;t ist, ist Σ t&times;t Diagonale, und V* ist t&times;n'.

Natürlich ist der gestutzte SVD nicht mehr eine genaue Zergliederung der ursprünglichen MatrixM, aber wie besprochen, oben, die ungefähre Matrix ist in einem sehr nützlichen Sinn die nächste Annäherung an die M, die durch eine Matrix der Reihe t erreicht werden kann.

Normen

Normen von Ky Fan

Die Summe der k größten einzigartigen Werte der M ist eine Matrixnorm, die K-Norm von Ky Fan der M.

Die erste von den Normen von Ky Fan, die 1 Norm von Ky Fan ist dasselbe als die Maschinenbediener-Norm der M als ein geradliniger Maschinenbediener in Bezug auf die Euklidischen Normen von K und K. Mit anderen Worten ist die 1 Norm von Ky Fan die Maschinenbediener-Norm, die durch den Standard l Euklidisches Skalarprodukt veranlasst ist. Deshalb wird es auch den 2-Normen-Maschinenbediener genannt. Man kann die Beziehung zwischen der 1 Norm von Ky Fan und den einzigartigen Werten leicht nachprüfen. Es ist im Allgemeinen, für einen begrenzten Maschinenbediener M auf (vielleicht unendlich dimensional) Räume von Hilbert wahr

:

Aber, im Matrixfall, ist M*M eine normale Matrix, so || ist M* M der größte eigenvalue von M* M, d. h. der größte einzigartige Wert der M.

Die letzte von den Normen von Ky Fan, die Summe aller einzigartigen Werte, ist die Spur-Norm (auch bekannt als die 'Kernnorm'), definiert durch || M = Tr [(M*M)] (sind die eigenvalues von M* M die Quadrate der einzigartigen Werte).

Norm von Hilbert-Schmidt

Die einzigartigen Werte sind mit einer anderen Norm auf dem Raum von Maschinenbedienern verbunden. Denken Sie das Skalarprodukt von Hilbert-Schmidt auf dem n &times; n matrices, definiert dadurch. So ist die veranlasste Norm. Da Spur invariant unter der einheitlichen Gleichwertigkeit ist, zeigt das

:

wo die einzigartigen Werte der M sind. Das wird die Norm von Frobenius, Schatten 2-Normen-, oder Norm von Hilbert-Schmidt der M genannt. Direkte Berechnung zeigt das wenn

:

die Norm von Frobenius der M fällt mit zusammen

:

Tensor SVD

Leider wird das Problem, eine niedrige Reihe-Annäherung an einen Tensor zu finden, schlecht-aufgestellt. Mit anderen Worten, dort besteht keine bestmögliche Lösung, aber stattdessen eine Folge besser und bessere Annäherungen, die zu ungeheuer großem matrices zusammenlaufen. Aber trotz dessen gibt es mehrere Weisen, diese Zergliederung zu versuchen.

Dort bestehen Sie zwei Typen von Tensor-Zergliederungen, die SVD zur mehrwegigen Reihe verallgemeinern. Eine Zergliederung zersetzt einen Tensor in eine Summe der Reihe 1 Tensor, sieh Algorithmus von Candecomp-PARAFAC (CP). Der BEDIENUNGSFELD-Algorithmus sollte mit einer Zergliederung der Reihe-R, aber für einen gegebenen N nicht verwirrt sein, er zersetzt sich ein Tensor in eine Summe von N reihen 1 Tensor auf, der optimal den ursprünglichen Tensor passt. Der zweite Typ der Zergliederung schätzt die orthonormalen Subräume, die mit den verschiedenen Äxten oder Weisen eines Tensor (orthonormaler Reihe-Raum, Spaltenraum, Faser-Raum, usw.) vereinigt sind. Auf diese Zergliederung wird in der Literatur als der Tucker3/TuckerM, die M Weise SVD, mehrgeradliniger SVD verwiesen und manchmal als ein höherwertiger SVD (HOSVD) gekennzeichnet. Außerdem ist die mehrgeradlinige Hauptteilanalyse im mehrgeradlinigen Subraum, der erfährt, mit denselben mathematischen Operationen wie Zergliederung von Tucker verbunden, in einem verschiedenen Zusammenhang der dimensionality Verminderung verwendet werden.

Begrenzte Maschinenbediener auf Räumen von Hilbert

Der factorization kann einem begrenzten Maschinenbediener M auf einem trennbaren Raum von Hilbert H erweitert werden. Nämlich, für jeden begrenzten Maschinenbediener M, dort bestehen Sie eine teilweise Isometrie U, ein einheitlicher V, ein Maß-Raum (X, μ), und ein nichtnegativer messbarer solcher f dass

:

wo die Multiplikation durch f auf L (X, μ) ist.

Das kann durch das Nachahmen des geradlinigen algebraischen Arguments für den matricial Fall oben gezeigt werden. VT V* ist die einzigartige positive Quadratwurzel von M*M, wie gegeben, durch den Borel funktionelle Rechnung für selbst adjoint Maschinenbediener. Der Grund, warum U nicht einheitlich zu sein braucht, besteht darin, weil, verschieden vom begrenzten dimensionalen Fall, in Anbetracht einer Isometrie U mit nicht der triviale Kern, ein passender U solch dass nicht gefunden werden darf

:

ist ein einheitlicher Maschinenbediener.

Bezüglich matrices ist der einzigartige Wert factorization zur polaren Zergliederung für Maschinenbediener gleichwertig: Wir können einfach schreiben

:

und bemerken Sie, dass U V* noch eine teilweise Isometrie ist, während VT V* positiv ist.

Einzigartige Werte und Kompaktmaschinenbediener

Um Begriff von einzigartigen Werten und left/right-singular Vektoren zum Maschinenbediener-Fall zu erweitern, muss man auf Kompaktmaschinenbediener einschränken. Es ist eine allgemeine Tatsache, dass Kompaktmaschinenbediener auf Banachräumen nur getrenntes Spektrum haben. Das ist auch für Kompaktmaschinenbediener auf Räumen von Hilbert wahr, da Räume von Hilbert ein spezieller Fall von Banachräumen sind. Wenn T kompakt ist, ist jede Nichtnull λ in seinem Spektrum ein eigenvalue. Außerdem kann ein kompakter selbst adjoint Maschinenbediener diagonalized durch seine Eigenvektoren sein. Wenn M kompakt ist, M*M auch. Das Diagonalization-Ergebnis anwendend, hat das einheitliche Image seiner positiven Quadratwurzel T eine Reihe orthonormaler Eigenvektoren {e} entsprechend ausschließlich positivem eigenvalues {σ}. Für jeden ψ  H,

:

\; M \psi = U T_f V^* \psi = \sum_i \langle U T_f V^* \psi, U e_i \rangle U e_i

\sum_i \sigma_i \langle \psi, V e_i \rangle U e_i,

</Mathematik>

wo die Reihe in der Norm-Topologie auf H zusammenläuft. Bemerken Sie, wie das dem Ausdruck vom begrenzten dimensionalen Fall ähnelt. Die σ 's werden die einzigartigen Werte von M. {U e} und {genannt V e} können als die nach links und richtig-einzigartigen Vektoren der M beziehungsweise betrachtet werden.

Kompaktmaschinenbediener auf einem Raum von Hilbert sind der Verschluss von Maschinenbedienern der begrenzten Reihe in der gleichförmigen Maschinenbediener-Topologie. Der obengenannte Reihe-Ausdruck gibt einem ausführlichen solche Darstellung. Eine unmittelbare Folge davon ist:

Lehrsatz-M ist kompakt, wenn, und nur wenn M*M kompakt ist.

Geschichte

Die einzigartige Wertzergliederung wurde durch das Differenzial geometers ursprünglich entwickelt, wer hat bestimmen wollen, ob eine echte bilineare Form gleich einem anderen durch unabhängige orthogonale Transformationen der zwei Räume gemacht werden konnte, denen es folgt. Eugenio Beltrami und Camille Jordan haben unabhängig, 1873 und 1874 beziehungsweise entdeckt, dass die einzigartigen Werte der bilinearen Formen, vertreten als eine Matrix, einen ganzen Satz von invariants für bilineare Formen unter orthogonalen Ersetzungen bilden. James Joseph Sylvester hat auch die einzigartige Wertzergliederung für das echte Quadrat matrices 1889, anscheinend unabhängig sowohl von Beltrami als auch von Jordan erreicht. Sylvester hat die einzigartigen Werte die kanonischen Vermehrer der Matrix A genannt. Der vierte Mathematiker, um die einzigartige Wertzergliederung zu entdecken, ist unabhängig Autonne 1915, der sie über die polare Zergliederung erreicht hat. Der erste Beweis der einzigartigen Wertzergliederung für rechteckigen und komplizierten matrices scheint, durch Carl Eckart und Gale Young 1936 zu sein; sie haben es als eine Generalisation der Hauptachse-Transformation für Hermitian matrices gesehen.

1907 hat Erhard Schmidt ein Analogon von einzigartigen Werten für integrierte Maschinenbediener definiert (die, unter einigen schwachen technischen Annahmen kompakt sind); es scheint, dass er die parallele Arbeit an einzigartigen Werten begrenzten matrices nicht gewusst hat. Diese Theorie wurde weiter von Émile Picard 1910 entwickelt, der erst ist, um die Zahlen einzigartige Werte (oder eher, valeurs singulières) zu nennen.

Praktische Methoden, für den SVD zu schätzen, gehen auf Kogbetliantz 1954, 1955 und Hestenes 1958 zurück. die Ähnlichkeit nah dem Algorithmus von Jacobi eigenvalue, der Flugzeug-Folgen oder Folgen von Givens verwendet. Jedoch wurden diese durch die Methode von Gene Golub und 1965 veröffentlichtem William Kahan ersetzt, der Wohnungsinhaber-Transformationen oder Nachdenken verwendet.

1970 haben Golub und Christian Reinsch eine Variante des Golub/Kahan Algorithmus veröffentlicht, der noch ein am meisten verwendeter heute ist.

Siehe auch

  • Kanonische Korrelationsanalyse (CCA)
  • Kanonische Form
  • Ähnlichkeitsanalyse (CA)
  • Fluch von dimensionality
  • Digitalsignal, das in einer Prozession geht
  • Die Dimensionsverminderung
  • Eigendecomposition
  • Empirische orthogonale Funktionen (EOFs)
  • Analyse von Fourier
  • Fourier-zusammenhängend gestaltet um
  • Verallgemeinerte einzigartige Wertzergliederung
  • Latente semantische Analyse
  • Das latente semantische Indexieren
  • Geradlinig kleinste Quadrate
  • Gegend empfindlicher hashing
  • Matrixzergliederung
  • Mehrgeradlinige Hauptteilanalyse (MPCA)
  • Am nächsten sucht Nachbar
  • Nichtlinear wiederholend teilweise kleinste Quadrate
  • Polare Zergliederung
  • Hauptteilanalyse (PCA)
  • Einzigartiger Wert
  • Zeitreihe
  • Zweidimensionale einzigartige Wertzergliederung (2DSVD)
  • die Spur-Ungleichheit von von Neumann
  • Elementarwelle-Kompression
  • Annäherung der niedrigen Reihe

Referenzen

Links

Durchführungen

Bibliotheken, die komplizierten und echten SVD unterstützen

  • LAPACK (Website), das Geradlinige Algebra-Paket. Das Benutzerhandbuch gibt Details von Unterprogrammen, um den SVD zu berechnen (sieh auch http://www.netlib.org/lapack/lug/node32.html).
  • LINPACK Z (Website), Geradlinige Algebra-Bibliothek. Ist durch LAPACK offiziell ersetzt worden, aber er schließt eine C Version von SVD für komplexe Zahlen ein.
  • Für die Pythonschlange-Programmiersprache:
  • NumPy (ist NumPy Modul für die numerische Computerwissenschaft mit der Reihe und matrices)
  • SciPy (enthält SciPy viele numerische Routinen)
  • NMath (NMath SVD Dokumentation) Mathematik und Statistikbibliotheken für.NET.

Bibliotheken, die echten SVD unterstützen

Für die Pythonschlange-Programmiersprache: NumPy (ist NumPy Modul für die numerische Computerwissenschaft mit der Reihe und matrices) SciPy (enthält SciPy viele numerische Routinen)
  • Gensim, effizienter randomized Algorithmus oben auf NumPy; verschieden von anderen Durchführungen, erlaubt SVD von matrices, der größer ist als RAM (zusätzlicher Online-SVD).
  • sparsesvd, Pythonschlange-Streifband von SVDLIBC.
  • SVD-Pythonschlange, reine Pythonschlange SVD unter dem GNU GPL.
  • ALGLIB, schließt einen teilweisen Hafen des LAPACK zu C ++, C#, Delphi, Visuell Grundlegend usw. ein.
  • JAMA, ein javanisches Matrixpaket durch den NIST zur Verfügung gestellt.
  • COLT, ein javanisches Paket für die Hohe Leistung Wissenschaftliche und Technische Computerwissenschaft, die durch CERN zur Verfügung gestellt ist.
  • Eigen, ein templated C ++ Durchführung.
  • redsvd, effizienter randomized Algorithmus oben auf C ++ Eigen.
  • PROPACK, schätzt den SVD von großem und spärlichem oder strukturiertem matrices, in Fortran 77.
  • SVDPACK, eine Bibliothek in ANSI FORTRAN das 77 Einführen vier wiederholender SVD Methoden. Schließt C und C ++ Schnittstellen ein.
  • SVDLIBC, das Neuschreiben von SVDPACK in C, mit geringen üblen Programmfehler-Lagen.
  • SVDLIBJ, ein javanischer Hafen von SVDLIBC. (Auch verfügbar als ein rechtskräftiger.jar ähnlicher SVDLIBC im S-Raumpaket)
  • SVDLIBC# hat sich SVDLIBC zu C#. umgewandelt
  • DANN-Teil des geradlinigen Algebra-Pakets der dANN javanischen Bibliothek der Künstlichen Intelligenz durch Syncleus, Inc.
  • GraphLab GraphLab zusammenarbeitende durchscheinende Bibliothek, in großem Umfang parallele Durchführung von SVD (in C ++) für den Mehrkern.

Texte und Demonstrationen

Lieder

  • Es musste U Sein ist ein Lied, das von Michael Greenacre über die einzigartige Wertzergliederung geschrieben ist, seine Definition und Rolle in der statistischen Dimensionsverminderung erklärend. Es wurde zuerst auf den gemeinsamen Sitzungen der 9. Tartu Konferenz für die Multivariate Statistik und 20. Internationalen Werkstatt auf Matrices und Statistics, in Tartu, Estland, Juni 2011 durchgeführt.

Triprolidine / Baiser
Impressum & Datenschutz