Hauptteilanalyse

Hauptteilanalyse (PCA) ist ein mathematisches Verfahren, das eine orthogonale Transformation verwendet, um eine Reihe von Beobachtungen von vielleicht aufeinander bezogenen Variablen in eine Reihe von Werten linear unkorrelierter Variablen genannt Hauptbestandteile umzuwandeln. Die Zahl von Hauptbestandteilen ist weniger als oder gleich der Zahl von ursprünglichen Variablen. Diese Transformation wird auf solche Art und Weise definiert, dass der erste Hauptbestandteil die größtmögliche Abweichung hat (d. h. ist für so viel der Veränderlichkeit in den Daten wie möglich verantwortlich), und jeder folgende Bestandteil hat der Reihe nach die höchste unter der Einschränkung mögliche Abweichung dass es, zu orthogonal (d. h., mit unkorreliert sein), die vorhergehenden Bestandteile. Wie man versichert, sind Hauptbestandteile nur unabhängig, wenn die Datei gemeinsam normalerweise verteilt wird. PCA ist zum Verhältnisschuppen der ursprünglichen Variablen empfindlich. Abhängig vom Anwendungsbereich wird es auch den getrennten Karhunen-Loève verwandeln Sich (KLT) genannt, Hotelling verwandeln sich oder richtige orthogonale Zergliederung (POD).

PCA wurde 1901 von Karl Pearson erfunden. Jetzt wird es größtenteils als ein Werkzeug in der Forschungsdatenanalyse verwendet und um prophetische Modelle zu machen. PCA kann durch die eigenvalue Zergliederung einer Datenkovarianz (oder Korrelation) einzigartige oder Matrixwertzergliederung einer Datenmatrix, gewöhnlich nach dem Mittelzentrieren (und das Normalisieren oder Verwenden von Z-Hunderten) die Datenmatrix für jedes Attribut getan werden.. Die Ergebnisse eines PCA werden gewöhnlich in Bezug auf Teilhunderte, manchmal genannt Faktor-Hunderte (die umgestalteten variablen Werte entsprechend einem besonderen Datenpunkt), und loadings besprochen (das Gewicht, durch das jede standardisierte ursprüngliche Variable multipliziert werden sollte, um die Teilkerbe zu bekommen).

PCA ist von den wahren Eigenvektor-basierten Multivariate-Analysen am einfachsten. Häufig kann von seiner Operation als Aufdeckung der inneren Struktur der Daten in einem Weg gedacht werden, der am besten die Abweichung in den Daten erklärt. Wenn ein multivariate dataset als eine Reihe von Koordinaten in einem hoch-dimensionalen Datenraum vergegenwärtigt wird (1 Achse pro Variable), kann PCA den Benutzer mit einem niedrig-dimensionalen Bild, einem "Schatten" dieses Gegenstands, wenn angesehen, von seinem (in einem Sinn) informativster Gesichtspunkt versorgen. Das wird durch das Verwenden nur der ersten paar Hauptbestandteile getan, so dass der dimensionality der umgestalteten Daten reduziert wird.

PCA ist nah mit der Faktorenanalyse verbunden. Faktorenanalyse vereinigt normalerweise mehr Gebiet spezifische Annahmen über die zu Grunde liegende Struktur und löst Eigenvektoren einer ein bisschen verschiedenen Matrix.

Details

PCA wird als eine orthogonale geradlinige Transformation mathematisch definiert, die die Daten in ein neues solches Koordinatensystem umgestaltet, dass die größte Abweichung durch jeden Vorsprung der Daten kommt, um auf der ersten Koordinate zu liegen (hat den ersten Hauptbestandteil genannt), die zweite größte Abweichung auf der zweiten Koordinate, und so weiter.

Definieren Sie eine Datenmatrix, X, mit der Null empirisch bösartig (die empirische des Vertriebs bösartige (Probe) ist von der Datei abgezogen worden), wo jede der n Reihen eine verschiedene Wiederholung des Experimentes vertritt, und jede der M Säulen eine besondere Art der Gegebenheit gibt (sagen Sie die Ergebnisse von einer besonderen Untersuchung). (Bemerken Sie, dass X hier und nicht X selbst definiert wird, und was wir X nennen, wird häufig als X selbst wechselweise angezeigt.) Die einzigartige Wertzergliederung X ist X = WΣV, wo die M × M Matrix W ist die Matrix von Eigenvektoren der Kovarianz-Matrix XX, die Matrix Σ ist eine M × n rechteckige Diagonalmatrix mit nichtnegativen reellen Zahlen auf der Diagonale und der n × n Matrix V ist die Matrix von Eigenvektoren XX. Die PCA Transformation, die dimensionality bewahrt (d. h. gibt dieselbe Zahl von Hauptbestandteilen wie ursprüngliche Variablen) wird durch dann gegeben:

:\begin {richten }\aus

\mathbf {Y} ^\\Spitze & = \mathbf {X} ^\\top\mathbf {W} \\

& = \mathbf {V }\\mathbf {\\Sigma} ^\\top\mathbf {W} ^\\top\mathbf {W} \\

& = \mathbf {V }\\mathbf {\\Sigma} ^\\Spitze

\end {richten }\aus</Mathematik>

V wird im üblichen Fall wenn M &lt nicht einzigartig definiert; n &minus; 1, aber Y wird gewöhnlich noch einzigartig definiert. Seitdem W (definitionsgemäß des SVD einer echten Matrix) ist eine orthogonale Matrix, jede Reihe von Y ist einfach eine Folge der entsprechenden Reihe X. Die erste Säule von Y wird aus den "Hunderten" von den Fällen in Bezug auf den "Haupt"-Bestandteil zusammengesetzt, die folgende Säule hat die Hunderte in Bezug auf den "zweiten" Hauptbestandteil und so weiter.

Wenn wir eine reduzierte-dimensionality Darstellung wollen, können wir X unten in den reduzierten Raum vorspringen, der durch nur die ersten L einzigartigen Vektoren, W definiert ist:

: wo mit der rechteckigen Identitätsmatrix.

Die Matrix W einzigartiger Vektoren X ist gleichwertig die Matrix W von Eigenvektoren der Matrix von beobachteten Kovarianzen C = X X,

:

In Anbetracht einer Reihe von Punkten im Euklidischen Raum entspricht der erste Hauptbestandteil einer Linie, die das mehrdimensionale bösartige durchführt und die Summe von Quadraten der Entfernungen der Punkte von der Linie minimiert. Der zweite Hauptbestandteil entspricht demselben Konzept, nachdem die ganze Korrelation mit dem ersten Hauptbestandteil von den Punkten abgezogen worden ist. Die einzigartigen Werte (in Σ) sind die Quadratwurzeln des eigenvalues der Matrix XX. Jeder eigenvalue ist zum Teil der "Abweichung" proportional (richtiger der Summe der karierten Entfernungen der Punkte von ihrem mehrdimensionalen bösartigen), der mit jedem Eigenvektoren aufeinander bezogen wird. Die Summe des ganzen eigenvalues ist der Summe der karierten Entfernungen der Punkte von ihrem mehrdimensionalen bösartigen gleich. PCA lässt im Wesentlichen den Satz von Punkten um ihr bösartiges rotieren, um sich auf die Hauptbestandteile auszurichten. Das bewegt so viel der Abweichung wie möglich (eine orthogonale Transformation verwendend), in die ersten paar Dimensionen. Die Werte in den restlichen Dimensionen neigen deshalb dazu, klein zu sein, und können mit dem minimalen Verlust der Information fallen gelassen sein. PCA wird häufig auf diese Weise für die dimensionality Verminderung verwendet. PCA hat die Unterscheidung, die optimale orthogonale Transformation zu sein, für den Subraum zu behalten, der größte "Abweichung" (wie definiert, oben) hat. Dieser Vorteil kommt jedoch am Preis von größeren rechenbetonten Voraussetzungen, wenn verglichen, zum Beispiel und wenn anwendbar, zum getrennten Kosinus verwandeln sich. Nichtlineare dimensionality Verminderungstechniken neigen dazu, mehr rechenbetont anspruchsvoll zu sein, als PCA.

PCA ist zum Schuppen der Variablen empfindlich. Wenn wir gerade zwei Variablen haben und sie dieselbe Beispielabweichung haben und positiv aufeinander bezogen werden, dann wird der PCA eine Folge durch 45 ° zur Folge haben, und der "loadings" für die zwei Variablen in Bezug auf den Hauptbestandteil wird gleich sein. Aber wenn wir alle Werte der ersten Variable um 100 multiplizieren, dann wird der Hauptbestandteil fast dasselbe als diese Variable mit einem kleinen Beitrag von der anderen Variable sein, wohingegen der zweite Bestandteil fast nach der zweiten ursprünglichen Variable ausgerichtet wird. Das bedeutet, dass, wann auch immer die verschiedenen Variablen verschiedene Einheiten (wie Temperatur und Masse) haben, PCA eine etwas willkürliche Methode der Analyse ist. (Verschiedene Ergebnisse würden wenn ein verwendetes Fahrenheit aber nicht Celsius-zum Beispiel erhalten.) Bemerken Sie, dass das ursprüngliche Papier von Pearson "Auf Linien betitelt wurde und Flugzeuge von Nächsten, die zu Systemen von Punkten im Raum" - "im Raum" passend sind, physischen Euklidischen Raum einbezieht, wo solche Sorgen nicht entstehen. Eine Weise, das PCA weniger willkürliche zu machen, ist, erkletterte Variablen zu verwenden, um Einheitsabweichung zu haben.

Diskussion

Mittelsubtraktion (a.k.a. "haben Sie vor", im Mittelpunkt zu stehen), ist notwendig, um PCA durchzuführen, um sicherzustellen, dass der erste Hauptbestandteil die Richtung der maximalen Abweichung beschreibt. Wenn Mittelsubtraktion nicht durchgeführt wird, könnte der erste Hauptbestandteil stattdessen mehr oder weniger zu den bösartigen von den Daten entsprechen. Eine bösartige von der Null ist erforderlich, für eine Basis zu finden, die den Mittelquadratfehler der Annäherung der Daten minimiert.

Wenn man

Null empirisch bösartig annimmt (ist der empirische bösartige vom Vertrieb von der Datei abgezogen worden), kann der Hauptbestandteil w einer Datei X als definiert werden:

:

= \underset {\\Vert \mathbf {w} \Vert = 1\{\\operatorname {\\arg \, max} }\\, \operatorname {Var }\\{\mathbf {w} ^\\Spitze \mathbf {X} \}\

= \underset {\\Vert \mathbf {w} \Vert = 1\{\\operatorname {\\arg \, max} }\\, E\left\{\left (\mathbf {w} ^\\Spitze \mathbf {X }\\Recht) ^2 \right\} </Mathematik>

(Sieh arg max für die Notation.) Mit dem ersten k &minus; 1 Bestandteile, der kth Bestandteil kann durch das Abziehen der ersten Hauptbestandteile von X gefunden werden:

:

= \mathbf {X} -

\sum_ {ich = 1} ^ {k - 1 }\

\mathbf {w} _i \mathbf {w} _i^\\Spitze \mathbf {X} </Mathematik>

und durch das Ersetzen davon als die neue Datei, um einen Hauptbestandteil in zu finden

:

= \underset {\\Vert \mathbf {w} \Vert = 1\{\\operatorname {arg \, max} }\\, E\left\{\

\left (\mathbf {w} ^\\Spitze \mathbf {\\Hut {X}} _ {k - 1 }\

\right) ^2 \right\}. </Mathematik>

PCA ist zu empirischen orthogonalen Funktionen (EOF), ein Name gleichwertig, der in der Meteorologie verwendet wird.

Ein autoencoder Nervennetz mit einer geradlinigen verborgenen Schicht ist PCA ähnlich. Auf die Konvergenz werden die Gewicht-Vektoren der K Neurone in der verborgenen Schicht eine Basis für den durch die ersten K Hauptbestandteile abgemessenen Raum bilden. Verschieden von PCA wird diese Technik orthogonale Vektoren nicht notwendigerweise erzeugen.

PCA ist eine populäre primäre Technik in der Muster-Anerkennung. Es wird jedoch für die Klassentrennbarkeit nicht optimiert. Eine Alternative ist die geradlinige Diskriminanten-Analyse, die wirklich das in Betracht zieht.

Tisch von Symbolen und Abkürzungen

Eigenschaften und Beschränkungen von PCA

Wie bemerkt, oben hängen die Ergebnisse von PCA vom Schuppen der Variablen ab.

Die Anwendbarkeit von PCA wird durch bestimmte in seiner Abstammung gemachte Annahmen beschränkt.

Die Computerwissenschaft von PCA das Verwenden der Kovarianz-Methode

Der folgende ist ein Detaillieren von PCA das Verwenden der Kovarianz-Methode (sieh auch hier). Aber bemerken Sie, dass es besser ist, die einzigartige Wertzergliederung zu verwenden (Standardsoftware verwendend).

Die Absicht ist, eine gegebene Datei X der Dimension M zu einer alternativen Datei Y von der kleineren Dimension L umzugestalten. Gleichwertig bemühen wir uns, die Matrix Y zu finden, wo Y der Karhunen-Loève verwandeln Sich (KLT) der Matrix X ist:

:

Organisieren Sie die Datei

Nehmen Sie an, dass Sie Daten haben, die eine Reihe von Beobachtungen der M Variablen umfassen, und Sie die Daten reduzieren wollen, so dass jede Beobachtung mit nur L Variablen, L mit jedem Darstellen einer einzelnen gruppierten Beobachtung der M Variablen beschrieben werden kann.

  • Schreiben Sie als Spaltenvektoren, von denen jeder M Reihen hat.
  • Legen Sie die Spaltenvektoren in eine einzelne Matrix X von Dimensionen M &times; N.

Berechnen Sie das empirische bösartige

  • Finden Sie das empirische bösartige entlang jeder Dimension M = 1..., M.
  • Legen Sie die berechneten Mittelwerte in einen empirischen Mittelvektoren u von Dimensionen M &times; 1.

::

Berechnen Sie die Abweichungen vom bösartigen

Mittelsubtraktion ist ein integraler Bestandteil der Lösung zur Entdeckung einer Hauptteilbasis, die den Mittelquadratfehler minimiert, den Daten näher zu kommen. Folglich gehen wir weiter, indem wir die Daten wie folgt in den Mittelpunkt stellen:

  • Ziehen Sie den empirischen Mittelvektoren u aus jeder Säule der Datenmatrix X ab.
  • Versorgen Sie mittelabgezogene Daten in der M &times; N Matrix B.
::

:: wo h 1 &times ist; N Zeilenvektor von allen 1s:

:::

Finden Sie die Kovarianz-Matrix

  • Finden Sie die M &times; M empirische Kovarianz-Matrix C vom Außenprodukt der Matrix B mit sich:
::

:: wo

::: ist der erwartete Wertmaschinenbediener,

::: ist der Außenproduktmaschinenbediener und

::: ist das verbundene stellen Maschinenbediener um. Bemerken Sie, dass, wenn B völlig aus reellen Zahlen besteht, der in vielen Anwendungen, "verbunden der Fall ist, umstellen", ist dasselbe, weil der Stammkunde umstellt.

  • Bemerken Sie bitte, dass die Information in dieser Abteilung tatsächlich ein bisschen kraus ist. Außenprodukte gelten für Vektoren. Für Tensor-Fälle sollten wir Tensor-Produkte anwenden, aber die Kovarianz-Matrix in PCA ist eine Summe von Außenprodukten zwischen seinen Beispielvektoren; tatsächlich konnte es als B.B* vertreten werden. Sieh die Kovarianz-Matrixabteilungen auf der Diskussionsseite für mehr Information.

Finden Sie die Eigenvektoren und eigenvalues der Kovarianz-Matrix

  • Schätzen Sie die Matrix V von Eigenvektoren der diagonalizes die Kovarianz-Matrix C:
::

: wo D die Diagonalmatrix von eigenvalues von C ist. Dieser Schritt wird normalerweise den Gebrauch eines computergestützten Algorithmus für Recheneigenvektoren und eigenvalues einschließen. Diese Algorithmen sind als Teilelemente von den meisten Matrixalgebra-Systemen, wie R (Programmiersprache), MATLAB, Mathematica, SciPy, IDL (Interaktive Datensprache), oder GNU-Oktave sowie OpenCV sogleich verfügbar.

  • Matrix D wird die Form einer M &times annehmen; M Diagonalmatrix, wo
::

: ist der mth eigenvalue der Kovarianz-Matrix C und

des::
  • Matrix V, auch der Dimension M &times; M, enthält M Spaltenvektoren, jede der Länge M, die die M Eigenvektoren der Kovarianz-Matrix C vertreten.
  • Der eigenvalues und die Eigenvektoren werden bestellt und paarweise angeordnet. Der mth eigenvalue entspricht dem mth Eigenvektoren.

Ordnen Sie die Eigenvektoren und eigenvalues um

  • Sortieren Sie die Säulen der Eigenvektor-Matrix V und eigenvalue Matrix D in der Größenordnung vom Verringern eigenvalue.
  • Überzeugen Sie sich, um die richtige Paarung zwischen den Säulen in jeder Matrix aufrechtzuerhalten.

Schätzen Sie den kumulativen Energieinhalt für jeden Eigenvektoren

  • Die eigenvalues vertreten den Vertrieb der Quelldatenenergie unter jedem der Eigenvektoren, wo die Eigenvektoren eine Basis für die Daten bilden. Der kumulative Energieinhalt g für den mth Eigenvektoren ist die Summe des Energieinhalts über alle eigenvalues von 1 bis M:
::

Wählen Sie eine Teilmenge der Eigenvektoren als Basisvektoren aus

  • Sparen Sie die ersten L Säulen V als die M &times; L Matrix W:
::

: wo

::
  • Verwenden Sie den Vektoren g als ein Führer in der Auswahl eines passenden Werts für L. Die Absicht ist, einen Wert von L so klein wie möglich zu wählen, während sie einen vernünftig hohen Wert von g auf einer Prozentsatz-Basis erreicht. Zum Beispiel können Sie L wählen wollen, so dass die kumulative Energie g über einer bestimmten Schwelle wie 90 Prozent ist. Wählen Sie in diesem Fall den kleinsten Wert von solchem L dass
::

Wandeln Sie die Quelldaten zu Z-Hunderten um

  • Schaffen Sie eine M &times; 1 empirischer Standardabweichungsvektor s von der Quadratwurzel jedes Elements entlang der Hauptdiagonale der Kovarianz-Matrix C:
::
  • Berechnen Sie die M &times; N Z-Kerbe-Matrix:

:: (teilen Sie sich Element-für-Element)

  • Zeichen: Während dieser Schritt für verschiedene Anwendungen nützlich ist, weil er die Datei in Bezug auf seine Abweichung normalisiert, ist es nicht integraler Bestandteil von PCA/KLT

Planen Sie die Z-Hunderte von den Daten auf die neue Basis

  • Die geplanten Vektoren sind die Säulen der Matrix
::
  • W* ist das verbundene stellen von der Eigenvektor-Matrix um.
  • Die Säulen der Matrix Y vertreten den Karhunen-Loeve verwandelt Sich (KLT) der Datenvektoren in den Säulen der Matrix X.

Abstammung von PCA das Verwenden der Kovarianz-Methode

Lassen Sie X ein d-dimensional zufälliger als Spaltenvektor ausgedrückter Vektor sein. Ohne Verlust der Allgemeinheit, nehmen Sie X an hat bösartige Null.

Wir wollen eine orthonormale Transformationsmatrix P finden, so dass PX eine diagonale kovariante Matrix hat (d. h. PX ist ein zufälliger Vektor mit allen seinen verschiedenen Bestandteilen pairwise unkorreliert).

Eine schnelle Berechnung, die annimmt, war einheitliche Erträge:

:

\begin {Reihe} [t] {rcl }\

\operatorname {var} (PX)

&= &\\mathbb {E} [PX ~ (PX) ^ {\\Dolch}] \\

&= &\\mathbb {E} [PX~X^ {\\Dolch} P^ {\\Dolch}] \\

&= &P~ \mathbb {E} [XX^ {\\Dolch}] P^ {\\Dolch }\\\

&= &P~ \operatorname {cov} (X) P^ {-1 }\\\

\end {ordnen }\</Mathematik>

Folglich hält, ob, und nur wenn diagonalisable dadurch waren.

Das ist sehr konstruktiv, weil var (X) versichert wird, eine nichtnegative bestimmte Matrix zu sein, und so versichert wird, diagonalisable durch eine einheitliche Matrix zu sein.

Rechenhauptbestandteile effizient

Wiederholende Berechnung

In praktischen Durchführungen besonders mit hohen dimensionalen Daten (großer m) wird die Kovarianz-Methode selten verwendet, weil es nicht effizient ist. Eine Weise, den ersten Hauptbestandteil zu schätzen, wird effizient im folgenden Pseudocode, für eine Datenmatrix X mit der Null bösartig gezeigt, ohne jemals seine Kovarianz-Matrix zu schätzen. Bemerken Sie, dass hier eine Nullmitteldatenmatrix bedeutet, dass die Säulen X jeder bösartige Null haben sollten.

ein zufälliger Vektor

tun Sie c Zeiten:

(ein Vektor der Länge M)

für jede Reihe

geben Sie zurück

Dieser Algorithmus ist einfach eine effiziente Weise, XXp, das Normalisieren und Stellen des Ergebnisses zurück in p (Macht-Wiederholung) zu berechnen. Es vermeidet die nm Operationen, die Kovarianz-Matrix zu berechnen.

p wird normalerweise in der Nähe vom ersten Hauptbestandteil X innerhalb einer kleinen Zahl von Wiederholungen, c kommen. (Der Umfang von t wird nach jeder Wiederholung größer sein. Konvergenz kann entdeckt werden, wenn sie durch einen für die Präzision der Maschine zu kleinen Betrag zunimmt.)

Nachfolgende Hauptbestandteile können durch das Abziehen des Bestandteils p von X geschätzt werden (sieh Gramm-Schmidt), und dann diesen Algorithmus wiederholend, um den folgenden Hauptbestandteil zu finden. Jedoch ist diese einfache Annäherung nicht numerisch stabil, wenn mehr als eine kleine Zahl von Hauptbestandteilen erforderlich ist, weil Ungenauigkeiten in den Berechnungen die Schätzungen von nachfolgenden Hauptbestandteilen zusätzlich betreffen werden. Fortgeschrittenere Methoden bauen auf diese Grundidee, als mit dem nah zusammenhängenden Algorithmus von Lanczos.

Eine Weise, den eigenvalue zu schätzen, der jedem Hauptbestandteil entspricht, soll den Unterschied in der karierten Entfernung der Summe zwischen den Reihen und dem bösartigen, vorher und nach dem Abziehen des Hauptbestandteils messen. Der eigenvalue, der dem Bestandteil entspricht, der entfernt wurde, ist diesem Unterschied gleich.

Die NIPALS Methode

Für sehr hoch-dimensionalen datasets wie diejenigen, die in den *omics Wissenschaften (z.B, genomics, metabolomics) erzeugt sind, ist es gewöhnlich nur notwendig, die ersten paar PCs zu schätzen. Das nichtlineare wiederholende teilweise kleinste Quadrate (NIPALS) Algorithmus berechnet t und p' von X. Das Außenprodukt, tp' kann dann vom X Verlassen der restlichen Matrix E abgezogen werden. Das kann dann verwendet werden, um nachfolgende PCs zu berechnen. Das läuft auf die dramatische Verminderung in der rechenbetonten Zeit hinaus, da die Berechnung der Kovarianz-Matrix vermieden wird.

Online/folgende Bewertung

In einer "strömenden" oder "Online-"-Situation mit Daten, die stückweise ankommen, anstatt in einer einzelnen Gruppe versorgt zu werden, ist es nützlich, eine Schätzung des PCA Vorsprungs zu machen, der folgend aktualisiert werden kann. Das kann effizient getan werden, aber verlangt verschiedene Algorithmen.

Beziehung zwischen PCA und dem K-Mittel-Sammeln

Es ist kürzlich (2001,2004) gezeigt worden

dass die entspannte Lösung des K-Mittel-Sammelns, das durch die Traube-Hinweise angegeben ist, durch die PCA Hauptbestandteile gegeben wird, und der PCA durch die Hauptrichtungen abgemessene Subraum zur Traube centroid durch die Streuungsmatrix zwischen den Klassen angegebener Subraum identisch ist. So springt PCA automatisch zum Subraum vor, wo die globale Lösung des K-Mittel-Sammelns liegt, und so K-Mittel erleichtert, die sich sammeln, um nah-optimale Lösungen zu finden.

Ähnlichkeitsanalyse

Ähnlichkeitsanalyse (CA)

wurde von Jean-Paul Benzécri entwickelt

und ist PCA begrifflich ähnlich, aber erklettert die Daten (der nichtnegativ sein sollte), so dass Reihen und Säulen gleichwertig behandelt werden. Es wird auf Kontingenztabellen traditionell angewandt.

CA zersetzt das chi-karierte statistische, das zu diesem Tisch in orthogonale Faktoren vereinigt ist.

Weil CA eine beschreibende Technik ist, kann er auf Tische angewandt werden, für die das chi-karierte statistische passend ist oder nicht.

Mehrere Varianten von CA sind einschließlich der detrended Ähnlichkeitsanalyse und kanonischen Ähnlichkeitsanalyse verfügbar. Eine spezielle Erweiterung ist vielfache Ähnlichkeitsanalyse, die als die Kopie der Hauptteilanalyse für kategorische Daten gesehen werden kann.

Generalisationen

Nichtlineare Generalisationen

Die meisten modernen Methoden für die nichtlineare dimensionality Verminderung finden ihre theoretischen und algorithmischen Wurzeln in PCA oder K-Mitteln. Die ursprüngliche Idee von Pearson war, eine Gerade zu nehmen (oder Flugzeug), der "das beste passende" zu einer Reihe von Datenpunkten sein wird. Hauptkurven und Sammelleitungen geben das natürliche geometrische Fachwerk für die PCA Generalisation und erweitern die geometrische Interpretation von PCA durch das ausführliche Konstruieren einer eingebetteten Sammelleitung für die Datenannäherung, und durch die Verschlüsselung des Verwendens geometrischen Standardvorsprungs auf die Sammelleitung, weil es durch die Abb. illustriert wird

Siehe auch den elastischen Karte-Algorithmus und die geodätische Hauptanalyse.

Mehrgeradlinige Generalisationen

Im mehrgeradlinigen Subraumlernen wird PCA zu mehrgeradlinigem PCA (MPCA) verallgemeinert, dass Extrakte direkt von Tensor-Darstellungen zeigen. MPCA wird durch das Durchführen von PCA in jeder Weise des Tensor wiederholend gelöst. MPCA ist angewandt worden, um Anerkennung, Gehweise-Anerkennung usw. gegenüberzustehen. MPCA wird weiter zu unkorreliertem MPCA, nichtnegativem MPCA und robustem MPCA erweitert.

Höhere Ordnung

N-way Rektor Teilanalyse kann mit Modellen wie Zergliederung von Tucker, PARAFAC, vielfache Faktorenanalyse, Co-Trägheitsanalyse, STATIS und DISTATIS durchgeführt werden.

Robustheit - belasteter PCA

Während PCA die mathematisch optimale Methode findet (als in der Minderung des karierten Fehlers), ist es zu outliers in den Daten empfindlich, die große Fehler erzeugen, die PCA versucht zu vermeiden. Es ist deshalb übliche Praxis, um outliers vor der Computerwissenschaft von PCA zu entfernen. Jedoch, in einigen Zusammenhängen, kann outliers schwierig sein sich zu identifizieren. Zum Beispiel in Daten, die Algorithmen wie das Korrelationssammeln, die Anweisung von Punkten zu Trauben und outliers abbauen, ist im Voraus nicht bekannt. Eine kürzlich vorgeschlagene Generalisation von auf einem Belasteten PCA gestütztem PCA vergrößert Robustheit durch das Zuweisen verschiedener Gewichte auf ihrer geschätzten Relevanz gestützten Datengegenständen.

Code der Software/Quelle

  • Cornell Spectrum Imager - Eine offene Quelle toolset hat auf ImageJ gebaut. Ermöglicht schnelle leichte PCA Analyse für 3D datacubes.
  • freie imDEV Übertreffen Zusatzfunktion, um Hauptbestandteile mit R Paket pcaMethods zu berechnen.
  • "ViSta: Das Sehstatistiksystem" eine kostenlose Software, die Hauptteilanalyse, einfache und vielfache Ähnlichkeitsanalyse zur Verfügung stellt.
  • "Spectramap" ist Software, um einen biplot das Verwenden der Hauptteilanalyse, Ähnlichkeitsanalyse oder geisterhaften Karte-Analyse zu schaffen.
  • XLSTAT ist eine statistische und multivariate Analyse-Software einschließlich der Hauptteilanalyse unter anderen multivariate Werkzeugen.
  • FinMath, eine.NET numerische Bibliothek, die eine Durchführung von PCA enthält.
  • Der Unzerhacker ist ein multivariate Analyse-Softwareermöglichen Principal Component Analysis (PCA) mit dem PCA Vorsprung.
  • Computervisionsbibliothek
  • Im MATLAB Statistikwerkzeugkasten, den Funktionen und geben die Hauptbestandteile, während die Funktion den residuals und die wieder aufgebaute Matrix für eine niedrige Reihe PCA Annäherung gibt. Hier ist eine Verbindung zu einer MATLAB Durchführung von PCA.
  • In der NÖRGLER-Bibliothek wird Hauptteilanalyse über die Routine (verfügbar sowohl in Fortran als auch in den C Versionen der Bibliothek) durchgeführt.
  • NMath, eine numerische Eigentumsbibliothek, die PCA für das.NET Fachwerk enthält.
  • in der Oktave, eine kostenlose Software rechenbetonte mit MATLAB größtenteils vereinbare Umgebung, gibt die Funktion den Hauptbestandteil.
  • im freien statistischen Paket R, den Funktionen und kann für die Hauptteilanalyse verwendet werden; verwendet einzigartige Wertzergliederung, die allgemein bessere numerische Genauigkeit gibt. Kürzlich hat es eine Explosion in Durchführungen der Hauptteilanalyse in verschiedenen R Paketen allgemein in Paketen zu spezifischen Zwecken gegeben. Für eine mehr ganze Liste, sieh hier:
http://cran.r-project.org/web/views/Multivariate.html.

Siehe auch

  • Mehrgeradliniger PCA
  • Ähnlichkeitsanalyse
  • Eigenface
  • (Wikiversity)
  • Geometrische Datenanalyse
  • Factorial codieren
  • Unabhängige Teilanalyse
  • Kern PCA
  • Matrixzergliederung
  • Die nichtlineare dimensionality Verminderung
  • Die Regierung von Oja
  • Punkt-Vertriebsmodell (hat PCA für morphometry und Computervision gegolten)
  • Hauptteilrückwärts Gehen

Zeichen

Außenverbindungen


Schatten Zweifel / Schatten (1959-Film)
Impressum & Datenschutz