Faktorenanalyse

Faktorenanalyse ist eine statistische Methode, die verwendet ist, um Veränderlichkeit unter beobachteten, aufeinander bezogenen Variablen in Bezug auf eine potenziell niedrigere Zahl von unbemerkten Variablen zu beschreiben, genannt Faktoren. Mit anderen Worten ist es zum Beispiel möglich, dass Schwankungen in drei oder vier beobachteten Variablen hauptsächlich die Schwankungen in weniger solchen unbemerkten Variablen widerspiegeln. Faktorenanalyse sucht nach solchen gemeinsamen Schwankungen als Antwort auf unbemerkte latente Variablen. Die beobachteten Variablen werden als geradlinige Kombinationen der potenziellen Faktoren plus "Fehler"-Begriffe modelliert. Die Information, die über die gegenseitigen Abhängigkeiten zwischen beobachteten Variablen gewonnen ist, kann später verwendet werden, um den Satz von Variablen in einem dataset zu reduzieren. Rechenbetont ist diese Technik zur niedrigen Reihe-Annäherung der Matrix von beobachteten Variablen gleichwertig. Faktorenanalyse, die in psychometrics hervorgebracht ist, und wird in Verhaltenswissenschaften, Sozialwissenschaften, Marketing, Produktmanagement, Operationsforschung und anderen angewandten Naturwissenschaften verwendet, die sich mit großen Mengen von Daten befassen.

Faktorenanalyse ist mit der Hauptteilanalyse (PCA) verbunden, aber die zwei sind nicht identisch. Latente variable Modelle, einschließlich der Faktorenanalyse, verwenden Modellieren-Techniken des rückwärts Gehens, um Hypothesen zu prüfen, die Fehlerbegriffe erzeugen, während PCA eine beschreibende statistische Technik ist. Es hat bedeutende Meinungsverschiedenheit im Feld über den inequivocality der zwei Techniken gegeben (sieh Forschungsfaktorenanalyse gegen die Hauptteilanalyse).

Statistisches Modell

Definition

Nehmen Sie an, dass wir eine Reihe erkennbarer zufälliger Variablen mit Mitteln haben.

Denken Sie für einige unbekannte Konstanten und unbemerkte zufällige Variablen, wo und, wo

:

Hier des unabhängig verteilten Fehlers zu sein, nennt mit der begrenzten und bösartigen Nullabweichung, die dasselbe für alle nicht sein kann. Lassen Sie, so dass wir haben

:

In Matrixbegriffen haben wir

:

Wenn wir Beobachtungen haben, dann werden wir die Dimensionen haben, und. Jede Säule dessen und zeigt Werte für eine besondere Beobachtung an, und Matrix ändert sich über Beobachtungen nicht.

Auch wir werden die folgenden Annahmen dem auferlegen.

  1. und sind unabhängig.
  1. (um sicherzustellen, dass die Faktoren unkorreliert sind)

Jede Lösung des obengenannten Satzes von Gleichungen im Anschluss an die Einschränkungen dafür wird als die Faktoren, und als die ladende Matrix definiert.

Denken. Dann bemerken Sie, dass von den Bedingungen gerade darauf beeindruckt hat, haben wir

:oder:oder:

Bemerken Sie, dass für jede orthogonale Matrix, wenn wir untergehen und, die Kriterien, um Faktoren und Faktor loadings zu sein, noch halten. Folglich sind eine Reihe von Faktoren und Faktor loadings nur bis zu orthogonalen Transformationen identisch.

Beispiel

Das folgende Beispiel ist zu erklärenden Zwecken und sollte nicht genommen werden als, realistisch zu sein. Nehmen Sie an, dass ein Psychologe eine Theorie vorschlägt, dass es zwei Arten der Intelligenz gibt, "wörtliche Intelligenz" und "mathematische Intelligenz", von denen keiner direkt beobachtet wird. Beweise für die Theorie werden in den Überprüfungshunderten von jedem von 10 verschiedenen akademischen Feldern von 1000 Studenten gesucht. Wenn jeder Student zufällig aus einer großen Bevölkerung gewählt wird, dann sind die 10 Hunderte jedes Studenten zufällige Variablen. Die Theorie des Psychologen kann sagen, dass für jedes der 10 akademischen Felder die Kerbe über die Gruppe aller Studenten im Durchschnitt betragen hat, die sich teilen, ist ein allgemeines Paar von Werten für wörtlichen und mathematischen "intelligences" einige unveränderliche Male ihr Niveau der wörtlichen Intelligenz plus eine andere Konstante Zeiten ihr Niveau der mathematischen Intelligenz, d. h. es ist eine geradlinige Kombination jener zwei "Faktoren". Die Zahlen für ein besonderes Thema, durch das die zwei Arten der Intelligenz multipliziert werden, um die erwartete Kerbe zu erhalten, werden durch die Theorie postuliert, dasselbe für alle Nachrichtendienstniveau-Paare zu sein, und werden "Faktor loadings" nach diesem Thema genannt. Zum Beispiel kann die Theorie meinen, dass die Begabung des durchschnittlichen Studenten im Feld von amphibiology ist

: {10 × die wörtliche Intelligenz des Studenten} + {6 × die mathematische Intelligenz des Studenten}.

Die Nummern 10 und 6 sind der Faktor loadings vereinigt mit amphibiology. Andere akademische Themen können verschiedenen Faktor loadings haben.

Zwei Studenten, die identische Grade der wörtlichen Intelligenz und identische Grade der mathematischen Intelligenz haben, können verschiedene Begabungen in amphibiology haben, weil sich individuelle Begabungen von durchschnittlichen Begabungen unterscheiden. Dieser Unterschied wird den "Fehler" - ein statistischer Begriff genannt, der den Betrag bedeutet, durch den sich eine Person davon unterscheidet, was für seine oder ihre Niveaus der Intelligenz durchschnittlich ist (sieh Fehler und residuals in der Statistik).

Die erkennbaren Daten, die in Faktorenanalyse eintreten, würden 10 Hunderte von jedem der 1000 Studenten, insgesamt 10,000 Zahlen sein. Der Faktor loadings und die Niveaus der zwei Arten der Intelligenz jedes Studenten müssen aus den Daten abgeleitet werden.

Mathematisches Modell desselben Beispiels

Im Beispiel oben, weil ich = 1..., 1,000 die Hunderte des ith Studenten bin

:

\vdots & & \vdots & & \vdots & & \vdots & & \vdots \\

x_ {10, ich} & = & \mu_ {10} *1_ {1\times1000} & + & \ell_ {10,1} v_i & + & \ell_ {10,2} m_i & + & \varepsilon_ {10, ich }\

\end {Matrix} </Mathematik>

wo
  • x ist die Kerbe des ith Studenten für den kth Thema
  • ist die bösartigen von den Hunderten der Studenten für das Kth-Thema (angenommen, Null für die Einfachheit im Beispiel, wie beschrieben, oben zu sein, der sich auf eine einfache Verschiebung der Skala verwendet belaufen würde)
  • v ist die "wörtliche Intelligenz des ith Studenten",
  • M ist die "mathematische Intelligenz des ith Studenten",
  • sind der Faktor loadings für das Kth-Thema, für j = 1, 2.
  • ε ist der Unterschied zwischen der Kerbe des ith Studenten im Kth-Thema und der durchschnittlichen Kerbe im kth Thema aller Studenten, deren Niveaus der wörtlichen und mathematischen Intelligenz dasselbe als diejenigen des ith Studenten, sind

In der Matrixnotation haben wir

:wo
  • N ist 1000 Studenten
  • X ist 10 &times; 1,000 Matrix von erkennbaren zufälligen Variablen,
  • μ ist 10 &times; 1 Spaltenvektor von unbeobachtbaren Konstanten (in diesem Fall sind "Konstanten" Mengen, die sich nicht von einem individuellem Studenten zum folgenden unterscheiden; und "zufällige Variablen" sind diejenigen, die individuellen Studenten zugeteilt sind; die Zufälligkeit entsteht aus dem zufälligen Weg, auf den die Studenten gewählt werden),
  • L ist 10 &times; 2 Matrix des Faktors loadings (unbeobachtbare Konstanten, zehn akademische Themen, jeder mit zwei Nachrichtendienstrahmen, die Erfolg in diesem Thema bestimmen),
  • F ist 2 &times; 1,000 Matrix von unbeobachtbaren zufälligen Variablen (zwei Nachrichtendienstrahmen für jeden von 1000 Studenten),
  • ε ist 10 &times; 1,000 Matrix von unbeobachtbaren zufälligen Variablen.

Bemerken Sie, dass durch die Verdoppelung der Skala, auf der "wörtliche Intelligenz" - der erste Bestandteil in jeder Säule von F - gemessen wird, und gleichzeitig das Halbieren des Faktors loadings für die wörtliche Intelligenz keinen Unterschied zum Modell macht. So wird keine Allgemeinheit durch das Annehmen verloren, dass die Standardabweichung der wörtlichen Intelligenz 1 ist. Ebenfalls für die mathematische Intelligenz. Außerdem, aus ähnlichen Gründen, wird keine Allgemeinheit durch das Annehmen verloren, dass die zwei Faktoren mit einander unkorreliert sind. Die "Fehler" ε werden genommen, um von einander unabhängig zu sein. Wie man annimmt, sind die Abweichungen der mit den 10 verschiedenen Themen vereinigten "Fehler" nicht gleich.

Bemerken Sie, dass da jede Folge einer Lösung auch eine Lösung ist, macht das Interpretation der Faktoren schwierig. Sieh Nachteile unten. In diesem besonderen Beispiel, wenn wir im Voraus nicht wissen, dass die zwei Typen der Intelligenz dann unkorreliert sind, können wir nicht die zwei Faktoren als die zwei verschiedenen Typen der Intelligenz interpretieren. Selbst wenn sie unkorreliert sind, können wir nicht erzählen, welcher Faktor wörtlicher Intelligenz entspricht, und der mathematischer Intelligenz ohne ein Außenargument entspricht.

Die Werte des loadings L, die Durchschnitte μ, und die Abweichungen der "Fehler" ε müssen gegeben die beobachteten Daten X geschätzt werden, und F (wird die Annahme über die Niveaus der Faktoren für einen gegebenen F befestigt).

Praktische Durchführung

Typ der Faktorenanalyse

Forschungsfaktorenanalyse (EFA) wird verwendet, um die zu Grunde liegende Struktur eines relativ großen Satzes von Variablen aufzudecken. Die a priori Annahme des Forschers ist, dass jeder Hinweis mit jedem Faktor vereinigt werden kann. Das ist der grösste Teil der Standardform der Faktorenanalyse. Es gibt keine vorherige Theorie, und man verwendet Faktor loadings an intuit die Faktor-Struktur der Daten.

Bestätigende Faktorenanalyse (CFA) bemüht sich zu bestimmen, ob sich die Zahl von Faktoren und der loadings von gemessenen (Hinweis) Variablen auf ihnen dem anpassen, was auf der Grundlage von der vorfeststehenden Theorie erwartet wird. Anzeigevariablen werden auf der Grundlage von der vorherigen Theorie ausgewählt, und Faktorenanalyse wird verwendet, um zu sehen, ob sie, wie vorausgesagt, auf der erwarteten Zahl von Faktoren laden. Die a priori Annahme des Forschers ist, dass jeder Faktor (die Zahl, und dessen Etiketten a priori angegeben werden können) mit einer angegebenen Teilmenge von Anzeigevariablen vereinigt wird. Eine minimale Voraussetzung der bestätigenden Faktorenanalyse ist, dass man im Voraus die Zahl von Faktoren im Modell Hypothese aufstellt, aber gewöhnlich auch wird der Forscher Erwartungen postulieren, über die Variablen auf der Faktoren laden werden. Der Forscher bemüht sich, zum Beispiel zu bestimmen, wenn Maßnahmen, die geschaffen sind, um eine latente Variable wirklich zu vertreten, zusammengehören.

Typen des Factorings

Hauptteilanalyse (PCA): PCA sucht eine geradlinige Kombination von solchen Variablen, dass die maximale Abweichung aus den Variablen herausgezogen wird. Es entfernt dann diese Abweichung und sucht eine zweite geradlinige Kombination, die das maximale Verhältnis der restlichen Abweichung und so weiter erklärt. Das wird die Hauptachse-Methode genannt und läuft auf orthogonale (unkorrelierte) Faktoren hinaus.

Kanonische Faktorenanalyse, auch genannt das kanonische Factoring von Rao, ist eine verschiedene Methode, dasselbe Modell wie PCA zu schätzen, der die Hauptachse-Methode verwendet. Kanonische Faktorenanalyse sucht Faktoren, die die höchste kanonische Korrelation mit den beobachteten Variablen haben. Kanonische Faktorenanalyse ist durch das willkürliche Wiederschuppen der Daten ungekünstelt.

Analyse des gemeinsamen Faktors, auch genannt Hauptfaktorenanalyse (PFA) oder Hauptachse-Factoring (PAF), sucht kleinste Zahl von Faktoren, die für die allgemeine Abweichung (Korrelation) von einer Reihe von Variablen verantwortlich sein können.

Bildfactoring: Gestützt auf der Korrelationsmatrix von vorausgesagten Variablen aber nicht wirklichen Variablen, wo jede Variable von anderen mit dem vielfachen rückwärts Gehen vorausgesagt wird.

Alpha-Factoring: Gestützt auf der Maximierung der Zuverlässigkeit von Faktoren werden annehmende Variablen von einem Weltall von Variablen zufällig probiert. Alle anderen Methoden nehmen Fälle an, probiert zu werden, und Variablen befestigt.

Faktor-Modell des rückwärts Gehens: ein kombinatorisches Modell des Faktor-Modells und Modells des rückwärts Gehens; oder wechselweise kann es als das hybride Faktor-Modell angesehen werden, dessen Faktoren teilweise bekannt sind.

Fachsprache

Faktor loadings: Der Faktor loadings, auch genannt Bestandteil loadings in PCA, ist die Korrelationskoeffizienten zwischen den Variablen (Reihen) und Faktoren (Säulen). Analog dem r von Pearson ist das karierte Faktor-Laden das Prozent der Abweichung in dieser durch den Faktor erklärten Anzeigevariable. Um das Prozent der Abweichung in allen durch jeden Faktor verantwortlich gewesenen Variablen zu bekommen, fügen Sie die Summe des karierten Faktors loadings für diesen Faktor (Säule) hinzu und teilen Sie sich durch die Zahl von Variablen. (Bemerken Sie, dass die Zahl von Variablen der Summe ihrer Abweichungen gleichkommt, weil die Abweichung einer standardisierten Variable 1 ist.) Das ist dasselbe als das Teilen des eigenvalue des Faktors durch die Zahl von Variablen.

Interpretation des Faktors loadings: Durch eine Faustregel in der bestätigenden Faktorenanalyse sollte loadings.7 sein oder höher zu bestätigen, dass sich unabhängige Variablen identifiziert haben, a priori werden durch einen besonderen Faktor auf dem Grundprinzip vertreten, dass das.7 Niveau ungefähr Hälfte der Abweichung im Hinweis entspricht, der durch den Faktor wird erklärt. Jedoch ist der.7 Standard ein hoher, und wahre Daten können gut diesem Kriterium nicht entsprechen, das ist, warum einige Forscher, besonders zu Forschungszwecken, eine niedrigere Ebene solcher verwenden werden, wie.4 für den Hauptfaktor und.25 für andere Faktoren loadings über.6" hohen" und denjenigen unter.4" niedrigen nennen". Auf jeden Fall muss Faktor loadings im Licht der Theorie interpretiert werden, nicht durch willkürliche Abkürzungsniveaus.

In der schiefen Folge bekommt man sowohl eine Muster-Matrix als auch eine Struktur-Matrix. Die Struktur-Matrix ist einfach die Faktor-Laden-Matrix als in der orthogonalen Folge, die Abweichung in einer gemessenen Variable vertretend, die durch einen Faktor sowohl auf einer einzigartigen als auch auf allgemeinen Beitragsbasis erklärt ist. Die Muster-Matrix enthält im Gegensatz Koeffizienten, die gerade einzigartige Beiträge vertreten. Je mehr Faktoren, desto tiefer die Muster-Koeffizienten in der Regel da es allgemeinere Beiträge zur erklärten Abweichung geben wird. Für die schiefe Folge schaut der Forscher sowohl auf die Struktur als auch auf Muster-Koeffizienten, wenn er ein Etikett einem Faktor zuschreibt.

Communality: Die Summe des karierten Faktors loadings für alle Faktoren für eine gegebene Variable (Reihe) ist die Abweichung in dieser Variable, die durch alle Faktoren verantwortlich gewesen ist, und das wird den communality genannt. Der communality misst das Prozent der Abweichung in einer gegebenen Variable, die durch alle Faktoren gemeinsam erklärt ist, und kann als die Zuverlässigkeit des Hinweises interpretiert werden.

Unechte Lösungen: Wenn der communality 1.0 zu weit geht, gibt es eine unechte Lösung, die eine zu kleine Probe widerspiegeln kann oder der Forscher zu viele oder zu wenige Faktoren hat.

Einzigartigkeit einer Variable: D. h. Einzigartigkeit ist die Veränderlichkeit einer Variable minus sein communality.

Eigenvalues:/Characteristic Wurzeln: Der eigenvalue für einen gegebenen Faktor misst die Abweichung in allen Variablen, die durch diesen Faktor verantwortlich gewesen wird. Das Verhältnis von eigenvalues ist das Verhältnis der erklärenden Wichtigkeit von den Faktoren in Bezug auf die Variablen. Wenn ein Faktor einen niedrigen eigenvalue hat, dann trägt er wenig zur Erklärung von Abweichungen in den Variablen bei und kann als überflüssig mit wichtigeren Faktoren ignoriert werden. Eigenvalues messen den Betrag der Schwankung in der durch jeden Faktor verantwortlich gewesenen Gesamtauswahl.

Förderungssummen von kariertem loadings: Initiale eigenvalues und eigenvalues nach der Förderung (verzeichnet durch SPSS als "Förderungssummen von Kariertem Loadings") sind dasselbe für die PCA Förderung, aber für andere Förderungsmethoden eigenvalues nachdem wird Förderung niedriger sein als ihre anfänglichen Kollegen. SPSS druckt auch "Folge-Summen von Kariertem Loadings" und sogar für PCA, diese eigenvalues werden sich von der Initiale und Förderung eigenvalues unterscheiden, obwohl ihre Summe dasselbe sein wird.

Faktor-Hunderte (auch genannt Teilhunderte in PCA): Sind die Hunderte von jedem Fall (Reihe) auf jedem Faktor (Säule). Um die Faktor-Kerbe für einen gegebenen Fall für einen gegebenen Faktor zu schätzen, nimmt man die standardisierte Kerbe des Falls auf jeder Variable, multipliziert durch das entsprechende Faktor-Laden der Variable für den gegebenen Faktor, und summiert diese Produkte. Rechenfaktor-Hunderte erlauben, nach Faktor outliers zu suchen. Außerdem können Faktor-Hunderte als Variablen im nachfolgenden Modellieren verwendet werden.

Kriterien, für die Zahl von Faktoren zu bestimmen

Mit ein oder mehr von den Methoden unten bestimmt der Forscher eine passende Reihe von Lösungen nachzuforschen. Methoden können nicht zustimmen. Zum Beispiel kann das Kriterium von Kaiser fünf Faktoren andeuten, und der Schutt-Test kann zwei andeuten, so kann der Forscher 3-, 4-bitten, und 5-Faktoren-Lösungen jeden in Bezug auf ihre Beziehung zu Außendaten und Theorie besprechen.

Verständlichkeit: Ein rein subjektives Kriterium würde jene Faktoren behalten sollen, deren Bedeutung dem Forscher verständlich ist. Das wird nicht empfohlen.

Kriterium von Kaiser: Die Kaiser-Regel ist, alle Bestandteile mit eigenvalues unter 1.0 - dieser fallen zu lassen, das eigenvalue gleiche der durch einen durchschnittlichen einzelnen Artikel verantwortlich gewesenen Information seiend. Das Kaiser Kriterium ist der Verzug in SPSS und dem grössten Teil statistischen Software, aber wird wenn verwendet, als das alleinige Abkürzungskriterium nicht empfohlen, für die Zahl von Faktoren zu schätzen, weil es dazu neigt, Faktoren überherauszuziehen.

Abweichung hat Kriterien erklärt: Einige Forscher verwenden einfach die Regel, genug Faktoren zu behalten, um für 90 % (manchmal 80 %) der Schwankung verantwortlich zu sein. Wo die Absicht des Forschers Geiz betont (das Erklären der Abweichung mit so wenigen Faktoren wie möglich), konnte das Kriterium mindestens 50% sein

Schutt-Anschlag: Der Cattell Schutt-Test plant die Bestandteile als die X Achse und der entsprechende eigenvalues als die Y-Achse. Weil man sich nach rechts, zu späteren Bestandteilen, dem Eigenvalues-Fall bewegt. Wenn der Fall aufhört und die Kurve einen Ellbogen zum weniger steilen Niedergang macht, sagt der Schutt-Test von Cattell, alle weiteren Bestandteile nach demjenigen fallen zu lassen, der den Ellbogen anfängt. Diese Regel wird manchmal dafür kritisiert, zugänglich dem Forscher-kontrollierten "Ausweichen" zu sein. D. h. weil Auswahl des "Ellbogens" subjektiv sein kann, weil die Kurve vielfache Ellbogen hat oder eine glatte Kurve ist, der Forscher kann geneigt sein, die Abkürzung an der Zahl von durch seine oder ihre Forschungstagesordnung gewünschten Faktoren zu setzen.

Parallel Analysis (PA) des Hornes: Monte Carlo hat Simulierungsmethode gestützt, die den beobachteten eigenvalues mit denjenigen vergleicht, die bei unkorrelierten normalen Variablen erhalten sind. Ein Faktor oder Bestandteil werden behalten, wenn der verbundene eigenvalue größer ist, als der 95. vom Vertrieb von eigenvalues auf die zufälligen Daten zurückzuführen gewesen ist. PAPA ist eine von den meisten empfehlenswerten Regeln, für die Zahl von Bestandteilen zu bestimmen, um zu behalten, aber nur wenige Programme schließen diese Auswahl ein.

Vor dem Fallen eines Faktors unter jemandes Abkürzung, jedoch, sollte der Forscher seine Korrelation mit der abhängigen Variable überprüfen. Ein sehr kleiner Faktor kann eine große Korrelation mit der abhängigen Variable haben, in welchem Fall es nicht fallen gelassen sein sollte.

Folge-Methoden

Die rotieren ungelassene Produktion maximiert die Abweichung, die durch die ersten und nachfolgenden Faktoren und das Zwingen die Faktoren verantwortlich gewesen ist, orthogonal zu sein. Diese Datenkompression kommt auf Kosten von, den grössten Teil der Sache-Last auf den frühen Faktoren, und gewöhnlich zu haben, viele Sache-Last wesentlich auf mehr als einem Faktor zu haben. Folge dient, um die Produktion verständlicher, durch das Suchen so genannter "Einfacher Struktur" zu machen: Ein Muster von loadings, wo Sachen am stärksten auf einem Faktor, und viel schwächer auf den anderen Faktoren laden. Folgen können orthogonal oder (das Erlauben die Faktoren schief sein zu entsprechen).

Folge von Varimax ist eine orthogonale Folge der Faktor-Äxte, um die Abweichung des karierten loadings eines Faktors (Säule) auf allen Variablen (Reihen) in einer Faktor-Matrix zu maximieren, die die Wirkung hat, die ursprünglichen Variablen durch den herausgezogenen Faktor zu unterscheiden. Jeder Faktor wird dazu neigen, entweder großen oder kleinen loadings jeder besonderen Variable zu haben. Eine varimax Lösung gibt Ergebnisse nach, die es so leicht machen wie möglich, jede Variable mit einem einzelnen Faktor zu identifizieren. Das ist die allgemeinste Folge-Auswahl.

Folge von Quartimax ist eine orthogonale Alternative, die die Zahl von Faktoren minimiert, musste jede Variable erklären. Dieser Typ der Folge erzeugt häufig einen allgemeinen Faktor, auf dem die meisten Variablen zu einem hohen oder mittleren Grad geladen werden. Solch eine Faktor-Struktur ist gewöhnlich dem Forschungszweck nicht nützlich.

Folge von Equimax ist ein Kompromiss zwischen Kriterien von Varimax und Quartimax.

Direkte oblimin Folge ist die Standardmethode, wenn man eine nichtorthogonale (schiefe) Lösung - d. h. diejenige wünscht, in der den Faktoren erlaubt wird, aufeinander bezogen zu werden. Das wird höher eigenvalues, aber verringerter interpretability der Faktoren hinauslaufen. Sieh unten.

Folge von Promax ist eine alternative nichtorthogonale (schiefe) Folge-Methode, die rechenbetont schneller ist als die direkte oblimin Methode und manchmal deshalb für sehr großen datasets verwendet wird.

Faktorenanalyse in psychometrics

Geschichte

Charles Spearman hat für den Gebrauch der Faktorenanalyse im Feld der Psychologie den Weg gebahnt und wird manchmal die Erfindung der Faktorenanalyse zugeschrieben. Er hat entdeckt, dass die Hunderte von Schulkindern auf einem großen Angebot an Themen anscheinend ohne Beziehung positiv aufeinander bezogen wurden, der ihn dazu gebracht hat zu verlangen, dass eine allgemeine geistige Fähigkeit oder g, unterliegt und menschliche kognitive Leistung gestaltet. Sein Postulat genießt jetzt breite Unterstützung im Feld der Nachrichtendienstforschung, wo es als die g Theorie bekannt ist.

Raymond Cattell hat sich auf der Idee von Spearman von einer Zwei-Faktoren-Theorie der Intelligenz nach dem Durchführen seiner eigenen Tests und Faktorenanalyse ausgebreitet. Er hat eine Mehrfaktor-Theorie verwendet, Intelligenz zu erklären. Die Theorie von Cattell hat abwechselnde Faktoren in der intellektuellen Entwicklung, einschließlich der Motivation und Psychologie gerichtet. Cattell hat auch mehrere mathematische Methoden entwickelt, um psychometrische Graphen, wie sein "Schutt"-Test und Ähnlichkeitskoeffizienten anzupassen. Seine Forschung hat zur Entwicklung seiner Theorie der flüssigen und kristallisierten Intelligenz, sowie seiner 16 Persönlichkeitsfaktor-Theorie der Persönlichkeit geführt. Cattell war ein starker Verfechter der Faktorenanalyse und psychometrics. Er hat geglaubt, dass die ganze Theorie aus Forschung abgeleitet werden sollte, die den fortlaufenden Gebrauch der empirischen Beobachtung und des Ziels unterstützt zu prüfen, um menschliche Intelligenz zu studieren.

Anwendungen in der Psychologie

Faktorenanalyse wird verwendet, "um Faktoren" zu identifizieren, die eine Vielfalt von Ergebnissen auf verschiedenen Tests erklären. Zum Beispiel hat Nachrichtendienstforschung gefunden, dass Leute, die eine hohe Kerbe auf einem Test der wörtlichen Fähigkeit bekommen, auch auf anderen Tests gut sind, die wörtliche geistige Anlagen verlangen. Forscher haben das erklärt, indem sie Faktorenanalyse verwendet haben, um einen Faktor, häufig genannt kristallisierte Intelligenz oder wörtliche Intelligenz zu isolieren, die den Grad vertritt, zu dem jemand im Stande ist, Probleme zu beheben, die wörtliche Sachkenntnisse einschließen.

Die Faktorenanalyse in der Psychologie wird meistenteils mit der Nachrichtendienstforschung vereinigt. Jedoch ist es auch verwendet worden, um Faktoren in einer breiten Reihe von Gebieten wie Persönlichkeit, Einstellungen, Glaube usw. zu finden. Es wird mit psychometrics verbunden, weil es die Gültigkeit eines Instrumentes durch die Entdeckung bewerten kann, ob das Instrument tatsächlich die verlangten Faktoren misst.

Vorteile

  • Die Verminderung der Zahl von Variablen, durch das Kombinieren von zwei oder mehr Variablen in einen einzelnen Faktor. Zum Beispiel konnte die Leistung beim Laufen, Ball-Werfen, Schlagen, Springen und Gewichtheben in einen einzelnen Faktor wie allgemeine athletische Fähigkeit verbunden werden. Gewöhnlich, in einem Artikel durch die Menschenmatrix, werden Faktoren durch die Gruppierung verwandter Sachen ausgewählt. In der Q Faktorenanalyse-Technik wird die Matrix umgestellt, und Faktoren werden durch die Gruppierung verwandter Leute geschaffen: Zum Beispiel konnten Liberale, Anhänger der politischen Willens- und Handlungsfreiheit, Konservative und Sozialisten, getrennte Gruppen bilden.
  • Die Identifizierung von Gruppen von in Wechselbeziehung stehenden Variablen, um zu sehen, wie sie mit einander verbunden sind. Zum Beispiel hat Carroll Faktorenanalyse verwendet, um seine Drei Schicht-Theorie zu bauen. Er hat gefunden, dass sich ein Faktor genannt "breite Sehwahrnehmung" darauf bezieht, wie gut eine Person an Sehaufgaben ist. Er hat auch eine "breite Gehörwahrnehmung" Faktor in Zusammenhang mit der Gehöraufgabe-Fähigkeit gefunden. Außerdem hat er einen globalen Faktor, genannt "g" oder allgemeine Intelligenz gefunden, die sich sowohl auf "breite Sehwahrnehmung" als auch auf "breite Gehörwahrnehmung" bezieht. Das bedeutet, dass jemand mit einem hohen "g" wahrscheinlich sowohl eine hohe "Sehwahrnehmung" Fähigkeit als auch eine hohe "Gehörwahrnehmung" Fähigkeit haben wird, und dass "g" deshalb einen guten Teil dessen erklärt, warum jemand gut oder in beiden jener Gebiete schlecht ist.

Nachteile

  • "... jede Orientierung ist mathematisch ebenso annehmbar. Aber verschiedene factorial Theorien haben sich erwiesen, sich so viel in Bezug auf die Orientierungen von factorial Äxten für eine gegebene Lösung zu unterscheiden, wie in Bezug auf irgend etwas anderes, so dass sich Musteranprobe nicht erwiesen hat, im Unterscheiden unter Theorien nützlich zu sein." (Sternberg, 1977). Das bedeutet, dass alle Folgen verschiedene zu Grunde liegende Prozesse vertreten, aber alle Folgen sind ebenso gültige Ergebnisse der Standardfaktorenanalyse-Optimierung. Deshalb ist es unmöglich, die richtige Folge mit der Faktorenanalyse allein aufzupicken.
  • Faktorenanalyse kann nur so gut sein, wie die Daten erlauben. In der Psychologie, wo sich Forscher häufig auf weniger gültige und zuverlässige Maßnahmen wie Selbstberichte verlassen müssen, kann das problematisch sein.
  • Interpretation der Faktorenanalyse basiert auf dem Verwenden eines "heuristischen", der eine Lösung ist, die selbst wenn nicht absolut wahr "günstig ist". Mehr als eine Interpretation kann aus denselben Daten factored derselbe Weg gemacht werden, und Faktorenanalyse kann Kausalität nicht identifizieren.

Forschungsfaktorenanalyse gegen die Hauptteilanalyse

Es hat Meinungsverschiedenheit über den synonymity gegeben, mit dem Forschungsfaktorenanalyse und Hauptteilanalyse in einigen Feldern der Statistik behandelt werden (z.B. Fabrigar u. a. 1999; Suhr, 2009). In der Faktorenanalyse macht der Forscher die Annahme, dass ein zu Grunde liegendes kausales Modell besteht, wohingegen PCA einfach eine variable Verminderungstechnik ist. Forscher haben behauptet, dass die Unterscheidungen zwischen den zwei Techniken Rücksichten in der Beschäftigung einer Technik über den anderen verdienen.

Argumente, die PCA und EFA gegenüberstellen

Fabrigar u. a. (1999) richten mehrere Gründe, aus denen einige Forscher behaupten werden, dass Hauptteilanalyse als eine Version der Faktorenanalyse verwendet werden sollte:

  1. Es wird manchmal darauf hingewiesen, dass Hauptteilanalyse rechenbetont schneller ist und weniger Mittel verlangt als Faktorenanalyse. Fabrigar. weisen darauf hin, dass dieses Problem durch die riesengroßen Computermittel sogleich verfügbar heute freigesetzt wird.
  2. PCA und Faktorenanalyse können ähnliche Ergebnisse erzeugen. Dieser Punkt wird auch von Fabrigar gerichtet u. a.; in bestimmten Fällen, wodurch die communalities (z.B.40) niedrig sind, erzeugen die zwei Techniken doppelsinnige Ergebnisse nicht. Tatsächlich behaupten Fabrigar., dass in Fällen, wo die Daten Annahmen des Modells des gemeinsamen Faktors entsprechen, PCA genaue Ergebnisse nicht zur Verfügung stellt.
  3. Es gibt bestimmte Fälle, wodurch 'Fälle von Heywood' auf Faktorenanalyse hinauslaufen. Diese umfassen Situationen, wodurch, wie man schätzt, 100 % oder mehr von der Abweichung in einer gemessenen Variable durch das Modell verantwortlich gewesen werden. Fabrigar. weisen darauf hin, dass diese Fälle dem Forscher wirklich informativ sind, ein misspecified Modell oder eine Übertretung des Modells des gemeinsamen Faktors anzeigend. Der Mangel an Fällen von Heywood in der PCA-Annäherung kann dass solcher unbemerkter Problem-Pass bedeuten.
  4. Forscher gewinnen Extrainformation von einer PCA-Annäherung wie eine Kerbe einer Person auf einem bestimmten Bestandteil - solche Information wird von der Faktorenanalyse nicht nachgegeben. Jedoch, weil Fabrigar. kämpfen, verlangt das typische Ziel der Faktorenanalyse - d. h. die Faktoren zu bestimmen, die für die Struktur der Korrelationen zwischen gemessenen Variablen verantwortlich sind - Kenntnisse von Faktor-Hunderten nicht, und so wird dieser Vorteil verneint.

Abweichung gegen die Kovarianz

Faktorenanalyse zieht den zufälligen Fehler in Betracht, der zu psychologischen Forschungsmaßnahmen innewohnend ist, wohingegen PCA scheitert, so zu tun. Dieser Punkt wird von Brown (2009) veranschaulicht, wer dass, hinsichtlich der Korrelation matrices beteiligt an den Berechnungen angezeigt hat:

Deshalb Braun (2009) empfiehlt, Faktorenanalyse zu verwenden, wenn theoretische Ideen über Beziehungen zwischen Variablen bestehen, wohingegen PCA verwendet werden sollte, wenn die Absicht des Forschers ist, Muster in ihren Daten zu erforschen.

Unterschiede im Verfahren und den Ergebnissen

Die Unterschiede zwischen Hauptteilanalyse und Faktorenanalyse werden weiter von Suhr (2009) illustriert:

  • PCA läuft auf Hauptbestandteile hinaus, die für einen maximalen Betrag der Abweichung für beobachtete Variablen verantwortlich sind; FA sind für allgemeine Abweichung in den Daten verantwortlich.
  • PCA fügt auf den Diagonalen der Korrelationsmatrix ein; FA passt die Diagonalen der Korrelationsmatrix mit den einzigartigen Faktoren an.
  • PCA minimiert die Summe der karierten rechtwinkligen Entfernung zur Teilachse; FA schätzt Faktoren, die Antworten auf beobachteten Variablen beeinflussen.
  • Die Teilhunderte in PCA vertreten eine geradlinige Kombination der beobachteten durch Eigenvektoren beschwerten Variablen; die beobachteten Variablen in FA sind geradlinige Kombinationen des Untergebenen und der einzigartigen Faktoren.
  • In PCA sind die nachgegebenen Bestandteile uninterpretable, d. h. sie vertreten zu Grunde liegende 'Konstruktionen' nicht; in FA können die zu Grunde liegenden Konstruktionen etikettiert und sogleich interpretiert, eine genaue Musterspezifizierung gegeben werden.

Faktorenanalyse im Marketing

Die grundlegenden Schritte sind:

  • Identifizieren Sie sich die hervorspringenden Attribut-Verbraucher verwenden, um Produkte in dieser Kategorie zu bewerten.
  • Verwenden Sie quantitative Marktforschungstechniken (wie Überblicke), um Daten von einer Probe von potenziellen Kunden bezüglich ihrer Einschaltquoten aller Produktattribute zu sammeln.
  • Geben Sie die Daten in ein statistisches Programm ein und führen Sie das Faktorenanalyse-Verfahren. Der Computer wird eine Reihe zu Grunde liegender Attribute (oder Faktoren) nachgeben.
  • Verwenden Sie diese Faktoren, um Perceptual-Karten und andere Produktpositionierungsgeräte zu bauen.

Informationssammlung

Die Datenerfassungsbühne wird gewöhnlich von Marktforschungsfachleuten getan. Überblick-Fragen bitten den Befragten, eine Produktprobe oder Beschreibungen von Produktkonzepten auf einer Reihe von Attributen abzuschätzen. Überall von fünf bis zwanzig Attributen werden gewählt. Sie konnten Dinge einschließen wie: Bequemlichkeit von Gebrauch, Gewicht, Genauigkeit, Beständigkeit, Buntheit, Preis oder Größe. Die gewählten Attribute werden sich abhängig vom Produkt ändern, das wird studiert. Dieselbe Frage wird nach allen Produkten in der Studie gefragt. Die Daten für vielfache Produkte werden codiert und in ein statistisches Programm wie R, PSPP, SAS, Stata, STATISTICA, JMP und SYSTAT eingegeben.

Analyse

Die Analyse wird die zu Grunde liegenden Faktoren isolieren, die die Daten erklären. Faktorenanalyse ist eine Korrelationstechnik. Der ganze Satz von voneinander abhängigen Beziehungen wird untersucht. Es gibt keine Spezifizierung von abhängigen Variablen, unabhängigen Variablen oder Kausalität. Faktorenanalyse nimmt an, dass alle geltenden Daten auf verschiedenen Attributen unten auf einige wichtige Dimensionen reduziert werden können. Diese Verminderung ist möglich, weil die Attribute verbunden sind. Die irgendwelchem Attribut gegebene Schätzung ist teilweise das Ergebnis des Einflusses anderer Attribute. Der statistische Algorithmus dekonstruiert die Schätzung (hat eine rohe Kerbe genannt) in seine verschiedenen Bestandteile, und baut die teilweisen Hunderte in zu Grunde liegende Faktor-Hunderte wieder auf. Der Grad der Korrelation zwischen der anfänglichen rohen Kerbe und der Endfaktor-Kerbe wird ein Faktor-Laden genannt.

Vorteile

  • Sowohl objektive als auch subjektive Attribute können verwendet werden, vorausgesetzt dass die subjektiven Attribute in Hunderte umgewandelt werden können
  • Faktorenanalyse kann verwendet werden, um verborgene Dimensionen oder Konstruktionen zu identifizieren, die aus der direkten Analyse nicht offenbar sein können
  • Es ist leicht und billig, um zu tun

Nachteile

  • Nützlichkeit hängt von der Fähigkeit der Forscher ab, einen genügend Satz von Produktattributen zu sammeln. Wenn wichtige Attribute verpasst werden, wird der Wert des Verfahrens reduziert.
  • Wenn Sätze von beobachteten Variablen einander hoch ähnlich und von anderen Sachen verschieden sind, wird Faktorenanalyse einen einzelnen Faktor ihnen zuteilen. Das kann es härter machen, Faktoren zu identifizieren, die interessantere Beziehungen gewinnen.
  • Das Namengeben der Faktoren kann Hintergrundkenntnisse oder Theorie verlangen, weil vielfache Attribute aus keinem offenbaren Grund hoch aufeinander bezogen werden können.

Faktorenanalyse in physischen Wissenschaften

Faktorenanalyse ist auch in physischen Wissenschaften wie Geochemie, Ökologie und Hydrochemie weit verwendet worden.

Im Grundwasser-Qualitätsmanagement ist es wichtig, den Raumvertrieb von verschiedenem chemischem zu verbinden

Rahmen zu verschiedenen möglichen Quellen, die verschiedene chemische Unterschriften haben. Zum Beispiel wird eine Sulfid-Mine wahrscheinlich mit hohen Niveaus von Säure, aufgelösten Sulfaten und Übergang-Metallen vereinigt. Diese Unterschriften können als Faktoren durch die R-Weise-Faktorenanalyse identifiziert werden, und die Position von möglichen Quellen kann durch das Umreißen von den Faktor-Hunderten angedeutet werden.

In der Geochemie können verschiedene Faktoren verschiedenen Mineralvereinigungen, und so zu mineralisation entsprechen.

Faktorenanalyse in der Mikroreihe-Analyse

Faktorenanalyse kann verwendet werden, um zusammenzufassen, dichte oligonucleotide DNA ordnet Daten am Untersuchungsniveau für Affymetrix GeneChips mikro. In diesem Fall entspricht die latente Variable der RNS-Konzentration in einer Probe.

Durchführung

Faktorenanalyse ist in mehreren statistischen Analyse-Programmen seit den 1980er Jahren durchgeführt worden: SAS, BMDP und SPSS.

Es wird auch auf der R Programmiersprache (mit der Factanal-Funktion) und in OpenOpt durchgeführt.

Folgen werden im GPArotation R Paket durchgeführt.

Siehe auch

Produktmanagement
  • Q Methodik
  • Empfehlungssystem

Weiterführende Literatur

  • Fabrigar, L. R., Wegener, D. T., MacCallum, R. C., & Strahan, E. J. (1999). Das Auswerten des Gebrauches der Forschungsfaktorenanalyse in der psychologischen Forschung. Psychologische Methoden, 4 (3), 272-299.

Links

  • Faktorenanalyse. Wiederbekommen am 23. Juli 2004, von
http://www2.chass.ncsu.edu/garson/pa765/factor.htm
  • Raymond Cattell. Wiederbekommen am 22. Juli 2004, von
http://www.indiana.edu/~intell/rcattell.shtml
  • Forschungsfaktorenanalyse - Ein Buchmanuskript durch Tucker, L. & MacCallum R. (1993). Wiederbekommen am 8. Juni 2006, von:
http://www.unc.edu/~rcm/book/factornew.htm
  • Garson, G. David, "Faktorenanalyse," von Statnotes: Themen in der Multivariate Analyse. Wiederbekommen am 13. April 2009 von
http://www2.chass.ncsu.edu/garson/pa765/statnote.htm

Fernsehen und FM DX / Kamarilla (Begriffserklärung)
Impressum & Datenschutz