F-Test

Ein F-Test ist jeder statistische Test, in dem der statistische Test einen F-Vertrieb laut der ungültigen Hypothese hat.

Es wird meistenteils verwendet, wenn man statistische Modelle vergleicht, die zu einer Datei passend gewesen sind, um das Modell zu identifizieren, das am besten die Bevölkerung anpasst, von der die Daten probiert wurden. Genaue F-Tests entstehen hauptsächlich, als die Modelle zu den Daten mit kleinsten Quadraten passend gewesen sind. Der Name wurde von George W. Snedecor zu Ehren von Herrn Ronald A. Fisher ins Leben gerufen. Fisher hat am Anfang das statistische als das Abweichungsverhältnis in den 1920er Jahren entwickelt.

Allgemeine Beispiele von F-Tests

Beispiele von F-Tests schließen ein:

  • Die Hypothese, dass die Mittel von mehreren normalerweise Bevölkerungen, alles verteilt haben, dieselbe Standardabweichung habend, ist gleich. Das ist vielleicht der am besten bekannte F-Test, und spielt eine wichtige Rolle in der Analyse der Abweichung (ANOVA).
  • Die Hypothese, dass ein vorgeschlagenes Modell des rückwärts Gehens die Daten gut passt. Sieh Lack-fit Summe von Quadraten.
  • Die Hypothese, dass eine Datei in einer Regressionsanalyse den einfacheren von zwei vorgeschlagenen geradlinigen Modellen folgt, die innerhalb einander verschachtelt werden.
  • Die Methode von Scheffé für die vielfache Vergleich-Anpassung in geradlinigen Modellen.

F-Test der Gleichheit von zwei Abweichungen

Dieser F-Test ist zur Nichtnormalität äußerst empfindlich. In der Analyse der Abweichung (ANOVA) schließen alternative Tests den Test von Levene, den Test von Bartlett und den Test von Brown-Forsythe ein. Jedoch, wenn einige dieser Tests geführt wird, um die zu Grunde liegende Annahme von homoscedasticity (d. h. Gleichartigkeit der Abweichung) als ein einleitender Schritt zur Prüfung für Mitteleffekten zu prüfen, gibt es eine Zunahme in der mit dem Experiment klugen Fehlerrate des Typs I.

Formel und Berechnung

Die meisten F-Tests entstehen durch das Betrachten einer Zergliederung der Veränderlichkeit in einer Datenerfassung in Bezug auf Summen von Quadraten. Der in einem F-Test statistische Test ist das Verhältnis von zwei schuppigen Summen von Quadraten, die verschiedene Quellen der Veränderlichkeit widerspiegeln. Diese Summen von Quadraten werden gebaut, so dass das statistische dazu neigt, größer zu sein, wenn die ungültige Hypothese nicht wahr ist. In der Größenordnung vom statistischen, um dem F-Vertrieb laut der ungültigen Hypothese zu folgen, sollten die Summen von Quadraten statistisch unabhängig sein, und jeder sollte einem schuppigen chi-karierten Vertrieb folgen. Die letzte Bedingung wird versichert, wenn die Datenwerte unabhängig und normalerweise mit einer allgemeinen Abweichung verteilt sind.

Vielfacher Vergleich Probleme von ANOVA

Der F-Test in der Einweganalyse der Abweichung wird verwendet, um zu bewerten, ob sich die erwarteten Werte einer quantitativen Variable innerhalb von mehreren vorherbestimmten Gruppen von einander unterscheiden. Nehmen Sie zum Beispiel an, dass eine medizinische Probe vier Behandlungen vergleicht. Der F-Test von ANOVA kann verwendet werden, um zu bewerten, ob einige der Behandlungen durchschnittlich höher, oder zu anderen gegen die ungültige Hypothese untergeordnet ist, dass alle vier Behandlungen dieselbe Mittelantwort nachgeben. Das ist ein Beispiel eines "Sammel"-Tests, bedeutend, dass ein einzelner Test durchgeführt wird, um einigen von mehreren möglichen Unterschieden zu entdecken. Wechselweise konnten wir Pairwise-Tests unter den Behandlungen ausführen (zum Beispiel, im medizinischen Probe-Beispiel mit vier Behandlungen wir konnten sechs Tests unter Paaren von Behandlungen ausführen). Der Vorteil des F-Tests von ANOVA besteht darin, dass wir nicht voranzugeben brauchen, welche Behandlungen verglichen werden sollen, und wir uns nicht anzupassen brauchen, um vielfache Vergleiche zu machen. Der Nachteil des F-Tests von ANOVA ist, dass, wenn wir die ungültige Hypothese zurückweisen, wir nicht wissen, welche, wie man sagen kann, Behandlungen von anderen bedeutsam verschieden sind - wenn der F-Test am Niveau α durchgeführt wird, können wir nicht feststellen, dass das Behandlungspaar mit dem größten Mittelunterschied am Niveau α bedeutsam verschieden ist.

Die Formel für den statistischen EinwegF-Test von ANOVA ist

:oder:

Die "erklärte Abweichung", oder "Veränderlichkeit zwischen den Gruppen" ist

:

\sum_i n_i (\bar {Y} _ {i\cdot} - \bar {Y}) ^2 / (k-1)

</Mathematik>

wo anzeigt, dass sich die in mir bösartige Probe gruppiert, ist n die Zahl von Beobachtungen in der Ich-Gruppe, und zeigt die gesamten bösartigen von den Daten an.

Die "unerklärte Abweichung", oder "Veränderlichkeit innerhalb der Gruppe" ist

:

\sum_ {ij} (Y_ {ij}-\bar {Y} _ {i\cdot}) ^2 / (N-K),

</Mathematik>

wo Y die j Beobachtung in mir aus K Gruppen ist und N die gesamte Beispielgröße ist. Dieser F-statistic folgt dem F-Vertrieb mit K &minus; 1, N &minus;K Grade der Freiheit laut der ungültigen Hypothese. Das statistische wird groß sein, wenn die Veränderlichkeit zwischen den Gruppen hinsichtlich der Veränderlichkeit innerhalb der Gruppe groß ist, die kaum geschehen wird, wenn die Bevölkerungsmittel der Gruppen alle denselben Wert haben.

Bemerken Sie das, wenn es nur zwei Gruppen für den EinwegF-Test von ANOVA, F = t gibt

wo t der Student t statistisch ist.

Probleme des rückwärts Gehens

Denken Sie zwei Modelle, 1 und 2, wo Modell 1 innerhalb des Modells 2 'verschachtelt' wird. Modell 1 ist das Eingeschränkte Modell, und Modell 2 ist das Uneingeschränkte. D. h. Modell 1 hat p Rahmen, und Modell 2 hat p Rahmen, wo p &gt; p, und für jede Wahl von Rahmen im Modell 1 kann dieselbe Kurve des rückwärts Gehens durch etwas Wahl der Rahmen des Modells 2 erreicht werden. (Wir verwenden die Tagung, dass jeder unveränderliche Parameter in einem Modell eingeschlossen wird, wenn man die Rahmen aufzählt. Zum Beispiel hat das einfache geradlinige Modell y = mx + b p = 2 laut dieser Tagung.) Das Modell mit mehr Rahmen wird immer im Stande sein, die Daten mindestens sowie das Modell mit weniger Rahmen zu passen. So normalerweise wird Modell 2 einen besseren geben (d. h. Fehler senken) passend zu den Daten als Modell 1. Aber man will häufig bestimmen, ob Modell 2 einen bedeutsam besseren passenden den Daten gibt. Eine Annäherung an dieses Problem soll einen F-Test verwenden.

Wenn es n Datenpunkte gibt, um Rahmen von beiden Modellen davon zu schätzen, dann kann man das F statistische (Koeffizient des Entschlusses), gegeben durch berechnen

:

wo RSS die restliche Summe von Quadraten des Modells i ist. Wenn Ihr Modell des rückwärts Gehens mit Gewichten berechnet worden ist, dann RSS durch χ, die belastete Summe von kariertem residuals ersetzt. Laut der ungültigen Hypothese, dass Modell 2 keinen bedeutsam besseren passenden zur Verfügung stellt als Modell 1, F, wird einen F Vertrieb, mit (p  p, n  p) Grade der Freiheit haben. Die ungültige Hypothese wird zurückgewiesen, wenn der von den Daten berechnete F größer ist als der kritische Wert des F-Vertriebs für etwas gewünschte Wahrscheinlichkeit der falschen Verwerfung (z.B 0.05). Der F-Test ist ein Test von Wald.

Einwegbeispiel von ANOVA

Denken Sie, dass ein Experiment die Wirkung von drei verschiedenen Niveaus eines Faktors auf einer Antwort (z.B drei Niveaus eines Düngers auf dem Pflanzenwachstum) studiert. Wenn wir 6 Beobachtungen für jedes Niveau hatten, konnten wir das Ergebnis über das Experiment in einem Tisch wie das, wo a, a schreiben, und der drei Niveaus des Faktors zu sein, der wird studiert.

Die ungültige Hypothese, angezeigter H, für den gesamten F-Test auf dieses Experiment würden sein, dass alle drei Niveaus des Faktors dieselbe Antwort durchschnittlich erzeugen. Das F-Verhältnis zu berechnen:

Schritt 1: Berechnen Sie das bösartige innerhalb jeder Gruppe:

:

\begin {richten }\aus

\overline {Y} _1 & = \frac {1} {6 }\\summieren Y_ {1i} = \frac {6 + 8 + 4 + 5 + 3 + 4} {6} = 5 \\

\overline {Y} _2 & = \frac {1} {6 }\\summieren Y_ {2i} = \frac {8 + 12 + 9 + 11 + 6 + 8} {6} = 9 \\

\overline {Y} _3 & = \frac {1} {6 }\\summieren Y_ {3i} = \frac {13 + 9 + 11 + 8 + 7 + 12} {6} = 10

\end {richten }\aus

</Mathematik>

Schritt 2: Berechnen Sie das gesamte bösartige:

:

: wo der Zahl von Gruppen zu sein.

Schritt 3: Berechnen Sie die Summe "zwischen den Gruppen" von Quadraten:

: \begin {richten }\aus

S_B & = n (\overline {Y} _1-\overline {Y}) ^2 + n (\overline {Y} _2-\overline {Y}) ^2 + n (\overline {Y} _3-\overline {Y}) ^2 \\[8pt]

& = 6 (5-8)^2 + 6 (9-8)^2 + 6 (10-8)^2 = 84

\end {richten }\aus</Mathematik>

wo n die Zahl von Datenwerten pro Gruppe ist.

Die Grade zwischen den Gruppen der Freiheit sind derjenige weniger als die Zahl von Gruppen

:

so ist der Mittelquadratwert zwischen den Gruppen

:

Schritt 4: Berechnen Sie die Summe "innerhalb der Gruppe" von Quadraten. Beginnen Sie, indem Sie die Daten auf jede Gruppe in den Mittelpunkt stellen

Die Summe innerhalb der Gruppe von Quadraten ist die Summe von Quadraten aller 18 Werte in diesem Tisch

:

S_W = 1 + 9 + 1 + 0 + 4 + 1 + 1 + 9 + 0 + 4 + 9 + 1 + 9 + 1 + 1 + 4 + 9 + 4 = 68

</Mathematik>

Die Grade innerhalb der Gruppe der Freiheit sind

:

So ist der Mittelquadratwert innerhalb der Gruppe

:

Schritt 5: Das F-Verhältnis ist

:

Der kritische Wert ist die Zahl, die der statistische Test überschreiten muss, um den Test zurückzuweisen. In diesem Fall, F (2,15) = 3.68 an α = 0.05. Seitdem F = 9.3> 3.68 sind die Ergebnisse an der 5-%-Signifikanzebene bedeutend. Man würde die ungültige Hypothese zurückweisen, beschließend, dass es starke Beweise gibt, dass sich die erwarteten Werte in den drei Gruppen unterscheiden. Der P-Wert für diesen Test ist 0.002.

Nach dem Durchführen des F-Tests ist es üblich, etwas "post-hoc" Analyse der Gruppenmittel auszuführen. In diesem Fall unterscheiden sich die ersten zwei Gruppenmittel durch 4 Einheiten, die ersten und dritten Gruppenmittel unterscheiden sich durch 5 Einheiten, und die zweiten und dritten Gruppenmittel unterscheiden sich durch nur 1 Einheit. Der Standardfehler von jedem dieser Unterschiede ist. So ist die erste Gruppe von den anderen Gruppen stark verschieden, weil der Mittelunterschied mehr Male der Standardfehler ist, so können wir hoch überzeugt sein, dass sich die der ersten Gruppe bösartige Bevölkerung von den Bevölkerungsmitteln der anderen Gruppen unterscheidet. Jedoch gibt es keine Beweise, dass die zweiten und dritten Gruppen verschiedene Bevölkerungsmittel von einander haben, weil ihr Mittelunterschied einer Einheit mit dem Standardfehler vergleichbar ist.

Bemerken Sie, dass F (x, y) einen F-Vertrieb mit x Graden der Freiheit im Zähler und y Graden der Freiheit im Nenner anzeigt.

Die Robustheit von ANOVA in Bezug auf Fehler des Typs I für Abfahrten von der Bevölkerungsnormalität

Die Einweg-ANOVA kann zum factorial und den multivariate Lay-Outs, sowie zur Analyse der Kovarianz verallgemeinert werden. Keiner dieser F-Tests ist jedoch robust, wenn es strenge Übertretungen der Annahme gibt, dass jede Bevölkerung der Normalverteilung, besonders für kleine Alpha-Niveaus und unausgeglichene Lay-Outs folgt. Außerdem, wenn die zu Grunde liegende Annahme von homoscedasticity, die Fehlereigenschaften des Typs I degeneriert viel strenger verletzt wird. Für nichtparametrische Alternativen im factorial Lay-Out, sieh Sawilowsky. Weil mehr Diskussion ANOVA auf Reihen sieht.

Links


Julius Caesar (Richter) / Waschschüssel von Endorheic
Impressum & Datenschutz