Statistische Schlussfolgerung

In der Statistik ist statistische Schlussfolgerung der Prozess, Schlüsse vom Datenthema bis zufällige Schwankung, zum Beispiel, Beobachtungsfehler zu ziehen oder Schwankung zu probieren. Mehr wesentlich, die Begriffe statistische Schlussfolgerung, statistische Induktion und zu folgernde Statistik werden verwendet, um Systeme von Verfahren zu beschreiben, die verwendet werden können, um Schlüsse aus datasets zu ziehen, der aus Systemen entsteht, die durch die zufällige Schwankung, wie Beobachtungsfehler, die zufällige Stichprobenerhebung oder das zufällige Experimentieren betroffen sind. Anfängliche Voraussetzungen solch eines Systems von Verfahren für die Schlussfolgerung und Induktion sind, dass das System angemessene Antworten, wenn angewandt, auf bestimmte Situationen erzeugen sollte, und dass es allgemein genug sein sollte, um über eine Reihe von Situationen angewandt zu werden.

Das Ergebnis der statistischen Schlussfolgerung kann eine Antwort auf die Frage sein "was sollte als nächstes getan werden?" wo das eine Entscheidung über das Bilden weiterer Experimente oder Überblicke, oder über das Ziehen eines Schlusses vor dem Einführen etwas organisatorischer oder Regierungspolitik sein könnte.

Einführung

Spielraum

Größtenteils macht statistische Schlussfolgerung Vorschläge über Bevölkerungen mit Daten, die von der Bevölkerung von Interesse über eine Form der zufälligen Stichprobenerhebung gezogen sind. Mehr allgemein, Daten über einen Zufallsprozess wird bei seinem beobachteten Verhalten während einer begrenzten Zeitspanne erhalten. In Anbetracht eines Parameters oder Hypothese, über die Schlussfolgerung machen möchte, verwendet statistische Schlussfolgerung meistenteils:

  • ein statistisches Modell des Zufallsprozesses, der die Daten erzeugen soll, der bekannt ist, als randomization, und verwendet worden ist
  • eine besondere Verwirklichung des Zufallsprozesses; d. h., eine Reihe von Daten.

Der Beschluss einer statistischen Schlussfolgerung ist ein statistischer Vorschlag. Einige Standardformen des statistischen Vorschlags sind:

  • eine Schätzung; d. h., ein besonderer Wert, der am besten einem Parameter von Interesse, näher kommt
  • ein Vertrauensintervall (oder Satz-Schätzung); d. h. ein Zwischenraum hat das Verwenden eines von einer Bevölkerung gezogenen dataset gebaut, so dass, unter der wiederholten Stichprobenerhebung solchen datasets, solche Zwischenräume den wahren Parameter-Wert mit der Wahrscheinlichkeit am festgesetzten Vertrauensniveau, enthalten würden
  • ein glaubwürdiger Zwischenraum; d. h., eine Reihe von Werten, die, zum Beispiel, 95 % des späteren Glaubens, enthält
  • Verwerfung einer Hypothese
  • das Sammeln oder Klassifikation von Daten weist in Gruppen hin

Vergleich zur beschreibenden Statistik

Statistische Schlussfolgerung ist allgemein von der beschreibenden Statistik bemerkenswert. In einfachen Begriffen kann von beschreibender Statistik als seiend gerade eine aufrichtige Präsentation von Tatsachen gedacht werden, in denen das Modellieren von von einem Datenanalytiker getroffenen Entscheidungen minimalen Einfluss gehabt hat.

Modelle/Annahmen

Jede statistische Schlussfolgerung verlangt einige Annahmen. Ein statistisches Modell ist eine Reihe von Annahmen bezüglich der Generation der beobachteten Daten und ähnlichen Daten. Beschreibungen von statistischen Modellen betonen gewöhnlich die Rolle von Bevölkerungsmengen von Interesse, über die wir Schlussfolgerung ziehen möchten.

Grad von Modellen/Annahmen

Statistiker unterscheiden zwischen drei Niveaus des Modellierens von Annahmen;

  • Völlig parametrisch: Wie man annimmt, wird der Wahrscheinlichkeitsvertrieb, der den Datenerzeugungsprozess beschreibt, von einer Familie des Wahrscheinlichkeitsvertriebs völlig beschrieben, der mit nur einer begrenzten Zahl von unbekannten Rahmen verbunden ist. Zum Beispiel kann man annehmen, dass der Vertrieb von Bevölkerungswerten, mit dem unbekannten bösartig und Abweichung aufrichtig Normal ist, und dass datasets durch 'die einfache' zufällige Stichprobenerhebung erzeugt werden. Die Familie von verallgemeinerten geradlinigen Modellen ist eine weit verwendete und flexible Klasse von parametrischen Modellen.
  • Nichtparametrisch: Die Annahmen, die über den Prozess gemacht sind, der die Daten erzeugt, sind viel weniger als in der parametrischen Statistik und können minimal sein. Zum Beispiel hat jeder dauernde Wahrscheinlichkeitsvertrieb eine Mittellinie, die mit der Beispielmittellinie oder dem Vorkalkulatoren von Hodges-Lehmann-Sen geschätzt werden kann, der gute Eigenschaften hat, wenn die Daten aus der einfachen zufälligen Stichprobenerhebung entstehen.
  • Halbparametrisch: Dieser Begriff bezieht normalerweise Annahmen 'zwischen' völlig und nichtparametrische Annäherungen ein. Zum Beispiel kann man annehmen, dass ein Bevölkerungsvertrieb einen begrenzten bösartigen hat. Außerdem kann man annehmen, dass der Mittelansprechwert in der Bevölkerung auf eine aufrichtig geradlinige Weise von einem covariate abhängt (eine parametrische Annahme), aber nicht machen jede parametrische Annahme, die die Abweichung um diesen bösartigen (d. h., über die Anwesenheit oder mögliche Form jedes heteroscedasticity) beschreibt. Mehr allgemein können halbparametrische Modelle häufig in 'die strukturelle' und 'zufällige Schwankung' Bestandteile getrennt werden. Ein Bestandteil wird parametrisch und der andere nichtparametrisch behandelt. Das wohl bekannte Modell von Cox ist eine Reihe halbparametrischer Annahmen.

Wichtigkeit von gültigen Modellen/Annahmen

Was auch immer das Niveau der Annahme gemacht wird, verlangt richtig kalibrierte Schlussfolgerung im Allgemeinen, dass diese Annahmen richtig sind; d. h. dass die datenerzeugenden Mechanismen wirklich richtig angegeben worden sind.

Falsche Annahmen 'der einfachen' zufälligen Stichprobenerhebung können statistische Schlussfolgerung ungültig machen. Komplizierter halb- und völlig parametrische Annahmen sind auch Grund zu Sorge. Zum Beispiel falsch kann das Annehmen des Modells von Cox in einigen Fällen zu fehlerhaften Beschlüssen führen. Falsche Annahmen der Normalität in der Bevölkerung machen auch einige Formen der auf das rückwärts Gehen gegründeten Schlussfolgerung ungültig. Der Gebrauch jedes parametrischen Modells wird skeptisch von den meisten Experten in der Stichprobenerhebung von menschlichen Bevölkerungen angesehen: "Die meisten ausfallenden Statistiker, wenn sie sich mit Vertrauensintervallen überhaupt befassen, beschränken sich zu Behauptungen über auf sehr großen Proben gestützte [Vorkalkulatoren], wo der Hauptgrenzwertsatz sicherstellt, dass diese [Vorkalkulatoren] Vertrieb haben wird, der fast normal ist." Insbesondere Würde eine Normalverteilung "eine völlig unrealistische und katastrophal unkluge Annahme sein, um zu machen, wenn wir uns mit einer Art der Wirtschaftsbevölkerung befassen würden." Hier stellt der Hauptgrenzwertsatz fest, dass der Vertrieb der Probe bösartig "für sehr große Proben" ungefähr normalerweise verteilt wird, wenn der Vertrieb nicht schwer ist, ist zurückgeblieben.

Ungefährer Vertrieb

In Anbetracht der Schwierigkeit, genauen Vertrieb der Beispielstatistik anzugeben, sind viele Methoden entwickelt worden, um diesen näher zu kommen.

Mit begrenzten Proben resultiert Annäherung Maß, wie nahe sich ein Begrenzungsvertrieb dem Beispielvertrieb des statistic nähert: Zum Beispiel mit 10,000 unabhängigen Proben kommt die Normalverteilung (zu zwei Ziffern der Genauigkeit) dem Vertrieb der Probe näher, die für vielen Bevölkerungsvertrieb durch den Lehrsatz der Beere-Esseen bösartig ist.

Und doch zu vielen praktischen Zwecken stellt die normale Annäherung eine gute Annäherung an den Beispiel-Mean'S-Vertrieb zur Verfügung, wenn es 10 (oder mehr) unabhängige Proben, gemäß Simulierungsstudien und der Erfahrung von Statistikern gibt. Die Arbeit von folgendem Kolmogorov in den 1950er Jahren, fortgeschrittene Statistik verwendet Annäherungstheorie und Funktionsanalyse, um den Fehler der Annäherung zu messen. In dieser Annäherung wird die metrische Geometrie des Wahrscheinlichkeitsvertriebs studiert; diese Annäherung misst Annäherungsfehler mit, zum Beispiel, die Kullback-Leibler Entfernung, Abschweifung von Bregman und die Entfernung von Hellinger.

Mit unbestimmt großen Proben, Ergebnisse wie der Hauptgrenzwertsatz beschränkend, beschreiben das Begrenzen des Beispielstatistic des Vertriebs, wenn man besteht. Beschränkende Ergebnisse sind nicht Behauptungen über begrenzte Proben, und sind tatsächlich für begrenzte Proben irrelevant. Jedoch wird die asymptotische Theorie, Vertrieb zu beschränken, häufig für die Arbeit mit begrenzten Proben angerufen. Zum Beispiel werden beschränkende Ergebnisse häufig angerufen, um die verallgemeinerte Methode von Momenten und den Gebrauch von verallgemeinerten Schätzen-Gleichungen zu rechtfertigen, die in econometrics und biostatistics populär sind. Der Umfang des Unterschieds zwischen dem Begrenzungsvertrieb und dem wahren Vertrieb (formell, der 'Fehler' der Annäherung) kann mit der Simulation bewertet werden. Die heuristische Anwendung, Ergebnisse auf begrenzte Proben zu beschränken, ist übliche Praxis in vielen Anwendungen, besonders mit niedrig-dimensionalen Modellen mit der mit dem Klotz konkaven Wahrscheinlichkeit (solcher als mit Ein-Parameter-Exponentialfamilien).

Mit Sitz in Randomization Modelle

Für einen gegebenen dataset, der durch ein randomization Design erzeugt wurde, wird der randomization Vertrieb eines statistischen (laut der ungültigen Hypothese) durch das Auswerten des Tests definiert, der für alle Pläne statistisch ist, die durch das randomization Design erzeugt worden sein könnten. In der frequentist Schlussfolgerung erlaubt randomization Schlussfolgerungen, auf dem randomization Vertrieb aber nicht einem subjektiven Modell zu basieren, und das ist besonders in der Überblick-Stichprobenerhebung und dem Design von Experimenten wichtig. Die statistische Schlussfolgerung von Randomized-Studien ist auch aufrichtiger als viele andere Situationen. In der Bayesian Schlussfolgerung ist randomization auch wichtig: In der Überblick-Stichprobenerhebung sichert der Gebrauch der Stichprobenerhebung ohne Ersatz die Ex-Wechselhaftigkeit der Probe mit der Bevölkerung; in Randomized-Experimenten bevollmächtigt randomization einen Vermissten aufs Geratewohl Annahme für die covariate Information.

Ziel randomization erlaubt richtig induktive Verfahren.

Viele Statistiker bevorzugen mit Sitz in randomization Analyse von Daten, die durch bestimmte randomization Verfahren erzeugt wurde. (Jedoch ist es wahr, dass in Feldern der Wissenschaft mit entwickelten theoretischen Kenntnissen und experimenteller Kontrolle, randomized Experimente die Kosten des Experimentierens vergrößern kann, ohne die Qualität von Schlussfolgerungen zu verbessern.)

Ähnlich werden Ergebnisse randomized Experimente durch die Führung statistischer Behörden als das Erlauben von Schlussfolgerungen mit der größeren Zuverlässigkeit empfohlen, als Beobachtungsstudien derselben Phänomene tun.

Jedoch kann eine gute Beobachtungsstudie besser sein als ein schlechtes Randomized-Experiment.

Die statistische Analyse eines Randomized-Experimentes kann auf dem randomization Schema basieren hat im experimentellen Protokoll festgesetzt und braucht kein subjektives Modell.

Jedoch, jederzeit, können einige Hypothesen nicht mit objektiven statistischen Modellen geprüft werden, die genau Randomized-Experimente oder zufällige Proben beschreiben. In einigen Fällen sind solche Randomized-Studien unwirtschaftlich oder unmoralisch.

Musterbasierte Analyse von Randomized-Experimenten

Es ist Standardpraxis, um sich auf ein statistisches Modell, häufig ein geradliniges Modell zu beziehen, wenn es Daten von Randomized-Experimenten analysiert. Jedoch führt das randomization Schema die Wahl eines statistischen Modells. Es ist nicht möglich, ein passendes Modell zu wählen, ohne das randomization Schema zu wissen. Ernstlich irreführende Ergebnisse können erhalten werden, Daten bei Randomized-Experimenten analysierend, während man das experimentelle Protokoll ignoriert; häufige Fehler schließen das Vergessen ein, dass das Blockieren, das in einem Experiment und verwirrenden wiederholten Maßen auf derselben experimentellen Einheit mit dem Unabhängigen verwendet ist, der auf verschiedene experimentelle Einheiten angewandten Behandlung wiederholt.

Weisen der Schlussfolgerung

Verschiedene Schulen der statistischen Schlussfolgerung sind feststehend geworden. Diese Schulen (oder 'Paradigmen') sind nicht gegenseitig exklusiv, und Methoden, die gut unter einem Paradigma häufig arbeiten, haben attraktive Interpretationen unter anderen Paradigmen. Die zwei Hauptparadigmen im Gebrauch sind frequentist und Schlussfolgerung von Bayesian, die beide unten zusammengefasst werden.

Schlussfolgerung von Frequentist

Dieses Paradigma kalibriert die Produktion von Vorschlägen durch das Betrachten (begrifflicher) wiederholter Stichprobenerhebung von datasets als ähnlich demjenigen in der Nähe. Durch das Betrachten seiner Eigenschaften unter der wiederholten Probe können die frequentist Eigenschaften jedes statistischen Interferenzverfahrens beschrieben werden — obwohl in der Praxis diese Quantifizierung schwierig sein kann.

Beispiele der frequentist Schlussfolgerung

  • P-Wert
  • Vertrauensintervall

Schlussfolgerung von Frequentist, Objektivität und Entscheidungstheorie

Eine Interpretation der frequentist Schlussfolgerung (oder klassischen Schlussfolgerung) ist, dass es nur in Bezug auf die Frequenzwahrscheinlichkeit anwendbar ist; d. h. in Bezug auf die wiederholte Stichprobenerhebung von einer Bevölkerung. Jedoch entwickelt die Annäherung von Neyan diese Verfahren in Bezug auf Vorexperiment-Wahrscheinlichkeiten. D. h. vor dem Durchführen eines Experiments entscheidet man über eine Regel, um zu einem solchem Beschluss zu kommen, dass die Wahrscheinlichkeit, richtig zu sein, auf eine passende Weise kontrolliert wird: Solch eine Wahrscheinlichkeit braucht keinen frequentist oder wiederholte ausfallende Interpretation zu haben. Im Gegensatz arbeitet Schlussfolgerung von Bayesian in Bezug auf bedingte Wahrscheinlichkeiten (d. h. Wahrscheinlichkeiten, die durch die beobachteten Daten bedingt sind), im Vergleich zum geringfügigen (aber auf unbekannten Rahmen bedingt sind) in der Frequentist-Annäherung verwendete Wahrscheinlichkeiten.

Die frequentist Verfahren der Bedeutungsprüfung und Vertrauensintervalle können ohne Rücksicht auf Dienstprogramm-Funktionen gebaut werden. Jedoch vereinigen einige Elemente der frequentist Statistik, wie statistische Entscheidungstheorie, wirklich Dienstprogramm-Funktionen. Insbesondere frequentist Entwicklungen der optimalen Schlussfolgerung (wie minimale Abweichung unvoreingenommene Vorkalkulatoren oder gleichförmig stärkste Prüfung) machen von Verlust-Funktionen Gebrauch, die die Rolle von (negativen) Dienstprogramm-Funktionen spielen. Verlust-Funktionen brauchen für statistische Theoretiker nicht ausführlich festgesetzt zu werden, um zu beweisen, dass ein statistisches Verfahren ein optimality Eigentum hat. Jedoch sind Verlust-Funktionen häufig nützlich, um optimality Eigenschaften festzusetzen: Zum Beispiel sind mittelunvoreingenommene Vorkalkulatoren unter absoluten Wertverlust-Funktionen optimal, darin minimieren sie erwarteten Schadensumfang, und kleinste Quadratvorkalkulatoren sind unter karierten Fehlerverlust-Funktionen optimal, darin minimieren sie erwarteten Schadensumfang.

Während Statistiker, die frequentist Schlussfolgerung verwenden, für sich die Rahmen von Interesse, und die Vorkalkulatoren/Test wählen müssen, die statistisch sind, um verwendet zu werden, hat die Abwesenheit von offensichtlich ausführlichen Dienstprogrammen und vorherigem Vertrieb frequentist Verfahren geholfen, weit angesehen als 'Ziel' zu werden.

Schlussfolgerung von Bayesian

Die Bayesian Rechnung beschreibt Grade des Glaubens mit der 'Sprache' der Wahrscheinlichkeit; Glaube ist positiv, zu einem integriert, und folgt Wahrscheinlichkeitsaxiomen. Schlussfolgerung von Bayesian verwendet den verfügbaren späteren Glauben als die Basis, um statistische Vorschläge zu machen. Es gibt mehrere verschiedene Rechtfertigungen, für die Annäherung von Bayesian zu verwenden.

Beispiele der Schlussfolgerung von Bayesian

  • Glaubwürdige Zwischenräume für die Zwischenraum-Bewertung
  • Faktoren von Bayes für den Mustervergleich

Schlussfolgerung von Bayesian, Subjektivität und Entscheidungstheorie

Viele informelle Schlussfolgerungen von Bayesian basieren auf "intuitiv angemessenen" Zusammenfassungen des späteren. Zum Beispiel können das spätere bösartige, das mittlere und die Weise, die höchsten späteren Dichte-Zwischenräume und die Bayes Faktoren alle auf diese Weise motiviert werden. Während eine Dienstprogramm-Funktion eines Benutzers für diese Sorte der Schlussfolgerung nicht festgesetzt zu werden braucht, hängen diese Zusammenfassungen wirklich alle (einigermaßen) vom festgesetzten vorherigen Glauben ab, und werden allgemein als subjektive Beschlüsse angesehen. (Methoden des vorherigen Aufbaus, die Außeneingang nicht verlangen, sind vorgeschlagen, aber noch nicht völlig entwickelt worden.)

Formell wird Schlussfolgerung von Bayesian bezüglich eines ausführlich festgesetzten Dienstprogrammes oder Verlust-Funktion kalibriert; die 'Regel von Bayes' ist diejenige, die erwartetes Dienstprogramm maximiert, das über die spätere Unklarheit durchschnittlich ist. Formelle Bayesian Schlussfolgerung stellt deshalb automatisch optimale Entscheidungen in einer Entscheidung theoretischer Sinn zur Verfügung. Gegebene Annahmen, Daten und Dienstprogramm, kann Schlussfolgerung von Bayesian für im Wesentlichen jedes Problem gemacht werden, obwohl nicht jede statistische Schlussfolgerung eine Interpretation von Bayesian haben muss. Analysen, die nicht formell Bayesian sind, können (logisch) zusammenhanglos sein; eine Eigenschaft von Verfahren von Bayesian, die richtigen priors verwenden (d. h., jene integrable zu einem) ist, dass, wie man versichert, sie zusammenhängend sind. Einige Verfechter der Schlussfolgerung von Bayesian behaupten, dass Schlussfolgerung in diesem mit der Entscheidung theoretischen Fachwerk stattfinden muss, und dass Schlussfolgerung von Bayesian mit der Einschätzung und Zusammenfassung des späteren Glaubens nicht aufhören sollte.

Andere Weisen der Schlussfolgerung (außer frequentist und Bayesian)

Information und rechenbetonte Kompliziertheit

Andere Formen der statistischen Schlussfolgerung sind von Ideen in der Informationstheorie und der Theorie der Kompliziertheit von Kolmogorov entwickelt worden. Zum Beispiel wählt der Grundsatz der minimalen Beschreibungslänge (MDL) statistische Modelle aus, die maximal die Daten zusammenpressen; Schlussfolgerung geht weiter, ohne gegensachliche oder nichtfalsifizierbare 'datenerzeugende Mechanismen oder Wahrscheinlichkeitsmodelle für die Daten anzunehmen, wie in frequentist oder Annäherungen von Bayesian getan werden könnte.

Jedoch, wenn 'Daten, die Mechanismus erzeugen', wirklich in Wirklichkeit besteht, dann gemäß der Quelle von Shannon, die Lehrsatz codiert, stellt er die MDL Beschreibung der Daten durchschnittlich und asymptotisch zur Verfügung. In der Minderung der Beschreibungslänge (oder beschreibende Kompliziertheit) ist MDL Bewertung der maximalen Wahrscheinlichkeitsbewertung und dem Maximum a posteriori Bewertung ähnlich (maximales Wärmegewicht Bayesian priors verwendend). Jedoch vermeidet MDL anzunehmen, dass das zu Grunde liegende Wahrscheinlichkeitsmodell bekannt ist; der MDL Grundsatz kann auch ohne Annahmen angewandt werden, dass z.B die Daten aus der unabhängigen Stichprobenerhebung entstanden sind. Der MDL Grundsatz ist in der nachrichtencodierenden Theorie in der Informationstheorie, im geradlinigen rückwärts Gehen, und in der Zeitreihe-Analyse (besonders für chosing die Grade der Polynome im Autorückläufigen bewegenden Durchschnitt (ARMA) Modelle) angewandt worden.

Mit der Information theoretische statistische Schlussfolgerung ist im Datenbergwerk populär gewesen, das eine einheitliche Methode für sehr großen heterogenen und Beobachtungsdatasets gemacht möglich durch die Computerrevolution und das Internet geworden ist.

Die Einschätzung von statistischen zu folgernden Verfahren verwendet häufig Techniken oder Kriterien aus der rechenbetonten Kompliziertheitstheorie oder numerischen Analyse.

Schlussfolgerung von Fiducial

Schlussfolgerung von Fiducial war eine Annäherung an die statistische Schlussfolgerung, die auf der fiducial Wahrscheinlichkeit, auch bekannt als "fiducial Vertrieb" gestützt ist. In der nachfolgenden Arbeit ist diese Annäherung schlecht-definiert, äußerst beschränkt in der Anwendbarkeit und sogar trügerisch genannt worden. Jedoch ist dieses Argument dasselbe als das, was zeigt, dass ein so genannter Vertrauensvertrieb nicht ein gültiger Wahrscheinlichkeitsvertrieb ist und, seitdem das die Anwendung von Vertrauensintervallen nicht ungültig gemacht hat, macht es aus fiducial Argumenten gezogene Schlüsse nicht notwendigerweise ungültig.

Strukturschlussfolgerung

Ideen von Fisher und vom Bergmann von 1938 bis 1939 entwickelnd, hat George A. Barnard "Strukturschlussfolgerung" oder "Angelschlussfolgerung", eine Annäherung mit invariant Wahrscheinlichkeiten auf Gruppenfamilien entwickelt. Barnard hat die Argumente hinter der fiducial Schlussfolgerung auf einer eingeschränkten Klasse von Modellen wiederformuliert, auf denen "fiducial" Verfahren bestimmt und nützlich sein würden.

Interferenzthemen

Die Themen werden gewöhnlich unten ins Gebiet der statistischen Schlussfolgerung eingeschlossen.

  1. Statistische Annahmen
  2. Statistische Entscheidungstheorie
  3. Bewertungstheorie
  4. Statistische Hypothese, die prüft
  5. Das Verbessern von Meinungen in der Statistik
  6. Design von Experimenten, die Analyse der Abweichung und das rückwärts Gehen
  7. Überblick, der ausfällt
  8. Die Zusammenstellung statistischer Daten

Siehe auch

  • Prophetische Schlussfolgerung
  • Induktion (Philosophie)
  • Philosophie der Statistik
  • Algorithmische Schlussfolgerung

Referenzen

  • Steuermann, D. R. (2006). Grundsätze der Statistischen Schlussfolgerung, TASSE. Internationale Standardbuchnummer 0-521-68567-2.
  • Fischer, Ronald (1955) "Statistische Methoden und wissenschaftliche Induktion" Zeitschrift der Königlichen Statistischen Gesellschaft, Reihe B, 17, 69 — 78. (Kritik von statistischen Theorien von Jerzy Neyman und Abraham Wald)
  • Le Cam, Lucian. (1986) Asymptotische Methoden der Statistischen Entscheidungstheorie, Springers. Internationale Standardbuchnummer 0387963073
  • (antworten Sie Fisher 1955)
  • Peirce, C. S. (1877-1878), "Illustrationen der Logik der Wissenschaft" (Reihe), Populäre Wissenschaft Monatlich, vols. 12-13. Relevante individuelle Papiere:
  • (1878-März), "Die Doktrin von Chancen", Populäre Wissenschaft Monatlich, v. 12, Problem im März, Seiten 604-615. Internetarchiv Eprint.
  • (1878-April), "Die Wahrscheinlichkeit der Induktion", Populäre Wissenschaft Monatlich, v. 12, Seiten 705-718. Internetarchiv Eprint.
  • (1878-Juni), "Die Ordnung der Natur", Populäre Wissenschaft Monatlich, v. 13, Seiten 203-217. Internetarchiv Eprint.
  • (1878-August), "Abzug, Induktion und Hypothese", Populäre Wissenschaft Monatlich, v. 13, Seiten 470-482. Internetarchiv Eprint.
  • Peirce, C. S. (1883), "Eine Theorie der Wahrscheinlichen Schlussfolgerung", Studien in der Logik, Seiten 126-181, Wenig, Braun, und Gesellschaft. (Nachgedruckter 1983, John Benjamins Publishing Company, internationale Standardbuchnummer 9027232717)

Weiterführende Literatur

  • Casella, G., Berger, R.L. (2001). Statistische Schlussfolgerung. Duxbury Presse. Internationale Standardbuchnummer 0534243126
  • David A. Freedman. "Statistische Modelle und Schuh-Leder" (1991). Soziologische Methodik, vol. 21, Seiten 291-313.
  • David A. Freedman. Statistische Modelle und Kausale Schlussfolgerungen: Ein Dialog mit den Sozialwissenschaften. 2010. Editiert von David Collier, Jasjeet S. Sekhon und Philip B. Stark. Universität von Cambridge Presse.
  • Lenhard, Johannes (2006). "Modelle und Statistische Schlussfolgerung: Die Meinungsverschiedenheit zwischen Fisher und Neyman — Pearson," britische Zeitschrift für die Philosophie der Wissenschaft, Vol. 57 Ausgabe 1, Seiten 69-91.
  • Lindley, D. (1958). "Vertrieb von Fiducial und der Lehrsatz von Buchten", Zeitschrift der Königlichen Statistischen Gesellschaft, Reihe B, 20, 102-7
  • Sudderth, William D. (1994). "Zusammenhängende Schlussfolgerung und Vorhersage in der Statistik," in Dag Prawitz, Bryan Skyrms und Westerstahl (Hrsg.). Logik, Methodik und Philosophie der Wissenschaft IX: Verhandlungen des Neunten Internationalen Kongresses der Logik, Methodik und Philosophie der Wissenschaft, Uppsala, Schweden, am 7-14 August 1991, Amsterdams: Elsevier.
  • Vertraut, Jennifer (1979). Die Logik der wissenschaftlichen Schlussfolgerung: Eine Einführung, London: Macmillan Press, Ltd.
  • Jung, G.A. Schmied, R.L. (2005) Hauptsache der Statistischen Schlussfolgerung, TASSE. Internationale Standardbuchnummer 0-521-83971-8

Links


Statistisches Modell / Überblick-Stichprobenerhebung
Impressum & Datenschutz