Wahrscheinlichkeitsgrundsatz

In der Statistik,

der Wahrscheinlichkeitsgrundsatz ist ein umstrittener Grundsatz der statistischen Schlussfolgerung, die behauptet, dass die ganze Information in einer Probe in der Wahrscheinlichkeitsfunktion enthalten wird.

Eine Wahrscheinlichkeitsfunktion entsteht aus einem bedingten Wahrscheinlichkeitsvertrieb betrachtet als eine Funktion seines parameterization Verteilungsarguments, das auf dem Datenargument bedingt ist. Denken Sie zum Beispiel ein Modell, das die Wahrscheinlichkeitsdichte-Funktion der erkennbaren zufälligen Variable X als eine Funktion eines Parameters θ gibt.

Dann für einen spezifischen Wert x X ist die Funktion L (θ | x) = P (X=x | θ) eine Wahrscheinlichkeitsfunktion von θ: Es gibt ein Maß dessen, wie "wahrscheinlich" jeder besondere Wert von θ ist, wenn wir wissen, dass X den Wert x hat. Zwei Wahrscheinlichkeitsfunktionen sind gleichwertig, wenn man ein Skalarvielfache vom anderen ist. Der Wahrscheinlichkeitsgrundsatz stellt fest, dass die ganze Information von den Daten, die für Schlussfolgerungen über den Wert von θ wichtig sind, in der Gleichwertigkeitsklasse gefunden wird. Der starke Wahrscheinlichkeitsgrundsatz wendet dieses dasselbe Kriterium auf Fälle wie folgende Experimente an, wo die Probe von Daten, die verfügbare Ergebnisse von Verwendung einer anhaltenden Regel zu den Beobachtungen früher im Experiment ist.

Beispiel

Nehmen Sie an

  • X ist die Zahl von Erfolgen in zwölf unabhängigen Proben von Bernoulli mit der Wahrscheinlichkeit θ vom Erfolg auf jeder Probe und
  • Y ist die Zahl von unabhängigen Proben von Bernoulli musste drei Erfolge, wieder mit der Wahrscheinlichkeit θ vom Erfolg auf jeder Probe bekommen.

Dann die Beobachtung, dass X = 3 die Wahrscheinlichkeitsfunktion veranlasst

:

und die Beobachtung, dass Y = 12 die Wahrscheinlichkeitsfunktion veranlasst

:

Diese sind gleichwertig, weil jeder ein Skalarvielfache vom anderen ist. Der Wahrscheinlichkeitsgrundsatz sagt deshalb, dass die über den Wert von θ gezogenen Schlussfolgerungen dasselbe in beiden Fällen sein sollten.

Der Unterschied zwischen Beobachten X = 3 und Beobachten Y = 12 ist nur im Design des Experimentes: In einem Fall hat man sich im Voraus dafür entschieden, zwölfmal zu versuchen; im anderen, um fortzusetzen, bis zu versuchen, werden drei Erfolge beobachtet. Das Ergebnis ist dasselbe in beiden Fällen.

Das Gesetz der Wahrscheinlichkeit

Ein zusammenhängendes Konzept ist das Gesetz der Wahrscheinlichkeit, der Begriff, dass das Ausmaß, in dem die Beweise einen Parameter-Wert oder Hypothese gegen einen anderen unterstützen, dem Verhältnis ihrer Wahrscheinlichkeit gleich ist.

D. h.

:

ist der Grad, zu dem die Beobachtung x Parameter-Wert oder Hypothese a gegen b unterstützt.

Wenn dieses Verhältnis 1 ist, sind die Beweise, gleichgültig

und wenn größer oder weniger als 1 die Beweise gegen b oder umgekehrt unterstützen. Der Gebrauch von Faktoren von Bayes kann das dadurch erweitern, die Kompliziertheit von verschiedenen Hypothesen in Betracht zu ziehen.

Das Kombinieren des Wahrscheinlichkeitsgrundsatzes mit dem Gesetz der Wahrscheinlichkeit gibt die Folge nach, dass der Parameter-Wert, der die Wahrscheinlichkeitsfunktion maximiert, der Wert ist, der durch die Beweise am stärksten unterstützt wird.

Das ist die Basis für die weit verwendete Methode der maximalen Wahrscheinlichkeit.

Historische Bemerkungen

Der Wahrscheinlichkeitsgrundsatz wurde zuerst durch diesen Namen im Druck 1962 identifiziert

(Barnard u. a. Birnbaum und Wilder u. a.),

aber Argumente für denselben Grundsatz, namenlos, und der Gebrauch des Grundsatzes in Anwendungen gehen zu den Arbeiten von R.A. Fisher in den 1920er Jahren zurück.

Das Gesetz der Wahrscheinlichkeit wurde durch diesen Namen von mir identifiziert. Das Hacken (1965).

Mehr kürzlich ist der Wahrscheinlichkeitsgrundsatz als ein allgemeiner Grundsatz der Schlussfolgerung von A. W. F. Edwards verfochten worden.

Der Wahrscheinlichkeitsgrundsatz ist auf die Philosophie der Wissenschaft von R. Royall angewandt worden.

Birnbaum hat bewiesen, dass der Wahrscheinlichkeitsgrundsatz aus zwei primitiveren und anscheinend angemessenen Grundsätzen, dem conditionality Grundsatz und dem Angemessenheitsgrundsatz folgt. Der conditionality Grundsatz sagt dass, wenn ein Experiment durch einen der Staaten der Natur unabhängigen Zufallsprozess gewählt wird, dann ist nur das wirklich durchgeführte Experiment für Schlussfolgerungen darüber wichtig. Der Angemessenheitsgrundsatz sagt, dass, wenn ein genügend statistischer für ist, und wenn in zwei Experimenten mit Daten und wir dann haben, die Beweise über den gegebenen durch die zwei Experimente dasselbe sind.

Argumente für und gegen den Wahrscheinlichkeitsgrundsatz

Einige weit verwendete Methoden der herkömmlichen Statistik, zum Beispiel viele Bedeutungstests, sind mit dem Wahrscheinlichkeitsgrundsatz nicht im Einklang stehend.

Lassen Sie uns kurz einige der Argumente für und gegen den Wahrscheinlichkeitsgrundsatz denken.

Das ursprüngliche Argument von Birnbaum

Der Beweis von Birnbaum des Wahrscheinlichkeitsgrundsatzes ist mehrere Male z.B ganz kürzlich von Deborah Mayo diskutiert worden.

Versuchsplan-Argumente auf dem Wahrscheinlichkeitsgrundsatz

Nicht verwirklichte Ereignisse spielen wirklich eine Rolle in einigen allgemeinen statistischen Methoden.

Zum Beispiel hängt das Ergebnis eines Bedeutungstests von der Wahrscheinlichkeit eines Ergebnisses als äußerst oder mehr äußerst ab als die Beobachtung, und diese Wahrscheinlichkeit kann vom Design des Experimentes abhängen. So im Ausmaß, dass solche Methoden akzeptiert werden, wird der Wahrscheinlichkeitsgrundsatz bestritten.

Einige klassische Bedeutungstests basieren auf der Wahrscheinlichkeit nicht.

Ein allgemein zitiertes Beispiel ist das fakultative anhaltende Problem.

Nehmen Sie an, dass ich Ihnen sage, dass ich eine Münze 12mal geworfen habe und im Prozess 3 Köpfe beobachtet hat.

Sie könnten eine Schlussfolgerung über die Wahrscheinlichkeit von Köpfen machen, und ob die Münze schön war.

Denken Sie jetzt, dass ich sage, dass ich die Münze geworfen habe, bis ich 3 Köpfe beobachtet habe, und ich sie 12mal geworfen habe. Werden Sie jetzt eine verschiedene Schlussfolgerung machen?

Die Wahrscheinlichkeitsfunktion ist dasselbe in beiden Fällen: Es ist zu proportional

:.

Gemäß dem Wahrscheinlichkeitsgrundsatz sollte die Schlussfolgerung dasselbe in jedem Fall sein.

Nehmen Sie an, dass mehrere Wissenschaftler die Wahrscheinlichkeit eines bestimmten Ergebnisses bewerten (den wir 'Erfolg' nennen werden) in experimentellen Proben. Herkömmlicher Verstand weist darauf hin, dass, wenn es keine Neigung zum Erfolg oder Misserfolg dann gibt, die Erfolgswahrscheinlichkeit eine Hälfte sein würde. Adam, ein Wissenschaftler, hat 12 Proben geführt und erhält 3 Erfolge und 9 Misserfolge. Dann hat er das Laboratorium verlassen.

Bill, ein Kollege in demselben Laboratorium, hat die Arbeit von Adam fortgesetzt und hat die Ergebnisse von Adam zusammen mit einem Bedeutungstest veröffentlicht. Er hat die ungültige Hypothese geprüft, dass p, die Erfolgswahrscheinlichkeit, einem halben gleich ist, gegen p ist wahr, ist

:

der 299/4096 = 7.3 % ist. So wird die ungültige Hypothese an der 5-%-Signifikanzebene nicht zurückgewiesen.

Charlotte, ein anderer Wissenschaftler, liest Bills Papier und schreibt einen Brief, sagend, dass es möglich ist, dass Adam fortgesetzt hat zu versuchen, bis er 3 Erfolge erhalten hat, in welchem Fall die Wahrscheinlichkeit des Müssens 12 oder mehr Experimente durchführen durch gegeben wird

:

der 134/4096 = 3.27 % ist. Jetzt ist das Ergebnis am 5-%-Niveau statistisch bedeutend. Bemerken Sie, dass es keinen Widerspruch unter diesen zwei Ergebnissen gibt; beide Berechnung ist richtig.

Diesen Wissenschaftlern, ob ein Ergebnis bedeutend ist oder nicht vom Design des Experimentes abhängt, nicht auf der Wahrscheinlichkeit (im Sinne der Wahrscheinlichkeitsfunktion) vom Parameter-Wert, der 1/2 ist.

Ergebnisse dieser Art werden von einigen als Argumente gegen den Wahrscheinlichkeitsgrundsatz betrachtet. Für andere veranschaulicht es den Wert des Wahrscheinlichkeitsgrundsatzes und ist ein Argument gegen Bedeutungstests.

Ähnliche Themen erscheinen, wenn sie den genauen Test von Fisher mit dem chi-karierten Test von Pearson vergleichen.

Die Voltmeter-Geschichte

Ein Argument für den Wahrscheinlichkeitsgrundsatz wird von Edwards in seinem Buch Wahrscheinlichkeit gegeben. Er zitiert die folgende Geschichte von J.W. Pratt, ein bisschen kondensiert hier. Bemerken Sie, dass die Wahrscheinlichkeitsfunktion nur davon abhängt, was wirklich, und nicht davon geschehen ist, was geschehen sein könnte.

: Ein Ingenieur zieht eine zufällige Probe von Elektrontuben und misst ihre Stromspannung. Die Maße erstrecken sich von 75 bis 99 Volt. Ein Statistiker schätzt die Probe bösartig und ein Vertrauensintervall für das wahre bösartige. Später entdeckt der Statistiker, dass der Voltmeter nur liest, so weit 100, so scheint die Bevölkerung, 'zensiert' zu werden. Das macht eine neue Analyse nötig, wenn der Statistiker orthodox ist. Jedoch sagt der Ingenieur, dass er ein anderes Meter-Lesen zu 1000 Volt hat, die er verwendet hätte, wenn eine Stromspannung mehr als 100 gewesen wäre. Das ist eine Erleichterung dem Statistiker, weil es bedeutet, dass die Bevölkerung schließlich effektiv unzensiert war. Aber am nächsten Tag informiert der Ingenieur den Statistiker, dass dieser zweite Meter zur Zeit des Messens nicht arbeitete. Der Statistiker stellt fest, dass der Ingenieur die Maße nicht gehalten hätte, bis der Meter befestigt wurde, und ihn informiert, dass neue Maße erforderlich sind. Der Ingenieur wird in Erstaunen gesetzt." Als nächstes werden Sie nach meinem Oszilloskop fragen".

Man könnte mit dieser Geschichte fortfahren, und die Tatsache denken, dass im Allgemeinen die wirkliche Situation verschieden gewesen sein könnte. Zum Beispiel brechen hohe Reihe-Voltmeter in voraussagbaren Momenten rechtzeitig, aber eher in unvorhersehbaren Momenten nicht. So könnte es mit etwas Wahrscheinlichkeit gebrochen worden sein. Die Wahrscheinlichkeitstheorie behauptet, dass der Vertrieb der Stromspannungsmaße von der Wahrscheinlichkeit abhängt, dass ein in diesem Experiment nicht verwendetes Instrument zurzeit gebrochen wurde.

Diese Geschichte kann zur anhaltenden Regierung von Adam oben wie folgt übersetzt werden. Adam hat sofort nach 3 Erfolgen angehalten, weil sein Chef Bill ihn beauftragt hatte, so zu tun. Adam ist nicht gestorben. Nach der Veröffentlichung der statistischen Analyse durch Bill entdeckt Adam, dass er eine zweite Instruktion von Bill verpasst hat, 12 Proben statt dessen zu führen, und dass Bills Papier auf dieser zweiten Instruktion basiert. Adam freut sich sehr, dass er seine 3 Erfolge danach genau 12 Proben bekommen hat, und seinem Freund Charlotte erklärt, dass durch den Zufall er die zweite Instruktion durchgeführt hat. Später wird er überrascht, über den Brief von Charlotte zu hören, erklärend, dass jetzt das Ergebnis bedeutend ist.

Das fakultative Aufhören in klinischen Proben

Die Tatsache, dass sich Bayesian und frequentist Argumente auf dem Thema des fakultativen Aufhörens unterscheiden, hat einen Haupteinfluss unterwegs, dass klinische Probe-Daten analysiert werden können. In frequentist, der setzt, gibt es einen Hauptunterschied zwischen einem Design, das befestigt wird und derjenige, der folgend ist, d. h. aus einer Folge von Analysen bestehend. Statistik von Bayesian ist von Natur aus folgend, und also gibt es keine solche Unterscheidung.

In einer klinischen Probe ist es ausschließlich nicht gültig, um eine ungeplante Zwischenanalyse der Daten durch frequentist Methoden zu führen, wohingegen das durch Methoden von Bayesian erlaubt ist. Ähnlich, wenn Finanzierung zurückgezogener Teil Weg durch ein Experiment ist, und der Analytiker mit unvollständigen Daten arbeiten muss, ist das eine mögliche Quelle der Neigung für klassische Methoden, aber nicht für Methoden von Bayesian, die vom beabsichtigten Design des Experimentes nicht abhängen. Außerdem, wie oben erwähnt, frequentist Analyse ist für die skrupellose Manipulation offen, wenn dem Experimentator erlaubt wird, den anhaltenden Punkt zu wählen, wohingegen Methoden von Bayesian zu solcher Manipulation geschützt sind.

Siehe auch

  • (Mit der Diskussion.)

Mayo, D. (2010). "Ein Fehler im Argument von Conditionality und Sufficiency zum Wahrscheinlichkeitsgrundsatz" irrtümlicherweise und der Schlussfolgerung: Neuer Austausch auf dem Experimentellen Denken, der Zuverlässigkeit und der Objektivität und der Vernunft der Wissenschaft (D Mayo und Hrsg. von A. Spanos), Cambridge: Universität von Cambridge Presse: 305-14.

Außenverbindungen

  • Anthony W.F. Edwards. "Wahrscheinlichkeit".
http://www.cimat.mx/reportes/enlinea/D-99-10.html

Geradliniges Modell / Geführter Zeppelin
Impressum & Datenschutz