Wahrscheinlichkeitsfunktion

In der Statistik ist eine Wahrscheinlichkeitsfunktion (häufig einfach die Wahrscheinlichkeit) eine Funktion der Rahmen eines statistischen Modells, definiert wie folgt: Die Wahrscheinlichkeit von einer Reihe von Parameter-Werten gegeben einige beobachtete Ergebnisse ist der Wahrscheinlichkeit jener beobachteten Ergebnisse gegeben jene Parameter-Werte gleich. Wahrscheinlichkeitsfunktionen spielen eine Schlüsselrolle in der statistischen Schlussfolgerung, besonders Methoden, einen Parameter von einer Reihe von Statistiken zu schätzen.

Im nicht technischen Sprachgebrauch ist "Wahrscheinlichkeit" gewöhnlich ein Synonym für "die Wahrscheinlichkeit", aber im statistischen Gebrauch wird eine klare technische Unterscheidung gemacht. Man kann fragen, "Wenn ich eine schöne Münze 100mal schnipsen sollte, wie ist die Wahrscheinlichkeit davon, leitet Landung jedes Mal?" oder "Vorausgesetzt, dass ich eine Münze 100mal geschnipst habe und ist sie gelandet leitet 100mal, wie ist die Wahrscheinlichkeit, dass die Münze schön ist?" aber es würde unpassend sein, "Wahrscheinlichkeit" und "Wahrscheinlichkeit" in den zwei Sätzen zu schalten.

Wenn ein Wahrscheinlichkeitsvertrieb von einem Parameter abhängt, kann man einerseits — für einen gegebenen Wert des Parameters — die Wahrscheinlichkeit (Dichte) der verschiedenen Ergebnisse in Betracht ziehen, und andererseits — für ein gegebenes Ergebnis — die Wahrscheinlichkeit (Dichte) in Betracht ziehen dieses Ergebnis ist für verschiedene Werte des Parameters vorgekommen. Die erste Annäherung interpretiert den Wahrscheinlichkeitsvertrieb als eine Funktion des Ergebnisses in Anbetracht eines festen Parameter-Werts, während das zweite es als eine Funktion des Parameters in Anbetracht eines festen Ergebnisses interpretiert. Im letzten Fall wird die Funktion die "Wahrscheinlichkeitsfunktion" des Parameters genannt und zeigt an, wie wahrscheinlich ein Parameter-Wert im Licht des beobachteten Ergebnisses ist.

Definition

Für die Definition der Wahrscheinlichkeitsfunktion muss man zwischen dem getrennten und dauernden Wahrscheinlichkeitsvertrieb unterscheiden.

Getrennter Wahrscheinlichkeitsvertrieb

Lassen Sie X eine zufällige Variable mit einem getrennten Wahrscheinlichkeitsvertrieb p abhängig von einem Parameter θ sein. Dann die Funktion

:

betrachtet als eine Funktion von θ, wird die Wahrscheinlichkeitsfunktion (von θ, in Anbetracht des Ergebnisses x von X) genannt. Manchmal schätzt die Wahrscheinlichkeit auf dem Wert x X für den Parameter θ wird als geschrieben, aber sollte als eine bedingte Wahrscheinlichkeit nicht betrachtet werden, weil θ ein Parameter und nicht eine zufällige Variable ist.

Dauernder Wahrscheinlichkeitsvertrieb

Lassen Sie X eine zufällige Variable mit einem dauernden Wahrscheinlichkeitsvertrieb mit der Dichte-Funktion f abhängig von einem Parameter θ sein. Dann die Funktion

:

betrachtet als eine Funktion von θ, wird die Wahrscheinlichkeitsfunktion (von θ, in Anbetracht des Ergebnisses x von X) genannt. Manchmal schätzt die Dichte-Funktion für den Wert x X für den Parameter θ wird als geschrieben, aber sollte als eine bedingte Wahrscheinlichkeitsdichte nicht betrachtet werden.

Der Ist-Wert einer Wahrscheinlichkeitsfunktion trägt keine Bedeutung. Sein Gebrauch liegt im Vergleichen eines Werts mit einem anderen. Z.B kann ein Wert des Parameters wahrscheinlicher sein als ein anderer in Anbetracht des Ergebnisses der Probe. Oder ein spezifischer Wert wird am wahrscheinlichsten sein: die maximale Wahrscheinlichkeitsschätzung. Vergleich kann auch im Betrachten des Quotienten von zwei Wahrscheinlichkeitswerten durchgeführt werden. Deshalb wird allgemein erlaubt, jedes positive Vielfache der obengenannten definierten Funktion zu sein. Genauer, dann, ist eine Wahrscheinlichkeitsfunktion jeder Vertreter von einer Gleichwertigkeitsklasse von Funktionen,

:

wo die Konstante der Proportionalität α> 0 nicht erlaubt wird, von θ abzuhängen und erforderlich ist, dasselbe für alle in irgendwelchem Vergleich verwendeten Wahrscheinlichkeitsfunktionen zu sein. Insbesondere der numerische Wert (θ | x) allein ist immateriell; alles, was Sachen maximale Werte, oder Wahrscheinlichkeitsverhältnisse, wie diejenigen der Form sind

:

\frac {\\Alpha P (X

x |\theta_2)} {\\Alpha P (X=x |\theta_1) }\

\frac {P (X

x |\theta_2)} {P (X=x |\theta_1)}, </Mathematik>

das ist invariant in Bezug auf die Konstante der Proportionalität α.

A. W. F. Edwards hat Unterstützung definiert, um der natürliche Logarithmus des Wahrscheinlichkeitsverhältnisses und die Unterstützungsfunktion als der natürliche Logarithmus der Wahrscheinlichkeitsfunktion zu sein (dasselbe als die Klotz-Wahrscheinlichkeit; sieh unten). Jedoch gibt es Potenzial für die Verwirrung mit der mathematischen Bedeutung 'der Unterstützung', und diese Fachsprache wird außerhalb Edwards angewandten Hauptfeldes von phylogenetics nicht weit verwendet.

Für mehr über das Bilden von Schlussfolgerungen über Wahrscheinlichkeitsfunktionen, sieh auch die Methode der maximalen Wahrscheinlichkeit und Wahrscheinlichkeitsverhältnis-Prüfung.

Klotz-Wahrscheinlichkeit

Für viele Anwendungen, die Wahrscheinlichkeitsfunktionen einschließen, ist es günstiger, in Bezug auf den natürlichen Logarithmus der Wahrscheinlichkeitsfunktion, genannt die Klotz-Wahrscheinlichkeit zu arbeiten, als in Bezug auf die Wahrscheinlichkeitsfunktion selbst. Weil der Logarithmus ein monotonically ist, der Funktion vergrößert, erreicht der Logarithmus einer Funktion seinen maximalen Wert an denselben Punkten wie die Funktion selbst, und folglich kann die Klotz-Wahrscheinlichkeit im Platz der Wahrscheinlichkeit nach der maximalen Wahrscheinlichkeitsbewertung und den zusammenhängenden Techniken verwendet werden. Die Entdeckung des Maximums einer Funktion ist häufig mit Einnahme der Ableitung einer Funktion und des Lösens für den Parameter verbunden, der wird maximiert, und das ist häufig leichter, wenn die Funktion, die wird maximiert, eine Klotz-Wahrscheinlichkeit aber nicht die ursprüngliche Wahrscheinlichkeitsfunktion ist.

Zum Beispiel sind einige Wahrscheinlichkeitsfunktionen für die Rahmen, die eine Sammlung statistisch unabhängiger Beobachtungen erklären. In solch einer Situation, den Wahrscheinlichkeitsfunktionsfaktoren in ein Produkt von individuellen Wahrscheinlichkeitsfunktionen. Der Logarithmus dieses Produktes ist eine Summe von individuellen Logarithmen, und die Ableitung einer Summe von Begriffen ist häufig leichter zu rechnen als die Ableitung eines Produktes. Außerdem hat mehrerer allgemeiner Vertrieb Wahrscheinlichkeitsfunktionen, die Produkte von Faktoren enthalten, die exponentiation einschließen. Der Logarithmus solch einer Funktion ist eine Summe von Produkten, wieder leichter zu differenzieren als die ursprüngliche Funktion.

Als ein Beispiel, denken Sie den Gammavertrieb, dessen Wahrscheinlichkeitsfunktion ist

:

und nehmen Sie an, dass wir die maximale Wahrscheinlichkeitsschätzung &beta finden möchten; für einen einzelnen beobachteten Wert x. Diese Funktion sieht ziemlich entmutigend aus. Sein Logarithmus ist jedoch viel einfacher zu arbeiten mit:

:

Die partielle Ableitung in Bezug auf &beta; ist einfach

:

Wenn es mehrere unabhängige zufällige Proben x, …, x gibt, dann wird die gemeinsame Klotz-Wahrscheinlichkeit die Summe der individuellen Klotz-Wahrscheinlichkeit sein, und die Ableitung dieser Summe wird die Summe von individuellen Ableitungen sein:

:

Das Setzen so gleich der Null und das Lösen für &beta; Erträge

:

wo anzeigt, dass die maximale Wahrscheinlichkeit schätzt und die der Beobachtungen bösartige Probe ist.

Wahrscheinlichkeitsfunktion eines parametrisierten Modells

Unter vielen Anwendungen denken wir hier eine der breiten theoretischen und praktischen Wichtigkeit. In Anbetracht einer parametrisierten Familie von Wahrscheinlichkeitsdichte-Funktionen (oder Wahrscheinlichkeitsmasse fungiert im Fall vom getrennten Vertrieb)

:

wo θ der Parameter ist, ist die Wahrscheinlichkeitsfunktion

:

schriftlicher

:

wo x das beobachtete Ergebnis eines Experimentes ist. Mit anderen Worten, wenn f (x | θ) als eine Funktion von x mit befestigtem θ angesehen wird, ist es eine Wahrscheinlichkeitsdichte-Funktion, und wenn angesehen, als eine Funktion von θ mit befestigtem x, es ist eine Wahrscheinlichkeitsfunktion.

Zeichen: Das ist nicht dasselbe als die Wahrscheinlichkeit, dass jene Rahmen die richtigen in Anbetracht der beobachteten Probe sind. Wenn sie versucht, die Wahrscheinlichkeit einer Hypothese gegeben beobachtete Beweise weil zu interpretieren, ist die Wahrscheinlichkeit der Hypothese ein allgemeiner Fehler, mit potenziell unglückseligen wirklichen Folgen in der Medizin, Technik oder Rechtskunde. Sieh den Scheinbeweis des Anklägers für ein Beispiel davon.

Von einer geometrischen Einstellung, wenn wir f (x, θ) als eine Funktion von zwei Variablen dann denken, kann die Familie des Wahrscheinlichkeitsvertriebs als eine Familie der Kurve-Parallele zur X-Achse angesehen werden, während die Familie von Wahrscheinlichkeitsfunktionen die orthogonale Kurve-Parallele zum θ-axis ist.

Wahrscheinlichkeit für den dauernden Vertrieb

Der Gebrauch der Wahrscheinlichkeitsdichte statt einer Wahrscheinlichkeit im Spezifizieren der Wahrscheinlichkeitsfunktion kann oben auf eine einfache Weise gerechtfertigt werden. Nehmen Sie an, dass, statt einer genauen Beobachtung, x, die Beobachtung der Wert in einem kurzen Zwischenraum (x, x), mit der Länge Δ ist, wo sich die Subschriften auf einen vorherbestimmten Satz von Zwischenräumen beziehen. Dann ist die Wahrscheinlichkeit, diese Beobachtung zu bekommen (im Zwischenraum j zu sein), ungefähr

:

wo x jeder Punkt im Zwischenraum j sein kann. Dann zurückrufend, dass die Wahrscheinlichkeitsfunktion bis zu einer multiplicative Konstante definiert wird, ist es so gültig, um zu sagen, dass die Wahrscheinlichkeitsfunktion ungefähr ist

:

und dann, die Längen der Zwischenräume denkend, zur Null, abzunehmen

:

Wahrscheinlichkeit für den dauernd-getrennten Mischvertrieb

Der obengenannte kann auf eine einfache Weise erweitert werden, Rücksicht des Vertriebs zu erlauben, der sowohl getrennte als auch dauernde Bestandteile enthält. Nehmen Sie an, dass der Vertrieb aus mehreren getrennten Wahrscheinlichkeitsmassen p (θ) und eine Dichte f besteht (x | θ), wo die Summe des ganzen zum Integral von f zusätzlichen p's immer ein ist. Das Annehmen, dass es möglich ist, eine Beobachtung entsprechend einer der getrennten Wahrscheinlichkeitsmassen von derjenigen zu unterscheiden, die dem Dichte-Bestandteil, der Wahrscheinlichkeitsfunktion für eine Beobachtung vom dauernden Bestandteil entspricht, kann als oben befasst werden, indem es die Zwischenraum-Länge veranlasst wird, die kurz genug ist, einige der getrennten Massen auszuschließen. Für eine Beobachtung vom getrennten Bestandteil kann die Wahrscheinlichkeit entweder direkt niedergeschrieben oder innerhalb des obengenannten Zusammenhangs durch den Ausspruch behandelt werden, dass die Wahrscheinlichkeit, eine Beobachtung in einem Zwischenraum zu bekommen, der wirklich einen getrennten Bestandteil enthält (davon, im Zwischenraum j zu sein, der getrennten Bestandteil k enthält) ungefähr ist

:

wo jeder Punkt im Zwischenraum j sein kann. Dann, die Längen der Zwischenräume denkend, zur Null abzunehmen, ist die Wahrscheinlichkeitsfunktion für eine Beobachtung vom getrennten Bestandteil

:

wo k der Index der getrennten Wahrscheinlichkeitsmasse entsprechend der Beobachtung x ist.

Die Tatsache, dass die Wahrscheinlichkeitsfunktion in einem Weg definiert werden kann, der Beiträge einschließt, die nicht entsprechend sind (die Dichte und die Wahrscheinlichkeitsmasse) entsteht aus dem Weg, auf den die Wahrscheinlichkeitsfunktion bis zu einer Konstante der Proportionalität definiert wird, wo sich diese "Konstante" mit der Beobachtung x, aber nicht mit dem Parameter θ ändern kann.

Beispiel 1

Lassen Sie, die Wahrscheinlichkeit zu sein, dass eine bestimmte Münze Länder (H), wenn geworfen, leitet. Also, die Wahrscheinlichkeit, zwei Köpfe in zwei Werfen (HH) zu bekommen, ist. Wenn, dann ist die Wahrscheinlichkeit, zwei Köpfe zu sehen, 0.25.

In Symbolen können wir den obengenannten als sagen:

:

Eine andere Weise, das zu sagen, ist, es umzukehren und zu sagen, dass "die Wahrscheinlichkeit, die, in Anbetracht der Beobachtung HH, 0.25" ist; das ist:

:

Aber das ist nicht dasselbe, sagend dass die Wahrscheinlichkeit, die, in Anbetracht der Beobachtung HH, 0.25 ist.

Bemerken Sie, dass die Wahrscheinlichkeit, die, in Anbetracht der Beobachtung HH, 1 ist. Aber es ist klar nicht wahr, dass die Wahrscheinlichkeit, die, in Anbetracht der Beobachtung HH, 1 ist. Zwei Köpfe beweisen hintereinander kaum, dass die Münze immer Köpfe heraufkommt. Tatsächlich, zwei Köpfe ist hintereinander für irgendwelchen möglich.

Die Wahrscheinlichkeitsfunktion ist nicht eine Wahrscheinlichkeitsdichte-Funktion. Bemerken Sie, dass das Integral einer Wahrscheinlichkeitsfunktion nicht in allgemeinem 1 ist. In diesem Beispiel ist das Integral der Wahrscheinlichkeit über den Zwischenraum [0, 1] darin 1/3, demonstrierend, dass die Wahrscheinlichkeitsfunktion als eine Wahrscheinlichkeitsdichte-Funktion dafür nicht interpretiert werden kann.

Beispiel 2

Denken Sie ein Glas, das N Lotteriekarten numeriert von 1 bis N enthält. Wenn Sie eine Karte zufällig dann aufpicken, bekommen Sie positive ganze Zahl n, mit der Wahrscheinlichkeit 1/N wenn n  N und mit der Wahrscheinlichkeitsnull wenn n> N. Das kann geschrieben werden

:

wo die Klammer von Iverson [n  N] 1 wenn n  N und 0 sonst ist.

Wenn betrachtet, eine Funktion von n für festen N das ist der Wahrscheinlichkeitsvertrieb, aber wenn betrachtet, eine Funktion von N für festen n ist das eine Wahrscheinlichkeitsfunktion. Die maximale Wahrscheinlichkeitsschätzung für N ist N = n (im Vergleich, die unvoreingenommene Schätzung ist 2n &minus; 1).

Diese Wahrscheinlichkeitsfunktion ist nicht ein Wahrscheinlichkeitsvertrieb, weil der ganze

:

ist eine auseinander gehende Reihe.

Nehmen Sie jedoch an, dass Sie zwei Karten aber nicht ein aufpicken.

Die Wahrscheinlichkeit des Ergebnisses {n, n}, wo n, ist

:

Wenn betrachtet, eine Funktion von N für festen n, das ist eine Wahrscheinlichkeitsfunktion. Die maximale Wahrscheinlichkeitsschätzung für N ist N = n.

Dieses Mal der ganze

:

\sum_ {N} \frac {[N\ge n_2]} {\\binom N 2 }\

\frac 2 {n_2-1} </Mathematik>

ist eine konvergente Reihe, und so kann diese Wahrscheinlichkeitsfunktion in einen Wahrscheinlichkeitsvertrieb normalisiert werden.

Wenn Sie 3 oder mehr Karten aufpicken, hat die Wahrscheinlichkeitsfunktion einen gut definierten Mittelwert, der größer ist als die maximale Wahrscheinlichkeitsschätzung. Wenn Sie 4 oder mehr Karten aufpicken, hat die Wahrscheinlichkeitsfunktion eine gut definierte Standardabweichung auch.

Verhältniswahrscheinlichkeit

Verhältniswahrscheinlichkeitsfunktion

Nehmen Sie an, dass die maximale Wahrscheinlichkeit für &theta schätzt; ist. Verhältnisglaubhaftigkeit von anderem &theta; Werte können durch das Vergleichen der Wahrscheinlichkeit jener anderen Werte mit der Wahrscheinlichkeit dessen gefunden werden. Die Verhältniswahrscheinlichkeit &theta; wird als definiert.

Ein 10-%-Wahrscheinlichkeitsgebiet für &theta; ist

:

und mehr allgemein, ein p %-Wahrscheinlichkeitsgebiet für &theta; wird definiert, um zu sein

:

Wenn &theta; ist ein einzelner echter Parameter, ein p %-Wahrscheinlichkeitsgebiet wird normalerweise einen Zwischenraum von echten Werten umfassen. In diesem Fall wird das Gebiet einen Wahrscheinlichkeitszwischenraum genannt.

Wahrscheinlichkeitszwischenräume können im Vergleich zu Vertrauensintervallen sein. Wenn &theta; ist ein einzelner echter Parameter, dann unter bestimmten Bedingungen, einem 14.7-%-Wahrscheinlichkeitszwischenraum für &theta; wird dasselbe als ein 95-%-Vertrauensintervall sein. In einer ein bisschen verschiedenen dem Gebrauch der Klotz-Wahrscheinlichkeit angepassten Formulierung ist der e Wahrscheinlichkeitszwischenraum dasselbe als das 0.954 Vertrauensintervall (unter bestimmten Bedingungen).

Die Idee, eine Zwischenraum-Schätzung auf der Verhältniswahrscheinlichkeit zu stützen, geht Fisher 1956 zurück und ist von vielen Autoren seitdem verwendet worden. Wenn ein Wahrscheinlichkeitszwischenraum als ein Vertrauensintervall spezifisch interpretiert werden soll, dann ist diese Idee sofort mit dem Wahrscheinlichkeitsverhältnis-Test verbunden, der verwendet werden kann, um passende Zwischenräume für Rahmen zu definieren. Diese Annäherung kann verwendet werden, um die kritischen Punkte für das Wahrscheinlichkeitsverhältnis zu definieren, das statistisch ist, um das erforderliche Einschluss-Niveau für ein Vertrauensintervall zu erreichen. Jedoch kann ein Wahrscheinlichkeitszwischenraum als solcher verwendet werden, auf eine bestimmte Weise bestimmt, ohne jede besondere Einschluss-Wahrscheinlichkeit zu fordern.

Verhältniswahrscheinlichkeit von Modellen

Die Definition der Verhältniswahrscheinlichkeit kann auch verallgemeinert werden, um verschiedene (taillierte) statistische Modelle zu vergleichen. Diese Generalisation basiert auf dem Informationskriterium von Akaike, oder mehr gewöhnlich, AICc (Akaike Informationskriterium mit der Korrektur). Nehmen Sie an, dass, für einen dataset, wir zwei statistische Modelle, M und M mit festen Rahmen haben. Nehmen Sie auch das AICc (M) &le an; AICc (M). Dann wird die Verhältniswahrscheinlichkeit der M in Bezug auf die M definiert, um zu sein

:exp ((AICc (M) &minus;AICc (M))/2)

Um zu sehen, dass das eine Generalisation der früheren Definition ist, nehmen Sie an, dass wir eine MusterM mit (vielleicht multivariate) Parameter &theta haben;. dann für irgendwelchen &theta; Satz M = M (&theta;), und auch Satz M = M . Die allgemeine Definition gibt jetzt dasselbe Ergebnis wie die frühere Definition.

Wahrscheinlichkeit, die Ärger-Rahmen beseitigt

In vielen Fällen ist die Wahrscheinlichkeit eine Funktion von mehr als einem Parameter, aber Interesse konzentriert sich auf die Bewertung von nur einem, oder höchstens einige von ihnen mit anderen, die als Ärger-Rahmen betrachten werden. Mehrere alternative Annäherungen sind entwickelt worden, um solche Ärger-Rahmen zu beseitigen, so dass eine Wahrscheinlichkeit als eine Funktion nur des Parameters (oder der Rahmen) von Interesse geschrieben werden kann; die Hauptannäherungen, die geringfügig, bedingt sind und Profil-Wahrscheinlichkeit.

Diese Annäherungen sind nützlich, weil Standardwahrscheinlichkeitsmethoden unzuverlässig werden oder völlig scheitern können, wenn es viele Ärger-Rahmen gibt, oder wenn die Ärger-Rahmen hoch-dimensional sind. Das ist besonders wahr, wenn, wie man betrachten kann, die Ärger-Rahmen Daten "verpassen"; sie vertreten einen nichtunwesentlichen Bruchteil der Zahl von Beobachtungen, und dieser Bruchteil nimmt nicht ab, wenn die Beispielgröße zunimmt. Häufig können diese Annäherungen verwendet werden, um Formeln der geschlossenen Form für statistische Tests abzuleiten, wenn der direkte Gebrauch der maximalen Wahrscheinlichkeit wiederholende numerische Methoden verlangt. Diese Annäherungen finden Anwendung in einigen Spezialthemen wie folgende Analyse.

Bedingte Wahrscheinlichkeit

Manchmal ist es möglich, einen genügend statistischen für die Ärger-Rahmen zu finden, und darauf Statistikergebnisse in einer Wahrscheinlichkeit bedingend, die von den Ärger-Rahmen nicht abhängt.

Ein Beispiel kommt in 2×2 Tische vor, wo das Bedingen auf allen vier Randsummen zu einer bedingten auf dem hypergeometrischen Nichthauptvertrieb gestützten Wahrscheinlichkeit führt. Diese Form des Bedingens ist auch die Basis für den genauen Test von Fisher.

Randwahrscheinlichkeit

Manchmal können wir die Ärger-Rahmen entfernen, indem wir eine Wahrscheinlichkeit als gestützt auf nur einem Teil der Information in den Daten zum Beispiel betrachten, indem wir den Satz von Reihen aber nicht den numerischen Werten verwenden. Ein anderes Beispiel kommt in geradlinigen Mischmodellen vor, wo das Betrachten einer Wahrscheinlichkeit für den residuals nur nach der Anprobe der festen Effekten zu restlicher maximaler Wahrscheinlichkeitsbewertung der Abweichungsbestandteile führt.

Profil-Wahrscheinlichkeit

Es ist häufig möglich, einige Rahmen als Funktionen anderer Rahmen zu schreiben, dadurch die Anzahl von unabhängigen Rahmen vermindernd.

(Die Funktion ist der Parameter-Wert, der die Wahrscheinlichkeit gegeben der Wert der anderen Rahmen maximiert.)

Dieses Verfahren wird Konzentration der Rahmen genannt und läuft auf die konzentrierte Wahrscheinlichkeitsfunktion hinaus, die auch gelegentlich als die maximierte Wahrscheinlichkeitsfunktion bekannt ist, aber hat meistenteils die Profil-Wahrscheinlichkeitsfunktion genannt.

Denken Sie zum Beispiel ein Regressionsanalyse-Modell mit normalerweise verteilten Fehlern. Der wahrscheinlichste Wert der Fehlerabweichung ist die Abweichung des residuals. Die residuals hängen von allen anderen Rahmen ab. Folglich kann der Abweichungsparameter als eine Funktion der anderen Rahmen geschrieben werden.

Verschieden von der bedingten und geringfügigen Wahrscheinlichkeit können Profil-Wahrscheinlichkeitsmethoden immer verwendet werden, selbst wenn die Profil-Wahrscheinlichkeit ausführlich nicht niedergeschrieben werden kann. Jedoch ist die Profil-Wahrscheinlichkeit nicht eine wahre Wahrscheinlichkeit, weil sie direkt auf einem Wahrscheinlichkeitsvertrieb nicht basiert, und das zu einigen weniger befriedigenden Eigenschaften führt. Versuche sind gemacht worden, das zu verbessern, auf modifizierte Profil-Wahrscheinlichkeit hinauslaufend.

Die Idee von der Profil-Wahrscheinlichkeit kann auch verwendet werden, um Vertrauensintervalle zu schätzen, die häufig bessere Klein-Beispieleigenschaften haben als diejenigen, die auf asymptotischen von der vollen Wahrscheinlichkeit berechneten Standardfehlern gestützt sind. Im Fall von der Parameter-Bewertung in teilweise beobachteten Systemen kann die Profil-Wahrscheinlichkeit auch für die identifiability Analyse verwendet werden. Eine Durchführung ist im MATLAB Werkzeugkasten PottersWheel verfügbar.

Teilweise Wahrscheinlichkeit

Eine teilweise Wahrscheinlichkeit ist ein Faktor-Bestandteil der Wahrscheinlichkeitsfunktion, die die Rahmen von Interesse isoliert. Es ist ein Schlüsselbestandteil des proportionalen Gefahr-Modells.

Historische Bemerkungen

In Englisch ist "Wahrscheinlichkeit" als verbunden seiend mit, aber schwächer bemerkenswert gewesen als "Wahrscheinlichkeit" seit seinem frühsten Gebrauch. Der Vergleich von Hypothesen durch das Auswerten der Wahrscheinlichkeit ist seit Jahrhunderten zum Beispiel von John Milton in Aeropagitica verwendet worden: "Wenn größte Wahrscheinlichkeit das gebracht wird, sind solche Dinge aufrichtig und wirklich in jenen Personen, denen sie zugeschrieben werden".

In Dänisch wurde "Wahrscheinlichkeit" von Thorvald N. Thiele 1889 verwendet.

In Englisch erscheint "Wahrscheinlichkeit" in vielen Schriften durch Charles Sanders Peirce, wo musterbasierte Schlussfolgerung (gewöhnlich Entführung, aber manchmal einschließlich der Induktion) aus statistischen Verfahren bemerkenswert ist, die auf dem Ziel randomization gestützt sind. Die Vorliebe von Peirce für die mit Sitz in randomization Schlussfolgerung wird in "Illustrationen der Logik der Wissenschaft" (1877-1878) und "Einer Theorie der Wahrscheinlichen Schlussfolgerung" (1883)" besprochen.

"Wahrscheinlichkeiten, die ausschließlich objektiv und zur gleichen Zeit sehr groß sind, obwohl sie nie absolut abschließend sein können, sollten dennoch unsere Vorliebe für eine Hypothese über einen anderen beeinflussen; aber geringe Wahrscheinlichkeiten, selbst wenn Ziel, sind der Rücksicht nicht wert; und bloß subjektive Wahrscheinlichkeit sollte zusammen ignoriert werden. Weil sie bloß Ausdrücke unserer vorgefassten Begriffe" (7.227 in seinen Gesammelten Zeitungen) sind.

"Aber Erfahrung muss unsere Karte in der wirtschaftlichen Navigation sein; und Erfahrung zeigt, dass Wahrscheinlichkeit tückische Führer ist. Nichts hat so viel Zeitverschwendung und Mittel in allen Sorten von Forschern als das an die bestimmte Wahrscheinlichkeit so fest gebundene Werden von Nachforschenden verursacht, dass es alle anderen Faktoren der Wirtschaft der Forschung vergessen hat; so dass, wenn es, sehr fest niedergelegt werden, Wahrscheinlichkeit, oder fast so nicht viel besser ignoriert wird; und selbst wenn es fest niedergelegt scheint, sollte es auf mit einem vorsichtigen Schritt, mit einem Auge zu anderen Rücksichten und Erinnerung der verursachten Katastrophen weitergegangen werden." (Wesentlicher Peirce, Band 2, Seiten 108-109)

Wie Thiele denkt Peirce die Wahrscheinlichkeit für einen binomischen Vertrieb. Peirce verwendet den Logarithmus des Verschiedenheitsverhältnisses während seiner Karriere. Die Neigung von Peirce dazu, die Klotz-Verschiedenheit zu verwenden, wird von Stephen Stigler besprochen.

In Großbritannien wurde "Wahrscheinlichkeit" in der mathematischen Statistik von R.A. Fisher 1922 verbreitet: "Auf den mathematischen Fundamenten der theoretischen Statistik". In dieser Zeitung gebraucht Fisher auch den Begriff "Methode der maximalen Wahrscheinlichkeit". Fisher argumentiert gegen umgekehrte Wahrscheinlichkeit als eine Basis für statistische Schlussfolgerungen, und schlägt stattdessen auf Wahrscheinlichkeitsfunktionen gestützte Schlussfolgerungen vor. Der Gebrauch von Fisher "der Wahrscheinlichkeit" hat die Fachsprache befestigt, die von Statistikern weltweit verwendet wird.

Siehe auch

Referenzen

  • jstor = 2958222
  • jstor = 2344804
  • jstor = 2676741

Links


Colorado Mineralriemen / Frederick Theodore Frelinghuysen
Impressum & Datenschutz