Wahrscheinlichkeit

Wahrscheinlichkeit wird normalerweise verwendet, um eine Geisteshaltung zu einem Vorschlag zu beschreiben, dessen Wahrheit wir sind

nicht sicher. Der Vorschlag von Interesse ist gewöhnlich der Form "Ein spezifisches Ereignis wird vorkommen?" Die Geisteshaltung ist der Form "Wie sicher sind wir, dass das Ereignis vorkommen wird?" Die Gewissheit, die wir annehmen, kann in Bezug auf ein numerisches Maß und diese Zahl, zwischen 0 und 1 beschrieben werden, wir nennen Wahrscheinlichkeit. Je höher die Wahrscheinlichkeit eines Ereignisses, desto mehr sicher wir sind, dass das Ereignis vorkommen wird. So ist die Wahrscheinlichkeit in einem angewandten Sinn ein Maß des Vertrauens eine Person hat das ein (zufälliges) Ereignis wird vorkommen.

Das Konzept ist eine axiomatische mathematische Abstammung in der Wahrscheinlichkeitstheorie gegeben worden, die weit in solchen Gebieten der Studie als Mathematik verwendet wird, ziehen Statistiken, Finanz, das Spielen, Wissenschaft, künstliche Intelligenz / das Maschinenlernen und die Philosophie dazu zum Beispiel Schlussfolgerungen über die erwartete Frequenz von Ereignissen. Wahrscheinlichkeitstheorie wird auch verwendet, um die zu Grunde liegende Mechanik und Regelmäßigkeit von komplizierten Systemen zu beschreiben.

Interpretationen

Die Wortwahrscheinlichkeit hat keine einzigartige direkte Definition für die praktische Anwendung. Tatsächlich gibt es mehrere breite Kategorien von Wahrscheinlichkeitsinterpretationen, deren Anhänger verschieden besitzen (und manchmal kollidierend) Ansichten über die grundsätzliche Natur der Wahrscheinlichkeit. Zum Beispiel:

  1. Frequentists sprechen über Wahrscheinlichkeiten nur, wenn, sich mit Experimenten befassend, die zufällig und bestimmt sind. Die Wahrscheinlichkeit eines zufälligen Ereignisses zeigt die Verhältnisfrequenz des Ereignisses eines Ergebnisses eines Experimentes an, wenn sie das Experiment wiederholt. Frequentists denken, dass Wahrscheinlichkeit die Verhältnisfrequenz "im langen Lauf" von Ergebnissen ist.
  2. Subjectivists teilen Zahlen pro subjektive Wahrscheinlichkeit, d. h. als ein Grad des Glaubens zu.
  3. Bayesians schließen Erfahrung sowie experimentelle Angaben ein, um Wahrscheinlichkeiten zu erzeugen. Die Erfahrung wird durch einen vorherigen Wahrscheinlichkeitsvertrieb vertreten. Die Daten werden in einer Wahrscheinlichkeitsfunktion vereinigt. Das Produkt des vorherigen und der Wahrscheinlichkeit, normalisiert, läuft auf einen späteren Wahrscheinlichkeitsvertrieb hinaus, der die ganze Information bekannt bis heute vereinigt.

Etymologie

Das Wort Wahrscheinlichkeit ist auf den lateinischen probabilitas zurückzuführen, der auch, ein Maß der Autorität eines Zeugen in einem gesetzlichen Fall in Europa, und häufig aufeinander bezogen mit dem Adel des Zeugen bedeuten kann. Gewissermaßen unterscheidet sich das viel von der modernen Bedeutung der Wahrscheinlichkeit, die im Gegensatz ein Maß des Gewichts von empirischen Beweisen ist, und vom induktiven Denken und der statistischen Schlussfolgerung erreicht wird.

Geschichte

Die wissenschaftliche Studie der Wahrscheinlichkeit ist eine moderne Entwicklung. Das Spielen von Shows, dass es ein Interesse an der Quantitätsbestimmung der Ideen von der Wahrscheinlichkeit seit Millennien gegeben hat, aber genaue mathematische Beschreibungen sind viel später entstanden. Es gibt Gründe natürlich für die langsame Entwicklung der Mathematik der Wahrscheinlichkeit. Wohingegen Glücksspiele den Impuls für die mathematische Studie der Wahrscheinlichkeit zur Verfügung gestellt haben, werden grundsätzliche Probleme noch durch den Aberglauben von Spielern verdunkelt.

Gemäß Richard Jeffrey, "Vor der Mitte des siebzehnten Jahrhunderts hat der Begriff 'wahrscheinlicher' (lateinischer probabilis) anerkennenswert bedeutet, und wurde in diesem Sinn eindeutig zur Meinung und zur Handlung angewandt. Eine wahrscheinliche Handlung oder Meinung waren ein wie vernünftige Leute würde übernehmen oder unter diesen Umständen halten." Jedoch, in gesetzlichen Zusammenhängen besonders, 'wahrscheinlich' konnte auch für Vorschläge gelten, für die es gute Beweise gab.

Beiseite von der elementaren Arbeit von Girolamo Cardano im 16. Jahrhundert, der Doktrin von Wahrscheinlichkeitsdaten zur Ähnlichkeit von Pierre de Fermat und Blaise Pascal (1654). Christiaan Huygens (1657) hat die frühste bekannte wissenschaftliche Behandlung des Themas gegeben. Der Ars Conjectandi von Jakob Bernoulli (postum, 1713) und die Doktrin von Abraham de Moivre von Chancen (1718) hat das Thema als ein Zweig der Mathematik behandelt. Sieh Ian Hacking Das Erscheinen der Wahrscheinlichkeit und James Franklin Die Wissenschaft der Vermutung für Geschichten der frühen Entwicklung des wirklichen Konzepts der mathematischen Wahrscheinlichkeit.

Die Theorie von Fehlern kann zurück zur Bunten Opernsammlung von Roger Cotes verfolgt werden (postum, 1722), aber eine Biografie, die von Thomas Simpson 1755 (gedruckter 1756) zuerst bereit ist, hat die Theorie auf die Diskussion von Fehlern der Beobachtung angewandt. Der Nachdruck (1757) dieser Biografie stellt die Axiome auf, dass positive und negative Fehler ebenso wahrscheinlich sind, und dass bestimmte bestimmbare Grenzen die Reihe aller Fehler definieren. Simpson bespricht auch dauernde Fehler und beschreibt eine Wahrscheinlichkeitskurve.

Die ersten zwei Gesetze des Fehlers, die vorgeschlagen wurden, sind beide mit Pierre-Simon Laplace entstanden. Das erste Gesetz wurde 1774 veröffentlicht und hat festgestellt, dass die Frequenz eines Fehlers als eine Exponentialfunktion des numerischen Umfangs des Fehlers ausgedrückt werden konnte, Zeichen ignorierend. Das zweite Gesetz des Fehlers wurde 1778 von Laplace vorgeschlagen und hat festgestellt, dass die Frequenz des Fehlers eine Exponentialfunktion des Quadrats des Fehlers ist. Das zweite Gesetz des Fehlers wird die Normalverteilung oder das Gesetz von Gauss genannt. "Es ist historisch schwierig, dieses Gesetz Gauss zuzuschreiben, der trotz seiner wohl bekannten Frühzeitigkeit wahrscheinlich diese Entdeckung nicht gemacht hatte, bevor er zwei Jahre alt war."

Daniel Bernoulli (1778) hat den Grundsatz des maximalen Produktes der Wahrscheinlichkeiten eines Systems von gleichzeitigen Fehlern eingeführt.

Adrien-Marie Legendre (1805) hat die Methode von kleinsten Quadraten entwickelt, und hat sie in seinem Nouvelles méthodes pour la détermination des orbites des comètes (Neue Methoden für die Bestimmung der Bahnen von Kometen) eingeführt. In der Unerfahrenheit des Beitrags von Legendre, eines irisch-amerikanischen Schriftstellers, hat Robert Adrain, Redakteur "Des Analytikers" (1808), zuerst das Gesetz der Möglichkeit des Fehlers, abgeleitet

:

eine Konstante abhängig von der Präzision der Beobachtung und einem Einteilungsfaktor seiend, der sicherstellt, dass das Gebiet unter der Kurve 1 gleich ist. Er hat zwei Beweise, das zweite gegeben, das im Wesentlichen dasselbe als John Herschel (1850) ist. Gauss hat den ersten Beweis gegeben, der scheint, in Europa (das dritte nach Adrain) 1809 bekannt gewesen zu sein. Weitere Beweise wurden von Laplace (1810, 1812), Gauss (1823), James Ivory (1825, 1826), Hagen (1837), Friedrich Bessel (1838), W. F. Donkin (1844, 1856), und Morgan Crofton (1870) gegeben. Andere Mitwirkende waren Ellis (1844), De Morgan (1864), Glaisher (1872), und Giovanni Schiaparelli (1875). Peters (1856) Formel für, der wahrscheinliche Fehler einer einzelnen Beobachtung, ist weithin bekannt.

In den Autoren des neunzehnten Jahrhunderts auf der allgemeinen Theorie hat Laplace, Sylvestre Lacroix (1816), Littrow (1833), Adolphe Quetelet (1853), Richard Dedekind (1860), Helmert (1872), Hermann Laurent (1873), Liagre, Didion und Karl Pearson eingeschlossen. Augustus De Morgan und George Boole haben die Ausstellung der Theorie verbessert.

Andrey Markov hat den Begriff von Ketten von Markov (1906) eingeführt, der eine wichtige Rolle in der Theorie der stochastischen Prozesse und seinen Anwendungen gespielt hat. Die moderne auf der Maß-Theorie gestützte Wahrscheinlichkeitsrechnung wurde von Andrey Kolmogorov (1931) entwickelt.

Auf der geometrischen Seite (sieh integrierte Geometrie), waren Mitwirkende zu The Educational Times (Müller, Crofton, McColl, Wolstenholme, Watson und Artemas Martin) einflussreich.

Theorie

Wie andere Theorien ist die Wahrscheinlichkeitsrechnung eine Darstellung von probabilistic Konzepten in formellen Begriffen — d. h. in Begriffen, die getrennt von ihrer Bedeutung betrachtet werden können. Diese formellen Begriffe werden durch die Regeln der Mathematik und Logik manipuliert, und irgendwelche Ergebnisse werden interpretiert oder haben zurück ins Problem-Gebiet übersetzt.

Es hat mindestens zwei erfolgreiche Versuche gegeben, Wahrscheinlichkeit, nämlich die Formulierung von Kolmogorov und die Formulierung von Cox zu formalisieren. In der Formulierung von Kolmogorov (sieh Wahrscheinlichkeitsraum), werden Sätze als Ereignisse und Wahrscheinlichkeit selbst als ein Maß auf einer Klasse von Sätzen interpretiert. Im Lehrsatz von Cox wird Wahrscheinlichkeit als ein Primitiver genommen (d. h. nicht weiter analysiert), und die Betonung ist auf dem Konstruieren einer konsequenten Anweisung von Wahrscheinlichkeitswerten zu Vorschlägen. In beiden Fällen sind die Gesetze der Wahrscheinlichkeit dasselbe abgesehen von technischen Details.

Es gibt andere Methoden, um Unklarheit, zu messen

solcher als die Dempster-Shafer Theorie oder Möglichkeitstheorie,

aber diejenigen sind im Wesentlichen verschieden und mit den Gesetzen der Wahrscheinlichkeit, wie gewöhnlich verstanden, nicht vereinbar.

Anwendungen

Wahrscheinlichkeitstheorie wird im täglichen Leben in der Risikobewertung und im Handel auf Warenmärkten angewandt. Regierungen wenden normalerweise probabilistic Methoden in der Umweltregulierung an, wo es Pfad-Analyse genannt wird.

Ein gutes Beispiel ist die Wirkung der wahrgenommenen Wahrscheinlichkeit jedes weit verbreiteten Nahostkonflikts auf Ölpreisen - die Kräuselungseffekten in der Wirtschaft als Ganzes haben. Eine Bewertung durch einen Warenhändler, dass ein Krieg gegen weniger wahrscheinlich wahrscheinlicher ist, treibt Preise oder unten in die Höhe, und gibt anderen Händlern dieser Meinung Zeichen. Entsprechend werden die Wahrscheinlichkeiten unabhängig noch notwendigerweise sehr vernünftig weder bewertet. Die Theorie der Verhaltensfinanz ist erschienen, um die Wirkung solchen groupthink auf der Preiskalkulation, auf der Politik, und auf dem Frieden und Konflikt zu beschreiben.

Es kann vernünftig gesagt werden, dass die Entdeckung von strengen Methoden, Wahrscheinlichkeitsbewertungen zu bewerten und zu verbinden, moderne Gesellschaft tief betroffen hat. Entsprechend kann es von einer Wichtigkeit den meisten Bürgern sein, um zu verstehen, wie Verschiedenheit und Wahrscheinlichkeitsbewertungen gemacht werden, und wie sie zu Rufen und zu Entscheidungen besonders in einer Demokratie beitragen.

Eine andere bedeutende Anwendung der Wahrscheinlichkeitstheorie im täglichen Leben ist Zuverlässigkeit. Viele Verbrauchsgüter, wie Automobile und Verbraucherelektronik, verwenden Zuverlässigkeitstheorie im Produktdesign, um die Wahrscheinlichkeit des Misserfolgs zu reduzieren. Misserfolg-Wahrscheinlichkeit kann Entscheidungen einer Fertigung über eine Garantie eines Produktes beeinflussen.

Das Sprachmodell des geheimen Lagers und die anderen statistischen Sprachmodelle, die in der Verarbeitung der natürlichen Sprache verwendet werden, sind auch Beispiele von Anwendungen der Wahrscheinlichkeitstheorie.

Mathematische Behandlung

Denken Sie ein Experiment, das mehrere Ergebnisse erzeugen kann. Die Sammlung aller Ergebnisse wird den Beispielraum des Experimentes genannt. Der Macht-Satz des Beispielraums wird durch das Betrachten aller verschiedenen Sammlungen von möglichen Ergebnissen gebildet. Zum Beispiel kann das Rollen eines Sterbens sechs mögliche Ergebnisse erzeugen. Eine Sammlung von möglichen Ergebnissen gibt eine ungerade Zahl auf dem Sterben. So ist die Teilmenge {1,3,5} ein Element des Macht-Satzes des Beispielraums dessen sterben Rollen. Diese Sammlungen werden "Ereignisse" genannt. In diesem Fall, {1,3,5} ist das Ereignis dass die sterben Fälle auf einer ungeraden Zahl. Wenn, wie man sagt, die Ergebnisse, die wirklich Fall in einem gegebenen Ereignis, das Ereignis vorkommen, vorgekommen sind.

Eine Wahrscheinlichkeit ist eine Weise, jedes Ereignis ein Wert zwischen der Null und ein, mit der Voraussetzung zuzuteilen, dass das Ereignis, das aus allen möglichen Ergebnissen (in unserem Beispiel, das Ereignis {1,2,3,4,5,6}) zusammengesetzt ist, ein Wert von einem zugeteilt wird. Um sich als eine Wahrscheinlichkeit zu qualifizieren, muss die Anweisung von Werten die Voraussetzung befriedigen, dass, wenn Sie auf eine Sammlung von gegenseitig exklusiven Ereignissen schauen (Ereignisse ohne allgemeine Ergebnisse, z.B, sind die Ereignisse {1,6}, {3}, und {2,4} alle gegenseitig exklusiv), die Wahrscheinlichkeit, dass mindestens ein der Ereignisse vorkommen werden, durch die Summe der Wahrscheinlichkeiten aller individuellen Ereignisse gegeben wird.

Die Wahrscheinlichkeit eines Ereignisses A wird als P (A), p (A) oder Pr (A) geschrieben. Diese mathematische Definition der Wahrscheinlichkeit kann sich bis zu unendliche Beispielräume und sogar unzählbare Beispielräume mit dem Konzept eines Maßes ausstrecken.

Das Gegenteil oder die Ergänzung eines Ereignisses A sind das Ereignis [nicht] (d. h. das Ereignis Eines nicht Auftretens); durch seine Wahrscheinlichkeit wird gegeben. Als ein Beispiel stirbt die Chance, sechs auf einem sechsseitigen nicht zu rollen, ist. Sieh Ergänzungsereignis für eine mehr ganze Behandlung.

Wenn beide Ereignisse A und B auf einer einzelnen Leistung eines Experimentes vorkommen, wird das die Kreuzung oder gemeinsame Wahrscheinlichkeit von A und B, angezeigt als genannt.

Unabhängige Wahrscheinlichkeit

Wenn zwei Ereignisse, A und B dann unabhängig sind, ist die gemeinsame Wahrscheinlichkeit

:

zum Beispiel, wenn zwei Münzen geschnipst werden, ist die Chance beider, Köpfe seiend

,

Gegenseitig exklusiv

Wenn entweder Ereignis A oder Ereignis B oder beide Ereignisse auf einer einzelnen Leistung eines Experimentes vorkommen, wird das die Vereinigung der Ereignisse A und B angezeigt als genannt.

Wenn zwei Ereignisse dann gegenseitig exklusiv sind, ist die Wahrscheinlichkeit jedes Auftretens

:

Zum Beispiel stirbt die Chance, 1 oder 2 auf einem sechsseitigen zu rollen, ist

Nicht gegenseitig exklusiv

Wenn die Ereignisse dann nicht gegenseitig exklusiv

sind:

Zum Beispiel, wenn die Zeichnung einer einzelnen Karte aufs Geratewohl von einem regelmäßigen Deck von Karten, die Chance, ein Herz oder eine Gesichtskarte (J, Q, K) (oder diejenige zu bekommen, die beide ist) ist, wegen der 52 Karten eines Decks 13 sind Herzen, 12 sind Gesichtskarten, und 3 sind beide: Hier haben die Möglichkeiten in die "3 eingeschlossen, die sind sowohl", werden in jedes der "13 Herzen" als auch der "12 Gesichtskarten" eingeschlossen, aber sollte nur einmal aufgezählt werden.

Bedingte Wahrscheinlichkeit

Bedingte Wahrscheinlichkeit ist die Wahrscheinlichkeit von einem Ereignis A, in Anbetracht des Ereignisses eines anderen Ereignisses B.

Bedingte Wahrscheinlichkeit wird geschrieben, und wird "die Wahrscheinlichkeit von A, gegeben B" gelesen. Es wird durch definiert

:

Wenn dann unbestimmt ist. Bemerken Sie, dass in diesem Fall A und B unabhängig sind.

Zusammenfassung von Wahrscheinlichkeiten

Beziehung zur Zufälligkeit

In einem deterministischen Weltall, das auf Newtonischen Konzepten gestützt ist, würde es keine Wahrscheinlichkeit geben, wenn alle Bedingungen, (der Dämon von Laplace) bekannt sind. Im Fall von einem Roulette-Rad, wenn die Kraft der Hand und die Periode dieser Kraft bekannt ist, würde die Zahl, auf der der Ball anhalten wird, eine Gewissheit sein. Natürlich nimmt das auch Kenntnisse der Trägheit und Reibung des Rades, des Gewichts, der Glätte und der Rundung des Balls, der Schwankungen in der Handgeschwindigkeit während des Drehens und so weiter an. Eine probabilistic Beschreibung kann so nützlicher sein als Newtonische Mechanik, für das Muster von Ergebnissen von wiederholten Rollen des Roulette-Rades zu analysieren. Physiker stehen derselben Situation in der kinetischen Theorie von Benzin gegenüber, wo das System, während deterministisch, im Prinzip, so kompliziert ist (mit der Zahl von Molekülen normalerweise die Größenordnung von Avogadro unveränderliche 6.02 · 10), dass nur die statistische Beschreibung seiner Eigenschaften ausführbar ist.

Wahrscheinlichkeitstheorie ist erforderlich, Natur zu beschreiben. Eine revolutionäre Entdeckung des Anfangs der Physik des 20. Jahrhunderts war der zufällige Charakter aller physischen Prozesse, die an subatomaren Skalen vorkommen und durch die Gesetze der Quant-Mechanik geregelt werden. Die objektive Welle-Funktion entwickelt sich deterministisch, aber, gemäß der Kopenhagener Interpretation, befasst sie sich mit Wahrscheinlichkeiten des Beobachtens, das Ergebnis, das durch einen Welle-Funktionszusammenbruch wird erklärt, wenn eine Beobachtung gemacht wird. Jedoch hat sich der Verlust des Determinismus wegen instrumentalism mit der universalen Billigung nicht getroffen. Albert Einstein berühmt in einem Brief an Max Born: "Ich bin überzeugt, dass Gott nicht würfelt". Wie Einstein ist Erwin Schrödinger, der die Welle-Funktion, geglaubte Quant-Mechanik entdeckt hat, eine statistische Annäherung einer zu Grunde liegenden deterministischen Wirklichkeit. In modernen Interpretationen ist Quant decoherence subjektiv probabilistic für Verhalten verantwortlich.

Siehe auch

Zeichen

  • Kallenberg, O. (2005) Probabilistic Symmetries und Invariance Principles. Springer-Verlag, New York. 510 Internationale Seiten-Standardbuchnummer 0-387-25115-4
  • Kallenberg, O. (2002) Fundamente der Modernen Wahrscheinlichkeit, 2. Hrsg. Springer Series in der Statistik. 650 Internationale Seiten-Standardbuchnummer 0-387-95313-2
  • Olofsson, Peter (2005) Wahrscheinlichkeit, Statistik, und Stochastische Prozesse, Wiley-Zwischenwissenschaft. 504 internationale Seiten-Standardbuchnummer 0-471-67969-0.

Links


Dichtung / Polen
Impressum & Datenschutz