Eigentum von Markov

In der Wahrscheinlichkeitstheorie und Statistik der Begriff bezieht sich Eigentum von Markov auf das memoryless Eigentum eines stochastischen Prozesses. Es wird nach dem russischen Mathematiker Andrey Markov genannt.

Ein stochastischer Prozess hat das Eigentum von Markov, wenn der bedingte Wahrscheinlichkeitsvertrieb von zukünftigen Staaten des Prozesses nur auf den aktuellen Zustand abhängt, nicht auf der Folge von Ereignissen, die ihm vorangegangen sind. Ein Prozess mit diesem Eigentum wird einen Prozess von Markov genannt. Starkes Eigentum von Markov des Begriffes ist dem Eigentum von Markov ähnlich, außer dass die Bedeutung "der Gegenwart" in Bezug auf eine zufällige als ein Arbeitsschluss bekannte Variable definiert wird. Sowohl die Begriffe "Eigentum von Markov" als auch "das starke Eigentum von Markov" sind im Zusammenhang mit einem besonderen "memoryless" Eigentum des Exponentialvertriebs verwendet worden.

Die Begriff-Annahme von Markov wird verwendet, um ein Modell zu beschreiben, wo, wie man annimmt, das Eigentum von Markov wie ein verborgenes Modell von Markov hält.

Ein Markov zufälliges Feld, erweitert dieses Eigentum zu zwei oder mehr Dimensionen oder zu zufälligen für ein miteinander verbundenes Netz von Sachen definierten Variablen. Ein Beispiel eines Modells für solch ein Feld ist das Modell von Ising.

Ein System mit Prozessen der diskreten Zeit mit dem Eigentum von Markov ist als eine Kette von Markov bekannt.

Einführung

Ein stochastischer Prozess hat das Eigentum von Markov, wenn der bedingte Wahrscheinlichkeitsvertrieb von zukünftigen Staaten des Prozesses (bedingt durch beide vorigen und gegenwärtigen Werte) nur auf den aktuellen Zustand abhängt; d. h. in Anbetracht der Gegenwart hängt die Zukunft von der Vergangenheit nicht ab. Wie man sagt, ist ein Prozess mit diesem Eigentum Markovian oder ein Prozess von Markov. Der berühmteste Prozess von Markov ist eine Kette von Markov. Brownsche Bewegung ist ein anderer wohl bekannter Prozess von Markov.

Geschichte

Weil einige Details der frühen Geschichte des Eigentums von Markov diese kurze Rechnung sehen.

Definition

Lassen Sie, ein Wahrscheinlichkeitsraum mit einem Filtrieren, für einige (völlig bestellt) Index-Satz zu sein; und lassen Sie, ein messbarer Raum zu sein. - wie man sagt, besitzt geschätzter an das Filtrieren angepasster stochastischer Prozess wenn, für jeden und jeden damit

:

Im Fall, wo ein getrennter Satz mit der getrennten Sigma-Algebra ist und, kann das wie folgt wiederformuliert werden:

:.

Starkes Eigentum von Markov

Nehmen Sie an, dass das ein stochastischer Prozess auf einem Wahrscheinlichkeitsraum mit dem natürlichen Filtrieren ist. Dann wird gesagt, das starke Eigentum von Markov wenn für jeden Arbeitsschluss zu haben, der auf dem Ereignis bedingt ist

Das starke Eigentum von Markov ist ein stärkeres Eigentum als das gewöhnliche Eigentum von Markov, da durch die Einnahme des Arbeitsschlusses das gewöhnliche Eigentum von Markov abgeleitet werden kann.

Alternative Formulierungen

Wechselweise kann das Eigentum von Markov wie folgt formuliert werden.

:

für alle und begrenzt und messbar.

Anwendungen

Eine sehr wichtige Anwendung des Eigentums von Markov in einer verallgemeinerten Form ist in der Kette von Markov Berechnung von Monte Carlo im Zusammenhang der Statistik von Bayesian.

Siehe auch

  • Kette von Markov
  • Decke von Markov
  • Entscheidung von Markov bearbeitet
  • Kausale Bedingung von Markov
  • Modell von Markov
  • Gleichung des Hausierers-Kolmogorov

Zeichen


Bodrum / Tragischer Held
Impressum & Datenschutz