Die Ungleichheit von Markov

In der Wahrscheinlichkeitstheorie gibt die Ungleichheit von Markov einen für die Wahrscheinlichkeit gebundenen oberen, dass eine nichtnegative Funktion einer zufälligen Variable größer oder gleich einer positiven Konstante ist. Es wird genannt nach dem russischen Mathematiker Andrey Markov, obwohl es früher in der Arbeit von Pafnuty Tschebyscheff (der Lehrer von Markov), und viele Quellen besonders in der Analyse erschienen ist, kennzeichnen Sie es als Tschebyscheffs Ungleichheit oder die Ungleichheit von Bienaymé.

Die Ungleichheit von Markov (und andere ähnliche Ungleichheit) verbinden Wahrscheinlichkeiten mit Erwartungen, und stellen (oft) lose, aber noch nützliche Grenzen für die kumulative Vertriebsfunktion einer zufälligen Variable zur Verfügung.

Ein Beispiel einer Anwendung der Ungleichheit von Markov ist die Tatsache, die (das Annehmen von Einkommen sind nichtnegativ), nicht mehr als 1/5 der Bevölkerung mehr als 5mal das durchschnittliche Einkommen haben kann.

Behauptung

Wenn X eine zufällige Variable und a> 0, dann ist

:

Auf der Sprache der Maß-Theorie stellt die Ungleichheit von Markov fest, dass, wenn (X, Σ, μ) ein Maß-Raum ist, ƒ eine messbare verlängerte reellwertige Funktion, und, dann ist

:

Der Leser wird gewarnt, dass dieses Maß theoretische Definition manchmal Tschebyscheffs Ungleichheit genannt werden kann

.

Folgeerscheinung: Tschebyscheffs Ungleichheit

Tschebyscheffs Ungleichheit verwendet die Abweichung am bestimmten die Wahrscheinlichkeit, dass eine zufällige Variable weit vom bösartigen abgeht. Spezifisch:

:

für jeden a> 0. Hier ist Var (X) die Abweichung X, definiert als:

:

Tschebyscheffs Ungleichheit folgt aus der Ungleichheit von Markov durch das Betrachten der zufälligen Variable

:

für den die Ungleichheit von Markov liest

:

Beweise

Wir trennen den Fall, in dem der Maß-Raum ein Wahrscheinlichkeitsraum vom allgemeineren Fall ist, weil der Wahrscheinlichkeitsfall für den allgemeinen Leser zugänglicher ist.

Auf der Sprache der Wahrscheinlichkeitstheorie

Für jedes Ereignis E, lassen Sie mich der Hinweis zufällige Variable von E, d. h. ich = 1 sein, wenn E vorkommt und = 0 sonst. So ich = 1 wenn das Ereignis |X  ein Vorkommen und ich = 0 wenn |X

:

der klar ist, wenn wir die zwei möglichen Werte von mir denken. Entweder |X = 0 oder ich = 1 und durch die Bedingung von mir, die Ungleichheit muss wahr sein.

Deshalb

:

Jetzt, mit der Linearität von Erwartungen, ist die linke Seite dieser Ungleichheit dasselbe als

:

So haben wir

:

und seitdem a> 0 können wir beide Seiten durch a teilen.

Auf der Sprache der Maß-Theorie

Wir können annehmen, dass die Funktion nichtnegativ ist, da nur sein absoluter Wert in der Gleichung hereingeht. Betrachten Sie jetzt die reellwertige Funktion s auf X als gegeben durch

s (x) =

\begin {Fälle }\

\epsilon, & \text {wenn} f (x) \geq \epsilon \\

0, & \text {wenn} f (x)

Dann ist eine einfache solche Funktion dass. Durch die Definition von Lebesgue integrierter

:

\int_X f (x) \, d\mu \geq \int_X s (x) \, d \mu = \epsilon \mu (\{x\in X: \, f (x) \geq \epsilon \})

</Mathematik>

und seitdem können beide Seiten geteilt werden durch, vorherrschend

:

Q.E.D.

Matrixgeschätzter Markov

Lassen Sie, selbst adjoint matrixgeschätzte zufällige Variable zu sein, und. Dann

:

\Pr (M \npreceq ein \cdot I) \leq \frac {\\mathrm {tr }\\ist (E (M) \right)} abgereist.

</Mathematik>

Beispiele

Siehe auch

  • Die Ungleichheit von McDiarmid
  • Ungleichheit von Bernstein (Wahrscheinlichkeitstheorie)

High-School-Ball / Präsident der Kontrollstelle
Impressum & Datenschutz