Die Ungleichheit von Jensen

In der Mathematik verbindet die Ungleichheit von Jensen, genannt nach dem dänischen Mathematiker Johan Jensen, den Wert einer konvexen Funktion eines Integrals zum Integral der konvexen Funktion. Es wurde von Jensen 1906 bewiesen. In Anbetracht seiner Allgemeinheit erscheint die Ungleichheit in vielen Formen abhängig vom Zusammenhang, von denen einige unten präsentiert werden. In seiner einfachsten Form stellt die Ungleichheit fest, dass die konvexe Transformation eines bösartigen weniger ist als oder gleich dem bösartigen nach der konvexen Transformation; es ist eine einfache Folgeerscheinung, dass das Gegenteil auf konkave Transformationen zutrifft.

Die Ungleichheit von Jensen verallgemeinert die Behauptung, dass die schneidende Linie einer konvexen Funktion über dem Graphen der Funktion liegt, die die Ungleichheit von Jensen für zwei Punkte ist: Die schneidende Linie besteht aus belasteten Mitteln der konvexen Funktion, während der Graph der Funktion die konvexe Funktion der belasteten Mittel, ist

Es gibt auch spricht von der Ungleichheit von Jensen, die das des Integrals der konvexen Funktion gebundene obere schätzen.

Im Zusammenhang der Wahrscheinlichkeitstheorie wird es allgemein in der folgenden Form festgesetzt: Wenn X eine zufällige Variable ist und eine konvexe Funktion, dann ist

Behauptungen

Die klassische Form der Ungleichheit von Jensen schließt mehrere Zahlen und Gewichte ein. Die Ungleichheit kann ganz allgemein mit entweder der Sprache der Maß-Theorie oder (gleichwertig) Wahrscheinlichkeit festgesetzt werden. In der Probabilistic-Einstellung kann die Ungleichheit weiter zu seiner vollen Kraft verallgemeinert werden.

Begrenzte Form

Für eine echte konvexe Funktion, Nummern x, x..., x in seinem Gebiet und positiven Gewichten a, kann die Ungleichheit von Jensen als festgesetzt werden:

:

und die Ungleichheit wird umgekehrt, wenn konkav ist, der ist

:

Als ein besonderer Fall, wenn die Gewichte von allen zu sein, gleich ist, dann (1) und (2) werden

::

Zum Beispiel ist der Funktionsklotz (x) konkav (bemerken Sie, dass wir Jensen verwenden können, um Konvexität oder Konkavität zu beweisen, wenn es für zwei reelle Zahlen hält, deren Funktionen genommen werden), so gründet das Vertreten in der vorherigen Formel (4) (Logarithmus) die vertraute arithmetische Ungleichheit des Mittel-geometrischen Mittels:

:

Die Variable x kann auf Anfrage eine Funktion einer anderen Variable (oder Satz von Variablen) t, so dass x = g (t) sein. All dieser trägt direkt zum allgemeinen dauernden Fall: Die Gewichte ersetzt nach einer nichtnegativen Integrable-Funktion f (x), wie ein Wahrscheinlichkeitsvertrieb und die Summierungen zu sein, werden durch Integrale ersetzt.

Mit dem Maß theoretisch und Probabilistic-Form

Lassen Sie (Ω, A, μ), ein Maß-Raum, solch dass μ (Ω zu sein), = 1. Wenn g eine reellwertige Funktion ist, die μ-integrable ist, und wenn eine konvexe Funktion auf der echten Linie, dann ist:

:

In der echten Analyse können wir eine Schätzung auf verlangen

:

wo reelle Zahlen sind, und eine nichtnegative reellwertige Funktion ist, die Lebesgue-integrable ist. In diesem Fall, das Maß von Lebesgue des Bedürfnisses nicht, Einheit sein. Jedoch, durch die Integration

durch den Ersatz kann der Zwischenraum wiedererklettert werden, so dass es Maß-Einheit hat. Dann kann die Ungleichheit von Jensen angewandt werden, um zu bekommen

:

Dasselbe Ergebnis kann in einer Wahrscheinlichkeitstheorie-Einstellung durch eine einfache Änderung der Notation gleichwertig festgesetzt werden. Lassen Sie, ein Wahrscheinlichkeitsraum, X eine integrable reellwertige zufällige Variable und eine konvexe Funktion zu sein. Dann:

:

In dieser Wahrscheinlichkeitseinstellung ist das Maß μ als eine Wahrscheinlichkeit, das Integral in Bezug auf μ als ein erwarteter Wert und die Funktion g als eine zufällige Variable X beabsichtigt.

Allgemeine Ungleichheit in einer Probabilistic-Einstellung

Lassen Sie mehr allgemein T ein echter topologischer Vektorraum, und X T-valued integrable zufällige Variable sein. In dieser allgemeinen Einstellung bedeutet integrable, dass dort ein Element in T, solch dass für jedes Element z im Doppelraum von T besteht:

:

Hier tritt für die zum σ-algebra bedingte Erwartung ein. Diese allgemeine Behauptung nimmt zu den vorherigen ab, wenn der topologische Vektorraum T die echte Achse ist, und der triviale σ-algebra ist.

Im Falle dass das die Subsigma-Algebra wird durch eine messbare Funktion die Behauptung erzeugt, als gegeben werden kann

:

oder

:

Beweise

Die Ungleichheit von Jensen kann auf mehrere Weisen bewiesen werden, und drei verschiedene Beweise entsprechend den verschiedenen Behauptungen werden oben angeboten. Vor dem Unternehmen dieser mathematischen Abstammungen, jedoch, lohnt es sich, ein intuitives grafisches auf dem probabilistic Fall gestütztes Argument zu analysieren, wo X eine reelle Zahl ist (sieh Zahl). Einen hypothetischen Vertrieb von X Werten annehmend, kann man die Position und sein Image im Graphen sofort identifizieren. Bemerkend, dass für konvexen mappings der entsprechende Vertrieb von Y-Werten zunehmend "ausgestreckt" wird, um Werte von X zu vergrößern, ist es leicht zu sehen, dass der Vertrieb von Y im Zwischenraum entsprechend X> X breiter und in X für irgendwelche X schmaler ist; insbesondere das ist auch dafür wahr. Folglich in diesem Bild wird sich die Erwartung von Y immer aufwärts in Bezug auf die Position bewegen, und das "beweist" die Ungleichheit, d. h.

:

mit der Gleichheit wenn φ (X) ist z.B nicht ausschließlich konvex, wenn es eine Gerade ist, oder wenn X einem degenerierten Vertrieb folgt (d. h. eine Konstante ist).

Die Beweise formalisieren unten diesen intuitiven Begriff.

Beweis 1 (begrenzte Form)

Wenn λ und λ zwei willkürliche nichtnegative solche reelle Zahlen sind, dass λ + λ = 1 dann Konvexität dessen einbezieht

:

Das kann leicht verallgemeinert werden: Wenn λ, λ..., λ nichtnegative solche reelle Zahlen dass λ +... + λ = 1, dann sind

:

für jeden x..., x. Diese begrenzte Form der Ungleichheit von Jensen kann durch die Induktion bewiesen werden: Durch Konvexitätshypothesen ist die Behauptung für n = 2 </U-Boot> wahr. Nehmen Sie an, dass es auch für einen n wahr ist, muss man es für n + 1 beweisen. Mindestens ein der λ sind ausschließlich positiv, sagen Sie λ; deshalb durch die Konvexitätsungleichheit:

:

\begin {richten }\aus

\varphi\left (\sum_ {i=1} ^ {n+1 }\\lambda_i x_i\right) & = \varphi\left (\lambda_1 x_1 + (1-\lambda_1) \sum_ {i=2} ^ {n+1} \frac {\\lambda_i} {1-\lambda_1} x_i\right) \\

& \leq \lambda_1 \,\varphi (x_1) + (1-\lambda_1) \varphi\left (\sum_ {i=2} ^ {n+1 }\\ist (\frac {\\lambda_i} {1-\lambda_1} x_i\right) \right) abgereist.

\end {richten }\aus

</Mathematik>

Seitdem kann man die Induktionsvoraussetzungen auf den letzten Begriff in der vorherigen Formel anwenden, um das Ergebnis, nämlich die begrenzte Form der Ungleichheit von Jensen zu erhalten.

Um die allgemeine Ungleichheit von dieser begrenzten Form zu erhalten, muss man ein Dichte-Argument verwenden. Die begrenzte Form kann als umgeschrieben werden:

:

wo μ ein durch eine willkürliche konvexe Kombination von Deltas von Dirac gegebenes Maß ist:

:

Da konvexe Funktionen dauernd sind, und da konvexe Kombinationen von Deltas von Dirac im Satz von Wahrscheinlichkeitsmaßnahmen schwach dicht sind (wie leicht nachgeprüft werden konnte), wird die allgemeine Behauptung einfach durch ein Begrenzungsverfahren erhalten.

Beweis 2 (mit dem Maß theoretische Form)

Lassen Sie g eine reellwertige μ-Integrable-Funktion auf einem Wahrscheinlichkeitsraum Ω sein, und φ eine konvexe Funktion auf den reellen Zahlen sein zu lassen. Da φ konvex ist, an jeder reellen Zahl x haben wir einen nichtleeren Satz von Subableitungen, von denen als Linien gedacht werden kann, die den Graphen von φ an x, aber für der an oder unter dem Graphen von φ an allen Punkten berühren.

Jetzt, wenn wir definieren

:

wegen der Existenz von Subableitungen für konvexe Funktionen können wir einen a und solchen b dass wählen

:

für den ganzen echten x und

:.

Aber dann haben wir das

:

für den ganzen x. Da wir ein Wahrscheinlichkeitsmaß haben, ist das Integral Eintönigkeit mit μ (Ω) = 1 so dass

:

\geq \int_\Omega (ag + b) \, d\mu

a\int_\Omega g \, d\mu + \int_\Omega b \, d\mu

ax_0 +b\cdot1

\varphi (x_0)

\varphi (\int_\Omega g \, d\mu), </Mathematik>

wie gewünscht.

Beweis 3 (allgemeine Ungleichheit in einem probabilistic, der untergeht)

Lassen Sie X eine integrable zufällige Variable sein, die Werte in einem echten topologischen Vektorraum T nimmt. Seitdem, ist für irgendwelchen, die Menge konvex

:

nimmt ab, weil sich θ 0 nähert. Insbesondere das Subdifferenzial von φ, der an x in der Richtung y bewertet ist, ist durch bestimmt

:

Es wird leicht gesehen, dass das Subdifferenzial in y geradlinig ist und, da der in der Rechte der vorherigen Formel genommene infimum kleiner ist als der Wert desselben Begriffes für θ = 1, bekommt man

:

Insbesondere für ein willkürliches U-Boot \U 03C3\Algebra können wir die letzte Ungleichheit bewerten, wenn man erhält

:

Jetzt, wenn wir die Erwartung nehmen, die zu an beiden Seiten des vorherigen Ausdrucks bedingt ist, bekommen wir das Ergebnis seitdem:

:

durch die Linearität des Subdifferenzials in der y Variable und das folgende wohl bekannte Eigentum der bedingten Erwartung:

:

Anwendungen und spezielle Fälle

Form, die eine Wahrscheinlichkeitsdichte-Funktion einschließt

Nehmen Sie an, dass Ω eine messbare Teilmenge der echten Linie ist und f (x) eine nichtnegative solche Funktion dass ist

:

Auf der probabilistic Sprache ist f eine Wahrscheinlichkeitsdichte-Funktion.

Dann wird die Ungleichheit von Jensen die folgende Behauptung über konvexe Integrale:

Wenn g reellwertige messbare Funktion ist und φ über die Reihe von g, dann konvex

ist:

Wenn g (x) = x, dann nimmt diese Form der Ungleichheit zu einem allgemein verwendeten speziellen Fall ab:

:

Alternative begrenzte Form

Wenn ein begrenzter Satz ist, und wenn ein Zählen-Maß darauf ist, dann nimmt die allgemeine Form zu einer Behauptung über Summen ab:

:

vorausgesetzt, dass

Es gibt auch eine unendliche getrennte Form.

Statistische Physik

Die Ungleichheit von Jensen ist von besonderer Wichtigkeit in der statistischen Physik, wenn die konvexe Funktion ein Exponential-ist, gebend:

:

wo Winkelklammern erwartete Werte in Bezug auf etwas Wahrscheinlichkeitsvertrieb in der zufälligen Variable X. anzeigen

Der Beweis ist in diesem Fall sehr einfach (vgl Krämer, Sec. 5.5). Die gewünschte Ungleichheit folgt direkt, durch das Schreiben

:

e^ {\\langle X \rangle} \left\langle e^ {X - \langle X \rangle} \right\rangle </Mathematik>

und dann die Ungleichheit anwendend

:

zum Exponential-Finale.

Informationstheorie

Wenn p (x) der wahre Wahrscheinlichkeitsvertrieb für x ist, und q (x) ein anderer Vertrieb ist, dann sich an die Ungleichheit von Jensen wegen der zufälligen Variable Y (x) = q (x) wendend, geben/p (x) und die Funktion (y) = &minus;log (y)

::::

ein Ergebnis hat die Ungleichheit von Gibbs genannt.

Es zeigt, dass die durchschnittliche Nachrichtenlänge minimiert wird, wenn Codes auf der Grundlage von den wahren Wahrscheinlichkeiten p aber nicht jedem anderen Vertrieb q zugeteilt werden. Die Menge, die nichtnegativ ist, wird die Kullback-Leibler Abschweifung von q von p genannt.

Seitdem - loggen (x) ist eine strenge konvexe Funktion für x> 0, hieraus folgt dass Gleichheit hält, wenn p (x) q (x) fast überall gleichkommt.

Lehrsatz von Rao-Blackwell

Wenn L eine konvexe Funktion ist, dann von der Ungleichheit von Jensen bekommen wir

:

So, wenn δ (X) ein Vorkalkulator eines unbemerkten Parameters θ gegeben ein Vektor von observables X ist; und wenn T (X) ein genügend statistischer für θ ist; dann kann ein verbesserter Vorkalkulator, im Sinne, einen kleineren erwarteten Schadensumfang L zu haben, erhalten werden, indem er rechnet

:

der erwartete Wert von δ in Bezug auf θ, übernommen alle möglichen Vektoren von Beobachtungen X vereinbar mit demselben Wert von T (X) wie das beobachtet.

Dieses Ergebnis ist als der Lehrsatz von Rao-Blackwell bekannt.

Siehe auch

Referenzen

Links


Karl H. Pribram / Stuart Hameroff
Impressum & Datenschutz