Genügend statistisch

In der Statistik ist ein genügend statistischer ein statistischer, der das Eigentum der Angemessenheit in Bezug auf ein statistisches Modell und seinen verbundenen unbekannten Parameter hat, bedeutend, dass "keiner anderer statistisch, der von derselben Probe berechnet werden kann, jede Zusatzinformation betreffs des Werts des Parameters zur Verfügung stellt". Ein statistischer ist für eine Familie des Wahrscheinlichkeitsvertriebs genügend, wenn die Probe, von der sie berechnet wird, keine Zusatzinformation gibt, als das statistische tut, betreffs welchen von jenem Wahrscheinlichkeitsvertrieb diese der Bevölkerung ist, von der die Probe genommen wurde.

In praktischen Begriffen, in Anbetracht einer Reihe unabhängiger identisch verteilter auf einem unbekannten Parameter bedingter Daten, ist ein genügend statistischer eine Funktion, deren Wert die ganze Information enthält, musste jede Schätzung des Parameters (z.B eine maximale Wahrscheinlichkeitsschätzung) schätzen. Wegen des factorization Lehrsatzes (sieh unten), für einen genügend statistischen, kann der gemeinsame Vertrieb als geschrieben werden. Von diesem factorization kann es leicht gesehen werden, dass die maximale Wahrscheinlichkeitsschätzung dessen nur durch aufeinander wirken wird. Gewöhnlich ist das genügend statistische eine einfache Funktion der Daten, z.B die Summe aller Datenpunkte.

Mehr allgemein kann der "unbekannte Parameter" einen Vektoren von unbekannten Mengen vertreten oder kann alles über das Modell vertreten, das unbekannt oder nicht völlig angegeben ist. In solch einem Fall kann das genügend statistische eine Reihe von Funktionen, genannt gemeinsam genügend statistisch sein. Gewöhnlich gibt es so viele Funktionen, wie es Rahmen gibt. Zum Beispiel, für einen Vertrieb von Gaussian mit dem unbekannten bösartig und Abweichung, gemeinsam genügend statistisch, von dem maximale Wahrscheinlichkeitsschätzungen von beiden Rahmen geschätzt werden können, besteht aus zwei Funktionen, der Summe aller Datenpunkte und der Summe aller karierten Datenpunkte (oder gleichwertig, die Beispiel-Mittel- und Beispielabweichung).

Das Konzept, wegen Herrn Ronald Fisher, ist zur Behauptung gleichwertig, dass, bedingt durch den Wert eines genügend statistischen für einen Parameter, der gemeinsame Wahrscheinlichkeitsvertrieb der Daten von diesem Parameter nicht abhängt. Sowohl das statistische als auch der zu Grunde liegende Parameter können Vektoren sein.

Ein zusammenhängendes Konzept ist das der geradlinigen Angemessenheit, die schwächer ist als Angemessenheit, aber in einigen Fällen angewandt werden kann, wo es nicht statistisch genügend gibt, obwohl es auf geradlinige Vorkalkulatoren eingeschränkt wird. Die Struktur-Funktionsgeschäfte von Kolmogorov mit individuellen begrenzten Daten, der zusammenhängende Begriff dort ist `algorithmisch genügend statistisch.'

Das Konzept der Angemessenheit ist aus Bevorzugung in der beschreibenden Statistik wegen der starken Abhängigkeit von einer Annahme der Verteilungsform gefallen (sieh Pitman-Koopman-Darmois Lehrsatz unten), aber bleibt sehr wichtig in der theoretischen Arbeit.

Mathematische Definition

Ein statistischer T (X) ist genügend, um Parameter θ genau zu unterliegen, wenn der bedingte Wahrscheinlichkeitsvertrieb der Daten X, in Anbetracht des statistischen T (X), vom Parameter θ nicht abhängt, d. h.

:

oder in der Schnellschrift

:

Beispiel

Als ein Beispiel ist die bösartige Probe für das bösartige (μ) einer Normalverteilung mit der bekannten Abweichung genügend. Sobald die bösartige Probe bekannt ist, kann keine weitere Information über μ bei der Probe selbst erhalten werden. Andererseits ist die Mittellinie für das bösartige nicht genügend: Selbst wenn die Mittellinie der Probe bekannt ist, wissend, dass die Probe selbst weitere Auskunft über die bösartige Bevölkerung geben würde. Zum Beispiel, wenn die Beobachtungen, die weniger sind als die Mittellinie, nur ein bisschen weniger sind, aber Beobachtungen, die die Mittellinie überschreiten, überschreiten sie durch einen großen Betrag, dann würde das ein Lager auf jemandes Schlussfolgerung über die bösartige Bevölkerung haben.

Fischer-Neyman factorization Lehrsatz

Der factorization Lehrsatz des Fischers oder factorization Kriterium stellen eine günstige Charakterisierung eines genügend statistischen zur Verfügung. Wenn die Wahrscheinlichkeitsdichte-Funktion (x) ƒ ist, dann ist T für θ genügend, wenn, und nur wenn Funktionen g und h solch dass gefunden werden können

:

d. h. der Dichte-ƒ kann factored in ein solches Produkt sein, dass ein Faktor, h, von θ und dem anderen Faktor nicht abhängt, der wirklich von θ abhängt, hängt von x nur durch T (x) ab.

Wahrscheinlichkeitsgrundsatz-Interpretation

Eine Implikation des Lehrsatzes ist, dass, wenn sie Wahrscheinlichkeitsbasierte Schlussfolgerung verwenden werden, zwei Sätze von Daten, die denselben Wert für den genügend statistischen T (X) nachgeben, immer dieselben Schlussfolgerungen über θ nachgeben werden. Durch das factorization Kriterium ist die Abhängigkeit der Wahrscheinlichkeit von θ nur in Verbindung mit T (X). Da das dasselbe in beiden Fällen ist, wird die Abhängigkeit von θ dasselbe ebenso sein, zu identischen Schlussfolgerungen führend.

Beweis

Wegen Hoggs und Craigs. Lassen Sie, zeigen Sie eine zufällige Probe von einem Vertrieb an, der den pdf f (x, θ) für γ, X hat..., seien Sie X) ein statistischer, dessen pdf g ist (y; θ). Dann Y = u (X, X..., X) ist ein genügend statistischer für θ wenn und nur wenn, für etwas Funktion H,

:

Nehmen Sie erstens das an

:

Wir werden die Transformation y = u (x, x..., x), weil ich = 1..., n machen, umgekehrte Funktionen x = w (y, y..., y), weil ich = 1..., n, und Jacobian habend. So,

:

\prod_ {i=1} ^n f \left [w_i (y_1, y_2, \dots, y_n); \theta \right] =

|J | g (y; \theta) H \left [w_1 (y_1, y_2, \dots, y_n), \dots, w_n (y_1, y_2, \dots, y_n) \right].

</Mathematik>

Das linke Mitglied ist das Gelenk pdf g (y, y..., y; θ) Y = u (X..., X)..., Y = u (X..., X). Im rechten Mitglied, ist der pdf dessen, so dass der Quotient ist und; d. h. es ist der bedingte pdf von gegebenen.

Aber, und so, wurde gegeben, um nicht abzuhängen. Seitdem wurde in der Transformation und entsprechend nicht in Jacobian nicht eingeführt, hieraus folgt dass nicht abhängt und das eine genügend Statistik dafür ist.

Das gegenteilige wird durch die Einnahme bewiesen:

:

wo nicht abhängt, weil nur abhängen, auf den auf, wenn bedingt, durch, eine genügend Statistik durch die Hypothese unabhängig sind. Teilen Sie jetzt beide Mitglieder durch den absoluten Wert von nichtverschwindendem Jacobian, und ersetzen Sie nach den Funktionen darin. Das gibt nach

:

wo Jacobian mit dem ersetzten durch ihren Wert in Begriffen ist. Das linke Mitglied ist notwendigerweise das Gelenk pdf dessen. Seitdem, und so, hängt dann nicht ab

:

ist eine Funktion, die nicht abhängt.

Ein einfacherer mehr veranschaulichender Beweis ist wie folgt, obwohl er nur im getrennten Fall gilt.

Wir verwenden die Schnellschrift-Notation, um die gemeinsame Wahrscheinlichkeit dadurch anzuzeigen. Seitdem ist eine Funktion dessen, wir haben und so:

:

mit der letzten Gleichheit, die durch die Definition des bedingten Wahrscheinlichkeitsvertriebs wahr ist. So mit und.

Gegenseitig, wenn, wir haben

:\begin {richten }\aus

f_\theta (t) & = \sum _ {x: T (x) = t\f_\theta (x, t) \\

& = \sum _ {x: T (x) = t\f_\theta (x) \\

& = \sum _ {x: T (x) = t\(x) b_\theta (t) \\

& = \left (\sum _ {x: T (x) = t\(x) \right) b_\theta (t).

\end {richten} </Mathematik> {aus}

Mit der ersten Gleichheit durch die Definition von pdf für vielfache Variablen, das zweite durch die Bemerkung oben, das dritte durch die Hypothese und das vierte, weil die Summierung nicht zu Ende ist.

So ist der bedingte Wahrscheinlichkeitsvertrieb:

:\begin {richten }\aus

f_ {\\theta|t} (x)

& = \frac {f_\theta (x, t)} {f_\theta (t)} \\

& = \frac {f_\theta (x)} {f_\theta (t)} \\

& = \frac {(x) b_\theta (t)} ist {\\abgereist (\sum _ {x: T (x) = t\(x) \right) b_\theta (t)} \\

& = \frac {(x)} resümieren {\\_ {x: T (x) = t\(x)}.

\end {richten} </Mathematik> {aus}

Mit der ersten Gleichheit definitionsgemäß der bedingten Wahrscheinlichkeitsdichte, des zweiten durch die Bemerkung oben, das dritte durch die Gleichheit, die oben, und das vierte durch die Vereinfachung bewiesen ist. Dieser Ausdruck hängt nicht ab und ist so ein genügend statistischer.

Minimale Angemessenheit

Ein genügend statistischer ist genügend minimal, wenn es als eine Funktion von irgendwelchem anderes genügend statistisches vertreten werden kann. Mit anderen Worten, S (X) ist genügend wenn und nur wenn minimal

  1. S (X), ist und genügend
  2. wenn T (X) genügend ist, dann dort besteht eine Funktion f solch dass S (X) = f (T (X)).

Intuitiv gewinnt ein minimaler genügend statistischer am effizientesten die ganze mögliche Information über den Parameter θ.

Eine nützliche Charakterisierung der minimalen Angemessenheit besteht darin, dass, wenn die Dichte f, S (X) besteht, genügend wenn und nur wenn minimal ist

: ist &theta unabhängig;: S (x) = S (y)

Das folgt als eine direkte Folge vom factorization angegebenen Lehrsatz von Fisher.

Ein Fall, in dem es nicht genügend statistisch minimal gibt, wurde von Bahadur, 1954 gezeigt. Jedoch, unter milden Bedingungen, besteht ein minimaler genügend statistischer wirklich immer. Insbesondere im Euklidischen Raum halten diese Bedingungen immer, ob die zufälligen Variablen (vereinigt mit) alle getrennt sind oder alle dauernd sind.

Wenn dort ein minimaler genügend statistischer besteht, und das gewöhnlich der Fall ist, dann ist jeder ganze genügend statistische genügend notwendigerweise minimal (bemerken Sie, dass diese Behauptung die Auswahl eines pathologischen Falls nicht ausschließt, in dem ein ganzer genügend besteht, während es nicht genügend statistisch minimal gibt). Während es hart ist, Fälle zu finden, in denen ein minimaler genügend statistischer nicht besteht, ist es nicht so hart, um Fälle zu finden, in denen es nicht statistisch abgeschlossen gibt.

Die Sammlung von Wahrscheinlichkeitsverhältnissen ist ein minimaler genügend statistischer, wenn getrennt ist oder eine Dichte-Funktion hat.

Beispiele

Vertrieb von Bernoulli

Wenn X...., X unabhängige Bernoulli-verteilte zufällige Variablen mit dem erwarteten Wert p sind, dann ist die Summe T (X) = X +... + X ein genügend statistischer für p (hier 'Erfolg' entspricht X = 1 und 'Misserfolg' zu X = 0; so ist T die Gesamtzahl von Erfolgen)

Das wird durch das Betrachten des gemeinsamen Wahrscheinlichkeitsvertriebs gesehen:

:

Weil die Beobachtungen unabhängig sind, kann das als geschrieben werden

:

P^ {x_1} (1-p) ^ {1-x_1} P^ {x_2} (1-p) ^ {1-x_2 }\\cdots P^ {x_n} (1-p) ^ {1-x_n} \, \! </Mathematik>

und, Inkassovollmächte von p und 1 &minus; p, gibt

:

p^ {\\summieren x_i} (1-p) ^ {n-\sum x_i} =p^ {T (x)} (1-p) ^ {n-T (x)} \, \!

</Mathematik>

der das factorization Kriterium, mit h (x) = 1 befriedigt, gerade eine Konstante seiend.

Bemerken Sie die entscheidende Eigenschaft: Der unbekannte Parameter p wirkt mit den Daten x nur über den statistischen T (x) = Σ x aufeinander.

Rechteckverteilung

Wenn X...., X unabhängig und auf dem Zwischenraum [0, θ] gleichförmig verteilt sind, dann ist T (X) = max (X, …, X) für θ genügend — das Beispielmaximum ist ein genügend statistischer für das Bevölkerungsmaximum.

Um das zu sehen, denken Sie die gemeinsame Wahrscheinlichkeitsdichte-Funktion X = (X, …, X). Weil die Beobachtungen unabhängig sind, kann der pdf als ein Produkt von individuellen Dichten geschrieben werden

:

f_X (x_1, \ldots, x_n)

&= \frac {1} {\\theta }\\mathbf {1} _ {\\{0\leq x_1\leq\theta\}} \cdots

\frac {1} {\\theta }\\mathbf {1} _ {\\{0\leq x_n\leq\theta\}} \\

&= \frac {1} {\\theta^n }\\mathbf {1} _ {\\{0\leq\min\{x_i\}\\} }\\mathbf {1} _ {\\{\\max\{x_i\}\\leq\theta\} }\

\end {richten} </Mathematik> {aus}

wo 1 die Anzeigefunktion ist. So nimmt die Dichte Form an, die vom Fischer-Neyman factorization Lehrsatz erforderlich ist, wo h (x) = 1, und der Rest des Ausdrucks eine Funktion nur θ und T (x) = max {x} ist.

Tatsächlich ist die minimale Abweichung unvoreingenommene Vorkalkulator (MVUE) für θ

:

Das ist das Beispielmaximum, erklettert, um für die Neigung zu korrigieren, und ist MVUE durch den Lehrsatz von Lehmann-Scheffé. Nicht bestiegenes Beispielmaximum T (X) ist der maximale Wahrscheinlichkeitsvorkalkulator für θ.

Rechteckverteilung (mit zwei Rahmen)

Wenn unabhängig und auf dem Zwischenraum gleichförmig verteilt sind (wo und unbekannte Rahmen sind), dann ist ein zweidimensionaler genügend statistischer dafür.

Um das zu sehen, denken Sie die gemeinsame Wahrscheinlichkeitsdichte-Funktion dessen. Weil die Beobachtungen unabhängig sind, kann der pdf als ein Produkt von individuellen Dichten geschrieben werden, d. h.

:

f_ {X_1^n} (x_1^n)

&= \prod_ {i=1} ^n \left ({1 \over \beta-\alpha }\\Recht) \mathbf {1} _ {\{\alpha \leq x_i \leq \beta \} }\

= \left ({1 \over \beta-\alpha }\\Recht) ^n \mathbf {1} _ {\{\alpha \leq x_i \leq \beta, \, \forall \, ich = 1, \ldots, n\}} \\

&= \left ({1 \over \beta-\alpha }\\Recht) ^n \mathbf {1} _ {\{\alpha \, \leq \, \min_ {1 \leq i \leq n} X_i \}} \mathbf {1} _ {\{\max_ {1 \leq i \leq n} X_i \, \leq \, \beta \}}.

\end {richten} </Mathematik> {aus}

Die gemeinsame Dichte der Probe nimmt die Form an, die vom Fischer-Neyman factorization Lehrsatz, durch das Lassen erforderlich

ist:

h (x_1^n) = 1, \quad

g_ {(\alpha, \beta)} (x_1^n) = \left ({1 \over \beta-\alpha }\\Recht) ^n \mathbf {1} _ {\{\alpha \, \leq \, \min_ {1 \leq i \leq n} X_i \}} \mathbf {1} _ {\{\max_ {1 \leq i \leq n} X_i \, \leq \, \beta \}}.

\end {richten} </Mathematik> {aus}

Seitdem hängt vom Parameter nicht ab und hängt nur von durch die Funktion ab

der Fischer-Neyman factorization Lehrsatz bezieht ein ist ein genügend statistischer dafür.

Vertrieb von Poisson

Wenn X...., X unabhängig sind und einen Vertrieb von Poisson mit dem Parameter λ haben, dann ist die Summe T (X) = X +... + X ein genügend statistischer für λ.

Um das zu sehen, denken Sie den gemeinsamen Wahrscheinlichkeitsvertrieb:

:

\Pr (X=x) =P (X_1=x_1, X_2=x_2, \ldots, X_n=x_n). \,

</Mathematik>Weil die Beobachtungen unabhängig sind, kann das als geschrieben werden:

{E^ {-\lambda} \lambda^ {x_1} \over x_1!} \cdot

{E^ {-\lambda} \lambda^ {x_2} \over x_2!} \cdots

{E^ {-\lambda} \lambda^ {x_n} \over x_n!} \,

</Mathematik>

der als geschrieben werden kann

:

E^ {-n\lambda} \lambda^ {(x_1+x_2 +\cdots+x_n)} \cdot

{1 \over x_1! x_2! \cdots x_n!} \,

</Mathematik>

der zeigt, dass das factorization Kriterium zufrieden ist, wo h (x) das Gegenstück des Produktes des factorials ist. Bemerken Sie, dass der Parameter λ mit den Daten nur durch seine Summe T (X) aufeinander wirkt.

Normalverteilung

Wenn unabhängig und normalerweise mit dem erwarteten Wert θ (ein Parameter) und bekannte begrenzte Abweichung verteilt sind, dann ist ein genügend statistischer für θ.

Um das zu sehen, denken Sie die gemeinsame Wahrscheinlichkeitsdichte-Funktion dessen. Weil die Beobachtungen unabhängig sind, kann der pdf als ein Produkt von individuellen Dichten, d. h. - geschrieben werden

:

f_ {X_1^n} (x_1^n)

& = \prod_ {i=1} ^n \tfrac {1} {\\sqrt {2\pi\sigma^2} }\\, e^ {-(x_i-\theta) ^2 / (2\sigma^2) }\

= (2\pi\sigma^2) ^ {-n/2 }\\, e^ {-\sum_ {i=1} ^n (x_i-\theta) ^2 / (2\sigma^2)} \\

& = (2\pi\sigma^2) ^ {-n/2 }\\, e^ {-\sum_ {i=1} ^n ((x_i-\overline {x}) - (\theta-\overline {x})) ^2 / (2\sigma^2)} \\

& = (2\pi\sigma^2) ^ {-n/2 }\\, \exp \left ({-1\over2\sigma^2} \left (\sum_ {i=1} ^n (x_i-\overline {x}) ^2 + \sum_ {i=1} ^n (\theta-\overline {x}) ^2 - 2\sum_ {i=1} ^n (x_i-\overline {x}) (\theta-\overline {x}) \right) \right).

\end {richten} </Mathematik> {aus}

Dann, seitdem, der einfach durch die Erweiterung dieses Begriffes, gezeigt werden kann

:f_ {X_1^n} (x_1^n)

&= (2\pi\sigma^2) ^ {-n\over2 }\\, e^ {{-1\over2\sigma^2} (\sum_ {i=1} ^n (x_i-\overline {x}) ^2 + n (\theta-\overline {x}) ^2)}

&= (2\pi\sigma^2) ^ {-n\over2 }\\, e^ {{-1\over2\sigma^2} \sum_ {i=1} ^n (x_i-\overline {x}) ^2 }\\, e^ {{-n\over2\sigma^2} (\theta-\overline {x}) ^2}.

\end {richten} </Mathematik> {aus}Die gemeinsame Dichte der Probe nimmt die Form an, die vom Fischer-Neyman factorization Lehrsatz, durch das Lassen erforderlich ist:

h (x_1^n) = (2\pi\sigma^2) ^ {-n\over2 }\\, e^ {{-1\over2\sigma^2} \sum_ {i=1} ^n (x_i-\overline {x}) ^2}, \, \, \,

g_ {\\theta} (x_1^n) = e^ {{-n\over2\sigma^2} (\theta-\overline {x}) ^2}.

\end {richten} </Mathematik> {aus}

Seitdem hängt vom Parameter nicht ab und hängt nur von durch die Funktion ab

der Fischer-Neyman factorization Lehrsatz bezieht ein ist ein genügend statistischer dafür.

Exponentialvertrieb

Wenn unabhängig und mit dem erwarteten Wert θ exponential verteilt sind (ein unbekannter reellwertiger positiver Parameter), dann ist ein genügend statistischer für θ.

Um das zu sehen, denken Sie die gemeinsame Wahrscheinlichkeitsdichte-Funktion dessen. Weil die Beobachtungen unabhängig sind, kann der pdf als ein Produkt von individuellen Dichten, d. h. - geschrieben werden:f_ {X_1^n} (x_1^n)

&= \prod_ {i=1} ^n {1 \over \theta} \, e^ {{-1 \over \theta} x_i }\

= {1 \over \theta^n }\\, e^ {{-1 \over \theta} \sum_ {i=1} ^nx_i}.

\end {richten} </Mathematik> {aus}Die gemeinsame Dichte der Probe nimmt die Form an, die vom Fischer-Neyman factorization Lehrsatz, durch das Lassen erforderlich ist:

h (x_1^n) = 1, \, \, \,

g_ {\\theta} (x_1^n) = {1 \over \theta^n }\\, e^ {{-1 \over \theta} \sum_ {i=1} ^nx_i}.

\end {richten} </Mathematik> {aus}Seitdem hängt vom Parameter nicht ab und hängt nur von durch die Funktion abder Fischer-Neyman factorization Lehrsatz bezieht ein ist ein genügend statistischer dafür.

Gammavertrieb

Wenn unabhängig und als a verteilt sind, wo und unbekannte Rahmen eines Gammavertriebs sind, dann ist ein zweidimensionaler genügend statistischer dafür.

Um das zu sehen, denken Sie die gemeinsame Wahrscheinlichkeitsdichte-Funktion dessen. Weil die Beobachtungen unabhängig sind, kann der pdf als ein Produkt von individuellen Dichten, d. h. - geschrieben werden:f_ {X_1^n} (x_1^n)

&= \prod_ {i=1} ^n \left ({1 \over \Gamma (\alpha) \beta^ {\\Alpha} }\\Recht) x_i^ {\\Alpha-1} e^\\Recht) ^n \left (\prod_ {i=1} ^n x_i\right) ^ {\\Alpha 1\e^.

\end {richten} </Mathematik> {aus}Die gemeinsame Dichte der Probe nimmt die Form an, die vom Fischer-Neyman factorization Lehrsatz, durch das Lassen erforderlich ist:h (x_1^n) = 1, \, \, \,

g_ {(\alpha \, \, \beta)} (x_1^n) = \left ({1 \over \Gamma (\alpha) \beta^ {\\Alpha} }\\Recht) ^n \left (\prod_ {i=1} ^n x_i\right) ^ {\\Alpha 1\e^.

\end {richten} </Mathematik> {aus}Seitdem hängt vom Parameter nicht ab und hängt nur von durch die Funktion ab

der Fischer-Neyman factorization Lehrsatz bezieht ein ist ein genügend statistischer für

Lehrsatz von Rao-Blackwell

Angemessenheit findet eine nützliche Anwendung im Lehrsatz von Rao-Blackwell. Es stellt fest, dass, wenn g (X) eine Art des Vorkalkulatoren von θ ist, dann normalerweise ist die bedingte Erwartung von g (X) gegeben genügend statistischer T (X) ein besserer Vorkalkulator von θ, und nie schlechter ist. Manchmal kann man einen sehr groben Vorkalkulatoren g (X) sehr leicht bauen, und dann diesen bedingten erwarteten Wert bewerten, um einen Vorkalkulatoren zu bekommen, der in verschiedenen optimalen Sinnen ist.

Exponentialfamilie

Gemäß dem Pitman-Koopman-Darmois Lehrsatz, unter Familien des Wahrscheinlichkeitsvertriebs, dessen sich Gebiet mit dem Parameter nicht ändert, der nur in Exponentialfamilien wird schätzt, ist dort ein genügend statistischer, dessen Dimension begrenzt bleibt, als Beispielgröße zunimmt. Denken Sie weniger knapp sind unabhängige identisch verteilte zufällige Variablen, deren, wie man bekannt, Vertrieb in einer Familie des Wahrscheinlichkeitsvertriebs ist. Nur wenn diese Familie eine Exponentialfamilie ist, ist dort (vielleicht Vektor-geschätzt) genügend statistisch, wessen Zahl von Skalarbestandteilen als die Beispielgröße n Zunahmen nicht zunimmt.

Dieser Lehrsatz zeigt, dass Angemessenheit (oder eher, die Existenz eines Skalars oder Vektor-geschätzt der begrenzten Dimension genügend statistisch) scharf die möglichen Formen des Vertriebs einschränkt.

Andere Typen der Angemessenheit

Angemessenheit von Bayesian

Eine alternative Formulierung der Bedingung, dass ein statistischer, gesetzter in einem Zusammenhang von Bayesian genügend sein, den späteren erhaltenen Vertrieb durch das Verwenden der vollen Datei und durch das Verwenden nur eines statistischen einschließt. So ist die Voraussetzung dass, für fast jeden x,

:

Es stellt sich heraus, dass diese "Angemessenheit von Bayesian" eine Folge der Formulierung oben ist, jedoch sind sie im unendlich-dimensionalen Fall nicht direkt gleichwertig. Eine Reihe von theoretischen Ergebnissen für die Angemessenheit in einem Zusammenhang von Bayesian ist verfügbar.

Geradlinige Angemessenheit

Ein Konzept genannt "geradlinige Angemessenheit" kann in einem Zusammenhang von Bayesian, und mehr allgemein formuliert werden. Definieren Sie zuerst den besten geradlinigen Propheten eines Vektoren Y gestützt auf X als. Dann ist ein geradliniger statistischer T (x) genügend wenn geradlinig

:

Siehe auch

  • Vollständigkeit eines statistischen
  • Der Lehrsatz von Basu auf der Unabhängigkeit der ganzen genügend und untergeordneten Statistik
  • Lehrsatz von Lehmann-Scheffé: Ein ganzer genügend Vorkalkulator ist der beste Vorkalkulator seiner Erwartung
  • Lehrsatz von Rao-Blackwell
  • Die genügend Dimensionsverminderung
  • Untergeordneter statistischer

Referenzen

  • Trick, Y. (2003) Das Wörterbuch von Oxford von Statistischen Begriffen, OUP. Internationale Standardbuchnummer 0-19-920613-9

Sviatoslav Richter / Richard Helms
Impressum & Datenschutz