Kette von Markov Monte Carlo

Kette von Markov Monte Carlo (MCMC) sind Methoden (die zufälligen Spaziergang Methoden von Monte Carlo einschließen) eine Klasse von Algorithmen, um vom Wahrscheinlichkeitsvertrieb auszufallen, der auf dem Konstruieren einer Kette von Markov gestützt ist, die den gewünschten Vertrieb als seine Gleichgewichtsverteilung hat. Der Staat der Kette nach einer Vielzahl von Schritten wird dann als eine Probe des gewünschten Vertriebs verwendet. Die Qualität der Probe verbessert sich als eine Funktion der Zahl von Schritten.

Gewöhnlich ist es nicht hart, eine Kette von Markov mit den gewünschten Eigenschaften zu bauen. Das schwierigere Problem ist zu bestimmen, wie viele Schritte erforderlich sind, um zum stationären Vertrieb innerhalb eines annehmbaren Fehlers zusammenzulaufen. Eine gute Kette wird das schnelle Mischen haben — der stationäre Vertrieb wird schnell erreicht, von einer willkürlichen Position — beschrieben weiter unter der Kettenmischen-Zeit von Markov anfangend.

Der typische Gebrauch der MCMC-Stichprobenerhebung kann nur dem Zielvertrieb näher kommen, weil es immer eine restliche Wirkung der Startposition gibt. Hoch entwickeltere MCMC-basierte Algorithmen wie Kopplung von der Vergangenheit können genaue Proben, auf Kosten der zusätzlichen Berechnung und eines unbegrenzten (obwohl begrenzt, der en general) Laufzeit erzeugen.

Die allgemeinste Anwendung dieser Algorithmen berechnet mehrdimensionale Integrale numerisch. In diesen Methoden bewegt sich ein Ensemble von "Spaziergängern" zufällig. An jedem Punkt, wohin der Spaziergänger geht, wird der Integrand-Wert an diesem Punkt zum Integral aufgezählt. Der Spaziergänger kann dann mehrere versuchsweise Schritte um das Gebiet machen, nach einem Platz mit dem vernünftig hohen Beitrag zum Integral suchend, um als nächstes umzuziehen. Zufällige Spaziergang-Methoden sind eine Art zufällige Simulation oder Methode von Monte Carlo. Jedoch, wohingegen die zufälligen Proben des in einer herkömmlichen Integration von Monte Carlo verwendeten integrand statistisch unabhängig sind, werden diejenigen, die in MCMC verwendet sind, aufeinander bezogen. Eine Kette von Markov wird auf solche Art und Weise gebaut, um den integrand als seine Gleichgewichtsverteilung zu haben. Das ist häufig leicht zu tun.

Mehrdimensionale Integrale entstehen häufig in Statistik von Bayesian, rechenbetonter Physik, rechenbetonter Biologie und linguistischer Datenverarbeitung, so wird Kette von Markov Methoden von Monte Carlo in jenen Feldern weit verwendet. Sieh zum Beispiel Gill und Robert & Casella.

Zufällige Spaziergang-Algorithmen

Viele Kette von Markov Methoden von Monte Carlo bewegt die Gleichgewichtsverteilung in relativ kleinen Schritten ohne Tendenz für die Schritte, in derselben Richtung weiterzugehen. Diese Methoden sind leicht, durchzuführen und zu analysieren, aber leider kann es für den Spaziergänger viel Zeit in Anspruch nehmen, um den ganzen Raum zu erforschen. Der Spaziergänger wird sich häufig zurück verdoppeln und bereits bedeckten Boden bedecken. Hier ist ein zufälliger Spaziergang MCMC Methoden:

  • Algorithmus der Metropole-Hastings: Erzeugt einen zufälligen Spaziergang mit einer Vorschlag-Dichte und einer Methode, um vorgeschlagene Bewegungen zurückzuweisen.
  • Gibbs, der ausfällt: Verlangt, dass der ganze bedingte Vertrieb des Zielvertriebs genau probiert werden kann. Populär teilweise, weil, wenn das so ist, die Methode keine 'Einstimmung' verlangt.
  • Scheibe-Stichprobenerhebung: Hängt vom Grundsatz ab, dass man Probe von einem Vertrieb kann, indem man gleichförmig vom Gebiet unter dem Anschlag seiner Dichte-Funktion ausfällt. Diese Methode lässt gleichförmige Stichprobenerhebung in der vertikalen Richtung mit der gleichförmigen Stichprobenerhebung von der horizontalen durch die aktuelle vertikale Position definierten 'Scheibe' abwechseln.
  • Metropole des vielfachen Versuchs: Eine Schwankung des Algorithmus der Metropole-Hastings, der vielfache Proben an jedem Punkt erlaubt. Das erlaubt dem Algorithmus, allgemein größere Schritte bei jeder Wiederholung zu machen, die hilft, zu großen dimensionalen Problemen innere Probleme zu bekämpfen.

Das Vermeiden zufälliger Spaziergänge

Hoch entwickeltere Algorithmen verwenden eine Methode, den Spaziergänger davon abzuhalten, sich zurück zu verdoppeln. Diese Algorithmen können härter sein durchzuführen, aber können schnellere Konvergenz (d. h. weniger Schritte für ein genaues Ergebnis) ausstellen.

  • Aufeinander folgende Überentspannung: Eine Version von Monte Carlo dieser Technik kann als eine Schwankung auf Gibbs gesehen werden, der ausfällt; es vermeidet manchmal zufällige Spaziergänge.
  • Hybrid Monte Carlo (HMC): Versuche, zufälliges Spaziergang-Verhalten durch das Einführen eines Hilfsschwung-Vektoren und das Einführen der Dynamik von Hamiltonian zu vermeiden, wo die potenzielle Energiefunktion die Zieldichte ist. Die Schwung-Proben werden nach der Stichprobenerhebung verworfen. Das Endergebnis von Hybridem MCMC besteht darin, dass Vorschläge den Beispielraum in größeren Schritten bewältigen und deshalb weniger aufeinander bezogen werden und zum Zielvertrieb schneller zusammenlaufen.
  • Einige Schwankungen auf der Scheibe, die auch ausfällt, vermeiden zufällige Spaziergänge.
  • Langevin MCMC und andere Methoden, die sich auf den Anstieg (und vielleicht die zweite Ableitung) vom späteren Klotz verlassen, vermeiden zufällige Spaziergänge durch das Bilden von Vorschlägen, die mit größerer Wahrscheinlichkeit in der Richtung auf die höhere Wahrscheinlichkeitsdichte sein werden.

Das Ändern der Dimension

Die Methode des umkehrbaren Sprungs ist eine Variante der Metropole-Hastings, die Vorschläge erlaubt, die den dimensionality des Raums ändern. Diese Methode wurde 1995 von Peter Green von Bristoler Universität vorgeschlagen. Kettenmethoden von Monte Carlo von Markov, die dimensionality ändern, sind auch lange in statistischen Physik-Anwendungen verwendet worden, wo für einige Probleme ein Vertrieb, der ein großartiges kanonisches Ensemble ist, verwendet wird (z.B, wenn die Zahl von Molekülen in einem Kasten variabel ist). Eine Art Variante des umkehrbaren Sprungs ist auch erforderlich, wenn man MCMC oder Gibbs tut, der über nichtparametrische Modelle von Bayesian wie diejenigen ausfällt, die den Prozess von Dirichlet oder chinesischen Restaurant-Prozess, wo die Zahl von sich vermischenden Bestandteilen/Trauben/usw. einschließen. wird aus den Daten automatisch abgeleitet.

Siehe auch

Zeichen

  • Christophe Andrieu u. a. "Eine Einführung in MCMC für das Maschinenlernen", 2003
  • Bernd A. Berg. "Kette von Markov Monte Carlo Simulations und Ihre Statistische Analyse". Singapur, Wissenschaftlicher Welt-2004.
  • George Casella und Edward I. George. "Den Probierer von Gibbs erklärend". Der amerikanische Statistiker, 46:167-174, 1992. (Grundlegende Zusammenfassung und viele Verweisungen.)
  • A.E. Gelfand und A.F.M. Smith. "Stichprobenerhebungsbasierte Annäherungen an das Rechnen von Randdichten". J. Amerikanische Statistische Vereinigung, 85:398-409, 1990.
  • Andrew Gelman, John B. Carlin, Hal S. Stern und Donald B. Rubin. Bayesian Datenanalyse. London: Hausierer und Saal. Erstausgabe, 1995. (Sieh Kapitel 11.)
  • S. Geman und D. Geman. "Stochastische Entspannung, Gibbs Distributions und die Bayesian Wiederherstellung von Images". IEEE Transaktionen auf der Muster-Analyse- und Maschinenintelligenz, 6:721-741, 1984.
  • Radford M. Neal, Kette von Probabilistic Inference Using Markov Monte Carlo Methods, 1993.
  • Gilks W.R. Richardson S. und Spiegelhalter D.J. "Kette von Markov Monte Carlo in der Praxis". Chapman & Hall/CRC, 1996.
  • C.P. Robert und G. Casella. "Monte Carlo Statistical Methods" (die zweite Ausgabe). New York: Springer-Verlag, 2004.
  • R. Y. Rubinstein und D. P. Kroese. Simulation und die Methode von Monte Carlo (die zweite Ausgabe). New York: John Wiley & Sons, 2007. Internationale Standardbuchnummer 978-0-470-17794-5
  • R. L. Smith "Effiziente Verfahren von Monte Carlo, um Über Begrenzte Gebiete Gleichförmig Verteilte Punkte", Operationsforschung, Vol Zu erzeugen. 32, Seiten 1296-1308, 1984.
  • Asmussen und Glynn "Stochastische Simulation: Algorithmen und Analyse", Springer. Reihe: Das Stochastische Modellieren und die Angewandte Wahrscheinlichkeit, Vol. 57, 2007.
  • P. Atzberger, "Eine Einführung in Methoden von Monte Carlo."
http://www.math.ucsb.edu/~atzberg/spring2006/monteCarloMethod.pdf.
  • Bolstad, William M. (2010) Verstehende Rechenbetonte Bayesian Statistik, internationale Standardbuchnummer von John Wiley 0-470-04609-8

Weiterführende Literatur

Links


Porthos / Rufen Sie (Gedächtnis) zurück
Impressum & Datenschutz