Přeskočit na obsah

Markov chain Monte Carlo

Z Wikipedie, otevřené encyklopedie

Markov chain Monte Carlo (MCMC, česky asi Monte Carlo pomocí Markovova řetězce) je ve statistice třída algoritmů pro vzorkování z pravděpodobnostního rozdělení založená na konstrukci Markovova řetězce, který má požadované rozdělení jako svou rovnovážnou distribuci. Stav řetězce po několika krocích se pak použije jako vzorek z požadované distribuce. Kvalita vzorku se zvyšuje se zvýšením počtu kroků.

Konvergence algoritmu Metropolis-Hastings. MCMC se pokusí přiblížit k modré distribuci prostřednictvím oranžové distribuce

Metody Monte Carlo pomocí náhodné procházky tvoří velkou podtřídu MCMC metod.

Aplikační domény

Klasifikace

Metoda Monte Carlo s náhodnou procházkou

Podrobnější informace naleznete v článku náhodná procházka.

Vícerozměrné integrály

Pokud se použije metoda MCMC pro aproximaci vícerozměrného integrálu, soubor "chodců" se pohybuje náhodně. Pro každý bod, kde chodec zastaví, se hodnota integrandu v tomto bodě započítává do integrálu. Chodec pak může provést řadu průběžných kroků po okolí, hledaje místo s přiměřeně velkým přínosem pro integrál, do kterého se přesune v dalším kroku.

Metody Monte Carlo s náhodnou procházkou patří mezi náhodné simulace neboli Monte Carlo metody. Nicméně, náhodné vzorky integrandu používané při běžné Monte Carlo integraci jsou statisticky nezávislé, kdežto ty používané v metodách MCMC jsou korelovány. Markovův řetězec je konstruován takovým způsobem, aby měl daný integrand jako svou rovnovážnou distribuci.

Příklady

Příklady metod Monte Carlo s náhodnou procházkou zahrnují následující:

  • Metropolisův-Hastingsův algoritmus: Tato metoda generuje náhodnou procházku s využitím navrhované hustoty rozdělení a používá metodu pro odmítnutí některých z navrhovaných vzorků.
  • Gibbsovo vzorkování: Tato metoda vyžaduje, aby všechny podmíněné distribuce cílové distribuce byly vzorkovány přesně. Je populární, částečně proto, že nevyžaduje žádné "ladění".
  • Slice vzorkování: Tato metoda spočívá na principu, že lze vzorkovat z distribuce pomocí vzorkování rovnoměrně z oblasti pod grafem dané funkce hustoty. Metoda střídá rovnoměrné vzorkování ve svislém směru s rovnoměrným vzorkováním z vodorovného "plátku" (angl. slice) definovaném aktuální vertikální polohou.
  • Multiple-try Metropolis: Tato metoda je variantou Metropolisova-Hastingsova algoritmu, která umožňuje opakované pokusy v každém bodě. Tím, že je možné vykonat větší kroky při každé iteraci, pomáhá řešit prokletí dimenzionality.
  • Reversibilní skok: Tato metoda je variantou Metropolisova-Hastingsova algoritmu, která umožňuje návrhy, které mění dimenzionalitu prostoru.[4] MCMC metody, které mění dimenzionalitu, se již dlouho používají v aplikacích statistické fyziky, kde se pro některé problémy používá distribuce, která je velký kanonický soubor (například, když počet molekul v krabici je proměnný). Ale varianta reverzibilního skoku je užitečná, když se dělá MCMC nebo Gibbsovo vzorkování nad neparametrickým bayesovským modelem, například takovým, který zahrnuje Dirichletův proces nebo proces čínské restaurace, kde počet směsných komponent/klasterů/atd. je automaticky odvozen z dat.

Jiné metody MCMC

Markov Chain quasi-Monte Carlo (MCQMC)[5][6]

Konvergence

Obvykle není těžké sestavit Markovův řetěz s požadovanými vlastnostmi. Obtížnější problém je určit, kolik kroků je zapotřebí ke konvergenci k stacionárnímu rozdělení s přijatelnou chybou. Dobrý řetěz bude mít rychlé mísení: stacionární distribuce je dosaženo rychle z libovolné počáteční pozice.

Typicky, MCMC vzorkování pouze aproximuje cílovou distribuci, protože je tam vždy nějaký zbytkový efekt počáteční pozice. Sofistikovanější algoritmy založené na MCMC, jako například coupling from the past můžou produkovat přesné vzorky, za cenu dodatečného výpočtu a neomezeného (i když konečného v očekávání) času běhu.

Mnoho metod Monte Carlo s náhodnou procházkou se pohybuje po rovnovážné distribuci v relativně malých krocích, bez tendence, aby kroky pokračovaly ve stejném směru. Tyto metody jdou snadno implementovat a analyzovat, ale bohužel může trvat dlouhou dobu, než procházka prozkoumá celý prostor. Chodec se často vrací zpět a pokrývá již prozkoumaný prostor.

Související články

Poznámky

  1. See Gill 2008.
  2. See Robert & Casella 2004.
  3. BANERJEE, Sudipto; CARLIN, Bradley P.; GELFAND, Alan P. Hierarchical Modeling and Analysis for Spatial Data. Second Edition. vyd. [s.l.]: CRC Press ISBN 978-1-4398-1917-3. S. xix. 
  4. See Green 1995.
  5. Chen, S., Josef Dick, and Art B. Owen. "Consistency of Markov chain quasi-Monte Carlo on continuous state spaces." The Annals of Statistics 39.2 (2011): 673-701.
  6. Tribble, Seth D. Markov chain Monte Carlo algorithms using completely uniformly distributed driving sequences. Diss. Stanford University, 2007.


Reference

  • Christophe Andrieu, Nando De Freitas and Arnaud Doucet, An Introduction to MCMC for Machine Learning, 2003
  • ASMUSSEN, Søren; GLYNN, Peter W. Stochastic Simulation: Algorithms and Analysis. [s.l.]: Springer, 2007. (Stochastic Modelling and Applied Probability; sv. 57). 
  • ATZBERGER, P. An Introduction to Monte-Carlo Methods [online]. [cit. 2015-05-31]. Dostupné v archivu pořízeném dne 2009-02-20. 
  • BERG, Bernd A. Markov Chain Monte Carlo Simulations and Their Statistical Analysis. [s.l.]: World Scientific, 2004. 
  • BOLSTAD, William M. Understanding Computational Bayesian Statistics. [s.l.]: Wiley, 2010. ISBN 0-470-04609-0. 
  • CASELLA, George; GEORGE, Edward I. Explaining the Gibbs sampler. The American Statistician. 1992, s. 167–174. DOI 10.2307/2685208.  (Basic summary and many references.)
  • GELFAND, A.E.; SMITH, A.F.M. Sampling-Based Approaches to Calculating Marginal Densities. Journal of the American Statistical Association. 1990, s. 398–409. DOI 10.1080/01621459.1990.10476213. 
  • GELMAN, Andrew; CARLIN, John B.; STERN, Hal S.; RUBIN, Donald B. Bayesian Data Analysis. 1st. vyd. [s.l.]: Chapman and Hall, 1995.  (See Chapter 11.)
  • GEMAN, S.; GEMAN, D. Stochastic Relaxation, Gibbs Distributions, and the Bayesian Restoration of Images. IEEE Transactions on Pattern Analysis and Machine Intelligence. 1984, s. 721–741. 
  • GILKS, W.R.; RICHARDSON, S.; SPIEGELHALTER, D.J. Markov Chain Monte Carlo in Practice. [s.l.]: Chapman and Hall/CRC, 1996. 
  • GILL, Jeff. Bayesian methods: a social and behavioral sciences approach. 2nd. vyd. [s.l.]: Chapman and Hall/CRC, 2008. ISBN 1-58488-562-9. 
  • GREEN, P.J. Reversible-jump Markov chain Monte Carlo computation and Bayesian model determination. Biometrika. 1995, s. 711–732. DOI 10.1093/biomet/82.4.711. 
  • NEAL, Radford M. Slice Sampling. Annals of Statistics. 2003, s. 705–767. DOI 10.1214/aos/1056562461. JSTOR 3448413. 
  • NEAL, Radford M. Probabilistic Inference Using Markov Chain Monte Carlo Methods [online]. 1993. Dostupné online. 
  • ROBERT, Christian P.; CASELLA, G. Monte Carlo Statistical Methods. 2nd. vyd. [s.l.]: Springer, 2004. ISBN 0-387-21239-6. 
  • RUBINSTEIN, R.Y.; KROESE, D.P. Simulation and the Monte Carlo Method. 2nd. vyd. [s.l.]: Wiley, 2007. ISBN 978-0-470-17794-5. 
  • SMITH, R.L. Efficient Monte Carlo Procedures for Generating Points Uniformly Distributed Over Bounded Regions. Operations Research. 1984, s. 1296–1308. DOI 10.1287/opre.32.6.1296. 
  • SPALL, J.C. Estimation via Markov Chain Monte Carlo. IEEE Control Systems Magazine. April 2003, s. 34–45. DOI 10.1109/mcs.2003.1188770. 
  • STRAMER, O.; TWEEDIE, R. Langevin-Type Models II: Self-Targeting Candidates for MCMC Algorithms. Methodology and Computing in Applied Probability. 1999, s. 307–328. DOI 10.1023/A:1010090512027. 


Externí odkazy

V tomto článku byl použit překlad textu z článku Markov chain Monte Carlo na anglické Wikipedii.