Property |
Value |
dbo:abstract
|
- Markov-Chain-Monte-Carlo-Verfahren (kurz MCMC-Verfahren; seltener auch Markov-Ketten-Monte-Carlo-Verfahren) sind eine Klasse von Algorithmen, die Stichproben aus Wahrscheinlichkeitsverteilungen ziehen. Dies geschieht auf der Basis der Konstruktion einer Markow-Kette, welche die erwünschte Verteilung als ihre stationäre Verteilung aufweist. Der Zustand der Kette nach einer großen Zahl von Schritten wird dann als Stichprobe der erwünschten Verteilung benutzt. Die Qualität der Stichprobe steigt mit zunehmender Zahl der Schritte. MCMC-Verfahren erzeugen Systeme im kanonischen Zustand. Eine hinreichende, aber nicht notwendige, Bedingung, dass ein MCMC-Verfahren den kanonischen Zustand als stationäre Verteilung aufweist, ist die Detailed-Balance-Eigenschaft. Üblicherweise gelingt es leicht, eine Markow-Kette mit den erwünschten Eigenschaften zu konstruieren. Das Schwierigere ist es, zu ermitteln, wie viele Schritte nötig sind, um Konvergenz zur stationären Verteilung mit akzeptablem Fehler zu erreichen bzw. den Algorithmus so zu gestalten, dass möglichst effektiv unabhängige Systemzustände generiert werden. Eine gute Kette mit einer gut gewählten Anfangsverteilung wird schnell konvergieren, d. h. die stationäre Verteilung wird schnell erreicht. Bei typischer Anwendung von MCMC-Verfahren kann die Zielverteilung nur näherungsweise erreicht werden, da es immer einen gewissen Resteffekt der Anfangsverteilung gibt. Häufige Anwendungen dieser Algorithmen finden sich bei der numerischen Berechnung mehrdimensionaler Integrale. Diese finden sich oft im Rahmen der Bayes’schen Statistik sowie rechnerischen Anwendungen in der Physik (beispielsweise der Statistischen Physik oder Pfadintegralen in der Quantenfeldtheorie) und der Biologie/Bioinformatik (bei der Proteinstrukturvorhersage). (de)
- Markov-Chain-Monte-Carlo-Verfahren (kurz MCMC-Verfahren; seltener auch Markov-Ketten-Monte-Carlo-Verfahren) sind eine Klasse von Algorithmen, die Stichproben aus Wahrscheinlichkeitsverteilungen ziehen. Dies geschieht auf der Basis der Konstruktion einer Markow-Kette, welche die erwünschte Verteilung als ihre stationäre Verteilung aufweist. Der Zustand der Kette nach einer großen Zahl von Schritten wird dann als Stichprobe der erwünschten Verteilung benutzt. Die Qualität der Stichprobe steigt mit zunehmender Zahl der Schritte. MCMC-Verfahren erzeugen Systeme im kanonischen Zustand. Eine hinreichende, aber nicht notwendige, Bedingung, dass ein MCMC-Verfahren den kanonischen Zustand als stationäre Verteilung aufweist, ist die Detailed-Balance-Eigenschaft. Üblicherweise gelingt es leicht, eine Markow-Kette mit den erwünschten Eigenschaften zu konstruieren. Das Schwierigere ist es, zu ermitteln, wie viele Schritte nötig sind, um Konvergenz zur stationären Verteilung mit akzeptablem Fehler zu erreichen bzw. den Algorithmus so zu gestalten, dass möglichst effektiv unabhängige Systemzustände generiert werden. Eine gute Kette mit einer gut gewählten Anfangsverteilung wird schnell konvergieren, d. h. die stationäre Verteilung wird schnell erreicht. Bei typischer Anwendung von MCMC-Verfahren kann die Zielverteilung nur näherungsweise erreicht werden, da es immer einen gewissen Resteffekt der Anfangsverteilung gibt. Häufige Anwendungen dieser Algorithmen finden sich bei der numerischen Berechnung mehrdimensionaler Integrale. Diese finden sich oft im Rahmen der Bayes’schen Statistik sowie rechnerischen Anwendungen in der Physik (beispielsweise der Statistischen Physik oder Pfadintegralen in der Quantenfeldtheorie) und der Biologie/Bioinformatik (bei der Proteinstrukturvorhersage). (de)
|
dbo:author
| |
dbo:originalTitle
|
- Equation of State Calculations by Fast Computing Machines (de)
- Monte Carlo Sampling Methods Using Markov Chains and Their Applications (de)
- Nonuniversal critical dynamics in Monte Carlo simulations (de)
- Overrelaxation method for Monte Carlo evaluation of the partition function for multiquadratic actions (de)
- Equation of State Calculations by Fast Computing Machines (de)
- Monte Carlo Sampling Methods Using Markov Chains and Their Applications (de)
- Nonuniversal critical dynamics in Monte Carlo simulations (de)
- Overrelaxation method for Monte Carlo evaluation of the partition function for multiquadratic actions (de)
|
dbo:thumbnail
| |
dbo:wikiPageID
| |
dbo:wikiPageRevisionID
| |
prop-de:autor
|
- W.K. Hastings
- R.H. Swendsen, J.-S. Wang
- S.L. Adler
|
prop-de:band
|
- 21 (xsd:integer)
- 23 (xsd:integer)
- 57 (xsd:integer)
- 58 (xsd:integer)
|
prop-de:datum
|
- 1953 (xsd:integer)
- 1970 (xsd:integer)
- 1987 (xsd:integer)
- 1988 (xsd:integer)
|
prop-de:doi
| |
prop-de:sammelwerk
|
- Biometrika
- Journal of Chemical Physics
- Phys. Rev. D
- Phys. Rev. Lett.
|
dct:subject
| |
bibo:pages
| |
rdf:type
| |
rdfs:comment
|
- Markov-Chain-Monte-Carlo-Verfahren (kurz MCMC-Verfahren; seltener auch Markov-Ketten-Monte-Carlo-Verfahren) sind eine Klasse von Algorithmen, die Stichproben aus Wahrscheinlichkeitsverteilungen ziehen. Dies geschieht auf der Basis der Konstruktion einer Markow-Kette, welche die erwünschte Verteilung als ihre stationäre Verteilung aufweist. Der Zustand der Kette nach einer großen Zahl von Schritten wird dann als Stichprobe der erwünschten Verteilung benutzt. Die Qualität der Stichprobe steigt mit zunehmender Zahl der Schritte. (de)
- Markov-Chain-Monte-Carlo-Verfahren (kurz MCMC-Verfahren; seltener auch Markov-Ketten-Monte-Carlo-Verfahren) sind eine Klasse von Algorithmen, die Stichproben aus Wahrscheinlichkeitsverteilungen ziehen. Dies geschieht auf der Basis der Konstruktion einer Markow-Kette, welche die erwünschte Verteilung als ihre stationäre Verteilung aufweist. Der Zustand der Kette nach einer großen Zahl von Schritten wird dann als Stichprobe der erwünschten Verteilung benutzt. Die Qualität der Stichprobe steigt mit zunehmender Zahl der Schritte. (de)
|
rdfs:label
|
- MCMC-Verfahren (de)
- MCMC-Verfahren (de)
|
owl:sameAs
| |
prov:wasDerivedFrom
| |
foaf:depiction
| |
foaf:isPrimaryTopicOf
| |
is dbo:wikiPageRedirects
of | |
is foaf:primaryTopic
of | |