मोंटे कार्लो एकीकरण: Difference between revisions

From Vigyanwiki
No edit summary
No edit summary
 
(12 intermediate revisions by 3 users not shown)
Line 1: Line 1:
{{Short description|Numerical technique}}
{{Short description|Numerical technique}}
[[Image:MonteCarloIntegrationCircle.svg|thumb|मोंटे कार्लो एकीकरण का एक उदाहरण। इस उदाहरण में, प्रांत डी आंतरिक चक्र है और प्रांत वर्ग है। क्योंकि वर्ग के क्षेत्रफल (4) की गणना आसानी से की जा सकती है, वृत्त का क्षेत्रफल (π*1.0<sup>2</sup>) का अनुमान सर्कल (40) के भीतर बिंदुओं के अनुपात (0.8) से अंकों की कुल संख्या (50) से लगाया जा सकता है, जिससे सर्कल के क्षेत्रफल के लिए 4*0.8 = 3.2 ≈ π का ​​अनुमान लगाया जा सकता है।]]गणित में [[मोंटे कार्लो विधि]] एकीकरण [[छद्म यादृच्छिकता]] का उपयोग करके [[संख्यात्मक चतुर्भुज]] के लिए एक तकनीक है। यह एक विशेष मोंटे कार्लो पद्धति है जो संख्यात्मक रूप से एक निश्चित अभिन्न की गणना करती है। जबकि अन्य एल्गोरिदम सामान्यतः एक नियमित ग्रिड पर एकीकृत का मूल्यांकन करते हैं,<ref>Press et al, 2007, Chap. 4.</ref> मोंटे कार्लो यादृच्छिक रूप से उन बिंदुओं को चुनता है जिन पर एकीकृत का मूल्यांकन किया जाता है।<ref>Press et al, 2007, Chap. 7.</ref> यह विधि विशेष रूप से उच्च-आयामी पूर्णांक के लिए उपयोगी है।<ref name=newman1999ch2/>
[[Image:MonteCarloIntegrationCircle.svg|thumb|मोंटे कार्लो एकीकरण का एक उदाहरण। इस उदाहरण में, प्रांत D आंतरिक वृत्त है और प्रांत E वर्ग है। क्योंकि वर्ग के क्षेत्रफल(4) की गणना सरलता से की जा सकती है, वृत्त का क्षेत्रफल(π*1.0<sup>2</sup>) का अनुमान वृत्त के भीतर बिंदुओं के अनुपात(0.8) (40) से अंकों की कुल संख्या(50) से लगाया जा सकता है, 4*0.8 = 3.2 ≈ π के वृत्त के क्षेत्रफल के लिए एक सन्निकटन प्राप्त करना है।]]गणित में [[मोंटे कार्लो विधि]] एकीकरण [[छद्म यादृच्छिकता]] का उपयोग करके [[संख्यात्मक चतुर्भुज|संख्यात्मक एकीकरण]] के लिए एक तकनीक है। यह एक विशेष मोंटे कार्लो पद्धति है जो संख्यात्मक रूप से निश्चित अभिन्न की गणना करती है। जबकि अन्य एल्गोरिदम सामान्यतः नियमित ग्रिड पर एकीकृत का मूल्यांकन करते हैं,<ref>Press et al, 2007, Chap. 4.</ref> मोंटे कार्लो यादृच्छिक रूप से उन बिंदुओं को चुनता है जिन पर एकीकृत का मूल्यांकन किया जाता है।<ref>Press et al, 2007, Chap. 7.</ref> यह विधि विशेष रूप से उच्च-आयामी पूर्णांक के लिए उपयोगी है।<ref name=newman1999ch2/>


मोंटे कार्लो एकीकरण करने के लिए अलग-अलग विधि हैं, जैसे [[समान वितरण (निरंतर)]], स्तरीकृत प्रतिचयन , [[महत्व नमूनाकरण|महत्व प्रतिचयन]] , कण निस्यंदक (कण निस्यंदक के रूप में भी जाना जाता है), और [[माध्य-क्षेत्र कण विधियाँ]]।
मोंटे कार्लो एकीकरण करने के लिए अलग-अलग विधि हैं, जैसे [[समान वितरण (निरंतर)|समान वितरण(निरंतर]]), स्तरीकृत प्रतिचयन, [[महत्व नमूनाकरण|महत्व प्रतिचयन]], कण निस्यंदक(कण निस्यंदक के रूप में भी जाना जाता है), और [[माध्य-क्षेत्र कण विधियाँ]]।


== संक्षिप्त विवरण ==
== संक्षिप्त विवरण ==
संख्यात्मक एकीकरण में, [[ट्रेपेज़ॉइडल नियम|समलंबी नियम]] जैसी विधि एक [[नियतात्मक एल्गोरिथ्म]] का उपयोग करते हैं। दूसरी ओर, मोंटे कार्लो एकीकरण, एक [[ स्टोकेस्टिक |प्रसंभाव्य]] दृष्टिकोण को नियोजित करता है: प्रत्येक प्राप्ति एक अलग परिणाम प्रदान करती है। मोंटे कार्लो में, अंतिम परिणाम संबंधित त्रुटि पट्टियों के साथ उचित मान का अनुमान है, और उचित मान उन त्रुटि पट्टियों के भीतर होने की संभावना है।
संख्यात्मक एकीकरण में, [[ट्रेपेज़ॉइडल नियम|समलंबी नियम]] जैसी विधि एक [[नियतात्मक एल्गोरिथ्म|नियतात्मक एल्गोरिदम]] का उपयोग करती है। दूसरी ओर, मोंटे कार्लो एकीकरण, एक [[ स्टोकेस्टिक |प्रसंभाव्य]] दृष्टिकोण को नियोजित करता है: प्रत्येक प्राप्ति अलग परिणाम प्रदान करती है। मोंटे कार्लो में, अंतिम परिणाम संबंधित त्रुटि पट्टियों के साथ उचित मान का अनुमान है, और उचित मान उन त्रुटि पट्टियों के भीतर होने की संभावना है।


समस्या मोंटे कार्लो एकीकरण पतों एक [[एकाधिक अभिन्न]]
समस्या मोंटे कार्लो एकीकरण पतों [[एकाधिक अभिन्न]]


:<math>I = \int_{\Omega}f(\overline{\mathbf{x}}) \, d\overline{\mathbf{x}}</math>
:<math>I = \int_{\Omega}f(\overline{\mathbf{x}}) \, d\overline{\mathbf{x}}</math>
Line 39: Line 39:
है, जो <math>\tfrac{1}{\sqrt{N}}</math> के रूप में घटता है। यह <math>V</math> से गुणा किए गए माध्य की मानक त्रुटि है। यह परिणाम अभिन्न के आयामों की संख्या पर निर्भर नहीं करता है, जो कि आयाम पर घातीय रूप से निर्भर करने वाले अधिकांश नियतात्मक विधियों के विरुद्ध मोंटे कार्लो एकीकरण का वचन दिया गया लाभ है।<ref>Press et al, 2007</ref> यह ध्यान रखना महत्वपूर्ण है कि, नियतात्मक विधियों के विपरीत, त्रुटि का अनुमान जटिल त्रुटि सीमा नहीं है; यादृच्छिक प्रतिचयन एकीकृत की सभी महत्वपूर्ण विशेषताओं को उजागर नहीं कर सकता है जिसके परिणामस्वरूप त्रुटि का अनुमान लगाया जा सकता है।
है, जो <math>\tfrac{1}{\sqrt{N}}</math> के रूप में घटता है। यह <math>V</math> से गुणा किए गए माध्य की मानक त्रुटि है। यह परिणाम अभिन्न के आयामों की संख्या पर निर्भर नहीं करता है, जो कि आयाम पर घातीय रूप से निर्भर करने वाले अधिकांश नियतात्मक विधियों के विरुद्ध मोंटे कार्लो एकीकरण का वचन दिया गया लाभ है।<ref>Press et al, 2007</ref> यह ध्यान रखना महत्वपूर्ण है कि, नियतात्मक विधियों के विपरीत, त्रुटि का अनुमान जटिल त्रुटि सीमा नहीं है; यादृच्छिक प्रतिचयन एकीकृत की सभी महत्वपूर्ण विशेषताओं को उजागर नहीं कर सकता है जिसके परिणामस्वरूप त्रुटि का अनुमान लगाया जा सकता है।


जबकि अनुभवहीन मोंटे कार्लो सरल उदाहरणों के लिए काम करती है, नियतात्मक एल्गोरिदम में सुधार मात्र एल्गोरिदम के साथ पूरा किया जा सकता है जो समस्या-विशिष्ट प्रतिचयन वितरण का उपयोग करते हैं। एक उपयुक्त प्रतिदर्श वितरण के साथ इस तथ्य का लाभ उठाना संभव है कि लगभग सभी उच्च-आयामी एकीकृत बहुत स्थानीयकृत हैं और मात्र छोटे उप-स्थान विशेष रूप से पूर्णांक में योगदान करते हैं।<ref>{{Cite book|url=http://www.inference.phy.cam.ac.uk/mackay/itila/book.html|title=सूचना सिद्धांत, अनुमान और लर्निंग एल्गोरिदम|last=MacKay|first=David|publisher=Cambridge University Press|year=2003|isbn=978-0-521-64298-9|pages=284&ndash;292|chapter=chapter 4.4 Typicality & chapter 29.1|mr=2012999|ref=mackay2003|author-link=David MacKay (scientist)|chapter-url=http://www.inference.org.uk/itprnn/book.pdf}}</ref> मोंटे कार्लो साहित्य का एक बड़ा भाग त्रुटि अनुमानों को सुधारने के लिए विकासशील रणनीतियों में समर्पित है। विशेष रूप से, स्तरीकृत प्रतिचयन - क्षेत्र को उप-प्रांत में विभाजित करना - और महत्व प्रतिचयन - गैर-समान वितरण से प्रतिचयन - ऐसी तकनीकों के दो उदाहरण हैं।
जबकि अनुभवहीन मोंटे कार्लो सरल उदाहरणों के लिए काम करती है, नियतात्मक एल्गोरिदम में संशोधन मात्र एल्गोरिदम के साथ पूरा किया जा सकता है जो समस्या-विशिष्ट प्रतिचयन वितरण का उपयोग करते हैं। उपयुक्त प्रतिदर्श वितरण के साथ इस तथ्य का लाभ उठाना संभव है कि लगभग सभी उच्च-आयामी एकीकृत बहुत स्थानीयकृत हैं और मात्र छोटे उप-स्थान विशेष रूप से पूर्णांक में योगदान करते हैं।<ref>{{Cite book|url=http://www.inference.phy.cam.ac.uk/mackay/itila/book.html|title=सूचना सिद्धांत, अनुमान और लर्निंग एल्गोरिदम|last=MacKay|first=David|publisher=Cambridge University Press|year=2003|isbn=978-0-521-64298-9|pages=284&ndash;292|chapter=chapter 4.4 Typicality & chapter 29.1|mr=2012999|ref=mackay2003|author-link=David MacKay (scientist)|chapter-url=http://www.inference.org.uk/itprnn/book.pdf}}</ref> मोंटे कार्लो साहित्य का बड़ा भाग त्रुटि अनुमानों को संशोधनने के लिए विकासशील रणनीतियों में समर्पित है। विशेष रूप से, स्तरीकृत प्रतिचयन - क्षेत्र को उप-प्रांत में विभाजित करना - और महत्व प्रतिचयन - गैर-समान वितरण से प्रतिचयन - ऐसी तकनीकों के दो उदाहरण हैं।


=== उदाहरण ===
=== उदाहरण ===
[[/index.php?title=Special:MathShowImage&hash=6fe18638c342f5982a16e5f3a128a6b2&mode=mathml|thumb|right|स्केलिंग दिखाते हुए प्रतिदर्शों की संख्या के एक फलन के रूप में सापेक्ष त्रुटि <math>\tfrac{1}{\sqrt{N}}</math>|link=|alt=<nowiki>{\displaystyle {\tfrac {1}{\sqrt {N}}}}</nowiki>]]मोंटे कार्लो एकीकरण का एक आदर्श उदाहरण π का ​​अनुमान है। फलन
[[File:Relative error of a Monte Carlo integration to calculate pi.svg|thumb|right|350px|Relative error as a function of the number of samples, showing the scaling <math>\tfrac{1}{\sqrt{N}}</math>]]
 
मोंटे कार्लो एकीकरण का एक आदर्श उदाहरण π का ​​अनुमान है। फलन


:<math>H\left(x,y\right)=\begin{cases}
:<math>H\left(x,y\right)=\begin{cases}
Line 51: Line 53:


:<math>I_\pi = \int_\Omega H(x,y) dx dy = \pi.</math>
:<math>I_\pi = \int_\Omega H(x,y) dx dy = \pi.</math>
इस प्रकार, मोंटे कार्लो एकीकरण के साथ π के मान की गणना करने का एक कच्चा तरीका Ω पर एन यादृच्छिक संख्या चुनना और गणना करना है
इस प्रकार, मोंटे कार्लो एकीकरण के साथ π के मान की गणना करने की एक अपरिष्कृत विधि Ω पर N यादृच्छिक संख्या चुनना और
 
:<math>Q_N = 4 \frac{1}{N}\sum_{i=1}^N H(x_{i},y_{i})</math> की गणना करना है।
दाईं ओर की आकृति में, सापेक्ष त्रुटि <math>\tfrac{Q_N-\pi}{\pi}</math> को N के फलन के रूप में मापा जाता है, जो <math>\tfrac{1}{\sqrt{N}}</math> की पुष्टि करता है।
 
 
 
 
 


:<math>Q_N = 4 \frac{1}{N}\sum_{i=1}^N H(x_{i},y_{i})</math>
दाईं ओर की आकृति में, सापेक्ष त्रुटि <math>\tfrac{Q_N-\pi}{\pi}</math> एन के एक फलन के रूप में मापा जाता है, इसकी पुष्टि करता है <math>\tfrac{1}{\sqrt{N}}</math>।


=== सी उदाहरण ===
 
ध्यान रखें कि एक वास्तविक यादृच्छिक संख्या जेनरेटर का उपयोग किया जाना चाहिए।
 
 
 
 
=== C उदाहरण ===
ध्यान रखें कि वास्तविक यादृच्छिक संख्या जनक का उपयोग किया जाना चाहिए।
<syntaxhighlight lang="c">
<syntaxhighlight lang="c">
int i, throws = 99999, insideCircle = 0;
int i, throws = 99999, insideCircle = 0;
Line 75: Line 88:


=== पायथन उदाहरण ===
=== पायथन उदाहरण ===
[[पायथन (प्रोग्रामिंग भाषा)]] में निर्मित।
[[पायथन (प्रोग्रामिंग भाषा)|पायथन(प्रोग्रामिंग भाषा]]) में निर्मित।
<syntaxhighlight lang="python">
<syntaxhighlight lang="python">
from numpy import random
from numpy import random
import numpy as np
import numpy as np
Line 100: Line 113:


=== वोल्फ्राम गणित उदाहरण ===
=== वोल्फ्राम गणित उदाहरण ===
नीचे दिया गया कोड फलन को एकीकृत करने की प्रक्रिया का वर्णन करता है
नीचे दिया गया कोड गणित में मोंटे-कार्लो पद्धति का उपयोग करके फलन
:<math>f(x) = \frac{1}{1+\sinh(2x)\log(x)^2}</math>
:<math>f(x) = \frac{1}{1+\sinh(2x)\log(x)^2}</math>
से <math>0.8<x<3</math> गणित में मोंटे-कार्लो पद्धति का उपयोग करना:
को <math>0.8<x<3</math> से एकीकृत करने की प्रक्रिया का वर्णन करता है:


<syntaxhighlight lang="Mathematica">
<syntaxhighlight lang="Mathematica">
Line 119: Line 132:
== पुनरावर्ती स्तरीकृत प्रतिचयन ==
== पुनरावर्ती स्तरीकृत प्रतिचयन ==
{{see also|Stratified sampling}}
{{see also|Stratified sampling}}
[[/index.php?title=Special:MathShowImage&hash=e959d1dd9b5c8d0813ff3042d10ccda9&mode=mathml|thumb|right|पुनरावर्ती स्तरीकृत प्रतिचयन का एक उदाहरण। इस उदाहरण में, फलन:
 
 
[[Image:Strata.png|thumb|right|An illustration of Recursive Stratified Sampling. In this example, the function:
<math>f(x,y) = \begin{cases}1 & x^2+y^2<1 \\0 & x^2+y^2 \ge 1 \end{cases}</math> <br>
<math>f(x,y) = \begin{cases}1 & x^2+y^2<1 \\0 & x^2+y^2 \ge 1 \end{cases}</math> <br>
उपरोक्त उदाहरण से सुझाए गए एल्गोरिथम का उपयोग करके एक इकाई वर्ग के भीतर एकीकृत किया गया था। सैंपल किए गए बिंदुओं को दर्ज किया गया और प्लॉट किया गया। स्पष्ट रूप से स्तरीकृत प्रतिचयन एल्गोरिदम उन क्षेत्रों में बिंदुओं को केंद्रित करता है जहां फलन की भिन्नता सबसे बड़ी है।|link=|alt=<nowiki>{\displaystyle f(x,y)={\begin{cases}1&x^{2}+y^{2}<1\\0&x^{2}+y^{2}\geq 1\end{cases}}}</nowiki>]]पुनरावर्ती स्तरीकृत प्रतिदर्श बहु-आयामी पूर्णांक के लिए एक-आयामी अनुकूली चतुष्कोणों का सामान्यीकरण है। प्रत्येक पुनरावर्ती चरण पर एक सादे मोंटे कार्लो एल्गोरिथम का उपयोग करके अभिन्न और त्रुटि का अनुमान लगाया जाता है। यदि त्रुटि अनुमान आवश्यक सटीकता से बड़ा है तो एकीकरण वॉल्यूम को उप-खंडों में विभाजित किया जाता है और प्रक्रिया को पुनरावर्ती रूप से उप-खंडों पर लागू किया जाता है।
from the above illustration was integrated within a unit square using the suggested algorithm. The sampled points were recorded and plotted. Clearly stratified sampling algorithm concentrates the points in the regions where the variation of the function is largest.]]


सामान्य 'दो से विभाजित' रणनीति बहु-आयामों के लिए काम नहीं करती है क्योंकि ट्रैक रखने के लिए उप-खंडों की संख्या बहुत तेज़ी से बढ़ती है। इसके बजाय एक अनुमान है कि किस आयाम के साथ एक उपखंड को सबसे अधिक लाभांश लाना चाहिए और मात्र इस आयाम के साथ मात्रा को उपविभाजित करता है।
पुनरावर्ती स्तरीकृत प्रतिदर्श बहु-आयामी पूर्णांक के लिए एक-आयामी अनुकूली चतुष्कोणों का सामान्यीकरण है। प्रत्येक पुनरावर्ती चरण पर एक साधारण मोंटे कार्लो एल्गोरिथम का उपयोग करके अभिन्न और त्रुटि का अनुमान लगाया जाता है। यदि त्रुटि अनुमान आवश्यक यथार्थता से बड़ा है तो एकीकरण मात्रा को उप-खंडों में विभाजित किया जाता है और प्रक्रिया को पुनरावर्ती रूप से उप-खंडों पर लागू किया जाता है।


स्तरीकृत सैंपलिंग एल्गोरिदम उन क्षेत्रों में सैंपलिंग पॉइंट्स को केंद्रित करता है जहां फलन का वेरिएंस सबसे बड़ा होता है, इस प्रकार ग्रैंड वेरिएंस को कम करता है और सैंपलिंग को अधिक प्रभावी बनाता है, जैसा कि चित्रण में दिखाया गया है।
सामान्य 'दो से विभाजित' रणनीति बहु-आयामों के लिए काम नहीं करती है क्योंकि पद चिन्ह रखने के लिए उप-खंडों की संख्या बहुत तीव्रता से बढ़ती है। इसके अतिरिक्त एक अनुमान है कि किस आयाम के साथ उपखंड को सबसे अधिक लाभांश लाना चाहिए और मात्र इस आयाम के साथ मात्रा को उपविभाजित करता है।


लोकप्रिय MISER रूटीन एक समान एल्गोरिथम लागू करता है।
स्तरीकृत प्रतिचयन एल्गोरिदम उन क्षेत्रों में प्रतिचयन बिंदुओं को केंद्रित करता है जहां फलन का प्रसरण सबसे बड़ा होता है, इस प्रकार उच्च प्रसरण को कम करता है और प्रतिचयन को अधिक प्रभावी बनाता है, जैसा कि चित्रण में दिखाया गया है।


=== कंजूस मोंटे कार्लो ===
लोकप्रिय मिसेर नेमी एक समान एल्गोरिथम लागू करता है।
MISER एल्गोरिथ्म पुनरावर्ती स्तरीकृत प्रतिदर्श पर आधारित है। इस तकनीक का उद्देश्य उच्चतम विचरण के क्षेत्रों में एकीकरण बिंदुओं को केंद्रित करके समग्र एकीकरण त्रुटि को कम करना है।<ref>Press, 1990, pp 190-195.</ref>
 
स्तरीकृत प्रतिचयन का विचार अवलोकन के साथ शुरू होता है कि दो अलग-अलग सेट क्षेत्रों के लिए और बी मोंटे कार्लो के अभिन्न अनुमानों के साथ <math>E_a(f)</math> और <math>E_b(f)</math> और प्रसरण <math>\sigma_a^2(f)</math> और <math>\sigma_b^2(f)</math>, संयुक्त अनुमान का प्रसरण Var(f)।
=== मिसेर मोंटे कार्लो ===
मिसेर एल्गोरिदम पुनरावर्ती स्तरीकृत प्रतिदर्श पर आधारित है। इस तकनीक का उद्देश्य उच्चतम विचरण के क्षेत्रों में एकीकरण बिंदुओं को केंद्रित करके समग्र एकीकरण त्रुटि को कम करना है।<ref>Press, 1990, pp 190-195.</ref>
 
स्तरीकृत प्रतिचयन का विचार अवलोकन के साथ प्रारम्भ होता है कि दो असंयुक्त समुच्चय क्षेत्रों के लिए a और b मोंटे कार्लो के साथ <math>E_a(f)</math> और <math>E_b(f)</math> और प्रसरण <math>\sigma_a^2(f)</math> और <math>\sigma_b^2(f)</math> का अनुमान है, संयुक्त अनुमान
:<math>E(f) = \tfrac{1}{2} \left (E_a(f) + E_b(f) \right )</math>
:<math>E(f) = \tfrac{1}{2} \left (E_a(f) + E_b(f) \right )</math>
द्वारा दिया गया है,
का भिन्नता Var(f),


:<math>\mathrm{Var}(f) = \frac{\sigma_a^2(f)}{4 N_a} + \frac{\sigma_b^2(f)}{4 N_b}</math>
:<math>\mathrm{Var}(f) = \frac{\sigma_a^2(f)}{4 N_a} + \frac{\sigma_b^2(f)}{4 N_b}</math> द्वारा दिया गया है।
यह दिखाया जा सकता है कि इस भिन्नता को बिंदुओं को वितरित करके कम किया जाता है,
यह दिखाया जा सकता है कि इस भिन्नता को अंक वितरित करके कम किया जाता है जैसे कि,


:<math>\frac{N_a}{N_a + N_b} = \frac{\sigma_a}{\sigma_a + \sigma_b}</math>
:<math>\frac{N_a}{N_a + N_b} = \frac{\sigma_a}{\sigma_a + \sigma_b}</math>
इसलिए प्रत्येक उप-क्षेत्र में फलन के मानक विचलन के अनुपात में प्रतिदर्श बिंदु आवंटित करके सबसे छोटी त्रुटि अनुमान प्राप्त किया जाता है।
इसलिए प्रत्येक उप-क्षेत्र में फलन के मानक विचलन के अनुपात में प्रतिदर्श बिंदु आवंटित करके सबसे छोटी त्रुटि अनुमान प्राप्त किया जाता है।


MISER एल्गोरिथ्म प्रत्येक चरण में दो उप-क्षेत्र देने के लिए एक समन्वय अक्ष के साथ एकीकरण क्षेत्र को द्विभाजित करके आगे बढ़ता है। दिशा का चयन सभी संभावित समद्विभाजकों की जांच करके और एक का चयन करके किया जाता है जो दो उप-क्षेत्रों के संयुक्त विचरण को कम करेगा। वर्तमान चरण के लिए उपलब्ध अंकों की कुल संख्या के एक अंश के साथ प्रतिचयन द्वारा उप-क्षेत्रों में भिन्नता का अनुमान लगाया गया है। फिर वही प्रक्रिया सर्वोत्तम द्विभाजन से प्रत्येक दो अर्ध-स्थानों के लिए पुनरावर्ती रूप से दोहराई जाती है। शेष प्रतिदर्श बिंदु N के सूत्र का उपयोग करके उप-क्षेत्रों को आवंटित किए जाते हैं<sub>a</sub>और n<sub>b</sub>एकीकरण बिंदुओं का यह पुनरावर्ती आवंटन उपयोगकर्ता द्वारा निर्दिष्ट गहराई तक जारी रहता है जहां प्रत्येक उप-क्षेत्र को एक सादे मोंटे कार्लो अनुमान का उपयोग करके एकीकृत किया जाता है। इन व्यक्तिगत मूल्यों और उनके त्रुटि अनुमानों को समग्र परिणाम देने के लिए और इसकी त्रुटि का अनुमान लगाने के लिए ऊपर की ओर जोड़ा जाता है।
मिसेर एल्गोरिदम प्रत्येक चरण में दो उप-क्षेत्र देने के लिए एक समन्वय अक्ष के साथ एकीकरण क्षेत्र को द्विभाजित करके आगे बढ़ता है। दिशा का चयन सभी संभावित समद्विभाजकों की जांच करके और एक का चयन करके किया जाता है जो दो उप-क्षेत्रों के संयुक्त विचरण को कम करेगा। वर्तमान चरण के लिए उपलब्ध अंकों की कुल संख्या के एक अंश के साथ प्रतिचयन द्वारा उप-क्षेत्रों में भिन्नता का अनुमान लगाया गया है। फिर वही प्रक्रिया सर्वोत्तम द्विभाजन से प्रत्येक दो अर्ध-स्थानों के लिए पुनरावर्ती रूप से दोहराई जाती है। शेष प्रतिदर्श बिंदु N<sub>a</sub>और N<sub>b</sub> के सूत्र का उपयोग करके उप-क्षेत्रों को आवंटित किए जाते हैं। एकीकरण बिंदुओं का यह पुनरावर्ती आवंटन उपयोगकर्ता द्वारा निर्दिष्ट गहराई तक जारी रहता है जहां प्रत्येक उप-क्षेत्र को साधारण मोंटे कार्लो अनुमान का उपयोग करके एकीकृत किया जाता है। इन व्यक्तिगत मानों और उनके त्रुटि अनुमानों को समग्र परिणाम देने के लिए और इसकी त्रुटि का अनुमान लगाने के लिए ऊपर की ओर जोड़े जाते है।
 
 
 
 
 
 
 
 
 
 
 


== महत्व प्रतिचयन ==
== महत्व प्रतिचयन ==
{{Main|Importance sampling}}
{{Main|महत्व प्रतिचयन}}


विभिन्न प्रकार के महत्वपूर्ण सैंपलिंग एल्गोरिदम हैं, जैसे
विभिन्न प्रकार के महत्वपूर्ण प्रतिचयन एल्गोरिदम हैं, जैसे


=== महत्व प्रतिदर्श एल्गोरिथ्म ===
=== महत्व प्रतिदर्श एल्गोरिदम ===


महत्व प्रतिचयन मोंटे-कार्लो एकीकरण करने के लिए एक बहुत ही महत्वपूर्ण उपकरण प्रदान करता है।<ref name="newman1999ch2">Newman, 1999, Chap. 2.</ref><ref name="kr11">{{cite book|last1 = Kroese|first1 = D. P.|author-link1=Dirk Kroese|last2 = Taimre|first2 = T.|last3 = Botev|first3 = Z. I. |title = हैंडबुक ऑफ मोंटे कार्लो मेथड्स|year = 2011|publisher = John Wiley & Sons}}</ref> इस पद्धति के महत्व के प्रतिदर्श का मुख्य परिणाम यह है कि एकसमान प्रतिचयन <math>\overline{\mathbf{x}}</math> अधिक सामान्य पसंद का एक विशेष मामला है, जिस पर किसी भी वितरण से प्रतिदर्श लिए जाते हैं <math>p(\overline{\mathbf{x}})</math>विचार यह है <math>p(\overline{\mathbf{x}})</math> माप Q के विचरण को कम करने के लिए चुना जा सकता है<sub>N</sub>।
महत्व प्रतिचयन मोंटे-कार्लो एकीकरण करने के लिए एक बहुत ही महत्वपूर्ण उपकरण प्रदान करते है।<ref name="newman1999ch2">Newman, 1999, Chap. 2.</ref><ref name="kr11">{{cite book|last1 = Kroese|first1 = D. P.|author-link1=Dirk Kroese|last2 = Taimre|first2 = T.|last3 = Botev|first3 = Z. I. |title = हैंडबुक ऑफ मोंटे कार्लो मेथड्स|year = 2011|publisher = John Wiley & Sons}}</ref> इस पद्धति के महत्व के प्रतिदर्श का मुख्य परिणाम यह है कि <math>\overline{\mathbf{x}}</math> का एकसमान प्रतिचयन अधिक सामान्य विकल्प की विशेष स्थिति है, जिस पर किसी भी वितरण <math>p(\overline{\mathbf{x}})</math> से प्रतिदर्श लिए जाते हैं। विचार यह है कि माप Q<sub>N</sub> के विचरण को कम करने के लिए <math>p(\overline{\mathbf{x}})</math> को चुना जा सकता है।


निम्नलिखित उदाहरण पर विचार करें जहां कोई 0 पर केंद्रित एक गॉसियन फलन को संख्यात्मक रूप से एकीकृत करना चाहता है, σ = 1 के साथ -1000 से 1000 तक। स्वाभाविक रूप से, यदि प्रतिदर्श अंतराल [-1000, 1000] पर समान रूप से खींचे जाते हैं, तो मात्र एक उनमें से बहुत छोटा भाग अभिन्न के लिए महत्वपूर्ण होगा। जहां से प्रतिदर्श चुने गए हैं वहां से एक अलग वितरण चुनकर इसे बेहतर बनाया जा सकता है, उदाहरण के लिए σ = 1 के साथ 0 पर केंद्रित गाऊसी वितरण के अनुसार प्रतिचयन करके। निश्चित रूप से उचित विकल्प एकीकृत पर दृढ़ता से निर्भर करता है।
निम्नलिखित उदाहरण पर विचार करें जहां कोई गॉसियन फलन को संख्यात्मक रूप से एकीकृत करना चाहते है, जो 0 पर केंद्रित है, σ = 1 के साथ -1000 से 1000 तक। स्वाभाविक रूप से, यदि प्रतिदर्श अंतराल [-1000, 1000] पर समान रूप से खींचे जाते हैं, तो मात्र एक उनमें से बहुत छोटा भाग अभिन्न के लिए महत्वपूर्ण होगा। जहां से प्रतिदर्श चुने गए हैं वहां से अलग वितरण चुनकर इसमें संशोधन किया जा सकता है, उदाहरण के लिए σ = 1 के साथ 0 पर केंद्रित गाऊसी वितरण के अनुसार प्रतिचयन करके। निश्चित रूप से उचित विकल्प एकीकृत पर दृढ़ता से निर्भर करती है।


औपचारिक रूप से, वितरण से चुने गए प्रतिदर्शों का एक सेट दिया जाता है
विधिवत रूप से, वितरण


:<math>p(\overline{\mathbf{x}}) : \qquad \overline{\mathbf{x}}_1, \cdots, \overline{\mathbf{x}}_N \in V, </math>
:<math>p(\overline{\mathbf{x}}) : \qquad \overline{\mathbf{x}}_1, \cdots, \overline{\mathbf{x}}_N \in V </math>
I के लिए अनुमानक द्वारा दिया गया है<ref name="newman1999ch2" />
से चुने गए प्रतिदर्शों का एक समुच्चय दिया गया है, I के लिए अनुमानक<ref name="newman1999ch2" />


:<math> Q_N \equiv \frac{1}{N} \sum_{i=1}^N \frac{f(\overline{\mathbf{x}}_i)}{p(\overline{\mathbf{x}}_i)}</math>
:<math> Q_N \equiv \frac{1}{N} \sum_{i=1}^N \frac{f(\overline{\mathbf{x}}_i)}{p(\overline{\mathbf{x}}_i)}</math> द्वारा दिया गया है
सहज रूप से, यह कहता है कि यदि हम किसी विशेष प्रतिदर्श को अन्य प्रतिदर्शों की तुलना में दोगुना चुनते हैं, तो हम इसे अन्य प्रतिदर्शों की तुलना में आधा वजन देते हैं। यह अनुमानक समान प्रतिचयन के लिए स्वाभाविक रूप से मान्य है, जहां मामला है <math>p(\overline{\mathbf{x}})</math> स्थिर है।
सहज रूप से, यह कहता है कि यदि हम किसी विशेष प्रतिदर्श को अन्य प्रतिदर्शों की तुलना में दोगुना चुनते हैं, तो हम इसे अन्य प्रतिदर्शों की तुलना में आधा भार देते हैं। यह अनुमानक समान प्रतिचयन के लिए स्वाभाविक रूप से मान्य है, जहां <math>p(\overline{\mathbf{x}})</math> स्थिर है।


मेट्रोपोलिस-हेस्टिंग्स एल्गोरिदम उत्पन्न करने के लिए सबसे अधिक उपयोग किए जाने वाले एल्गोरिदम में से एक है <math>\overline{\mathbf{x}}</math> से <math>p(\overline{\mathbf{x}})</math>,<ref name="newman1999ch2" />इस प्रकार पूर्णांक कंप्यूटिंग का एक कुशल तरीका प्रदान करता है।
मेट्रोपोलिस-हेस्टिंग्स एल्गोरिदम <math>\overline{\mathbf{x}}</math> से <math>p(\overline{\mathbf{x}})</math> उत्पन्न करने के लिए सबसे अधिक उपयोग किए जाने वाले एल्गोरिदम में से एक है,<ref name="newman1999ch2" /> इस प्रकार अभिकलन पूर्णांक की कुशल विधि प्रदान करती है।


=== वेगास मोंटे कार्लो ===
=== वेगास मोंटे कार्लो ===
{{Main|VEGAS algorithm}}
{{Main|वेगास एल्गोरिदम}}


VEGAS एल्गोरिथ्म एकीकरण क्षेत्र पर कई पास बनाकर सटीक वितरण का अनुमान लगाता है जो फलन f का हिस्टोग्राम बनाता है। प्रत्येक हिस्टोग्राम का उपयोग अगले पास के लिए प्रतिचयन वितरण को परिभाषित करने के लिए किया जाता है। असम्बद्ध रूप से यह प्रक्रिया वांछित वितरण में परिवर्तित हो जाती है।<ref name="Lepage, 1978">Lepage, 1978</ref> K की तरह बढ़ने वाले हिस्टोग्राम डिब्बे की संख्या से बचने के लिए<sup>d</sup>, प्रायिकता बंटन एक वियोज्य फलन द्वारा अनुमानित है:
वेगास एल्गोरिदम एकीकरण क्षेत्र पर कई मार्ग बनाकर यथार्थ वितरण के अनुमान लगाते है जो फलन f का आयतचित्र बनाते है। प्रत्येक आयतचित्र का उपयोग अगले मार्ग के लिए प्रतिचयन वितरण को परिभाषित करने के लिए किया जाता है। असम्बद्ध रूप से यह प्रक्रिया वांछित वितरण में परिवर्तित हो जाती है।<ref name="Lepage, 1978">Lepage, 1978</ref> K<sup>d</sup> के जैसे बढ़ने वाले आयतचित्र डिब्बे की संख्या से बचने के लिए, संभाव्यता वितरण को अलग करने योग्य फलन द्वारा अनुमानित किया जाता है:


:<math>g(x_1, x_2, \ldots) = g_1(x_1) g_2(x_2) \ldots </math>
:<math>g(x_1, x_2, \ldots) = g_1(x_1) g_2(x_2) \ldots </math>
ताकि आवश्यक डिब्बे की संख्या मात्र Kd हो। यह समन्वय अक्षों पर एकीकृत के अनुमानों से फलन की चोटियों का पता लगाने के बराबर है। VEGAS की दक्षता इस धारणा की वैधता पर निर्भर करती है। यह सबसे अधिक कुशल होता है जब एकीकृत की चोटियाँ अच्छी तरह से स्थानीयकृत होती हैं। यदि एक एकीकृत को एक ऐसे रूप में फिर से लिखा जा सकता है जो लगभग वियोज्य है, तो यह VEGAS के साथ एकीकरण की दक्षता में वृद्धि करेगा। VEGAS में कई अतिरिक्त सुविधाएँ शामिल हैं, और स्तरीकृत प्रतिचयन और महत्व प्रतिचयन दोनों को जोड़ती है।<ref name="Lepage, 1978"/>
ताकि आवश्यक डिब्बे की संख्या मात्र Kd हो। यह समन्वय अक्षों पर एकीकृत के अनुमानों से फलन के शिखरों का पता लगाने के बराबर है। वेगास की दक्षता इस धारणा की वैधता पर निर्भर करती है। यह सबसे अधिक कुशल होता है जब एकीकृत के शिखर ठीक रूप से स्थानीयकृत होती हैं। यदि एकीकृत को एक ऐसे रूप में फिर से लिखा जा सकता है जो लगभग वियोज्य है, तो यह वेगास के साथ एकीकरण की दक्षता में वृद्धि करेगा। वेगास में कई अतिरिक्त सुविधाएँ सम्मिलित हैं, और स्तरीकृत प्रतिचयन और महत्व प्रतिचयन दोनों को जोड़ती है।<ref name="Lepage, 1978"/>




Line 197: Line 226:


== बाहरी संबंध ==
== बाहरी संबंध ==
* [https://web.archive.org/web/20140202110318/http://www.cafemath.fr/mathblog/article.php?page=MonteCarlo.php Café math : Monte Carlo Integration] : A blog article describing Monte Carlo integration (principle, hypothesis, confidence interval)
* [https://web.archive.org/web/20140202110318/http://www.cafemath.fr/mathblog/article.php?page=MonteCarlo.php Café math : Monte Carlo Integration] : A blog article describing Monte Carlo integration(principle, hypothesis, confidence interval)  
* [http://www.boost.org/doc/libs/release/libs/math/doc/html/math_toolkit/naive_monte_carlo.html Boost.Math : Naive Monte Carlo integration: Documentation for the C++ naive Monte-Carlo routines]
* [http://www.boost.org/doc/libs/release/libs/math/doc/html/math_toolkit/naive_monte_carlo.html Boost.Math : Naive Monte Carlo integration: Documentation for the C++ naive Monte-Carlo routines]
* [https://sites.google.com/view/chremos-group/applets/monte-carlo: Monte Carlo applet applied in statistical physics problems]  
* [https://sites.google.com/view/chremos-group/applets/monte-carlo: Monte Carlo applet applied in statistical physics problems]
[[Category: मोंटे कार्लो के तरीके]] [[Category: उदाहरण कोड वाले लेख]] [[Category: उदाहरण सी कोड वाले लेख]] [[Category: लेख उदाहरण के साथ पायथन (प्रोग्रामिंग भाषा) कोड]]
 
 


[[Category: Machine Translated Page]]
[[Category:Articles with hatnote templates targeting a nonexistent page]]
[[Category:Created On 24/03/2023]]
[[Category:Created On 24/03/2023]]
[[Category:Lua-based templates]]
[[Category:Machine Translated Page]]
[[Category:Pages with broken file links]]
[[Category:Pages with script errors]]
[[Category:Short description with empty Wikidata description]]
[[Category:Template documentation pages|Short description/doc]]
[[Category:Templates Vigyan Ready]]
[[Category:Templates that add a tracking category]]
[[Category:Templates that generate short descriptions]]
[[Category:Templates using TemplateData]]

Latest revision as of 20:16, 20 April 2023

मोंटे कार्लो एकीकरण का एक उदाहरण। इस उदाहरण में, प्रांत D आंतरिक वृत्त है और प्रांत E वर्ग है। क्योंकि वर्ग के क्षेत्रफल(4) की गणना सरलता से की जा सकती है, वृत्त का क्षेत्रफल(π*1.02) का अनुमान वृत्त के भीतर बिंदुओं के अनुपात(0.8) (40) से अंकों की कुल संख्या(50) से लगाया जा सकता है, 4*0.8 = 3.2 ≈ π के वृत्त के क्षेत्रफल के लिए एक सन्निकटन प्राप्त करना है।

गणित में मोंटे कार्लो विधि एकीकरण छद्म यादृच्छिकता का उपयोग करके संख्यात्मक एकीकरण के लिए एक तकनीक है। यह एक विशेष मोंटे कार्लो पद्धति है जो संख्यात्मक रूप से निश्चित अभिन्न की गणना करती है। जबकि अन्य एल्गोरिदम सामान्यतः नियमित ग्रिड पर एकीकृत का मूल्यांकन करते हैं,[1] मोंटे कार्लो यादृच्छिक रूप से उन बिंदुओं को चुनता है जिन पर एकीकृत का मूल्यांकन किया जाता है।[2] यह विधि विशेष रूप से उच्च-आयामी पूर्णांक के लिए उपयोगी है।[3]

मोंटे कार्लो एकीकरण करने के लिए अलग-अलग विधि हैं, जैसे समान वितरण(निरंतर), स्तरीकृत प्रतिचयन, महत्व प्रतिचयन, कण निस्यंदक(कण निस्यंदक के रूप में भी जाना जाता है), और माध्य-क्षेत्र कण विधियाँ

संक्षिप्त विवरण

संख्यात्मक एकीकरण में, समलंबी नियम जैसी विधि एक नियतात्मक एल्गोरिदम का उपयोग करती है। दूसरी ओर, मोंटे कार्लो एकीकरण, एक प्रसंभाव्य दृष्टिकोण को नियोजित करता है: प्रत्येक प्राप्ति अलग परिणाम प्रदान करती है। मोंटे कार्लो में, अंतिम परिणाम संबंधित त्रुटि पट्टियों के साथ उचित मान का अनुमान है, और उचित मान उन त्रुटि पट्टियों के भीतर होने की संभावना है।

समस्या मोंटे कार्लो एकीकरण पतों एकाधिक अभिन्न

की गणना है, जहाँ Ω, Rm का एक उपसमुच्चय है, आयतन

है

अनुभवहीन मोंटे कार्लो दृष्टिकोण Ω पर समान रूप से प्रतिदर्श बिंदुओं के लिए है:[4] दिए गए N एकसमान प्रतिदर्श,

I को

द्वारा अनुमानित किया जा सकता है।

ऐसा इसलिए है क्योंकि बड़ी संख्या का नियम यह सुनिश्चित करता है कि

QN से I का अनुमान दिया गया है, QN की त्रुटि पट्टियों को भिन्नता

के निष्पक्ष अनुमान का उपयोग करके प्रतिदर्श भिन्नता से अनुमान लगाया जा सकता है। जो

की ओर जाता है।

जब तक क्रम

हुआ है, तब तक यह भिन्नता 1/N के रूप में शून्य से कम हो जाती है। QN की त्रुटि का अनुमान इस प्रकार

है, जो के रूप में घटता है। यह से गुणा किए गए माध्य की मानक त्रुटि है। यह परिणाम अभिन्न के आयामों की संख्या पर निर्भर नहीं करता है, जो कि आयाम पर घातीय रूप से निर्भर करने वाले अधिकांश नियतात्मक विधियों के विरुद्ध मोंटे कार्लो एकीकरण का वचन दिया गया लाभ है।[5] यह ध्यान रखना महत्वपूर्ण है कि, नियतात्मक विधियों के विपरीत, त्रुटि का अनुमान जटिल त्रुटि सीमा नहीं है; यादृच्छिक प्रतिचयन एकीकृत की सभी महत्वपूर्ण विशेषताओं को उजागर नहीं कर सकता है जिसके परिणामस्वरूप त्रुटि का अनुमान लगाया जा सकता है।

जबकि अनुभवहीन मोंटे कार्लो सरल उदाहरणों के लिए काम करती है, नियतात्मक एल्गोरिदम में संशोधन मात्र एल्गोरिदम के साथ पूरा किया जा सकता है जो समस्या-विशिष्ट प्रतिचयन वितरण का उपयोग करते हैं। उपयुक्त प्रतिदर्श वितरण के साथ इस तथ्य का लाभ उठाना संभव है कि लगभग सभी उच्च-आयामी एकीकृत बहुत स्थानीयकृत हैं और मात्र छोटे उप-स्थान विशेष रूप से पूर्णांक में योगदान करते हैं।[6] मोंटे कार्लो साहित्य का बड़ा भाग त्रुटि अनुमानों को संशोधनने के लिए विकासशील रणनीतियों में समर्पित है। विशेष रूप से, स्तरीकृत प्रतिचयन - क्षेत्र को उप-प्रांत में विभाजित करना - और महत्व प्रतिचयन - गैर-समान वितरण से प्रतिचयन - ऐसी तकनीकों के दो उदाहरण हैं।

उदाहरण

File:Relative error of a Monte Carlo integration to calculate pi.svg
Relative error as a function of the number of samples, showing the scaling

मोंटे कार्लो एकीकरण का एक आदर्श उदाहरण π का ​​अनुमान है। फलन

और V = 4 के साथ समुच्चय Ω = [−1,1] × [−1,1] पर विचार करें। ध्यान दें कि

इस प्रकार, मोंटे कार्लो एकीकरण के साथ π के मान की गणना करने की एक अपरिष्कृत विधि Ω पर N यादृच्छिक संख्या चुनना और

की गणना करना है।

दाईं ओर की आकृति में, सापेक्ष त्रुटि को N के फलन के रूप में मापा जाता है, जो की पुष्टि करता है।







C उदाहरण

ध्यान रखें कि वास्तविक यादृच्छिक संख्या जनक का उपयोग किया जाना चाहिए।

int i, throws = 99999, insideCircle = 0;
double randX, randY, pi;

srand(time(NULL));

for (i = 0; i < throws; ++i) {
  randX = rand() / (double) RAND_MAX;
  randY = rand() / (double) RAND_MAX;
  if (randX * randX + randY * randY < 1) ++insideCircle;
}

pi = 4.0 * insideCircle / throws;


पायथन उदाहरण

पायथन(प्रोग्रामिंग भाषा) में निर्मित।

from numpy import random
import numpy as np

throws = 2000
inside_circle = 0
i = 0
radius = 1
while i < throws:
    # Choose random X and Y centered around 0,0
    x = random.uniform(-radius, radius)
    y = random.uniform(-radius, radius)
    # If the point is inside circle, increase variable
    if x**2 + y**2 <= radius**2:
        inside_circle += 1
    i += 1

# Calculate area and print; should be closer to Pi with increasing number of throws
area = (((2 * radius) ** 2) * inside_circle) / throws
print(area)


वोल्फ्राम गणित उदाहरण

नीचे दिया गया कोड गणित में मोंटे-कार्लो पद्धति का उपयोग करके फलन

को से एकीकृत करने की प्रक्रिया का वर्णन करता है:

func[x_] := 1/(1 + Sinh[2*x]*(Log[x])^2);

(*Sample from truncated normal distribution to speed up convergence*)
Distrib[x_, average_, var_] :=   PDF[NormalDistribution[average, var], 1.1*x - 0.1];
n = 10;
RV = RandomVariate[TruncatedDistribution[{0.8, 3}, NormalDistribution[1, 0.399]], n];
Int = 1/n Total[func[RV]/Distrib[RV, 1, 0.399]]*Integrate[Distrib[x, 1, 0.399], {x, 0.8, 3}]

NIntegrate[func[x], {x, 0.8, 3}] (*Compare with real answer*)


पुनरावर्ती स्तरीकृत प्रतिचयन


File:Strata.png
An illustration of Recursive Stratified Sampling. In this example, the function:
from the above illustration was integrated within a unit square using the suggested algorithm. The sampled points were recorded and plotted. Clearly stratified sampling algorithm concentrates the points in the regions where the variation of the function is largest.

पुनरावर्ती स्तरीकृत प्रतिदर्श बहु-आयामी पूर्णांक के लिए एक-आयामी अनुकूली चतुष्कोणों का सामान्यीकरण है। प्रत्येक पुनरावर्ती चरण पर एक साधारण मोंटे कार्लो एल्गोरिथम का उपयोग करके अभिन्न और त्रुटि का अनुमान लगाया जाता है। यदि त्रुटि अनुमान आवश्यक यथार्थता से बड़ा है तो एकीकरण मात्रा को उप-खंडों में विभाजित किया जाता है और प्रक्रिया को पुनरावर्ती रूप से उप-खंडों पर लागू किया जाता है।

सामान्य 'दो से विभाजित' रणनीति बहु-आयामों के लिए काम नहीं करती है क्योंकि पद चिन्ह रखने के लिए उप-खंडों की संख्या बहुत तीव्रता से बढ़ती है। इसके अतिरिक्त एक अनुमान है कि किस आयाम के साथ उपखंड को सबसे अधिक लाभांश लाना चाहिए और मात्र इस आयाम के साथ मात्रा को उपविभाजित करता है।

स्तरीकृत प्रतिचयन एल्गोरिदम उन क्षेत्रों में प्रतिचयन बिंदुओं को केंद्रित करता है जहां फलन का प्रसरण सबसे बड़ा होता है, इस प्रकार उच्च प्रसरण को कम करता है और प्रतिचयन को अधिक प्रभावी बनाता है, जैसा कि चित्रण में दिखाया गया है।

लोकप्रिय मिसेर नेमी एक समान एल्गोरिथम लागू करता है।

मिसेर मोंटे कार्लो

मिसेर एल्गोरिदम पुनरावर्ती स्तरीकृत प्रतिदर्श पर आधारित है। इस तकनीक का उद्देश्य उच्चतम विचरण के क्षेत्रों में एकीकरण बिंदुओं को केंद्रित करके समग्र एकीकरण त्रुटि को कम करना है।[7]

स्तरीकृत प्रतिचयन का विचार अवलोकन के साथ प्रारम्भ होता है कि दो असंयुक्त समुच्चय क्षेत्रों के लिए a और b मोंटे कार्लो के साथ और और प्रसरण और का अनुमान है, संयुक्त अनुमान

का भिन्नता Var(f),

द्वारा दिया गया है।

यह दिखाया जा सकता है कि इस भिन्नता को अंक वितरित करके कम किया जाता है जैसे कि,

इसलिए प्रत्येक उप-क्षेत्र में फलन के मानक विचलन के अनुपात में प्रतिदर्श बिंदु आवंटित करके सबसे छोटी त्रुटि अनुमान प्राप्त किया जाता है।

मिसेर एल्गोरिदम प्रत्येक चरण में दो उप-क्षेत्र देने के लिए एक समन्वय अक्ष के साथ एकीकरण क्षेत्र को द्विभाजित करके आगे बढ़ता है। दिशा का चयन सभी संभावित समद्विभाजकों की जांच करके और एक का चयन करके किया जाता है जो दो उप-क्षेत्रों के संयुक्त विचरण को कम करेगा। वर्तमान चरण के लिए उपलब्ध अंकों की कुल संख्या के एक अंश के साथ प्रतिचयन द्वारा उप-क्षेत्रों में भिन्नता का अनुमान लगाया गया है। फिर वही प्रक्रिया सर्वोत्तम द्विभाजन से प्रत्येक दो अर्ध-स्थानों के लिए पुनरावर्ती रूप से दोहराई जाती है। शेष प्रतिदर्श बिंदु Naऔर Nb के सूत्र का उपयोग करके उप-क्षेत्रों को आवंटित किए जाते हैं। एकीकरण बिंदुओं का यह पुनरावर्ती आवंटन उपयोगकर्ता द्वारा निर्दिष्ट गहराई तक जारी रहता है जहां प्रत्येक उप-क्षेत्र को साधारण मोंटे कार्लो अनुमान का उपयोग करके एकीकृत किया जाता है। इन व्यक्तिगत मानों और उनके त्रुटि अनुमानों को समग्र परिणाम देने के लिए और इसकी त्रुटि का अनुमान लगाने के लिए ऊपर की ओर जोड़े जाते है।







महत्व प्रतिचयन

विभिन्न प्रकार के महत्वपूर्ण प्रतिचयन एल्गोरिदम हैं, जैसे

महत्व प्रतिदर्श एल्गोरिदम

महत्व प्रतिचयन मोंटे-कार्लो एकीकरण करने के लिए एक बहुत ही महत्वपूर्ण उपकरण प्रदान करते है।[3][8] इस पद्धति के महत्व के प्रतिदर्श का मुख्य परिणाम यह है कि का एकसमान प्रतिचयन अधिक सामान्य विकल्प की विशेष स्थिति है, जिस पर किसी भी वितरण से प्रतिदर्श लिए जाते हैं। विचार यह है कि माप QN के विचरण को कम करने के लिए को चुना जा सकता है।

निम्नलिखित उदाहरण पर विचार करें जहां कोई गॉसियन फलन को संख्यात्मक रूप से एकीकृत करना चाहते है, जो 0 पर केंद्रित है, σ = 1 के साथ -1000 से 1000 तक। स्वाभाविक रूप से, यदि प्रतिदर्श अंतराल [-1000, 1000] पर समान रूप से खींचे जाते हैं, तो मात्र एक उनमें से बहुत छोटा भाग अभिन्न के लिए महत्वपूर्ण होगा। जहां से प्रतिदर्श चुने गए हैं वहां से अलग वितरण चुनकर इसमें संशोधन किया जा सकता है, उदाहरण के लिए σ = 1 के साथ 0 पर केंद्रित गाऊसी वितरण के अनुसार प्रतिचयन करके। निश्चित रूप से उचित विकल्प एकीकृत पर दृढ़ता से निर्भर करती है।

विधिवत रूप से, वितरण

से चुने गए प्रतिदर्शों का एक समुच्चय दिया गया है, I के लिए अनुमानक[3]

द्वारा दिया गया है

सहज रूप से, यह कहता है कि यदि हम किसी विशेष प्रतिदर्श को अन्य प्रतिदर्शों की तुलना में दोगुना चुनते हैं, तो हम इसे अन्य प्रतिदर्शों की तुलना में आधा भार देते हैं। यह अनुमानक समान प्रतिचयन के लिए स्वाभाविक रूप से मान्य है, जहां स्थिर है।

मेट्रोपोलिस-हेस्टिंग्स एल्गोरिदम से उत्पन्न करने के लिए सबसे अधिक उपयोग किए जाने वाले एल्गोरिदम में से एक है,[3] इस प्रकार अभिकलन पूर्णांक की कुशल विधि प्रदान करती है।

वेगास मोंटे कार्लो

वेगास एल्गोरिदम एकीकरण क्षेत्र पर कई मार्ग बनाकर यथार्थ वितरण के अनुमान लगाते है जो फलन f का आयतचित्र बनाते है। प्रत्येक आयतचित्र का उपयोग अगले मार्ग के लिए प्रतिचयन वितरण को परिभाषित करने के लिए किया जाता है। असम्बद्ध रूप से यह प्रक्रिया वांछित वितरण में परिवर्तित हो जाती है।[9] Kd के जैसे बढ़ने वाले आयतचित्र डिब्बे की संख्या से बचने के लिए, संभाव्यता वितरण को अलग करने योग्य फलन द्वारा अनुमानित किया जाता है:

ताकि आवश्यक डिब्बे की संख्या मात्र Kd हो। यह समन्वय अक्षों पर एकीकृत के अनुमानों से फलन के शिखरों का पता लगाने के बराबर है। वेगास की दक्षता इस धारणा की वैधता पर निर्भर करती है। यह सबसे अधिक कुशल होता है जब एकीकृत के शिखर ठीक रूप से स्थानीयकृत होती हैं। यदि एकीकृत को एक ऐसे रूप में फिर से लिखा जा सकता है जो लगभग वियोज्य है, तो यह वेगास के साथ एकीकरण की दक्षता में वृद्धि करेगा। वेगास में कई अतिरिक्त सुविधाएँ सम्मिलित हैं, और स्तरीकृत प्रतिचयन और महत्व प्रतिचयन दोनों को जोड़ती है।[9]


यह भी देखें

टिप्पणियाँ

  1. Press et al, 2007, Chap. 4.
  2. Press et al, 2007, Chap. 7.
  3. 3.0 3.1 3.2 3.3 Newman, 1999, Chap. 2.
  4. Newman, 1999, Chap. 1.
  5. Press et al, 2007
  6. MacKay, David (2003). "chapter 4.4 Typicality & chapter 29.1" (PDF). सूचना सिद्धांत, अनुमान और लर्निंग एल्गोरिदम. Cambridge University Press. pp. 284–292. ISBN 978-0-521-64298-9. MR 2012999.
  7. Press, 1990, pp 190-195.
  8. Kroese, D. P.; Taimre, T.; Botev, Z. I. (2011). हैंडबुक ऑफ मोंटे कार्लो मेथड्स. John Wiley & Sons.
  9. 9.0 9.1 Lepage, 1978


संदर्भ


बाहरी संबंध