महत्व नमूनाकरण: Difference between revisions

From Vigyanwiki
No edit summary
No edit summary
 
(6 intermediate revisions by 3 users not shown)
Line 1: Line 1:
{{short description|Distribution estimation technique}}
{{short description|Distribution estimation technique}}
महत्व नमूनाकरण एक विशेष संभाव्यता वितरण के गुणों का मूल्यांकन करने के लिए एक [[मोंटे कार्लो विधि]] है, जबकि ब्याज के वितरण की तुलना में केवल एक अलग वितरण से उत्पन्न नमूने होते हैं। सांख्यिकी में इसकी शुरूआत का श्रेय आम तौर पर 1978 में [[तेन क्लोएक]] और हरमन के. वैन डिज्क के एक पेपर को दिया जाता है,<ref>{{cite journal |first1=T. |last1=Kloek |first2=H. K. |last2=van Dijk |title=Bayesian Estimates of Equation System Parameters: An Application of Integration by Monte Carlo |journal=[[Econometrica]] |volume=46 |issue=1 |year=1978 |pages=1–19 |doi=10.2307/1913641 |jstor=1913641 |url=https://ageconsearch.umn.edu/record/272139/files/erasmus076.pdf }}</ref> लेकिन इसके अग्रदूत मोंटे कार्लो पद्धति में सांख्यिकीय भौतिकी में 1949 की शुरुआत में पाए जा सकते हैं।<ref>{{cite journal |first=G. |last=Goertzle |authorlink=Gerald Goertzel |title=कण समस्याओं के स्टोकेस्टिक समाधान में कोटा नमूनाकरण और महत्व कार्य|journal=Technical Report ORNL-434, Oak Ridge National Laboratory |series=Aecd ;2793 |year=1949 |hdl=2027/mdp.39015086443671 }}</ref><ref>{{cite journal |last1=Kahn |first1=H. |authorlink=Herman Kahn |last2=Harris |first2=T. E. |authorlink2=Theodore E. Harris |year=1949 |title=रैंडम सैंपलिंग द्वारा पार्टिकल ट्रांसमिशन का अनुमान|journal=Monte Carlo Method |volume=12 |series=Applied Mathematics Series |pages=27–30 |publisher=National Bureau of Standards. }}</ref> [[कम्प्यूटेशनल भौतिकी]] में महत्वपूर्ण नमूनाकरण [[छाता नमूनाकरण]] से भी संबंधित है। आवेदन के आधार पर, शब्द इस वैकल्पिक वितरण, अनुमान की प्रक्रिया, या दोनों से नमूनाकरण की प्रक्रिया को संदर्भित कर सकता है।
महत्व नमूनाकरण एक विशेष संभाव्यता वितरण के गुणों का मूल्यांकन करने के लिए एक [[मोंटे कार्लो विधि]] है, जबकि ब्याज के वितरण की तुलना में केवल एक अलग वितरण से उत्पन्न नमूने होते हैं। सांख्यिकी में इसकी प्रारंभिक का श्रेय सामान्यतः 1978 में [[तेन क्लोएक]] और हरमन के. वैन डिज्क के एक पेपर को दिया जाता है,<ref>{{cite journal |first1=T. |last1=Kloek |first2=H. K. |last2=van Dijk |title=Bayesian Estimates of Equation System Parameters: An Application of Integration by Monte Carlo |journal=[[Econometrica]] |volume=46 |issue=1 |year=1978 |pages=1–19 |doi=10.2307/1913641 |jstor=1913641 |url=https://ageconsearch.umn.edu/record/272139/files/erasmus076.pdf }}</ref> किंतु इसके अग्रदूत मोंटे कार्लो पद्धति में सांख्यिकीय भौतिकी में 1949 की प्रारंभिक में पाए जा सकते हैं।<ref>{{cite journal |first=G. |last=Goertzle |authorlink=Gerald Goertzel |title=कण समस्याओं के स्टोकेस्टिक समाधान में कोटा नमूनाकरण और महत्व कार्य|journal=Technical Report ORNL-434, Oak Ridge National Laboratory |series=Aecd ;2793 |year=1949 |hdl=2027/mdp.39015086443671 }}</ref><ref>{{cite journal |last1=Kahn |first1=H. |authorlink=Herman Kahn |last2=Harris |first2=T. E. |authorlink2=Theodore E. Harris |year=1949 |title=रैंडम सैंपलिंग द्वारा पार्टिकल ट्रांसमिशन का अनुमान|journal=Monte Carlo Method |volume=12 |series=Applied Mathematics Series |pages=27–30 |publisher=National Bureau of Standards. }}</ref> [[कम्प्यूटेशनल भौतिकी]] में महत्वपूर्ण नमूनाकरण [[छाता नमूनाकरण]] से भी संबंधित है। आवेदन के आधार पर, शब्द इस वैकल्पिक वितरण, अनुमान की प्रक्रिया या दोनों से नमूनाकरण की प्रक्रिया को संदर्भित कर सकता है।


== मूल सिद्धांत ==
== मूल सिद्धांत ==


होने देना <math>X\colon \Omega\to \mathbb{R}</math> कुछ [[संभाव्यता स्थान]] में एक यादृच्छिक चर बनें <math>(\Omega,\mathcal{F},P)</math>. हम पी के तहत एक्स के [[अपेक्षित मूल्य]] का अनुमान लगाना चाहते हैं, जिसे 'ई' [एक्स; पी] दर्शाया गया है। यदि हमारे पास सांख्यिकीय रूप से स्वतंत्र यादृच्छिक नमूने हैं <math>x_1, \ldots, x_n</math>, पी के अनुसार उत्पन्न, तो 'ई' [एक्स; पी] का एक अनुभवजन्य अनुमान है
मान लीजिए कि <math>X\colon \Omega\to \mathbb{R}</math>कुछ संभाव्यता स्थान <math>(\Omega,\mathcal{F},P)</math>में एक यादृच्छिक चर है। हम P के अंतर्गत X के अपेक्षित मान का अनुमान लगाना चाहते हैं, जिसे E[X;P] दर्शाया गया है। यदि हमारे पास सांख्यिकीय रूप से स्वतंत्र यादृच्छिक नमूने <math>x_1, \ldots, x_n</math> हैं, जो P के अनुसार उत्पन्न होते हैं, तो E[X;P] का एक अनुभवजन्य अनुमान है


: <math>
: <math>
   \widehat{\mathbf{E}}_{n}[X;P] = \frac{1}{n} \sum_{i=1}^n x_i \quad \mathrm{where}\; x_i \sim P(X)
   \widehat{\mathbf{E}}_{n}[X;P] = \frac{1}{n} \sum_{i=1}^n x_i \quad \mathrm{where}\; x_i \sim P(X)
</math>
</math>
और इस अनुमान की सटीकता X के प्रसरण पर निर्भर करती है:
और इस अनुमान की स्पष्टता X के प्रसरण पर निर्भर करती है:


: <math>
: <math>
   \operatorname{var}[\widehat{\mathbf{E}}_{n};P] = \frac{\operatorname{var}[X;P]} n.
   \operatorname{var}[\widehat{\mathbf{E}}_{n};P] = \frac{\operatorname{var}[X;P]} n.
</math>
</math>
महत्व नमूनाकरण का मूल विचार [''एक्स;पी''] के अनुमान के विचरण को कम करने के लिए एक अलग वितरण से राज्यों का नमूना लेना है, या जब ''पी'' से नमूना लेना मुश्किल है।
महत्व नमूने का मूल विचार E[X;P] के अनुमान के विचरण को कम करने के लिए, या जब P से नमूना लेना कठिन हो, तो विभिन्न वितरण से अवस्थाओ  का नमूना लेना है। यह पहले एक यादृच्छिक चर <math>L\geq 0</math> को चुनकर पूरा किया जाता है जैसे कि E[L;P] = 1 और वह P-लगभग हर जगह <math>L(\omega)\neq 0</math> चर L के साथ हम एक संभावना को परिभाषित करते हैं <math>P^{(L)}</math> जो संतुष्ट करता है
यह पहले एक यादृच्छिक चर चुनकर पूरा किया जाता है <math>L\geq 0</math> ऐसा कि E[''L'';''P''] = 1 और वह ''P''-[[लगभग हर जगह]] <math>L(\omega)\neq 0</math>.
चर L के साथ हम प्रायिकता को परिभाषित करते हैं <math>P^{(L)}</math> जो संतुष्ट करता है
: <math>
: <math>
   \mathbf{E}[X;P] = \mathbf{E}\left[\frac{X}{L};P^{(L)}\right].
   \mathbf{E}[X;P] = \mathbf{E}\left[\frac{X}{L};P^{(L)}\right].
</math>
</math>
इस प्रकार चर X/L को P के अंतर्गत प्रतिदर्शित किया जाएगा<sup>(एल)</sup> उपरोक्त के अनुसार 'ई' [एक्स; पी] का अनुमान लगाने के लिए और यह अनुमान तब सुधारा जाता है जब
इस प्रकार चर X/L को ''P''<sup>(''L''*)</sup> के अंतर्गत प्रतिदर्शित किया जाएगा उपरोक्त के अनुसार 'E[X;P] का अनुमान लगाने के लिए और यह अनुमान तब सुधारा जाता है जब
<math>\operatorname{var}\left[\frac{X}{L};P^{(L)}\right] < \operatorname{var}[X;P]</math>.
<math>\operatorname{var}\left[\frac{X}{L};P^{(L)}\right] < \operatorname{var}[X;P]</math>.


जब X Ω पर स्थिर चिह्न का है, तो सबसे अच्छा चर L स्पष्ट रूप से होगा <math>L^*=\frac{X}{\mathbf{E}[X;P]}\geq 0</math>, ताकि X/L* खोजा गया स्थिरांक 'E'[X;P] हो और P के अंतर्गत एक एकल नमूना हो<sup>(L*)</sup> इसका मूल्य बताने के लिए पर्याप्त है। दुर्भाग्य से हम वह विकल्प नहीं ले सकते, क्योंकि 'ई' [एक्स; पी] ठीक वही मूल्य है जिसकी हम तलाश कर रहे हैं! हालाँकि यह सैद्धांतिक सर्वोत्तम मामला L* हमें इस बात की जानकारी देता है कि नमूनाकरण का क्या महत्व है:
जब X Ω पर स्थिर चिह्न का है, तो सबसे अच्छा चर L स्पष्ट रूप से होगा <math>L^*=\frac{X}{\mathbf{E}[X;P]}\geq 0</math>, जिससे X/L* खोजा गया स्थिरांक 'E'[X;P] हो और P<sup>(L*)</sup> के अंतर्गत एक एकल नमूना हो इसका मूल्य बताने के लिए पर्याप्त है। दुर्भाग्य से हम वह विकल्प नहीं ले सकते, क्योंकि 'E[X;P] ठीक वही मूल्य है जिसकी हम खोज कर रहे हैं! चूँकि यह सैद्धांतिक सर्वोत्तम स्थिति L* हमें इस बात की जानकारी देता है कि नमूनाकरण का क्या महत्व है:


: <math>
: <math>
Line 31: Line 29:


: <math>E[X;P] = \int_{a=-\infty}^{+\infty} a\,P(X\in[a;a+da]) </math>
: <math>E[X;P] = \int_{a=-\infty}^{+\infty} a\,P(X\in[a;a+da]) </math>
इसलिए, एक अच्छी संभावना परिवर्तन पी<sup>(एल)</sup> महत्वपूर्ण नमूनाकरण एक्स के कानून को पुनर्वितरित करेगा ताकि इसके नमूनों की आवृत्तियों को 'ई' [एक्स; पी] में उनके वजन के अनुसार सीधे क्रमबद्ध किया जा सके। इसलिए नाम महत्व नमूनाकरण।
इसलिए, एक अच्छी संभावना परिवर्तन ''P''<sup>(''L'')</sup> महत्वपूर्ण नमूनाकरण ''X'' के न्मियम को पुनर्वितरित करेगा जिससे इसके नमूनों की आवृत्तियों को 'E[X;P] में उनके वजन के अनुसार सीधे क्रमबद्ध किया जा सकता है। इसलिए इसका नाम महत्व नमूनाकरण पड़ा था।


महत्व नमूनाकरण अक्सर [[मोंटे कार्लो एकीकरण]] के रूप में उपयोग किया जाता है।
महत्व नमूनाकरण का उपयोग अधिकांशतः मोंटे कार्लो इंटीग्रेटर के रूप में किया जाता है। जब <math>P</math> महत्व नमूनाकरण का उपयोग अधिकांशतः मोंटे कार्लो इंटीग्रेटर के रूप में किया जाता है। जब <math>\Omega =\mathbb{R}</math>, E[X;P] वास्तविक कार्य <math>X\colon \mathbb{R}\to\mathbb{R}</math> के अभिन्न अंग से मेल खाता है।
कब <math>P</math> समान वितरण है और <math>\Omega =\mathbb{R}</math>, E[''X;P''] वास्तविक फ़ंक्शन के अभिन्न अंग से मेल खाता है <math>X\colon \mathbb{R}\to\mathbb{R}</math>.


== संभाव्य अनुमान के लिए आवेदन ==
== संभाव्य अनुमान के लिए आवेदन ==


इस तरह के तरीकों का उपयोग अक्सर राज्य में पश्च घनत्व या अपेक्षाओं का अनुमान लगाने के लिए किया जाता है और / या संभाव्य मॉडल में पैरामीटर अनुमान समस्याओं का विश्लेषण किया जाता है जो कि विश्लेषणात्मक रूप से व्यवहार करने के लिए बहुत कठिन हैं, उदाहरण के लिए [[बायेसियन नेटवर्क]] में।
इस तरह के विधियों का उपयोग अधिकांशतः स्थिति में पश्च घनत्व या अपेक्षाओं का अनुमान लगाने के लिए किया जाता है और / या संभाव्य मॉडल में पैरामीटर अनुमान समस्याओं का विश्लेषण किया जाता है जो कि विश्लेषणात्मक रूप से व्यवहार करने के लिए बहुत कठिन हैं, उदाहरण के लिए [[बायेसियन नेटवर्क]] में।


== [[सिमुलेशन]] के लिए आवेदन ==
== [[सिमुलेशन]] के लिए आवेदन ==
महत्व नमूनाकरण एक विचरण कमी तकनीक है जिसका उपयोग मोंटे कार्लो पद्धति में किया जा सकता है। महत्व नमूनाकरण के पीछे विचार यह है कि सिमुलेशन में इनपुट [[यादृच्छिक चर]] के कुछ मूल्यों का दूसरों की तुलना में अनुमानित पैरामीटर पर अधिक प्रभाव पड़ता है। यदि इन [[महत्वपूर्ण]] मूल्यों पर अधिक बार नमूनाकरण करके जोर दिया जाता है, तो अनुमानक विचरण को कम किया जा सकता है। इसलिए, महत्व नमूनाकरण में मूल पद्धति एक वितरण का चयन करना है जो महत्वपूर्ण मूल्यों को प्रोत्साहित करती है। पक्षपाती वितरण के इस उपयोग के परिणामस्वरूप एक पक्षपाती अनुमानक होगा यदि इसे सीधे अनुकरण में लागू किया जाता है। हालांकि, पक्षपाती वितरण के उपयोग के लिए सिमुलेशन आउटपुट को सही करने के लिए भारित किया जाता है, और यह सुनिश्चित करता है कि नया महत्व नमूना अनुमानक निष्पक्ष है। वजन [[संभावना-अनुपात परीक्षण]] द्वारा दिया जाता है, अर्थात, पक्षपाती सिमुलेशन वितरण के संबंध में सही अंतर्निहित वितरण का रेडॉन-निकोडिम व्युत्पन्न।
महत्व नमूनाकरण एक विचरण कमी तकनीक है जिसका उपयोग मोंटे कार्लो पद्धति में किया जा सकता है। महत्व नमूनाकरण के पीछे विचार यह है कि सिमुलेशन में इनपुट [[यादृच्छिक चर]] के कुछ मूल्यों का दूसरों की तुलना में अनुमानित पैरामीटर पर अधिक प्रभाव पड़ता है। यदि इन [[महत्वपूर्ण]] मूल्यों पर अधिक बार नमूनाकरण करके जोर दिया जाता है, तो अनुमानक विचरण को कम किया जा सकता है। इसलिए, महत्व नमूनाकरण में मूल पद्धति एक वितरण का चयन करना है जो महत्वपूर्ण मूल्यों को प्रोत्साहित करती है। पक्षपाती वितरण के इस उपयोग के परिणामस्वरूप एक पक्षपाती अनुमानक होगा यदि इसे सीधे अनुकरण में प्रयुक्त किया जाता है। चूँकि पक्षपाती वितरण के उपयोग के लिए सिमुलेशन आउटपुट को सही करने के लिए भारित किया जाता है, और यह सुनिश्चित करता है कि नया महत्व नमूना अनुमानक निष्पक्ष है। वजन संभावना अनुपात द्वारा दिया जाता है जो कि पक्षपाती सिमुलेशन वितरण के संबंध में वास्तविक अंतर्निहित वितरण का रेडॉन-निकोडिम व्युत्पन्न है।


महत्व नमूनाकरण सिमुलेशन को लागू करने में मौलिक मुद्दा पक्षपातपूर्ण वितरण का विकल्प है जो इनपुट चर के महत्वपूर्ण क्षेत्रों को प्रोत्साहित करता है। एक अच्छे पक्षपाती वितरण को चुनना या डिजाइन करना महत्व के नमूने की कला है। एक अच्छे वितरण का प्रतिफल बहुत बड़ी समय-समय पर बचत हो सकता है; एक खराब वितरण के लिए जुर्माना एक सामान्य मोंटे कार्लो सिमुलेशन की तुलना में महत्वपूर्ण नमूने के बिना लंबे समय तक चलाया जा सकता है।
महत्व नमूनाकरण सिमुलेशन को प्रयुक्त करने में मौलिक उद्देश्य पक्षपातपूर्ण वितरण का विकल्प है जो इनपुट चर के महत्वपूर्ण क्षेत्रों को प्रोत्साहित करता है। एक अच्छे पक्षपाती वितरण को चुनना या डिजाइन करना महत्व के नमूने की कला है। एक अच्छे वितरण का प्रतिफल बहुत बड़ी समय-समय पर बचत हो सकता है; एक खराब वितरण के लिए जुर्माना एक सामान्य मोंटे कार्लो सिमुलेशन की तुलना में महत्वपूर्ण नमूने के बिना लंबे समय तक चलाया जा सकता है।


विचार करना <math>X</math> नमूना होना और <math>\frac{f(X)}{g(X)}</math> संभावना अनुपात होने के लिए, जहां <math>f</math> वांछित वितरण की संभाव्यता घनत्व (द्रव्यमान) कार्य है और <math>g</math> पक्षपाती/प्रस्ताव/नमूना वितरण का प्रायिकता घनत्व (द्रव्यमान) फलन है। फिर नमूना वितरण को चुनकर समस्या का वर्णन किया जा सकता है <math>g</math> जो स्केल किए गए नमूने के विचरण को कम करता है:
 
<math>X</math> को नमूना मानें और<math>\frac{f(X)}{g(X)}</math>को संभावना अनुपात मानें, जहां '''<math>f</math>''' वांछित वितरण की संभाव्यता घनत्व (द्रव्यमान) कार्य है और <math>g</math> पक्षपातपूर्ण/प्रस्ताव/नमूना वितरण की संभाव्यता घनत्व (द्रव्यमान) कार्य है। फिर समस्या को नमूना वितरण <math>g</math> चुनकर चित्रित किया जा सकता है जो स्केल किए गए नमूने के विचरण को कम करता है:


:<math>g^* = \min_g \operatorname{var}_g \left( X \frac{f(X)}{g(X)} \right).</math>
:<math>g^* = \min_g \operatorname{var}_g \left( X \frac{f(X)}{g(X)} \right).</math>
Line 56: Line 54:
=== गणितीय दृष्टिकोण ===
=== गणितीय दृष्टिकोण ===


सिमुलेशन द्वारा संभाव्यता का अनुमान लगाने पर विचार करें <math>p_t\,</math> किसी घटना का <math>X \ge t</math>, कहाँ <math>X</math> संभाव्यता वितरण के साथ एक यादृच्छिक चर है <math>F</math> और संभाव्यता घनत्व समारोह <math>f(x)= F'(x)\,</math>, जहां प्राइम [[ यौगिक |यौगिक]] को दर्शाता है। <math>K</math>लंबाई [[स्वतंत्र और समान रूप से वितरित]] (i.i.d.) अनुक्रम <math>X_i\,</math> वितरण से उत्पन्न होता है <math>F</math>, और संख्या <math>k_t</math> रैंडम वेरिएबल्स जो दहलीज से ऊपर हैं <math>t</math> गिने जाते हैं। यादृच्छिक चर <math>k_t</math> [[द्विपद वितरण]] द्वारा विशेषता है
सिमुलेशन द्वारा किसी घटना <math>X \ge t</math> की संभावना <math>p_t\,</math> का अनुमान लगाने पर विचार करें, जहां <math>X</math> वितरण <math>F</math> और संभाव्यता घनत्व फलन<math>f(x)= F'(x)\,</math> के साथ एक यादृच्छिक चर है, जहां प्राइम व्युत्पन्न को दर्शाता है। एक <math>K</math>-लंबाई स्वतंत्र और समान रूप से वितरित (i.i.d.) अनुक्रम <math>X_i\,</math>, वितरण <math>F</math> से उत्पन्न होता है, और सीमा <math>t</math> से ऊपर स्थित यादृच्छिक चर की संख्या <math>k_t</math> को गिना जाता है। यादृच्छिक चर <math>k_t</math>को द्विपद वितरण द्वारा चित्रित किया गया है


:<math>P(k_t = k)={K\choose k}p_t^k(1-p_t)^{K-k},\,\quad \quad k=0,1,\dots,K.</math>
:<math>P(k_t = k)={K\choose k}p_t^k(1-p_t)^{K-k},\,\quad \quad k=0,1,\dots,K.</math>
कोई यह दिखा सकता है <math>\operatorname{E} [k_t/K] = p_t</math>, और <math>\operatorname{var} [k_t/K] = p_t(1-p_t)/K</math>, तो सीमा में <math>K \to \infty</math> हम प्राप्त करने में सक्षम हैं <math>p_t</math>. ध्यान दें कि यदि विचरण कम है <math>p_t \approx 1</math>. महत्व नमूनाकरण एक वैकल्पिक घनत्व समारोह के निर्धारण और उपयोग से संबंधित है <math>f_*\,</math>(के लिए <math>X</math>), आमतौर पर सिमुलेशन प्रयोग के लिए एक पूर्वाग्रह घनत्व के रूप में जाना जाता है। यह घनत्व घटना की अनुमति देता है <math>{ X \ge t\ }</math> अधिक बार होने के लिए, इसलिए अनुक्रम की लंबाई <math>K</math> किसी दिए गए अनुमानक प्रसरण के लिए छोटा हो जाता है। वैकल्पिक रूप से, दिए गए के लिए <math>K</math>, पारंपरिक मोंटे कार्लो अनुमान की तुलना में छोटे विचरण में बायसिंग घनत्व के उपयोग का परिणाम है। की परिभाषा से <math>p_t\,</math>, हम परिचय दे सकते हैं <math>f_*\,</math> नीचे के अनुसार।
कोई यह दिखा सकता है कि <math>\operatorname{E} [k_t/K] = p_t</math>, और <math>\operatorname{var} [k_t/K] = p_t(1-p_t)/K</math> इसलिए <math>K \to \infty</math> की सीमा में हम <math>p_t</math> प्राप्त करने में सक्षम हैं। ध्यान दें कि यदि <math>p_t \approx 1</math>लगभग है तो विचरण कम है। महत्व नमूनाकरण एक वैकल्पिक घनत्व कार्य <math>f_*\,</math>,(<math>X</math>के लिए) के निर्धारण और उपयोग से संबंधित है, जिसे सामान्यतः पूर्वाग्रह घनत्व के रूप में जाना जाता है। अनुकरण प्रयोग. यह घनत्व घटना {<math>{ X \ge t\ }</math>} को अधिक बार घटित होने की अनुमति देता है, इसलिए किसी दिए गए अनुमानक भिन्नता के लिए अनुक्रम लंबाई <math>K</math> छोटी हो जाती है। वैकल्पिक रूप से, किसी दिए गए <math>K</math>के लिए, पूर्वाग्रह घनत्व के उपयोग के परिणामस्वरूप पारंपरिक मोंटे कार्लो अनुमान की तुलना में कम भिन्नता होती है। <math>p_t\,</math> की परिभाषा से, हम नीचे दिए अनुसार<math>f_*\,</math>का परिचय दे सकते हैं।


:<math>
:<math>
Line 68: Line 66:
\end{align}
\end{align}
</math>
</math>
कहाँ
जहाँ


:<math>W(\cdot) \equiv \frac{f(\cdot)}{f_*(\cdot)} </math>
:<math>W(\cdot) \equiv \frac{f(\cdot)}{f_*(\cdot)} </math>
एक संभावना अनुपात है और इसे वेटिंग फ़ंक्शन के रूप में संदर्भित किया जाता है। उपरोक्त समीकरण में अंतिम समानता अनुमानक को प्रेरित करती है
एक संभावना अनुपात है और इसे वेटिंग कार्य के रूप में संदर्भित किया जाता है। उपरोक्त समीकरण में अंतिम समानता अनुमानक को प्रेरित करती है


:<math> \hat p_t = \frac{1}{K}\,\sum_{i=1}^K 1(X_i \ge t) W(X_i),\,\quad \quad X_i \sim  f_*</math>
:<math> \hat p_t = \frac{1}{K}\,\sum_{i=1}^K 1(X_i \ge t) W(X_i),\,\quad \quad X_i \sim  f_*</math>
यह महत्व नमूना अनुमानक है <math>p_t\,</math> और निष्पक्ष है। यानी, अनुमान लगाने की प्रक्रिया i.i.d. उत्पन्न करने के लिए है। से नमूने <math>f_*\,</math> और प्रत्येक नमूने के लिए जो इससे अधिक है <math>t\,</math>, अनुमान भार द्वारा बढ़ाया जाता है <math>W\,</math> नमूना मूल्य पर मूल्यांकन किया गया। परिणाम औसत से अधिक हैं <math>K\,</math> परीक्षण। महत्व नमूनाकरण अनुमानक का विचरण आसानी से दिखाया गया है
 
 
यह <math>p_t\,</math> का महत्व नमूना अनुमानक है, और निष्पक्ष है। अर्थात्, अनुमान प्रक्रिया आई.आई.डी. उत्पन्न करने के लिए है । <math>f_*\,</math> से नमूने, और प्रत्येक नमूने के लिए जो <math>t\,</math> से अधिक है, अनुमान को वजन <math>W\,</math> द्वारा बढ़ाया जाता है, जिसका मूल्यांकन नमूना मूल्य पर किया जाता है। परिणाम <math>K\,</math>, परीक्षणों पर औसत हैं। महत्व नमूना अनुमानक का विचरण आसानी से दिखाया जाता है


:<math>
:<math>
Line 83: Line 83:
\end{align}
\end{align}
</math>
</math>
अब, महत्व नमूनाकरण समस्या तब एक पूर्वाग्रह घनत्व खोजने पर केंद्रित है <math>f_*\,</math> ऐसा है कि महत्व नमूनाकरण अनुमानक का विचलन सामान्य मोंटे कार्लो अनुमान के भिन्नता से कम है। कुछ पूर्वाग्रह घनत्व समारोह के लिए, जो भिन्नता को कम करता है, और कुछ शर्तों के तहत इसे शून्य तक कम कर देता है, इसे इष्टतम पूर्वाग्रह घनत्व समारोह कहा जाता है।
अब, महत्व नमूनाकरण समस्या एक पूर्वाग्रह घनत्व <math>f_*\,</math> खोजने पर केंद्रित है, जैसे कि महत्व नमूना अनुमानक का विचरण सामान्य मोंटे कार्लो अनुमान के विचरण से कम है। कुछ पूर्वाग्रह घनत्व कार्य के लिए, जो भिन्नता को कम करता है, और कुछ नियमो के तहत इसे शून्य तक कम कर देता है, इसे इष्टतम पूर्वाग्रह घनत्व कार्य कहा जाता है।


=== पारंपरिक पूर्वाग्रह के तरीके ===
=== पारंपरिक पूर्वाग्रह के तरीके ===
Line 91: Line 91:
==== स्केलिंग ====
==== स्केलिंग ====


संभावना द्रव्यमान को घटना क्षेत्र में स्थानांतरित करना <math>{ X \ge t\ }</math> यादृच्छिक चर के सकारात्मक स्केलिंग द्वारा <math>X\,</math> एक से अधिक संख्या के साथ घनत्व समारोह के भिन्नता (मतलब भी) को बढ़ाने का प्रभाव होता है। इसका परिणाम घनत्व की एक भारी पूंछ में होता है, जिससे घटना की संभावना में वृद्धि होती है। स्केलिंग शायद सबसे पहले ज्ञात बायसिंग विधियों में से एक है और व्यवहार में बड़े पैमाने पर इसका उपयोग किया गया है। इसे लागू करना आसान है और आमतौर पर अन्य तरीकों की तुलना में रूढ़िवादी सिमुलेशन लाभ प्रदान करता है।
एकता से अधिक संख्या के साथ यादृच्छिक चर <math>X\,</math> की सकारात्मक स्केलिंग द्वारा संभाव्यता द्रव्यमान को घटना क्षेत्र <math>{ X \ge t\ }</math> में स्थानांतरित करने से घनत्व कार्य के विचरण (माध्य भी) में वृद्धि का प्रभाव पड़ता है। इसके परिणामस्वरूप घनत्व की भारी पूँछ उत्पन्न होती है, जिससे घटना की संभावना में वृद्धि होती है। स्केलिंग संभवतः ज्ञात सबसे प्रारंभिक पूर्वाग्रह विधियों में से एक है और व्यवहार में इसका बड़े मापदंड पर उपयोग किया गया है। इसे प्रयुक्त करना आसान है और सामान्यतः अन्य विधियों की तुलना में रूढ़िवादी सिमुलेशन लाभ प्रदान करता है।


स्केलिंग द्वारा महत्वपूर्ण नमूनाकरण में, सिमुलेशन घनत्व को स्केल किए गए यादृच्छिक चर के घनत्व फ़ंक्शन के रूप में चुना जाता है <math>aX\,</math>, जहां आमतौर पर <math>a>1</math> पूंछ संभाव्यता अनुमान के लिए। परिवर्तन से,
स्केलिंग द्वारा महत्वपूर्ण नमूनाकरण में, सिमुलेशन घनत्व को स्केल किए गए यादृच्छिक चर के घनत्व कार्य के रूप में चुना जाता है <math>aX\,</math>, जहां सामान्यतः <math>a>1</math> पूंछ संभाव्यता अनुमान के लिए। परिवर्तन से,


:<math> f_*(x)=\frac{1}{a} f \bigg( \frac{x}{a} \bigg)\,</math>
:<math> f_*(x)=\frac{1}{a} f \bigg( \frac{x}{a} \bigg)\,</math>
और वेटिंग फंक्शन है
और वेटिंग कार्य है


:<math> W(x)= a \frac{f(x)}{f(x/a)} \,</math>
:<math> W(x)= a \frac{f(x)}{f(x/a)} \,</math>
जबकि स्केलिंग संभाव्यता द्रव्यमान को वांछित घटना क्षेत्र में स्थानांतरित करता है, यह द्रव्यमान को पूरक क्षेत्र में भी धकेलता है <math>X<t\,</math> जो अवांछनीय है। अगर <math>X\,</math> का योग है <math>n\,</math> यादृच्छिक चर, द्रव्यमान का प्रसार एक में होता है <math>n\,</math> आयामी स्थान। इसका नतीजा यह है कि बढ़ने के लिए सैंपलिंग का महत्व घटता जा रहा है <math>n\,</math>, और इसे आयामीता प्रभाव कहा जाता है।
 
स्केलिंग द्वारा महत्व नमूनाकरण का एक आधुनिक संस्करण है उदा। तथाकथित सिग्मा-स्केल्ड सैंपलिंग (SSS) जो विभिन्न स्केलिंग कारकों के साथ कई मोंटे कार्लो (MC) विश्लेषण चला रहा है। कई अन्य उच्च उपज आकलन विधियों (जैसे सबसे खराब स्थिति WCD) के विपरीत SSS आयामी समस्या से ज्यादा पीड़ित नहीं है। साथ ही कई एमसी आउटपुट को संबोधित करने से दक्षता में कोई गिरावट नहीं आती है। दूसरी ओर, WCD के रूप में, SSS केवल गाऊसी सांख्यिकीय चर के लिए डिज़ाइन किया गया है, और WCD के विपरीत, SSS विधि को सटीक सांख्यिकीय कोने प्रदान करने के लिए डिज़ाइन नहीं किया गया है। एक और एसएसएस नुकसान यह है कि एमसी बड़े पैमाने पर कारकों के साथ चलता है, मुश्किल हो सकता है, उदा। जी। मॉडल और सिम्युलेटर अभिसरण समस्याओं के कारण। इसके अलावा, SSS में हम एक मजबूत पूर्वाग्रह-विचरण व्यापार बंद का सामना करते हैं: बड़े पैमाने के कारकों का उपयोग करके, हम काफी स्थिर उपज परिणाम प्राप्त करते हैं, लेकिन पैमाने के कारक जितने बड़े होते हैं, पूर्वाग्रह त्रुटि उतनी ही बड़ी होती है। यदि ब्याज के आवेदन में SSS के फायदे ज्यादा मायने नहीं रखते हैं, तो अक्सर अन्य तरीके अधिक कुशल होते हैं।
 
जबकि स्केलिंग संभाव्यता द्रव्यमान को वांछित घटना क्षेत्र में स्थानांतरित करती है, यह द्रव्यमान को पूरक क्षेत्र <math>X<t\,</math> में भी धकेलती है, जो अवांछनीय है। यदि <math>X\,</math>, <math>n\,</math>, यादृच्छिक चर का योग है, तो द्रव्यमान का प्रसार <math>n\,</math>, आयामी स्थान में होता है। इसका परिणाम <math>n\,</math> को बढ़ाने के लिए घटते महत्व के नमूने का लाभ है, और इसे आयामी प्रभाव कहा जाता है। स्केलिंग द्वारा महत्व के नमूने का एक आधुनिक संस्करण उदाहरण के लिए है। तथाकथित सिग्मा-स्केल्ड सैंपलिंग (एसएसएस) जो विभिन्न स्केलिंग कारकों के साथ कई मोंटे कार्लो (एमसी) विश्लेषण चला रहा है। कई अन्य उच्च उपज अनुमान विधियों (जैसे सबसे खराब स्थिति वाली दूरी डब्ल्यूसीडी) के विपरीत, एसएसएस को आयामी समस्या से अधिक हानि नहीं होता है। इसके अतिरिक्त कई एमसी आउटपुट को संबोधित करने से दक्षता में कोई गिरावट नहीं आती है। दूसरी ओर, डब्ल्यूसीडी के रूप में, एसएसएस केवल गॉसियन सांख्यिकीय चर के लिए डिज़ाइन किया गया है, और डब्ल्यूसीडी के विपरीत, एसएसएस विधि सटीक सांख्यिकीय कोने प्रदान करने के लिए डिज़ाइन नहीं की गई है। एसएसएस का एक और हानि यह है कि एमसी को बड़े मापदंड पर कारकों के साथ चलाना कठिन हो सकता है, उदाहरण के लिए। जी। मॉडल और सिम्युलेटर अभिसरण समस्याओं के कारण। इसके अतिरिक्त, एसएसएस में हमें एक प्रबल पूर्वाग्रह-विचरण व्यापार-बंद का सामना करना पड़ता है: बड़े पैमाने के कारकों का उपयोग करके, हम अधिक स्थिर उपज परिणाम प्राप्त करते हैं, किंतु जितने बड़े पैमाने के कारक होंगे, पूर्वाग्रह त्रुटि उतनी ही बड़ी होगी। यदि रुचि के अनुप्रयोग में एसएसएस के लाभ अधिक मायने नहीं रखते हैं, तो अधिकांशतः अन्य विधि अधिक कुशल होते हैं।


==== अनुवाद ====
==== अनुवाद ====


एक अन्य सरल और प्रभावी बायसिंग तकनीक घनत्व समारोह (और इसलिए यादृच्छिक चर) के अनुवाद को दुर्लभ घटना क्षेत्र में इसकी संभावना द्रव्यमान को रखने के लिए नियोजित करती है। अनुवाद एक आयाम प्रभाव से ग्रस्त नहीं है और डिजिटल संचार प्रणालियों के अनुकरण से संबंधित कई अनुप्रयोगों में सफलतापूर्वक उपयोग किया गया है। यह अक्सर स्केलिंग की तुलना में बेहतर सिमुलेशन लाभ प्रदान करता है। अनुवाद द्वारा पूर्वाग्रह में, सिमुलेशन घनत्व किसके द्वारा दिया जाता है
एक अन्य सरल और प्रभावी बायसिंग तकनीक घनत्व कार्य (और इसलिए यादृच्छिक चर) के अनुवाद को दुर्लभ घटना क्षेत्र में इसकी संभावना द्रव्यमान को रखने के लिए नियोजित करती है। अनुवाद एक आयाम प्रभाव से ग्रस्त नहीं है और डिजिटल संचार प्रणालियों के अनुकरण से संबंधित कई अनुप्रयोगों में सफलतापूर्वक उपयोग किया गया है। यह अधिकांशतः स्केलिंग की तुलना में उत्तम सिमुलेशन लाभ प्रदान करता है। अनुवाद द्वारा पूर्वाग्रह में, सिमुलेशन घनत्व किसके द्वारा दिया जाता है


:<math> f_*(x)= f(x-c), \quad c>0 \,</math>
:<math> f_*(x)= f(x-c), \quad c>0 \,</math>
कहाँ <math>c\,</math> बदलाव की मात्रा है और महत्व नमूना अनुमानक के भिन्नता को कम करने के लिए चुना जाना है।
जहाँ <math>c\,</math> बदलाव की मात्रा है और महत्व नमूना अनुमानक के भिन्नता को कम करने के लिए चुना जाना है।


=== सिस्टम जटिलता के प्रभाव ===
=== सिस्टम जटिलता के प्रभाव ===


महत्व के नमूने के साथ मूलभूत समस्या यह है कि अच्छे पक्षपाती वितरण को डिजाइन करना और अधिक जटिल हो जाता है क्योंकि सिस्टम की जटिलता बढ़ जाती है। कॉम्प्लेक्स सिस्टम लंबी मेमोरी वाले सिस्टम होते हैं क्योंकि कुछ इनपुट के जटिल प्रसंस्करण को संभालना बहुत आसान होता है। यह आयाम या स्मृति तीन तरह से समस्याएं पैदा कर सकती है:
महत्व के नमूने के साथ मूलभूत समस्या यह है कि अच्छे पक्षपाती वितरण को डिजाइन करना और अधिक जटिल हो जाता है क्योंकि सिस्टम की जटिलता बढ़ जाती है। कॉम्प्लेक्स सिस्टम लंबी मेमोरी वाले सिस्टम होते हैं क्योंकि कुछ इनपुट के जटिल प्रसंस्करण को संभालना बहुत आसान होता है। यह आयाम या मेमोरी तीन तरह से समस्याएं उत्पन्न कर सकती है:


* लंबी स्मृति (गंभीर अंतरप्रतीक हस्तक्षेप (ISI))
* लंबी मेमोरी (गंभीर अंतरप्रतीक हस्तक्षेप (आईएसआई))
* अज्ञात मेमोरी ([[विटरबी डिकोडर]]्स)
* अज्ञात मेमोरी ([[विटरबी डिकोडर]])
* संभवतः अनंत स्मृति (अनुकूली तुल्यकारक)
* संभवतः अनंत मेमोरी (अनुकूली तुल्यकारक)


सिद्धांत रूप में, इन स्थितियों में महत्व के नमूने के विचार समान रहते हैं, लेकिन डिजाइन बहुत कठिन हो जाता है। इस समस्या से निपटने के लिए एक सफल दृष्टिकोण अनिवार्य रूप से एक सिमुलेशन को कई छोटे, अधिक स्पष्ट रूप से परिभाषित उप-समस्याओं में तोड़ रहा है। फिर महत्व नमूनाकरण रणनीतियों का उपयोग प्रत्येक सरल उप-समस्याओं को लक्षित करने के लिए किया जाता है। सिमुलेशन को तोड़ने के लिए तकनीकों के उदाहरण कंडीशनिंग और एरर-इवेंट सिमुलेशन (ईईएस) और पुनर्योजी सिमुलेशन हैं।
सिद्धांत रूप में, इन स्थितियों में महत्व के नमूने के विचार समान रहते हैं, किंतु डिजाइन बहुत कठिन हो जाता है। इस समस्या से निपटने के लिए एक सफल दृष्टिकोण अनिवार्य रूप से एक सिमुलेशन को कई छोटे, अधिक स्पष्ट रूप से परिभाषित उप-समस्याओं में तोड़ रहा है। फिर महत्व नमूनाकरण रणनीतियों का उपयोग प्रत्येक सरल उप-समस्याओं को लक्षित करने के लिए किया जाता है। सिमुलेशन को तोड़ने के लिए तकनीकों के उदाहरण कंडीशनिंग और एरर-इवेंट सिमुलेशन (ईईएस) और पुनर्योजी सिमुलेशन हैं।


=== महत्व नमूनाकरण का मूल्यांकन ===
=== महत्व नमूनाकरण का मूल्यांकन ===


सफल महत्व नमूनाकरण तकनीकों की पहचान करने के लिए, महत्व नमूनाकरण दृष्टिकोण के उपयोग के कारण रन-टाइम बचत को मापने में सक्षम होना उपयोगी होता है। आमतौर पर इस्तेमाल किया जाने वाला प्रदर्शन माप है <math>\sigma^2_{MC} / \sigma^2_{IS} \,</math>, और इसे स्पीड-अप कारक के रूप में व्याख्या किया जा सकता है जिसके द्वारा महत्व नमूना अनुमानक एमसी अनुमानक के समान सटीकता प्राप्त करता है। इसकी आनुभविक रूप से गणना की जानी चाहिए क्योंकि अनुमानक प्रसरण के विश्लेषणात्मक रूप से संभव नहीं होने की संभावना है, जब उनका माध्य दुरूह हो। महत्व नमूनाकरण अनुमानक को परिमाणित करने में अन्य उपयोगी अवधारणाएं विचरण सीमाएं और स्पर्शोन्मुख दक्षता की धारणा हैं। एक संबंधित उपाय तथाकथित प्रभावी नमूना आकार (ईएसएस) है।<ref>{{Cite journal|last1=Martino|first1=Luca|last2=Elvira|first2=Víctor|last3=Louzada|first3=Francisco|title=विसंगति उपायों के आधार पर महत्व नमूनाकरण के लिए प्रभावी नमूना आकार|journal=Signal Processing|volume=131|pages=386–401|doi=10.1016/j.sigpro.2016.08.025|arxiv=1602.03572|year=2017|s2cid=26317735 }}</ref>
सफल महत्व नमूनाकरण तकनीकों की पहचान करने के लिए, महत्व नमूनाकरण दृष्टिकोण के उपयोग के कारण रन-टाइम बचत को मापने में सक्षम होना उपयोगी होता है। सामान्यतः उपयोग किया जाने वाला प्रदर्शन माप है <math>\sigma^2_{MC} / \sigma^2_{IS} \,</math>, और इसे स्पीड-अप कारक के रूप में व्याख्या किया जा सकता है जिसके द्वारा महत्व नमूना अनुमानक एमसी अनुमानक के समान स्पष्टता प्राप्त करता है। इसकी आनुभविक रूप से गणना की जानी चाहिए क्योंकि अनुमानक प्रसरण के विश्लेषणात्मक रूप से संभव नहीं होने की संभावना है, जब उनका माध्य दुरूह हो। महत्व नमूनाकरण अनुमानक को परिमाणित करने में अन्य उपयोगी अवधारणाएं विचरण सीमाएं और स्पर्शोन्मुख दक्षता की धारणा हैं। एक संबंधित उपाय तथाकथित प्रभावी नमूना आकार (ईएसएस) है।<ref>{{Cite journal|last1=Martino|first1=Luca|last2=Elvira|first2=Víctor|last3=Louzada|first3=Francisco|title=विसंगति उपायों के आधार पर महत्व नमूनाकरण के लिए प्रभावी नमूना आकार|journal=Signal Processing|volume=131|pages=386–401|doi=10.1016/j.sigpro.2016.08.025|arxiv=1602.03572|year=2017|s2cid=26317735 }}</ref>
=== भिन्नता व्यय कार्य ===


सिमुलेशन के लिए भिन्नता एकमात्र संभावित व्यय कार्य नहीं है, और अन्य व्यय कार्य , जैसे औसत पूर्ण विचलन, विभिन्न सांख्यिकीय अनुप्रयोगों में उपयोग किए जाते हैं। फिर भी, भिन्नता साहित्य में संबोधित प्राथमिक व्यय कार्य है, संभवतः विश्वास अंतराल और प्रदर्शन माप <math>\sigma^2_{MC} / \sigma^2_{IS} \,</math> में भिन्नता के उपयोग के कारण है ।


=== भिन्नता लागत समारोह ===
एक संबंधित उद्देश्य यह तथ्य है कि अनुपात <math>\sigma^2_{MC} / \sigma^2_{IS} \,</math> महत्व के नमूने के कारण रन-टाइम बचत को कम करके आंका जाता है क्योंकि इसमें वजन कार्य की गणना करने के लिए आवश्यक अतिरिक्त कंप्यूटिंग समय सम्मिलित नहीं होता है। इसलिए, कुछ लोग विभिन्न माध्यमों से नेट रन-टाइम सुधार का मूल्यांकन करते हैं। संभवतः महत्व नमूनाकरण के लिए एक अधिक गंभीर ओवरहेड तकनीक को तैयार करने और प्रोग्राम करने और वांछित वजन कार्य को विश्लेषणात्मक रूप से प्राप्त करने में लगने वाला समय है।
 
सिमुलेशन के लिए भिन्नता एकमात्र संभव हानि कार्य नहीं है, और अन्य लागत कार्यों, जैसे औसत पूर्ण विचलन, विभिन्न सांख्यिकीय अनुप्रयोगों में उपयोग किए जाते हैं। फिर भी, भिन्नता प्राथमिक लागत कार्य है जिसे साहित्य में संबोधित किया गया है, शायद [[विश्वास अंतराल]] में भिन्नता के उपयोग और प्रदर्शन माप में <math>\sigma^2_{MC} / \sigma^2_{IS} \,</math>.
 
एक संबंधित मुद्दा यह तथ्य है कि अनुपात <math>\sigma^2_{MC} / \sigma^2_{IS} \,</math> महत्व के नमूने के कारण रन-टाइम बचत को कम करके आंका जाता है क्योंकि इसमें वजन फ़ंक्शन की गणना करने के लिए आवश्यक अतिरिक्त कंप्यूटिंग समय शामिल नहीं होता है। इसलिए, कुछ लोग विभिन्न माध्यमों से नेट रन-टाइम सुधार का मूल्यांकन करते हैं। शायद महत्व नमूनाकरण के लिए एक अधिक गंभीर ओवरहेड तकनीक को तैयार करने और प्रोग्राम करने और वांछित वजन समारोह को विश्लेषणात्मक रूप से प्राप्त करने में लगने वाला समय है।


=== एकाधिक और अनुकूली महत्व नमूनाकरण ===
=== एकाधिक और अनुकूली महत्व नमूनाकरण ===
जब विभिन्न प्रस्ताव वितरण, <math>g_n(x)</math> , <math>n=1,\ldots,N,</math> नमूने लेने के लिए संयुक्त रूप से उपयोग किया जाता है <math>x_1, \ldots, x_N, </math> विभिन्न उचित भार कार्यों को नियोजित किया जा सकता है (उदाहरण के लिए देखें <ref>{{Cite book|title = मोंटे कार्लो रेंडरिंग के लिए नमूनाकरण तकनीकों का इष्टतम संयोजन|publisher = ACM|journal = Proceedings of the 22nd Annual Conference on Computer Graphics and Interactive Techniques|date = 1995-01-01|location = New York, NY, USA|isbn = 978-0-89791-701-8|pages = [https://archive.org/details/computergraphics00sigg/page/419 419–428]|series = SIGGRAPH '95|doi = 10.1145/218380.218498|first1 = Eric|last1 = Veach|first2 = Leonidas J.|last2 = Guibas|citeseerx = 10.1.1.127.8105| s2cid=207194026 |url = https://archive.org/details/computergraphics00sigg/page/419}}</ref><ref>{{Cite journal|title = सुरक्षित और प्रभावी महत्व नमूनाकरण|journal = Journal of the American Statistical Association|date = 2000-03-01|issn = 0162-1459|pages = 135–143|volume = 95|issue = 449|doi = 10.1080/01621459.2000.10473909|first1 = Art|last1 = Owen|first2 = Yi Zhou|last2 = Associate|citeseerx = 10.1.1.36.4536| s2cid=119761472 }}</ref><ref>{{Cite journal|title = कुशल एकाधिक महत्व नमूनाकरण अनुमानक|journal = IEEE Signal Processing Letters|date = 2015-10-01|issn = 1070-9908|pages = 1757–1761|volume = 22|issue = 10|doi = 10.1109/LSP.2015.2432078|first1 = V.|last1 = Elvira|first2 = L.|last2 = Martino|first3 = D.|last3 = Luengo|first4 = M.F.|last4 = Bugallo|arxiv = 1505.05391|bibcode = 2015ISPL...22.1757E| s2cid=14504598 }}</ref><ref>{{Cite journal|last1=Elvira|first1=Víctor|last2=Martino|first2=Luca|last3=Luengo|first3=David|last4=Bugallo|first4=Mónica F.|title=Improving population Monte Carlo: Alternative weighting and resampling schemes|journal=Signal Processing|volume=131|pages=77–91|doi=10.1016/j.sigpro.2016.07.012|arxiv=1607.02758|year=2017|s2cid=205171823 }}</ref>). अनुकूल सेटिंग में, प्रस्ताव वितरण, <math>g_{n,t}(x)</math> , <math>n=1,\ldots,N,</math> और <math>t=1,\ldots,T,</math> प्रत्येक पुनरावृत्ति को अद्यतन किया जाता है <math>t</math> अनुकूली महत्व नमूनाकरण एल्गोरिथम। इसलिए, चूंकि प्रस्ताव घनत्व की आबादी का उपयोग किया जाता है, नमूनाकरण और भार योजनाओं के कई उपयुक्त संयोजनों को नियोजित किया जा सकता है।<ref>{{Cite journal|title = जनसंख्या मोंटे कार्लो|journal = Journal of Computational and Graphical Statistics|date = 2004-12-01|issn = 1061-8600|pages = 907–929|volume = 13|issue = 4|doi = 10.1198/106186004X12803|first1 = O.|last1 = Cappé|first2 = A.|last2 = Guillin|first3 = J. M.|last3 = Marin|first4 = C. P.|last4 = Robert| s2cid=119690181 }}</ref><ref>{{Cite journal|last1=Martino|first1=L.|last2=Elvira|first2=V.|last3=Luengo|first3=D.|last4=Corander|first4=J.|date=2017-05-01|title=स्तरित अनुकूली महत्व नमूनाकरण|journal=Statistics and Computing|language=en|volume=27|issue=3|pages=599–623|doi=10.1007/s11222-016-9642-5|issn=0960-3174|arxiv=1505.04732|s2cid=2508031 }}</ref><ref>{{Cite journal|title = सामान्य मिश्रण वर्गों में अनुकूली महत्व का नमूनाकरण|journal = Statistics and Computing|date = 2008-04-25|issn = 0960-3174|pages = 447–459|volume = 18|issue = 4|doi = 10.1007/s11222-008-9059-x|first1 = Olivier|last1 = Cappé|first2 = Randal|last2 = Douc|first3 = Arnaud|last3 = Guillin|first4 = Jean-Michel|last4 = Marin|first5 = Christian P.|last5 = Robert|arxiv = 0710.4242| s2cid=483916 }}</ref><ref>{{Cite journal|title = अनुकूली एकाधिक महत्व नमूनाकरण|journal = Scandinavian Journal of Statistics|date = 2012-12-01|issn = 1467-9469|pages = 798–812|volume = 39|issue = 4|doi = 10.1111/j.1467-9469.2011.00756.x|first1 = Jean-Marie|last1 = Cornuet|first2 = Jean-Michel|last2 = Marin|first3 = Antonietta|last3 = Mira|author3-link=Antonietta Mira|first4 = Christian P.|last4 = Robert|arxiv = 0907.1254| s2cid=17191248 }}</ref><ref>{{Cite journal|title = An Adaptive Population Importance Sampler: Learning From Uncertainty|journal = IEEE Transactions on Signal Processing|date = 2015-08-01|issn = 1053-587X|pages = 4422–4437|volume = 63|issue = 16|doi = 10.1109/TSP.2015.2440215|first1 = L.|last1 = Martino|first2 = V.|last2 = Elvira|first3 = D.|last3 = Luengo|first4 = J.|last4 = Corander|bibcode = 2015ITSP...63.4422M|citeseerx = 10.1.1.464.9395| s2cid=17017431 }}</ref><ref>{{Cite journal|title = सिग्नल प्रोसेसिंग में अनुकूली महत्व नमूनाकरण|journal = Digital Signal Processing|date = 2015-12-01|pages = 36–49|volume = 47|series = Special Issue in Honour of William J. (Bill) Fitzgerald|doi = 10.1016/j.dsp.2015.05.014|first1 = Mónica F.|last1 = Bugallo|first2 = Luca|last2 = Martino|first3 = Jukka|last3 = Corander|doi-access = free}}</ref><ref>{{Cite journal|last1=Bugallo|first1=M. F.|last2=Elvira|first2=V.|last3=Martino|first3=L.|last4=Luengo|first4=D.|last5=Miguez|first5=J.|last6=Djuric|first6=P. M.|date=July 2017|title=Adaptive Importance Sampling: The past, the present, and the future|journal=IEEE Signal Processing Magazine|volume=34|issue=4|pages=60–79|doi=10.1109/msp.2017.2699226|issn=1053-5888|bibcode=2017ISPM...34...60B|s2cid=5619054 }}</ref>
जब विभिन्न प्रस्ताव वितरण, <math>g_n(x)</math> , <math>n=1,\ldots,N,</math> नमूने लेने के लिए संयुक्त रूप से उपयोग किया जाता है <math>x_1, \ldots, x_N, </math> विभिन्न उचित भार कार्यों को नियोजित किया जा सकता है (उदाहरण के लिए देखें <ref>{{Cite book|title = मोंटे कार्लो रेंडरिंग के लिए नमूनाकरण तकनीकों का इष्टतम संयोजन|publisher = ACM|journal = Proceedings of the 22nd Annual Conference on Computer Graphics and Interactive Techniques|date = 1995-01-01|location = New York, NY, USA|isbn = 978-0-89791-701-8|pages = [https://archive.org/details/computergraphics00sigg/page/419 419–428]|series = SIGGRAPH '95|doi = 10.1145/218380.218498|first1 = Eric|last1 = Veach|first2 = Leonidas J.|last2 = Guibas|citeseerx = 10.1.1.127.8105| s2cid=207194026 |url = https://archive.org/details/computergraphics00sigg/page/419}}</ref><ref>{{Cite journal|title = सुरक्षित और प्रभावी महत्व नमूनाकरण|journal = Journal of the American Statistical Association|date = 2000-03-01|issn = 0162-1459|pages = 135–143|volume = 95|issue = 449|doi = 10.1080/01621459.2000.10473909|first1 = Art|last1 = Owen|first2 = Yi Zhou|last2 = Associate|citeseerx = 10.1.1.36.4536| s2cid=119761472 }}</ref><ref>{{Cite journal|title = कुशल एकाधिक महत्व नमूनाकरण अनुमानक|journal = IEEE Signal Processing Letters|date = 2015-10-01|issn = 1070-9908|pages = 1757–1761|volume = 22|issue = 10|doi = 10.1109/LSP.2015.2432078|first1 = V.|last1 = Elvira|first2 = L.|last2 = Martino|first3 = D.|last3 = Luengo|first4 = M.F.|last4 = Bugallo|arxiv = 1505.05391|bibcode = 2015ISPL...22.1757E| s2cid=14504598 }}</ref><ref>{{Cite journal|last1=Elvira|first1=Víctor|last2=Martino|first2=Luca|last3=Luengo|first3=David|last4=Bugallo|first4=Mónica F.|title=Improving population Monte Carlo: Alternative weighting and resampling schemes|journal=Signal Processing|volume=131|pages=77–91|doi=10.1016/j.sigpro.2016.07.012|arxiv=1607.02758|year=2017|s2cid=205171823 }}</ref>). अनुकूल सेटिंग में, प्रस्ताव वितरण, <math>g_{n,t}(x)</math> , <math>n=1,\ldots,N,</math> और <math>t=1,\ldots,T,</math> प्रत्येक पुनरावृत्ति <math>t</math> को अद्यतन किया जाता है अनुकूली महत्व नमूनाकरण एल्गोरिथम। इसलिए, चूंकि प्रस्ताव घनत्व की आबादी का उपयोग किया जाता है, नमूनाकरण और भार योजनाओं के कई उपयुक्त संयोजनों को नियोजित किया जा सकता है।<ref>{{Cite journal|title = जनसंख्या मोंटे कार्लो|journal = Journal of Computational and Graphical Statistics|date = 2004-12-01|issn = 1061-8600|pages = 907–929|volume = 13|issue = 4|doi = 10.1198/106186004X12803|first1 = O.|last1 = Cappé|first2 = A.|last2 = Guillin|first3 = J. M.|last3 = Marin|first4 = C. P.|last4 = Robert| s2cid=119690181 }}</ref><ref>{{Cite journal|last1=Martino|first1=L.|last2=Elvira|first2=V.|last3=Luengo|first3=D.|last4=Corander|first4=J.|date=2017-05-01|title=स्तरित अनुकूली महत्व नमूनाकरण|journal=Statistics and Computing|language=en|volume=27|issue=3|pages=599–623|doi=10.1007/s11222-016-9642-5|issn=0960-3174|arxiv=1505.04732|s2cid=2508031 }}</ref><ref>{{Cite journal|title = सामान्य मिश्रण वर्गों में अनुकूली महत्व का नमूनाकरण|journal = Statistics and Computing|date = 2008-04-25|issn = 0960-3174|pages = 447–459|volume = 18|issue = 4|doi = 10.1007/s11222-008-9059-x|first1 = Olivier|last1 = Cappé|first2 = Randal|last2 = Douc|first3 = Arnaud|last3 = Guillin|first4 = Jean-Michel|last4 = Marin|first5 = Christian P.|last5 = Robert|arxiv = 0710.4242| s2cid=483916 }}</ref><ref>{{Cite journal|title = अनुकूली एकाधिक महत्व नमूनाकरण|journal = Scandinavian Journal of Statistics|date = 2012-12-01|issn = 1467-9469|pages = 798–812|volume = 39|issue = 4|doi = 10.1111/j.1467-9469.2011.00756.x|first1 = Jean-Marie|last1 = Cornuet|first2 = Jean-Michel|last2 = Marin|first3 = Antonietta|last3 = Mira|author3-link=Antonietta Mira|first4 = Christian P.|last4 = Robert|arxiv = 0907.1254| s2cid=17191248 }}</ref><ref>{{Cite journal|title = An Adaptive Population Importance Sampler: Learning From Uncertainty|journal = IEEE Transactions on Signal Processing|date = 2015-08-01|issn = 1053-587X|pages = 4422–4437|volume = 63|issue = 16|doi = 10.1109/TSP.2015.2440215|first1 = L.|last1 = Martino|first2 = V.|last2 = Elvira|first3 = D.|last3 = Luengo|first4 = J.|last4 = Corander|bibcode = 2015ITSP...63.4422M|citeseerx = 10.1.1.464.9395| s2cid=17017431 }}</ref><ref>{{Cite journal|title = सिग्नल प्रोसेसिंग में अनुकूली महत्व नमूनाकरण|journal = Digital Signal Processing|date = 2015-12-01|pages = 36–49|volume = 47|series = Special Issue in Honour of William J. (Bill) Fitzgerald|doi = 10.1016/j.dsp.2015.05.014|first1 = Mónica F.|last1 = Bugallo|first2 = Luca|last2 = Martino|first3 = Jukka|last3 = Corander|doi-access = free}}</ref><ref>{{Cite journal|last1=Bugallo|first1=M. F.|last2=Elvira|first2=V.|last3=Martino|first3=L.|last4=Luengo|first4=D.|last5=Miguez|first5=J.|last6=Djuric|first6=P. M.|date=July 2017|title=Adaptive Importance Sampling: The past, the present, and the future|journal=IEEE Signal Processing Magazine|volume=34|issue=4|pages=60–79|doi=10.1109/msp.2017.2699226|issn=1053-5888|bibcode=2017ISPM...34...60B|s2cid=5619054 }}</ref>
 
 
== यह भी देखें ==
== यह भी देखें ==
* मोंटे कार्लो विधि
* मोंटे कार्लो विधि
* भिन्नता में कमी
* भिन्नता में कमी
* [[स्तरीकृत प्रतिचयन]]
* [[स्तरीकृत प्रतिचयन]]
* मोंटे कार्लो एकीकरण # पुनरावर्ती स्तरीकृत नमूनाकरण
* मोंटे कार्लो एकीकरण या पुनरावर्ती स्तरीकृत नमूनाकरण
* [[वेगास एल्गोरिथम]]
* [[वेगास एल्गोरिथम]]
* [[कण फिल्टर]] - एक अनुक्रमिक मोंटे कार्लो विधि, जो महत्वपूर्ण नमूनाकरण का उपयोग करती है
* [[कण फिल्टर]] - एक अनुक्रमिक मोंटे कार्लो विधि, जो महत्वपूर्ण नमूनाकरण का उपयोग करती है
Line 166: Line 163:
* [http://www.iop.org/EJ/abstract/0143-0807/22/4/315 Introduction to importance sampling in rare-event simulations] European journal of Physics. PDF document.
* [http://www.iop.org/EJ/abstract/0143-0807/22/4/315 Introduction to importance sampling in rare-event simulations] European journal of Physics. PDF document.
* [http://portal.acm.org/citation.cfm?id=1030470 Adaptive monte carlo methods for rare event simulation: adaptive monte carlo methods for rare event simulations] Winter Simulation Conference
* [http://portal.acm.org/citation.cfm?id=1030470 Adaptive monte carlo methods for rare event simulation: adaptive monte carlo methods for rare event simulations] Winter Simulation Conference
[[Category: मोंटे कार्लो के तरीके]] [[Category: भिन्नता में कमी]] [[Category: स्टोचैस्टिक सिमुलेशन]]


[[Category: Machine Translated Page]]
[[Category:CS1 English-language sources (en)]]
[[Category:Created On 19/06/2023]]
[[Category:Created On 19/06/2023]]
[[Category:Lua-based templates]]
[[Category:Machine Translated Page]]
[[Category:Pages with script errors]]
[[Category:Templates Vigyan Ready]]
[[Category:Templates that add a tracking category]]
[[Category:Templates that generate short descriptions]]
[[Category:Templates using TemplateData]]
[[Category:भिन्नता में कमी]]
[[Category:मोंटे कार्लो के तरीके]]
[[Category:स्टोचैस्टिक सिमुलेशन]]

Latest revision as of 18:12, 16 July 2023

महत्व नमूनाकरण एक विशेष संभाव्यता वितरण के गुणों का मूल्यांकन करने के लिए एक मोंटे कार्लो विधि है, जबकि ब्याज के वितरण की तुलना में केवल एक अलग वितरण से उत्पन्न नमूने होते हैं। सांख्यिकी में इसकी प्रारंभिक का श्रेय सामान्यतः 1978 में तेन क्लोएक और हरमन के. वैन डिज्क के एक पेपर को दिया जाता है,[1] किंतु इसके अग्रदूत मोंटे कार्लो पद्धति में सांख्यिकीय भौतिकी में 1949 की प्रारंभिक में पाए जा सकते हैं।[2][3] कम्प्यूटेशनल भौतिकी में महत्वपूर्ण नमूनाकरण छाता नमूनाकरण से भी संबंधित है। आवेदन के आधार पर, शब्द इस वैकल्पिक वितरण, अनुमान की प्रक्रिया या दोनों से नमूनाकरण की प्रक्रिया को संदर्भित कर सकता है।

मूल सिद्धांत

मान लीजिए कि कुछ संभाव्यता स्थान में एक यादृच्छिक चर है। हम P के अंतर्गत X के अपेक्षित मान का अनुमान लगाना चाहते हैं, जिसे E[X;P] दर्शाया गया है। यदि हमारे पास सांख्यिकीय रूप से स्वतंत्र यादृच्छिक नमूने हैं, जो P के अनुसार उत्पन्न होते हैं, तो E[X;P] का एक अनुभवजन्य अनुमान है

और इस अनुमान की स्पष्टता X के प्रसरण पर निर्भर करती है:

महत्व नमूने का मूल विचार E[X;P] के अनुमान के विचरण को कम करने के लिए, या जब P से नमूना लेना कठिन हो, तो विभिन्न वितरण से अवस्थाओ का नमूना लेना है। यह पहले एक यादृच्छिक चर को चुनकर पूरा किया जाता है जैसे कि E[L;P] = 1 और वह P-लगभग हर जगह चर L के साथ हम एक संभावना को परिभाषित करते हैं जो संतुष्ट करता है

इस प्रकार चर X/L को P(L*) के अंतर्गत प्रतिदर्शित किया जाएगा उपरोक्त के अनुसार 'E[X;P] का अनुमान लगाने के लिए और यह अनुमान तब सुधारा जाता है जब .

जब X Ω पर स्थिर चिह्न का है, तो सबसे अच्छा चर L स्पष्ट रूप से होगा , जिससे X/L* खोजा गया स्थिरांक 'E'[X;P] हो और P(L*) के अंतर्गत एक एकल नमूना हो इसका मूल्य बताने के लिए पर्याप्त है। दुर्भाग्य से हम वह विकल्प नहीं ले सकते, क्योंकि 'E[X;P] ठीक वही मूल्य है जिसकी हम खोज कर रहे हैं! चूँकि यह सैद्धांतिक सर्वोत्तम स्थिति L* हमें इस बात की जानकारी देता है कि नमूनाकरण का क्या महत्व है:

दांई ओर, E[X;P] तक योग करने वाले अत्यल्प तत्वों में से एक है:

इसलिए, एक अच्छी संभावना परिवर्तन P(L) महत्वपूर्ण नमूनाकरण X के न्मियम को पुनर्वितरित करेगा जिससे इसके नमूनों की आवृत्तियों को 'E[X;P] में उनके वजन के अनुसार सीधे क्रमबद्ध किया जा सकता है। इसलिए इसका नाम महत्व नमूनाकरण पड़ा था।

महत्व नमूनाकरण का उपयोग अधिकांशतः मोंटे कार्लो इंटीग्रेटर के रूप में किया जाता है। जब महत्व नमूनाकरण का उपयोग अधिकांशतः मोंटे कार्लो इंटीग्रेटर के रूप में किया जाता है। जब , E[X;P] वास्तविक कार्य के अभिन्न अंग से मेल खाता है।

संभाव्य अनुमान के लिए आवेदन

इस तरह के विधियों का उपयोग अधिकांशतः स्थिति में पश्च घनत्व या अपेक्षाओं का अनुमान लगाने के लिए किया जाता है और / या संभाव्य मॉडल में पैरामीटर अनुमान समस्याओं का विश्लेषण किया जाता है जो कि विश्लेषणात्मक रूप से व्यवहार करने के लिए बहुत कठिन हैं, उदाहरण के लिए बायेसियन नेटवर्क में।

सिमुलेशन के लिए आवेदन

महत्व नमूनाकरण एक विचरण कमी तकनीक है जिसका उपयोग मोंटे कार्लो पद्धति में किया जा सकता है। महत्व नमूनाकरण के पीछे विचार यह है कि सिमुलेशन में इनपुट यादृच्छिक चर के कुछ मूल्यों का दूसरों की तुलना में अनुमानित पैरामीटर पर अधिक प्रभाव पड़ता है। यदि इन महत्वपूर्ण मूल्यों पर अधिक बार नमूनाकरण करके जोर दिया जाता है, तो अनुमानक विचरण को कम किया जा सकता है। इसलिए, महत्व नमूनाकरण में मूल पद्धति एक वितरण का चयन करना है जो महत्वपूर्ण मूल्यों को प्रोत्साहित करती है। पक्षपाती वितरण के इस उपयोग के परिणामस्वरूप एक पक्षपाती अनुमानक होगा यदि इसे सीधे अनुकरण में प्रयुक्त किया जाता है। चूँकि पक्षपाती वितरण के उपयोग के लिए सिमुलेशन आउटपुट को सही करने के लिए भारित किया जाता है, और यह सुनिश्चित करता है कि नया महत्व नमूना अनुमानक निष्पक्ष है। वजन संभावना अनुपात द्वारा दिया जाता है जो कि पक्षपाती सिमुलेशन वितरण के संबंध में वास्तविक अंतर्निहित वितरण का रेडॉन-निकोडिम व्युत्पन्न है।

महत्व नमूनाकरण सिमुलेशन को प्रयुक्त करने में मौलिक उद्देश्य पक्षपातपूर्ण वितरण का विकल्प है जो इनपुट चर के महत्वपूर्ण क्षेत्रों को प्रोत्साहित करता है। एक अच्छे पक्षपाती वितरण को चुनना या डिजाइन करना महत्व के नमूने की कला है। एक अच्छे वितरण का प्रतिफल बहुत बड़ी समय-समय पर बचत हो सकता है; एक खराब वितरण के लिए जुर्माना एक सामान्य मोंटे कार्लो सिमुलेशन की तुलना में महत्वपूर्ण नमूने के बिना लंबे समय तक चलाया जा सकता है।


को नमूना मानें औरको संभावना अनुपात मानें, जहां वांछित वितरण की संभाव्यता घनत्व (द्रव्यमान) कार्य है और पक्षपातपूर्ण/प्रस्ताव/नमूना वितरण की संभाव्यता घनत्व (द्रव्यमान) कार्य है। फिर समस्या को नमूना वितरण चुनकर चित्रित किया जा सकता है जो स्केल किए गए नमूने के विचरण को कम करता है:

यह दिखाया जा सकता है कि निम्नलिखित वितरण उपरोक्त भिन्नता को कम करता है:[4]

ध्यान दें कि कब , यह भिन्नता 0 हो जाती है।

गणितीय दृष्टिकोण

सिमुलेशन द्वारा किसी घटना की संभावना का अनुमान लगाने पर विचार करें, जहां वितरण और संभाव्यता घनत्व फलन के साथ एक यादृच्छिक चर है, जहां प्राइम व्युत्पन्न को दर्शाता है। एक -लंबाई स्वतंत्र और समान रूप से वितरित (i.i.d.) अनुक्रम , वितरण से उत्पन्न होता है, और सीमा से ऊपर स्थित यादृच्छिक चर की संख्या को गिना जाता है। यादृच्छिक चर को द्विपद वितरण द्वारा चित्रित किया गया है

कोई यह दिखा सकता है कि , और इसलिए की सीमा में हम प्राप्त करने में सक्षम हैं। ध्यान दें कि यदि लगभग है तो विचरण कम है। महत्व नमूनाकरण एक वैकल्पिक घनत्व कार्य ,(के लिए) के निर्धारण और उपयोग से संबंधित है, जिसे सामान्यतः पूर्वाग्रह घनत्व के रूप में जाना जाता है। अनुकरण प्रयोग. यह घनत्व घटना {} को अधिक बार घटित होने की अनुमति देता है, इसलिए किसी दिए गए अनुमानक भिन्नता के लिए अनुक्रम लंबाई छोटी हो जाती है। वैकल्पिक रूप से, किसी दिए गए के लिए, पूर्वाग्रह घनत्व के उपयोग के परिणामस्वरूप पारंपरिक मोंटे कार्लो अनुमान की तुलना में कम भिन्नता होती है। की परिभाषा से, हम नीचे दिए अनुसारका परिचय दे सकते हैं।

जहाँ

एक संभावना अनुपात है और इसे वेटिंग कार्य के रूप में संदर्भित किया जाता है। उपरोक्त समीकरण में अंतिम समानता अनुमानक को प्रेरित करती है


यह का महत्व नमूना अनुमानक है, और निष्पक्ष है। अर्थात्, अनुमान प्रक्रिया आई.आई.डी. उत्पन्न करने के लिए है । से नमूने, और प्रत्येक नमूने के लिए जो से अधिक है, अनुमान को वजन द्वारा बढ़ाया जाता है, जिसका मूल्यांकन नमूना मूल्य पर किया जाता है। परिणाम , परीक्षणों पर औसत हैं। महत्व नमूना अनुमानक का विचरण आसानी से दिखाया जाता है

अब, महत्व नमूनाकरण समस्या एक पूर्वाग्रह घनत्व खोजने पर केंद्रित है, जैसे कि महत्व नमूना अनुमानक का विचरण सामान्य मोंटे कार्लो अनुमान के विचरण से कम है। कुछ पूर्वाग्रह घनत्व कार्य के लिए, जो भिन्नता को कम करता है, और कुछ नियमो के तहत इसे शून्य तक कम कर देता है, इसे इष्टतम पूर्वाग्रह घनत्व कार्य कहा जाता है।

पारंपरिक पूर्वाग्रह के तरीके

यद्यपि कई प्रकार की पूर्वाग्रह विधियाँ हैं, महत्व नमूनाकरण के अनुप्रयोगों में निम्नलिखित दो विधियों का व्यापक रूप से उपयोग किया जाता है।

स्केलिंग

एकता से अधिक संख्या के साथ यादृच्छिक चर की सकारात्मक स्केलिंग द्वारा संभाव्यता द्रव्यमान को घटना क्षेत्र में स्थानांतरित करने से घनत्व कार्य के विचरण (माध्य भी) में वृद्धि का प्रभाव पड़ता है। इसके परिणामस्वरूप घनत्व की भारी पूँछ उत्पन्न होती है, जिससे घटना की संभावना में वृद्धि होती है। स्केलिंग संभवतः ज्ञात सबसे प्रारंभिक पूर्वाग्रह विधियों में से एक है और व्यवहार में इसका बड़े मापदंड पर उपयोग किया गया है। इसे प्रयुक्त करना आसान है और सामान्यतः अन्य विधियों की तुलना में रूढ़िवादी सिमुलेशन लाभ प्रदान करता है।

स्केलिंग द्वारा महत्वपूर्ण नमूनाकरण में, सिमुलेशन घनत्व को स्केल किए गए यादृच्छिक चर के घनत्व कार्य के रूप में चुना जाता है , जहां सामान्यतः पूंछ संभाव्यता अनुमान के लिए। परिवर्तन से,

और वेटिंग कार्य है


जबकि स्केलिंग संभाव्यता द्रव्यमान को वांछित घटना क्षेत्र में स्थानांतरित करती है, यह द्रव्यमान को पूरक क्षेत्र में भी धकेलती है, जो अवांछनीय है। यदि , , यादृच्छिक चर का योग है, तो द्रव्यमान का प्रसार , आयामी स्थान में होता है। इसका परिणाम को बढ़ाने के लिए घटते महत्व के नमूने का लाभ है, और इसे आयामी प्रभाव कहा जाता है। स्केलिंग द्वारा महत्व के नमूने का एक आधुनिक संस्करण उदाहरण के लिए है। तथाकथित सिग्मा-स्केल्ड सैंपलिंग (एसएसएस) जो विभिन्न स्केलिंग कारकों के साथ कई मोंटे कार्लो (एमसी) विश्लेषण चला रहा है। कई अन्य उच्च उपज अनुमान विधियों (जैसे सबसे खराब स्थिति वाली दूरी डब्ल्यूसीडी) के विपरीत, एसएसएस को आयामी समस्या से अधिक हानि नहीं होता है। इसके अतिरिक्त कई एमसी आउटपुट को संबोधित करने से दक्षता में कोई गिरावट नहीं आती है। दूसरी ओर, डब्ल्यूसीडी के रूप में, एसएसएस केवल गॉसियन सांख्यिकीय चर के लिए डिज़ाइन किया गया है, और डब्ल्यूसीडी के विपरीत, एसएसएस विधि सटीक सांख्यिकीय कोने प्रदान करने के लिए डिज़ाइन नहीं की गई है। एसएसएस का एक और हानि यह है कि एमसी को बड़े मापदंड पर कारकों के साथ चलाना कठिन हो सकता है, उदाहरण के लिए। जी। मॉडल और सिम्युलेटर अभिसरण समस्याओं के कारण। इसके अतिरिक्त, एसएसएस में हमें एक प्रबल पूर्वाग्रह-विचरण व्यापार-बंद का सामना करना पड़ता है: बड़े पैमाने के कारकों का उपयोग करके, हम अधिक स्थिर उपज परिणाम प्राप्त करते हैं, किंतु जितने बड़े पैमाने के कारक होंगे, पूर्वाग्रह त्रुटि उतनी ही बड़ी होगी। यदि रुचि के अनुप्रयोग में एसएसएस के लाभ अधिक मायने नहीं रखते हैं, तो अधिकांशतः अन्य विधि अधिक कुशल होते हैं।

अनुवाद

एक अन्य सरल और प्रभावी बायसिंग तकनीक घनत्व कार्य (और इसलिए यादृच्छिक चर) के अनुवाद को दुर्लभ घटना क्षेत्र में इसकी संभावना द्रव्यमान को रखने के लिए नियोजित करती है। अनुवाद एक आयाम प्रभाव से ग्रस्त नहीं है और डिजिटल संचार प्रणालियों के अनुकरण से संबंधित कई अनुप्रयोगों में सफलतापूर्वक उपयोग किया गया है। यह अधिकांशतः स्केलिंग की तुलना में उत्तम सिमुलेशन लाभ प्रदान करता है। अनुवाद द्वारा पूर्वाग्रह में, सिमुलेशन घनत्व किसके द्वारा दिया जाता है

जहाँ बदलाव की मात्रा है और महत्व नमूना अनुमानक के भिन्नता को कम करने के लिए चुना जाना है।

सिस्टम जटिलता के प्रभाव

महत्व के नमूने के साथ मूलभूत समस्या यह है कि अच्छे पक्षपाती वितरण को डिजाइन करना और अधिक जटिल हो जाता है क्योंकि सिस्टम की जटिलता बढ़ जाती है। कॉम्प्लेक्स सिस्टम लंबी मेमोरी वाले सिस्टम होते हैं क्योंकि कुछ इनपुट के जटिल प्रसंस्करण को संभालना बहुत आसान होता है। यह आयाम या मेमोरी तीन तरह से समस्याएं उत्पन्न कर सकती है:

  • लंबी मेमोरी (गंभीर अंतरप्रतीक हस्तक्षेप (आईएसआई))
  • अज्ञात मेमोरी (विटरबी डिकोडर)
  • संभवतः अनंत मेमोरी (अनुकूली तुल्यकारक)

सिद्धांत रूप में, इन स्थितियों में महत्व के नमूने के विचार समान रहते हैं, किंतु डिजाइन बहुत कठिन हो जाता है। इस समस्या से निपटने के लिए एक सफल दृष्टिकोण अनिवार्य रूप से एक सिमुलेशन को कई छोटे, अधिक स्पष्ट रूप से परिभाषित उप-समस्याओं में तोड़ रहा है। फिर महत्व नमूनाकरण रणनीतियों का उपयोग प्रत्येक सरल उप-समस्याओं को लक्षित करने के लिए किया जाता है। सिमुलेशन को तोड़ने के लिए तकनीकों के उदाहरण कंडीशनिंग और एरर-इवेंट सिमुलेशन (ईईएस) और पुनर्योजी सिमुलेशन हैं।

महत्व नमूनाकरण का मूल्यांकन

सफल महत्व नमूनाकरण तकनीकों की पहचान करने के लिए, महत्व नमूनाकरण दृष्टिकोण के उपयोग के कारण रन-टाइम बचत को मापने में सक्षम होना उपयोगी होता है। सामान्यतः उपयोग किया जाने वाला प्रदर्शन माप है , और इसे स्पीड-अप कारक के रूप में व्याख्या किया जा सकता है जिसके द्वारा महत्व नमूना अनुमानक एमसी अनुमानक के समान स्पष्टता प्राप्त करता है। इसकी आनुभविक रूप से गणना की जानी चाहिए क्योंकि अनुमानक प्रसरण के विश्लेषणात्मक रूप से संभव नहीं होने की संभावना है, जब उनका माध्य दुरूह हो। महत्व नमूनाकरण अनुमानक को परिमाणित करने में अन्य उपयोगी अवधारणाएं विचरण सीमाएं और स्पर्शोन्मुख दक्षता की धारणा हैं। एक संबंधित उपाय तथाकथित प्रभावी नमूना आकार (ईएसएस) है।[5]

भिन्नता व्यय कार्य

सिमुलेशन के लिए भिन्नता एकमात्र संभावित व्यय कार्य नहीं है, और अन्य व्यय कार्य , जैसे औसत पूर्ण विचलन, विभिन्न सांख्यिकीय अनुप्रयोगों में उपयोग किए जाते हैं। फिर भी, भिन्नता साहित्य में संबोधित प्राथमिक व्यय कार्य है, संभवतः विश्वास अंतराल और प्रदर्शन माप में भिन्नता के उपयोग के कारण है ।

एक संबंधित उद्देश्य यह तथ्य है कि अनुपात महत्व के नमूने के कारण रन-टाइम बचत को कम करके आंका जाता है क्योंकि इसमें वजन कार्य की गणना करने के लिए आवश्यक अतिरिक्त कंप्यूटिंग समय सम्मिलित नहीं होता है। इसलिए, कुछ लोग विभिन्न माध्यमों से नेट रन-टाइम सुधार का मूल्यांकन करते हैं। संभवतः महत्व नमूनाकरण के लिए एक अधिक गंभीर ओवरहेड तकनीक को तैयार करने और प्रोग्राम करने और वांछित वजन कार्य को विश्लेषणात्मक रूप से प्राप्त करने में लगने वाला समय है।

एकाधिक और अनुकूली महत्व नमूनाकरण

जब विभिन्न प्रस्ताव वितरण, , नमूने लेने के लिए संयुक्त रूप से उपयोग किया जाता है विभिन्न उचित भार कार्यों को नियोजित किया जा सकता है (उदाहरण के लिए देखें [6][7][8][9]). अनुकूल सेटिंग में, प्रस्ताव वितरण, , और प्रत्येक पुनरावृत्ति को अद्यतन किया जाता है अनुकूली महत्व नमूनाकरण एल्गोरिथम। इसलिए, चूंकि प्रस्ताव घनत्व की आबादी का उपयोग किया जाता है, नमूनाकरण और भार योजनाओं के कई उपयुक्त संयोजनों को नियोजित किया जा सकता है।[10][11][12][13][14][15][16]

यह भी देखें

टिप्पणियाँ

  1. Kloek, T.; van Dijk, H. K. (1978). "Bayesian Estimates of Equation System Parameters: An Application of Integration by Monte Carlo" (PDF). Econometrica. 46 (1): 1–19. doi:10.2307/1913641. JSTOR 1913641.
  2. Goertzle, G. (1949). "कण समस्याओं के स्टोकेस्टिक समाधान में कोटा नमूनाकरण और महत्व कार्य". Technical Report ORNL-434, Oak Ridge National Laboratory. Aecd ;2793. hdl:2027/mdp.39015086443671.
  3. Kahn, H.; Harris, T. E. (1949). "रैंडम सैंपलिंग द्वारा पार्टिकल ट्रांसमिशन का अनुमान". Monte Carlo Method. Applied Mathematics Series. National Bureau of Standards. 12: 27–30.
  4. Rubinstein, R. Y., & Kroese, D. P. (2011). Simulation and the Monte Carlo method (Vol. 707). John Wiley & Sons.
  5. Martino, Luca; Elvira, Víctor; Louzada, Francisco (2017). "विसंगति उपायों के आधार पर महत्व नमूनाकरण के लिए प्रभावी नमूना आकार". Signal Processing. 131: 386–401. arXiv:1602.03572. doi:10.1016/j.sigpro.2016.08.025. S2CID 26317735.
  6. Veach, Eric; Guibas, Leonidas J. (1995-01-01). मोंटे कार्लो रेंडरिंग के लिए नमूनाकरण तकनीकों का इष्टतम संयोजन. pp. 419–428. CiteSeerX 10.1.1.127.8105. doi:10.1145/218380.218498. ISBN 978-0-89791-701-8. S2CID 207194026. {{cite book}}: |journal= ignored (help)
  7. Owen, Art; Associate, Yi Zhou (2000-03-01). "सुरक्षित और प्रभावी महत्व नमूनाकरण". Journal of the American Statistical Association. 95 (449): 135–143. CiteSeerX 10.1.1.36.4536. doi:10.1080/01621459.2000.10473909. ISSN 0162-1459. S2CID 119761472.
  8. Elvira, V.; Martino, L.; Luengo, D.; Bugallo, M.F. (2015-10-01). "कुशल एकाधिक महत्व नमूनाकरण अनुमानक". IEEE Signal Processing Letters. 22 (10): 1757–1761. arXiv:1505.05391. Bibcode:2015ISPL...22.1757E. doi:10.1109/LSP.2015.2432078. ISSN 1070-9908. S2CID 14504598.
  9. Elvira, Víctor; Martino, Luca; Luengo, David; Bugallo, Mónica F. (2017). "Improving population Monte Carlo: Alternative weighting and resampling schemes". Signal Processing. 131: 77–91. arXiv:1607.02758. doi:10.1016/j.sigpro.2016.07.012. S2CID 205171823.
  10. Cappé, O.; Guillin, A.; Marin, J. M.; Robert, C. P. (2004-12-01). "जनसंख्या मोंटे कार्लो". Journal of Computational and Graphical Statistics. 13 (4): 907–929. doi:10.1198/106186004X12803. ISSN 1061-8600. S2CID 119690181.
  11. Martino, L.; Elvira, V.; Luengo, D.; Corander, J. (2017-05-01). "स्तरित अनुकूली महत्व नमूनाकरण". Statistics and Computing (in English). 27 (3): 599–623. arXiv:1505.04732. doi:10.1007/s11222-016-9642-5. ISSN 0960-3174. S2CID 2508031.
  12. Cappé, Olivier; Douc, Randal; Guillin, Arnaud; Marin, Jean-Michel; Robert, Christian P. (2008-04-25). "सामान्य मिश्रण वर्गों में अनुकूली महत्व का नमूनाकरण". Statistics and Computing. 18 (4): 447–459. arXiv:0710.4242. doi:10.1007/s11222-008-9059-x. ISSN 0960-3174. S2CID 483916.
  13. Cornuet, Jean-Marie; Marin, Jean-Michel; Mira, Antonietta; Robert, Christian P. (2012-12-01). "अनुकूली एकाधिक महत्व नमूनाकरण". Scandinavian Journal of Statistics. 39 (4): 798–812. arXiv:0907.1254. doi:10.1111/j.1467-9469.2011.00756.x. ISSN 1467-9469. S2CID 17191248.
  14. Martino, L.; Elvira, V.; Luengo, D.; Corander, J. (2015-08-01). "An Adaptive Population Importance Sampler: Learning From Uncertainty". IEEE Transactions on Signal Processing. 63 (16): 4422–4437. Bibcode:2015ITSP...63.4422M. CiteSeerX 10.1.1.464.9395. doi:10.1109/TSP.2015.2440215. ISSN 1053-587X. S2CID 17017431.
  15. Bugallo, Mónica F.; Martino, Luca; Corander, Jukka (2015-12-01). "सिग्नल प्रोसेसिंग में अनुकूली महत्व नमूनाकरण". Digital Signal Processing. Special Issue in Honour of William J. (Bill) Fitzgerald. 47: 36–49. doi:10.1016/j.dsp.2015.05.014.
  16. Bugallo, M. F.; Elvira, V.; Martino, L.; Luengo, D.; Miguez, J.; Djuric, P. M. (July 2017). "Adaptive Importance Sampling: The past, the present, and the future". IEEE Signal Processing Magazine. 34 (4): 60–79. Bibcode:2017ISPM...34...60B. doi:10.1109/msp.2017.2699226. ISSN 1053-5888. S2CID 5619054.


संदर्भ

  • Arouna, Bouhari (2004). "Adaptative Monte Carlo Method, A Variance Reduction Technique". Monte Carlo Methods and Their Applications. 10 (1): 1–24. doi:10.1515/156939604323091180. S2CID 21949573.
  • Bucklew, James Antonio (2004). Introduction to Rare Event Simulation. New York: Springer-Verlag.
  • Doucet, A.; de Freitas, N.; Gordon, N. (2001). Sequential Monte Carlo Methods in Practice. Springer. ISBN 978-0-387-95146-1.
  • Ferrari, M.; Bellini, S. (2001). Importance Sampling simulation of turbo product codes. pp. 2773–2777. doi:10.1109/ICC.2001.936655. ISBN 978-0-7803-7097-5. S2CID 5158473. {{cite book}}: |journal= ignored (help)
  • Mazonka, Oleg (2016). "Easy as Pi: The Importance Sampling Method" (PDF). Journal of Reference. 16.
  • Oberg, Tommy (2001). Modulation, Detection, and Coding. New York: John Wiley & Sons.
  • Press, WH; Teukolsky, SA; Vetterling, WT; Flannery, BP (2007). "Section 7.9.1 Importance Sampling". Numerical Recipes: The Art of Scientific Computing (3rd ed.). New York: Cambridge University Press. ISBN 978-0-521-88068-8.
  • Ripley, B. D. (1987). Stochastic Simulation. Wiley & Sons.
  • Smith, P. J.; Shafi, M.; Gao, H. (1997). "Quick simulation: A review of importance sampling techniques in communication systems". IEEE Journal on Selected Areas in Communications. 15 (4): 597–613. doi:10.1109/49.585771.
  • Srinivasan, R. (2002). Importance sampling – Applications in communications and detection. Berlin: Springer-Verlag.


बाहरी संबंध