महत्व नमूनाकरण: Difference between revisions

From Vigyanwiki
No edit summary
Line 169: Line 169:
[[Category: Machine Translated Page]]
[[Category: Machine Translated Page]]
[[Category:Created On 19/06/2023]]
[[Category:Created On 19/06/2023]]
[[Category:Vigyan Ready]]

Revision as of 15:32, 5 July 2023

महत्व नमूनाकरण एक विशेष संभाव्यता वितरण के गुणों का मूल्यांकन करने के लिए एक मोंटे कार्लो विधि है, जबकि ब्याज के वितरण की तुलना में केवल एक अलग वितरण से उत्पन्न नमूने होते हैं। सांख्यिकी में इसकी प्रारंभिक का श्रेय सामान्यतः 1978 में तेन क्लोएक और हरमन के. वैन डिज्क के एक पेपर को दिया जाता है,[1] किंतु इसके अग्रदूत मोंटे कार्लो पद्धति में सांख्यिकीय भौतिकी में 1949 की प्रारंभिक में पाए जा सकते हैं।[2][3] कम्प्यूटेशनल भौतिकी में महत्वपूर्ण नमूनाकरण छाता नमूनाकरण से भी संबंधित है। आवेदन के आधार पर, शब्द इस वैकल्पिक वितरण, अनुमान की प्रक्रिया या दोनों से नमूनाकरण की प्रक्रिया को संदर्भित कर सकता है।

मूल सिद्धांत

मान लीजिए कि कुछ संभाव्यता स्थान में एक यादृच्छिक चर है। हम P के अंतर्गत X के अपेक्षित मान का अनुमान लगाना चाहते हैं, जिसे E[X;P] दर्शाया गया है। यदि हमारे पास सांख्यिकीय रूप से स्वतंत्र यादृच्छिक नमूने हैं, जो P के अनुसार उत्पन्न होते हैं, तो E[X;P] का एक अनुभवजन्य अनुमान है

और इस अनुमान की स्पष्टता X के प्रसरण पर निर्भर करती है:

महत्व नमूने का मूल विचार E[X;P] के अनुमान के विचरण को कम करने के लिए, या जब P से नमूना लेना कठिन हो, तो विभिन्न वितरण से अवस्थाओ का नमूना लेना है। यह पहले एक यादृच्छिक चर को चुनकर पूरा किया जाता है जैसे कि E[L;P] = 1 और वह P-लगभग हर जगह चर L के साथ हम एक संभावना को परिभाषित करते हैं जो संतुष्ट करता है

इस प्रकार चर X/L को P(L*) के अंतर्गत प्रतिदर्शित किया जाएगा उपरोक्त के अनुसार 'E[X;P] का अनुमान लगाने के लिए और यह अनुमान तब सुधारा जाता है जब .

जब X Ω पर स्थिर चिह्न का है, तो सबसे अच्छा चर L स्पष्ट रूप से होगा , जिससे X/L* खोजा गया स्थिरांक 'E'[X;P] हो और P(L*) के अंतर्गत एक एकल नमूना हो इसका मूल्य बताने के लिए पर्याप्त है। दुर्भाग्य से हम वह विकल्प नहीं ले सकते, क्योंकि 'E[X;P] ठीक वही मूल्य है जिसकी हम खोज कर रहे हैं! चूँकि यह सैद्धांतिक सर्वोत्तम स्थिति L* हमें इस बात की जानकारी देता है कि नमूनाकरण का क्या महत्व है:

दांई ओर, E[X;P] तक योग करने वाले अत्यल्प तत्वों में से एक है:

इसलिए, एक अच्छी संभावना परिवर्तन P(L) महत्वपूर्ण नमूनाकरण X के न्मियम को पुनर्वितरित करेगा जिससे इसके नमूनों की आवृत्तियों को 'E[X;P] में उनके वजन के अनुसार सीधे क्रमबद्ध किया जा सकता है। इसलिए इसका नाम महत्व नमूनाकरण पड़ा था।

महत्व नमूनाकरण का उपयोग अधिकांशतः मोंटे कार्लो इंटीग्रेटर के रूप में किया जाता है। जब महत्व नमूनाकरण का उपयोग अधिकांशतः मोंटे कार्लो इंटीग्रेटर के रूप में किया जाता है। जब , E[X;P] वास्तविक कार्य के अभिन्न अंग से मेल खाता है।

संभाव्य अनुमान के लिए आवेदन

इस तरह के विधियों का उपयोग अधिकांशतः स्थिति में पश्च घनत्व या अपेक्षाओं का अनुमान लगाने के लिए किया जाता है और / या संभाव्य मॉडल में पैरामीटर अनुमान समस्याओं का विश्लेषण किया जाता है जो कि विश्लेषणात्मक रूप से व्यवहार करने के लिए बहुत कठिन हैं, उदाहरण के लिए बायेसियन नेटवर्क में।

सिमुलेशन के लिए आवेदन

महत्व नमूनाकरण एक विचरण कमी तकनीक है जिसका उपयोग मोंटे कार्लो पद्धति में किया जा सकता है। महत्व नमूनाकरण के पीछे विचार यह है कि सिमुलेशन में इनपुट यादृच्छिक चर के कुछ मूल्यों का दूसरों की तुलना में अनुमानित पैरामीटर पर अधिक प्रभाव पड़ता है। यदि इन महत्वपूर्ण मूल्यों पर अधिक बार नमूनाकरण करके जोर दिया जाता है, तो अनुमानक विचरण को कम किया जा सकता है। इसलिए, महत्व नमूनाकरण में मूल पद्धति एक वितरण का चयन करना है जो महत्वपूर्ण मूल्यों को प्रोत्साहित करती है। पक्षपाती वितरण के इस उपयोग के परिणामस्वरूप एक पक्षपाती अनुमानक होगा यदि इसे सीधे अनुकरण में प्रयुक्त किया जाता है। चूँकि पक्षपाती वितरण के उपयोग के लिए सिमुलेशन आउटपुट को सही करने के लिए भारित किया जाता है, और यह सुनिश्चित करता है कि नया महत्व नमूना अनुमानक निष्पक्ष है। वजन संभावना अनुपात द्वारा दिया जाता है जो कि पक्षपाती सिमुलेशन वितरण के संबंध में वास्तविक अंतर्निहित वितरण का रेडॉन-निकोडिम व्युत्पन्न है।

महत्व नमूनाकरण सिमुलेशन को प्रयुक्त करने में मौलिक उद्देश्य पक्षपातपूर्ण वितरण का विकल्प है जो इनपुट चर के महत्वपूर्ण क्षेत्रों को प्रोत्साहित करता है। एक अच्छे पक्षपाती वितरण को चुनना या डिजाइन करना महत्व के नमूने की कला है। एक अच्छे वितरण का प्रतिफल बहुत बड़ी समय-समय पर बचत हो सकता है; एक खराब वितरण के लिए जुर्माना एक सामान्य मोंटे कार्लो सिमुलेशन की तुलना में महत्वपूर्ण नमूने के बिना लंबे समय तक चलाया जा सकता है।


को नमूना मानें औरको संभावना अनुपात मानें, जहां वांछित वितरण की संभाव्यता घनत्व (द्रव्यमान) कार्य है और पक्षपातपूर्ण/प्रस्ताव/नमूना वितरण की संभाव्यता घनत्व (द्रव्यमान) कार्य है। फिर समस्या को नमूना वितरण चुनकर चित्रित किया जा सकता है जो स्केल किए गए नमूने के विचरण को कम करता है:

यह दिखाया जा सकता है कि निम्नलिखित वितरण उपरोक्त भिन्नता को कम करता है:[4]

ध्यान दें कि कब , यह भिन्नता 0 हो जाती है।

गणितीय दृष्टिकोण

सिमुलेशन द्वारा किसी घटना की संभावना का अनुमान लगाने पर विचार करें, जहां वितरण और संभाव्यता घनत्व फलन के साथ एक यादृच्छिक चर है, जहां प्राइम व्युत्पन्न को दर्शाता है। एक -लंबाई स्वतंत्र और समान रूप से वितरित (i.i.d.) अनुक्रम , वितरण से उत्पन्न होता है, और सीमा से ऊपर स्थित यादृच्छिक चर की संख्या को गिना जाता है। यादृच्छिक चर को द्विपद वितरण द्वारा चित्रित किया गया है

कोई यह दिखा सकता है कि , और इसलिए की सीमा में हम प्राप्त करने में सक्षम हैं। ध्यान दें कि यदि लगभग है तो विचरण कम है। महत्व नमूनाकरण एक वैकल्पिक घनत्व कार्य ,(के लिए) के निर्धारण और उपयोग से संबंधित है, जिसे सामान्यतः पूर्वाग्रह घनत्व के रूप में जाना जाता है। अनुकरण प्रयोग. यह घनत्व घटना {} को अधिक बार घटित होने की अनुमति देता है, इसलिए किसी दिए गए अनुमानक भिन्नता के लिए अनुक्रम लंबाई छोटी हो जाती है। वैकल्पिक रूप से, किसी दिए गए के लिए, पूर्वाग्रह घनत्व के उपयोग के परिणामस्वरूप पारंपरिक मोंटे कार्लो अनुमान की तुलना में कम भिन्नता होती है। की परिभाषा से, हम नीचे दिए अनुसारका परिचय दे सकते हैं।

जहाँ

एक संभावना अनुपात है और इसे वेटिंग कार्य के रूप में संदर्भित किया जाता है। उपरोक्त समीकरण में अंतिम समानता अनुमानक को प्रेरित करती है


यह का महत्व नमूना अनुमानक है, और निष्पक्ष है। अर्थात्, अनुमान प्रक्रिया आई.आई.डी. उत्पन्न करने के लिए है । से नमूने, और प्रत्येक नमूने के लिए जो से अधिक है, अनुमान को वजन द्वारा बढ़ाया जाता है, जिसका मूल्यांकन नमूना मूल्य पर किया जाता है। परिणाम , परीक्षणों पर औसत हैं। महत्व नमूना अनुमानक का विचरण आसानी से दिखाया जाता है

अब, महत्व नमूनाकरण समस्या एक पूर्वाग्रह घनत्व खोजने पर केंद्रित है, जैसे कि महत्व नमूना अनुमानक का विचरण सामान्य मोंटे कार्लो अनुमान के विचरण से कम है। कुछ पूर्वाग्रह घनत्व कार्य के लिए, जो भिन्नता को कम करता है, और कुछ नियमो के तहत इसे शून्य तक कम कर देता है, इसे इष्टतम पूर्वाग्रह घनत्व कार्य कहा जाता है।

पारंपरिक पूर्वाग्रह के तरीके

यद्यपि कई प्रकार की पूर्वाग्रह विधियाँ हैं, महत्व नमूनाकरण के अनुप्रयोगों में निम्नलिखित दो विधियों का व्यापक रूप से उपयोग किया जाता है।

स्केलिंग

एकता से अधिक संख्या के साथ यादृच्छिक चर की सकारात्मक स्केलिंग द्वारा संभाव्यता द्रव्यमान को घटना क्षेत्र में स्थानांतरित करने से घनत्व कार्य के विचरण (माध्य भी) में वृद्धि का प्रभाव पड़ता है। इसके परिणामस्वरूप घनत्व की भारी पूँछ उत्पन्न होती है, जिससे घटना की संभावना में वृद्धि होती है। स्केलिंग संभवतः ज्ञात सबसे प्रारंभिक पूर्वाग्रह विधियों में से एक है और व्यवहार में इसका बड़े मापदंड पर उपयोग किया गया है। इसे प्रयुक्त करना आसान है और सामान्यतः अन्य विधियों की तुलना में रूढ़िवादी सिमुलेशन लाभ प्रदान करता है।

स्केलिंग द्वारा महत्वपूर्ण नमूनाकरण में, सिमुलेशन घनत्व को स्केल किए गए यादृच्छिक चर के घनत्व कार्य के रूप में चुना जाता है , जहां सामान्यतः पूंछ संभाव्यता अनुमान के लिए। परिवर्तन से,

और वेटिंग कार्य है


जबकि स्केलिंग संभाव्यता द्रव्यमान को वांछित घटना क्षेत्र में स्थानांतरित करती है, यह द्रव्यमान को पूरक क्षेत्र में भी धकेलती है, जो अवांछनीय है। यदि , , यादृच्छिक चर का योग है, तो द्रव्यमान का प्रसार , आयामी स्थान में होता है। इसका परिणाम को बढ़ाने के लिए घटते महत्व के नमूने का लाभ है, और इसे आयामी प्रभाव कहा जाता है। स्केलिंग द्वारा महत्व के नमूने का एक आधुनिक संस्करण उदाहरण के लिए है। तथाकथित सिग्मा-स्केल्ड सैंपलिंग (एसएसएस) जो विभिन्न स्केलिंग कारकों के साथ कई मोंटे कार्लो (एमसी) विश्लेषण चला रहा है। कई अन्य उच्च उपज अनुमान विधियों (जैसे सबसे खराब स्थिति वाली दूरी डब्ल्यूसीडी) के विपरीत, एसएसएस को आयामी समस्या से अधिक हानि नहीं होता है। इसके अतिरिक्त कई एमसी आउटपुट को संबोधित करने से दक्षता में कोई गिरावट नहीं आती है। दूसरी ओर, डब्ल्यूसीडी के रूप में, एसएसएस केवल गॉसियन सांख्यिकीय चर के लिए डिज़ाइन किया गया है, और डब्ल्यूसीडी के विपरीत, एसएसएस विधि सटीक सांख्यिकीय कोने प्रदान करने के लिए डिज़ाइन नहीं की गई है। एसएसएस का एक और हानि यह है कि एमसी को बड़े मापदंड पर कारकों के साथ चलाना कठिन हो सकता है, उदाहरण के लिए। जी। मॉडल और सिम्युलेटर अभिसरण समस्याओं के कारण। इसके अतिरिक्त, एसएसएस में हमें एक प्रबल पूर्वाग्रह-विचरण व्यापार-बंद का सामना करना पड़ता है: बड़े पैमाने के कारकों का उपयोग करके, हम अधिक स्थिर उपज परिणाम प्राप्त करते हैं, किंतु जितने बड़े पैमाने के कारक होंगे, पूर्वाग्रह त्रुटि उतनी ही बड़ी होगी। यदि रुचि के अनुप्रयोग में एसएसएस के लाभ अधिक मायने नहीं रखते हैं, तो अधिकांशतः अन्य विधि अधिक कुशल होते हैं।

अनुवाद

एक अन्य सरल और प्रभावी बायसिंग तकनीक घनत्व कार्य (और इसलिए यादृच्छिक चर) के अनुवाद को दुर्लभ घटना क्षेत्र में इसकी संभावना द्रव्यमान को रखने के लिए नियोजित करती है। अनुवाद एक आयाम प्रभाव से ग्रस्त नहीं है और डिजिटल संचार प्रणालियों के अनुकरण से संबंधित कई अनुप्रयोगों में सफलतापूर्वक उपयोग किया गया है। यह अधिकांशतः स्केलिंग की तुलना में उत्तम सिमुलेशन लाभ प्रदान करता है। अनुवाद द्वारा पूर्वाग्रह में, सिमुलेशन घनत्व किसके द्वारा दिया जाता है

जहाँ बदलाव की मात्रा है और महत्व नमूना अनुमानक के भिन्नता को कम करने के लिए चुना जाना है।

सिस्टम जटिलता के प्रभाव

महत्व के नमूने के साथ मूलभूत समस्या यह है कि अच्छे पक्षपाती वितरण को डिजाइन करना और अधिक जटिल हो जाता है क्योंकि सिस्टम की जटिलता बढ़ जाती है। कॉम्प्लेक्स सिस्टम लंबी मेमोरी वाले सिस्टम होते हैं क्योंकि कुछ इनपुट के जटिल प्रसंस्करण को संभालना बहुत आसान होता है। यह आयाम या मेमोरी तीन तरह से समस्याएं उत्पन्न कर सकती है:

  • लंबी मेमोरी (गंभीर अंतरप्रतीक हस्तक्षेप (आईएसआई))
  • अज्ञात मेमोरी (विटरबी डिकोडर)
  • संभवतः अनंत मेमोरी (अनुकूली तुल्यकारक)

सिद्धांत रूप में, इन स्थितियों में महत्व के नमूने के विचार समान रहते हैं, किंतु डिजाइन बहुत कठिन हो जाता है। इस समस्या से निपटने के लिए एक सफल दृष्टिकोण अनिवार्य रूप से एक सिमुलेशन को कई छोटे, अधिक स्पष्ट रूप से परिभाषित उप-समस्याओं में तोड़ रहा है। फिर महत्व नमूनाकरण रणनीतियों का उपयोग प्रत्येक सरल उप-समस्याओं को लक्षित करने के लिए किया जाता है। सिमुलेशन को तोड़ने के लिए तकनीकों के उदाहरण कंडीशनिंग और एरर-इवेंट सिमुलेशन (ईईएस) और पुनर्योजी सिमुलेशन हैं।

महत्व नमूनाकरण का मूल्यांकन

सफल महत्व नमूनाकरण तकनीकों की पहचान करने के लिए, महत्व नमूनाकरण दृष्टिकोण के उपयोग के कारण रन-टाइम बचत को मापने में सक्षम होना उपयोगी होता है। सामान्यतः उपयोग किया जाने वाला प्रदर्शन माप है , और इसे स्पीड-अप कारक के रूप में व्याख्या किया जा सकता है जिसके द्वारा महत्व नमूना अनुमानक एमसी अनुमानक के समान स्पष्टता प्राप्त करता है। इसकी आनुभविक रूप से गणना की जानी चाहिए क्योंकि अनुमानक प्रसरण के विश्लेषणात्मक रूप से संभव नहीं होने की संभावना है, जब उनका माध्य दुरूह हो। महत्व नमूनाकरण अनुमानक को परिमाणित करने में अन्य उपयोगी अवधारणाएं विचरण सीमाएं और स्पर्शोन्मुख दक्षता की धारणा हैं। एक संबंधित उपाय तथाकथित प्रभावी नमूना आकार (ईएसएस) है।[5]

भिन्नता व्यय कार्य

सिमुलेशन के लिए भिन्नता एकमात्र संभावित व्यय कार्य नहीं है, और अन्य व्यय कार्य , जैसे औसत पूर्ण विचलन, विभिन्न सांख्यिकीय अनुप्रयोगों में उपयोग किए जाते हैं। फिर भी, भिन्नता साहित्य में संबोधित प्राथमिक व्यय कार्य है, संभवतः विश्वास अंतराल और प्रदर्शन माप में भिन्नता के उपयोग के कारण है ।

एक संबंधित उद्देश्य यह तथ्य है कि अनुपात महत्व के नमूने के कारण रन-टाइम बचत को कम करके आंका जाता है क्योंकि इसमें वजन कार्य की गणना करने के लिए आवश्यक अतिरिक्त कंप्यूटिंग समय सम्मिलित नहीं होता है। इसलिए, कुछ लोग विभिन्न माध्यमों से नेट रन-टाइम सुधार का मूल्यांकन करते हैं। संभवतः महत्व नमूनाकरण के लिए एक अधिक गंभीर ओवरहेड तकनीक को तैयार करने और प्रोग्राम करने और वांछित वजन कार्य को विश्लेषणात्मक रूप से प्राप्त करने में लगने वाला समय है।

एकाधिक और अनुकूली महत्व नमूनाकरण

जब विभिन्न प्रस्ताव वितरण, , नमूने लेने के लिए संयुक्त रूप से उपयोग किया जाता है विभिन्न उचित भार कार्यों को नियोजित किया जा सकता है (उदाहरण के लिए देखें [6][7][8][9]). अनुकूल सेटिंग में, प्रस्ताव वितरण, , और प्रत्येक पुनरावृत्ति को अद्यतन किया जाता है अनुकूली महत्व नमूनाकरण एल्गोरिथम। इसलिए, चूंकि प्रस्ताव घनत्व की आबादी का उपयोग किया जाता है, नमूनाकरण और भार योजनाओं के कई उपयुक्त संयोजनों को नियोजित किया जा सकता है।[10][11][12][13][14][15][16]

यह भी देखें

टिप्पणियाँ

  1. Kloek, T.; van Dijk, H. K. (1978). "Bayesian Estimates of Equation System Parameters: An Application of Integration by Monte Carlo" (PDF). Econometrica. 46 (1): 1–19. doi:10.2307/1913641. JSTOR 1913641.
  2. Goertzle, G. (1949). "कण समस्याओं के स्टोकेस्टिक समाधान में कोटा नमूनाकरण और महत्व कार्य". Technical Report ORNL-434, Oak Ridge National Laboratory. Aecd ;2793. hdl:2027/mdp.39015086443671.
  3. Kahn, H.; Harris, T. E. (1949). "रैंडम सैंपलिंग द्वारा पार्टिकल ट्रांसमिशन का अनुमान". Monte Carlo Method. Applied Mathematics Series. National Bureau of Standards. 12: 27–30.
  4. Rubinstein, R. Y., & Kroese, D. P. (2011). Simulation and the Monte Carlo method (Vol. 707). John Wiley & Sons.
  5. Martino, Luca; Elvira, Víctor; Louzada, Francisco (2017). "विसंगति उपायों के आधार पर महत्व नमूनाकरण के लिए प्रभावी नमूना आकार". Signal Processing. 131: 386–401. arXiv:1602.03572. doi:10.1016/j.sigpro.2016.08.025. S2CID 26317735.
  6. Veach, Eric; Guibas, Leonidas J. (1995-01-01). मोंटे कार्लो रेंडरिंग के लिए नमूनाकरण तकनीकों का इष्टतम संयोजन. pp. 419–428. CiteSeerX 10.1.1.127.8105. doi:10.1145/218380.218498. ISBN 978-0-89791-701-8. S2CID 207194026. {{cite book}}: |journal= ignored (help)
  7. Owen, Art; Associate, Yi Zhou (2000-03-01). "सुरक्षित और प्रभावी महत्व नमूनाकरण". Journal of the American Statistical Association. 95 (449): 135–143. CiteSeerX 10.1.1.36.4536. doi:10.1080/01621459.2000.10473909. ISSN 0162-1459. S2CID 119761472.
  8. Elvira, V.; Martino, L.; Luengo, D.; Bugallo, M.F. (2015-10-01). "कुशल एकाधिक महत्व नमूनाकरण अनुमानक". IEEE Signal Processing Letters. 22 (10): 1757–1761. arXiv:1505.05391. Bibcode:2015ISPL...22.1757E. doi:10.1109/LSP.2015.2432078. ISSN 1070-9908. S2CID 14504598.
  9. Elvira, Víctor; Martino, Luca; Luengo, David; Bugallo, Mónica F. (2017). "Improving population Monte Carlo: Alternative weighting and resampling schemes". Signal Processing. 131: 77–91. arXiv:1607.02758. doi:10.1016/j.sigpro.2016.07.012. S2CID 205171823.
  10. Cappé, O.; Guillin, A.; Marin, J. M.; Robert, C. P. (2004-12-01). "जनसंख्या मोंटे कार्लो". Journal of Computational and Graphical Statistics. 13 (4): 907–929. doi:10.1198/106186004X12803. ISSN 1061-8600. S2CID 119690181.
  11. Martino, L.; Elvira, V.; Luengo, D.; Corander, J. (2017-05-01). "स्तरित अनुकूली महत्व नमूनाकरण". Statistics and Computing (in English). 27 (3): 599–623. arXiv:1505.04732. doi:10.1007/s11222-016-9642-5. ISSN 0960-3174. S2CID 2508031.
  12. Cappé, Olivier; Douc, Randal; Guillin, Arnaud; Marin, Jean-Michel; Robert, Christian P. (2008-04-25). "सामान्य मिश्रण वर्गों में अनुकूली महत्व का नमूनाकरण". Statistics and Computing. 18 (4): 447–459. arXiv:0710.4242. doi:10.1007/s11222-008-9059-x. ISSN 0960-3174. S2CID 483916.
  13. Cornuet, Jean-Marie; Marin, Jean-Michel; Mira, Antonietta; Robert, Christian P. (2012-12-01). "अनुकूली एकाधिक महत्व नमूनाकरण". Scandinavian Journal of Statistics. 39 (4): 798–812. arXiv:0907.1254. doi:10.1111/j.1467-9469.2011.00756.x. ISSN 1467-9469. S2CID 17191248.
  14. Martino, L.; Elvira, V.; Luengo, D.; Corander, J. (2015-08-01). "An Adaptive Population Importance Sampler: Learning From Uncertainty". IEEE Transactions on Signal Processing. 63 (16): 4422–4437. Bibcode:2015ITSP...63.4422M. CiteSeerX 10.1.1.464.9395. doi:10.1109/TSP.2015.2440215. ISSN 1053-587X. S2CID 17017431.
  15. Bugallo, Mónica F.; Martino, Luca; Corander, Jukka (2015-12-01). "सिग्नल प्रोसेसिंग में अनुकूली महत्व नमूनाकरण". Digital Signal Processing. Special Issue in Honour of William J. (Bill) Fitzgerald. 47: 36–49. doi:10.1016/j.dsp.2015.05.014.
  16. Bugallo, M. F.; Elvira, V.; Martino, L.; Luengo, D.; Miguez, J.; Djuric, P. M. (July 2017). "Adaptive Importance Sampling: The past, the present, and the future". IEEE Signal Processing Magazine. 34 (4): 60–79. Bibcode:2017ISPM...34...60B. doi:10.1109/msp.2017.2699226. ISSN 1053-5888. S2CID 5619054.


संदर्भ

  • Arouna, Bouhari (2004). "Adaptative Monte Carlo Method, A Variance Reduction Technique". Monte Carlo Methods and Their Applications. 10 (1): 1–24. doi:10.1515/156939604323091180. S2CID 21949573.
  • Bucklew, James Antonio (2004). Introduction to Rare Event Simulation. New York: Springer-Verlag.
  • Doucet, A.; de Freitas, N.; Gordon, N. (2001). Sequential Monte Carlo Methods in Practice. Springer. ISBN 978-0-387-95146-1.
  • Ferrari, M.; Bellini, S. (2001). Importance Sampling simulation of turbo product codes. pp. 2773–2777. doi:10.1109/ICC.2001.936655. ISBN 978-0-7803-7097-5. S2CID 5158473. {{cite book}}: |journal= ignored (help)
  • Mazonka, Oleg (2016). "Easy as Pi: The Importance Sampling Method" (PDF). Journal of Reference. 16.
  • Oberg, Tommy (2001). Modulation, Detection, and Coding. New York: John Wiley & Sons.
  • Press, WH; Teukolsky, SA; Vetterling, WT; Flannery, BP (2007). "Section 7.9.1 Importance Sampling". Numerical Recipes: The Art of Scientific Computing (3rd ed.). New York: Cambridge University Press. ISBN 978-0-521-88068-8.
  • Ripley, B. D. (1987). Stochastic Simulation. Wiley & Sons.
  • Smith, P. J.; Shafi, M.; Gao, H. (1997). "Quick simulation: A review of importance sampling techniques in communication systems". IEEE Journal on Selected Areas in Communications. 15 (4): 597–613. doi:10.1109/49.585771.
  • Srinivasan, R. (2002). Importance sampling – Applications in communications and detection. Berlin: Springer-Verlag.


बाहरी संबंध