क्रॉस-एन्ट्रॉपी विधि: Difference between revisions

From Vigyanwiki
Line 1: Line 1:
'''क्रॉस-एन्ट्रॉपी (सीई) विधि''' [[महत्व नमूनाकरण|महत्व प्रतिदर्श]] और अनुकूलन के लिए एक मोंटे कार्लो विधि है। यह स्थिर या शोर वाले उद्देश्य के साथ संयुक्त और निरंतर दोनों समस्याओं पर लागू होता है।
'''क्रॉस-एन्ट्रॉपी (सीई) विधि''' [[महत्व नमूनाकरण|आवश्यक  प्रतिदर्श]] और अनुकूलन के लिए एक मोंटे कार्लो विधि है। यह स्थिर या शोर वाले उद्देश्य के साथ संयुक्त और निरंतर दोनों समस्याओं पर लागू होता है।


यह विधि द्विचरणीय तकनीक का उपयोग करके उत्तम महत्व [[महत्व नमूनाकरण|प्रतिदर्श]] प्राक्कलन कर्त्ता का अनुमान लगाता है:<ref>Rubinstein, R.Y. and  Kroese, D.P. (2004), The Cross-Entropy Method: A Unified Approach to Combinatorial Optimization, Monte-Carlo Simulation, and Machine Learning, Springer-Verlag, New York {{ISBN|978-0-387-21240-1}}.</ref>
यह विधि द्विचरणीय तकनीक का उपयोग करके उत्तम आवश्यक  [[महत्व नमूनाकरण|प्रतिदर्श]] प्राक्कलन कर्त्ता का अनुमान लगाता है:<ref>Rubinstein, R.Y. and  Kroese, D.P. (2004), The Cross-Entropy Method: A Unified Approach to Combinatorial Optimization, Monte-Carlo Simulation, and Machine Learning, Springer-Verlag, New York {{ISBN|978-0-387-21240-1}}.</ref>
#संभाव्यता वितरण से एक प्रतिदर्श बनाएं।
#संभाव्यता वितरण से एक प्रतिदर्श बनाएं।
#अगले पुनरावृत्ति में उत्तम प्रतिदर्श तैयार करने के लिए इस वितरण और लक्ष्य वितरण के बीच क्रॉस-एन्ट्रॉपी को कम करें।
#अगले पुनरावृत्ति में उत्तम प्रतिदर्श तैयार करने के लिए इस वितरण और लक्ष्य वितरण के बीच क्रॉस-एन्ट्रॉपी को कम करें।
Line 10: Line 10:




==महत्व प्रतिदर्श के माध्यम से अनुमान==
==आवश्यक  प्रतिदर्श के माध्यम से अनुमान==
मात्रा का अनुमान लगाने की सामान्य समस्या पर विचार करें
मात्रा का अनुमान लगाने की सामान्य समस्या पर विचार करें


<math>\ell = \mathbb{E}_{\mathbf{u}}[H(\mathbf{X})] = \int H(\mathbf{x})\, f(\mathbf{x}; \mathbf{u})\, \textrm{d}\mathbf{x}</math>,
<math>\ell = \mathbb{E}_{\mathbf{u}}[H(\mathbf{X})] = \int H(\mathbf{x})\, f(\mathbf{x}; \mathbf{u})\, \textrm{d}\mathbf{x}</math>,


यहां, <math>H</math> कोई ''प्रदर्शन फ़ंक्शन'' है और <math>f(\mathbf{x};\mathbf{u})</math> कुछ [[पैरामीट्रिक परिवार]] के विशेषज्ञ वितरण है। [[अहमद सैंपलिंग]] (Importance Sampling) का उपयोग करके इस मात्रा का अनुमान लगाया जा सकता है।
यहां, <math>H</math> कोई प्रदर्शन फलन है और <math>f(\mathbf{x};\mathbf{u})</math> कुछ [[पैरामीट्रिक परिवार|पैरामीट्रिक]] समूह के विशेषज्ञ वितरण है। [[अहमद सैंपलिंग|आवश्यक प्रतिदर्श]] का उपयोग करके इस मात्रा का अनुमान लगाया जा सकता है।


<math>\hat{\ell} = \frac{1}{N} \sum_{i=1}^N H(\mathbf{X}_i) \frac{f(\mathbf{X}_i; \mathbf{u})}{g(\mathbf{X}_i)}</math>,
<math>\hat{\ell} = \frac{1}{N} \sum_{i=1}^N H(\mathbf{X}_i) \frac{f(\mathbf{X}_i; \mathbf{u})}{g(\mathbf{X}_i)}</math>,


यहां, <math>\mathbf{X}_1,\dots,\mathbf{X}_N</math> <math>g,</math> से एक यादृच्छिक सैंपल है। ध्यान दें कि <math>H</math> पॉज़िटिव है। सिद्धांती रूप से, ''आनुचित'' अहमद सैंपलिंग [[प्रायोजनशीलता घनत्व|घनत्व]] (PDF) निम्नलिखित रूप में दिया गया है:
यहां, <math>\mathbf{X}_1,\dots,\mathbf{X}_N</math> <math>g,</math> से एक यादृच्छिक प्रतिदर्श है। ध्यान दें कि <math>H</math> सकारात्मक है। सैद्धांतिक रूप से, इष्टतम [[अहमद सैंपलिंग|आवश्यक]] प्रतिदर्श [[प्रायोजनशीलता घनत्व|घनत्व]] (पीडीएफ) निम्नलिखित रूप में दिया गया है:


<math> g^*(\mathbf{x}) = H(\mathbf{x}) f(\mathbf{x};\mathbf{u})/\ell</math>.
<math> g^*(\mathbf{x}) = H(\mathbf{x}) f(\mathbf{x};\mathbf{u})/\ell</math>.


यह, हालांकि, अज्ञात <math>\ell</math> पर निर्भर करता है। सीई विधि का उद्देश्य है ऑप्टिमल PDF को अनुमानित करना, जिसमें पैरामीट्रिक परिवार के सदस्यों का चयन समांतर रूप से किया जाता है जो ऑप्टिमल PDF <math>g^*</math> से सबसे नजदीक (Kullback-Leibler दृष्टि से) होते हैं।
यद्यपि , यह अज्ञात <math>\ell</math> पर निर्भर करता है। सीई विधि का उद्देश्य इष्टतम पीडीएफ को अनुमानित करना है, जिसमें पैरामीट्रिक समूह  के सदस्यों का चयन समांतर रूप से किया जाता है जो इष्टतम पीडीएफ <math>g^*</math> से सबसे नजदीक होते हैं।


[[Category:Created On 10/07/2023]]
[[Category:Created On 10/07/2023]]
Line 97: Line 97:
* कुल्बैक-लीब्लर विचलन
* कुल्बैक-लीब्लर विचलन
* यादृच्छिक एल्गोरिदम
* यादृच्छिक एल्गोरिदम
* महत्व नमूनाकरण
* आवश्यक  नमूनाकरण


== जर्नल पेपर्स ==
== जर्नल पेपर्स ==

Revision as of 12:23, 24 July 2023

क्रॉस-एन्ट्रॉपी (सीई) विधि आवश्यक प्रतिदर्श और अनुकूलन के लिए एक मोंटे कार्लो विधि है। यह स्थिर या शोर वाले उद्देश्य के साथ संयुक्त और निरंतर दोनों समस्याओं पर लागू होता है।

यह विधि द्विचरणीय तकनीक का उपयोग करके उत्तम आवश्यक प्रतिदर्श प्राक्कलन कर्त्ता का अनुमान लगाता है:[1]

  1. संभाव्यता वितरण से एक प्रतिदर्श बनाएं।
  2. अगले पुनरावृत्ति में उत्तम प्रतिदर्श तैयार करने के लिए इस वितरण और लक्ष्य वितरण के बीच क्रॉस-एन्ट्रॉपी को कम करें।

रूवेन रुबिनस्टीन ने यह विधि द्विपक्षीय घटना अनुकरण के सन्दर्भ में विकसित की, जहां अत्यंत कम प्रायिकता को अनुमानित किया जाना आवश्यक होता है। उदाहरण के लिए नेटवर्क विश्वसनीयता विश्लेषण, कतारीय मॉडल, या दूरसंचार प्रणालियों के प्रदर्शन विश्लेषण में छोटे प्रायिकत्वों का अनुमान लगाना आवश्यक होता है।।

यह विधि ट्रैवलिंग सेल्समैन की समस्या, द्विघात असाइनमेंट समस्या, डीएनए अनुक्रम संरेखण, मैक्सकट, और बफर आवंटन समस्याओं पर भी लागू की गई है।


आवश्यक प्रतिदर्श के माध्यम से अनुमान

मात्रा का अनुमान लगाने की सामान्य समस्या पर विचार करें

,

यहां, कोई प्रदर्शन फलन है और कुछ पैरामीट्रिक समूह के विशेषज्ञ वितरण है। आवश्यक प्रतिदर्श का उपयोग करके इस मात्रा का अनुमान लगाया जा सकता है।

,

यहां, से एक यादृच्छिक प्रतिदर्श है। ध्यान दें कि सकारात्मक है। सैद्धांतिक रूप से, इष्टतम आवश्यक प्रतिदर्श घनत्व (पीडीएफ) निम्नलिखित रूप में दिया गया है:

.

यद्यपि , यह अज्ञात पर निर्भर करता है। सीई विधि का उद्देश्य इष्टतम पीडीएफ को अनुमानित करना है, जिसमें पैरामीट्रिक समूह के सदस्यों का चयन समांतर रूप से किया जाता है जो इष्टतम पीडीएफ से सबसे नजदीक होते हैं।

जेनेरिक सीई एल्गोरिदम

  1. प्रारंभिक पैरामीटर वेक्टर चुनें ; सेट टी = 1.
  2. एक यादृच्छिक नमूना उत्पन्न करें से
  3. के लिए हल , कहां
  4. अगर सहमति बन जाए तो रुक जाओ; अन्यथा, t को 1 से बढ़ाएँ और चरण 2 से दोहराएँ।

कई मामलों में, चरण 3 का समाधान विश्लेषणात्मक रूप से पाया जा सकता है। जिन स्थितियों में ऐसा होता है वे हैं

  • कब घातीय परिवार से संबंधित है
  • कब परिमित समर्थन के साथ पृथक स्थान है (गणित)
  • कब और , तब उनके आधार पर अधिकतम संभावना से मेल खाती है .

सतत अनुकूलन—उदाहरण

अनुमान के बजाय अनुकूलन के लिए समान सीई एल्गोरिदम का उपयोग किया जा सकता है। मान लीजिए कि समस्या किसी फ़ंक्शन को अधिकतम करने की है , उदाहरण के लिए,

.

सीई को लागू करने के लिए, पहले अनुमान लगाने की संबंधित स्टोकेस्टिक समस्या पर विचार किया जाता है किसी दिए गए स्तर के लिए , और पैरामीट्रिक परिवार , उदाहरण के लिए 1-आयामी गाऊसी वितरण, इसके माध्य द्वारा मानकीकृत और विचरण (इसलिए यहाँ)। इसलिए, किसी दिए गए के लिए , लक्ष्य खोजना है ताकि न्यूनतम किया गया है. यह केएल विचलन न्यूनीकरण समस्या के नमूना संस्करण (स्टोकेस्टिक समकक्ष) को हल करके किया जाता है, जैसा कि ऊपर चरण 3 में है। यह पता चला है कि पैरामीटर जो लक्ष्य वितरण की इस पसंद के लिए स्टोकेस्टिक समकक्ष को कम करते हैं और पैरामीट्रिक परिवार विशिष्ट नमूनों के अनुरूप नमूना माध्य और नमूना विचरण हैं, जो वे नमूने हैं जिनका उद्देश्य फ़ंक्शन मान है . फिर विशिष्ट नमूनों में से सबसे खराब को अगले पुनरावृत्ति के लिए स्तर पैरामीटर के रूप में उपयोग किया जाता है। यह निम्नलिखित यादृच्छिक एल्गोरिदम उत्पन्न करता है जो वितरण एल्गोरिदम के तथाकथित अनुमान मल्टीवेरिएट नॉर्मल एल्गोरिदम (ईएमएनए) के साथ मेल खाता है।

छद्मकोड

//प्रारंभिक पैरामीटर
μ := −6
σ2 := 100
टी := 0
अधिकतम := 100
एन := 100
ने :=10
// जबकि अधिकतम सीमा पार नहीं हुई है और अभिसरण नहीं हुई है
'जबकि' t < अधिकतम 'और' σ2 > ε 'करें'
    // वर्तमान नमूना वितरण से एन नमूने प्राप्त करें
    एक्स := नमूनागौसियन(μ, σ2, एन)
    // नमूना बिंदुओं पर वस्तुनिष्ठ फ़ंक्शन का मूल्यांकन करें
    S := exp(-(X − 2) ^ 2) + 0.8 exp(-(X + 2) ^ 2)
    // वस्तुनिष्ठ फ़ंक्शन मानों के आधार पर X को अवरोही क्रम में क्रमबद्ध करें
    एक्स := सॉर्ट करें (एक्स, एस)
    // नमूना वितरण के अद्यतन पैरामीटर
    μ := माध्य(X(1:Ne))
    σ2 := var(X(1:Ne))
    टी := टी + 1
// समाधान के रूप में अंतिम नमूना वितरण का रिटर्न माध्य
'वापसी' μ

संबंधित विधियाँ

यह भी देखें

जर्नल पेपर्स

  • डी बोअर, पी-टी., क्रोसे, डी.पी., मैन्नोर, एस. और रुबिनस्टीन, आर.वाई. (2005)। क्रॉस-एन्ट्रॉपी विधि पर एक ट्यूटोरियल। एनल्स ऑफ ऑपरेशंस रिसर्च, '134' (1), 19-67।[1]
  • रुबिनस्टीन, आर.वाई. (1997)। दुर्लभ घटनाओं के साथ कंप्यूटर सिमुलेशन मॉडल का अनुकूलन, यूरोपियन जर्नल ऑफ ऑपरेशनल रिसर्च, '99', 89-112।

सॉफ़्टवेयर कार्यान्वयन

संदर्भ

  1. Rubinstein, R.Y. and Kroese, D.P. (2004), The Cross-Entropy Method: A Unified Approach to Combinatorial Optimization, Monte-Carlo Simulation, and Machine Learning, Springer-Verlag, New York ISBN 978-0-387-21240-1.