क्रॉस-एन्ट्रॉपी विधि: Difference between revisions

From Vigyanwiki
No edit summary
Line 15: Line 15:
<math>\ell = \mathbb{E}_{\mathbf{u}}[H(\mathbf{X})] = \int H(\mathbf{x})\, f(\mathbf{x}; \mathbf{u})\, \textrm{d}\mathbf{x}</math>,
<math>\ell = \mathbb{E}_{\mathbf{u}}[H(\mathbf{X})] = \int H(\mathbf{x})\, f(\mathbf{x}; \mathbf{u})\, \textrm{d}\mathbf{x}</math>,


कहाँ <math>H</math> कुछ प्रदर्शन समारोह है और <math>f(\mathbf{x};\mathbf{u})</math> वितरण के कुछ [[पैरामीट्रिक परिवार]] का सदस्य है। महत्व नमूने का उपयोग करके इस मात्रा का अनुमान लगाया जा सकता है
यहां, <math>H</math> कोई ''प्रदर्शन फ़ंक्शन'' है और <math>f(\mathbf{x};\mathbf{u})</math> कुछ [[पैरामीट्रिक परिवार]] के विशेषज्ञ वितरण है। [[अहमद सैंपलिंग]] (Importance Sampling) का उपयोग करके इस मात्रा का अनुमान लगाया जा सकता है।


<math>\hat{\ell} = \frac{1}{N} \sum_{i=1}^N H(\mathbf{X}_i) \frac{f(\mathbf{X}_i; \mathbf{u})}{g(\mathbf{X}_i)}</math>,
<math>\hat{\ell} = \frac{1}{N} \sum_{i=1}^N H(\mathbf{X}_i) \frac{f(\mathbf{X}_i; \mathbf{u})}{g(\mathbf{X}_i)}</math>,


कहाँ <math>\mathbf{X}_1,\dots,\mathbf{X}_N</math> से एक यादृच्छिक नमूना है <math>g\,</math>. सकारात्मक के लिए <math>H</math>, सैद्धांतिक रूप से इष्टतम महत्व नमूना संभाव्यता घनत्व फ़ंक्शन (पीडीएफ) द्वारा दिया गया है
यहां, <math>\mathbf{X}_1,\dots,\mathbf{X}_N</math> <math>g,</math> से एक यादृच्छिक सैंपल है। ध्यान दें कि <math>H</math> पॉज़िटिव है। सिद्धांती रूप से, ''आनुचित'' अहमद सैंपलिंग [[प्रायोजनशीलता घनत्व|घनत्व]] (PDF) निम्नलिखित रूप में दिया गया है:


<math> g^*(\mathbf{x}) = H(\mathbf{x}) f(\mathbf{x};\mathbf{u})/\ell</math>.
<math> g^*(\mathbf{x}) = H(\mathbf{x}) f(\mathbf{x};\mathbf{u})/\ell</math>.


हालाँकि, यह अज्ञात पर निर्भर करता है <math>\ell</math>. सीई विधि का लक्ष्य पैरामीट्रिक परिवार के उन सदस्यों का अनुकूलनपूर्वक चयन करके इष्टतम पीडीएफ का अनुमान लगाना है जो इष्टतम पीडीएफ के सबसे करीब हैं (कुलबैक-लीबलर विचलन | कुलबैक-लीबलर अर्थ में)। <math>g^*</math>.
यह, हालांकि, अज्ञात <math>\ell</math> पर निर्भर करता है। सीई विधि का उद्देश्य है ऑप्टिमल PDF को अनुमानित करना, जिसमें पैरामीट्रिक परिवार के सदस्यों का चयन समांतर रूप से किया जाता है जो ऑप्टिमल PDF <math>g^*</math> से सबसे नजदीक (Kullback-Leibler दृष्टि से) होते हैं।
 
[[Category:Created On 10/07/2023]]
[[Category:Heuristics]]
[[Category:Machine Translated Page]]
[[Category:Pages with script errors]]
[[Category:Templates Vigyan Ready]]
[[Category:अनुकूलन एल्गोरिदम और विधियाँ]]
[[Category:मोंटे कार्लो विधियाँ]]
[[Category:यंत्र अधिगम]]


==जेनेरिक सीई एल्गोरिदम==
==जेनेरिक सीई एल्गोरिदम==

Revision as of 12:10, 24 July 2023

क्रॉस-एन्ट्रॉपी (सीई) विधि महत्व प्रतिदर्श और अनुकूलन के लिए एक मोंटे कार्लो विधि है। यह स्थिर या शोर वाले उद्देश्य के साथ संयुक्त और निरंतर दोनों समस्याओं पर लागू होता है।

यह विधि द्विचरणीय तकनीक का उपयोग करके उत्तम महत्व प्रतिदर्श प्राक्कलन कर्त्ता का अनुमान लगाता है:[1]

  1. संभाव्यता वितरण से एक प्रतिदर्श बनाएं।
  2. अगले पुनरावृत्ति में उत्तम प्रतिदर्श तैयार करने के लिए इस वितरण और लक्ष्य वितरण के बीच क्रॉस-एन्ट्रॉपी को कम करें।

रूवेन रुबिनस्टीन ने यह विधि द्विपक्षीय घटना अनुकरण के सन्दर्भ में विकसित की, जहां अत्यंत कम प्रायिकता को अनुमानित किया जाना आवश्यक होता है। उदाहरण के लिए नेटवर्क विश्वसनीयता विश्लेषण, कतारीय मॉडल, या दूरसंचार प्रणालियों के प्रदर्शन विश्लेषण में छोटे प्रायिकत्वों का अनुमान लगाना आवश्यक होता है।।

यह विधि ट्रैवलिंग सेल्समैन की समस्या, द्विघात असाइनमेंट समस्या, डीएनए अनुक्रम संरेखण, मैक्सकट, और बफर आवंटन समस्याओं पर भी लागू की गई है।


महत्व प्रतिदर्श के माध्यम से अनुमान

मात्रा का अनुमान लगाने की सामान्य समस्या पर विचार करें

,

यहां, कोई प्रदर्शन फ़ंक्शन है और कुछ पैरामीट्रिक परिवार के विशेषज्ञ वितरण है। अहमद सैंपलिंग (Importance Sampling) का उपयोग करके इस मात्रा का अनुमान लगाया जा सकता है।

,

यहां, से एक यादृच्छिक सैंपल है। ध्यान दें कि पॉज़िटिव है। सिद्धांती रूप से, आनुचित अहमद सैंपलिंग घनत्व (PDF) निम्नलिखित रूप में दिया गया है:

.

यह, हालांकि, अज्ञात पर निर्भर करता है। सीई विधि का उद्देश्य है ऑप्टिमल PDF को अनुमानित करना, जिसमें पैरामीट्रिक परिवार के सदस्यों का चयन समांतर रूप से किया जाता है जो ऑप्टिमल PDF से सबसे नजदीक (Kullback-Leibler दृष्टि से) होते हैं।

जेनेरिक सीई एल्गोरिदम

  1. प्रारंभिक पैरामीटर वेक्टर चुनें ; सेट टी = 1.
  2. एक यादृच्छिक नमूना उत्पन्न करें से
  3. के लिए हल , कहां
  4. अगर सहमति बन जाए तो रुक जाओ; अन्यथा, t को 1 से बढ़ाएँ और चरण 2 से दोहराएँ।

कई मामलों में, चरण 3 का समाधान विश्लेषणात्मक रूप से पाया जा सकता है। जिन स्थितियों में ऐसा होता है वे हैं

  • कब घातीय परिवार से संबंधित है
  • कब परिमित समर्थन के साथ पृथक स्थान है (गणित)
  • कब और , तब उनके आधार पर अधिकतम संभावना से मेल खाती है .

सतत अनुकूलन—उदाहरण

अनुमान के बजाय अनुकूलन के लिए समान सीई एल्गोरिदम का उपयोग किया जा सकता है। मान लीजिए कि समस्या किसी फ़ंक्शन को अधिकतम करने की है , उदाहरण के लिए,

.

सीई को लागू करने के लिए, पहले अनुमान लगाने की संबंधित स्टोकेस्टिक समस्या पर विचार किया जाता है किसी दिए गए स्तर के लिए , और पैरामीट्रिक परिवार , उदाहरण के लिए 1-आयामी गाऊसी वितरण, इसके माध्य द्वारा मानकीकृत और विचरण (इसलिए यहाँ)। इसलिए, किसी दिए गए के लिए , लक्ष्य खोजना है ताकि न्यूनतम किया गया है. यह केएल विचलन न्यूनीकरण समस्या के नमूना संस्करण (स्टोकेस्टिक समकक्ष) को हल करके किया जाता है, जैसा कि ऊपर चरण 3 में है। यह पता चला है कि पैरामीटर जो लक्ष्य वितरण की इस पसंद के लिए स्टोकेस्टिक समकक्ष को कम करते हैं और पैरामीट्रिक परिवार विशिष्ट नमूनों के अनुरूप नमूना माध्य और नमूना विचरण हैं, जो वे नमूने हैं जिनका उद्देश्य फ़ंक्शन मान है . फिर विशिष्ट नमूनों में से सबसे खराब को अगले पुनरावृत्ति के लिए स्तर पैरामीटर के रूप में उपयोग किया जाता है। यह निम्नलिखित यादृच्छिक एल्गोरिदम उत्पन्न करता है जो वितरण एल्गोरिदम के तथाकथित अनुमान मल्टीवेरिएट नॉर्मल एल्गोरिदम (ईएमएनए) के साथ मेल खाता है।

छद्मकोड

//प्रारंभिक पैरामीटर
μ := −6
σ2 := 100
टी := 0
अधिकतम := 100
एन := 100
ने :=10
// जबकि अधिकतम सीमा पार नहीं हुई है और अभिसरण नहीं हुई है
'जबकि' t < अधिकतम 'और' σ2 > ε 'करें'
    // वर्तमान नमूना वितरण से एन नमूने प्राप्त करें
    एक्स := नमूनागौसियन(μ, σ2, एन)
    // नमूना बिंदुओं पर वस्तुनिष्ठ फ़ंक्शन का मूल्यांकन करें
    S := exp(-(X − 2) ^ 2) + 0.8 exp(-(X + 2) ^ 2)
    // वस्तुनिष्ठ फ़ंक्शन मानों के आधार पर X को अवरोही क्रम में क्रमबद्ध करें
    एक्स := सॉर्ट करें (एक्स, एस)
    // नमूना वितरण के अद्यतन पैरामीटर
    μ := माध्य(X(1:Ne))
    σ2 := var(X(1:Ne))
    टी := टी + 1
// समाधान के रूप में अंतिम नमूना वितरण का रिटर्न माध्य
'वापसी' μ

संबंधित विधियाँ

यह भी देखें

जर्नल पेपर्स

  • डी बोअर, पी-टी., क्रोसे, डी.पी., मैन्नोर, एस. और रुबिनस्टीन, आर.वाई. (2005)। क्रॉस-एन्ट्रॉपी विधि पर एक ट्यूटोरियल। एनल्स ऑफ ऑपरेशंस रिसर्च, '134' (1), 19-67।[1]
  • रुबिनस्टीन, आर.वाई. (1997)। दुर्लभ घटनाओं के साथ कंप्यूटर सिमुलेशन मॉडल का अनुकूलन, यूरोपियन जर्नल ऑफ ऑपरेशनल रिसर्च, '99', 89-112।

सॉफ़्टवेयर कार्यान्वयन

संदर्भ

  1. Rubinstein, R.Y. and Kroese, D.P. (2004), The Cross-Entropy Method: A Unified Approach to Combinatorial Optimization, Monte-Carlo Simulation, and Machine Learning, Springer-Verlag, New York ISBN 978-0-387-21240-1.