क्रॉस-एन्ट्रॉपी विधि: Difference between revisions
No edit summary |
No edit summary |
||
(10 intermediate revisions by 3 users not shown) | |||
Line 1: | Line 1: | ||
'''क्रॉस-एन्ट्रॉपी (सीई) विधि''' [[महत्व नमूनाकरण| | '''क्रॉस-एन्ट्रॉपी (सीई) विधि''' [[महत्व नमूनाकरण|आवश्यक प्रतिदर्श]] और अनुकूलन के लिए एक मोंटे कार्लो विधि है। यह स्थिर या शोर वाले उद्देश्य के साथ संयुक्त और निरंतर दोनों समस्याओं पर लागू होता है। | ||
यह विधि द्विचरणीय तकनीक का उपयोग करके उत्तम | यह विधि द्विचरणीय तकनीक का उपयोग करके उत्तम आवश्यक [[महत्व नमूनाकरण|प्रतिदर्श]] प्राक्कलन कर्त्ता का अनुमान लगाता है:<ref>Rubinstein, R.Y. and Kroese, D.P. (2004), The Cross-Entropy Method: A Unified Approach to Combinatorial Optimization, Monte-Carlo Simulation, and Machine Learning, Springer-Verlag, New York {{ISBN|978-0-387-21240-1}}.</ref> | ||
#संभाव्यता वितरण से एक प्रतिदर्श बनाएं। | #संभाव्यता वितरण से एक प्रतिदर्श बनाएं। | ||
#अगले पुनरावृत्ति में उत्तम प्रतिदर्श तैयार करने के लिए इस वितरण और लक्ष्य वितरण के बीच क्रॉस-एन्ट्रॉपी को कम करें। | #अगले पुनरावृत्ति में उत्तम प्रतिदर्श तैयार करने के लिए इस वितरण और लक्ष्य वितरण के बीच क्रॉस-एन्ट्रॉपी को कम करें। | ||
Line 10: | Line 10: | ||
== | ==आवश्यक प्रतिदर्श के माध्यम से अनुमान== | ||
मात्रा का अनुमान लगाने की सामान्य समस्या पर विचार करें | मात्रा का अनुमान लगाने की सामान्य समस्या पर विचार करें | ||
<math>\ell = \mathbb{E}_{\mathbf{u}}[H(\mathbf{X})] = \int H(\mathbf{x})\, f(\mathbf{x}; \mathbf{u})\, \textrm{d}\mathbf{x}</math>, | <math>\ell = \mathbb{E}_{\mathbf{u}}[H(\mathbf{X})] = \int H(\mathbf{x})\, f(\mathbf{x}; \mathbf{u})\, \textrm{d}\mathbf{x}</math>, | ||
यहां, <math>H</math> कोई प्रदर्शन फलन है और <math>f(\mathbf{x};\mathbf{u})</math> कुछ [[पैरामीट्रिक परिवार|पैरामीट्रिक]] समूह के विशेषज्ञ वितरण है। [[अहमद सैंपलिंग|आवश्यक प्रतिदर्श]] का उपयोग करके इस मात्रा का अनुमान लगाया जा सकता है। | |||
<math>\hat{\ell} = \frac{1}{N} \sum_{i=1}^N H(\mathbf{X}_i) \frac{f(\mathbf{X}_i; \mathbf{u})}{g(\mathbf{X}_i)}</math>, | <math>\hat{\ell} = \frac{1}{N} \sum_{i=1}^N H(\mathbf{X}_i) \frac{f(\mathbf{X}_i; \mathbf{u})}{g(\mathbf{X}_i)}</math>, | ||
यहां, <math>\mathbf{X}_1,\dots,\mathbf{X}_N</math> <math>g,</math> से एक यादृच्छिक प्रतिदर्श है। ध्यान दें कि <math>H</math> सकारात्मक है। सैद्धांतिक रूप से, इष्टतम [[अहमद सैंपलिंग|आवश्यक]] प्रतिदर्श [[प्रायोजनशीलता घनत्व|घनत्व]] (पीडीएफ) निम्नलिखित रूप में दिया गया है: | |||
<math> g^*(\mathbf{x}) = H(\mathbf{x}) f(\mathbf{x};\mathbf{u})/\ell</math>. | <math> g^*(\mathbf{x}) = H(\mathbf{x}) f(\mathbf{x};\mathbf{u})/\ell</math>. | ||
यद्यपि , यह अज्ञात <math>\ell</math> पर निर्भर करता है। सीई विधि का उद्देश्य इष्टतम पीडीएफ को अनुमानित करना है, जिसमें पैरामीट्रिक समूह के सदस्यों का चयन समांतर रूप से किया जाता है जो इष्टतम पीडीएफ <math>g^*</math> से सबसे नजदीक होते हैं। | |||
== सामान्य सीई कलन विधि == | |||
# आरंभिक पैरामीटर वेक्टर <math>\mathbf{v}^{(0)}</math> चुनें; t को 1 से सेट करें।. | |||
# <math>f(\cdot;\mathbf{v}^{(t-1)})</math> से एक यादृच्छिक प्रतिदर्श <math>\mathbf{X}_1,\dots,\mathbf{X}_N</math> उत्पन्न करें। | |||
# <math>\mathbf{v}^{(t)}</math> के लिए समस्या का हल करें, जहां | |||
#<math>\mathbf{v}^{(t)} = \mathop{\textrm{argmax}}{\mathbf{v}} \frac{1}{N} \sum{i=1}^N H(\mathbf{X}_i)\frac{f(\mathbf{X}_i;\mathbf{u})}{f(\mathbf{X}_i;\mathbf{v}^{(t-1)})} \log f(\mathbf{X}_i;\mathbf{v})</math> | |||
# यदि संघटन तक पहुंचा जाता है, तो '''रुकें'''; अन्यथा, t को 1 बढ़ाएं और पुनः चरण 2 से दोहराएं। | |||
अन्य स्थितियों में, चरण 3 का समाधान विश्लेषणात्मक रूप से पाया जा सकता है। जिन स्थितियों में ऐसा होता है वे हैं | |||
* जब <math>f,</math> प्राकृतिक घातीय परिवार का भाग है। | |||
* जब <math>f,</math> एक [[विकल्पिक अंतरिक्ष|विकल्पिक]] वितरण है जिसमें [[समर्थन (गणित)|समर्थन]] सीमित होता है। | |||
* जब यदि <math>H(\mathbf{X}) = \mathrm{I}_{{\mathbf{x}\in A}}</math> है और <math>f(\mathbf{X}_i;\mathbf{u}) = f(\mathbf{X}_i;\mathbf{v}^{(t-1)})</math> है, तो <math>\mathbf{v}^{(t)}</math> वह [[अधिकतम योग्यता|अधिकतम योग्यता अनुमानकर्ता]] है जो उन <math>\mathbf{X}_k \in A</math> पर आधारित है।. | |||
== सतत अनुकूलन—उदाहरण== | == सतत अनुकूलन—उदाहरण== | ||
एक समान सीई एल्गोरिदम का उपयोग अनुमान नहीं करने, बल्कि अनुकरण के लिए किया जा सकता है। मान लें समस्या है कि किसी फ़ंक्शन <math>S</math> को अधिकतम बनाने के लिए है। उदाहरण के रूप में, | |||
मान | |||
<math>S(x) = \textrm{e}^{-(x-2)^2} + 0.8\,\textrm{e}^{-(x+2)^2}</math>. | <math>S(x) = \textrm{e}^{-(x-2)^2} + 0.8\,\textrm{e}^{-(x+2)^2}</math>. | ||
सीई को लागू करने के लिए, पहले | सीई को लागू करने के लिए, पहले संबंधित यादृच्छिक समस्या का ध्यान दिया जाता है जो एक दिए गए स्तर <math>\mathbb{P}_{\boldsymbol{\theta}}(S(X)\geq\gamma)</math>और पैरामीट्रिक समूह <math>\gamma\,</math>,के लिए <math>\left\{f(\cdot;\boldsymbol{\theta})\right\}</math>, का अनुमान लगाने का प्रयास करता है। उदाहरण के लिए 1-[[गाऊसी वितरण|आयामी गौसियन वितरण]], जिसका अर्थ होता है कि एक आयामी यादृच्छिक समूह इसका अर्थ <math>\mu_t\,</math>और परिवर्तन <math>\sigma_t^2</math>से पैरामीटराइज़ किया गया है इसका अर्थ <math>\boldsymbol{\theta} = (\mu,\sigma^2)</math> है। | ||
<math>\mathbb{P}_{\boldsymbol{\theta}}(S(X)\geq\gamma)</math> | |||
इसलिए, एक दिए गए स्तर <math>\gamma\,</math>,के लिए, लक्ष्य होता है कि ऐसे <math>\boldsymbol{\theta}</math> को खोजा जाए जिससे KL डाइवर्जेंस <math>D_{\mathrm{KL}}(\textrm{I}_{\{S(x)\geq\gamma\}}\|f_{\boldsymbol{\theta}})</math> को कम से कम किया जा सके, इसे समस्त प्रतिदर्श संस्करण के साथ एक प्रकार की केएल विचलन न्यूनतमीकरण समस्या के समाधान के रूप में किया जाता है, जैसा कि ऊपर स्टेप 3 में दिखाया गया है। | |||
[[गाऊसी वितरण]], | |||
यह सिद्ध हुआ है कि इस चयनित लक्ष्य वितरण और पैरामीट्रिक परिवार के लिए स्टोकेस्टिक संबंधी को न्यूनतम करने वाले पैरामीटर वे नमूने हैं जिनके उद्देश्य फलन का मान <math>\geq\gamma</math>. है | |||
इसलिए, | |||
<math>D_{\mathrm{KL}}(\textrm{I}_{\{S(x)\geq\gamma\}}\|f_{\boldsymbol{\theta}})</math> | |||
यह | |||
फिर विशिष्ट नमूनों में से सबसे खराब को अगले पुनरावृत्ति के लिए स्तर पैरामीटर के रूप में उपयोग किया जाता है। | फिर विशिष्ट नमूनों में से सबसे खराब को अगले पुनरावृत्ति के लिए स्तर पैरामीटर के रूप में उपयोग किया जाता है। | ||
यह निम्नलिखित यादृच्छिक एल्गोरिदम उत्पन्न करता है जो वितरण एल्गोरिदम के तथाकथित अनुमान मल्टीवेरिएट नॉर्मल एल्गोरिदम (ईएमएनए) के साथ मेल खाता है। | यह निम्नलिखित यादृच्छिक एल्गोरिदम उत्पन्न करता है जो वितरण एल्गोरिदम के तथाकथित अनुमान मल्टीवेरिएट नॉर्मल एल्गोरिदम (ईएमएनए) के साथ मेल खाता है। | ||
पुनः विशिष्ट प्रतिदर्श मे अमान्य प्रतिदर्श अगले अनुक्रम के लिए स्तर पैरामीटर के रूप में उपयोग किया जाता है। इससे निम्नलिखित यादृच्छिक कलन-विधि उत्पन्न करता है जो वितरण कलन-विधि के तथाकथित अनुमान बहुभिन्नरूपी सामान्य कलन-विधि (ईएमएनए) के साथ मेल खाता है। | |||
===छद्मकोड=== | ===छद्मकोड=== | ||
// | ''// Initialize parameters'' μ := −6 | ||
σ2 := 100 | |||
t := 0 | |||
maxits := 100 | |||
N := 100 | |||
Ne := 10 | |||
''// While maxits not exceeded and not converged'' | |||
// | '''while''' t < maxits '''and''' σ2 > ε '''do''' | ||
' | ''// Obtain N samples from current sampling distribution'' | ||
// | X := SampleGaussian(μ, σ2, N) | ||
''// Evaluate objective function at sampled points'' | |||
// | S := exp(−(X − 2) ^ 2) + 0.8 exp(−(X + 2) ^ 2) | ||
''// Sort X by objective function values in descending order'' | |||
// | X := sort(X, S) | ||
''// Update parameters of sampling distribution'' | |||
// | μ := mean(X(1:Ne)) | ||
σ2 := var(X(1:Ne)) | |||
t := t + 1 | |||
''// Return mean of final sampling distribution as solution'' | |||
// | |||
==संबंधित विधियाँ== | == संबंधित विधियाँ == | ||
* [[तैयार किए हुयी धातु पे पानी चढाने की कला]] | * [[तैयार किए हुयी धातु पे पानी चढाने की कला|सिम्युलेटेड ऐनलिंग]] | ||
* [[आनुवंशिक एल्गोरिदम]] | *[[आनुवंशिक एल्गोरिदम]] | ||
* | *हार्मनी सर्च | ||
* वितरण एल्गोरिदम का अनुमान | *वितरण एल्गोरिदम का अनुमान | ||
*[[तब्बू सर्च]] | *[[तब्बू सर्च|ताबू सर्च]] | ||
* [[प्राकृतिक विकास रणनीति]] | *[[प्राकृतिक विकास रणनीति]] | ||
==यह भी देखें== | ==यह भी देखें== | ||
* [[क्रॉस एन्ट्रापी]] | *[[क्रॉस एन्ट्रापी]] | ||
* कुल्बैक-लीब्लर विचलन | *कुल्बैक-लीब्लर विचलन | ||
* यादृच्छिक एल्गोरिदम | *यादृच्छिक एल्गोरिदम | ||
* | *आवश्यक प्रतिदर्श करण | ||
== जर्नल पेपर्स == | ==जर्नल पेपर्स== | ||
* डी बोअर, पी-टी., क्रोसे, डी.पी., मैन्नोर, एस. और रुबिनस्टीन, आर.वाई. (2005)। क्रॉस-एन्ट्रॉपी विधि पर एक ट्यूटोरियल। एनल्स ऑफ ऑपरेशंस रिसर्च, '134' (1), 19-67।[http://www.maths.uq.edu.au/~kroese/ps/aortut.pdf] | *डी बोअर, पी-टी., क्रोसे, डी.पी., मैन्नोर, एस. और रुबिनस्टीन, आर.वाई. (2005)। क्रॉस-एन्ट्रॉपी विधि पर एक ट्यूटोरियल। एनल्स ऑफ ऑपरेशंस रिसर्च, '134' (1), 19-67।[http://www.maths.uq.edu.au/~kroese/ps/aortut.pdf] | ||
*रुबिनस्टीन, आर.वाई. (1997)। दुर्लभ घटनाओं के साथ कंप्यूटर सिमुलेशन मॉडल का अनुकूलन, यूरोपियन जर्नल ऑफ ऑपरेशनल रिसर्च, '99', 89-112। | *रुबिनस्टीन, आर.वाई. (1997)। दुर्लभ घटनाओं के साथ कंप्यूटर सिमुलेशन मॉडल का अनुकूलन, यूरोपियन जर्नल ऑफ ऑपरेशनल रिसर्च, '99', 89-112। | ||
==सॉफ़्टवेयर कार्यान्वयन== | ==सॉफ़्टवेयर कार्यान्वयन== | ||
* [https://cran.r-project.org/web/packages/CEoptim/index.html CEoptim R पैकेज] | *[https://cran.r-project.org/web/packages/CEoptim/index.html CEoptim R पैकेज] | ||
* [https://www.nuget.org/packages/Novacta.Analytics नोवाक्टा.एनालिटिक्स .NET लाइब्रेरी] | *[https://www.nuget.org/packages/Novacta.Analytics नोवाक्टा.एनालिटिक्स .NET लाइब्रेरी] | ||
==संदर्भ== | ==संदर्भ== | ||
{{reflist}} | {{reflist}} | ||
[[Category:Created On 10/07/2023]] | [[Category:Created On 10/07/2023]] | ||
[[Category:Heuristics]] | |||
[[Category:Machine Translated Page]] | |||
[[Category:Pages with script errors]] | |||
[[Category:Templates Vigyan Ready]] | |||
[[Category:अनुकूलन एल्गोरिदम और विधियाँ]] | |||
[[Category:मोंटे कार्लो विधियाँ]] | |||
[[Category:यंत्र अधिगम]] |
Latest revision as of 12:30, 28 July 2023
क्रॉस-एन्ट्रॉपी (सीई) विधि आवश्यक प्रतिदर्श और अनुकूलन के लिए एक मोंटे कार्लो विधि है। यह स्थिर या शोर वाले उद्देश्य के साथ संयुक्त और निरंतर दोनों समस्याओं पर लागू होता है।
यह विधि द्विचरणीय तकनीक का उपयोग करके उत्तम आवश्यक प्रतिदर्श प्राक्कलन कर्त्ता का अनुमान लगाता है:[1]
- संभाव्यता वितरण से एक प्रतिदर्श बनाएं।
- अगले पुनरावृत्ति में उत्तम प्रतिदर्श तैयार करने के लिए इस वितरण और लक्ष्य वितरण के बीच क्रॉस-एन्ट्रॉपी को कम करें।
रूवेन रुबिनस्टीन ने यह विधि द्विपक्षीय घटना अनुकरण के सन्दर्भ में विकसित की, जहां अत्यंत कम प्रायिकता को अनुमानित किया जाना आवश्यक होता है। उदाहरण के लिए नेटवर्क विश्वसनीयता विश्लेषण, कतारीय मॉडल, या दूरसंचार प्रणालियों के प्रदर्शन विश्लेषण में छोटे प्रायिकत्वों का अनुमान लगाना आवश्यक होता है।।
यह विधि ट्रैवलिंग सेल्समैन की समस्या, द्विघात असाइनमेंट समस्या, डीएनए अनुक्रम संरेखण, मैक्सकट, और बफर आवंटन समस्याओं पर भी लागू की गई है।
आवश्यक प्रतिदर्श के माध्यम से अनुमान
मात्रा का अनुमान लगाने की सामान्य समस्या पर विचार करें
,
यहां, कोई प्रदर्शन फलन है और कुछ पैरामीट्रिक समूह के विशेषज्ञ वितरण है। आवश्यक प्रतिदर्श का उपयोग करके इस मात्रा का अनुमान लगाया जा सकता है।
,
यहां, से एक यादृच्छिक प्रतिदर्श है। ध्यान दें कि सकारात्मक है। सैद्धांतिक रूप से, इष्टतम आवश्यक प्रतिदर्श घनत्व (पीडीएफ) निम्नलिखित रूप में दिया गया है:
.
यद्यपि , यह अज्ञात पर निर्भर करता है। सीई विधि का उद्देश्य इष्टतम पीडीएफ को अनुमानित करना है, जिसमें पैरामीट्रिक समूह के सदस्यों का चयन समांतर रूप से किया जाता है जो इष्टतम पीडीएफ से सबसे नजदीक होते हैं।
सामान्य सीई कलन विधि
- आरंभिक पैरामीटर वेक्टर चुनें; t को 1 से सेट करें।.
- से एक यादृच्छिक प्रतिदर्श उत्पन्न करें।
- के लिए समस्या का हल करें, जहां
- यदि संघटन तक पहुंचा जाता है, तो रुकें; अन्यथा, t को 1 बढ़ाएं और पुनः चरण 2 से दोहराएं।
अन्य स्थितियों में, चरण 3 का समाधान विश्लेषणात्मक रूप से पाया जा सकता है। जिन स्थितियों में ऐसा होता है वे हैं
- जब प्राकृतिक घातीय परिवार का भाग है।
- जब एक विकल्पिक वितरण है जिसमें समर्थन सीमित होता है।
- जब यदि है और है, तो वह अधिकतम योग्यता अनुमानकर्ता है जो उन पर आधारित है।.
सतत अनुकूलन—उदाहरण
एक समान सीई एल्गोरिदम का उपयोग अनुमान नहीं करने, बल्कि अनुकरण के लिए किया जा सकता है। मान लें समस्या है कि किसी फ़ंक्शन को अधिकतम बनाने के लिए है। उदाहरण के रूप में,
.
सीई को लागू करने के लिए, पहले संबंधित यादृच्छिक समस्या का ध्यान दिया जाता है जो एक दिए गए स्तर और पैरामीट्रिक समूह ,के लिए , का अनुमान लगाने का प्रयास करता है। उदाहरण के लिए 1-आयामी गौसियन वितरण, जिसका अर्थ होता है कि एक आयामी यादृच्छिक समूह इसका अर्थ और परिवर्तन से पैरामीटराइज़ किया गया है इसका अर्थ है।
इसलिए, एक दिए गए स्तर ,के लिए, लक्ष्य होता है कि ऐसे को खोजा जाए जिससे KL डाइवर्जेंस को कम से कम किया जा सके, इसे समस्त प्रतिदर्श संस्करण के साथ एक प्रकार की केएल विचलन न्यूनतमीकरण समस्या के समाधान के रूप में किया जाता है, जैसा कि ऊपर स्टेप 3 में दिखाया गया है।
यह सिद्ध हुआ है कि इस चयनित लक्ष्य वितरण और पैरामीट्रिक परिवार के लिए स्टोकेस्टिक संबंधी को न्यूनतम करने वाले पैरामीटर वे नमूने हैं जिनके उद्देश्य फलन का मान . है
फिर विशिष्ट नमूनों में से सबसे खराब को अगले पुनरावृत्ति के लिए स्तर पैरामीटर के रूप में उपयोग किया जाता है। यह निम्नलिखित यादृच्छिक एल्गोरिदम उत्पन्न करता है जो वितरण एल्गोरिदम के तथाकथित अनुमान मल्टीवेरिएट नॉर्मल एल्गोरिदम (ईएमएनए) के साथ मेल खाता है।
पुनः विशिष्ट प्रतिदर्श मे अमान्य प्रतिदर्श अगले अनुक्रम के लिए स्तर पैरामीटर के रूप में उपयोग किया जाता है। इससे निम्नलिखित यादृच्छिक कलन-विधि उत्पन्न करता है जो वितरण कलन-विधि के तथाकथित अनुमान बहुभिन्नरूपी सामान्य कलन-विधि (ईएमएनए) के साथ मेल खाता है।
छद्मकोड
// Initialize parameters μ := −6 σ2 := 100 t := 0 maxits := 100 N := 100 Ne := 10 // While maxits not exceeded and not converged while t < maxits and σ2 > ε do // Obtain N samples from current sampling distribution X := SampleGaussian(μ, σ2, N) // Evaluate objective function at sampled points S := exp(−(X − 2) ^ 2) + 0.8 exp(−(X + 2) ^ 2) // Sort X by objective function values in descending order X := sort(X, S) // Update parameters of sampling distribution μ := mean(X(1:Ne)) σ2 := var(X(1:Ne)) t := t + 1 // Return mean of final sampling distribution as solution
संबंधित विधियाँ
- सिम्युलेटेड ऐनलिंग
- आनुवंशिक एल्गोरिदम
- हार्मनी सर्च
- वितरण एल्गोरिदम का अनुमान
- ताबू सर्च
- प्राकृतिक विकास रणनीति
यह भी देखें
- क्रॉस एन्ट्रापी
- कुल्बैक-लीब्लर विचलन
- यादृच्छिक एल्गोरिदम
- आवश्यक प्रतिदर्श करण
जर्नल पेपर्स
- डी बोअर, पी-टी., क्रोसे, डी.पी., मैन्नोर, एस. और रुबिनस्टीन, आर.वाई. (2005)। क्रॉस-एन्ट्रॉपी विधि पर एक ट्यूटोरियल। एनल्स ऑफ ऑपरेशंस रिसर्च, '134' (1), 19-67।[1]
- रुबिनस्टीन, आर.वाई. (1997)। दुर्लभ घटनाओं के साथ कंप्यूटर सिमुलेशन मॉडल का अनुकूलन, यूरोपियन जर्नल ऑफ ऑपरेशनल रिसर्च, '99', 89-112।
सॉफ़्टवेयर कार्यान्वयन
संदर्भ
- ↑ Rubinstein, R.Y. and Kroese, D.P. (2004), The Cross-Entropy Method: A Unified Approach to Combinatorial Optimization, Monte-Carlo Simulation, and Machine Learning, Springer-Verlag, New York ISBN 978-0-387-21240-1.