अधिकतम एन्ट्रापी संभाव्यता वितरण: Difference between revisions

From Vigyanwiki
(Created page with "{{Short description|Probability distribution that has the most entropy of a class}} {{Multiple issues| {{Refimprove|date=August 2009}} {{more footnotes|date=December 2013}} }}...")
 
No edit summary
Line 1: Line 1:
{{Short description|Probability distribution that has the most entropy of a class}}
{{Short description|Probability distribution that has the most entropy of a class}}सांख्यिकी और [[सूचना सिद्धांत]] में, अधिकतम एन्ट्रापी संभाव्यता वितरण में [[सूचना एन्ट्रापी]] होती है जो कम से कम संभाव्यता वितरण के निर्दिष्ट वर्ग के अन्य सभी सदस्यों जितनी महान होती है। अधिकतम एन्ट्रापी के सिद्धांत के अनुसार, यदि किसी वितरण के बारे में कुछ भी ज्ञात नहीं है, सिवाय इसके कि वह निश्चित वर्ग (आमतौर पर निर्दिष्ट गुणों या मापों के संदर्भ में परिभाषित) से संबंधित है, तो सबसे बड़ी एन्ट्रापी वाले वितरण को सबसे कम जानकारीपूर्ण के रूप में चुना जाना चाहिए। गलती करना। प्रेरणा दुगनी है: सबसे पहले, एन्ट्रापी को अधिकतम करने से वितरण में निर्मित पूर्व संभाव्यता की मात्रा कम हो जाती है; दूसरा, कई भौतिक प्रणालियाँ समय के साथ अधिकतम एन्ट्रापी विन्यास की ओर बढ़ती हैं।
{{Multiple issues|
{{Refimprove|date=August 2009}}
{{more footnotes|date=December 2013}}
}}
 
सांख्यिकी और [[सूचना सिद्धांत]] में, अधिकतम एन्ट्रापी संभाव्यता वितरण में [[सूचना एन्ट्रापी]] होती है जो कम से कम संभाव्यता वितरण के एक निर्दिष्ट वर्ग के अन्य सभी सदस्यों जितनी महान होती है। अधिकतम एन्ट्रापी के सिद्धांत के अनुसार, यदि किसी वितरण के बारे में कुछ भी ज्ञात नहीं है, सिवाय इसके कि वह एक निश्चित वर्ग (आमतौर पर निर्दिष्ट गुणों या मापों के संदर्भ में परिभाषित) से संबंधित है, तो सबसे बड़ी एन्ट्रापी वाले वितरण को सबसे कम जानकारीपूर्ण के रूप में चुना जाना चाहिए। गलती करना। प्रेरणा दुगनी है: सबसे पहले, एन्ट्रापी को अधिकतम करने से वितरण में निर्मित पूर्व संभाव्यता की मात्रा कम हो जाती है; दूसरा, कई भौतिक प्रणालियाँ समय के साथ अधिकतम एन्ट्रापी विन्यास की ओर बढ़ती हैं।


== एन्ट्रापी और विभेदक एन्ट्रापी की परिभाषा ==
== एन्ट्रापी और विभेदक एन्ट्रापी की परिभाषा ==
{{further|Entropy (information theory)}}
{{further|Entropy (information theory)}}


अगर <math>X</math> वितरण के साथ एक [[असतत यादृच्छिक चर]] है
अगर <math>X</math> वितरण के साथ [[असतत यादृच्छिक चर]] है
:<math>\operatorname{Pr}(X=x_k) = p_k \quad\mbox{ for } k=1,2,\ldots</math>
:<math>\operatorname{Pr}(X=x_k) = p_k \quad\mbox{ for } k=1,2,\ldots</math>
फिर की एन्ट्रापी <math>X</math> परिभाषित किया जाता है
फिर की एन्ट्रापी <math>X</math> परिभाषित किया जाता है
:<math>H(X) = - \sum_{k\ge 1}p_k\log p_k .</math>
:<math>H(X) = - \sum_{k\ge 1}p_k\log p_k .</math>
अगर <math>X</math> संभाव्यता घनत्व फ़ंक्शन के साथ एक [[सतत यादृच्छिक चर]] है <math>p(x)</math>, फिर अंतर एन्ट्रापी <math>X</math> परिभाषित किया जाता है<ref>Williams, D. (2001), ''Weighing the Odds'', [[Cambridge University Press]], {{ISBN|0-521-00618-X}}  (pages 197-199).</ref><ref>Bernardo, J. M., Smith, A. F. M. (2000), ''Bayesian Theory'', Wiley. {{ISBN|0-471-49464-X}} (pages 209, 366)</ref><ref>O'Hagan, A. (1994), ''Kendall's Advanced Theory of Statistics, Vol 2B, Bayesian Inference'', [[Edward Arnold (publisher)|Edward Arnold]]. {{ISBN|0-340-52922-9}} (Section 5.40)</ref>
अगर <math>X</math> संभाव्यता घनत्व फ़ंक्शन के साथ [[सतत यादृच्छिक चर]] है <math>p(x)</math>, फिर अंतर एन्ट्रापी <math>X</math> परिभाषित किया जाता है<ref>Williams, D. (2001), ''Weighing the Odds'', [[Cambridge University Press]], {{ISBN|0-521-00618-X}}  (pages 197-199).</ref><ref>Bernardo, J. M., Smith, A. F. M. (2000), ''Bayesian Theory'', Wiley. {{ISBN|0-471-49464-X}} (pages 209, 366)</ref><ref>O'Hagan, A. (1994), ''Kendall's Advanced Theory of Statistics, Vol 2B, Bayesian Inference'', [[Edward Arnold (publisher)|Edward Arnold]]. {{ISBN|0-340-52922-9}} (Section 5.40)</ref>
:<math>H(X) = - \int_{-\infty}^\infty p(x)\log p(x)\, dx.</math>
:<math>H(X) = - \int_{-\infty}^\infty p(x)\log p(x)\, dx.</math>
मात्रा <math>p(x)\log p(x)</math> जब भी शून्य समझा जाता है <math>p(x) = 0</math>.
मात्रा <math>p(x)\log p(x)</math> जब भी शून्य समझा जाता है <math>p(x) = 0</math>.


यह [[एन्ट्रॉपी (सूचना सिद्धांत)]], अधिकतम एन्ट्रॉपी का सिद्धांत, और अंतर एन्ट्रॉपी लेखों में वर्णित अधिक सामान्य रूपों का एक विशेष मामला है। अधिकतम एन्ट्रॉपी वितरण के संबंध में, यह एकमात्र आवश्यक है, क्योंकि अधिकतमीकरण <math>H(X)</math> अधिक सामान्य रूपों को भी अधिकतम करेगा।
यह [[एन्ट्रॉपी (सूचना सिद्धांत)]], अधिकतम एन्ट्रॉपी का सिद्धांत, और अंतर एन्ट्रॉपी लेखों में वर्णित अधिक सामान्य रूपों का विशेष मामला है। अधिकतम एन्ट्रॉपी वितरण के संबंध में, यह एकमात्र आवश्यक है, क्योंकि अधिकतमीकरण <math>H(X)</math> अधिक सामान्य रूपों को भी अधिकतम करेगा।


लघुगणक का आधार तब तक महत्वपूर्ण नहीं है जब तक कि एक ही का लगातार उपयोग किया जाता है: आधार के परिवर्तन से केवल एन्ट्रापी में पुनः वृद्धि होती है। सूचना सिद्धांतकार एन्ट्रापी को [[ अंश ]]्स में व्यक्त करने के लिए आधार 2 का उपयोग करना पसंद कर सकते हैं; गणितज्ञ और भौतिक विज्ञानी अक्सर [[प्राकृतिक]] लघुगणक को प्राथमिकता देंगे, जिसके परिणामस्वरूप एन्ट्रापी के लिए [[नेट (इकाई)]] की एक इकाई होगी।
लघुगणक का आधार तब तक महत्वपूर्ण नहीं है जब तक कि ही का लगातार उपयोग किया जाता है: आधार के परिवर्तन से केवल एन्ट्रापी में पुनः वृद्धि होती है। सूचना सिद्धांतकार एन्ट्रापी को [[ अंश ]]्स में व्यक्त करने के लिए आधार 2 का उपयोग करना पसंद कर सकते हैं; गणितज्ञ और भौतिक विज्ञानी अक्सर [[प्राकृतिक]] लघुगणक को प्राथमिकता देंगे, जिसके परिणामस्वरूप एन्ट्रापी के लिए [[नेट (इकाई)]] की इकाई होगी।


माप का चुनाव <math>dx</math> हालाँकि, एन्ट्रापी और परिणामी अधिकतम एन्ट्रापी वितरण को निर्धारित करने में महत्वपूर्ण है, भले ही [[लेब्सेग माप]] का सामान्य सहारा अक्सर प्राकृतिक के रूप में बचाव किया जाता है।
माप का चुनाव <math>dx</math> हालाँकि, एन्ट्रापी और परिणामी अधिकतम एन्ट्रापी वितरण को निर्धारित करने में महत्वपूर्ण है, भले ही [[लेब्सेग माप]] का सामान्य सहारा अक्सर प्राकृतिक के रूप में बचाव किया जाता है।
Line 28: Line 22:


=== सतत मामला ===
=== सतत मामला ===
कल्पना करना <math> S </math> [[वास्तविक संख्या]]ओं का एक बंद समुच्चय है <math>\mathbb{R}</math> और हम निर्दिष्ट करना चुनते हैं <math> n </math> [[मापने योग्य कार्य]] <math> f_1, \cdots,f_n </math> और <math>n</math> नंबर <math>a_1, \ldots, a_n</math>. हम वर्ग पर विचार करते हैं <math> C </math> सभी वास्तविक-मूल्यवान यादृच्छिक चर जो समर्थित हैं <math> S </math> (अर्थात् जिसका घनत्व फलन बाहर शून्य है <math> S </math>) और जो संतुष्ट करता है
कल्पना करना <math> S </math> [[वास्तविक संख्या]]ओं का बंद समुच्चय है <math>\mathbb{R}</math> और हम निर्दिष्ट करना चुनते हैं <math> n </math> [[मापने योग्य कार्य]] <math> f_1, \cdots,f_n </math> और <math>n</math> नंबर <math>a_1, \ldots, a_n</math>. हम वर्ग पर विचार करते हैं <math> C </math> सभी वास्तविक-मूल्यवान यादृच्छिक चर जो समर्थित हैं <math> S </math> (अर्थात् जिसका घनत्व फलन बाहर शून्य है <math> S </math>) और जो संतुष्ट करता है
  <math> n </math> पल की शर्तें:
  <math> n </math> पल की शर्तें:
:<math>\mathbb{E}[f_j(X)] \geq a_j\quad\mbox{ for } j=1,\ldots,n</math> यदि कोई सदस्य है <math> C </math> जिसका घनत्व फलन हर जगह सकारात्मक है <math> S </math>, और यदि इसके लिए अधिकतम एन्ट्रापी वितरण मौजूद है <math> C </math>, तो इसकी संभाव्यता घनत्व <math> p(x) </math> निम्नलिखित रूप है:
:<math>\mathbb{E}[f_j(X)] \geq a_j\quad\mbox{ for } j=1,\ldots,n</math> यदि कोई सदस्य है <math> C </math> जिसका घनत्व फलन हर जगह सकारात्मक है <math> S </math>, और यदि इसके लिए अधिकतम एन्ट्रापी वितरण मौजूद है <math> C </math>, तो इसकी संभाव्यता घनत्व <math> p(x) </math> निम्नलिखित रूप है:
Line 35: Line 29:
<ref>{{cite journal |last1=Botev |first1=Z. I. | last2=Kroese | first2=D. P. |year=2011 |title=संभाव्यता घनत्व अनुमान के अनुप्रयोगों के साथ सामान्यीकृत क्रॉस एन्ट्रॉपी विधि|journal=Methodology and Computing in Applied Probability |volume=13 |issue=1 |pages=1–27 |doi=10.1007/s11009-009-9133-7 |s2cid=18155189 |url=http://espace.library.uq.edu.au/view/UQ:200564/UQ200564_preprint.pdf}}</ref>
<ref>{{cite journal |last1=Botev |first1=Z. I. | last2=Kroese | first2=D. P. |year=2011 |title=संभाव्यता घनत्व अनुमान के अनुप्रयोगों के साथ सामान्यीकृत क्रॉस एन्ट्रॉपी विधि|journal=Methodology and Computing in Applied Probability |volume=13 |issue=1 |pages=1–27 |doi=10.1007/s11009-009-9133-7 |s2cid=18155189 |url=http://espace.library.uq.edu.au/view/UQ:200564/UQ200564_preprint.pdf}}</ref>
:<math>\max_{\lambda_0;\boldsymbol\lambda} \left\{\sum_{j=0}^n \lambda_ja_j-\int \exp\left(\sum_{j=0}^n \lambda_jf_j(x)\right)dx\right\}\quad \mathrm{subject\;to: \;\;} \boldsymbol\lambda\geq\mathbf{0}</math>
:<math>\max_{\lambda_0;\boldsymbol\lambda} \left\{\sum_{j=0}^n \lambda_ja_j-\int \exp\left(\sum_{j=0}^n \lambda_jf_j(x)\right)dx\right\}\quad \mathrm{subject\;to: \;\;} \boldsymbol\lambda\geq\mathbf{0}</math>
करुश-कुह्न-टकर स्थितियों का उपयोग करके, यह दिखाया जा सकता है कि अनुकूलन समस्या का एक अनूठा समाधान है क्योंकि अनुकूलन में उद्देश्य फ़ंक्शन अवतल है <math>\boldsymbol\lambda</math>.
करुश-कुह्न-टकर स्थितियों का उपयोग करके, यह दिखाया जा सकता है कि अनुकूलन समस्या का अनूठा समाधान है क्योंकि अनुकूलन में उद्देश्य फ़ंक्शन अवतल है <math>\boldsymbol\lambda</math>.


ध्यान दें कि यदि क्षणिक स्थितियाँ समानताएँ हैं (असमानताओं के बजाय), अर्थात,
ध्यान दें कि यदि क्षणिक स्थितियाँ समानताएँ हैं (असमानताओं के बजाय), अर्थात,
Line 41: Line 35:


=== असतत मामला ===
=== असतत मामला ===
कल्पना करना <math>S = \{x_1, x_2, ...\}</math> वास्तविकताओं का एक (परिमित या अनंत) असतत उपसमुच्चय है और हम निर्दिष्ट करना चुनते हैं <math>n</math> कार्य एफ<sub>1</sub>,...,एफ<sub>''n''</sub> और n संख्या ए<sub>1</sub>,...,ए<sub>''n''</sub>. हम सभी असतत यादृच्छिक चर एक्स के वर्ग सी पर विचार करते हैं जो एस पर समर्थित हैं और जो एन पल की शर्तों को पूरा करते हैं
कल्पना करना <math>S = \{x_1, x_2, ...\}</math> वास्तविकताओं का (परिमित या अनंत) असतत उपसमुच्चय है और हम निर्दिष्ट करना चुनते हैं <math>n</math> कार्य एफ<sub>1</sub>,...,एफ<sub>''n''</sub> और n संख्या ए<sub>1</sub>,...,ए<sub>''n''</sub>. हम सभी असतत यादृच्छिक चर एक्स के वर्ग सी पर विचार करते हैं जो एस पर समर्थित हैं और जो एन पल की शर्तों को पूरा करते हैं
:<math>\operatorname{E}(f_j(X)) \geq a_j\quad\mbox{ for } j=1,\ldots,n</math> यदि C का कोई सदस्य मौजूद है जो S के सभी सदस्यों को सकारात्मक संभावना प्रदान करता है और यदि C के लिए अधिकतम एन्ट्रापी वितरण मौजूद है, तो इस वितरण का निम्नलिखित आकार है:
:<math>\operatorname{E}(f_j(X)) \geq a_j\quad\mbox{ for } j=1,\ldots,n</math> यदि C का कोई सदस्य मौजूद है जो S के सभी सदस्यों को सकारात्मक संभावना प्रदान करता है और यदि C के लिए अधिकतम एन्ट्रापी वितरण मौजूद है, तो इस वितरण का निम्नलिखित आकार है:
:<math>\operatorname{Pr}(X=x_k)=\exp\left(\sum_{j=0}^n \lambda_j f_j(x_k)\right)\quad \mbox{ for } k=1,2,\ldots</math>
:<math>\operatorname{Pr}(X=x_k)=\exp\left(\sum_{j=0}^n \lambda_j f_j(x_k)\right)\quad \mbox{ for } k=1,2,\ldots</math>
Line 66: Line 60:
कल्पना करना <math>p</math>, <math>p'</math> अपेक्षा-बाधाओं को संतुष्ट करने वाले वितरण हैं। दे <math>\alpha\in(0,1)</math> और वितरण पर विचार कर रहे हैं <math>q=\alpha\cdot p+(1-\alpha)\cdot p'</math> यह स्पष्ट है कि यह वितरण अपेक्षा-बाधाओं को पूरा करता है और इसके अलावा समर्थन के रूप में भी है <math>\mathrm{supp}(q)=\mathrm{supp}(p)\cup \mathrm{supp}(p')</math>. एन्ट्रापी के बारे में बुनियादी तथ्यों से, यह ऐसा है <math>\mathcal{H}(q)\geq \alpha\mathcal{H}(p)+(1-\alpha)\mathcal{H}(p')</math>. सीमा लेना <math>\alpha\longrightarrow 1</math> और <math>\alpha\longrightarrow 0</math> क्रमशः पैदावार होती है <math>\mathcal{H}(q)\geq \mathcal{H}(p),\mathcal{H}(p')</math>.
कल्पना करना <math>p</math>, <math>p'</math> अपेक्षा-बाधाओं को संतुष्ट करने वाले वितरण हैं। दे <math>\alpha\in(0,1)</math> और वितरण पर विचार कर रहे हैं <math>q=\alpha\cdot p+(1-\alpha)\cdot p'</math> यह स्पष्ट है कि यह वितरण अपेक्षा-बाधाओं को पूरा करता है और इसके अलावा समर्थन के रूप में भी है <math>\mathrm{supp}(q)=\mathrm{supp}(p)\cup \mathrm{supp}(p')</math>. एन्ट्रापी के बारे में बुनियादी तथ्यों से, यह ऐसा है <math>\mathcal{H}(q)\geq \alpha\mathcal{H}(p)+(1-\alpha)\mathcal{H}(p')</math>. सीमा लेना <math>\alpha\longrightarrow 1</math> और <math>\alpha\longrightarrow 0</math> क्रमशः पैदावार होती है <math>\mathcal{H}(q)\geq \mathcal{H}(p),\mathcal{H}(p')</math>.


इसका तात्पर्य यह है कि अपेक्षा-बाधाओं को संतुष्ट करने वाले और एन्ट्रापी को अधिकतम करने वाले वितरण को आवश्यक रूप से पूर्ण समर्थन प्राप्त होना चाहिए - i. इ। वितरण लगभग हर जगह सकारात्मक है। इसका तात्पर्य यह है कि अधिकतम वितरण अपेक्षा-बाधाओं को संतुष्ट करने वाले वितरण के स्थान में एक आंतरिक बिंदु होना चाहिए, अर्थात यह एक स्थानीय चरम होना चाहिए। इस प्रकार यह दिखाना पर्याप्त है कि स्थानीय चरम अद्वितीय है, दोनों को यह दिखाने के लिए कि एन्ट्रापी-अधिकतम वितरण अद्वितीय है (और इससे यह भी पता चलता है कि स्थानीय चरम वैश्विक अधिकतम है)।
इसका तात्पर्य यह है कि अपेक्षा-बाधाओं को संतुष्ट करने वाले और एन्ट्रापी को अधिकतम करने वाले वितरण को आवश्यक रूप से पूर्ण समर्थन प्राप्त होना चाहिए - i. इ। वितरण लगभग हर जगह सकारात्मक है। इसका तात्पर्य यह है कि अधिकतम वितरण अपेक्षा-बाधाओं को संतुष्ट करने वाले वितरण के स्थान में आंतरिक बिंदु होना चाहिए, अर्थात यह स्थानीय चरम होना चाहिए। इस प्रकार यह दिखाना पर्याप्त है कि स्थानीय चरम अद्वितीय है, दोनों को यह दिखाने के लिए कि एन्ट्रापी-अधिकतम वितरण अद्वितीय है (और इससे यह भी पता चलता है कि स्थानीय चरम वैश्विक अधिकतम है)।


कल्पना करना <math>p,p'</math> स्थानीय चरम सीमाएँ हैं। उपरोक्त गणनाओं को पुन: स्वरूपित करते हुए इन्हें मापदंडों द्वारा चित्रित किया गया है <math>\vec{\lambda},\vec{\lambda}'\in\mathbb{R}^{n}</math> के जरिए <math>p(x)=\frac{e^{\langle\vec{\lambda},\vec{f}(x)\rangle}}{C(\vec{\lambda})}</math> और इसी तरह के लिए <math>p'</math>, कहाँ <math>C(\vec{\lambda})=\int_{x\in\mathbb{R}} e^{\langle\vec{\lambda},\vec{f}(x)\rangle}~dx</math>. अब हम पहचानों की एक श्रृंखला पर ध्यान देते हैं: अपेक्षा-बाधाओं की संतुष्टि और ग्रेडिएंट/दिशात्मक डेरिवेटिव का उपयोग करके, किसी के पास है <math>D\log(C(\cdot))\vert_{\vec{\lambda}}=\left.\frac{DC(\cdot)}{C(\cdot)}\right|_{\vec{\lambda}}=\mathbb{E}_{p}[\vec{f}(X)]=\vec{a}</math> और इसी तरह के लिए <math>\vec{\lambda}'</math>. दे <math>u=\vec{\lambda}'-\vec{\lambda}\in\mathbb{R}^{n}</math> कोई प्राप्त करता है:
कल्पना करना <math>p,p'</math> स्थानीय चरम सीमाएँ हैं। उपरोक्त गणनाओं को पुन: स्वरूपित करते हुए इन्हें मापदंडों द्वारा चित्रित किया गया है <math>\vec{\lambda},\vec{\lambda}'\in\mathbb{R}^{n}</math> के जरिए <math>p(x)=\frac{e^{\langle\vec{\lambda},\vec{f}(x)\rangle}}{C(\vec{\lambda})}</math> और इसी तरह के लिए <math>p'</math>, कहाँ <math>C(\vec{\lambda})=\int_{x\in\mathbb{R}} e^{\langle\vec{\lambda},\vec{f}(x)\rangle}~dx</math>. अब हम पहचानों की श्रृंखला पर ध्यान देते हैं: अपेक्षा-बाधाओं की संतुष्टि और ग्रेडिएंट/दिशात्मक डेरिवेटिव का उपयोग करके, किसी के पास है <math>D\log(C(\cdot))\vert_{\vec{\lambda}}=\left.\frac{DC(\cdot)}{C(\cdot)}\right|_{\vec{\lambda}}=\mathbb{E}_{p}[\vec{f}(X)]=\vec{a}</math> और इसी तरह के लिए <math>\vec{\lambda}'</math>. दे <math>u=\vec{\lambda}'-\vec{\lambda}\in\mathbb{R}^{n}</math> कोई प्राप्त करता है:


:<math>
:<math>
Line 93: Line 87:
== उदाहरण ==
== उदाहरण ==


प्रत्येक संभाव्यता वितरण इस बाधा के तहत तुच्छ रूप से एक अधिकतम एन्ट्रापी संभाव्यता वितरण है कि वितरण की अपनी एन्ट्रापी है। इसे देखने के लिए घनत्व को इस प्रकार पुनः लिखें <math>p(x)=\exp{(\ln{p(x)})}</math> और उपरोक्त प्रमेय की अभिव्यक्ति से तुलना करें। चुनने के द्वारा <math>\ln{p(x)} \rightarrow f(x)</math> मापने योग्य कार्य होना और
प्रत्येक संभाव्यता वितरण इस बाधा के तहत तुच्छ रूप से अधिकतम एन्ट्रापी संभाव्यता वितरण है कि वितरण की अपनी एन्ट्रापी है। इसे देखने के लिए घनत्व को इस प्रकार पुनः लिखें <math>p(x)=\exp{(\ln{p(x)})}</math> और उपरोक्त प्रमेय की अभिव्यक्ति से तुलना करें। चुनने के द्वारा <math>\ln{p(x)} \rightarrow f(x)</math> मापने योग्य कार्य होना और


:<math>\int \exp{(f(x))} f(x) dx=-H</math>
:<math>\int \exp{(f(x))} f(x) dx=-H</math>
Line 100: Line 94:
:<math>\int p(x)f(x)dx=-H</math>.
:<math>\int p(x)f(x)dx=-H</math>.


गैर-तुच्छ उदाहरण ऐसे वितरण हैं जो कई बाधाओं के अधीन हैं जो एन्ट्रापी के असाइनमेंट से भिन्न हैं। इन्हें अक्सर एक ही प्रक्रिया से शुरू करके पाया जाता है <math>\ln{p(x)} \rightarrow f(x)</math> और उसे ढूँढना <math>f(x)</math> भागों में विभाजित किया जा सकता है।
गैर-तुच्छ उदाहरण ऐसे वितरण हैं जो कई बाधाओं के अधीन हैं जो एन्ट्रापी के असाइनमेंट से भिन्न हैं। इन्हें अक्सर ही प्रक्रिया से शुरू करके पाया जाता है <math>\ln{p(x)} \rightarrow f(x)</math> और उसे ढूँढना <math>f(x)</math> भागों में विभाजित किया जा सकता है।


लिस्मान (1972) में अधिकतम एन्ट्रापी वितरण के उदाहरणों की एक तालिका दी गई है<ref name="ReferenceA">{{cite journal |last1=Lisman |first1=J. H. C. |last2=van Zuylen |first2=M. C. A. |year=1972 |title=सर्वाधिक संभावित आवृत्ति वितरणों की उत्पत्ति पर ध्यान दें|journal=Statistica Neerlandica |volume=26 |issue=1 |pages=19–23 |doi=10.1111/j.1467-9574.1972.tb00152.x}}</ref> और पार्क एंड बेरा (2009)।<ref name="Elsevier">{{cite journal |last1=Park |first1=Sung Y. |last2=Bera |first2=Anil K. |year=2009 |title=अधिकतम एन्ट्रापी ऑटोरेग्रेसिव कंडीशनल हेटेरोस्केडैस्टिसिटी मॉडल|journal=Journal of Econometrics |volume=150 |issue=2 |pages=219–230 |doi=10.1016/j.jeconom.2008.12.014 |url=http://www.wise.xmu.edu.cn/Master/Download/..%5C..%5CUploadFiles%5Cpaper-masterdownload%5C2009519932327055475115776.pdf |access-date=2011-06-02 |citeseerx=10.1.1.511.9750 |archive-url=https://web.archive.org/web/20160307144515/http://wise.xmu.edu.cn/uploadfiles/paper-masterdownload/2009519932327055475115776.pdf |archive-date=2016-03-07 |url-status=dead }}</ref>
लिस्मान (1972) में अधिकतम एन्ट्रापी वितरण के उदाहरणों की तालिका दी गई है<ref name="ReferenceA">{{cite journal |last1=Lisman |first1=J. H. C. |last2=van Zuylen |first2=M. C. A. |year=1972 |title=सर्वाधिक संभावित आवृत्ति वितरणों की उत्पत्ति पर ध्यान दें|journal=Statistica Neerlandica |volume=26 |issue=1 |pages=19–23 |doi=10.1111/j.1467-9574.1972.tb00152.x}}</ref> और पार्क एंड बेरा (2009)।<ref name="Elsevier">{{cite journal |last1=Park |first1=Sung Y. |last2=Bera |first2=Anil K. |year=2009 |title=अधिकतम एन्ट्रापी ऑटोरेग्रेसिव कंडीशनल हेटेरोस्केडैस्टिसिटी मॉडल|journal=Journal of Econometrics |volume=150 |issue=2 |pages=219–230 |doi=10.1016/j.jeconom.2008.12.014 |url=http://www.wise.xmu.edu.cn/Master/Download/..%5C..%5CUploadFiles%5Cpaper-masterdownload%5C2009519932327055475115776.pdf |access-date=2011-06-02 |citeseerx=10.1.1.511.9750 |archive-url=https://web.archive.org/web/20160307144515/http://wise.xmu.edu.cn/uploadfiles/paper-masterdownload/2009519932327055475115776.pdf |archive-date=2016-03-07 |url-status=dead }}</ref>




=== एक समान और टुकड़े-टुकड़े समान वितरण ===
=== समान और टुकड़े-टुकड़े समान वितरण ===


अंतराल [ए, बी] पर [[समान वितरण (निरंतर)]] सभी निरंतर वितरणों के बीच अधिकतम एन्ट्रापी वितरण है जो अंतराल [ए, बी] में समर्थित हैं, और इस प्रकार अंतराल के बाहर संभाव्यता घनत्व 0 है। यह एकसमान घनत्व लाप्लास के उदासीनता के सिद्धांत से संबंधित हो सकता है, जिसे कभी-कभी अपर्याप्त कारण का सिद्धांत भी कहा जाता है। अधिक सामान्यतः, यदि हमें एक उपविभाजन a=a दिया गया है<sub>0</sub> < ए<sub>1</sub> < ... < ए<sub>''k''</sub> = अंतराल का बी [ए,बी] और संभावनाएं पी<sub>1</sub>,...,पी<sub>''k''</sub> जिसका योग एक हो, तो हम सभी सतत वितरणों के वर्ग पर विचार कर सकते हैं
अंतराल [ए, बी] पर [[समान वितरण (निरंतर)]] सभी निरंतर वितरणों के बीच अधिकतम एन्ट्रापी वितरण है जो अंतराल [ए, बी] में समर्थित हैं, और इस प्रकार अंतराल के बाहर संभाव्यता घनत्व 0 है। यह एकसमान घनत्व लाप्लास के उदासीनता के सिद्धांत से संबंधित हो सकता है, जिसे कभी-कभी अपर्याप्त कारण का सिद्धांत भी कहा जाता है। अधिक सामान्यतः, यदि हमें उपविभाजन a=a दिया गया है<sub>0</sub> < ए<sub>1</sub> < ... < ए<sub>''k''</sub> = अंतराल का बी [ए,बी] और संभावनाएं पी<sub>1</sub>,...,पी<sub>''k''</sub> जिसका योग हो, तो हम सभी सतत वितरणों के वर्ग पर विचार कर सकते हैं
:<math>\operatorname{Pr}(a_{j-1}\le X < a_j) = p_j \quad \mbox{ for } j=1,\ldots,k</math>
:<math>\operatorname{Pr}(a_{j-1}\le X < a_j) = p_j \quad \mbox{ for } j=1,\ldots,k</math>
इस वर्ग के लिए अधिकतम एन्ट्रापी वितरण का घनत्व प्रत्येक अंतराल पर स्थिर है [ए<sub>''j''-1</sub>,ए<sub>''j''</sub>). परिमित समुच्चय पर समान वितरण {x<sub>1</sub>,...,एक्स<sub>''n''</sub>} (जो इन मानों में से प्रत्येक के लिए 1/एन की संभावना निर्दिष्ट करता है) इस सेट पर समर्थित सभी असतत वितरणों के बीच अधिकतम एन्ट्रापी वितरण है।
इस वर्ग के लिए अधिकतम एन्ट्रापी वितरण का घनत्व प्रत्येक अंतराल पर स्थिर है [ए<sub>''j''-1</sub>,ए<sub>''j''</sub>). परिमित समुच्चय पर समान वितरण {x<sub>1</sub>,...,एक्स<sub>''n''</sub>} (जो इन मानों में से प्रत्येक के लिए 1/एन की संभावना निर्दिष्ट करता है) इस सेट पर समर्थित सभी असतत वितरणों के बीच अधिकतम एन्ट्रापी वितरण है।
Line 131: Line 125:
p(x| \mu, \sigma) = \frac{1}{\sigma \sqrt{2\pi} } e^{ -\frac{(x-\mu)^2}{2\sigma^2} },
p(x| \mu, \sigma) = \frac{1}{\sigma \sqrt{2\pi} } e^{ -\frac{(x-\mu)^2}{2\sigma^2} },
</math>
</math>
निर्दिष्ट विचरण σ के साथ (−∞,∞) पर समर्थित सभी वास्तविक संख्या-मूल्यवान वितरणों के बीच अधिकतम एन्ट्रापी है<sup>2</sup> (एक विशेष क्षण (गणित))। माध्य μ और विचरण σ होने पर भी यही बात सत्य है<sup>2</sup> निर्दिष्ट है (पहले दो क्षण), क्योंकि एन्ट्रापी (−∞,∞) पर अनुवाद अपरिवर्तनीय है। इसलिए, सामान्यता की धारणा इन क्षणों से परे न्यूनतम पूर्व संरचनात्मक बाधा लगाती है। (व्युत्पत्ति के लिए सामान्य वितरण लेख में डिफरेंशियल एन्ट्रापी#मैक्सिमाइजेशन देखें।)
निर्दिष्ट विचरण σ के साथ (−∞,∞) पर समर्थित सभी वास्तविक संख्या-मूल्यवान वितरणों के बीच अधिकतम एन्ट्रापी है<sup>2</sup> (विशेष क्षण (गणित))। माध्य μ और विचरण σ होने पर भी यही बात सत्य है<sup>2</sup> निर्दिष्ट है (पहले दो क्षण), क्योंकि एन्ट्रापी (−∞,∞) पर अनुवाद अपरिवर्तनीय है। इसलिए, सामान्यता की धारणा इन क्षणों से परे न्यूनतम पूर्व संरचनात्मक बाधा लगाती है। (व्युत्पत्ति के लिए सामान्य वितरण लेख में डिफरेंशियल एन्ट्रापी#मैक्सिमाइजेशन देखें।)


=== निर्दिष्ट माध्य के साथ असतत वितरण ===
=== निर्दिष्ट माध्य के साथ असतत वितरण ===


सेट पर समर्थित सभी असतत वितरणों के बीच {x<sub>1</sub>,...,एक्स<sub>''n''</sub>} एक निर्दिष्ट माध्य μ के साथ, अधिकतम एन्ट्रापी वितरण का आकार निम्नलिखित है:
सेट पर समर्थित सभी असतत वितरणों के बीच {x<sub>1</sub>,...,एक्स<sub>''n''</sub>} निर्दिष्ट माध्य μ के साथ, अधिकतम एन्ट्रापी वितरण का आकार निम्नलिखित है:
:<math>\operatorname{Pr}(X=x_k) = Cr^{x_k} \quad\mbox{ for } k=1,\ldots, n</math>
:<math>\operatorname{Pr}(X=x_k) = Cr^{x_k} \quad\mbox{ for } k=1,\ldots, n</math>
जहां सकारात्मक स्थिरांक C और r को आवश्यकताओं द्वारा निर्धारित किया जा सकता है कि सभी संभावनाओं का योग 1 होना चाहिए और अपेक्षित मान μ होना चाहिए।
जहां सकारात्मक स्थिरांक C और r को आवश्यकताओं द्वारा निर्धारित किया जा सकता है कि सभी संभावनाओं का योग 1 होना चाहिए और अपेक्षित मान μ होना चाहिए।


उदाहरण के लिए, यदि बड़ी संख्या में N पासे फेंके जाते हैं, और आपको बताया जाता है कि सभी दिखाए गए नंबरों का योग S है। अकेले इस जानकारी के आधार पर, 1, 2 दिखाने वाले पासों की संख्या के लिए एक उचित धारणा क्या होगी। ..., 6? यह ऊपर मानी गई स्थिति का एक उदाहरण है, {x के साथ<sub>1</sub>,...,एक्स<sub>6</sub>} = {1,...,6} और μ = एस/एन।
उदाहरण के लिए, यदि बड़ी संख्या में N पासे फेंके जाते हैं, और आपको बताया जाता है कि सभी दिखाए गए नंबरों का योग S है। अकेले इस जानकारी के आधार पर, 1, 2 दिखाने वाले पासों की संख्या के लिए उचित धारणा क्या होगी। ..., 6? यह ऊपर मानी गई स्थिति का उदाहरण है, {x के साथ<sub>1</sub>,...,एक्स<sub>6</sub>} = {1,...,6} और μ = एस/एन।


अंत में, अनंत सेट पर समर्थित सभी असतत वितरणों के बीच <math>\{x_1, x_2,...\}</math> माध्य μ के साथ, अधिकतम एन्ट्रापी वितरण का आकार होता है:
अंत में, अनंत सेट पर समर्थित सभी असतत वितरणों के बीच <math>\{x_1, x_2,...\}</math> माध्य μ के साथ, अधिकतम एन्ट्रापी वितरण का आकार होता है:
Line 149: Line 143:
=== वृत्ताकार यादृच्छिक चर ===
=== वृत्ताकार यादृच्छिक चर ===


एक सतत यादृच्छिक चर के लिए <math>\theta_i</math> यूनिट सर्कल के बारे में वितरित, वॉन मिज़ वितरण एन्ट्रापी को अधिकतम करता है जब पहले दिशात्मक आंकड़ों के वास्तविक और काल्पनिक भाग निर्दिष्ट होते हैं<ref name="SRJ">{{cite book |title=वृत्ताकार सांख्यिकी में विषय|last=Jammalamadaka |first=S. Rao |author2=SenGupta, A.|year=2001 |publisher=World Scientific |location=New Jersey |isbn=978-981-02-3778-3 |url=https://books.google.com/books?id=sKqWMGqQXQkC&q=Jammalamadaka+Topics+in+circular |access-date=2011-05-15}}</ref> या, समकक्ष, वृत्ताकार माध्य और [[वृत्ताकार विचरण]] निर्दिष्ट हैं।
सतत यादृच्छिक चर के लिए <math>\theta_i</math> यूनिट सर्कल के बारे में वितरित, वॉन मिज़ वितरण एन्ट्रापी को अधिकतम करता है जब पहले दिशात्मक आंकड़ों के वास्तविक और काल्पनिक भाग निर्दिष्ट होते हैं<ref name="SRJ">{{cite book |title=वृत्ताकार सांख्यिकी में विषय|last=Jammalamadaka |first=S. Rao |author2=SenGupta, A.|year=2001 |publisher=World Scientific |location=New Jersey |isbn=978-981-02-3778-3 |url=https://books.google.com/books?id=sKqWMGqQXQkC&q=Jammalamadaka+Topics+in+circular |access-date=2011-05-15}}</ref> या, समकक्ष, वृत्ताकार माध्य और [[वृत्ताकार विचरण]] निर्दिष्ट हैं।


जब कोणों का माध्य और प्रसरण <math>\theta_i</math> मापांक <math>2\pi</math> निर्दिष्ट हैं, [[लपेटा हुआ सामान्य वितरण]] एन्ट्रापी को अधिकतम करता है।<ref name="SRJ"/>
जब कोणों का माध्य और प्रसरण <math>\theta_i</math> मापांक <math>2\pi</math> निर्दिष्ट हैं, [[लपेटा हुआ सामान्य वितरण]] एन्ट्रापी को अधिकतम करता है।<ref name="SRJ"/>
Line 156: Line 150:
=== निर्दिष्ट माध्य, विचरण और तिरछा के लिए मैक्सिमाइज़र ===
=== निर्दिष्ट माध्य, विचरण और तिरछा के लिए मैक्सिमाइज़र ===


निरंतर यादृच्छिक चर की एन्ट्रापी पर एक ऊपरी सीमा मौजूद होती है <math>\mathbb R</math> एक निर्दिष्ट माध्य, विचरण और तिरछापन के साथ। हालाँकि, ऐसा कोई वितरण नहीं है जो इस ऊपरी सीमा को प्राप्त करता हो, क्योंकि <math>p(x) = c\exp{(\lambda_1x+\lambda_2x^2+\lambda_3x^3)}</math> जब असीमित है <math>\lambda_3 \neq 0</math> (देखें कवर और थॉमस (2006: अध्याय 12))।
निरंतर यादृच्छिक चर की एन्ट्रापी पर ऊपरी सीमा मौजूद होती है <math>\mathbb R</math> निर्दिष्ट माध्य, विचरण और तिरछापन के साथ। हालाँकि, ऐसा कोई वितरण नहीं है जो इस ऊपरी सीमा को प्राप्त करता हो, क्योंकि <math>p(x) = c\exp{(\lambda_1x+\lambda_2x^2+\lambda_3x^3)}</math> जब असीमित है <math>\lambda_3 \neq 0</math> (देखें कवर और थॉमस (2006: अध्याय 12))।
हालाँकि, एन्ट्रापी अधिकतम है {{mvar|&epsilon;}}-प्राप्त करने योग्य: वितरण की एन्ट्रापी मनमाने ढंग से ऊपरी सीमा के करीब हो सकती है। निर्दिष्ट माध्य और विचरण के सामान्य वितरण से प्रारंभ करें। एक सकारात्मक तिरछा परिचय देने के लिए, कई मान पर सामान्य वितरण को एक छोटी राशि से ऊपर की ओर परेशान करें {{mvar|&sigma;}} माध्य से बड़ा. तिरछापन, तीसरे क्षण के समानुपाती होने के कारण, निचले क्रम के क्षणों की तुलना में अधिक प्रभावित होगा।
हालाँकि, एन्ट्रापी अधिकतम है {{mvar|&epsilon;}}-प्राप्त करने योग्य: वितरण की एन्ट्रापी मनमाने ढंग से ऊपरी सीमा के करीब हो सकती है। निर्दिष्ट माध्य और विचरण के सामान्य वितरण से प्रारंभ करें। सकारात्मक तिरछा परिचय देने के लिए, कई मान पर सामान्य वितरण को छोटी राशि से ऊपर की ओर परेशान करें {{mvar|&sigma;}} माध्य से बड़ा. तिरछापन, तीसरे क्षण के समानुपाती होने के कारण, निचले क्रम के क्षणों की तुलना में अधिक प्रभावित होगा।


यह सामान्य मामले का एक विशेष मामला है जिसमें x में किसी भी विषम-क्रम बहुपद का घातांक असीमित होगा <math>\mathbb R</math>. उदाहरण के लिए, <math>c e^{\lambda x}</math> इसी तरह अबाधित होगा <math>\mathbb R</math>, लेकिन जब समर्थन एक सीमित या अर्ध-सीमाबद्ध अंतराल तक सीमित होता है तो ऊपरी एन्ट्रापी सीमा प्राप्त की जा सकती है (उदाहरण के लिए यदि x अंतराल [0,∞] और λ< 0 में स्थित है, तो घातीय वितरण परिणाम होगा)।
यह सामान्य मामले का विशेष मामला है जिसमें x में किसी भी विषम-क्रम बहुपद का घातांक असीमित होगा <math>\mathbb R</math>. उदाहरण के लिए, <math>c e^{\lambda x}</math> इसी तरह अबाधित होगा <math>\mathbb R</math>, लेकिन जब समर्थन सीमित या अर्ध-सीमाबद्ध अंतराल तक सीमित होता है तो ऊपरी एन्ट्रापी सीमा प्राप्त की जा सकती है (उदाहरण के लिए यदि x अंतराल [0,∞] और λ< 0 में स्थित है, तो घातीय वितरण परिणाम होगा)।


===निर्दिष्ट माध्य और [[विचलन जोखिम माप]] के लिए अधिकतमीकरण===
===निर्दिष्ट माध्य और [[विचलन जोखिम माप]] के लिए अधिकतमीकरण===


लॉगरिदमिक रूप से अवतल फ़ंक्शन के साथ प्रत्येक वितरण | लॉग-अवतल घनत्व निर्दिष्ट माध्य μ और विचलन जोखिम माप डी के साथ एक अधिकतम एन्ट्रापी वितरण है।<ref name="Grechuk1">Grechuk, B., Molyboha, A., Zabarankin, M. (2009) [https://www.researchgate.net/publication/220442393_Maximum_Entropy_Principle_with_General_Deviation_Measures Maximum Entropy Principle with General Deviation Measures],  
लॉगरिदमिक रूप से अवतल फ़ंक्शन के साथ प्रत्येक वितरण | लॉग-अवतल घनत्व निर्दिष्ट माध्य μ और विचलन जोखिम माप डी के साथ अधिकतम एन्ट्रापी वितरण है।<ref name="Grechuk1">Grechuk, B., Molyboha, A., Zabarankin, M. (2009) [https://www.researchgate.net/publication/220442393_Maximum_Entropy_Principle_with_General_Deviation_Measures Maximum Entropy Principle with General Deviation Measures],  
Mathematics of Operations Research 34(2), 445--467, 2009.</ref>
Mathematics of Operations Research 34(2), 445--467, 2009.</ref>
विशेष रूप से, निर्दिष्ट माध्य के साथ अधिकतम एन्ट्रापी वितरण <math>E(x)=\mu</math> और विचलन <math>D(x)=d</math> है:
विशेष रूप से, निर्दिष्ट माध्य के साथ अधिकतम एन्ट्रापी वितरण <math>E(x)=\mu</math> और विचलन <math>D(x)=d</math> है:
Line 172: Line 166:


===अन्य उदाहरण===
===अन्य उदाहरण===
नीचे दी गई तालिका में, प्रत्येक सूचीबद्ध वितरण तीसरे कॉलम में सूचीबद्ध कार्यात्मक बाधाओं के एक विशेष सेट के लिए एन्ट्रापी को अधिकतम करता है, और यह बाधा कि x को संभाव्यता घनत्व के समर्थन में शामिल किया जाता है, जो चौथे कॉलम में सूचीबद्ध है।<ref name="ReferenceA"/><ref name="Elsevier"/>सूचीबद्ध कई उदाहरण (बर्नौली, ज्यामितीय, घातीय, लाप्लास, पेरेटो) तुच्छ रूप से सत्य हैं क्योंकि उनकी संबद्ध बाधाएं उनकी एन्ट्रॉपी के असाइनमेंट के बराबर हैं। उन्हें वैसे भी शामिल किया गया है क्योंकि उनकी बाधा एक सामान्य या आसानी से मापी जाने वाली मात्रा से संबंधित है। संदर्भ के लिए, <math>\Gamma(x) = \int_0^{\infty} e^{-t} t^{x-1} dt</math> [[गामा फ़ंक्शन]] है, <math>\psi(x) = \frac{d}{dx} \ln\Gamma(x)=\frac{\Gamma'(x)}{\Gamma(x)}</math> [[डिगामा फ़ंक्शन]] है, <math>B(p,q) = \frac{\Gamma(p)\Gamma(q)}{\Gamma(p+q)}</math> [[बीटा फ़ंक्शन]] है, और {{math|''γ''<sub>E</sub>}} [[यूलर-माशेरोनी स्थिरांक]] है।
नीचे दी गई तालिका में, प्रत्येक सूचीबद्ध वितरण तीसरे कॉलम में सूचीबद्ध कार्यात्मक बाधाओं के विशेष सेट के लिए एन्ट्रापी को अधिकतम करता है, और यह बाधा कि x को संभाव्यता घनत्व के समर्थन में शामिल किया जाता है, जो चौथे कॉलम में सूचीबद्ध है।<ref name="ReferenceA"/><ref name="Elsevier"/>सूचीबद्ध कई उदाहरण (बर्नौली, ज्यामितीय, घातीय, लाप्लास, पेरेटो) तुच्छ रूप से सत्य हैं क्योंकि उनकी संबद्ध बाधाएं उनकी एन्ट्रॉपी के असाइनमेंट के बराबर हैं। उन्हें वैसे भी शामिल किया गया है क्योंकि उनकी बाधा सामान्य या आसानी से मापी जाने वाली मात्रा से संबंधित है। संदर्भ के लिए, <math>\Gamma(x) = \int_0^{\infty} e^{-t} t^{x-1} dt</math> [[गामा फ़ंक्शन]] है, <math>\psi(x) = \frac{d}{dx} \ln\Gamma(x)=\frac{\Gamma'(x)}{\Gamma(x)}</math> [[डिगामा फ़ंक्शन]] है, <math>B(p,q) = \frac{\Gamma(p)\Gamma(q)}{\Gamma(p+q)}</math> [[बीटा फ़ंक्शन]] है, और {{math|''γ''<sub>E</sub>}} [[यूलर-माशेरोनी स्थिरांक]] है।


{| class="wikitable" style="background:white"
{| class="wikitable" style="background:white"
Line 247: Line 241:
* [[गिब्स माप]]
* [[गिब्स माप]]
* [[विभाजन फलन (गणित)]]
* [[विभाजन फलन (गणित)]]
* अधिकतम एन्ट्रापी रैंडम वॉक - एक ग्राफ के लिए एन्ट्रापी दर को अधिकतम करना
* अधिकतम एन्ट्रापी रैंडम वॉक - ग्राफ के लिए एन्ट्रापी दर को अधिकतम करना


== टिप्पणियाँ ==
== टिप्पणियाँ ==

Revision as of 09:32, 13 July 2023

सांख्यिकी और सूचना सिद्धांत में, अधिकतम एन्ट्रापी संभाव्यता वितरण में सूचना एन्ट्रापी होती है जो कम से कम संभाव्यता वितरण के निर्दिष्ट वर्ग के अन्य सभी सदस्यों जितनी महान होती है। अधिकतम एन्ट्रापी के सिद्धांत के अनुसार, यदि किसी वितरण के बारे में कुछ भी ज्ञात नहीं है, सिवाय इसके कि वह निश्चित वर्ग (आमतौर पर निर्दिष्ट गुणों या मापों के संदर्भ में परिभाषित) से संबंधित है, तो सबसे बड़ी एन्ट्रापी वाले वितरण को सबसे कम जानकारीपूर्ण के रूप में चुना जाना चाहिए। गलती करना। प्रेरणा दुगनी है: सबसे पहले, एन्ट्रापी को अधिकतम करने से वितरण में निर्मित पूर्व संभाव्यता की मात्रा कम हो जाती है; दूसरा, कई भौतिक प्रणालियाँ समय के साथ अधिकतम एन्ट्रापी विन्यास की ओर बढ़ती हैं।

एन्ट्रापी और विभेदक एन्ट्रापी की परिभाषा

अगर वितरण के साथ असतत यादृच्छिक चर है

फिर की एन्ट्रापी परिभाषित किया जाता है

अगर संभाव्यता घनत्व फ़ंक्शन के साथ सतत यादृच्छिक चर है , फिर अंतर एन्ट्रापी परिभाषित किया जाता है[1][2][3]

मात्रा जब भी शून्य समझा जाता है .

यह एन्ट्रॉपी (सूचना सिद्धांत), अधिकतम एन्ट्रॉपी का सिद्धांत, और अंतर एन्ट्रॉपी लेखों में वर्णित अधिक सामान्य रूपों का विशेष मामला है। अधिकतम एन्ट्रॉपी वितरण के संबंध में, यह एकमात्र आवश्यक है, क्योंकि अधिकतमीकरण अधिक सामान्य रूपों को भी अधिकतम करेगा।

लघुगणक का आधार तब तक महत्वपूर्ण नहीं है जब तक कि ही का लगातार उपयोग किया जाता है: आधार के परिवर्तन से केवल एन्ट्रापी में पुनः वृद्धि होती है। सूचना सिद्धांतकार एन्ट्रापी को अंश ्स में व्यक्त करने के लिए आधार 2 का उपयोग करना पसंद कर सकते हैं; गणितज्ञ और भौतिक विज्ञानी अक्सर प्राकृतिक लघुगणक को प्राथमिकता देंगे, जिसके परिणामस्वरूप एन्ट्रापी के लिए नेट (इकाई) की इकाई होगी।

माप का चुनाव हालाँकि, एन्ट्रापी और परिणामी अधिकतम एन्ट्रापी वितरण को निर्धारित करने में महत्वपूर्ण है, भले ही लेब्सेग माप का सामान्य सहारा अक्सर प्राकृतिक के रूप में बचाव किया जाता है।

मापा स्थिरांक के साथ वितरण

लागू हित के कई सांख्यिकीय वितरण वे हैं जिनके लिए क्षण (गणित) या अन्य मापनीय मात्राएँ स्थिरांक होने के लिए बाध्य हैं। लुडविग बोल्ट्ज़मान द्वारा निम्नलिखित प्रमेय इन बाधाओं के तहत संभाव्यता घनत्व का रूप देता है।

सतत मामला

कल्पना करना वास्तविक संख्याओं का बंद समुच्चय है और हम निर्दिष्ट करना चुनते हैं मापने योग्य कार्य और नंबर . हम वर्ग पर विचार करते हैं सभी वास्तविक-मूल्यवान यादृच्छिक चर जो समर्थित हैं (अर्थात् जिसका घनत्व फलन बाहर शून्य है ) और जो संतुष्ट करता है

 पल की शर्तें:
यदि कोई सदस्य है जिसका घनत्व फलन हर जगह सकारात्मक है , और यदि इसके लिए अधिकतम एन्ट्रापी वितरण मौजूद है , तो इसकी संभाव्यता घनत्व निम्नलिखित रूप है:

जहां हम ऐसा मानते हैं . अटल और यह लैग्रेंज गुणक विवश अनुकूलन समस्या को हल करें (यह शर्त यह सुनिश्चित करती है एकता में एकीकृत): [4]

करुश-कुह्न-टकर स्थितियों का उपयोग करके, यह दिखाया जा सकता है कि अनुकूलन समस्या का अनूठा समाधान है क्योंकि अनुकूलन में उद्देश्य फ़ंक्शन अवतल है .

ध्यान दें कि यदि क्षणिक स्थितियाँ समानताएँ हैं (असमानताओं के बजाय), अर्थात,

फिर बाधा की स्थिति हटा दिया गया है, जिससे लैग्रेंज मल्टीप्लायरों पर अनुकूलन अप्रतिबंधित हो गया है।

असतत मामला

कल्पना करना वास्तविकताओं का (परिमित या अनंत) असतत उपसमुच्चय है और हम निर्दिष्ट करना चुनते हैं कार्य एफ1,...,एफn और n संख्या ए1,...,एn. हम सभी असतत यादृच्छिक चर एक्स के वर्ग सी पर विचार करते हैं जो एस पर समर्थित हैं और जो एन पल की शर्तों को पूरा करते हैं

यदि C का कोई सदस्य मौजूद है जो S के सभी सदस्यों को सकारात्मक संभावना प्रदान करता है और यदि C के लिए अधिकतम एन्ट्रापी वितरण मौजूद है, तो इस वितरण का निम्नलिखित आकार है:

जहां हम ऐसा मानते हैं और स्थिरांक विवश अनुकूलन समस्या को हल करें :[5]

पुनः, यदि क्षण स्थितियाँ समानताएँ हैं (असमानताओं के बजाय), तो बाधा स्थिति अनुकूलन में मौजूद नहीं है.

समानता बाधाओं के मामले में प्रमाण

समानता बाधाओं के मामले में, यह प्रमेय विविधताओं की गणना और लैग्रेंज गुणकों के साथ सिद्ध होता है। बाधाओं को इस प्रकार लिखा जा सकता है

हम कार्यात्मक (गणित) पर विचार करते हैं

कहाँ और लैग्रेंज गुणक हैं। शून्यवाँ अवरोध संभाव्यता स्वयंसिद्ध#दूसरा सिद्धांत सुनिश्चित करता है। अन्य बाधाएं यह हैं कि फ़ंक्शन के माप को क्रम के अनुसार स्थिरांक दिए जाते हैं . जब कार्यात्मक व्युत्पन्न शून्य के बराबर होता है तो एन्ट्रापी चरम सीमा पर पहुंच जाती है:

इसलिए, इस मामले में चरम एन्ट्रापी संभाव्यता वितरण इस रूप का होना चाहिए (),

उसे याद करते हुए . यह जाँच कर सत्यापित किया जा सकता है कि यह अधिकतम समाधान है कि इस समाधान के आसपास भिन्नता हमेशा नकारात्मक होती है।

अधिकतम की विशिष्टता

कल्पना करना , अपेक्षा-बाधाओं को संतुष्ट करने वाले वितरण हैं। दे और वितरण पर विचार कर रहे हैं यह स्पष्ट है कि यह वितरण अपेक्षा-बाधाओं को पूरा करता है और इसके अलावा समर्थन के रूप में भी है . एन्ट्रापी के बारे में बुनियादी तथ्यों से, यह ऐसा है . सीमा लेना और क्रमशः पैदावार होती है .

इसका तात्पर्य यह है कि अपेक्षा-बाधाओं को संतुष्ट करने वाले और एन्ट्रापी को अधिकतम करने वाले वितरण को आवश्यक रूप से पूर्ण समर्थन प्राप्त होना चाहिए - i. इ। वितरण लगभग हर जगह सकारात्मक है। इसका तात्पर्य यह है कि अधिकतम वितरण अपेक्षा-बाधाओं को संतुष्ट करने वाले वितरण के स्थान में आंतरिक बिंदु होना चाहिए, अर्थात यह स्थानीय चरम होना चाहिए। इस प्रकार यह दिखाना पर्याप्त है कि स्थानीय चरम अद्वितीय है, दोनों को यह दिखाने के लिए कि एन्ट्रापी-अधिकतम वितरण अद्वितीय है (और इससे यह भी पता चलता है कि स्थानीय चरम वैश्विक अधिकतम है)।

कल्पना करना स्थानीय चरम सीमाएँ हैं। उपरोक्त गणनाओं को पुन: स्वरूपित करते हुए इन्हें मापदंडों द्वारा चित्रित किया गया है के जरिए और इसी तरह के लिए , कहाँ . अब हम पहचानों की श्रृंखला पर ध्यान देते हैं: अपेक्षा-बाधाओं की संतुष्टि और ग्रेडिएंट/दिशात्मक डेरिवेटिव का उपयोग करके, किसी के पास है और इसी तरह के लिए . दे कोई प्राप्त करता है:

कहाँ कुछ के लिए . आगे की गणना करना किसी के पास है

कहाँ उपरोक्त वितरण के समान है, केवल पैरामीटरयुक्त है . यह मानते हुए कि वेधशालाओं का कोई भी गैर-तुच्छ रैखिक संयोजन लगभग हर जगह (एई) स्थिर नहीं है, (उदाहरण के लिए यदि वेधशालाएं स्वतंत्र हैं और यानी स्थिर नहीं हैं), तो यह माना जाता है कि गैर-शून्य विचरण है, जब तक कि . उपरोक्त समीकरण से यह स्पष्ट है कि उत्तरार्द्ध मामला होना चाहिए। इस तरह , इसलिए स्थानीय एक्स्ट्रेमा की विशेषता बताने वाले पैरामीटर समान हैं, जिसका अर्थ है कि वितरण स्वयं समान हैं। इस प्रकार, स्थानीय चरम अद्वितीय है और उपरोक्त चर्चा के अनुसार, अधिकतम अद्वितीय है - बशर्ते कि स्थानीय चरम वास्तव में मौजूद हो।

चेतावनी

ध्यान दें कि वितरण के सभी वर्गों में अधिकतम एन्ट्रापी वितरण नहीं होता है। यह संभव है कि किसी वर्ग में मनमाने ढंग से बड़े एन्ट्रॉपी के वितरण हों (उदाहरण के लिए आर पर सभी निरंतर वितरणों का वर्ग जिसका मतलब 0 है लेकिन मनमाना मानक विचलन है), या कि एन्ट्रॉपी ऊपर सीमित हैं लेकिन कोई वितरण नहीं है जो अधिकतम एन्ट्रॉपी प्राप्त करता है।[lower-alpha 1] यह भी संभव है कि वर्ग सी के लिए अपेक्षित मूल्य प्रतिबंध एस के कुछ सबसेट में संभाव्यता वितरण को शून्य होने के लिए मजबूर करते हैं। उस स्थिति में हमारा प्रमेय लागू नहीं होता है, लेकिन सेट एस को सिकोड़कर कोई इसके आसपास काम कर सकता है।

उदाहरण

प्रत्येक संभाव्यता वितरण इस बाधा के तहत तुच्छ रूप से अधिकतम एन्ट्रापी संभाव्यता वितरण है कि वितरण की अपनी एन्ट्रापी है। इसे देखने के लिए घनत्व को इस प्रकार पुनः लिखें और उपरोक्त प्रमेय की अभिव्यक्ति से तुलना करें। चुनने के द्वारा मापने योग्य कार्य होना और

स्थिर रहना, बाधा के तहत अधिकतम एन्ट्रापी संभाव्यता वितरण है

.

गैर-तुच्छ उदाहरण ऐसे वितरण हैं जो कई बाधाओं के अधीन हैं जो एन्ट्रापी के असाइनमेंट से भिन्न हैं। इन्हें अक्सर ही प्रक्रिया से शुरू करके पाया जाता है और उसे ढूँढना भागों में विभाजित किया जा सकता है।

लिस्मान (1972) में अधिकतम एन्ट्रापी वितरण के उदाहरणों की तालिका दी गई है[6] और पार्क एंड बेरा (2009)।[7]


समान और टुकड़े-टुकड़े समान वितरण

अंतराल [ए, बी] पर समान वितरण (निरंतर) सभी निरंतर वितरणों के बीच अधिकतम एन्ट्रापी वितरण है जो अंतराल [ए, बी] में समर्थित हैं, और इस प्रकार अंतराल के बाहर संभाव्यता घनत्व 0 है। यह एकसमान घनत्व लाप्लास के उदासीनता के सिद्धांत से संबंधित हो सकता है, जिसे कभी-कभी अपर्याप्त कारण का सिद्धांत भी कहा जाता है। अधिक सामान्यतः, यदि हमें उपविभाजन a=a दिया गया है0 < ए1 < ... < एk = अंतराल का बी [ए,बी] और संभावनाएं पी1,...,पीk जिसका योग हो, तो हम सभी सतत वितरणों के वर्ग पर विचार कर सकते हैं

इस वर्ग के लिए अधिकतम एन्ट्रापी वितरण का घनत्व प्रत्येक अंतराल पर स्थिर है [एj-1,एj). परिमित समुच्चय पर समान वितरण {x1,...,एक्सn} (जो इन मानों में से प्रत्येक के लिए 1/एन की संभावना निर्दिष्ट करता है) इस सेट पर समर्थित सभी असतत वितरणों के बीच अधिकतम एन्ट्रापी वितरण है।

सकारात्मक और निर्दिष्ट माध्य: घातीय वितरण

घातीय वितरण, जिसके लिए घनत्व फ़ंक्शन है

[0,∞) में समर्थित सभी निरंतर वितरणों के बीच अधिकतम एन्ट्रापी वितरण है जिसका निर्दिष्ट माध्य 1/λ है।

[0,∞) पर समर्थित वितरण के मामले में, अधिकतम एन्ट्रापी वितरण पहले और दूसरे क्षण के बीच संबंधों पर निर्भर करता है। विशिष्ट मामलों में, यह घातीय वितरण हो सकता है, या कोई अन्य वितरण हो सकता है, या अपरिभाषित हो सकता है।[8]


निर्दिष्ट माध्य और विचरण: सामान्य वितरण

सामान्य वितरण N(μ,σ2), जिसके लिए घनत्व फ़ंक्शन है

निर्दिष्ट विचरण σ के साथ (−∞,∞) पर समर्थित सभी वास्तविक संख्या-मूल्यवान वितरणों के बीच अधिकतम एन्ट्रापी है2 (विशेष क्षण (गणित))। माध्य μ और विचरण σ होने पर भी यही बात सत्य है2 निर्दिष्ट है (पहले दो क्षण), क्योंकि एन्ट्रापी (−∞,∞) पर अनुवाद अपरिवर्तनीय है। इसलिए, सामान्यता की धारणा इन क्षणों से परे न्यूनतम पूर्व संरचनात्मक बाधा लगाती है। (व्युत्पत्ति के लिए सामान्य वितरण लेख में डिफरेंशियल एन्ट्रापी#मैक्सिमाइजेशन देखें।)

निर्दिष्ट माध्य के साथ असतत वितरण

सेट पर समर्थित सभी असतत वितरणों के बीच {x1,...,एक्सn} निर्दिष्ट माध्य μ के साथ, अधिकतम एन्ट्रापी वितरण का आकार निम्नलिखित है:

जहां सकारात्मक स्थिरांक C और r को आवश्यकताओं द्वारा निर्धारित किया जा सकता है कि सभी संभावनाओं का योग 1 होना चाहिए और अपेक्षित मान μ होना चाहिए।

उदाहरण के लिए, यदि बड़ी संख्या में N पासे फेंके जाते हैं, और आपको बताया जाता है कि सभी दिखाए गए नंबरों का योग S है। अकेले इस जानकारी के आधार पर, 1, 2 दिखाने वाले पासों की संख्या के लिए उचित धारणा क्या होगी। ..., 6? यह ऊपर मानी गई स्थिति का उदाहरण है, {x के साथ1,...,एक्स6} = {1,...,6} और μ = एस/एन।

अंत में, अनंत सेट पर समर्थित सभी असतत वितरणों के बीच माध्य μ के साथ, अधिकतम एन्ट्रापी वितरण का आकार होता है:

जहां फिर से स्थिरांक सी और आर को आवश्यकताओं द्वारा निर्धारित किया गया था कि सभी संभावनाओं का योग 1 होना चाहिए और अपेक्षित मूल्य μ होना चाहिए। उदाहरण के लिए, उस मामले में xk = k, यह देता है

ऐसा कि संबंधित अधिकतम एन्ट्रापी वितरण ज्यामितीय वितरण है।

वृत्ताकार यादृच्छिक चर

सतत यादृच्छिक चर के लिए यूनिट सर्कल के बारे में वितरित, वॉन मिज़ वितरण एन्ट्रापी को अधिकतम करता है जब पहले दिशात्मक आंकड़ों के वास्तविक और काल्पनिक भाग निर्दिष्ट होते हैं[9] या, समकक्ष, वृत्ताकार माध्य और वृत्ताकार विचरण निर्दिष्ट हैं।

जब कोणों का माध्य और प्रसरण मापांक निर्दिष्ट हैं, लपेटा हुआ सामान्य वितरण एन्ट्रापी को अधिकतम करता है।[9]


निर्दिष्ट माध्य, विचरण और तिरछा के लिए मैक्सिमाइज़र

निरंतर यादृच्छिक चर की एन्ट्रापी पर ऊपरी सीमा मौजूद होती है निर्दिष्ट माध्य, विचरण और तिरछापन के साथ। हालाँकि, ऐसा कोई वितरण नहीं है जो इस ऊपरी सीमा को प्राप्त करता हो, क्योंकि जब असीमित है (देखें कवर और थॉमस (2006: अध्याय 12))। हालाँकि, एन्ट्रापी अधिकतम है ε-प्राप्त करने योग्य: वितरण की एन्ट्रापी मनमाने ढंग से ऊपरी सीमा के करीब हो सकती है। निर्दिष्ट माध्य और विचरण के सामान्य वितरण से प्रारंभ करें। सकारात्मक तिरछा परिचय देने के लिए, कई मान पर सामान्य वितरण को छोटी राशि से ऊपर की ओर परेशान करें σ माध्य से बड़ा. तिरछापन, तीसरे क्षण के समानुपाती होने के कारण, निचले क्रम के क्षणों की तुलना में अधिक प्रभावित होगा।

यह सामान्य मामले का विशेष मामला है जिसमें x में किसी भी विषम-क्रम बहुपद का घातांक असीमित होगा . उदाहरण के लिए, इसी तरह अबाधित होगा , लेकिन जब समर्थन सीमित या अर्ध-सीमाबद्ध अंतराल तक सीमित होता है तो ऊपरी एन्ट्रापी सीमा प्राप्त की जा सकती है (उदाहरण के लिए यदि x अंतराल [0,∞] और λ< 0 में स्थित है, तो घातीय वितरण परिणाम होगा)।

निर्दिष्ट माध्य और विचलन जोखिम माप के लिए अधिकतमीकरण

लॉगरिदमिक रूप से अवतल फ़ंक्शन के साथ प्रत्येक वितरण | लॉग-अवतल घनत्व निर्दिष्ट माध्य μ और विचलन जोखिम माप डी के साथ अधिकतम एन्ट्रापी वितरण है।[10] विशेष रूप से, निर्दिष्ट माध्य के साथ अधिकतम एन्ट्रापी वितरण और विचलन है:

  • सामान्य वितरण , अगर मानक विचलन है;
  • लाप्लास वितरण, यदि औसत निरपेक्ष विचलन है;[6]* प्रपत्र के घनत्व के साथ वितरण अगर मानक निचला अर्ध-विचलन है, जहां , और ए, बी, सी स्थिरांक हैं।[10]


अन्य उदाहरण

नीचे दी गई तालिका में, प्रत्येक सूचीबद्ध वितरण तीसरे कॉलम में सूचीबद्ध कार्यात्मक बाधाओं के विशेष सेट के लिए एन्ट्रापी को अधिकतम करता है, और यह बाधा कि x को संभाव्यता घनत्व के समर्थन में शामिल किया जाता है, जो चौथे कॉलम में सूचीबद्ध है।[6][7]सूचीबद्ध कई उदाहरण (बर्नौली, ज्यामितीय, घातीय, लाप्लास, पेरेटो) तुच्छ रूप से सत्य हैं क्योंकि उनकी संबद्ध बाधाएं उनकी एन्ट्रॉपी के असाइनमेंट के बराबर हैं। उन्हें वैसे भी शामिल किया गया है क्योंकि उनकी बाधा सामान्य या आसानी से मापी जाने वाली मात्रा से संबंधित है। संदर्भ के लिए, गामा फ़ंक्शन है, डिगामा फ़ंक्शन है, बीटा फ़ंक्शन है, और γE यूलर-माशेरोनी स्थिरांक है।

Table of probability distributions and corresponding maximum entropy constraints
Distribution Name Probability density/mass function Maximum Entropy Constraint Support
Uniform (discrete) None
Uniform (continuous) None
Bernoulli
Geometric
Exponential
Laplace Failed to parse (Conversion error. Server ("cli") reported: "SyntaxError: Expected "-", "[", "\\", "\\begin", "\\begin{", "]", "^", "_", "{", "}", [ \t\n\r], [%$], [().], [,:;?!'], [/|], [0-9], [><~], [\-+*=], or [a-zA-Z] but "ब" found.in 1:64"): {\displaystyle f(x) = \frac{1}{2b} \exp\left(-\frac{|x - \mu|}{बी}\दाएं)</गणित> || गणित>\ऑपरेटरनाम{E}(|x-\mu|)=b\,}
असममित लाप्लास वितरण
पेरेटो वितरण
सामान्य वितरण
सामान्य वितरण छोटा कर दिया गया (लेख देखें)
वॉन मिज़ कास्ट
रेले वितरण
बीटा वितरण के लिए
कॉची वितरण
ची वितरण
ची-वर्ग वितरण|ची-वर्ग
एर्लांग वितरण
गामा वितरण
लॉग-सामान्य वितरण
मैक्सवेल-बोल्ट्ज़मैन
वेइबुल वितरण
बहुभिन्नरूपी सामान्य वितरण
द्विपद वितरण [11]
पॉइसन वितरण [11]
लॉजिस्टिक वितरण

अधिकतम एन्ट्रापी सिद्धांत का उपयोग सांख्यिकीय मिश्रण की एन्ट्रापी को ऊपरी सीमा तक सीमित करने के लिए किया जा सकता है।[12]


यह भी देखें

टिप्पणियाँ

  1. For example, the class of all continuous distributions X on R with E(X) = 0 and E(X2) = E(X3) = 1 (see Cover, Ch 12).


उद्धरण

  1. Williams, D. (2001), Weighing the Odds, Cambridge University Press, ISBN 0-521-00618-X (pages 197-199).
  2. Bernardo, J. M., Smith, A. F. M. (2000), Bayesian Theory, Wiley. ISBN 0-471-49464-X (pages 209, 366)
  3. O'Hagan, A. (1994), Kendall's Advanced Theory of Statistics, Vol 2B, Bayesian Inference, Edward Arnold. ISBN 0-340-52922-9 (Section 5.40)
  4. Botev, Z. I.; Kroese, D. P. (2011). "संभाव्यता घनत्व अनुमान के अनुप्रयोगों के साथ सामान्यीकृत क्रॉस एन्ट्रॉपी विधि" (PDF). Methodology and Computing in Applied Probability. 13 (1): 1–27. doi:10.1007/s11009-009-9133-7. S2CID 18155189.
  5. Botev, Z. I.; Kroese, D. P. (2008). "असतत डेटा के घनत्व अनुमान के लिए गैर-स्पर्शोन्मुख बैंडविड्थ चयन". Methodology and Computing in Applied Probability. 10 (3): 435. doi:10.1007/s11009-007-9057-z. S2CID 122047337.
  6. 6.0 6.1 6.2 Lisman, J. H. C.; van Zuylen, M. C. A. (1972). "सर्वाधिक संभावित आवृत्ति वितरणों की उत्पत्ति पर ध्यान दें". Statistica Neerlandica. 26 (1): 19–23. doi:10.1111/j.1467-9574.1972.tb00152.x.
  7. 7.0 7.1 Park, Sung Y.; Bera, Anil K. (2009). "अधिकतम एन्ट्रापी ऑटोरेग्रेसिव कंडीशनल हेटेरोस्केडैस्टिसिटी मॉडल" (PDF). Journal of Econometrics. 150 (2): 219–230. CiteSeerX 10.1.1.511.9750. doi:10.1016/j.jeconom.2008.12.014. Archived from the original (PDF) on 2016-03-07. Retrieved 2011-06-02.
  8. Dowson, D.; Wragg, A. (September 1973). "अधिकतम-एन्ट्रापी वितरण जिसमें पहले और दूसरे क्षण निर्धारित हैं". IEEE Transactions on Information Theory (correspondance). 19 (5): 689–693. doi:10.1109/tit.1973.1055060. ISSN 0018-9448.
  9. 9.0 9.1 Jammalamadaka, S. Rao; SenGupta, A. (2001). वृत्ताकार सांख्यिकी में विषय. New Jersey: World Scientific. ISBN 978-981-02-3778-3. Retrieved 2011-05-15.
  10. 10.0 10.1 Grechuk, B., Molyboha, A., Zabarankin, M. (2009) Maximum Entropy Principle with General Deviation Measures, Mathematics of Operations Research 34(2), 445--467, 2009.
  11. 11.0 11.1 Harremös, Peter (2001), "Binomial and Poisson distributions as maximum entropy distributions", IEEE Transactions on Information Theory, 47 (5): 2039–2041, doi:10.1109/18.930936, S2CID 16171405.
  12. Frank Nielsen; Richard Nock (2017). "MaxEnt upper bounds for the differential entropy of univariate continuous distributions". IEEE Signal Processing Letters. IEEE. 24 (4): 402-406. Bibcode:2017ISPL...24..402N. doi:10.1109/LSP.2017.2666792. S2CID 14092514.


संदर्भ