अधिकतम एन्ट्रापी संभाव्यता वितरण: Difference between revisions
No edit summary |
No edit summary |
||
(12 intermediate revisions by 3 users not shown) | |||
Line 1: | Line 1: | ||
{{Short description|Probability distribution that has the most entropy of a class}}सांख्यिकी और [[सूचना सिद्धांत]] में, अधिकतम एन्ट्रापी संभाव्यता वितरण में [[सूचना एन्ट्रापी]] होती है जो कम से कम संभाव्यता वितरण के निर्दिष्ट वर्ग के अन्य सभी सदस्यों जितनी महान होती है। अधिकतम एन्ट्रापी के सिद्धांत के अनुसार, यदि किसी वितरण के बारे में कुछ भी ज्ञात नहीं है, | {{Short description|Probability distribution that has the most entropy of a class}}सांख्यिकी और [[सूचना सिद्धांत]] में, '''अधिकतम एन्ट्रापी संभाव्यता वितरण''' में [[सूचना एन्ट्रापी]] होती है जो कम से कम संभाव्यता वितरण के निर्दिष्ट वर्ग के अन्य सभी सदस्यों जितनी महान होती है। अधिकतम एन्ट्रापी के सिद्धांत के अनुसार, यदि किसी वितरण के बारे में कुछ भी ज्ञात नहीं है, अतिरिक्त इसके कि वह निश्चित वर्ग (सामान्यतः निर्दिष्ट गुणों या मापों के संदर्भ में परिभाषित) से संबंधित है, तो सबसे बड़ी एन्ट्रापी वाले वितरण को सबसे कम जानकारी वाले डिफ़ॉल्ट के रूप में चुना जाना चाहिए। प्रेरणा दुगनी है: सबसे पहले, एन्ट्रापी को अधिकतम करने से वितरण में निर्मित पूर्व संभाव्यता की मात्रा कम हो जाती है; दूसरा, कई भौतिक प्रणालियाँ समय के साथ अधिकतम एन्ट्रापी विन्यास की ओर बढ़ती हैं। | ||
== एन्ट्रापी और विभेदक एन्ट्रापी की परिभाषा == | == एन्ट्रापी और विभेदक एन्ट्रापी की परिभाषा == | ||
{{further| | {{further|एन्ट्रॉपी (सूचना सिद्धांत)}} | ||
यदि <math>X</math> वितरण के साथ [[असतत यादृच्छिक चर|असतत यादृच्छिक वेरिएबल]] है | |||
:<math>\operatorname{Pr}(X=x_k) = p_k \quad\mbox{ for } k=1,2,\ldots</math> | :<math>\operatorname{Pr}(X=x_k) = p_k \quad\mbox{ for } k=1,2,\ldots</math> | ||
फिर की एन्ट्रापी <math>X</math> परिभाषित किया जाता है | फिर की एन्ट्रापी <math>X</math> परिभाषित किया जाता है | ||
:<math>H(X) = - \sum_{k\ge 1}p_k\log p_k .</math> | :<math>H(X) = - \sum_{k\ge 1}p_k\log p_k .</math> | ||
यदि <math>X</math> संभाव्यता घनत्व फ़ंक्शन के साथ [[सतत यादृच्छिक चर|सतत यादृच्छिक वेरिएबल]] <math>p(x)</math> है, फिर अंतर एन्ट्रापी <math>X</math> परिभाषित किया जाता है<ref>Williams, D. (2001), ''Weighing the Odds'', [[Cambridge University Press]], {{ISBN|0-521-00618-X}} (pages 197-199).</ref><ref>Bernardo, J. M., Smith, A. F. M. (2000), ''Bayesian Theory'', Wiley. {{ISBN|0-471-49464-X}} (pages 209, 366)</ref><ref>O'Hagan, A. (1994), ''Kendall's Advanced Theory of Statistics, Vol 2B, Bayesian Inference'', [[Edward Arnold (publisher)|Edward Arnold]]. {{ISBN|0-340-52922-9}} (Section 5.40)</ref> | |||
:<math>H(X) = - \int_{-\infty}^\infty p(x)\log p(x)\, dx.</math> | :<math>H(X) = - \int_{-\infty}^\infty p(x)\log p(x)\, dx.</math> | ||
जब भी <math>p(x) = 0</math> होता है तो मात्रा <math>p(x)\log p(x)</math> शून्य समझा जाता है। | |||
यह [[एन्ट्रॉपी (सूचना सिद्धांत)]], अधिकतम एन्ट्रॉपी का सिद्धांत, और अंतर एन्ट्रॉपी लेखों में वर्णित अधिक सामान्य रूपों का विशेष | यह [[एन्ट्रॉपी (सूचना सिद्धांत)]], अधिकतम एन्ट्रॉपी का सिद्धांत, और अंतर एन्ट्रॉपी लेखों में वर्णित अधिक सामान्य रूपों का विशेष स्थिति है। अधिकतम एन्ट्रॉपी वितरण के संबंध में, यह एकमात्र आवश्यक है, क्योंकि <math>H(X)</math> को अधिकतम करने से अधिक सामान्य रूप भी अधिकतम हो जाएंगे। | ||
लघुगणक का आधार तब तक महत्वपूर्ण नहीं है जब तक कि ही का लगातार उपयोग किया जाता है: आधार के परिवर्तन से केवल एन्ट्रापी में पुनः वृद्धि होती है। सूचना सिद्धांतकार एन्ट्रापी को [[ अंश ]] | लघुगणक का आधार तब तक महत्वपूर्ण नहीं है जब तक कि ही का लगातार उपयोग किया जाता है: आधार के परिवर्तन से केवल एन्ट्रापी में पुनः वृद्धि होती है। सूचना सिद्धांतकार एन्ट्रापी को [[ अंश | बिट्स]] में व्यक्त करने के लिए आधार 2 का उपयोग करना पसंद कर सकते हैं; गणितज्ञ और भौतिक विज्ञानी अधिकांश [[प्राकृतिक]] लघुगणक को प्राथमिकता देंगे, जिसके परिणामस्वरूप एन्ट्रापी के लिए [[नेट (इकाई)|नेट्स (इकाई)]] की एक इकाई बनेगी। | ||
माप | चूँकि, माप <math>dx</math> का चुनाव एन्ट्रापी और परिणामी अधिकतम एन्ट्रापी वितरण को निर्धारित करने में महत्वपूर्ण है, यद्यपि [[लेब्सेग माप]] के सामान्य सहारा को अक्सर "प्राकृतिक" के रूप में बचाव किया जाता है। | ||
== मापा स्थिरांक के साथ वितरण == | == मापा स्थिरांक के साथ वितरण == | ||
लागू हित के कई सांख्यिकीय वितरण वे हैं जिनके लिए [[क्षण (गणित)]] या अन्य मापनीय मात्राएँ स्थिरांक होने के लिए बाध्य हैं। [[लुडविग बोल्ट्ज़मान]] द्वारा निम्नलिखित प्रमेय इन बाधाओं के | लागू हित के कई सांख्यिकीय वितरण वे हैं जिनके लिए [[क्षण (गणित)]] या अन्य मापनीय मात्राएँ स्थिरांक होने के लिए बाध्य हैं। [[लुडविग बोल्ट्ज़मान]] द्वारा निम्नलिखित प्रमेय इन बाधाओं के अनुसार संभाव्यता घनत्व का रूप देता है। | ||
=== सतत | === सतत स्थिति === | ||
मान लीजिए कि <math> S </math> [[वास्तविक संख्या|वास्तविक संख्याओं]] <math>\mathbb{R}</math> का एक संवृत उपसमुच्चय है और हम <math> n </math> [[मापने योग्य कार्य|मापने योग्य फ़ंक्शन]], <math> f_1, \cdots,f_n </math> और <math>n</math> संख्याओं <math>a_1, \ldots, a_n</math> को निर्दिष्ट करना चुनते हैं। हम सभी वास्तविक-मूल्य वाले यादृच्छिक वेरिएबल के वर्ग <math> C </math> पर विचार करते हैं जो <math> S </math> (अर्थात् जिसका घनत्व फलन <math> S </math> के बाहर शून्य है) पर समर्थित हैं और जो <math> n </math> क्षण की शर्तों को पूरा करते हैं: | |||
:<math>\mathbb{E}[f_j(X)] \geq a_j\quad\mbox{ for } j=1,\ldots,n</math> | |||
:<math>\mathbb{E}[f_j(X)] \geq a_j\quad\mbox{ for } j=1,\ldots,n</math> यदि | :यदि <math> C </math> में कोई सदस्य है जिसका घनत्व फ़ंक्शन <math> S </math> में प्रत्येक स्थान धनात्मक है, और यदि <math> C </math> के लिए अधिकतम एन्ट्रापी वितरण उपस्थित है, तो इसकी संभाव्यता घनत्व <math> p(x) </math> का निम्न रूप है: | ||
:<math>p(x)=\exp\left(\sum_{j=0}^n \lambda_j f_j(x)\right)\quad \mbox{ for all } x\in S</math> | :<math>p(x)=\exp\left(\sum_{j=0}^n \lambda_j f_j(x)\right)\quad \mbox{ for all } x\in S</math> | ||
जहां हम | जहां हम मानते हैं कि <math>f_0(x)=1</math> है। स्थिरांक <math>\lambda_0</math> और <math> n </math> [[लैग्रेंज गुणक]] <math>\boldsymbol\lambda=(\lambda_1,\ldots,\lambda_n)</math>, <math>a_0=1</math> (यह स्थिति सुनिश्चित करती है कि <math>p </math> एकता में एकीकृत हो) के साथ बाधित अनुकूलन समस्या का समाधान करते हैं:<ref>{{cite journal |last1=Botev |first1=Z. I. | last2=Kroese | first2=D. P. |year=2011 |title=संभाव्यता घनत्व अनुमान के अनुप्रयोगों के साथ सामान्यीकृत क्रॉस एन्ट्रॉपी विधि|journal=Methodology and Computing in Applied Probability |volume=13 |issue=1 |pages=1–27 |doi=10.1007/s11009-009-9133-7 |s2cid=18155189 |url=http://espace.library.uq.edu.au/view/UQ:200564/UQ200564_preprint.pdf}}</ref> | ||
<ref>{{cite journal |last1=Botev |first1=Z. I. | last2=Kroese | first2=D. P. |year=2011 |title=संभाव्यता घनत्व अनुमान के अनुप्रयोगों के साथ सामान्यीकृत क्रॉस एन्ट्रॉपी विधि|journal=Methodology and Computing in Applied Probability |volume=13 |issue=1 |pages=1–27 |doi=10.1007/s11009-009-9133-7 |s2cid=18155189 |url=http://espace.library.uq.edu.au/view/UQ:200564/UQ200564_preprint.pdf}}</ref> | |||
:<math>\max_{\lambda_0;\boldsymbol\lambda} \left\{\sum_{j=0}^n \lambda_ja_j-\int \exp\left(\sum_{j=0}^n \lambda_jf_j(x)\right)dx\right\}\quad \mathrm{subject\;to: \;\;} \boldsymbol\lambda\geq\mathbf{0}</math> | :<math>\max_{\lambda_0;\boldsymbol\lambda} \left\{\sum_{j=0}^n \lambda_ja_j-\int \exp\left(\sum_{j=0}^n \lambda_jf_j(x)\right)dx\right\}\quad \mathrm{subject\;to: \;\;} \boldsymbol\lambda\geq\mathbf{0}</math> | ||
करुश-कुह्न-टकर स्थितियों का उपयोग करके, यह दिखाया जा सकता है कि अनुकूलन समस्या का | करुश-कुह्न-टकर स्थितियों का उपयोग करके, यह दिखाया जा सकता है कि अनुकूलन समस्या का अद्धितीय समाधान है क्योंकि अनुकूलन में उद्देश्य फ़ंक्शन <math>\boldsymbol\lambda</math> अवतल है। | ||
ध्यान दें कि यदि क्षणिक स्थितियाँ समानताएँ | ध्यान दें कि यदि क्षणिक स्थितियाँ समानताएँ (असमानताओं के अतिरिक्त) हैं, अर्थात, | ||
:<math>\mathbb{E}[f_j(X)] = a_j\quad\mbox{ for } j=1,\ldots,n,</math> फिर बाधा की स्थिति <math>\boldsymbol\lambda\geq\mathbf{0} </math> हटा दिया गया है, जिससे लैग्रेंज मल्टीप्लायरों पर अनुकूलन अप्रतिबंधित हो गया है। | :<math>\mathbb{E}[f_j(X)] = a_j\quad\mbox{ for } j=1,\ldots,n,</math> फिर बाधा की स्थिति <math>\boldsymbol\lambda\geq\mathbf{0} </math> हटा दिया गया है, जिससे लैग्रेंज मल्टीप्लायरों पर अनुकूलन अप्रतिबंधित हो गया है। | ||
=== असतत | === असतत स्थिति === | ||
मान लीजिए <math>S = \{x_1, x_2, ...\}</math> वास्तविक का एक (परिमित या अनंत) असतत उपसमुच्चय है और हम <math>n</math> फ़ंक्शन f<sub>1</sub>,...,f<sub>''n''</sub> और n संख्या a<sub>1</sub>,...,a<sub>''n''</sub> निर्दिष्ट करना चुनते हैं . हम सभी असतत यादृच्छिक वेरिएबल X के वर्ग C पर विचार करते हैं जो S पर समर्थित हैं और जो n क्षण की शर्तों को पूरा करते हैं | |||
:<math>\operatorname{E}(f_j(X)) \geq a_j\quad\mbox{ for } j=1,\ldots,n</math> यदि C का कोई सदस्य | :<math>\operatorname{E}(f_j(X)) \geq a_j\quad\mbox{ for } j=1,\ldots,n</math> | ||
:यदि C का कोई सदस्य उपस्थित है जो S के सभी सदस्यों को धनात्मक संभावना प्रदान करता है और यदि C के लिए अधिकतम एन्ट्रापी वितरण उपस्थित है, तो इस वितरण का निम्नलिखित आकार है: | |||
:<math>\operatorname{Pr}(X=x_k)=\exp\left(\sum_{j=0}^n \lambda_j f_j(x_k)\right)\quad \mbox{ for } k=1,2,\ldots</math> | :<math>\operatorname{Pr}(X=x_k)=\exp\left(\sum_{j=0}^n \lambda_j f_j(x_k)\right)\quad \mbox{ for } k=1,2,\ldots</math> | ||
जहां हम | जहां हम मानते हैं कि <math>f_0=1</math> और स्थिरांक <math>\lambda_0,\;\boldsymbol\lambda=(\lambda_1,\ldots,\lambda_n)</math> <math>a_0=1</math> के साथ विवश अनुकूलन समस्या का समाधान करते हैं:<ref>{{cite journal |last1=Botev |first1=Z. I. | last2=Kroese | first2=D. P. |year=2008 |title=असतत डेटा के घनत्व अनुमान के लिए गैर-स्पर्शोन्मुख बैंडविड्थ चयन|journal=Methodology and Computing in Applied Probability |volume=10 |issue=3 |pages=435 |doi=10.1007/s11009-007-9057-z|s2cid=122047337 }}</ref> | ||
:<math>\max_{\lambda_0;\boldsymbol\lambda} \left\{\sum_{j=0}^n \lambda_ja_j-\sum_{k\geq 1}\exp\left(\sum_{j=0}^n \lambda_jf_j(x_k)\right)\right\}\quad\mathrm{subject\;to:\;\;} \boldsymbol\lambda\geq\mathbf{0}</math> | :<math>\max_{\lambda_0;\boldsymbol\lambda} \left\{\sum_{j=0}^n \lambda_ja_j-\sum_{k\geq 1}\exp\left(\sum_{j=0}^n \lambda_jf_j(x_k)\right)\right\}\quad\mathrm{subject\;to:\;\;} \boldsymbol\lambda\geq\mathbf{0}</math> | ||
पुनः, यदि क्षण स्थितियाँ समानताएँ | पुनः, यदि क्षण स्थितियाँ समानताएँ (असमानताओं के अतिरिक्त) हैं, तो बाधा स्थिति <math>\boldsymbol\lambda\geq\mathbf{0} </math> अनुकूलन में उपस्थित नहीं है। | ||
===समानता बाधाओं के | ===समानता बाधाओं के स्थिति में प्रमाण=== | ||
समानता बाधाओं | समानता बाधाओं की स्थिति में, यह प्रमेय [[विविधताओं की गणना]] और [[लैग्रेंज गुणक|लैग्रेंज गुणकों]] के साथ सिद्ध होता है। बाधाओं को इस प्रकार लिखा जा सकता है | ||
:<math>\int_{-\infty}^{\infty}f_j(x)p(x)dx=a_j</math> | :<math>\int_{-\infty}^{\infty}f_j(x)p(x)dx=a_j</math> | ||
Line 49: | Line 49: | ||
:<math>J(p)=\int_{-\infty}^{\infty} p(x)\ln{p(x)}dx-\eta_0\left(\int_{-\infty}^{\infty} p(x)dx-1\right)-\sum_{j=1}^{n}\lambda_j\left(\int_{-\infty}^{\infty} f_j(x)p(x)dx-a_j\right)</math> | :<math>J(p)=\int_{-\infty}^{\infty} p(x)\ln{p(x)}dx-\eta_0\left(\int_{-\infty}^{\infty} p(x)dx-1\right)-\sum_{j=1}^{n}\lambda_j\left(\int_{-\infty}^{\infty} f_j(x)p(x)dx-a_j\right)</math> | ||
जहाँ <math>\eta_0</math> और <math>\lambda_j, j\geq 1</math> लैग्रेंज गुणक हैं। शून्यवाँ अवरोध संभाव्यता स्वयंसिद्ध#दूसरा सिद्धांत सुनिश्चित करता है। अन्य बाधाएं यह हैं कि फ़ंक्शन के माप को क्रम <math>n</math> के अनुसार स्थिरांक दिए जाते है। जब [[कार्यात्मक व्युत्पन्न]] शून्य के बराबर होता है तो एन्ट्रापी चरम सीमा पर पहुंच जाती है: | |||
:<math>\frac{\delta J}{\delta p}\left(p\right)=\ln{p(x)}+1-\eta_0-\sum_{j=1}^{n}\lambda_j f_j(x)=0</math> | :<math>\frac{\delta J}{\delta p}\left(p\right)=\ln{p(x)}+1-\eta_0-\sum_{j=1}^{n}\lambda_j f_j(x)=0</math> | ||
इसलिए, इस | इसलिए, इस स्थिति में चरम एन्ट्रापी संभाव्यता वितरण (<math>\lambda_0:=\eta_0-1</math>) के रूप का होना चाहिए, | ||
:<math>p(x)=e^{-1+\eta_0}\cdot e^{\sum_{j=1}^{n}\lambda_j f_j(x)} = \exp\left(\sum_{j=0}^{n}\lambda_j f_j(x)\right) \;,</math> | :<math>p(x)=e^{-1+\eta_0}\cdot e^{\sum_{j=1}^{n}\lambda_j f_j(x)} = \exp\left(\sum_{j=0}^{n}\lambda_j f_j(x)\right) \;,</math> | ||
याद रखें कि <math>f_0(x) = 1</math> है। यह जाँच कर सत्यापित किया जा सकता है कि यह अधिकतम समाधान है कि इस समाधान के आसपास भिन्नता हमेशा ऋणात्मक होती है। | |||
=== अधिकतम की विशिष्टता === | === अधिकतम की विशिष्टता === | ||
मान लीजिए कि <math>p</math>, <math>p'</math> अपेक्षा-बाधाओं को संतुष्ट करने वाले वितरण हैं। <math>\alpha\in(0,1)</math> माने और वितरण <math>q=\alpha\cdot p+(1-\alpha)\cdot p'</math> पर विचार करने से यह स्पष्ट है कि यह वितरण अपेक्षा-बाधाओं को संतुष्ट करता है और इसके अतिरिक्त <math>\mathrm{supp}(q)=\mathrm{supp}(p)\cup \mathrm{supp}(p')</math> का समर्थन करता है। एन्ट्रापी के बारे में मुलभुत तथ्यों से यह माना जाता है कि <math>\mathcal{H}(q)\geq \alpha\mathcal{H}(p)+(1-\alpha)\mathcal{H}(p')</math>। क्रमशः सीमा <math>\alpha\longrightarrow 1</math> और <math>\alpha\longrightarrow 0</math> लेने पर <math>\mathcal{H}(q)\geq \mathcal{H}(p),\mathcal{H}(p')</math> प्राप्त होता है | |||
इसका तात्पर्य यह है कि अपेक्षा-बाधाओं को संतुष्ट करने वाले और एन्ट्रापी को अधिकतम करने वाले वितरण को आवश्यक रूप से पूर्ण समर्थन | इसका तात्पर्य यह है कि अपेक्षा-बाधाओं को संतुष्ट करने वाले और एन्ट्रापी को अधिकतम करने वाले वितरण को आवश्यक रूप से पूर्ण समर्थन होना चाहिए। वितरण लगभग प्रत्येक स्थान सकारात्मक है। इसका तात्पर्य यह है कि अधिकतम वितरण अपेक्षा-बाधाओं को संतुष्ट करने वाले वितरण के स्थान में एक आंतरिक बिंदु होना चाहिए, अर्थात यह एक स्थानीय चरम होना चाहिए। इस प्रकार यह दिखाना पर्याप्त है कि स्थानीय चरम अद्वितीय है, दोनों को यह दिखाने के लिए कि एन्ट्रापी-अधिकतम वितरण अद्वितीय है (और इससे यह भी पता चलता है कि स्थानीय चरम वैश्विक अधिकतम है)। | ||
उपरोक्त गणनाओं को पुन: स्वरूपित करते हुए इन्हें पैरामीटर एल, आर से पी(एक्स और इसी तरह) पी, जहां डीएक्स द्वारा चित्रित किया गया है। | |||
मान लीजिए कि <math>p,p'</math> स्थानीय चरम सीमाएँ हैं। उपरोक्त गणनाओं को पुन: स्वरूपित करते हुए इन्हें मापदंडों <math>\vec{\lambda},\vec{\lambda}'\in\mathbb{R}^{n}</math> से <math>p(x)=\frac{e^{\langle\vec{\lambda},\vec{f}(x)\rangle}}{C(\vec{\lambda})}</math> और इसी तरह के लिए <math>p'</math>, जहाँ <math>C(\vec{\lambda})=\int_{x\in\mathbb{R}} e^{\langle\vec{\lambda},\vec{f}(x)\rangle}~dx</math> है। अब हम पहचानों की श्रृंखला पर ध्यान देते हैं: अपेक्षा-बाधाओं की संतुष्टि और ग्रेडिएंट/दिशात्मक डेरिवेटिव का उपयोग करके, किसी के पास है <math>D\log(C(\cdot))\vert_{\vec{\lambda}}=\left.\frac{DC(\cdot)}{C(\cdot)}\right|_{\vec{\lambda}}=\mathbb{E}_{p}[\vec{f}(X)]=\vec{a}</math> और इसी प्रकार <math>\vec{\lambda}'</math> के लिए। मान ले <math>u=\vec{\lambda}'-\vec{\lambda}\in\mathbb{R}^{n}</math> कोई प्राप्त करता है: | |||
:<math> | :<math> | ||
Line 69: | Line 71: | ||
=D_{u}^{2}\log(C(\cdot))\vert_{\vec{\gamma}} | =D_{u}^{2}\log(C(\cdot))\vert_{\vec{\gamma}} | ||
</math> | </math> | ||
जहाँ <math>\vec{\gamma}=\theta\vec{\lambda}+(1-\theta)\vec{\lambda}'</math> कुछ के लिए <math>\theta\in(0,1)</math> हैं। आगे की गणना करना किसी के पास है | |||
:<math> | :<math> | ||
Line 80: | Line 82: | ||
\end{array} | \end{array} | ||
</math> | </math> | ||
जहाँ <math>q</math> उपरोक्त वितरण के समान है, केवल पैरामीटरयुक्त है <math>\vec{\gamma}</math>. यह मानते हुए कि वेधशालाओं का कोई भी गैर-तुच्छ रैखिक संयोजन लगभग हर जगह (एई) स्थिर नहीं है, (उदाहरण के लिए यदि वेधशालाएं स्वतंत्र हैं और यानी स्थिर नहीं हैं), तो यह माना जाता है कि <math>\langle u,\vec{f}(X)\rangle</math> गैर-शून्य विचरण है, जब तक कि <math>u=0</math> न हो। उपरोक्त समीकरण से यह स्पष्ट है कि उत्तरार्द्ध स्थिति होना चाहिए। इस तरह <math>\vec{\lambda}'-\vec{\lambda}=u=0</math>, इसलिए स्थानीय एक्स्ट्रेमा की विशेषता बताने वाले पैरामीटर <math>p,p'</math> समान हैं, जिसका अर्थ है कि वितरण स्वयं समान हैं। इस प्रकार, स्थानीय चरम अद्वितीय है और उपरोक्त चर्चा के अनुसार, अधिकतम अद्वितीय है - बशर्ते कि स्थानीय चरम वास्तव में उपस्थित हो। | |||
===चेतावनी === | ===चेतावनी === | ||
ध्यान दें कि वितरण के सभी वर्गों में अधिकतम एन्ट्रापी वितरण नहीं होता है। यह संभव है कि किसी वर्ग में मनमाने ढंग से बड़े एन्ट्रॉपी के वितरण हों (उदाहरण के लिए आर पर सभी निरंतर वितरणों का वर्ग जिसका मतलब 0 है | ध्यान दें कि वितरण के सभी वर्गों में अधिकतम एन्ट्रापी वितरण नहीं होता है। यह संभव है कि किसी वर्ग में मनमाने ढंग से बड़े एन्ट्रॉपी के वितरण हों (उदाहरण के लिए आर पर सभी निरंतर वितरणों का वर्ग जिसका मतलब 0 है किन्तु स्वैच्छिक मानक विचलन है), या कि एन्ट्रॉपी ऊपर सीमित हैं किन्तु कोई वितरण नहीं है जो अधिकतम एन्ट्रॉपी प्राप्त करता है।<ref group=lower-alpha>For example, the class of all continuous distributions ''X'' on '''R''' with {{nowrap|E(''X'') {{=}} 0}} and {{nowrap|E(''X''<sup>2</sup>) {{=}} E(''X''<sup>3</sup>) {{=}} 1}} (see Cover, Ch 12).</ref> यह भी संभव है कि वर्ग सी के लिए अपेक्षित मूल्य प्रतिबंध S के कुछ सबसेट में संभाव्यता वितरण को शून्य होने के लिए विवश करते हैं। उस स्थिति में हमारी प्रमेय लागू नहीं होता है, किन्तु सेट एस को सिकोड़कर कोई इसके आसपास काम कर सकता है। | ||
== उदाहरण == | == उदाहरण == | ||
प्रत्येक संभाव्यता वितरण इस बाधा के तहत तुच्छ रूप से अधिकतम एन्ट्रापी संभाव्यता वितरण है कि वितरण की अपनी एन्ट्रापी है। इसे देखने के लिए घनत्व को | प्रत्येक संभाव्यता वितरण इस बाधा के तहत तुच्छ रूप से एक अधिकतम एन्ट्रापी संभाव्यता वितरण है कि वितरण की अपनी एन्ट्रापी है। इसे देखने के लिए, घनत्व को <math>p(x)=\exp{(\ln{p(x)})}</math> के रूप में फिर से लिखें और उपरोक्त प्रमेय की अभिव्यक्ति से तुलना करें। मापने योग्य फ़ंक्शन के रूप में <math>\ln{p(x)} \rightarrow f(x)</math> को चुनकर और | ||
:<math>\int \exp{(f(x))} f(x) dx=-H</math> | :<math>\int \exp{(f(x))} f(x) dx=-H</math> | ||
स्थिर रहना, <math>p(x)</math> बाधा के | स्थिर रहना, <math>p(x)</math> बाधा के अनुसार अधिकतम एन्ट्रापी संभाव्यता वितरण है | ||
:<math>\int p(x)f(x)dx=-H</math>. | :<math>\int p(x)f(x)dx=-H</math>. | ||
गैर-तुच्छ उदाहरण ऐसे वितरण हैं जो कई बाधाओं के अधीन हैं जो एन्ट्रापी के असाइनमेंट से भिन्न हैं। इन्हें | गैर-तुच्छ उदाहरण ऐसे वितरण हैं जो कई बाधाओं के अधीन हैं जो एन्ट्रापी के असाइनमेंट से भिन्न हैं। इन्हें अधिकांश ही प्रक्रिया से प्रारंभ करके <math>\ln{p(x)} \rightarrow f(x)</math> पाया जाता है और उसे ढूँढना <math>f(x)</math> भागों में विभाजित किया जा सकता है। | ||
अधिकतम एन्ट्रापी वितरण के उदाहरणों की एक तालिका लिस्मान (1972)<ref name="ReferenceA">{{cite journal |last1=Lisman |first1=J. H. C. |last2=van Zuylen |first2=M. C. A. |year=1972 |title=सर्वाधिक संभावित आवृत्ति वितरणों की उत्पत्ति पर ध्यान दें|journal=Statistica Neerlandica |volume=26 |issue=1 |pages=19–23 |doi=10.1111/j.1467-9574.1972.tb00152.x}}</ref> और पार्क एंड बेरा (2009) में दी गई है।<ref name="Elsevier">{{cite journal |last1=Park |first1=Sung Y. |last2=Bera |first2=Anil K. |year=2009 |title=अधिकतम एन्ट्रापी ऑटोरेग्रेसिव कंडीशनल हेटेरोस्केडैस्टिसिटी मॉडल|journal=Journal of Econometrics |volume=150 |issue=2 |pages=219–230 |doi=10.1016/j.jeconom.2008.12.014 |url=http://www.wise.xmu.edu.cn/Master/Download/..%5C..%5CUploadFiles%5Cpaper-masterdownload%5C2009519932327055475115776.pdf |access-date=2011-06-02 |citeseerx=10.1.1.511.9750 |archive-url=https://web.archive.org/web/20160307144515/http://wise.xmu.edu.cn/uploadfiles/paper-masterdownload/2009519932327055475115776.pdf |archive-date=2016-03-07 |url-status=dead }}</ref> | |||
=== समान और टुकड़े-टुकड़े समान वितरण === | === समान और टुकड़े-टुकड़े समान वितरण === | ||
अंतराल [ | अंतराल [''a'',''b''] पर [[समान वितरण (निरंतर)]] सभी निरंतर वितरणों के बीच अधिकतम एन्ट्रापी वितरण है जो अंतराल [''a'',''b''] में समर्थित हैं, और इस प्रकार अंतराल के बाहर संभाव्यता घनत्व 0 है। यह एकसमान घनत्व लाप्लास के उदासीनता के सिद्धांत से संबंधित हो सकता है, जिसे कभी-कभी अपर्याप्त कारण का सिद्धांत भी कहा जाता है। अधिक सामान्यतः, यदि हमें अंतराल [''a'',''b''] का एक उपविभाजन ''a''=''a''<sub>0</sub> < ''a''<sub>1</sub> < ... < ''a<sub>k</sub>'' = ''b'' दिया गया है और संभावनाएं p<sub>1</sub>,...,p<sub>k</sub> जो एक में जुड़ती हैं, तो हम इस पर विचार कर सकते हैं सभी सतत वितरणों का वर्ग जैसे कि | ||
:<math>\operatorname{Pr}(a_{j-1}\le X < a_j) = p_j \quad \mbox{ for } j=1,\ldots,k</math> | :<math>\operatorname{Pr}(a_{j-1}\le X < a_j) = p_j \quad \mbox{ for } j=1,\ldots,k</math> | ||
इस वर्ग के लिए अधिकतम एन्ट्रापी वितरण का घनत्व प्रत्येक अंतराल | इस वर्ग के लिए अधिकतम एन्ट्रापी वितरण का घनत्व प्रत्येक अंतराल [a<sub>j-1</sub>,a<sub>j</sub>) पर स्थिर है। परिमित सेट {x<sub>1</sub>,...,x<sub>n</sub>} पर समान वितरण (जो इनमें से प्रत्येक मान के लिए 1/n की संभावना निर्दिष्ट करता है) इस सेट पर समर्थित सभी असतत वितरणों के बीच अधिकतम एन्ट्रापी वितरण है। | ||
=== | === धनात्मक और निर्दिष्ट माध्य: घातीय वितरण === | ||
घातीय वितरण, जिसके लिए घनत्व फ़ंक्शन है | घातीय वितरण, जिसके लिए घनत्व फ़ंक्शन है | ||
Line 115: | Line 117: | ||
[0,∞) में समर्थित सभी निरंतर वितरणों के बीच अधिकतम एन्ट्रापी वितरण है जिसका निर्दिष्ट माध्य 1/λ है। | [0,∞) में समर्थित सभी निरंतर वितरणों के बीच अधिकतम एन्ट्रापी वितरण है जिसका निर्दिष्ट माध्य 1/λ है। | ||
[0,∞) पर समर्थित वितरण के | [0,∞) पर समर्थित वितरण के स्थिति में, अधिकतम एन्ट्रापी वितरण पहले और दूसरे क्षण के बीच संबंधों पर निर्भर करता है। विशिष्ट मामलों में, यह घातीय वितरण हो सकता है, या कोई अन्य वितरण हो सकता है, या अपरिभाषित हो सकता है।<ref>{{Cite journal |last1=Dowson |first1=D. |last2=Wragg |first2=A. |date=September 1973 |title=अधिकतम-एन्ट्रापी वितरण जिसमें पहले और दूसरे क्षण निर्धारित हैं|type=correspondance |journal=IEEE Transactions on Information Theory |volume=19 |issue=5 |pages=689–693 |doi=10.1109/tit.1973.1055060 |issn=0018-9448}}</ref> | ||
Line 125: | Line 127: | ||
p(x| \mu, \sigma) = \frac{1}{\sigma \sqrt{2\pi} } e^{ -\frac{(x-\mu)^2}{2\sigma^2} }, | p(x| \mu, \sigma) = \frac{1}{\sigma \sqrt{2\pi} } e^{ -\frac{(x-\mu)^2}{2\sigma^2} }, | ||
</math> | </math> | ||
निर्दिष्ट विचरण σ के साथ (−∞,∞) पर समर्थित सभी वास्तविक | एक निर्दिष्ट विचरण σ<sup>2</sup> (एक विशेष क्षण) के साथ (−∞,∞) पर समर्थित सभी वास्तविक-मूल्यवान वितरणों के बीच अधिकतम एन्ट्रापी है। यही बात तब सच है जब माध्य μ और विचरण σ<sup>2</sup> निर्दिष्ट किया जाता है (पहले दो क्षण), क्योंकि एन्ट्रापी (−∞,∞) पर अनुवाद अपरिवर्तनीय है। इसलिए, सामान्यता की धारणा इन क्षणों से परे न्यूनतम पूर्व संरचनात्मक बाधा लगाती है। (व्युत्पत्ति के लिए विभेदक एन्ट्रापी लेख देखें।) | ||
=== निर्दिष्ट माध्य के साथ असतत वितरण === | === निर्दिष्ट माध्य के साथ असतत वितरण === | ||
सेट पर समर्थित सभी असतत वितरणों के बीच {x<sub>1</sub>,..., | सेट पर समर्थित सभी असतत वितरणों के बीच {x<sub>1</sub>,...,x<sub>''n''</sub>} निर्दिष्ट माध्य μ के साथ, अधिकतम एन्ट्रापी वितरण का आकार निम्नलिखित है: | ||
:<math>\operatorname{Pr}(X=x_k) = Cr^{x_k} \quad\mbox{ for } k=1,\ldots, n</math> | :<math>\operatorname{Pr}(X=x_k) = Cr^{x_k} \quad\mbox{ for } k=1,\ldots, n</math> | ||
जहां | जहां धनात्मक स्थिरांक C और r को आवश्यकताओं द्वारा निर्धारित किया जा सकता है कि सभी संभावनाओं का योग 1 होना चाहिए और अपेक्षित मान μ होना चाहिए। | ||
उदाहरण के लिए, यदि बड़ी संख्या में N पासे फेंके जाते हैं, और आपको बताया जाता है कि सभी दिखाए गए नंबरों का योग S है। अकेले इस जानकारी के आधार पर, 1, 2 दिखाने वाले पासों की संख्या के लिए उचित धारणा क्या होगी। | उदाहरण के लिए, यदि बड़ी संख्या में N पासे फेंके जाते हैं, और आपको बताया जाता है कि सभी दिखाए गए नंबरों का योग S है। अकेले इस जानकारी के आधार पर, 1, 2..., 6? दिखाने वाले पासों की संख्या के लिए एक उचित धारणा क्या होगी। यह ऊपर मानी गई स्थिति का एक उदाहरण है, जिसमें, {''x''<sub>1</sub>,...,''x''<sub>6</sub>} = {1,...,6} और μ = ''S''/''N हैं''। | ||
अंत में, अनंत सेट पर समर्थित सभी असतत वितरणों के बीच <math>\{x_1, x_2,...\}</math> माध्य μ के साथ, अधिकतम एन्ट्रापी वितरण का आकार होता है: | अंत में, अनंत सेट पर समर्थित सभी असतत वितरणों के बीच <math>\{x_1, x_2,...\}</math> माध्य μ के साथ, अधिकतम एन्ट्रापी वितरण का आकार होता है: | ||
:<math>\operatorname{Pr}(X=x_k) = Cr^{x_k} \quad\mbox{ for } k=1,2,\ldots ,</math> | :<math>\operatorname{Pr}(X=x_k) = Cr^{x_k} \quad\mbox{ for } k=1,2,\ldots ,</math> | ||
जहां फिर से स्थिरांक सी और आर को आवश्यकताओं द्वारा निर्धारित किया गया था कि सभी संभावनाओं का योग 1 होना चाहिए और अपेक्षित मूल्य μ होना चाहिए। उदाहरण के लिए, उस | जहां फिर से स्थिरांक सी और आर को आवश्यकताओं द्वारा निर्धारित किया गया था कि सभी संभावनाओं का योग 1 होना चाहिए और अपेक्षित मूल्य μ होना चाहिए। उदाहरण के लिए, उस स्थिति में x<sub>k</sub> = k, यह देता है | ||
:<math>C = \frac{1}{\mu -1} , \quad\quad r = \frac{\mu - 1}{\mu} ,</math> | :<math>C = \frac{1}{\mu -1} , \quad\quad r = \frac{\mu - 1}{\mu} ,</math> | ||
ऐसा कि संबंधित अधिकतम एन्ट्रापी वितरण [[ज्यामितीय वितरण]] है। | ऐसा कि संबंधित अधिकतम एन्ट्रापी वितरण [[ज्यामितीय वितरण]] है। | ||
=== वृत्ताकार यादृच्छिक | === वृत्ताकार यादृच्छिक वेरिएबल === | ||
सतत यादृच्छिक | सतत यादृच्छिक वेरिएबल के लिए <math>\theta_i</math> यूनिट सर्कल के बारे में वितरित, वॉन मिज़ वितरण एन्ट्रापी को अधिकतम करता है जब पहले दिशात्मक आंकड़ों के वास्तविक और काल्पनिक भाग निर्दिष्ट होते हैं<ref name="SRJ">{{cite book |title=वृत्ताकार सांख्यिकी में विषय|last=Jammalamadaka |first=S. Rao |author2=SenGupta, A.|year=2001 |publisher=World Scientific |location=New Jersey |isbn=978-981-02-3778-3 |url=https://books.google.com/books?id=sKqWMGqQXQkC&q=Jammalamadaka+Topics+in+circular |access-date=2011-05-15}}</ref> या, समकक्ष, वृत्ताकार माध्य और [[वृत्ताकार विचरण]] निर्दिष्ट हैं। | ||
जब कोणों का माध्य और प्रसरण <math>\theta_i</math> मापांक <math>2\pi</math> निर्दिष्ट हैं, [[लपेटा हुआ सामान्य वितरण]] एन्ट्रापी को अधिकतम करता है।<ref name="SRJ"/> | जब कोणों का माध्य और प्रसरण <math>\theta_i</math> मापांक <math>2\pi</math> निर्दिष्ट हैं, [[लपेटा हुआ सामान्य वितरण]] एन्ट्रापी को अधिकतम करता है।<ref name="SRJ"/> | ||
=== निर्दिष्ट माध्य, विचरण और तिरछा के लिए | === निर्दिष्ट माध्य, विचरण और तिरछा के लिए अधिकतम === | ||
एक निर्दिष्ट माध्य, विचरण और तिरछा के साथ <math>\mathbb R</math> पर निरंतर यादृच्छिक वेरिएबल की एन्ट्रापी पर एक ऊपरी सीमा उपस्थित है। चूँकि, ऐसा कोई वितरण नहीं है जो इस ऊपरी सीमा को प्राप्त करता हो, क्योंकि <math>\lambda_3 \neq 0</math> (देखें कवर और थॉमस (2006: अध्याय 12)) होने पर <math>p(x) = c\exp{(\lambda_1x+\lambda_2x^2+\lambda_3x^3)}</math> असीमित है। | |||
चूँकि, अधिकतम एन्ट्रापी ε-प्राप्त करने योग्य है: एक वितरण की एन्ट्रापी स्वैच्छिक रूप से ऊपरी सीमा के करीब हो सकती है। निर्दिष्ट माध्य और विचरण के सामान्य वितरण से प्रारंभ करें। एक सकारात्मक तिरछा परिचय देने के लिए, माध्य से कई {{mvar|σ}} बड़े मान पर सामान्य वितरण को एक छोटी राशि से ऊपर की ओर परेशान करें। तिरछापन, तीसरे क्षण के समानुपाती होने के कारण, निचले क्रम के क्षणों की तुलना में अधिक प्रभावित होगा। | |||
यह सामान्य | यह सामान्य स्थिति का एक विशेष मामला है जिसमें x में किसी भी विषम-क्रम बहुपद का घातांक <math>\mathbb R</math> पर असीमित होगा। उदाहरण के लिए, <math>c e^{\lambda x}</math> इसी प्रकार <math>\mathbb R</math> पर अबाधित होगा, लेकिन जब समर्थन एक बाउंड या सेमी-बाउंड अंतराल तक सीमित होता है तो ऊपरी एन्ट्रापी बाउंड प्राप्त (उदाहरण के लिए यदि x अंतराल [0,∞] और λ< 0 में स्थित है, तो घातीय वितरण परिणाम होगा) किया जा सकता है। | ||
===निर्दिष्ट माध्य और [[विचलन जोखिम माप]] के लिए अधिकतमीकरण=== | ===निर्दिष्ट माध्य और [[विचलन जोखिम माप]] के लिए अधिकतमीकरण=== | ||
लॉगरिदमिक रूप से अवतल फ़ंक्शन के साथ प्रत्येक वितरण | लॉगरिदमिक रूप से अवतल फ़ंक्शन के साथ प्रत्येक वितरण लॉग-अवतल घनत्व निर्दिष्ट माध्य μ और विचलन जोखिम माप डी के साथ अधिकतम एन्ट्रापी वितरण है।<ref name="Grechuk1">Grechuk, B., Molyboha, A., Zabarankin, M. (2009) [https://www.researchgate.net/publication/220442393_Maximum_Entropy_Principle_with_General_Deviation_Measures Maximum Entropy Principle with General Deviation Measures], | ||
Mathematics of Operations Research 34(2), 445--467, 2009.</ref> | Mathematics of Operations Research 34(2), 445--467, 2009.</ref> | ||
विशेष रूप से, निर्दिष्ट माध्य के साथ अधिकतम एन्ट्रापी वितरण <math>E(x)=\mu</math> और विचलन <math>D(x)=d</math> है: | विशेष रूप से, निर्दिष्ट माध्य के साथ अधिकतम एन्ट्रापी वितरण <math>E(x)=\mu</math> और विचलन <math>D(x)=d</math> है: | ||
*सामान्य वितरण <math>N(m,d^2)</math>, | *सामान्य वितरण <math>N(m,d^2)</math>, यदि <math>D(x)=\sqrt{E[(x-\mu)^2]}</math> [[मानक विचलन]] है; | ||
*[[लाप्लास वितरण]], यदि <math>D(x)=E(|x-\mu|)</math> औसत निरपेक्ष विचलन है;<ref name="ReferenceA"/>* प्रपत्र के घनत्व के साथ वितरण <math>f(x)=c \exp(ax+b{[x-\mu]_-}^2)</math> | *[[लाप्लास वितरण]], यदि <math>D(x)=E(|x-\mu|)</math> औसत निरपेक्ष विचलन है;<ref name="ReferenceA" /> | ||
*प्रपत्र के घनत्व के साथ वितरण <math>f(x)=c \exp(ax+b{[x-\mu]_-}^2)</math> यदि <math>D(x)=\sqrt{E[{(x-\mu)_-}^2]}</math> मानक निचला अर्ध-विचलन है, जहां <math>[x]_-:=\max\{0,-x\}</math>, और ''a,b,c'' स्थिरांक हैं।<ref name="Grechuk1" /> | |||
===अन्य उदाहरण=== | ===अन्य उदाहरण=== | ||
नीचे दी गई तालिका में, प्रत्येक सूचीबद्ध वितरण तीसरे कॉलम में सूचीबद्ध कार्यात्मक बाधाओं के विशेष सेट के लिए एन्ट्रापी को अधिकतम करता है, और यह बाधा कि x को संभाव्यता घनत्व के समर्थन में | नीचे दी गई तालिका में, प्रत्येक सूचीबद्ध वितरण तीसरे कॉलम में सूचीबद्ध कार्यात्मक बाधाओं के विशेष सेट के लिए एन्ट्रापी को अधिकतम करता है, और यह बाधा कि x को संभाव्यता घनत्व के समर्थन में सम्मिलित किया जाता है, जो चौथे कॉलम में सूचीबद्ध है।<ref name="ReferenceA"/><ref name="Elsevier"/> सूचीबद्ध कई उदाहरण (बर्नौली, ज्यामितीय, घातीय, लाप्लास, पेरेटो) तुच्छ रूप से सत्य हैं क्योंकि उनकी संबद्ध बाधाएं उनकी एन्ट्रॉपी के असाइनमेंट के बराबर हैं। उन्हें वैसे भी सम्मिलित किया गया है क्योंकि उनकी बाधा सामान्य या आसानी से मापी जाने वाली मात्रा से संबंधित है। संदर्भ के लिए, <math>\Gamma(x) = \int_0^{\infty} e^{-t} t^{x-1} dt</math> [[गामा फ़ंक्शन]] है, <math>\psi(x) = \frac{d}{dx} \ln\Gamma(x)=\frac{\Gamma'(x)}{\Gamma(x)}</math> [[डिगामा फ़ंक्शन]] है, <math>B(p,q) = \frac{\Gamma(p)\Gamma(q)}{\Gamma(p+q)}</math> [[बीटा फ़ंक्शन]] है, और {{math|''γ''<sub>E</sub>}} [[यूलर-माशेरोनी स्थिरांक]] है। | ||
{| class="wikitable" style="background:white" | {| class="wikitable" style="background:white" | ||
|+ | |+ संभाव्यता वितरण और संगत अधिकतम एन्ट्रापी बाधाओं की तालिका | ||
|- | |- | ||
! | ! वितरण का नाम !! संभाव्यता घनत्व/द्रव्यमान फलन !! अधिकतम एन्ट्रापी बाधा || समर्थन | ||
|- | |- | ||
| [[Uniform distribution (discrete)| | | [[Uniform distribution (discrete)|यूनिफार्म (अलग)]] || <math>f(k) = \frac{1}{b-a+1}</math> ||None||<math>\{a,a+1,...,b-1,b\}\,</math> | ||
|- | |- | ||
| [[Uniform distribution (continuous)| | | [[Uniform distribution (continuous)|यूनिफार्म (निरंतर)]] || <math>f(x) = \frac{1}{b-a}</math> ||None||<math>[a,b]\,</math> | ||
|- | |- | ||
| [[Bernoulli distribution| | | [[Bernoulli distribution|बर्नौली]] || <math>f(k) = p^k(1-p)^{1-k}</math> ||<math>\operatorname{E}(k)=p\,</math>||<math>\{0,1\}\,</math> | ||
|- | |- | ||
| [[Geometric distribution| | | [[Geometric distribution|ज्यामितिक]] || <math>f(k) = (1-p)^{k-1}\,p</math> ||<math>\operatorname{E}(k)=\frac{1}{p}\,</math>||<math>\mathbb{N} \setminus \left\{0\right\} = \{1,2,3,...\}</math> | ||
|- | |- | ||
| [[Exponential distribution| | | [[Exponential distribution|घातीय]] || <math>f(x) = \lambda \exp\left(-\lambda x\right)</math> ||<math>\operatorname{E}(x)=\frac{1}{\lambda}\,</math>||<math>[0,\infty)\,</math> | ||
|- | |- | ||
| [[Laplace distribution| | | [[Laplace distribution|लाप्लास]] || <math>f(x) = \frac{1}{2b} \exp\left(-\frac{|x - \mu|}{b}\right)</math> ||<math>\operatorname{E}(|x-\mu|)=b\,</math>||<math>(-\infty,\infty)\,</math> | ||
|- | |- | ||
| [[असममित लाप्लास वितरण]] || <math>f(x)=\frac{\lambda \, e^{-(x-m)\lambda s \kappa^s}}{\kappa+1/\kappa}\,(s\!=\!\sgn(x\!-\!m))</math> ||<math>\operatorname{E}((x-m)s\kappa^s)=1/\lambda\,</math>||<math>(-\infty,\infty)\,</math> | | [[असममित लाप्लास वितरण]] || <math>f(x)=\frac{\lambda \, e^{-(x-m)\lambda s \kappa^s}}{\kappa+1/\kappa}\,(s\!=\!\sgn(x\!-\!m))</math> ||<math>\operatorname{E}((x-m)s\kappa^s)=1/\lambda\,</math>||<math>(-\infty,\infty)\,</math> | ||
Line 235: | Line 240: | ||
number =4 | | number =4 | | ||
page=402-406|bibcode=2017ISPL...24..402N |s2cid=14092514 }}</ref> | page=402-406|bibcode=2017ISPL...24..402N |s2cid=14092514 }}</ref> | ||
Line 259: | Line 274: | ||
{{ProbDistributions|families}} | {{ProbDistributions|families}} | ||
{{DEFAULTSORT:Maximum Entropy Probability Distribution}} | {{DEFAULTSORT:Maximum Entropy Probability Distribution}} | ||
[[Category: | [[Category:Articles with hatnote templates targeting a nonexistent page|Maximum Entropy Probability Distribution]] | ||
[[Category:Created On 06/07/2023]] | [[Category:Collapse templates|Maximum Entropy Probability Distribution]] | ||
[[Category:Created On 06/07/2023|Maximum Entropy Probability Distribution]] | |||
[[Category:Lua-based templates|Maximum Entropy Probability Distribution]] | |||
[[Category:Machine Translated Page|Maximum Entropy Probability Distribution]] | |||
[[Category:Navigational boxes| ]] | |||
[[Category:Navigational boxes without horizontal lists|Maximum Entropy Probability Distribution]] | |||
[[Category:Pages with math errors|Maximum Entropy Probability Distribution]] | |||
[[Category:Pages with math render errors|Maximum Entropy Probability Distribution]] | |||
[[Category:Pages with script errors|Maximum Entropy Probability Distribution]] | |||
[[Category:Short description with empty Wikidata description|Maximum Entropy Probability Distribution]] | |||
[[Category:Sidebars with styles needing conversion|Maximum Entropy Probability Distribution]] | |||
[[Category:Template documentation pages|Documentation/doc]] | |||
[[Category:Templates Vigyan Ready|Maximum Entropy Probability Distribution]] | |||
[[Category:Templates generating microformats|Maximum Entropy Probability Distribution]] | |||
[[Category:Templates that add a tracking category|Maximum Entropy Probability Distribution]] | |||
[[Category:Templates that are not mobile friendly|Maximum Entropy Probability Distribution]] | |||
[[Category:Templates that generate short descriptions|Maximum Entropy Probability Distribution]] | |||
[[Category:Templates using TemplateData|Maximum Entropy Probability Distribution]] | |||
[[Category:Wikipedia metatemplates|Maximum Entropy Probability Distribution]] | |||
[[Category:एन्ट्रापी और सूचना|Maximum Entropy Probability Distribution]] | |||
[[Category:कण आँकड़े|Maximum Entropy Probability Distribution]] | |||
[[Category:निरंतर वितरण|Maximum Entropy Probability Distribution]] | |||
[[Category:पृथक वितरण|Maximum Entropy Probability Distribution]] | |||
[[Category:संभाव्यता वितरण के प्रकार|Maximum Entropy Probability Distribution]] |
Latest revision as of 10:36, 18 July 2023
सांख्यिकी और सूचना सिद्धांत में, अधिकतम एन्ट्रापी संभाव्यता वितरण में सूचना एन्ट्रापी होती है जो कम से कम संभाव्यता वितरण के निर्दिष्ट वर्ग के अन्य सभी सदस्यों जितनी महान होती है। अधिकतम एन्ट्रापी के सिद्धांत के अनुसार, यदि किसी वितरण के बारे में कुछ भी ज्ञात नहीं है, अतिरिक्त इसके कि वह निश्चित वर्ग (सामान्यतः निर्दिष्ट गुणों या मापों के संदर्भ में परिभाषित) से संबंधित है, तो सबसे बड़ी एन्ट्रापी वाले वितरण को सबसे कम जानकारी वाले डिफ़ॉल्ट के रूप में चुना जाना चाहिए। प्रेरणा दुगनी है: सबसे पहले, एन्ट्रापी को अधिकतम करने से वितरण में निर्मित पूर्व संभाव्यता की मात्रा कम हो जाती है; दूसरा, कई भौतिक प्रणालियाँ समय के साथ अधिकतम एन्ट्रापी विन्यास की ओर बढ़ती हैं।
एन्ट्रापी और विभेदक एन्ट्रापी की परिभाषा
यदि वितरण के साथ असतत यादृच्छिक वेरिएबल है
फिर की एन्ट्रापी परिभाषित किया जाता है
यदि संभाव्यता घनत्व फ़ंक्शन के साथ सतत यादृच्छिक वेरिएबल है, फिर अंतर एन्ट्रापी परिभाषित किया जाता है[1][2][3]
जब भी होता है तो मात्रा शून्य समझा जाता है।
यह एन्ट्रॉपी (सूचना सिद्धांत), अधिकतम एन्ट्रॉपी का सिद्धांत, और अंतर एन्ट्रॉपी लेखों में वर्णित अधिक सामान्य रूपों का विशेष स्थिति है। अधिकतम एन्ट्रॉपी वितरण के संबंध में, यह एकमात्र आवश्यक है, क्योंकि को अधिकतम करने से अधिक सामान्य रूप भी अधिकतम हो जाएंगे।
लघुगणक का आधार तब तक महत्वपूर्ण नहीं है जब तक कि ही का लगातार उपयोग किया जाता है: आधार के परिवर्तन से केवल एन्ट्रापी में पुनः वृद्धि होती है। सूचना सिद्धांतकार एन्ट्रापी को बिट्स में व्यक्त करने के लिए आधार 2 का उपयोग करना पसंद कर सकते हैं; गणितज्ञ और भौतिक विज्ञानी अधिकांश प्राकृतिक लघुगणक को प्राथमिकता देंगे, जिसके परिणामस्वरूप एन्ट्रापी के लिए नेट्स (इकाई) की एक इकाई बनेगी।
चूँकि, माप का चुनाव एन्ट्रापी और परिणामी अधिकतम एन्ट्रापी वितरण को निर्धारित करने में महत्वपूर्ण है, यद्यपि लेब्सेग माप के सामान्य सहारा को अक्सर "प्राकृतिक" के रूप में बचाव किया जाता है।
मापा स्थिरांक के साथ वितरण
लागू हित के कई सांख्यिकीय वितरण वे हैं जिनके लिए क्षण (गणित) या अन्य मापनीय मात्राएँ स्थिरांक होने के लिए बाध्य हैं। लुडविग बोल्ट्ज़मान द्वारा निम्नलिखित प्रमेय इन बाधाओं के अनुसार संभाव्यता घनत्व का रूप देता है।
सतत स्थिति
मान लीजिए कि वास्तविक संख्याओं का एक संवृत उपसमुच्चय है और हम मापने योग्य फ़ंक्शन, और संख्याओं को निर्दिष्ट करना चुनते हैं। हम सभी वास्तविक-मूल्य वाले यादृच्छिक वेरिएबल के वर्ग पर विचार करते हैं जो (अर्थात् जिसका घनत्व फलन के बाहर शून्य है) पर समर्थित हैं और जो क्षण की शर्तों को पूरा करते हैं:
- यदि में कोई सदस्य है जिसका घनत्व फ़ंक्शन में प्रत्येक स्थान धनात्मक है, और यदि के लिए अधिकतम एन्ट्रापी वितरण उपस्थित है, तो इसकी संभाव्यता घनत्व का निम्न रूप है:
जहां हम मानते हैं कि है। स्थिरांक और लैग्रेंज गुणक , (यह स्थिति सुनिश्चित करती है कि एकता में एकीकृत हो) के साथ बाधित अनुकूलन समस्या का समाधान करते हैं:[4]
करुश-कुह्न-टकर स्थितियों का उपयोग करके, यह दिखाया जा सकता है कि अनुकूलन समस्या का अद्धितीय समाधान है क्योंकि अनुकूलन में उद्देश्य फ़ंक्शन अवतल है।
ध्यान दें कि यदि क्षणिक स्थितियाँ समानताएँ (असमानताओं के अतिरिक्त) हैं, अर्थात,
- फिर बाधा की स्थिति हटा दिया गया है, जिससे लैग्रेंज मल्टीप्लायरों पर अनुकूलन अप्रतिबंधित हो गया है।
असतत स्थिति
मान लीजिए वास्तविक का एक (परिमित या अनंत) असतत उपसमुच्चय है और हम फ़ंक्शन f1,...,fn और n संख्या a1,...,an निर्दिष्ट करना चुनते हैं . हम सभी असतत यादृच्छिक वेरिएबल X के वर्ग C पर विचार करते हैं जो S पर समर्थित हैं और जो n क्षण की शर्तों को पूरा करते हैं
- यदि C का कोई सदस्य उपस्थित है जो S के सभी सदस्यों को धनात्मक संभावना प्रदान करता है और यदि C के लिए अधिकतम एन्ट्रापी वितरण उपस्थित है, तो इस वितरण का निम्नलिखित आकार है:
जहां हम मानते हैं कि और स्थिरांक के साथ विवश अनुकूलन समस्या का समाधान करते हैं:[5]
पुनः, यदि क्षण स्थितियाँ समानताएँ (असमानताओं के अतिरिक्त) हैं, तो बाधा स्थिति अनुकूलन में उपस्थित नहीं है।
समानता बाधाओं के स्थिति में प्रमाण
समानता बाधाओं की स्थिति में, यह प्रमेय विविधताओं की गणना और लैग्रेंज गुणकों के साथ सिद्ध होता है। बाधाओं को इस प्रकार लिखा जा सकता है
हम कार्यात्मक (गणित) पर विचार करते हैं
जहाँ और लैग्रेंज गुणक हैं। शून्यवाँ अवरोध संभाव्यता स्वयंसिद्ध#दूसरा सिद्धांत सुनिश्चित करता है। अन्य बाधाएं यह हैं कि फ़ंक्शन के माप को क्रम के अनुसार स्थिरांक दिए जाते है। जब कार्यात्मक व्युत्पन्न शून्य के बराबर होता है तो एन्ट्रापी चरम सीमा पर पहुंच जाती है:
इसलिए, इस स्थिति में चरम एन्ट्रापी संभाव्यता वितरण () के रूप का होना चाहिए,
याद रखें कि है। यह जाँच कर सत्यापित किया जा सकता है कि यह अधिकतम समाधान है कि इस समाधान के आसपास भिन्नता हमेशा ऋणात्मक होती है।
अधिकतम की विशिष्टता
मान लीजिए कि , अपेक्षा-बाधाओं को संतुष्ट करने वाले वितरण हैं। माने और वितरण पर विचार करने से यह स्पष्ट है कि यह वितरण अपेक्षा-बाधाओं को संतुष्ट करता है और इसके अतिरिक्त का समर्थन करता है। एन्ट्रापी के बारे में मुलभुत तथ्यों से यह माना जाता है कि । क्रमशः सीमा और लेने पर प्राप्त होता है
इसका तात्पर्य यह है कि अपेक्षा-बाधाओं को संतुष्ट करने वाले और एन्ट्रापी को अधिकतम करने वाले वितरण को आवश्यक रूप से पूर्ण समर्थन होना चाहिए। वितरण लगभग प्रत्येक स्थान सकारात्मक है। इसका तात्पर्य यह है कि अधिकतम वितरण अपेक्षा-बाधाओं को संतुष्ट करने वाले वितरण के स्थान में एक आंतरिक बिंदु होना चाहिए, अर्थात यह एक स्थानीय चरम होना चाहिए। इस प्रकार यह दिखाना पर्याप्त है कि स्थानीय चरम अद्वितीय है, दोनों को यह दिखाने के लिए कि एन्ट्रापी-अधिकतम वितरण अद्वितीय है (और इससे यह भी पता चलता है कि स्थानीय चरम वैश्विक अधिकतम है)।
उपरोक्त गणनाओं को पुन: स्वरूपित करते हुए इन्हें पैरामीटर एल, आर से पी(एक्स और इसी तरह) पी, जहां डीएक्स द्वारा चित्रित किया गया है।
मान लीजिए कि स्थानीय चरम सीमाएँ हैं। उपरोक्त गणनाओं को पुन: स्वरूपित करते हुए इन्हें मापदंडों से और इसी तरह के लिए , जहाँ है। अब हम पहचानों की श्रृंखला पर ध्यान देते हैं: अपेक्षा-बाधाओं की संतुष्टि और ग्रेडिएंट/दिशात्मक डेरिवेटिव का उपयोग करके, किसी के पास है और इसी प्रकार के लिए। मान ले कोई प्राप्त करता है:
जहाँ कुछ के लिए हैं। आगे की गणना करना किसी के पास है
जहाँ उपरोक्त वितरण के समान है, केवल पैरामीटरयुक्त है . यह मानते हुए कि वेधशालाओं का कोई भी गैर-तुच्छ रैखिक संयोजन लगभग हर जगह (एई) स्थिर नहीं है, (उदाहरण के लिए यदि वेधशालाएं स्वतंत्र हैं और यानी स्थिर नहीं हैं), तो यह माना जाता है कि गैर-शून्य विचरण है, जब तक कि न हो। उपरोक्त समीकरण से यह स्पष्ट है कि उत्तरार्द्ध स्थिति होना चाहिए। इस तरह , इसलिए स्थानीय एक्स्ट्रेमा की विशेषता बताने वाले पैरामीटर समान हैं, जिसका अर्थ है कि वितरण स्वयं समान हैं। इस प्रकार, स्थानीय चरम अद्वितीय है और उपरोक्त चर्चा के अनुसार, अधिकतम अद्वितीय है - बशर्ते कि स्थानीय चरम वास्तव में उपस्थित हो।
चेतावनी
ध्यान दें कि वितरण के सभी वर्गों में अधिकतम एन्ट्रापी वितरण नहीं होता है। यह संभव है कि किसी वर्ग में मनमाने ढंग से बड़े एन्ट्रॉपी के वितरण हों (उदाहरण के लिए आर पर सभी निरंतर वितरणों का वर्ग जिसका मतलब 0 है किन्तु स्वैच्छिक मानक विचलन है), या कि एन्ट्रॉपी ऊपर सीमित हैं किन्तु कोई वितरण नहीं है जो अधिकतम एन्ट्रॉपी प्राप्त करता है।[lower-alpha 1] यह भी संभव है कि वर्ग सी के लिए अपेक्षित मूल्य प्रतिबंध S के कुछ सबसेट में संभाव्यता वितरण को शून्य होने के लिए विवश करते हैं। उस स्थिति में हमारी प्रमेय लागू नहीं होता है, किन्तु सेट एस को सिकोड़कर कोई इसके आसपास काम कर सकता है।
उदाहरण
प्रत्येक संभाव्यता वितरण इस बाधा के तहत तुच्छ रूप से एक अधिकतम एन्ट्रापी संभाव्यता वितरण है कि वितरण की अपनी एन्ट्रापी है। इसे देखने के लिए, घनत्व को के रूप में फिर से लिखें और उपरोक्त प्रमेय की अभिव्यक्ति से तुलना करें। मापने योग्य फ़ंक्शन के रूप में को चुनकर और
स्थिर रहना, बाधा के अनुसार अधिकतम एन्ट्रापी संभाव्यता वितरण है
- .
गैर-तुच्छ उदाहरण ऐसे वितरण हैं जो कई बाधाओं के अधीन हैं जो एन्ट्रापी के असाइनमेंट से भिन्न हैं। इन्हें अधिकांश ही प्रक्रिया से प्रारंभ करके पाया जाता है और उसे ढूँढना भागों में विभाजित किया जा सकता है।
अधिकतम एन्ट्रापी वितरण के उदाहरणों की एक तालिका लिस्मान (1972)[6] और पार्क एंड बेरा (2009) में दी गई है।[7]
समान और टुकड़े-टुकड़े समान वितरण
अंतराल [a,b] पर समान वितरण (निरंतर) सभी निरंतर वितरणों के बीच अधिकतम एन्ट्रापी वितरण है जो अंतराल [a,b] में समर्थित हैं, और इस प्रकार अंतराल के बाहर संभाव्यता घनत्व 0 है। यह एकसमान घनत्व लाप्लास के उदासीनता के सिद्धांत से संबंधित हो सकता है, जिसे कभी-कभी अपर्याप्त कारण का सिद्धांत भी कहा जाता है। अधिक सामान्यतः, यदि हमें अंतराल [a,b] का एक उपविभाजन a=a0 < a1 < ... < ak = b दिया गया है और संभावनाएं p1,...,pk जो एक में जुड़ती हैं, तो हम इस पर विचार कर सकते हैं सभी सतत वितरणों का वर्ग जैसे कि
इस वर्ग के लिए अधिकतम एन्ट्रापी वितरण का घनत्व प्रत्येक अंतराल [aj-1,aj) पर स्थिर है। परिमित सेट {x1,...,xn} पर समान वितरण (जो इनमें से प्रत्येक मान के लिए 1/n की संभावना निर्दिष्ट करता है) इस सेट पर समर्थित सभी असतत वितरणों के बीच अधिकतम एन्ट्रापी वितरण है।
धनात्मक और निर्दिष्ट माध्य: घातीय वितरण
घातीय वितरण, जिसके लिए घनत्व फ़ंक्शन है
[0,∞) में समर्थित सभी निरंतर वितरणों के बीच अधिकतम एन्ट्रापी वितरण है जिसका निर्दिष्ट माध्य 1/λ है।
[0,∞) पर समर्थित वितरण के स्थिति में, अधिकतम एन्ट्रापी वितरण पहले और दूसरे क्षण के बीच संबंधों पर निर्भर करता है। विशिष्ट मामलों में, यह घातीय वितरण हो सकता है, या कोई अन्य वितरण हो सकता है, या अपरिभाषित हो सकता है।[8]
निर्दिष्ट माध्य और विचरण: सामान्य वितरण
सामान्य वितरण N(μ,σ2), जिसके लिए घनत्व फ़ंक्शन है
एक निर्दिष्ट विचरण σ2 (एक विशेष क्षण) के साथ (−∞,∞) पर समर्थित सभी वास्तविक-मूल्यवान वितरणों के बीच अधिकतम एन्ट्रापी है। यही बात तब सच है जब माध्य μ और विचरण σ2 निर्दिष्ट किया जाता है (पहले दो क्षण), क्योंकि एन्ट्रापी (−∞,∞) पर अनुवाद अपरिवर्तनीय है। इसलिए, सामान्यता की धारणा इन क्षणों से परे न्यूनतम पूर्व संरचनात्मक बाधा लगाती है। (व्युत्पत्ति के लिए विभेदक एन्ट्रापी लेख देखें।)
निर्दिष्ट माध्य के साथ असतत वितरण
सेट पर समर्थित सभी असतत वितरणों के बीच {x1,...,xn} निर्दिष्ट माध्य μ के साथ, अधिकतम एन्ट्रापी वितरण का आकार निम्नलिखित है:
जहां धनात्मक स्थिरांक C और r को आवश्यकताओं द्वारा निर्धारित किया जा सकता है कि सभी संभावनाओं का योग 1 होना चाहिए और अपेक्षित मान μ होना चाहिए।
उदाहरण के लिए, यदि बड़ी संख्या में N पासे फेंके जाते हैं, और आपको बताया जाता है कि सभी दिखाए गए नंबरों का योग S है। अकेले इस जानकारी के आधार पर, 1, 2..., 6? दिखाने वाले पासों की संख्या के लिए एक उचित धारणा क्या होगी। यह ऊपर मानी गई स्थिति का एक उदाहरण है, जिसमें, {x1,...,x6} = {1,...,6} और μ = S/N हैं।
अंत में, अनंत सेट पर समर्थित सभी असतत वितरणों के बीच माध्य μ के साथ, अधिकतम एन्ट्रापी वितरण का आकार होता है:
जहां फिर से स्थिरांक सी और आर को आवश्यकताओं द्वारा निर्धारित किया गया था कि सभी संभावनाओं का योग 1 होना चाहिए और अपेक्षित मूल्य μ होना चाहिए। उदाहरण के लिए, उस स्थिति में xk = k, यह देता है
ऐसा कि संबंधित अधिकतम एन्ट्रापी वितरण ज्यामितीय वितरण है।
वृत्ताकार यादृच्छिक वेरिएबल
सतत यादृच्छिक वेरिएबल के लिए यूनिट सर्कल के बारे में वितरित, वॉन मिज़ वितरण एन्ट्रापी को अधिकतम करता है जब पहले दिशात्मक आंकड़ों के वास्तविक और काल्पनिक भाग निर्दिष्ट होते हैं[9] या, समकक्ष, वृत्ताकार माध्य और वृत्ताकार विचरण निर्दिष्ट हैं।
जब कोणों का माध्य और प्रसरण मापांक निर्दिष्ट हैं, लपेटा हुआ सामान्य वितरण एन्ट्रापी को अधिकतम करता है।[9]
निर्दिष्ट माध्य, विचरण और तिरछा के लिए अधिकतम
एक निर्दिष्ट माध्य, विचरण और तिरछा के साथ पर निरंतर यादृच्छिक वेरिएबल की एन्ट्रापी पर एक ऊपरी सीमा उपस्थित है। चूँकि, ऐसा कोई वितरण नहीं है जो इस ऊपरी सीमा को प्राप्त करता हो, क्योंकि (देखें कवर और थॉमस (2006: अध्याय 12)) होने पर असीमित है।
चूँकि, अधिकतम एन्ट्रापी ε-प्राप्त करने योग्य है: एक वितरण की एन्ट्रापी स्वैच्छिक रूप से ऊपरी सीमा के करीब हो सकती है। निर्दिष्ट माध्य और विचरण के सामान्य वितरण से प्रारंभ करें। एक सकारात्मक तिरछा परिचय देने के लिए, माध्य से कई σ बड़े मान पर सामान्य वितरण को एक छोटी राशि से ऊपर की ओर परेशान करें। तिरछापन, तीसरे क्षण के समानुपाती होने के कारण, निचले क्रम के क्षणों की तुलना में अधिक प्रभावित होगा।
यह सामान्य स्थिति का एक विशेष मामला है जिसमें x में किसी भी विषम-क्रम बहुपद का घातांक पर असीमित होगा। उदाहरण के लिए, इसी प्रकार पर अबाधित होगा, लेकिन जब समर्थन एक बाउंड या सेमी-बाउंड अंतराल तक सीमित होता है तो ऊपरी एन्ट्रापी बाउंड प्राप्त (उदाहरण के लिए यदि x अंतराल [0,∞] और λ< 0 में स्थित है, तो घातीय वितरण परिणाम होगा) किया जा सकता है।
निर्दिष्ट माध्य और विचलन जोखिम माप के लिए अधिकतमीकरण
लॉगरिदमिक रूप से अवतल फ़ंक्शन के साथ प्रत्येक वितरण लॉग-अवतल घनत्व निर्दिष्ट माध्य μ और विचलन जोखिम माप डी के साथ अधिकतम एन्ट्रापी वितरण है।[10]
विशेष रूप से, निर्दिष्ट माध्य के साथ अधिकतम एन्ट्रापी वितरण और विचलन है:
- सामान्य वितरण , यदि मानक विचलन है;
- लाप्लास वितरण, यदि औसत निरपेक्ष विचलन है;[6]
- प्रपत्र के घनत्व के साथ वितरण यदि मानक निचला अर्ध-विचलन है, जहां , और a,b,c स्थिरांक हैं।[10]
अन्य उदाहरण
नीचे दी गई तालिका में, प्रत्येक सूचीबद्ध वितरण तीसरे कॉलम में सूचीबद्ध कार्यात्मक बाधाओं के विशेष सेट के लिए एन्ट्रापी को अधिकतम करता है, और यह बाधा कि x को संभाव्यता घनत्व के समर्थन में सम्मिलित किया जाता है, जो चौथे कॉलम में सूचीबद्ध है।[6][7] सूचीबद्ध कई उदाहरण (बर्नौली, ज्यामितीय, घातीय, लाप्लास, पेरेटो) तुच्छ रूप से सत्य हैं क्योंकि उनकी संबद्ध बाधाएं उनकी एन्ट्रॉपी के असाइनमेंट के बराबर हैं। उन्हें वैसे भी सम्मिलित किया गया है क्योंकि उनकी बाधा सामान्य या आसानी से मापी जाने वाली मात्रा से संबंधित है। संदर्भ के लिए, गामा फ़ंक्शन है, डिगामा फ़ंक्शन है, बीटा फ़ंक्शन है, और γE यूलर-माशेरोनी स्थिरांक है।
वितरण का नाम | संभाव्यता घनत्व/द्रव्यमान फलन | अधिकतम एन्ट्रापी बाधा | समर्थन |
---|---|---|---|
यूनिफार्म (अलग) | None | ||
यूनिफार्म (निरंतर) | None | ||
बर्नौली | |||
ज्यामितिक | |||
घातीय | |||
लाप्लास | |||
असममित लाप्लास वितरण | |||
पेरेटो वितरण | |||
सामान्य वितरण | |||
सामान्य वितरण छोटा कर दिया गया | (लेख देखें) | ||
वॉन मिज़ कास्ट | |||
रेले वितरण | |||
बीटा वितरण | के लिए | ||
कॉची वितरण | |||
ची वितरण | |||
ची-वर्ग वितरण|ची-वर्ग | |||
एर्लांग वितरण | |||
गामा वितरण | |||
लॉग-सामान्य वितरण | |||
मैक्सवेल-बोल्ट्ज़मैन | |||
वेइबुल वितरण | |||
बहुभिन्नरूपी सामान्य वितरण | |||
द्विपद वितरण | [11] | ||
पॉइसन वितरण | [11] | ||
लॉजिस्टिक वितरण |
अधिकतम एन्ट्रापी सिद्धांत का उपयोग सांख्यिकीय मिश्रण की एन्ट्रापी को ऊपरी सीमा तक सीमित करने के लिए किया जा सकता है।[12]
यह भी देखें
- घातीय परिवार
- गिब्स माप
- विभाजन फलन (गणित)
- अधिकतम एन्ट्रापी रैंडम वॉक - ग्राफ के लिए एन्ट्रापी दर को अधिकतम करना
टिप्पणियाँ
- ↑ For example, the class of all continuous distributions X on R with E(X) = 0 and E(X2) = E(X3) = 1 (see Cover, Ch 12).
उद्धरण
- ↑ Williams, D. (2001), Weighing the Odds, Cambridge University Press, ISBN 0-521-00618-X (pages 197-199).
- ↑ Bernardo, J. M., Smith, A. F. M. (2000), Bayesian Theory, Wiley. ISBN 0-471-49464-X (pages 209, 366)
- ↑ O'Hagan, A. (1994), Kendall's Advanced Theory of Statistics, Vol 2B, Bayesian Inference, Edward Arnold. ISBN 0-340-52922-9 (Section 5.40)
- ↑ Botev, Z. I.; Kroese, D. P. (2011). "संभाव्यता घनत्व अनुमान के अनुप्रयोगों के साथ सामान्यीकृत क्रॉस एन्ट्रॉपी विधि" (PDF). Methodology and Computing in Applied Probability. 13 (1): 1–27. doi:10.1007/s11009-009-9133-7. S2CID 18155189.
- ↑ Botev, Z. I.; Kroese, D. P. (2008). "असतत डेटा के घनत्व अनुमान के लिए गैर-स्पर्शोन्मुख बैंडविड्थ चयन". Methodology and Computing in Applied Probability. 10 (3): 435. doi:10.1007/s11009-007-9057-z. S2CID 122047337.
- ↑ 6.0 6.1 6.2 Lisman, J. H. C.; van Zuylen, M. C. A. (1972). "सर्वाधिक संभावित आवृत्ति वितरणों की उत्पत्ति पर ध्यान दें". Statistica Neerlandica. 26 (1): 19–23. doi:10.1111/j.1467-9574.1972.tb00152.x.
- ↑ 7.0 7.1 Park, Sung Y.; Bera, Anil K. (2009). "अधिकतम एन्ट्रापी ऑटोरेग्रेसिव कंडीशनल हेटेरोस्केडैस्टिसिटी मॉडल" (PDF). Journal of Econometrics. 150 (2): 219–230. CiteSeerX 10.1.1.511.9750. doi:10.1016/j.jeconom.2008.12.014. Archived from the original (PDF) on 2016-03-07. Retrieved 2011-06-02.
- ↑ Dowson, D.; Wragg, A. (September 1973). "अधिकतम-एन्ट्रापी वितरण जिसमें पहले और दूसरे क्षण निर्धारित हैं". IEEE Transactions on Information Theory (correspondance). 19 (5): 689–693. doi:10.1109/tit.1973.1055060. ISSN 0018-9448.
- ↑ 9.0 9.1 Jammalamadaka, S. Rao; SenGupta, A. (2001). वृत्ताकार सांख्यिकी में विषय. New Jersey: World Scientific. ISBN 978-981-02-3778-3. Retrieved 2011-05-15.
- ↑ 10.0 10.1 Grechuk, B., Molyboha, A., Zabarankin, M. (2009) Maximum Entropy Principle with General Deviation Measures, Mathematics of Operations Research 34(2), 445--467, 2009.
- ↑ 11.0 11.1 Harremös, Peter (2001), "Binomial and Poisson distributions as maximum entropy distributions", IEEE Transactions on Information Theory, 47 (5): 2039–2041, doi:10.1109/18.930936, S2CID 16171405.
- ↑ Frank Nielsen; Richard Nock (2017). "MaxEnt upper bounds for the differential entropy of univariate continuous distributions". IEEE Signal Processing Letters. IEEE. 24 (4): 402-406. Bibcode:2017ISPL...24..402N. doi:10.1109/LSP.2017.2666792. S2CID 14092514.
संदर्भ
- Cover, T. M.; Thomas, J. A. (2006). "Chapter 12, Maximum Entropy" (PDF). Elements of Information Theory (2 ed.). Wiley. ISBN 978-0471241959.
- F. Nielsen, R. Nock (2017), MaxEnt upper bounds for the differential entropy of univariate continuous distributions, IEEE Signal Processing Letters, 24(4), 402-406
- I. J. Taneja (2001), Generalized Information Measures and Their Applications. Chapter 1
- Nader Ebrahimi, Ehsan S. Soofi, Refik Soyer (2008), "Multivariate maximum entropy identification, transformation, and dependence", Journal of Multivariate Analysis 99: 1217–1231, doi:10.1016/j.jmva.2007.08.004