विभेदक एन्ट्रापी: Difference between revisions

From Vigyanwiki
No edit summary
 
(8 intermediate revisions by 3 users not shown)
Line 2: Line 2:
{{Information theory}}
{{Information theory}}


'''विभेदक''' एंट्रोपी एक [[सूचना सिद्धांत]] में एक अवधारणा है जिसने [[क्लाउड शैनन|क्लोड शैनन]] के प्रयास को आगे बढ़ाने के लिए प्रयास किया था, जहां एंट्रोपी, एक यादृच्छिक प्रारूपी की औसत माप, को निरंतर संभावना तक विस्तारित करने के प्रयास के रूप में किया गया था।  
'''विभेदात्मक''' एंट्रोपी [[सूचना सिद्धांत]] में एक अवधारणा है जिसने [[क्लाउड शैनन|क्लोड शैनन]] के प्रयास को आगे बढ़ाने के लिए प्रयास किया था, जहां एंट्रोपी, एक यादृच्छिक प्रारूपी की औसत माप, को निरंतर संभावना तक विस्तारित करने के प्रयास के रूप में किया गया था।  


दुर्भाग्य से, शैनन ने इस सूत्र को नहीं निकाला था, बल्कि उन्होंने सिर्फ यह माना था कि यह निरंतर एंट्रोपी की सही निरंतर अनुक्रमिका है, लेकिन ऐसा नहीं है।<ref>{{cite journal |author=Jaynes, E.T. |author-link=Edwin Thompson Jaynes |title=सूचना सिद्धांत और सांख्यिकीय यांत्रिकी|journal=Brandeis University Summer Institute Lectures in Theoretical Physics |volume=3 |issue=sect. 4b |year=1963 |url=http://bayes.wustl.edu/etj/articles/brandeis.pdf }}</ref>{{rp|181–218}} वास्तविक रूप से अवक्रमिक एंट्रोपी का वास्तविक निरंतर संस्करण बिन्दुओं का सीमा घनत्व है। विभेदक एंट्रोपी साहित्य में सामान्यतः आपत्ति में आती है, लेकिन यह एक सीमांकीय स्थिति है जो एलडीडीपी का होता है और एक है जो अपने साथ असंतत एंट्रोपी के मौलिक संबंध को खो देता है।
दुर्भाग्य से, शैनन ने इस सूत्र को नहीं निकाला था, बल्कि उन्होंने सिर्फ यह माना था कि यह असतत एन्ट्रापी की सही निरंतर अनुक्रमिका है, लेकिन ऐसा नहीं है।<ref>{{cite journal |author=Jaynes, E.T. |author-link=Edwin Thompson Jaynes |title=सूचना सिद्धांत और सांख्यिकीय यांत्रिकी|journal=Brandeis University Summer Institute Lectures in Theoretical Physics |volume=3 |issue=sect. 4b |year=1963 |url=http://bayes.wustl.edu/etj/articles/brandeis.pdf }}</ref> वास्तविक रूप से असतत एंट्रोपी का वास्तविक निरंतर संस्करण बिन्दुओं का सीमा घनत्व है। विभेदात्मक एंट्रोपी साहित्य में सामान्यतः आपत्ति में आती है, परंतु यह एक सीमांकीय स्थिति है जो एलडीडीपी का होता है और एक है जो अपने साथ असंतत एंट्रोपी के मौलिक संबंध को खो देता है।


एक [[माप सिद्धांत]] की परिभाषा के अनुसार, प्रायिकता माप की विभेदक एंट्रोपी उस माप से लेबेस्ग माप तक की नकारात्मक [[सापेक्ष एन्ट्रापी|संबंधित एंट्रोपी]] होती है, जहां दूसरे को प्रायिकता माप के रूप में व्यवहारिक रूप से उपयोग किया जाता है, यद्यपि  वह अविशोधित है।
एक [[माप सिद्धांत]] की परिभाषा के अनुसार, प्रायिकता माप की विभेदात्मक एंट्रोपी उस माप से लेबेस्ग माप तक की नकारात्मक [[सापेक्ष एन्ट्रापी|संबंधित एंट्रोपी]] होती है, जहां दूसरे को प्रायिकता माप के रूप में व्यवहारिक रूप से उपयोग किया जाता है, यद्यपि  वह अविशोधित है।


==परिभाषा==
==परिभाषा==
<math>X</math> एक यादृच्छिक चर हो जिसकी प्रायिकता घनत्व फलन <math>f</math> हो और जिसका [[समर्थन (गणित)|समर्थन]] समुच्चय <math>\mathcal X</math>.हो विभेदक एन्ट्रापी <math>h(X)</math> या <math>h(f)</math> परिभाषित किया जाता है<ref name="cover_thomas">{{cite book|first1=Thomas M.|first2=Joy A.|last1=Cover|last2=Thomas|isbn=0-471-06259-6|title=सूचना सिद्धांत के तत्व|year=1991|publisher=Wiley|location=New York|url=https://archive.org/details/elementsofinform0000cove|url-access=registration}}</ref>{{rp|243}}
<math>X</math> एक यादृच्छिक चर हो जिसकी प्रायिकता घनत्व फलन <math>f</math> हो और जिसका [[समर्थन (गणित)|समर्थन]] समुच्चय <math>\mathcal X</math>.हो विभेदात्मक एन्ट्रापी <math>h(X)</math> या <math>h(f)</math> परिभाषित किया जाता है<ref name="cover_thomas">{{cite book|first1=Thomas M.|first2=Joy A.|last1=Cover|last2=Thomas|isbn=0-471-06259-6|title=सूचना सिद्धांत के तत्व|year=1991|publisher=Wiley|location=New York|url=https://archive.org/details/elementsofinform0000cove|url-access=registration}}</ref>{{rp|243}}


{{Equation box 1
{{Equation box 1
Line 23: Line 23:


:<math>h(Q) = \int_0^1 \log Q'(p)\,dp</math>.
:<math>h(Q) = \int_0^1 \log Q'(p)\,dp</math>.
:विभेदक एंट्रोपी की एक विशेषता यह है कि इसकी मात्रा लघुत्तम मानदंड के आधार पर निर्भर करती है, जो सामान्यतः 2 होता है अर्थात मात्रा बिट में होती है विभिन्न आधारों में लिए गए लघुगणक के लिए [[लघुगणक इकाइयाँ]] देखें। संयुक्त एन्ट्रॉपी, सशर्त एन्ट्रॉपी अंतर एन्ट्रॉपी, और कुल्बैक-लीबलर विचलन जैसी संबंधित अवधारणाओं को समान नियमों से परिभाषित किया गया है। असतत रेखीय के विपरीत, अंतर एन्ट्रॉपी में एक प्रतिसंतुलन होता है जो <math>X</math>.को मापने के लिए प्रयोग की जाने वाली मात्राओं पर निर्भर करता है।<ref name="gibbs">{{cite book |last=Gibbs |first=Josiah Willard |author-link=Josiah Willard Gibbs |title=[[Elementary Principles in Statistical Mechanics|Elementary Principles in Statistical Mechanics, developed with especial reference to the rational foundation of thermodynamics]] |year=1902 |publisher=Charles Scribner's Sons |location=New York}}</ref>{{rp|183–184}} उदाहरण के लिए, जब कोई मात्रा मिलीमीटर में मापी जाती है  तो उसकी विभेदक एंट्रोपी मीटर में मापी गई समान मात्रा से {{not a typo|log(1000)}} अधिक होगी एक अयांस-मात्रिक मात्रा की विभेदक एन्ट्रापी {{not a typo|log(1000)}} अधिक होगी जब समान मात्रा को 1000 से विभाजित किया जाता है।
:विभेदात्मक एंट्रोपी की एक विशेषता यह है कि इसकी मात्रा लघुत्तम मानदंड के आधार पर निर्भर करती है, जो सामान्यतः 2 होता है अर्थात मात्रा बिट में होती है विभिन्न आधारों में लिए गए लघुगणक के लिए [[लघुगणक इकाइयाँ]] देखें। संयुक्त एन्ट्रॉपी, सशर्त एन्ट्रॉपी अंतर एन्ट्रॉपी, और कुल्बैक-लीबलर विचलन जैसी संबंधित अवधारणाओं को समान नियमों से परिभाषित किया गया है। असतत रेखीय के विपरीत, अंतर एन्ट्रॉपी में एक प्रतिसंतुलन होता है जो <math>X</math>.को मापने के लिए प्रयोग की जाने वाली मात्राओं पर निर्भर करता है।<ref name="gibbs">{{cite book |last=Gibbs |first=Josiah Willard |author-link=Josiah Willard Gibbs |title=[[Elementary Principles in Statistical Mechanics|Elementary Principles in Statistical Mechanics, developed with especial reference to the rational foundation of thermodynamics]] |year=1902 |publisher=Charles Scribner's Sons |location=New York}}</ref>{{rp|183–184}} उदाहरण के लिए, जब कोई मात्रा मिलीमीटर में मापी जाती है  तो उसकी विभेदात्मक एंट्रोपी मीटर में मापी गई समान मात्रा से {{not a typo|log(1000)}} अधिक होगी एक अयांस-मात्रिक मात्रा की विभेदात्मक एन्ट्रापी {{not a typo|log(1000)}} अधिक होगी जब समान मात्रा को 1000 से विभाजित किया जाता है।


किसी को असतत एन्ट्रापी के गुणों को विभेदक एन्ट्रापी पर लागू करने का प्रयास करते समय सावधानी बरतनी चाहिए, क्योंकि संभाव्यता घनत्व फ़ंक्शन 1 से अधिक हो सकते हैं। उदाहरण के लिए, [[समान वितरण (निरंतर)]] <math>\mathcal{U}(0,1/2)</math> नकारात्मक अंतर एन्ट्रापी है; यानी, यह उससे बेहतर ऑर्डर किया गया है <math>\mathcal{U}(0,1)</math> जैसा कि अभी दिखाया गया है
किसी को असतत एन्ट्रापी के गुणों को विभेदात्मक एन्ट्रापी पर लागू करने का प्रयास करते समय सावधानी बरतनी चाहिए, क्योंकि संभाव्यता घनत्व कार्य 1 से अधिक हो सकते हैं। उदाहरण के लिए, [[समान वितरण (निरंतर)|समान वितरण]] <math>\mathcal{U}(0,1/2)</math> नकारात्मक विभेदात्मक एंट्रोपी रखता है; अर्थात यह <math>\mathcal{U}(0,1)</math> की तुलना में अच्छी तरह से व्यवस्थित है।


:<math>\int_0^\frac{1}{2} -2\log(2)\,dx=-\log(2)\,</math>
:<math>\int_0^\frac{1}{2} -2\log(2)\,dx=-\log(2)\,</math>
की तुलना में कम होना <math>\mathcal{U}(0,1)</math> जिसमें शून्य अंतर एन्ट्रापी है। इस प्रकार, विभेदक एन्ट्रापी असतत एन्ट्रापी के सभी गुणों को साझा नहीं करती है।
यह उदाहरण दिखाता है कि <math>\mathcal{U}(0,1)</math> इस प्रकार विभेदात्मक एंट्रोपी, असतत एन्ट्रापी के सभी गुणों को साझा नहीं करता हैं।


ध्यान दें कि निरंतर पारस्परिक जानकारी <math>I(X;Y)</math> असतत जानकारी के माप के रूप में इसके मौलिक महत्व को बनाए रखने का गौरव प्राप्त है क्योंकि यह वास्तव में विभाजनों की असतत पारस्परिक जानकारी की सीमा है <math>X</math> और <math>Y</math> जैसे-जैसे ये विभाजन बारीक से बारीक होते जाते हैं। इस प्रकार यह गैर-रैखिक [[होमियोमोर्फिज्म]] (निरंतर और विशिष्ट रूप से उलटे मानचित्र) के तहत अपरिवर्तनीय है,<ref>{{cite journal
ध्यान दें कि निरंतर पारस्परिक जानकारी <math>I(X;Y)</math> अपने मौलिक महत्व को बनाए रखती है, क्योंकि यह वास्तव में <math>X</math> और <math>Y</math> जैसे-के विभाजनों की असतत सापेक्ष जानकारी की सीमा है, जबकि ये विभाजन दिन-प्रतिदिन अधिक सूक्ष्म होते हैं।इसलिए यह गैर-रैखिक होमियोमोर्फिज़म के अधीन समानवर्ती रहती है, ,<ref>{{cite journal
  | first = Alexander
  | first = Alexander
  | last = Kraskov
  | last = Kraskov
Line 43: Line 43:
| pmid = 15244698
| pmid = 15244698
  |arxiv = cond-mat/0305641 |bibcode = 2004PhRvE..69f6138K | s2cid = 1269438
  |arxiv = cond-mat/0305641 |bibcode = 2004PhRvE..69f6138K | s2cid = 1269438
  }}</ref> रैखिक सहित<ref name = Reza>{{ cite book | title = सूचना सिद्धांत का एक परिचय| author = Fazlollah M. Reza | publisher = Dover Publications, Inc., New York | orig-year = 1961| year = 1994 | isbn = 0-486-68210-2 | url = https://books.google.com/books?id=RtzpRAiX6OgC&q=intitle:%22An+Introduction+to+Information+Theory%22++%22entropy+of+a+simple+source%22&pg=PA8 }}</ref> के परिवर्तन <math>X</math> और <math>Y</math>, और अभी भी असतत जानकारी की मात्रा का प्रतिनिधित्व करता है जिसे एक चैनल पर प्रसारित किया जा सकता है जो मूल्यों के निरंतर स्थान को स्वीकार करता है।
  }}</ref> रैखिक सहित<ref name = Reza>{{ cite book | title = सूचना सिद्धांत का एक परिचय| author = Fazlollah M. Reza | publisher = Dover Publications, Inc., New York | orig-year = 1961| year = 1994 | isbn = 0-486-68210-2 | url = https://books.google.com/books?id=RtzpRAiX6OgC&q=intitle:%22An+Introduction+to+Information+Theory%22++%22entropy+of+a+simple+source%22&pg=PA8 }}</ref> <math>X</math> और <math>Y</math>, के संवर्तनों के अधीन और फिर भी असतत जानकारी की मात्रा को प्रसारित किया जा सकता है जो मूल्यों के निरंतर स्थान को स्वीकार करता है।


निरंतर स्थान तक विस्तारित असतत एन्ट्रापी के प्रत्यक्ष एनालॉग के लिए, असतत बिंदुओं की सीमित घनत्व देखें।
निरंतर स्थान तक विस्तारित असतत एन्ट्रापी के प्रत्यक्ष समवृत्ति के लिए, असतत बिंदुओं की सीमित घनत्व देखें।


==विभेदक एन्ट्रापी के गुण==
==विभेदात्मक एन्ट्रापी के गुण==
* संभाव्यता घनत्व के लिए <math>f</math> और <math>g</math>, कुल्बैक-लीब्लर विचलन <math>D_{KL}(f || g)</math> केवल समानता के साथ 0 से बड़ा या उसके बराबर है <math>f=g</math> [[लगभग हर जगह]]। इसी प्रकार, दो यादृच्छिक चर के लिए <math>X</math> और <math>Y</math>, <math>I(X;Y) \ge 0</math> और <math>h(X|Y) \le h(X)</math> समानता के साथ यदि और केवल यदि <math>X</math> और <math>Y</math> [[सांख्यिकीय स्वतंत्रता]] हैं.
* संभाव्यता घनत्व के लिए <math>f</math> और <math>g</math>, कुल्बैक-लीब्लर विचलन <math>D_{KL}(f || g)</math> केवल समानता के साथ 0 से बड़ा या उसके बराबर है <math>f=g</math> [[लगभग हर जगह]]। इसी प्रकार, दो यादृच्छिक चर के लिए <math>X</math> और <math>Y</math>, <math>I(X;Y) \ge 0</math> और <math>h(X|Y) \le h(X)</math> समानता के साथ यदि और केवल यदि <math>X</math> और <math>Y</math> स्वतंत्र होते हैं।.
* विभेदक एन्ट्रापी के लिए श्रृंखला नियम असतत मामले की तरह ही लागू होता है<ref name="cover_thomas" />{{rp|253}}
* विभेदात्मक एन्ट्रापी के लिए श्रृंखला नियम असतत स्थितियों की तरह ही लागू होता है<ref name="cover_thomas" />{{rp|253}}
::<math>h(X_1, \ldots, X_n) = \sum_{i=1}^{n} h(X_i|X_1, \ldots, X_{i-1}) \leq \sum_{i=1}^{n} h(X_i)</math>.
::<math>h(X_1, \ldots, X_n) = \sum_{i=1}^{n} h(X_i|X_1, \ldots, X_{i-1}) \leq \sum_{i=1}^{n} h(X_i)</math>.
* विभेदक एन्ट्रापी अनुवाद अपरिवर्तनीय है, अर्थात एक स्थिरांक के लिए <math>c</math>.<ref name="cover_thomas" />{{rp|253}}
* विभेदात्मक एन्ट्रापी अनुवाद अपरिवर्तनीय है, अर्थात <math>c</math> स्थिरांक के लिए .<ref name="cover_thomas" />{{rp|253}}
::<math>h(X+c) = h(X)</math>
::<math>h(X+c) = h(X)</math>
* विभेदक एन्ट्रापी आम तौर पर मनमाने उलटे मानचित्रों के तहत अपरिवर्तनीय नहीं है।
* सामान्यतः विभेदात्मक एन्ट्रापी स्वेच्छिक प्रतिघाती मानचित्रों के अधीन सर्वसाधारणतः स्थानांतरित नहीं होती है।
:: विशेष रूप से, एक स्थिरांक के लिए <math>a</math>
:: विशेष रूप से, <math>a</math> स्थिरांक के लिए
:::<math>h(aX) = h(X)+ \log |a|</math>
:::<math>h(aX) = h(X)+ \log |a|</math>
:: एक वेक्टर मूल्यवान यादृच्छिक चर के लिए <math>\mathbf{X}</math> और एक उलटा (वर्ग) [[मैट्रिक्स (गणित)]] <math>\mathbf{A}</math>
:: एक सदिश मूल्यवान यादृच्छिक चर <math>\mathbf{X}</math> और एक उलटा (वर्ग) [[मैट्रिक्स (गणित)|आव्यूह (गणित)]] <math>\mathbf{A}</math>
:::<math>h(\mathbf{A}\mathbf{X})=h(\mathbf{X})+\log \left( |\det \mathbf{A}| \right)</math><ref name="cover_thomas" />{{rp|253}}
:::<math>h(\mathbf{A}\mathbf{X})=h(\mathbf{X})+\log \left( |\det \mathbf{A}| \right)</math><ref name="cover_thomas" />{{rp|253}}
* सामान्य तौर पर, एक यादृच्छिक वेक्टर से समान आयाम वाले दूसरे यादृच्छिक वेक्टर में परिवर्तन के लिए <math>\mathbf{Y}=m \left(\mathbf{X}\right)</math>, संबंधित एन्ट्रॉपी के माध्यम से संबंधित हैं
* सामान्यतः, एक यादृच्छिक सदिश से समान आयाम वाले दूसरे यादृच्छिक सदिश में परिवर्तन के लिए <math>\mathbf{Y}=m \left(\mathbf{X}\right)</math>, संबंधित एन्ट्रॉपी के माध्यम से संबंधित हैं
::<math>h(\mathbf{Y}) \leq h(\mathbf{X}) + \int f(x) \log \left\vert \frac{\partial m}{\partial x} \right\vert dx</math>
::<math>h(\mathbf{Y}) \leq h(\mathbf{X}) + \int f(x) \log \left\vert \frac{\partial m}{\partial x} \right\vert dx</math>
:कहाँ <math>\left\vert \frac{\partial m}{\partial x} \right\vert</math> जैकोबियन मैट्रिक्स और परिवर्तन का निर्धारक है <math>m</math>.<ref>{{cite web |title=f(X) की विभेदक एन्ट्रापी पर ऊपरी सीमा का प्रमाण|work=[[Stack Exchange]] |date=April 16, 2016 |url=https://math.stackexchange.com/q/1745670 }}</ref> यदि परिवर्तन एक आक्षेप है तो उपरोक्त असमानता एक समानता बन जाती है। इसके अलावा, जब <math>m</math> एक कठोर घूर्णन, अनुवाद या उसका संयोजन है, जैकोबियन निर्धारक हमेशा 1 होता है, और <math>h(Y)=h(X)</math>.
:जहाँ <math>\left\vert \frac{\partial m}{\partial x} \right\vert</math> जैकोबियन आव्यूह और परिवर्तन का निर्धारक <math>m</math> है .<ref>{{cite web |title=f(X) की विभेदक एन्ट्रापी पर ऊपरी सीमा का प्रमाण|work=[[Stack Exchange]] |date=April 16, 2016 |url=https://math.stackexchange.com/q/1745670 }}</ref> यदि परिवर्तन एक आक्षेप है तो उपरोक्त असमानता एक समानता बन जाती है। इसके अतिरिक्त, जब <math>m</math> एक कठोर घूर्णन, अनुवाद या उसका संयोजन है, जैकोबियन निर्धारक सदैव 1, और <math>h(Y)=h(X)</math>. होता है
* यदि एक यादृच्छिक वेक्टर <math>X \in \mathbb{R}^n</math> माध्य शून्य और [[सहप्रसरण]] मैट्रिक्स है <math>K</math>, <math>h(\mathbf{X}) \leq \frac{1}{2} \log(\det{2 \pi e K}) = \frac{1}{2} \log[(2\pi e)^n \det{K}]</math> समानता के साथ यदि और केवल यदि <math>X</math> बहुभिन्नरूपी सामान्य वितरण#संयुक्त सामान्यता है (सामान्य वितरण में #अधिकतमीकरण देखें)।<ref name="cover_thomas" />{{rp|254}}
* यदि एक यादृच्छिक सदिश <math>X \in \mathbb{R}^n</math> माध्य शून्य और [[सहप्रसरण]] आव्यूह <math>K</math> है , <math>h(\mathbf{X}) \leq \frac{1}{2} \log(\det{2 \pi e K}) = \frac{1}{2} \log[(2\pi e)^n \det{K}]</math> समानता के साथ यदि <math>X</math> बहुभिन्नरूपी सामान्य वितरण संयुक्त सामान्यता है।<ref name="cover_thomas" />{{rp|254}}


हालाँकि, विभेदक एन्ट्रापी में अन्य वांछनीय गुण नहीं हैं:
यद्यपि, विभेदात्मक एन्ट्रापी में अन्य वांछनीय गुण नहीं हैं:
* यह चर के परिवर्तन के तहत अपरिवर्तनीय नहीं है, और इसलिए आयामहीन चर के साथ सबसे उपयोगी है।
* यह चर के परिवर्तन के तहत अपरिवर्तनीय नहीं है, और इसलिए आयामहीन चर के साथ सबसे उपयोगी है।
*यह नकारात्मक हो सकता है.
*यह नकारात्मक हो सकता है.
विभेदक एन्ट्रापी का एक संशोधन जो इन कमियों को संबोधित करता है वह सापेक्ष सूचना एन्ट्रापी है, जिसे कुल्बैक-लीबलर विचलन के रूप में भी जाना जाता है, जिसमें एक [[अपरिवर्तनीय माप]] कारक शामिल है (असतत बिंदुओं की सीमित घनत्व देखें)
विभेदात्मक एन्ट्रापी का एक संशोधन जो इन कमियों को संबोधित करता है वह सापेक्ष सूचना एन्ट्रापी है, जिसे कुल्बैक-लीबलर विचलन के रूप में भी जाना जाता है, जिसमें एक [[अपरिवर्तनीय माप]] कारक सम्मिलित है ।  


==सामान्य वितरण में अधिकतमीकरण==
==सामान्य वितरण में अधिकतमीकरण==


===प्रमेय===
===प्रमेय===
[[सामान्य वितरण]] के साथ, किसी दिए गए विचरण के लिए अंतर एन्ट्रापी अधिकतम होती है। एक गाऊसी यादृच्छिक चर में समान विचरण के सभी यादृच्छिक चर के बीच सबसे बड़ी एन्ट्रापी होती है, या, वैकल्पिक रूप से, माध्य और विचरण की बाधाओं के तहत अधिकतम एन्ट्रापी वितरण गाऊसी होता है।<ref name="cover_thomas" />{{rp|255}}
[[सामान्य वितरण]] के साथ, किसी दिए गए विचरण के लिए अंतर एन्ट्रापी अधिकतम होती है। एक गाऊसी यादृच्छिक चर में समान विचरण के सभी यादृच्छिक चर के बीच सबसे बड़ी एन्ट्रापी होती है, या, वैकल्पिक रूप से, माध्य और विचरण की बाधाओं के अंतर्गत अधिकतम एन्ट्रापी वितरण गाऊसी होता है।<ref name="cover_thomas" />{{rp|255}}


===प्रमाण===
===प्रमाण===
होने देना <math>g(x)</math> माध्य μ और विचरण के साथ एक सामान्य वितरण संभाव्यता घनत्व फ़ंक्शन बनें <math>\sigma^2</math> और <math>f(x)</math> समान विचरण के साथ एक मनमाना संभाव्यता घनत्व फ़ंक्शन। चूँकि विभेदक एन्ट्रापी अनुवाद अपरिवर्तनीय है इसलिए हम यह मान सकते हैं <math>f(x)</math> का एक ही मतलब है <math>\mu</math> जैसा <math>g(x)</math>.
यदि <math>g(x)</math> माध्य μ और विचरण के साथ एक सामान्य वितरण संभाव्यता घनत्व फलन बनें <math>\sigma^2</math> और <math>f(x)</math> समान विचरण के साथ एक संभाव्यता घनत्व फलन होता है चूँकि विभेदात्मक एन्ट्रापी अनुवाद अपरिवर्तनीय होता है इसलिए हम यह मान सकते हैं कि <math>f(x)</math> का औसत <math>\mu</math>के बराबर है जैसे की  <math>g(x)</math>.


दो वितरणों के बीच कुल्बैक-लीब्लर विचलन पर विचार करें
दो वितरणों के बीच कुल्बैक-लीब्लर विचलन पर विचार करें
Line 87: Line 87:
  &= -h(g)
  &= -h(g)
\end{align}</math>
\end{align}</math>
क्योंकि परिणाम निर्भर नहीं करता <math>f(x)</math> विचरण के अलावा अन्य. दोनों परिणामों को मिलाने से परिणाम प्राप्त होते हैं
क्योंकि परिणाम परिवर्तन के माध्यम से अतिरिक्त <math>f(x)</math> पर निर्भर नहीं होता है। इन दो परिणामों को संयोजित करने से हमें निम्न योग का परिणाम मिलता है:
:<math> h(g) - h(f) \geq 0 \!</math>
:<math> h(g) - h(f) \geq 0 \!</math>
समानता के साथ जब <math>f(x)=g(x)</math> कुल्बैक-लीब्लर विचलन के गुणों का अनुसरण करते हुए।
जब <math>f(x)=g(x)</math>होता है, तब बराबरता के अनुसार कुलबैक-लीब्लर विचलन की गुणधर्मों के कारण, परिवर्तन के माध्यम से अतिरिरिक्त कोई दूसरा फलन परिणाम प्राप्त होता है।


===वैकल्पिक प्रमाण===
===वैकल्पिक प्रमाण===
इस परिणाम को [[विविधताओं की गणना]] का उपयोग करके भी प्रदर्शित किया जा सकता है। दो लैग्रैन्जियन गुणकों के साथ एक लैग्रैन्जियन फ़ंक्शन को इस प्रकार परिभाषित किया जा सकता है:
इस परिणाम को [[विविधताओं की गणना]] का उपयोग करके भी प्रदर्शित किया जा सकता है। दो लैग्रैन्जियन गुणकों के साथ एक लैग्रैन्जियन फलन को इस प्रकार परिभाषित किया जा सकता है:


:<math>L=\int_{-\infty}^\infty g(x)\ln(g(x))\,dx-\lambda_0\left(1-\int_{-\infty}^\infty g(x)\,dx\right)-\lambda\left(\sigma^2-\int_{-\infty}^\infty g(x)(x-\mu)^2\,dx\right)</math>
:<math>L=\int_{-\infty}^\infty g(x)\ln(g(x))\,dx-\lambda_0\left(1-\int_{-\infty}^\infty g(x)\,dx\right)-\lambda\left(\sigma^2-\int_{-\infty}^\infty g(x)(x-\mu)^2\,dx\right)</math>
जहाँ g(x) माध्य μ वाला कोई फलन है। जब g(x) की एन्ट्रापी अधिकतम होती है और बाधा समीकरण, जिसमें सामान्यीकरण की स्थिति शामिल होती है <math>\left(1=\int_{-\infty}^\infty g(x)\,dx\right)</math> और निश्चित विचरण की आवश्यकता <math>\left(\sigma^2=\int_{-\infty}^\infty g(x)(x-\mu)^2\,dx\right)</math>, दोनों संतुष्ट हैं, तो g(x) के बारे में एक छोटा बदलाव δg(x) L के बारे में एक बदलाव δL उत्पन्न करेगा जो शून्य के बराबर है:
यहां g(x) एक ऐसा फलन है जिसका औसत μ है जब g(x) की एंट्रोपी अधिकतम पर होती है और विवादापत्रक समीकरण, जो मानकरण शर्त से मिलकर बनते हैं <math>\left(1=\int_{-\infty}^\infty g(x)\,dx\right)</math> और निश्चित विचरण की आवश्यकता <math>\left(\sigma^2=\int_{-\infty}^\infty g(x)(x-\mu)^2\,dx\right)</math>, तब जब वे दोनों संतुष्ट हों, तो g(x) के बारे में एक छोटा विस्तार δg(x) L के बारे में एक बदलाव δL उत्पन्न करेगा जो शून्य के बराबर है:


:<math>0=\delta L=\int_{-\infty}^\infty \delta g(x)\left (\ln(g(x))+1+\lambda_0+\lambda(x-\mu)^2\right )\,dx</math>
:<math>0=\delta L=\int_{-\infty}^\infty \delta g(x)\left (\ln(g(x))+1+\lambda_0+\lambda(x-\mu)^2\right )\,dx</math>
Line 107: Line 107:


==उदाहरण: घातीय वितरण==
==उदाहरण: घातीय वितरण==
होने देना <math>X</math> पैरामीटर के साथ एक घातीय वितरण यादृच्छिक चर बनें <math>\lambda</math>, अर्थात्, संभाव्यता घनत्व फ़ंक्शन के साथ
यदि <math>X</math> पैरामीटर के साथ एक घातीय वितरण यादृच्छिक चर बनें <math>\lambda</math>, अर्थात्, संभाव्यता घनत्व फलन के साथ


:<math>f(x) = \lambda e^{-\lambda x} \mbox{ for } x \geq 0.</math>
:<math>f(x) = \lambda e^{-\lambda x} \mbox{ for } x \geq 0.</math>
इसकी विभेदक एन्ट्रापी तब है
इसकी विभेदात्मक एन्ट्रापी तब है
{|
{|
|-
|-
Line 125: Line 125:
| <math>= -\log\lambda + 1\,.</math>
| <math>= -\log\lambda + 1\,.</math>
|}
|}
यहाँ, <math>h_e(X)</math> के स्थान पर प्रयोग किया गया <math>h(X)</math> यह स्पष्ट करने के लिए कि गणना को सरल बनाने के लिए लघुगणक को आधार पर लिया गया था।
यहाँ, <math>h_e(X)</math> के स्थान पर प्रयोग किया गया <math>h(X)</math> यह स्पष्ट करने के लिए कि गणना को सरल बनाने के लिए लघुगणक को आधार पर लिया गया था।


==आकलनकर्ता त्रुटि से संबंध==
==अनुमानक त्रुटि से संबंध ==
अंतर एन्ट्रापी एक अनुमानक की अपेक्षित वर्ग त्रुटि पर निचली सीमा उत्पन्न करती है। किसी भी यादृच्छिक चर के लिए <math>X</math> और अनुमानक <math>\widehat{X}</math> निम्नलिखित धारण करता है:<ref name="cover_thomas" />:<math>\operatorname{E}[(X - \widehat{X})^2] \ge \frac{1}{2\pi e}e^{2h(X)}</math>
विभेदात्मक एन्ट्रापी एक अनुमानक अपेक्षित वर्ग त्रुटि पर निचली सीमा उत्पन्न करती है। किसी भी यादृच्छिक मानक <math>X</math> और अनुमानक <math>\widehat{X}</math> के लिए निम्नलिखित सत्य होता है।:<ref name="cover_thomas" />:
समानता के साथ यदि और केवल यदि <math>X</math> एक गाऊसी यादृच्छिक चर है और <math>\widehat{X}</math> का माध्य है <math>X</math>.


==विभिन्न वितरणों के लिए विभेदक एन्ट्रॉपी==
<math>\operatorname{E}[(X - \widehat{X})^2] \ge \frac{1}{2\pi e}e^{2h(X)}</math>
नीचे दी गई तालिका में <math>\Gamma(x) = \int_0^{\infty} e^{-t} t^{x-1} dt</math> [[गामा फ़ंक्शन]] है, <math>\psi(x) = \frac{d}{dx} \ln\Gamma(x)=\frac{\Gamma'(x)}{\Gamma(x)}</math> [[डिगामा फ़ंक्शन]] है, <math>B(p,q) = \frac{\Gamma(p)\Gamma(q)}{\Gamma(p+q)}</math> [[बीटा फ़ंक्शन]] है, और γ<sub>''E''</sub> यूलर-माशेरोनी स्थिरांक है|यूलर का स्थिरांक।<ref>{{cite journal |last1=Park |first1=Sung Y. |last2=Bera |first2=Anil K. |year=2009 |title=अधिकतम एन्ट्रापी ऑटोरेग्रेसिव कंडीशनल हेटेरोस्केडैस्टिसिटी मॉडल|journal=Journal of Econometrics |volume=150 |issue=2 |pages=219–230 |publisher=Elsevier |doi=10.1016/j.jeconom.2008.12.014 |url=http://www.wise.xmu.edu.cn/Master/Download/..%5C..%5CUploadFiles%5Cpaper-masterdownload%5C2009519932327055475115776.pdf |access-date=2011-06-02 |archive-url=https://web.archive.org/web/20160307144515/http://wise.xmu.edu.cn/uploadfiles/paper-masterdownload/2009519932327055475115776.pdf |archive-date=2016-03-07 |url-status=dead }}</ref>{{rp|219–230}}
 
यह सत्य केवल तब होता है जब <math>X</math> एक गाऊसी यादृच्छिक चर है और <math>\widehat{X}</math> का माध्य <math>X</math>.है।
 
==विभिन्न वितरणों के लिए विभेदात्मक एन्ट्रॉपी==
नीचे दी गई तालिका में <math>\Gamma(x) = \int_0^{\infty} e^{-t} t^{x-1} dt</math> [[गामा फ़ंक्शन|गामाफलन]] है, <math>\psi(x) = \frac{d}{dx} \ln\Gamma(x)=\frac{\Gamma'(x)}{\Gamma(x)}</math> [[डिगामा फ़ंक्शन|डिगामाफलन]] है, <math>B(p,q) = \frac{\Gamma(p)\Gamma(q)}{\Gamma(p+q)}</math> [[बीटा फ़ंक्शन|बीटाफलन]] है, और γ<sub>''E''</sub> यूलर-माशेरोनी स्थिरांक है<ref>{{cite journal |last1=Park |first1=Sung Y. |last2=Bera |first2=Anil K. |year=2009 |title=अधिकतम एन्ट्रापी ऑटोरेग्रेसिव कंडीशनल हेटेरोस्केडैस्टिसिटी मॉडल|journal=Journal of Econometrics |volume=150 |issue=2 |pages=219–230 |publisher=Elsevier |doi=10.1016/j.jeconom.2008.12.014 |url=http://www.wise.xmu.edu.cn/Master/Download/..%5C..%5CUploadFiles%5Cpaper-masterdownload%5C2009519932327055475115776.pdf |access-date=2011-06-02 |archive-url=https://web.archive.org/web/20160307144515/http://wise.xmu.edu.cn/uploadfiles/paper-masterdownload/2009519932327055475115776.pdf |archive-date=2016-03-07 |url-status=dead }}</ref>
{| class="wikitable" style="background:white"
{| class="wikitable" style="background:white"
|+ Table of differential entropies
|+ विभेदात्मक एन्ट्रॉपियों की तालिका
|-
|-
! Distribution Name !! Probability density function (pdf) !! Differential entropy in [[Nat (unit)|nat]]s || Support
!वितरण का नाम
!संभाव्यता घनत्व फलन (पीडीएफ)
!नेट्स में विभेदात्मक एन्ट्रापी
!समर्थन
|-
|-
| [[Uniform distribution (continuous)|Uniform]] || <math>f(x) = \frac{1}{b-a}</math> || <math>\ln(b - a) \,</math> ||<math>[a,b]\,</math>
| [[Uniform distribution (continuous)|समरूप]] || <math>f(x) = \frac{1}{b-a}</math> || <math>\ln(b - a) \,</math> ||<math>[a,b]\,</math>
|-
|-
| [[Normal distribution|Normal]] || <math>f(x) = \frac{1}{\sqrt{2\pi\sigma^2}} \exp\left(-\frac{(x-\mu)^2}{2\sigma^2}\right)</math> || <math>\ln\left(\sigma\sqrt{2\,\pi\,e}\right) </math>||<math>(-\infty,\infty)\,</math>
| [[Normal distribution|सामान्य]] || <math>f(x) = \frac{1}{\sqrt{2\pi\sigma^2}} \exp\left(-\frac{(x-\mu)^2}{2\sigma^2}\right)</math> || <math>\ln\left(\sigma\sqrt{2\,\pi\,e}\right) </math>||<math>(-\infty,\infty)\,</math>
|-
|-
| [[Exponential distribution|Exponential]] || <math>f(x) = \lambda \exp\left(-\lambda x\right)</math> || <math>1 - \ln \lambda \, </math>||<math>[0,\infty)\,</math>
| [[Exponential distribution|घातांकीय]] || <math>f(x) = \lambda \exp\left(-\lambda x\right)</math> || <math>1 - \ln \lambda \, </math>||<math>[0,\infty)\,</math>
|-
|-
| [[Rayleigh distribution|Rayleigh]] || <math>f(x) = \frac{x}{\sigma^2} \exp\left(-\frac{x^2}{2\sigma^2}\right)</math> || <math>1 + \ln \frac{\sigma}{\sqrt{2}} + \frac{\gamma_E}{2}</math>||<math>[0,\infty)\,</math>
| [[Rayleigh distribution|रेले]] || <math>f(x) = \frac{x}{\sigma^2} \exp\left(-\frac{x^2}{2\sigma^2}\right)</math> || <math>1 + \ln \frac{\sigma}{\sqrt{2}} + \frac{\gamma_E}{2}</math>||<math>[0,\infty)\,</math>
|-
|-
| [[Beta distribution|Beta]] || <math>f(x) = \frac{x^{\alpha-1}(1-x)^{\beta-1}}{B(\alpha,\beta)}</math> for <math>0 \leq x \leq 1</math> || <math> \ln B(\alpha,\beta) - (\alpha-1)[\psi(\alpha) - \psi(\alpha +\beta)]\,</math><br /><math>- (\beta-1)[\psi(\beta) - \psi(\alpha + \beta)] \, </math>||<math>[0,1]\,</math>
| [[Beta distribution|बीटा]] || <math>f(x) = \frac{x^{\alpha-1}(1-x)^{\beta-1}}{B(\alpha,\beta)}</math> for <math>0 \leq x \leq 1</math> || <math> \ln B(\alpha,\beta) - (\alpha-1)[\psi(\alpha) - \psi(\alpha +\beta)]\,</math><br /><math>- (\beta-1)[\psi(\beta) - \psi(\alpha + \beta)] \, </math>||<math>[0,1]\,</math>
|-
|-
| [[Cauchy distribution|Cauchy]] || <math>f(x) = \frac{\gamma}{\pi} \frac{1}{\gamma^2 + x^2}</math> || <math>\ln(4\pi\gamma) \, </math>||<math>(-\infty,\infty)\,</math>
| [[Cauchy distribution|कौशी]] || <math>f(x) = \frac{\gamma}{\pi} \frac{1}{\gamma^2 + x^2}</math> || <math>\ln(4\pi\gamma) \, </math>||<math>(-\infty,\infty)\,</math>
|-
|-
| [[Chi distribution|Chi]] || <math>f(x) = \frac{2}{2^{k/2}  \Gamma(k/2)} x^{k-1} \exp\left(-\frac{x^2}{2}\right)</math> || <math>\ln{\frac{\Gamma(k/2)}{\sqrt{2}}} - \frac{k-1}{2} \psi\left(\frac{k}{2}\right) + \frac{k}{2}</math>||<math>[0,\infty)\,</math>
| [[Chi distribution|ची]] || <math>f(x) = \frac{2}{2^{k/2}  \Gamma(k/2)} x^{k-1} \exp\left(-\frac{x^2}{2}\right)</math> || <math>\ln{\frac{\Gamma(k/2)}{\sqrt{2}}} - \frac{k-1}{2} \psi\left(\frac{k}{2}\right) + \frac{k}{2}</math>||<math>[0,\infty)\,</math>
|-
|-
| [[Chi-squared distribution|Chi-squared]] || <math>f(x) = \frac{1}{2^{k/2} \Gamma(k/2)} x^{\frac{k}{2}\!-\!1} \exp\left(-\frac{x}{2}\right)</math> || <math>\ln 2\Gamma\left(\frac{k}{2}\right) - \left(1 - \frac{k}{2}\right)\psi\left(\frac{k}{2}\right) + \frac{k}{2}</math>||<math>[0,\infty)\,</math>
| [[Chi-squared distribution|ची- समकोण]] || <math>f(x) = \frac{1}{2^{k/2} \Gamma(k/2)} x^{\frac{k}{2}\!-\!1} \exp\left(-\frac{x}{2}\right)</math> || <math>\ln 2\Gamma\left(\frac{k}{2}\right) - \left(1 - \frac{k}{2}\right)\psi\left(\frac{k}{2}\right) + \frac{k}{2}</math>||<math>[0,\infty)\,</math>
|-
|-
| [[Erlang distribution|Erlang]] || <math>f(x) = \frac{\lambda^k}{(k-1)!} x^{k-1} \exp(-\lambda x)</math> || <math>(1-k)\psi(k) + \ln \frac{\Gamma(k)}{\lambda} + k</math>||<math>[0,\infty)\,</math>
| [[Erlang distribution|अर्लंग]] || <math>f(x) = \frac{\lambda^k}{(k-1)!} x^{k-1} \exp(-\lambda x)</math> || <math>(1-k)\psi(k) + \ln \frac{\Gamma(k)}{\lambda} + k</math>||<math>[0,\infty)\,</math>
|-
|-
| [[F distribution|F]] || <math>f(x) = \frac{n_1^{\frac{n_1}{2}} n_2^{\frac{n_2}{2}}}{B(\frac{n_1}{2},\frac{n_2}{2})} \frac{x^{\frac{n_1}{2} - 1}}{(n_2 + n_1 x)^{\frac{n_1 + n2}{2}}}</math> || <math>\ln \frac{n_1}{n_2} B\left(\frac{n_1}{2},\frac{n_2}{2}\right) + \left(1 - \frac{n_1}{2}\right) \psi\left(\frac{n_1}{2}\right) -</math><br /><math>\left(1 + \frac{n_2}{2}\right)\psi\left(\frac{n_2}{2}\right) + \frac{n_1 + n_2}{2} \psi\left(\frac{n_1\!+\!n_2}{2}\right)</math>||<math>[0,\infty)\,</math>
| [[F distribution|एफ]] || <math>f(x) = \frac{n_1^{\frac{n_1}{2}} n_2^{\frac{n_2}{2}}}{B(\frac{n_1}{2},\frac{n_2}{2})} \frac{x^{\frac{n_1}{2} - 1}}{(n_2 + n_1 x)^{\frac{n_1 + n2}{2}}}</math> || <math>\ln \frac{n_1}{n_2} B\left(\frac{n_1}{2},\frac{n_2}{2}\right) + \left(1 - \frac{n_1}{2}\right) \psi\left(\frac{n_1}{2}\right) -</math><br /><math>\left(1 + \frac{n_2}{2}\right)\psi\left(\frac{n_2}{2}\right) + \frac{n_1 + n_2}{2} \psi\left(\frac{n_1\!+\!n_2}{2}\right)</math>||<math>[0,\infty)\,</math>
|-
|-
| [[Gamma distribution|Gamma]] || <math>f(x) = \frac{x^{k - 1} \exp(-\frac{x}{\theta})}{\theta^k \Gamma(k)}</math> || <math>\ln(\theta \Gamma(k)) + (1 - k)\psi(k) + k \, </math>||<math>[0,\infty)\,</math>
| [[Gamma distribution|गामा]] || <math>f(x) = \frac{x^{k - 1} \exp(-\frac{x}{\theta})}{\theta^k \Gamma(k)}</math> || <math>\ln(\theta \Gamma(k)) + (1 - k)\psi(k) + k \, </math>||<math>[0,\infty)\,</math>
|-
|-
| [[Laplace distribution|Laplace]] || <math>f(x) = \frac{1}{2b} \exp\left(-\frac{|x - \mu|}{बी}\दाएं)</गणित> ||  गणित>1 + \n(ab)\, </गणित>||<math>(-\infty,\infty)\,</math>
|लाप्लास
| <math>f(x) = \frac{e^{-x/s}}{s(1 + e^{-x/s})^2}</math>
|<math>\ln s + 2 \, </math>
|<math>(-\infty,\infty)\,</math>
|-
|-
| लॉजिस्टिक वितरण || <math>f(x) = \frac{e^{-x/s}}{s(1 + e^{-x/s})^2}</math> || <math>\ln s + 2 \, </math>||<math>(-\infty,\infty)\,</math>
| लॉजिस्टिक वितरण || <math>f(x) = \frac{e^{-x/s}}{s(1 + e^{-x/s})^2}</math> || <math>\ln s + 2 \, </math>||<math>(-\infty,\infty)\,</math>
Line 186: Line 195:
|}
|}


अनेक विभेदक एन्ट्रापी से हैं।<ref name="lazorathie">{{cite journal|author=Lazo, A. and P. Rathie|title=सतत संभाव्यता वितरण की एन्ट्रापी पर|journal=IEEE Transactions on Information Theory|year=1978|volume=24 |issue=1|doi=10.1109/TIT.1978.1055832|pages=120–122}}</ref>{{rp|120–122}}
अनेक विभेदात्मक एन्ट्रापी हैं।<ref name="lazorathie">{{cite journal|author=Lazo, A. and P. Rathie|title=सतत संभाव्यता वितरण की एन्ट्रापी पर|journal=IEEE Transactions on Information Theory|year=1978|volume=24 |issue=1|doi=10.1109/TIT.1978.1055832|pages=120–122}}</ref>{{rp|120–122}}


==वेरिएंट==
==परिवर्त रूप ==
जैसा कि ऊपर वर्णित है, विभेदक एन्ट्रॉपी असतत एन्ट्रॉपी के सभी गुणों को साझा नहीं करती है। उदाहरण के लिए, विभेदक एन्ट्रापी नकारात्मक हो सकती है; निरंतर समन्वय परिवर्तनों के तहत भी यह अपरिवर्तनीय नहीं है। [[एडविन थॉम्पसन जेन्स]] ने वास्तव में दिखाया कि उपरोक्त अभिव्यक्ति संभावनाओं के एक सीमित सेट के लिए अभिव्यक्ति की सही सीमा नहीं है।<ref>{{cite journal |author=Jaynes, E.T. |author-link=Edwin Thompson Jaynes |title=सूचना सिद्धांत और सांख्यिकीय यांत्रिकी|journal=Brandeis University Summer Institute Lectures in Theoretical Physics |volume=3 |issue=sect. 4b |year=1963 |url=http://bayes.wustl.edu/etj/articles/brandeis.pdf }}</ref>{{rp|181–218}}
जैसा कि ऊपर वर्णित है, विभेदात्मक एन्ट्रॉपी निर्दिष्ट एंट्रोपी के सभी गुणधर्मों को साझा नहीं करती है। उदाहरण के लिए, विभेदात्मक एन्ट्रापी नकारात्मक हो सकती है; इसके अतिरिक्त यह निरंतर संयुक्त निर्देशांक परिवर्तनों के अंतर्गत अविरूपी नहीं होती है। [[एडविन थॉम्पसन जेन्स]] ने वास्तव में दिखाया कि उपरोक्त अभिव्यक्ति संभावनाओं के एक सीमित समुच्चय के लिए अभिव्यक्ति की सही सीमा नहीं है।<ref>{{cite journal |author=Jaynes, E.T. |author-link=Edwin Thompson Jaynes |title=सूचना सिद्धांत और सांख्यिकीय यांत्रिकी|journal=Brandeis University Summer Institute Lectures in Theoretical Physics |volume=3 |issue=sect. 4b |year=1963 |url=http://bayes.wustl.edu/etj/articles/brandeis.pdf }}</ref>


विभेदक एन्ट्रापी का एक संशोधन इसे ठीक करने के लिए एक अपरिवर्तनीय माप कारक जोड़ता है, (असतत बिंदुओं की सीमित घनत्व देखें)। अगर <math>m(x)</math> आगे संभाव्यता घनत्व होने के लिए बाध्य किया गया है, परिणामी धारणा को सूचना सिद्धांत में सापेक्ष एन्ट्रापी कहा जाता है:
विभेदात्मक एंट्रोपी का एक संशोधन इसे सही करने के लिए एक अविरूपी माप घटक जोड़ता है।
 
यदि <math>m(x)</math> आगे संभाव्यता घनत्व होने के लिए बाध्य किया गया है,तो परिणामी धारणा को सूचना सिद्धांत में सापेक्ष एन्ट्रापी कहा जाता है:


:<math>D(p||m) = \int p(x)\log\frac{p(x)}{m(x)}\,dx.</math>
:<math>D(p||m) = \int p(x)\log\frac{p(x)}{m(x)}\,dx.</math>
उपरोक्त विभेदक एन्ट्रापी की परिभाषा को सीमा को विभाजित करके प्राप्त किया जा सकता है <math>X</math> लंबाई के डिब्बे में <math>h</math> संबंधित नमूना बिंदुओं के साथ <math>ih</math> डिब्बे के भीतर, के लिए <math>X</math> रीमैन अभिन्न. यह का क्वांटाइज़ेशन (सिग्नल प्रोसेसिंग) संस्करण देता है <math>X</math>, द्वारा परिभाषित <math>X_h = ih</math> अगर <math>ih \le X \le (i+1)h</math>. फिर की एन्ट्रापी <math>X_h = ih</math> है<ref name="cover_thomas"/>
उपरोक्त विभेदात्मकएंट्रोपी की परिभाषा को, <math>X</math> की मान की श्रेणियों में विभाजित करके प्राप्त किया जा सकता है, जहां प्रत्येक श्रेणी की लंबाई <math>h</math> है,और श्रेणी में संबंधित प्रारूपित बिंदुओं को <math>ih</math> के रूप में निर्दिष्ट किया जाता है, जहां <math>X</math>अविभाज्य होता है। यह एक क्वांटाइज़ड संस्करण है जो <math>X</math>, द्वारा परिभाषित किया जाता हैं  जिसे <math>X_h = ih</math> यदि <math>ih \le X \le (i+1)h</math>.हैं। पुनः <math>X_h = ih</math> का एंट्रोपी है।<ref name="cover_thomas" />


:<math>H_h=-\sum_i hf(ih)\log (f(ih)) - \sum hf(ih)\log(h).</math>
:<math>H_h=-\sum_i hf(ih)\log (f(ih)) - \sum hf(ih)\log(h).</math>
दाईं ओर का पहला पद अंतर एन्ट्रापी का अनुमान लगाता है, जबकि दूसरा पद लगभग है <math>-\log(h)</math>. ध्यान दें कि यह प्रक्रिया बताती है कि एक सतत यादृच्छिक चर के असतत अर्थ में एन्ट्रापी होनी चाहिए <math>\infty</math>.
दायीं ओर का पहला पद विभेदात्मक एन्ट्रापी का अनुमान लगाता है, जबकि दूसरा पद लगभग <math>-\log(h)</math>का अनुमान लगाता है। ध्यान दें कि यह प्रक्रिया सूचित करती है कि एक सतत यादृच्छिक मानक के अविच्छिन्न संदर्भ में असतत रूप से एंट्रोपी अनंत <math>\infty</math>होनी चाहिए।


==यह भी देखें==
==यह भी देखें==
Line 211: Line 222:
* {{springer|title=Differential entropy|id=p/d031890}}
* {{springer|title=Differential entropy|id=p/d031890}}
* {{planetmath reference|urlname=DifferentialEntropy|title=Differential entropy}}
* {{planetmath reference|urlname=DifferentialEntropy|title=Differential entropy}}
[[Category: एन्ट्रापी और सूचना]] [[Category: सूचना सिद्धांत]] [[Category: सांख्यिकीय यादृच्छिकता]]


[[Category: Machine Translated Page]]
[[Category:Created On 30/06/2023]]
[[Category:Created On 30/06/2023]]
[[Category:Lua-based templates]]
[[Category:Machine Translated Page]]
[[Category:Pages with script errors]]
[[Category:Templates Vigyan Ready]]
[[Category:Templates that add a tracking category]]
[[Category:Templates that generate short descriptions]]
[[Category:Templates using TemplateData]]
[[Category:एन्ट्रापी और सूचना]]
[[Category:सांख्यिकीय यादृच्छिकता]]
[[Category:सूचना सिद्धांत]]

Latest revision as of 08:03, 16 July 2023

विभेदात्मक एंट्रोपी सूचना सिद्धांत में एक अवधारणा है जिसने क्लोड शैनन के प्रयास को आगे बढ़ाने के लिए प्रयास किया था, जहां एंट्रोपी, एक यादृच्छिक प्रारूपी की औसत माप, को निरंतर संभावना तक विस्तारित करने के प्रयास के रूप में किया गया था।

दुर्भाग्य से, शैनन ने इस सूत्र को नहीं निकाला था, बल्कि उन्होंने सिर्फ यह माना था कि यह असतत एन्ट्रापी की सही निरंतर अनुक्रमिका है, लेकिन ऐसा नहीं है।[1] वास्तविक रूप से असतत एंट्रोपी का वास्तविक निरंतर संस्करण बिन्दुओं का सीमा घनत्व है। विभेदात्मक एंट्रोपी साहित्य में सामान्यतः आपत्ति में आती है, परंतु यह एक सीमांकीय स्थिति है जो एलडीडीपी का होता है और एक है जो अपने साथ असंतत एंट्रोपी के मौलिक संबंध को खो देता है।

एक माप सिद्धांत की परिभाषा के अनुसार, प्रायिकता माप की विभेदात्मक एंट्रोपी उस माप से लेबेस्ग माप तक की नकारात्मक संबंधित एंट्रोपी होती है, जहां दूसरे को प्रायिकता माप के रूप में व्यवहारिक रूप से उपयोग किया जाता है, यद्यपि वह अविशोधित है।

परिभाषा

एक यादृच्छिक चर हो जिसकी प्रायिकता घनत्व फलन हो और जिसका समर्थन समुच्चय .हो विभेदात्मक एन्ट्रापी या परिभाषित किया जाता है[2]: 243 

संभाव्यता वितरण के लिए जिसमें स्पष्ट घनत्व फलन व्यंजक नहीं है, लेकिन एक स्पष्ट मात्रात्मक कार्य व्यंजक है,तब ,या के व्युत्पन्न के रूप में परिभाषित किया जा सकता है जैसे मात्रात्मक घनत्व फलन [3]: 54–59 

.
विभेदात्मक एंट्रोपी की एक विशेषता यह है कि इसकी मात्रा लघुत्तम मानदंड के आधार पर निर्भर करती है, जो सामान्यतः 2 होता है अर्थात मात्रा बिट में होती है विभिन्न आधारों में लिए गए लघुगणक के लिए लघुगणक इकाइयाँ देखें। संयुक्त एन्ट्रॉपी, सशर्त एन्ट्रॉपी अंतर एन्ट्रॉपी, और कुल्बैक-लीबलर विचलन जैसी संबंधित अवधारणाओं को समान नियमों से परिभाषित किया गया है। असतत रेखीय के विपरीत, अंतर एन्ट्रॉपी में एक प्रतिसंतुलन होता है जो .को मापने के लिए प्रयोग की जाने वाली मात्राओं पर निर्भर करता है।[4]: 183–184  उदाहरण के लिए, जब कोई मात्रा मिलीमीटर में मापी जाती है तो उसकी विभेदात्मक एंट्रोपी मीटर में मापी गई समान मात्रा से log(1000) अधिक होगी एक अयांस-मात्रिक मात्रा की विभेदात्मक एन्ट्रापी log(1000) अधिक होगी जब समान मात्रा को 1000 से विभाजित किया जाता है।

किसी को असतत एन्ट्रापी के गुणों को विभेदात्मक एन्ट्रापी पर लागू करने का प्रयास करते समय सावधानी बरतनी चाहिए, क्योंकि संभाव्यता घनत्व कार्य 1 से अधिक हो सकते हैं। उदाहरण के लिए, समान वितरण नकारात्मक विभेदात्मक एंट्रोपी रखता है; अर्थात यह की तुलना में अच्छी तरह से व्यवस्थित है।

यह उदाहरण दिखाता है कि इस प्रकार विभेदात्मक एंट्रोपी, असतत एन्ट्रापी के सभी गुणों को साझा नहीं करता हैं।

ध्यान दें कि निरंतर पारस्परिक जानकारी अपने मौलिक महत्व को बनाए रखती है, क्योंकि यह वास्तव में और जैसे-के विभाजनों की असतत सापेक्ष जानकारी की सीमा है, जबकि ये विभाजन दिन-प्रतिदिन अधिक सूक्ष्म होते हैं।इसलिए यह गैर-रैखिक होमियोमोर्फिज़म के अधीन समानवर्ती रहती है, ,[5] रैखिक सहित[6] और , के संवर्तनों के अधीन और फिर भी असतत जानकारी की मात्रा को प्रसारित किया जा सकता है जो मूल्यों के निरंतर स्थान को स्वीकार करता है।

निरंतर स्थान तक विस्तारित असतत एन्ट्रापी के प्रत्यक्ष समवृत्ति के लिए, असतत बिंदुओं की सीमित घनत्व देखें।

विभेदात्मक एन्ट्रापी के गुण

  • संभाव्यता घनत्व के लिए और , कुल्बैक-लीब्लर विचलन केवल समानता के साथ 0 से बड़ा या उसके बराबर है लगभग हर जगह। इसी प्रकार, दो यादृच्छिक चर के लिए और , और समानता के साथ यदि और केवल यदि और स्वतंत्र होते हैं।.
  • विभेदात्मक एन्ट्रापी के लिए श्रृंखला नियम असतत स्थितियों की तरह ही लागू होता है[2]: 253 
.
  • विभेदात्मक एन्ट्रापी अनुवाद अपरिवर्तनीय है, अर्थात स्थिरांक के लिए .[2]: 253 
  • सामान्यतः विभेदात्मक एन्ट्रापी स्वेच्छिक प्रतिघाती मानचित्रों के अधीन सर्वसाधारणतः स्थानांतरित नहीं होती है।
विशेष रूप से, स्थिरांक के लिए
एक सदिश मूल्यवान यादृच्छिक चर और एक उलटा (वर्ग) आव्यूह (गणित)
[2]: 253 
  • सामान्यतः, एक यादृच्छिक सदिश से समान आयाम वाले दूसरे यादृच्छिक सदिश में परिवर्तन के लिए , संबंधित एन्ट्रॉपी के माध्यम से संबंधित हैं
जहाँ जैकोबियन आव्यूह और परिवर्तन का निर्धारक है .[7] यदि परिवर्तन एक आक्षेप है तो उपरोक्त असमानता एक समानता बन जाती है। इसके अतिरिक्त, जब एक कठोर घूर्णन, अनुवाद या उसका संयोजन है, जैकोबियन निर्धारक सदैव 1, और . होता है
  • यदि एक यादृच्छिक सदिश माध्य शून्य और सहप्रसरण आव्यूह है , समानता के साथ यदि बहुभिन्नरूपी सामान्य वितरण संयुक्त सामान्यता है।[2]: 254 

यद्यपि, विभेदात्मक एन्ट्रापी में अन्य वांछनीय गुण नहीं हैं:

  • यह चर के परिवर्तन के तहत अपरिवर्तनीय नहीं है, और इसलिए आयामहीन चर के साथ सबसे उपयोगी है।
  • यह नकारात्मक हो सकता है.

विभेदात्मक एन्ट्रापी का एक संशोधन जो इन कमियों को संबोधित करता है वह सापेक्ष सूचना एन्ट्रापी है, जिसे कुल्बैक-लीबलर विचलन के रूप में भी जाना जाता है, जिसमें एक अपरिवर्तनीय माप कारक सम्मिलित है ।

सामान्य वितरण में अधिकतमीकरण

प्रमेय

सामान्य वितरण के साथ, किसी दिए गए विचरण के लिए अंतर एन्ट्रापी अधिकतम होती है। एक गाऊसी यादृच्छिक चर में समान विचरण के सभी यादृच्छिक चर के बीच सबसे बड़ी एन्ट्रापी होती है, या, वैकल्पिक रूप से, माध्य और विचरण की बाधाओं के अंतर्गत अधिकतम एन्ट्रापी वितरण गाऊसी होता है।[2]: 255 

प्रमाण

यदि माध्य μ और विचरण के साथ एक सामान्य वितरण संभाव्यता घनत्व फलन बनें और समान विचरण के साथ एक संभाव्यता घनत्व फलन होता है चूँकि विभेदात्मक एन्ट्रापी अनुवाद अपरिवर्तनीय होता है इसलिए हम यह मान सकते हैं कि का औसत के बराबर है जैसे की .

दो वितरणों के बीच कुल्बैक-लीब्लर विचलन पर विचार करें

अब उस पर ध्यान दें

क्योंकि परिणाम परिवर्तन के माध्यम से अतिरिक्त पर निर्भर नहीं होता है। इन दो परिणामों को संयोजित करने से हमें निम्न योग का परिणाम मिलता है:

जब होता है, तब बराबरता के अनुसार कुलबैक-लीब्लर विचलन की गुणधर्मों के कारण, परिवर्तन के माध्यम से अतिरिरिक्त कोई दूसरा फलन परिणाम प्राप्त होता है।

वैकल्पिक प्रमाण

इस परिणाम को विविधताओं की गणना का उपयोग करके भी प्रदर्शित किया जा सकता है। दो लैग्रैन्जियन गुणकों के साथ एक लैग्रैन्जियन फलन को इस प्रकार परिभाषित किया जा सकता है:

यहां g(x) एक ऐसा फलन है जिसका औसत μ है जब g(x) की एंट्रोपी अधिकतम पर होती है और विवादापत्रक समीकरण, जो मानकरण शर्त से मिलकर बनते हैं और निश्चित विचरण की आवश्यकता , तब जब वे दोनों संतुष्ट हों, तो g(x) के बारे में एक छोटा विस्तार δg(x) L के बारे में एक बदलाव δL उत्पन्न करेगा जो शून्य के बराबर है:

चूँकि यह किसी भी छोटे δg(x) के लिए होना चाहिए, कोष्ठक में पद शून्य होना चाहिए, और g(x) के लिए हल करने पर परिणाम प्राप्त होंगे:

λ को हल करने के लिए बाधा समीकरणों का उपयोग करना0 और λ सामान्य वितरण उत्पन्न करता है:


उदाहरण: घातीय वितरण

यदि पैरामीटर के साथ एक घातीय वितरण यादृच्छिक चर बनें , अर्थात्, संभाव्यता घनत्व फलन के साथ

इसकी विभेदात्मक एन्ट्रापी तब है

यहाँ, के स्थान पर प्रयोग किया गया यह स्पष्ट करने के लिए कि गणना को सरल बनाने के लिए लघुगणक को आधार e पर लिया गया था।

अनुमानक त्रुटि से संबंध

विभेदात्मक एन्ट्रापी एक अनुमानक अपेक्षित वर्ग त्रुटि पर निचली सीमा उत्पन्न करती है। किसी भी यादृच्छिक मानक और अनुमानक के लिए निम्नलिखित सत्य होता है।:[2]:

यह सत्य केवल तब होता है जब एक गाऊसी यादृच्छिक चर है और का माध्य .है।

विभिन्न वितरणों के लिए विभेदात्मक एन्ट्रॉपी

नीचे दी गई तालिका में गामाफलन है, डिगामाफलन है, बीटाफलन है, और γE यूलर-माशेरोनी स्थिरांक है[8]

विभेदात्मक एन्ट्रॉपियों की तालिका
वितरण का नाम संभाव्यता घनत्व फलन (पीडीएफ) नेट्स में विभेदात्मक एन्ट्रापी समर्थन
समरूप
सामान्य
घातांकीय
रेले
बीटा for
कौशी
ची
ची- समकोण
अर्लंग
एफ
गामा
लाप्लास
लॉजिस्टिक वितरण
लॉग-सामान्य वितरण
मैक्सवेल-बोल्ट्ज़मैन
सामान्यीकृत गाऊसी वितरण
पेरेटो वितरण
छात्र का t
त्रिकोणीय वितरण
वेइबुल वितरण
बहुभिन्नरूपी सामान्य वितरण

अनेक विभेदात्मक एन्ट्रापी हैं।[9]: 120–122 

परिवर्त रूप

जैसा कि ऊपर वर्णित है, विभेदात्मक एन्ट्रॉपी निर्दिष्ट एंट्रोपी के सभी गुणधर्मों को साझा नहीं करती है। उदाहरण के लिए, विभेदात्मक एन्ट्रापी नकारात्मक हो सकती है; इसके अतिरिक्त यह निरंतर संयुक्त निर्देशांक परिवर्तनों के अंतर्गत अविरूपी नहीं होती है। एडविन थॉम्पसन जेन्स ने वास्तव में दिखाया कि उपरोक्त अभिव्यक्ति संभावनाओं के एक सीमित समुच्चय के लिए अभिव्यक्ति की सही सीमा नहीं है।[10]

विभेदात्मक एंट्रोपी का एक संशोधन इसे सही करने के लिए एक अविरूपी माप घटक जोड़ता है।

यदि आगे संभाव्यता घनत्व होने के लिए बाध्य किया गया है,तो परिणामी धारणा को सूचना सिद्धांत में सापेक्ष एन्ट्रापी कहा जाता है:

उपरोक्त विभेदात्मकएंट्रोपी की परिभाषा को, की मान की श्रेणियों में विभाजित करके प्राप्त किया जा सकता है, जहां प्रत्येक श्रेणी की लंबाई है,और श्रेणी में संबंधित प्रारूपित बिंदुओं को के रूप में निर्दिष्ट किया जाता है, जहां अविभाज्य होता है। यह एक क्वांटाइज़ड संस्करण है जो , द्वारा परिभाषित किया जाता हैं जिसे यदि .हैं। पुनः का एंट्रोपी है।[2]

दायीं ओर का पहला पद विभेदात्मक एन्ट्रापी का अनुमान लगाता है, जबकि दूसरा पद लगभग का अनुमान लगाता है। ध्यान दें कि यह प्रक्रिया सूचित करती है कि एक सतत यादृच्छिक मानक के अविच्छिन्न संदर्भ में असतत रूप से एंट्रोपी अनंत होनी चाहिए।

यह भी देखें

  • सूचना एन्ट्रापी
  • स्वयं जानकारी
  • एंट्रॉपी अनुमान

संदर्भ

  1. Jaynes, E.T. (1963). "सूचना सिद्धांत और सांख्यिकीय यांत्रिकी" (PDF). Brandeis University Summer Institute Lectures in Theoretical Physics. 3 (sect. 4b).
  2. 2.0 2.1 2.2 2.3 2.4 2.5 2.6 2.7 Cover, Thomas M.; Thomas, Joy A. (1991). सूचना सिद्धांत के तत्व. New York: Wiley. ISBN 0-471-06259-6.
  3. Vasicek, Oldrich (1976), "A Test for Normality Based on Sample Entropy", Journal of the Royal Statistical Society, Series B, 38 (1): 54–59, JSTOR 2984828.
  4. Gibbs, Josiah Willard (1902). Elementary Principles in Statistical Mechanics, developed with especial reference to the rational foundation of thermodynamics. New York: Charles Scribner's Sons.
  5. Kraskov, Alexander; Stögbauer, Grassberger (2004). "Estimating mutual information". Physical Review E. 60 (6): 066138. arXiv:cond-mat/0305641. Bibcode:2004PhRvE..69f6138K. doi:10.1103/PhysRevE.69.066138. PMID 15244698. S2CID 1269438.
  6. Fazlollah M. Reza (1994) [1961]. सूचना सिद्धांत का एक परिचय. Dover Publications, Inc., New York. ISBN 0-486-68210-2.
  7. "f(X) की विभेदक एन्ट्रापी पर ऊपरी सीमा का प्रमाण". Stack Exchange. April 16, 2016.
  8. Park, Sung Y.; Bera, Anil K. (2009). "अधिकतम एन्ट्रापी ऑटोरेग्रेसिव कंडीशनल हेटेरोस्केडैस्टिसिटी मॉडल" (PDF). Journal of Econometrics. Elsevier. 150 (2): 219–230. doi:10.1016/j.jeconom.2008.12.014. Archived from the original (PDF) on 2016-03-07. Retrieved 2011-06-02.
  9. Lazo, A. and P. Rathie (1978). "सतत संभाव्यता वितरण की एन्ट्रापी पर". IEEE Transactions on Information Theory. 24 (1): 120–122. doi:10.1109/TIT.1978.1055832.
  10. Jaynes, E.T. (1963). "सूचना सिद्धांत और सांख्यिकीय यांत्रिकी" (PDF). Brandeis University Summer Institute Lectures in Theoretical Physics. 3 (sect. 4b).


बाहरी संबंध