विभेदक एन्ट्रापी

From Vigyanwiki

विभेदक एंट्रोपी एक सूचना सिद्धांत में एक अवधारणा है जिसने क्लोड शैनन के प्रयास को आगे बढ़ाने के लिए प्रयास किया था, जहां एंट्रोपी, एक यादृच्छिक प्रारूपी की औसत माप, को निरंतर संभावना तक विस्तारित करने के प्रयास के रूप में किया गया था।

दुर्भाग्य से, शैनन ने इस सूत्र को नहीं निकाला था, बल्कि उन्होंने सिर्फ यह माना था कि यह निरंतर एंट्रोपी की सही निरंतर अनुक्रमिका है, लेकिन ऐसा नहीं है।[1]: 181–218  वास्तविक रूप से अवक्रमिक एंट्रोपी का वास्तविक निरंतर संस्करण बिन्दुओं का सीमा घनत्व है। विभेदक एंट्रोपी साहित्य में सामान्यतः आपत्ति में आती है, लेकिन यह एक सीमांकीय स्थिति है जो एलडीडीपी का होता है और एक है जो अपने साथ असंतत एंट्रोपी के मौलिक संबंध को खो देता है।

एक माप सिद्धांत की परिभाषा के अनुसार, प्रायिकता माप की विभेदक एंट्रोपी उस माप से लेबेस्ग माप तक की नकारात्मक संबंधित एंट्रोपी होती है, जहां दूसरे को प्रायिकता माप के रूप में व्यवहारिक रूप से उपयोग किया जाता है, यद्यपि वह अविशोधित है।

परिभाषा

एक यादृच्छिक चर हो जिसकी प्रायिकता घनत्व फलन हो और जिसका समर्थन समुच्चय .हो विभेदक एन्ट्रापी या परिभाषित किया जाता है[2]: 243 

संभाव्यता वितरण के लिए जिसमें स्पष्ट घनत्व फलन व्यंजक नहीं है, लेकिन एक स्पष्ट मात्रात्मक कार्य व्यंजक है,तब ,या के व्युत्पन्न के रूप में परिभाषित किया जा सकता है जैसे मात्रात्मक घनत्व फलन [3]: 54–59 

.
विभेदक एंट्रोपी की एक विशेषता यह है कि इसकी मात्रा लघुत्तम मानदंड के आधार पर निर्भर करती है, जो सामान्यतः 2 होता है अर्थात मात्रा बिट में होती है विभिन्न आधारों में लिए गए लघुगणक के लिए लघुगणक इकाइयाँ देखें। संयुक्त एन्ट्रॉपी, सशर्त एन्ट्रॉपी अंतर एन्ट्रॉपी, और कुल्बैक-लीबलर विचलन जैसी संबंधित अवधारणाओं को समान नियमों से परिभाषित किया गया है। असतत रेखीय के विपरीत, अंतर एन्ट्रॉपी में एक प्रतिसंतुलन होता है जो .को मापने के लिए प्रयोग की जाने वाली मात्राओं पर निर्भर करता है।[4]: 183–184  उदाहरण के लिए, जब कोई मात्रा मिलीमीटर में मापी जाती है तो उसकी विभेदक एंट्रोपी मीटर में मापी गई समान मात्रा से log(1000) अधिक होगी एक अयांस-मात्रिक मात्रा की विभेदक एन्ट्रापी log(1000) अधिक होगी जब समान मात्रा को 1000 से विभाजित किया जाता है।

किसी को असतत एन्ट्रापी के गुणों को विभेदक एन्ट्रापी पर लागू करने का प्रयास करते समय सावधानी बरतनी चाहिए, क्योंकि संभाव्यता घनत्व कार्य 1 से अधिक हो सकते हैं। उदाहरण के लिए, समान वितरण नकारात्मक विभेदक एंट्रोपी रखता है; अर्थात यह की तुलना में अच्छी तरह से व्यवस्थित है।

यह उदाहरण दिखाता है कि इस प्रकार विभेदक एंट्रोपी, असतत एन्ट्रापी के सभी गुणों को साझा नहीं करता हैं।

ध्यान दें कि निरंतर पारस्परिक जानकारी अपने मौलिक महत्व को बनाए रखती है, क्योंकि यह वास्तव में और जैसे-के विभाजनों की असतत सापेक्ष जानकारी की सीमा है, जबकि ये विभाजन दिन-प्रतिदिन अधिक सूक्ष्म होते हैं।इसलिए यह गैर-रैखिक होमियोमोर्फिज़म के अधीन समानवर्ती रहती है, ,[5] रैखिक सहित[6] और , के संवर्तनों के अधीन और फिर भी असतत जानकारी की मात्रा को प्रसारित किया जा सकता है जो मूल्यों के निरंतर स्थान को स्वीकार करता है।

निरंतर स्थान तक विस्तारित असतत एन्ट्रापी के प्रत्यक्ष समवृत्ति के लिए, असतत बिंदुओं की सीमित घनत्व देखें।

विभेदक एन्ट्रापी के गुण

  • संभाव्यता घनत्व के लिए और , कुल्बैक-लीब्लर विचलन केवल समानता के साथ 0 से बड़ा या उसके बराबर है लगभग हर जगह। इसी प्रकार, दो यादृच्छिक चर के लिए और , और समानता के साथ यदि और केवल यदि और स्वतंत्र होते हैं।.
  • विभेदक एन्ट्रापी के लिए श्रृंखला नियम असतत स्थितियों की तरह ही लागू होता है[2]: 253 
.
  • विभेदक एन्ट्रापी अनुवाद अपरिवर्तनीय है, अर्थात स्थिरांक के लिए .[2]: 253 
  • सामान्यतः विभेदक एन्ट्रापी स्वेच्छिक प्रतिघाती मानचित्रों के अधीन सर्वसाधारणतः स्थानांतरित नहीं होती है।
विशेष रूप से, स्थिरांक के लिए
एक सदिश मूल्यवान यादृच्छिक चर और एक उलटा (वर्ग) मैट्रिक्स (गणित)
[2]: 253 
  • सामान्य तौर पर, एक यादृच्छिक सदिश से समान आयाम वाले दूसरे यादृच्छिक सदिश में परिवर्तन के लिए , संबंधित एन्ट्रॉपी के माध्यम से संबंधित हैं
कहाँ जैकोबियन मैट्रिक्स और परिवर्तन का निर्धारक है .[7] यदि परिवर्तन एक आक्षेप है तो उपरोक्त असमानता एक समानता बन जाती है। इसके अलावा, जब एक कठोर घूर्णन, अनुवाद या उसका संयोजन है, जैकोबियन निर्धारक हमेशा 1 होता है, और .
  • यदि एक यादृच्छिक सदिश माध्य शून्य और सहप्रसरण मैट्रिक्स है , समानता के साथ यदि और केवल यदि बहुभिन्नरूपी सामान्य वितरण#संयुक्त सामान्यता है (सामान्य वितरण में #अधिकतमीकरण देखें)।[2]: 254 

हालाँकि, विभेदक एन्ट्रापी में अन्य वांछनीय गुण नहीं हैं:

  • यह चर के परिवर्तन के तहत अपरिवर्तनीय नहीं है, और इसलिए आयामहीन चर के साथ सबसे उपयोगी है।
  • यह नकारात्मक हो सकता है.

विभेदक एन्ट्रापी का एक संशोधन जो इन कमियों को संबोधित करता है वह सापेक्ष सूचना एन्ट्रापी है, जिसे कुल्बैक-लीबलर विचलन के रूप में भी जाना जाता है, जिसमें एक अपरिवर्तनीय माप कारक शामिल है (असतत बिंदुओं की सीमित घनत्व देखें)।

सामान्य वितरण में अधिकतमीकरण

प्रमेय

सामान्य वितरण के साथ, किसी दिए गए विचरण के लिए अंतर एन्ट्रापी अधिकतम होती है। एक गाऊसी यादृच्छिक चर में समान विचरण के सभी यादृच्छिक चर के बीच सबसे बड़ी एन्ट्रापी होती है, या, वैकल्पिक रूप से, माध्य और विचरण की बाधाओं के तहत अधिकतम एन्ट्रापी वितरण गाऊसी होता है।[2]: 255 

प्रमाण

होने देना माध्य μ और विचरण के साथ एक सामान्य वितरण संभाव्यता घनत्व फ़ंक्शन बनें और समान विचरण के साथ एक मनमाना संभाव्यता घनत्व फ़ंक्शन। चूँकि विभेदक एन्ट्रापी अनुवाद अपरिवर्तनीय है इसलिए हम यह मान सकते हैं का एक ही मतलब है जैसा .

दो वितरणों के बीच कुल्बैक-लीब्लर विचलन पर विचार करें

अब उस पर ध्यान दें

क्योंकि परिणाम निर्भर नहीं करता विचरण के अलावा अन्य. दोनों परिणामों को मिलाने से परिणाम प्राप्त होते हैं

समानता के साथ जब कुल्बैक-लीब्लर विचलन के गुणों का अनुसरण करते हुए।

वैकल्पिक प्रमाण

इस परिणाम को विविधताओं की गणना का उपयोग करके भी प्रदर्शित किया जा सकता है। दो लैग्रैन्जियन गुणकों के साथ एक लैग्रैन्जियन फ़ंक्शन को इस प्रकार परिभाषित किया जा सकता है:

जहाँ g(x) माध्य μ वाला कोई फलन है। जब g(x) की एन्ट्रापी अधिकतम होती है और बाधा समीकरण, जिसमें सामान्यीकरण की स्थिति शामिल होती है और निश्चित विचरण की आवश्यकता , दोनों संतुष्ट हैं, तो g(x) के बारे में एक छोटा बदलाव δg(x) L के बारे में एक बदलाव δL उत्पन्न करेगा जो शून्य के बराबर है:

चूँकि यह किसी भी छोटे δg(x) के लिए होना चाहिए, कोष्ठक में पद शून्य होना चाहिए, और g(x) के लिए हल करने पर परिणाम प्राप्त होंगे:

λ को हल करने के लिए बाधा समीकरणों का उपयोग करना0 और λ सामान्य वितरण उत्पन्न करता है:


उदाहरण: घातीय वितरण

होने देना पैरामीटर के साथ एक घातीय वितरण यादृच्छिक चर बनें , अर्थात्, संभाव्यता घनत्व फ़ंक्शन के साथ

इसकी विभेदक एन्ट्रापी तब है

यहाँ, के स्थान पर प्रयोग किया गया यह स्पष्ट करने के लिए कि गणना को सरल बनाने के लिए लघुगणक को आधार ई पर लिया गया था।

आकलनकर्ता त्रुटि से संबंध

अंतर एन्ट्रापी एक अनुमानक की अपेक्षित वर्ग त्रुटि पर निचली सीमा उत्पन्न करती है। किसी भी यादृच्छिक चर के लिए और अनुमानक निम्नलिखित धारण करता है:[2]: समानता के साथ यदि और केवल यदि एक गाऊसी यादृच्छिक चर है और का माध्य है .

विभिन्न वितरणों के लिए विभेदक एन्ट्रॉपी

नीचे दी गई तालिका में गामा फ़ंक्शन है, डिगामा फ़ंक्शन है, बीटा फ़ंक्शन है, और γE यूलर-माशेरोनी स्थिरांक है|यूलर का स्थिरांक।[8]: 219–230 

Table of differential entropies
Distribution Name Probability density function (pdf) Differential entropy in nats Support
Uniform
Normal
Exponential
Rayleigh
Beta for
Cauchy
Chi
Chi-squared
Erlang
F
Gamma
Laplace Failed to parse (Conversion error. Server ("cli") reported: "SyntaxError: Expected "-", "[", "\\", "\\begin", "\\begin{", "]", "^", "_", "{", "}", [ \t\n\r], [%$], [().], [,:;?!'], [/|], [0-9], [><~], [\-+*=], or [a-zA-Z] but "ब" found.in 1:64"): {\displaystyle f(x) = \frac{1}{2b} \exp\left(-\frac{|x - \mu|}{बी}\दाएं)</गणित> || गणित>1 + \n(ab)\, </गणित>||<math>(-\infty,\infty)\,}
लॉजिस्टिक वितरण
लॉग-सामान्य वितरण
मैक्सवेल-बोल्ट्ज़मैन
सामान्यीकृत गाऊसी वितरण
पेरेटो वितरण
छात्र का t
त्रिकोणीय वितरण
वेइबुल वितरण
बहुभिन्नरूपी सामान्य वितरण

अनेक विभेदक एन्ट्रापी से हैं।[9]: 120–122 

वेरिएंट

जैसा कि ऊपर वर्णित है, विभेदक एन्ट्रॉपी असतत एन्ट्रॉपी के सभी गुणों को साझा नहीं करती है। उदाहरण के लिए, विभेदक एन्ट्रापी नकारात्मक हो सकती है; निरंतर समन्वय परिवर्तनों के तहत भी यह अपरिवर्तनीय नहीं है। एडविन थॉम्पसन जेन्स ने वास्तव में दिखाया कि उपरोक्त अभिव्यक्ति संभावनाओं के एक सीमित सेट के लिए अभिव्यक्ति की सही सीमा नहीं है।[10]: 181–218 

विभेदक एन्ट्रापी का एक संशोधन इसे ठीक करने के लिए एक अपरिवर्तनीय माप कारक जोड़ता है, (असतत बिंदुओं की सीमित घनत्व देखें)। अगर आगे संभाव्यता घनत्व होने के लिए बाध्य किया गया है, परिणामी धारणा को सूचना सिद्धांत में सापेक्ष एन्ट्रापी कहा जाता है:

उपरोक्त विभेदक एन्ट्रापी की परिभाषा को सीमा को विभाजित करके प्राप्त किया जा सकता है लंबाई के डिब्बे में संबंधित नमूना बिंदुओं के साथ डिब्बे के भीतर, के लिए रीमैन अभिन्न. यह का क्वांटाइज़ेशन (सिग्नल प्रोसेसिंग) संस्करण देता है , द्वारा परिभाषित अगर . फिर की एन्ट्रापी है[2]

दाईं ओर का पहला पद अंतर एन्ट्रापी का अनुमान लगाता है, जबकि दूसरा पद लगभग है . ध्यान दें कि यह प्रक्रिया बताती है कि एक सतत यादृच्छिक चर के असतत अर्थ में एन्ट्रापी होनी चाहिए .

यह भी देखें

  • सूचना एन्ट्रापी
  • स्वयं जानकारी
  • एंट्रॉपी अनुमान

संदर्भ

  1. Jaynes, E.T. (1963). "सूचना सिद्धांत और सांख्यिकीय यांत्रिकी" (PDF). Brandeis University Summer Institute Lectures in Theoretical Physics. 3 (sect. 4b).
  2. 2.0 2.1 2.2 2.3 2.4 2.5 2.6 2.7 Cover, Thomas M.; Thomas, Joy A. (1991). सूचना सिद्धांत के तत्व. New York: Wiley. ISBN 0-471-06259-6.
  3. Vasicek, Oldrich (1976), "A Test for Normality Based on Sample Entropy", Journal of the Royal Statistical Society, Series B, 38 (1): 54–59, JSTOR 2984828.
  4. Gibbs, Josiah Willard (1902). Elementary Principles in Statistical Mechanics, developed with especial reference to the rational foundation of thermodynamics. New York: Charles Scribner's Sons.
  5. Kraskov, Alexander; Stögbauer, Grassberger (2004). "Estimating mutual information". Physical Review E. 60 (6): 066138. arXiv:cond-mat/0305641. Bibcode:2004PhRvE..69f6138K. doi:10.1103/PhysRevE.69.066138. PMID 15244698. S2CID 1269438.
  6. Fazlollah M. Reza (1994) [1961]. सूचना सिद्धांत का एक परिचय. Dover Publications, Inc., New York. ISBN 0-486-68210-2.
  7. "f(X) की विभेदक एन्ट्रापी पर ऊपरी सीमा का प्रमाण". Stack Exchange. April 16, 2016.
  8. Park, Sung Y.; Bera, Anil K. (2009). "अधिकतम एन्ट्रापी ऑटोरेग्रेसिव कंडीशनल हेटेरोस्केडैस्टिसिटी मॉडल" (PDF). Journal of Econometrics. Elsevier. 150 (2): 219–230. doi:10.1016/j.jeconom.2008.12.014. Archived from the original (PDF) on 2016-03-07. Retrieved 2011-06-02.
  9. Lazo, A. and P. Rathie (1978). "सतत संभाव्यता वितरण की एन्ट्रापी पर". IEEE Transactions on Information Theory. 24 (1): 120–122. doi:10.1109/TIT.1978.1055832.
  10. Jaynes, E.T. (1963). "सूचना सिद्धांत और सांख्यिकीय यांत्रिकी" (PDF). Brandeis University Summer Institute Lectures in Theoretical Physics. 3 (sect. 4b).


बाहरी संबंध