विभेदात्मक एंट्रोपी सूचना सिद्धांत में एक अवधारणा है जिसने क्लोड शैनन के प्रयास को आगे बढ़ाने के लिए प्रयास किया था, जहां एंट्रोपी, एक यादृच्छिक प्रारूपी की औसत माप, को निरंतर संभावना तक विस्तारित करने के प्रयास के रूप में किया गया था।
दुर्भाग्य से, शैनन ने इस सूत्र को नहीं निकाला था, बल्कि उन्होंने सिर्फ यह माना था कि यह असतत एन्ट्रापी की सही निरंतर अनुक्रमिका है, लेकिन ऐसा नहीं है।[1] वास्तविक रूप से असतत एंट्रोपी का वास्तविक निरंतर संस्करण बिन्दुओं का सीमा घनत्व है। विभेदात्मक एंट्रोपी साहित्य में सामान्यतः आपत्ति में आती है, परंतु यह एक सीमांकीय स्थिति है जो एलडीडीपी का होता है और एक है जो अपने साथ असंतत एंट्रोपी के मौलिक संबंध को खो देता है।
एक माप सिद्धांत की परिभाषा के अनुसार, प्रायिकता माप की विभेदात्मक एंट्रोपी उस माप से लेबेस्ग माप तक की नकारात्मक संबंधित एंट्रोपी होती है, जहां दूसरे को प्रायिकता माप के रूप में व्यवहारिक रूप से उपयोग किया जाता है, यद्यपि वह अविशोधित है।
एक यादृच्छिक चर हो जिसकी प्रायिकता घनत्व फलन हो और जिसका समर्थन समुच्चय .हो विभेदात्मक एन्ट्रापी या परिभाषित किया जाता है[2]: 243
संभाव्यता वितरण के लिए जिसमें स्पष्ट घनत्व फलन व्यंजक नहीं है, लेकिन एक स्पष्ट मात्रात्मक कार्य व्यंजक है,तब ,या के व्युत्पन्न के रूप में परिभाषित किया जा सकता है जैसे मात्रात्मक घनत्व फलन ।[3]: 54–59
.
विभेदात्मक एंट्रोपी की एक विशेषता यह है कि इसकी मात्रा लघुत्तम मानदंड के आधार पर निर्भर करती है, जो सामान्यतः 2 होता है अर्थात मात्रा बिट में होती है विभिन्न आधारों में लिए गए लघुगणक के लिए लघुगणक इकाइयाँ देखें। संयुक्त एन्ट्रॉपी, सशर्त एन्ट्रॉपी अंतर एन्ट्रॉपी, और कुल्बैक-लीबलर विचलन जैसी संबंधित अवधारणाओं को समान नियमों से परिभाषित किया गया है। असतत रेखीय के विपरीत, अंतर एन्ट्रॉपी में एक प्रतिसंतुलन होता है जो .को मापने के लिए प्रयोग की जाने वाली मात्राओं पर निर्भर करता है।[4]: 183–184 उदाहरण के लिए, जब कोई मात्रा मिलीमीटर में मापी जाती है तो उसकी विभेदात्मक एंट्रोपी मीटर में मापी गई समान मात्रा से log(1000) अधिक होगी एक अयांस-मात्रिक मात्रा की विभेदात्मक एन्ट्रापी log(1000) अधिक होगी जब समान मात्रा को 1000 से विभाजित किया जाता है।
किसी को असतत एन्ट्रापी के गुणों को विभेदात्मक एन्ट्रापी पर लागू करने का प्रयास करते समय सावधानी बरतनी चाहिए, क्योंकि संभाव्यता घनत्व कार्य 1 से अधिक हो सकते हैं। उदाहरण के लिए, समान वितरण नकारात्मक विभेदात्मक एंट्रोपी रखता है; अर्थात यह की तुलना में अच्छी तरह से व्यवस्थित है।
यह उदाहरण दिखाता है कि इस प्रकार विभेदात्मक एंट्रोपी, असतत एन्ट्रापी के सभी गुणों को साझा नहीं करता हैं।
ध्यान दें कि निरंतर पारस्परिक जानकारी अपने मौलिक महत्व को बनाए रखती है, क्योंकि यह वास्तव में और जैसे-के विभाजनों की असतत सापेक्ष जानकारी की सीमा है, जबकि ये विभाजन दिन-प्रतिदिन अधिक सूक्ष्म होते हैं।इसलिए यह गैर-रैखिक होमियोमोर्फिज़म के अधीन समानवर्ती रहती है, ,[5] रैखिक सहित[6] और , के संवर्तनों के अधीन और फिर भी असतत जानकारी की मात्रा को प्रसारित किया जा सकता है जो मूल्यों के निरंतर स्थान को स्वीकार करता है।
निरंतर स्थान तक विस्तारित असतत एन्ट्रापी के प्रत्यक्ष समवृत्ति के लिए, असतत बिंदुओं की सीमित घनत्व देखें।
विभेदात्मक एन्ट्रापी के गुण
संभाव्यता घनत्व के लिए और , कुल्बैक-लीब्लर विचलन केवल समानता के साथ 0 से बड़ा या उसके बराबर है लगभग हर जगह। इसी प्रकार, दो यादृच्छिक चर के लिए और , और समानता के साथ यदि और केवल यदि और स्वतंत्र होते हैं।.
विभेदात्मक एन्ट्रापी के लिए श्रृंखला नियम असतत स्थितियों की तरह ही लागू होता है[2]: 253
.
विभेदात्मक एन्ट्रापी अनुवाद अपरिवर्तनीय है, अर्थात स्थिरांक के लिए .[2]: 253
सामान्यतः विभेदात्मक एन्ट्रापी स्वेच्छिक प्रतिघाती मानचित्रों के अधीन सर्वसाधारणतः स्थानांतरित नहीं होती है।
विशेष रूप से, स्थिरांक के लिए
एक सदिश मूल्यवान यादृच्छिक चर और एक उलटा (वर्ग) आव्यूह (गणित)
सामान्यतः, एक यादृच्छिक सदिश से समान आयाम वाले दूसरे यादृच्छिक सदिश में परिवर्तन के लिए , संबंधित एन्ट्रॉपी के माध्यम से संबंधित हैं
जहाँ जैकोबियन आव्यूह और परिवर्तन का निर्धारक है .[7] यदि परिवर्तन एक आक्षेप है तो उपरोक्त असमानता एक समानता बन जाती है। इसके अतिरिक्त, जब एक कठोर घूर्णन, अनुवाद या उसका संयोजन है, जैकोबियन निर्धारक सदैव 1, और . होता है
यदि एक यादृच्छिक सदिश माध्य शून्य और सहप्रसरण आव्यूह है , समानता के साथ यदि बहुभिन्नरूपी सामान्य वितरण संयुक्त सामान्यता है।[2]: 254
यद्यपि, विभेदात्मक एन्ट्रापी में अन्य वांछनीय गुण नहीं हैं:
यह चर के परिवर्तन के तहत अपरिवर्तनीय नहीं है, और इसलिए आयामहीन चर के साथ सबसे उपयोगी है।
यह नकारात्मक हो सकता है.
विभेदात्मक एन्ट्रापी का एक संशोधन जो इन कमियों को संबोधित करता है वह सापेक्ष सूचना एन्ट्रापी है, जिसे कुल्बैक-लीबलर विचलन के रूप में भी जाना जाता है, जिसमें एक अपरिवर्तनीय माप कारक सम्मिलित है ।
सामान्य वितरण में अधिकतमीकरण
प्रमेय
सामान्य वितरण के साथ, किसी दिए गए विचरण के लिए अंतर एन्ट्रापी अधिकतम होती है। एक गाऊसी यादृच्छिक चर में समान विचरण के सभी यादृच्छिक चर के बीच सबसे बड़ी एन्ट्रापी होती है, या, वैकल्पिक रूप से, माध्य और विचरण की बाधाओं के अंतर्गत अधिकतम एन्ट्रापी वितरण गाऊसी होता है।[2]: 255
प्रमाण
यदि माध्य μ और विचरण के साथ एक सामान्य वितरण संभाव्यता घनत्व फलन बनें और समान विचरण के साथ एक संभाव्यता घनत्व फलन होता है चूँकि विभेदात्मक एन्ट्रापी अनुवाद अपरिवर्तनीय होता है इसलिए हम यह मान सकते हैं कि का औसत के बराबर है जैसे की .
दो वितरणों के बीच कुल्बैक-लीब्लर विचलन पर विचार करें
अब उस पर ध्यान दें
क्योंकि परिणाम परिवर्तन के माध्यम से अतिरिक्त पर निर्भर नहीं होता है। इन दो परिणामों को संयोजित करने से हमें निम्न योग का परिणाम मिलता है:
जब होता है, तब बराबरता के अनुसार कुलबैक-लीब्लर विचलन की गुणधर्मों के कारण, परिवर्तन के माध्यम से अतिरिरिक्त कोई दूसरा फलन परिणाम प्राप्त होता है।
वैकल्पिक प्रमाण
इस परिणाम को विविधताओं की गणना का उपयोग करके भी प्रदर्शित किया जा सकता है। दो लैग्रैन्जियन गुणकों के साथ एक लैग्रैन्जियन फलन को इस प्रकार परिभाषित किया जा सकता है:
यहां g(x) एक ऐसा फलन है जिसका औसत μ है जब g(x) की एंट्रोपी अधिकतम पर होती है और विवादापत्रक समीकरण, जो मानकरण शर्त से मिलकर बनते हैं और निश्चित विचरण की आवश्यकता , तब जब वे दोनों संतुष्ट हों, तो g(x) के बारे में एक छोटा विस्तार δg(x) L के बारे में एक बदलाव δL उत्पन्न करेगा जो शून्य के बराबर है:
चूँकि यह किसी भी छोटे δg(x) के लिए होना चाहिए, कोष्ठक में पद शून्य होना चाहिए, और g(x) के लिए हल करने पर परिणाम प्राप्त होंगे:
λ को हल करने के लिए बाधा समीकरणों का उपयोग करना0 और λ सामान्य वितरण उत्पन्न करता है:
उदाहरण: घातीय वितरण
यदि पैरामीटर के साथ एक घातीय वितरण यादृच्छिक चर बनें , अर्थात्, संभाव्यता घनत्व फलन के साथ
इसकी विभेदात्मक एन्ट्रापी तब है
यहाँ, के स्थान पर प्रयोग किया गया यह स्पष्ट करने के लिए कि गणना को सरल बनाने के लिए लघुगणक को आधार e पर लिया गया था।
अनुमानक त्रुटि से संबंध
विभेदात्मक एन्ट्रापी एक अनुमानक अपेक्षित वर्ग त्रुटि पर निचली सीमा उत्पन्न करती है। किसी भी यादृच्छिक मानक और अनुमानक के लिए निम्नलिखित सत्य होता है।:[2]:
यह सत्य केवल तब होता है जब एक गाऊसी यादृच्छिक चर है और का माध्य .है।
जैसा कि ऊपर वर्णित है, विभेदात्मक एन्ट्रॉपी निर्दिष्ट एंट्रोपी के सभी गुणधर्मों को साझा नहीं करती है। उदाहरण के लिए, विभेदात्मक एन्ट्रापी नकारात्मक हो सकती है; इसके अतिरिक्त यह निरंतर संयुक्त निर्देशांक परिवर्तनों के अंतर्गत अविरूपी नहीं होती है। एडविन थॉम्पसन जेन्स ने वास्तव में दिखाया कि उपरोक्त अभिव्यक्ति संभावनाओं के एक सीमित समुच्चय के लिए अभिव्यक्ति की सही सीमा नहीं है।[10]
विभेदात्मक एंट्रोपी का एक संशोधन इसे सही करने के लिए एक अविरूपी माप घटक जोड़ता है।
यदि आगे संभाव्यता घनत्व होने के लिए बाध्य किया गया है,तो परिणामी धारणा को सूचना सिद्धांत में सापेक्ष एन्ट्रापी कहा जाता है:
उपरोक्त विभेदात्मकएंट्रोपी की परिभाषा को, की मान की श्रेणियों में विभाजित करके प्राप्त किया जा सकता है, जहां प्रत्येक श्रेणी की लंबाई है,और श्रेणी में संबंधित प्रारूपित बिंदुओं को के रूप में निर्दिष्ट किया जाता है, जहां अविभाज्य होता है। यह एक क्वांटाइज़ड संस्करण है जो , द्वारा परिभाषित किया जाता हैं जिसे यदि .हैं। पुनः का एंट्रोपी है।[2]
दायीं ओर का पहला पद विभेदात्मक एन्ट्रापी का अनुमान लगाता है, जबकि दूसरा पद लगभग का अनुमान लगाता है। ध्यान दें कि यह प्रक्रिया सूचित करती है कि एक सतत यादृच्छिक मानक के अविच्छिन्न संदर्भ में असतत रूप से एंट्रोपी अनंत होनी चाहिए।
↑Lazo, A. and P. Rathie (1978). "सतत संभाव्यता वितरण की एन्ट्रापी पर". IEEE Transactions on Information Theory. 24 (1): 120–122. doi:10.1109/TIT.1978.1055832.