सहसंबद्ध चरों से जुड़ी जानकारी की विभिन्न मात्राओं को जोड़ने वाले और घटने वाले संबंधों को दर्शाने वाला
वेन आरेख और
. दोनों मंडलियों द्वारा निहित क्षेत्र संयुक्त एंट्रॉपी है
. बाईं ओर का वृत्त (लाल और बैंगनी)
एंट्रॉपी (सूचना सिद्धांत) है
, लाल सशर्त एन्ट्रापी होने के साथ
. दाईं ओर वृत्त (नीला और बैंगनी) है
, नीले होने के साथ
. वायलेट
आपसी जानकारी है
.
सूचना सिद्धांत में, सशर्त एन्ट्रापी यादृच्छिक चर के परिणाम का वर्णन करने के लिए आवश्यक जानकारी की मात्रा निर्धारित करता है, जिसे देखते हुए एक अन्य यादृच्छिक चर का मान ज्ञात होता है। जहां, शैनन, नैट्स और हार्टले में जानकारी को मापा जाता है। पर सशर्त की एन्ट्रापी को के रूप में लिखा जाता है।
परिभाषा
दिए गए की सशर्त एन्ट्रापी को इस रूप में परिभाषित किया गया है
|
|
(Eq.1)
|
जहाँ और और के समर्थन समुच्चय को दर्शाते हैं।
नोट: यहाँ, परंपरा यह है कि अभिव्यक्ति को शून्य के बराबर माना जाना चाहिए। ऐसा इसलिए है क्योंकि ।[1]
सहज रूप से, ध्यान दें कि अपेक्षित मान और सशर्त संभाव्यता की परिभाषा के अनुसार, को के रूप में लिखा जा सकता है, जहां को के रूप में परिभाषित किया गया है। के बारे में सोच सकते हैं कि प्रत्येक युग्म को दी गई की सूचना सामग्री को मापने वाली मात्रा के साथ जोड़ा जाए। यह मात्रा दी गई घटना का वर्णन करने के लिए आवश्यक जानकारी की मात्रा से सीधे संबंधित है। इसलिए मानों के सभी युग्मों पर के अपेक्षित मान की गणना करके, सशर्त एन्ट्रापी मापता है कि औसतन, चर , के बारे में कितनी जानकारी को एनकोड करता है।
अभिप्रेरण
माना एक निश्चित मान लेते हुए असतत यादृच्छिक चर पर सशर्त असतत यादृच्छिक चर की एन्ट्रापी हो। और द्वारा और के समर्थन समुच्चय को निरूपित करें। माना कि में प्रायिकता द्रव्यमान फलन है। की बिना शर्त एन्ट्रॉपी की गणना के रूप में की जाती है, अर्थात
जहाँ , के मान लेने के परिणाम की सूचनात्मक सामग्री है। का मान लेने पर सशर्त की एन्ट्रापी को सशर्त अपेक्षा के अनुसार समान रूप से परिभाषित किया गया है-
ध्यान दें कि सभी संभावित मानों पर के औसत का परिणाम है जो ले सकता है।
साथ ही, यदि उपरोक्त योग को नमूना पर ले लिया जाता है तो अपेक्षित मान को कुछ क्षेत्र में समानता के रूप में जाना जाता है।[2]
चित्र के साथ असतत यादृच्छिक चर और चित्र के साथ दिया गया है, दिए गए की सशर्त एन्ट्रापी को के प्रत्येक संभावित मान के लिए के भारित योग के रूप में परिभाषित किया गया है, को भार के रूप में उपयोग करते हुए-[3]: 15
गुण
सशर्त एन्ट्रापी शून्य के बराबर
यदि और केवल यदि का मान पूरी तरह से के मान द्वारा निर्धारित किया जाता है।
स्वतंत्र यादृच्छिक चरों की सशर्त एन्ट्रापी
इसके विपरीत, यदि और केवल यदि और स्वतंत्र यादृच्छिक चर हैं।
श्रृंखला नियम
माना कि दो यादृच्छिक चर और द्वारा निर्धारित संयुक्त प्रणाली में संयुक्त एन्ट्रॉपी है, अर्थात, हमें इसकी सटीक स्थिति का वर्णन करने के लिए औसतन जानकारी के बिट्स की आवश्यकता है। अब यदि हम पहले का मान सीखते हैं, तो हमें बिट्स की जानकारी प्राप्त हुई है। एक बार ज्ञात हो जाने के बाद, हमें पूरी प्रणाली की स्थिति का वर्णन करने के लिए केवल बिट्स की आवश्यकता होती है। यह मात्रा ठीक है, जो सशर्त एन्ट्रापी का श्रृंखला नियम देती है-
- [3]: 17
सशर्त एन्ट्रापी की उपरोक्त परिभाषा से श्रृंखला नियम का पालन होता है-
सामान्य तौर पर, कई यादृच्छिक चर के लिए एक श्रृंखला नियम धारण करता है-
- [3]: 22
संभाव्यता सिद्धांत में श्रृंखला नियम के समान इसका रूप है, सिवाय इसके कि गुणन के स्थान पर जोड़ का उपयोग किया जाता है।
बेयस का नियम
सशर्त एन्ट्रापी अवस्थाओं के लिए बेयस का नियम
प्रमाण। और । समरूपता में सम्मिलित है। दो समीकरणों को घटाना बेयस के नियम को दर्शाता है।
यदि सशर्त रूप से दिए गए से स्वतंत्र है तो हमारे पास है-
अन्य गुण
किसी और के लिए-
जहां और के बीच पारस्परिक जानकारी है।
स्वतंत्र और के लिए-
- और
हालांकि विशिष्ट-सशर्त एंट्रॉपी के दिए गए यादृच्छिक चर के लिए से कम या अधिक हो सकता है, कभी भी से अधिक नहीं हो सकता है।
सशर्त अवकल एंट्रॉपी
परिभाषा
उपरोक्त परिभाषा असतत यादृच्छिक चर के लिए है। असतत सशर्त एन्ट्रॉपी के सतत संस्करण को सशर्त अवकल (या सतत) एंट्रॉपी कहा जाता है। माना कि और एक संयुक्त प्रायिकता घनत्व फलन के साथ सतत यादृच्छिक चर हैं। अवकल सशर्त एन्ट्रापी के रूप में परिभाषित किया गया है[3]: 249
|
|
(Eq.2)
|
गुण
असतत यादृच्छिक चर के लिए सशर्त एन्ट्रापी के विपरीत, सशर्त अंतर एन्ट्रॉपी नकारात्मक हो सकता है।
असतत मामले में विभेदक एन्ट्रापी के लिए एक श्रृंखला नियम है:
- [3]: 253
हालांकि, ध्यान दें कि यह नियम सही नहीं हो सकता है यदि शामिल अंतर एंट्रॉपी मौजूद नहीं हैं या अनंत हैं।
निरंतर यादृच्छिक चर के बीच पारस्परिक जानकारी की परिभाषा में संयुक्त अंतर एंट्रॉपी का भी उपयोग किया जाता है:
समानता के साथ अगर और केवल अगर और स्वतंत्र हैं।[3]: 253
अनुमानक त्रुटि से संबंध
सशर्त अंतर एन्ट्रापी एक अनुमानक की अपेक्षित चुकता त्रुटि पर एक निचली सीमा उत्पन्न करता है। किसी भी यादृच्छिक चर के लिए , अवलोकन और अनुमानक निम्नलिखित धारण करता है:[3]: 255
यह क्वांटम यांत्रिकी से अनिश्चितता सिद्धांत से संबंधित है।
क्वांटम सिद्धांत के लिए सामान्यीकरण
क्वांटम सूचना सिद्धांत में, सशर्त एन्ट्रापी को सशर्त क्वांटम एन्ट्रापी के लिए सामान्यीकृत किया जाता है। उत्तरार्द्ध अपने शास्त्रीय समकक्ष के विपरीत, नकारात्मक मान ले सकता है।
यह भी देखें
संदर्भ