वेन आरेख जो जोड़ने और घटाने वाले संबंधों को दर्शाते हैं, वे विभिन्न सूचना परिमाणों के सहसंबद्ध चर
![{\displaystyle X}](/index.php?title=Special:MathShowImage&hash=02129bb861061d1a052c592e2dc6b383&mode=mathml)
और
![{\displaystyle Y}](/index.php?title=Special:MathShowImage&hash=57cec4137b614c87cb4e24a3d003a3e0&mode=mathml)
जुड़े हैं। दोनों वृत्त द्वारा निहित क्षेत्र संयुक्त एन्ट्रापी
![{\displaystyle \mathrm {H} (X,Y)}](/index.php?title=Special:MathShowImage&hash=5929db549e361408eb36dde51dfcc2c8&mode=mathml)
है। बाईं ओर (लाल और बैंगनी) पर वृत्त व्यक्तिगत
एन्ट्रापी ![{\displaystyle \mathrm {H} (X)}](/index.php?title=Special:MathShowImage&hash=577f127984e85aef022f2b7785a8ea41&mode=mathml)
है, जिसमें लाल सशर्त एंट्रॉपी
![{\displaystyle \mathrm {H} (X|Y)}](/index.php?title=Special:MathShowImage&hash=740a099fc84b2d6a60e8d1e51ccbbaa0&mode=mathml)
है। दाईं ओर (नीला और बैंगनी) पर वृत्त
![{\displaystyle \mathrm {H} (Y|X)}](/index.php?title=Special:MathShowImage&hash=301a42433cbadd3482b2c2f47d7a6407&mode=mathml)
है, जिसमें नीला
![{\displaystyle \mathrm {H} (Y)}](/index.php?title=Special:MathShowImage&hash=0870aad29b66fcb629da55627a2a815b&mode=mathml)
है। बैंगनी
परस्पर सूचना ![{\displaystyle \operatorname {I} (X;Y)}](/index.php?title=Special:MathShowImage&hash=5d4262308af2512576f531348f302c98&mode=mathml)
है।
सूचना सिद्धांत में, सशर्त एन्ट्रापी यादृच्छिक चर
के परिणाम का वर्णन करने के लिए आवश्यक सूचना की मात्रा निर्धारित करता है, जिसे देखते हुए एक अन्य यादृच्छिक चर
का मान ज्ञात होता है। जहां, शैनन, नैट्स और हार्टले में सूचना को मापा जाता है।
पर सशर्त
की एन्ट्रापी को
के रूप में लिखा जाता है।
परिभाषा
दिए गए
की सशर्त एन्ट्रापी को इस रूप में परिभाषित किया गया है
![{\displaystyle \mathrm {H} (Y|X)\ =-\sum _{x\in {\mathcal {X}},y\in {\mathcal {Y}}}p(x,y)\log {\frac {p(x,y)}{p(x)}}}](/index.php?title=Special:MathShowImage&hash=10929fd21727cdfd1b258a6519258f27&mode=mathml)
|
|
(Eq.1)
|
जहाँ
और
और
के समर्थन समुच्चय को दर्शाते हैं।
नोट: यहाँ, परंपरा यह है कि अभिव्यक्ति
को शून्य के बराबर माना जाना चाहिए। ऐसा इसलिए है क्योंकि
।[1]
सहज रूप से, ध्यान दें कि अपेक्षित मान और सशर्त संभाव्यता की परिभाषा के अनुसार,
को
के रूप में लिखा जा सकता है, जहां
को
के रूप में परिभाषित किया गया है।
के बारे में सोच सकते हैं कि प्रत्येक युग्म
को दी गई
की सूचना सामग्री को मापने वाली मात्रा
के साथ जोड़ा जाए। यह मात्रा दी गई घटना
का वर्णन करने के लिए आवश्यक सूचना की मात्रा से सीधे संबंधित है। इसलिए मानों
के सभी युग्मों पर
के अपेक्षित मान की गणना करके, सशर्त एन्ट्रापी
मापता है कि औसतन, चर
,
के बारे में कितनी सूचना को एनकोड करता है।
अभिप्रेरण
माना
एक निश्चित मान
लेते हुए असतत यादृच्छिक चर
पर सशर्त असतत यादृच्छिक चर
की एन्ट्रापी हो।
और
द्वारा
और
के समर्थन समुच्चय को निरूपित करें। माना कि
में प्रायिकता द्रव्यमान फलन
है।
की बिना शर्त एन्ट्रॉपी की गणना
के रूप में की जाती है, अर्थात
जहाँ
,
के मान
लेने के परिणाम की सूचनात्मक सामग्री है।
का मान
लेने पर सशर्त
की एन्ट्रापी को सशर्त अपेक्षा के अनुसार समान रूप से परिभाषित किया गया है-
![{\displaystyle \mathrm {H} (Y|X=x)=-\sum _{y\in {\mathcal {Y}}}{\Pr(Y=y|X=x)\log _{2}{\Pr(Y=y|X=x)}}.}](/index.php?title=Special:MathShowImage&hash=2c9834594652bb22651c49cd63dfa201&mode=mathml)
ध्यान दें कि
सभी संभावित मानों
पर
के औसत का परिणाम है जो
ले सकता है।
साथ ही, यदि उपरोक्त योग को नमूना
पर ले लिया जाता है तो अपेक्षित मान
को कुछ क्षेत्र में समानता के रूप में जाना जाता है।[2]
चित्र
के साथ असतत यादृच्छिक चर
और चित्र
के साथ
दिया गया है,
दिए गए
की सशर्त एन्ट्रापी को
के प्रत्येक संभावित मान के लिए
के भारित योग के रूप में परिभाषित किया गया है,
को भार के रूप में उपयोग करते हुए-[3]: 15
![{\displaystyle {\begin{aligned}\mathrm {H} (Y|X)\ &\equiv \sum _{x\in {\mathcal {X}}}\,p(x)\,\mathrm {H} (Y|X=x)\\&=-\sum _{x\in {\mathcal {X}}}p(x)\sum _{y\in {\mathcal {Y}}}\,p(y|x)\,\log _{2}\,p(y|x)\\&=-\sum _{x\in {\mathcal {X}},y\in {\mathcal {Y}}}\,p(x)p(y|x)\,\log _{2}\,p(y|x)\\&=-\sum _{x\in {\mathcal {X}},y\in {\mathcal {Y}}}p(x,y)\log _{2}{\frac {p(x,y)}{p(x)}}.\end{aligned}}}](/index.php?title=Special:MathShowImage&hash=25d4587e7d1091d0745fd44baec2d7a2&mode=mathml)
गुण
सशर्त एन्ट्रापी शून्य के बराबर
यदि और केवल यदि
का मान पूरी तरह से
के मान द्वारा निर्धारित किया जाता है।
स्वतंत्र यादृच्छिक चरों की सशर्त एन्ट्रापी
इसके विपरीत,
यदि और केवल यदि
और
स्वतंत्र यादृच्छिक चर हैं।
श्रृंखला नियम
माना कि दो यादृच्छिक चर
और
द्वारा निर्धारित संयुक्त प्रणाली में संयुक्त एन्ट्रॉपी
है, अर्थात, हमें इसकी सटीक स्थिति का वर्णन करने के लिए औसतन सूचना के
बिट्स की आवश्यकता है। अब यदि हम पहले
का मान सीखते हैं, तो हमें
बिट्स की सूचना प्राप्त हुई है। एक बार
ज्ञात हो जाने के बाद, हमें पूरी प्रणाली की स्थिति का वर्णन करने के लिए केवल
बिट्स की आवश्यकता होती है। यह मात्रा ठीक
है, जो सशर्त एन्ट्रापी का श्रृंखला नियम देती है-
[3]: 17
सशर्त एन्ट्रापी की उपरोक्त परिभाषा से श्रृंखला नियम का पालन होता है-
![{\displaystyle {\begin{aligned}\mathrm {H} (Y|X)&=\sum _{x\in {\mathcal {X}},y\in {\mathcal {Y}}}p(x,y)\log \left({\frac {p(x)}{p(x,y)}}\right)\\[4pt]&=\sum _{x\in {\mathcal {X}},y\in {\mathcal {Y}}}p(x,y)(\log(p(x))-\log(p(x,y)))\\[4pt]&=-\sum _{x\in {\mathcal {X}},y\in {\mathcal {Y}}}p(x,y)\log(p(x,y))+\sum _{x\in {\mathcal {X}},y\in {\mathcal {Y}}}{p(x,y)\log(p(x))}\\[4pt]&=\mathrm {H} (X,Y)+\sum _{x\in {\mathcal {X}}}p(x)\log(p(x))\\[4pt]&=\mathrm {H} (X,Y)-\mathrm {H} (X).\end{aligned}}}](/index.php?title=Special:MathShowImage&hash=7d38f290db4447900fd19bfb1c442cc9&mode=mathml)
सामान्य तौर पर, कई यादृच्छिक चर के लिए एक श्रृंखला नियम धारण करता है-
[3]: 22
संभाव्यता सिद्धांत में श्रृंखला नियम के समान इसका रूप है, सिवाय इसके कि गुणन के स्थान पर जोड़ का उपयोग किया जाता है।
बेयस का नियम
सशर्त एन्ट्रापी अवस्थाओं के लिए बेयस का नियम
![{\displaystyle \mathrm {H} (Y|X)\,=\,\mathrm {H} (X|Y)-\mathrm {H} (X)+\mathrm {H} (Y).}](/index.php?title=Special:MathShowImage&hash=bb2afe02e3b6fab041b30ff7d5bd454a&mode=mathml)
प्रमाण।
और
। समरूपता में
सम्मिलित है। दो समीकरणों को घटाना बेयस के नियम को दर्शाता है।
यदि
सशर्त रूप से
दिए गए
से स्वतंत्र है तो हमारे पास है-
![{\displaystyle \mathrm {H} (Y|X,Z)\,=\,\mathrm {H} (Y|X).}](/index.php?title=Special:MathShowImage&hash=b99e9f6d7b37ee8d6b00f1c9e0862734&mode=mathml)
अन्य गुण
किसी
और
के लिए-
![{\displaystyle {\begin{aligned}\mathrm {H} (Y|X)&\leq \mathrm {H} (Y)\,\\\mathrm {H} (X,Y)&=\mathrm {H} (X|Y)+\mathrm {H} (Y|X)+\operatorname {I} (X;Y),\qquad \\\mathrm {H} (X,Y)&=\mathrm {H} (X)+\mathrm {H} (Y)-\operatorname {I} (X;Y),\,\\\operatorname {I} (X;Y)&\leq \mathrm {H} (X),\,\end{aligned}}}](/index.php?title=Special:MathShowImage&hash=e045fcfca9cbb0ae907a1811b853d6a3&mode=mathml)
जहां
और
के बीच पारस्परिक सूचना है।
स्वतंत्र
और
के लिए-
और ![{\displaystyle \mathrm {H} (X|Y)=\mathrm {H} (X)\,}](/index.php?title=Special:MathShowImage&hash=9d8ed1991922cf92b81cbffe71e75ac3&mode=mathml)
हालांकि विशिष्ट-सशर्त एंट्रॉपी
के दिए गए यादृच्छिक चर
के लिए
से कम या अधिक हो सकता है,
कभी भी
से अधिक नहीं हो सकता है।
सशर्त अवकल एंट्रॉपी
परिभाषा
उपरोक्त परिभाषा असतत यादृच्छिक चर के लिए है। असतत सशर्त एन्ट्रॉपी के सतत संस्करण को सशर्त अवकल (या सतत) एंट्रॉपी कहा जाता है। माना कि
और
एक संयुक्त प्रायिकता घनत्व फलन
के साथ सतत यादृच्छिक चर हैं। अवकल सशर्त एन्ट्रापी
के रूप में परिभाषित किया गया है[3]: 249
![{\displaystyle h(X|Y)=-\int _{{\mathcal {X}},{\mathcal {Y}}}f(x,y)\log f(x|y)\,dxdy}](/index.php?title=Special:MathShowImage&hash=e15d785a8a11e948c535beee0a980fbc&mode=mathml)
|
|
(Eq.2)
|
गुण
असतत यादृच्छिक चर के लिए सशर्त एन्ट्रापी के विपरीत, सशर्त अवकल एन्ट्रॉपी ऋणात्मक हो सकती है।
जैसा कि असतत स्थिति में अवकल एन्ट्रॉपी के लिए एक श्रृंखला नियम है-
[3]: 253
हालांकि, ध्यान दें कि यह नियम सही नहीं हो सकता है यदि सम्मिलित अवकल एंट्रॉपी उपस्थित नहीं हैं या अनंत हैं।
सतत यादृच्छिक चर के बीच पारस्परिक सूचना की परिभाषा में संयुक्त अवकल एंट्रॉपी का भी उपयोग किया जाता है-
![{\displaystyle \operatorname {I} (X,Y)=h(X)-h(X|Y)=h(Y)-h(Y|X)}](/index.php?title=Special:MathShowImage&hash=552c9c475108bd8df6921518ddd45ca1&mode=mathml)
समानता के साथ यदि और केवल यदि
और
स्वतंत्र हैं।[3]: 253
अनुमानक त्रुटि से संबंध
सशर्त अवकल एन्ट्रापी अनुमानक की अपेक्षित वर्गकित त्रुटि पर एक निचली सीमा उत्पन्न करता है। किसी भी यादृच्छिक चर
के लिए, अवलोकन
और अनुमानक
निम्नलिखित धारण करता है-[3]: 255
![{\displaystyle \mathbb {E} \left[{\bigl (}X-{\widehat {X}}{(Y)}{\bigr )}^{2}\right]\geq {\frac {1}{2\pi e}}e^{2h(X|Y)}}](/index.php?title=Special:MathShowImage&hash=f31ee7ee82c9bea8e1b67a8125491bff&mode=mathml)
यह
क्वांटम यांत्रिकी के अनिश्चितता के सिद्धांत से संबंधित है।
क्वांटम सिद्धांत के लिए सामान्यीकरण
क्वांटम सूचना सिद्धांत में, सशर्त एन्ट्रापी को सशर्त क्वांटम एन्ट्रापी के लिए सामान्यीकृत किया जाता है। दूसरा अपने चिरसम्मत समकक्ष के विपरीत, ऋणात्मक मान ले सकता है।
यह भी देखें
संदर्भ