सशर्त एन्ट्रापी: Difference between revisions

From Vigyanwiki
No edit summary
Line 112: Line 112:


=== गुण ===
=== गुण ===
असतत यादृच्छिक चर के लिए सशर्त एन्ट्रापी के विपरीत, सशर्त अंतर एन्ट्रॉपी नकारात्मक हो सकता है।
असतत यादृच्छिक चर के लिए सशर्त एन्ट्रापी के विपरीत, सशर्त अवकल एन्ट्रॉपी ऋणात्मक हो सकती है।


असतत मामले में विभेदक एन्ट्रापी के लिए एक श्रृंखला नियम है:
जैसा कि असतत स्थिति में अवकल एन्ट्रॉपी के लिए एक श्रृंखला नियम है-
:<math>h(Y|X)\,=\,h(X,Y)-h(X)</math><ref name=cover1991 />{{rp|253}}
:<math>h(Y|X)\,=\,h(X,Y)-h(X)</math><ref name=cover1991 />{{rp|253}}
हालांकि, ध्यान दें कि यह नियम सही नहीं हो सकता है यदि शामिल अंतर एंट्रॉपी मौजूद नहीं हैं या अनंत हैं।
हालांकि, ध्यान दें कि यह नियम सही नहीं हो सकता है यदि सम्मिलित अवकल एंट्रॉपी उपस्थित नहीं हैं या अनंत हैं।


निरंतर यादृच्छिक चर के बीच पारस्परिक जानकारी की परिभाषा में संयुक्त अंतर एंट्रॉपी का भी उपयोग किया जाता है:
सतत यादृच्छिक चर के बीच पारस्परिक जानकारी की परिभाषा में संयुक्त अवकल एंट्रॉपी का भी उपयोग किया जाता है-
:<math>\operatorname{I}(X,Y)=h(X)-h(X|Y)=h(Y)-h(Y|X)</math>
:<math>\operatorname{I}(X,Y)=h(X)-h(X|Y)=h(Y)-h(Y|X)</math>


<math>h(X|Y) \le h(X)</math> समानता के साथ अगर और केवल अगर <math>X</math> और <math>Y</math> स्वतंत्र हैं।<ref name=cover1991 />{{rp|253}}
<math>h(X|Y) \le h(X)</math> समानता के साथ यदि और केवल यदि <math>X</math> और <math>Y</math> स्वतंत्र हैं।<ref name=cover1991 />{{rp|253}}


===अनुमानक त्रुटि से संबंध===
===अनुमानक त्रुटि से संबंध===
सशर्त अंतर एन्ट्रापी एक अनुमानक की अपेक्षित चुकता त्रुटि पर एक निचली सीमा उत्पन्न करता है। किसी भी यादृच्छिक चर के लिए <math>X</math>, अवलोकन <math>Y</math> और अनुमानक <math>\widehat{X}</math> निम्नलिखित धारण करता है:<ref name=cover1991 />{{rp|255}}
सशर्त अवकल एन्ट्रापी अनुमानक की अपेक्षित वर्गकित त्रुटि पर एक निचली सीमा उत्पन्न करता है। किसी भी यादृच्छिक चर <math>X</math> के लिए, अवलोकन <math>Y</math> और अनुमानक <math>\widehat{X}</math> निम्नलिखित धारण करता है-<ref name=cover1991 />{{rp|255}}<math display="block">\mathbb{E}\left[\bigl(X - \widehat{X}{(Y)}\bigr)^2\right]  
:<math display="block">\mathbb{E}\left[\bigl(X - \widehat{X}{(Y)}\bigr)^2\right]  
  \ge \frac{1}{2\pi e}e^{2h(X|Y)}</math>यह [[क्वांटम यांत्रिकी]] के अनिश्चितता के सिद्धांत से संबंधित है।
  \ge \frac{1}{2\pi e}e^{2h(X|Y)}</math>
यह [[क्वांटम यांत्रिकी]] से अनिश्चितता सिद्धांत से संबंधित है।


== क्वांटम सिद्धांत के लिए सामान्यीकरण ==
== क्वांटम सिद्धांत के लिए सामान्यीकरण ==
[[क्वांटम सूचना सिद्धांत]] में, सशर्त एन्ट्रापी को [[सशर्त क्वांटम एन्ट्रापी]] के लिए सामान्यीकृत किया जाता है। उत्तरार्द्ध अपने शास्त्रीय समकक्ष के विपरीत, नकारात्मक मान ले सकता है।
[[क्वांटम सूचना सिद्धांत]] में, सशर्त एन्ट्रापी को [[सशर्त क्वांटम एन्ट्रापी]] के लिए सामान्यीकृत किया जाता है। दूसरा अपने चिरसम्मत समकक्ष के विपरीत, ऋणात्मक मान ले सकता है।  


== यह भी देखें ==
== यह भी देखें ==
* एंट्रॉपी (सूचना सिद्धांत)
* एंट्रॉपी (सूचना सिद्धांत)
* आपसी जानकारी
* परस्पर सूचना
* सशर्त क्वांटम एन्ट्रापी
* सशर्त क्वांटम एन्ट्रापी
* सूचना का परिवर्तन
* सूचना का परिवर्तन

Revision as of 18:25, 25 May 2023

सहसंबद्ध चरों से जुड़ी जानकारी की विभिन्न मात्राओं को जोड़ने वाले और घटने वाले संबंधों को दर्शाने वाला वेन आरेख और . दोनों मंडलियों द्वारा निहित क्षेत्र संयुक्त एंट्रॉपी है . बाईं ओर का वृत्त (लाल और बैंगनी) एंट्रॉपी (सूचना सिद्धांत) है , लाल सशर्त एन्ट्रापी होने के साथ . दाईं ओर वृत्त (नीला और बैंगनी) है , नीले होने के साथ . वायलेट आपसी जानकारी है .

सूचना सिद्धांत में, सशर्त एन्ट्रापी यादृच्छिक चर के परिणाम का वर्णन करने के लिए आवश्यक जानकारी की मात्रा निर्धारित करता है, जिसे देखते हुए एक अन्य यादृच्छिक चर का मान ज्ञात होता है। जहां, शैनन, नैट्स और हार्टले में जानकारी को मापा जाता है। पर सशर्त की एन्ट्रापी को के रूप में लिखा जाता है।

परिभाषा

दिए गए की सशर्त एन्ट्रापी को इस रूप में परिभाषित किया गया है

 

 

 

 

(Eq.1)

जहाँ और और के समर्थन समुच्चय को दर्शाते हैं।

नोट: यहाँ, परंपरा यह है कि अभिव्यक्ति को शून्य के बराबर माना जाना चाहिए। ऐसा इसलिए है क्योंकि [1]

सहज रूप से, ध्यान दें कि अपेक्षित मान और सशर्त संभाव्यता की परिभाषा के अनुसार, को के रूप में लिखा जा सकता है, जहां को के रूप में परिभाषित किया गया है। के बारे में सोच सकते हैं कि प्रत्येक युग्म को दी गई की सूचना सामग्री को मापने वाली मात्रा के साथ जोड़ा जाए। यह मात्रा दी गई घटना का वर्णन करने के लिए आवश्यक जानकारी की मात्रा से सीधे संबंधित है। इसलिए मानों के सभी युग्मों पर के अपेक्षित मान की गणना करके, सशर्त एन्ट्रापी मापता है कि औसतन, चर , के बारे में कितनी जानकारी को एनकोड करता है।

अभिप्रेरण

माना एक निश्चित मान लेते हुए असतत यादृच्छिक चर पर सशर्त असतत यादृच्छिक चर की एन्ट्रापी हो। और द्वारा और के समर्थन समुच्चय को निरूपित करें। माना कि में प्रायिकता द्रव्यमान फलन है। की बिना शर्त एन्ट्रॉपी की गणना के रूप में की जाती है, अर्थात

जहाँ , के मान लेने के परिणाम की सूचनात्मक सामग्री है। का मान लेने पर सशर्त की एन्ट्रापी को सशर्त अपेक्षा के अनुसार समान रूप से परिभाषित किया गया है-

ध्यान दें कि सभी संभावित मानों पर के औसत का परिणाम है जो ले सकता है।

साथ ही, यदि उपरोक्त योग को नमूना पर ले लिया जाता है तो अपेक्षित मान को कुछ क्षेत्र में समानता के रूप में जाना जाता है।[2]

चित्र के साथ असतत यादृच्छिक चर और चित्र के साथ दिया गया है, दिए गए की सशर्त एन्ट्रापी को के प्रत्येक संभावित मान के लिए के भारित योग के रूप में परिभाषित किया गया है, को भार के रूप में उपयोग करते हुए-[3]: 15 

गुण

सशर्त एन्ट्रापी शून्य के बराबर

यदि और केवल यदि का मान पूरी तरह से के मान द्वारा निर्धारित किया जाता है।

स्वतंत्र यादृच्छिक चरों की सशर्त एन्ट्रापी

इसके विपरीत, यदि और केवल यदि और स्वतंत्र यादृच्छिक चर हैं।

श्रृंखला नियम

माना कि दो यादृच्छिक चर और द्वारा निर्धारित संयुक्त प्रणाली में संयुक्त एन्ट्रॉपी है, अर्थात, हमें इसकी सटीक स्थिति का वर्णन करने के लिए औसतन जानकारी के बिट्स की आवश्यकता है। अब यदि हम पहले का मान सीखते हैं, तो हमें बिट्स की जानकारी प्राप्त हुई है। एक बार ज्ञात हो जाने के बाद, हमें पूरी प्रणाली की स्थिति का वर्णन करने के लिए केवल बिट्स की आवश्यकता होती है। यह मात्रा ठीक है, जो सशर्त एन्ट्रापी का श्रृंखला नियम देती है-

[3]: 17 

सशर्त एन्ट्रापी की उपरोक्त परिभाषा से श्रृंखला नियम का पालन होता है-

सामान्य तौर पर, कई यादृच्छिक चर के लिए एक श्रृंखला नियम धारण करता है-

[3]: 22 

संभाव्यता सिद्धांत में श्रृंखला नियम के समान इसका रूप है, सिवाय इसके कि गुणन के स्थान पर जोड़ का उपयोग किया जाता है।

बेयस का नियम

सशर्त एन्ट्रापी अवस्थाओं के लिए बेयस का नियम

प्रमाण। और । समरूपता में सम्मिलित है। दो समीकरणों को घटाना बेयस के नियम को दर्शाता है।

यदि सशर्त रूप से दिए गए से स्वतंत्र है तो हमारे पास है-

अन्य गुण

किसी और के लिए-

जहां और के बीच पारस्परिक जानकारी है।

स्वतंत्र और के लिए-

और

हालांकि विशिष्ट-सशर्त एंट्रॉपी के दिए गए यादृच्छिक चर के लिए से कम या अधिक हो सकता है, कभी भी से अधिक नहीं हो सकता है।

सशर्त अवकल एंट्रॉपी

परिभाषा

उपरोक्त परिभाषा असतत यादृच्छिक चर के लिए है। असतत सशर्त एन्ट्रॉपी के सतत संस्करण को सशर्त अवकल (या सतत) एंट्रॉपी कहा जाता है। माना कि और एक संयुक्त प्रायिकता घनत्व फलन के साथ सतत यादृच्छिक चर हैं। अवकल सशर्त एन्ट्रापी के रूप में परिभाषित किया गया है[3]: 249 

 

 

 

 

(Eq.2)

गुण

असतत यादृच्छिक चर के लिए सशर्त एन्ट्रापी के विपरीत, सशर्त अवकल एन्ट्रॉपी ऋणात्मक हो सकती है।

जैसा कि असतत स्थिति में अवकल एन्ट्रॉपी के लिए एक श्रृंखला नियम है-

[3]: 253 

हालांकि, ध्यान दें कि यह नियम सही नहीं हो सकता है यदि सम्मिलित अवकल एंट्रॉपी उपस्थित नहीं हैं या अनंत हैं।

सतत यादृच्छिक चर के बीच पारस्परिक जानकारी की परिभाषा में संयुक्त अवकल एंट्रॉपी का भी उपयोग किया जाता है-

समानता के साथ यदि और केवल यदि और स्वतंत्र हैं।[3]: 253 

अनुमानक त्रुटि से संबंध

सशर्त अवकल एन्ट्रापी अनुमानक की अपेक्षित वर्गकित त्रुटि पर एक निचली सीमा उत्पन्न करता है। किसी भी यादृच्छिक चर के लिए, अवलोकन और अनुमानक निम्नलिखित धारण करता है-[3]: 255 

यह क्वांटम यांत्रिकी के अनिश्चितता के सिद्धांत से संबंधित है।

क्वांटम सिद्धांत के लिए सामान्यीकरण

क्वांटम सूचना सिद्धांत में, सशर्त एन्ट्रापी को सशर्त क्वांटम एन्ट्रापी के लिए सामान्यीकृत किया जाता है। दूसरा अपने चिरसम्मत समकक्ष के विपरीत, ऋणात्मक मान ले सकता है।

यह भी देखें

संदर्भ

  1. "David MacKay: Information Theory, Pattern Recognition and Neural Networks: The Book". www.inference.org.uk. Retrieved 2019-10-25.
  2. Hellman, M.; Raviv, J. (1970). "त्रुटि की संभावना, इक्विवोकेशन, और चेरनॉफ़ बाउंड". IEEE Transactions on Information Theory. 16 (4): 368–372. doi:10.1109/TIT.1970.1054466.
  3. 3.0 3.1 3.2 3.3 3.4 3.5 3.6 T. Cover; J. Thomas (1991). सूचना सिद्धांत के तत्व. ISBN 0-471-06259-6.