|
|
Line 112: |
Line 112: |
|
| |
|
| === गुण === | | === गुण === |
| असतत यादृच्छिक चर के लिए सशर्त एन्ट्रापी के विपरीत, सशर्त अंतर एन्ट्रॉपी नकारात्मक हो सकता है। | | असतत यादृच्छिक चर के लिए सशर्त एन्ट्रापी के विपरीत, सशर्त अवकल एन्ट्रॉपी ऋणात्मक हो सकती है। |
|
| |
|
| असतत मामले में विभेदक एन्ट्रापी के लिए एक श्रृंखला नियम है: | | जैसा कि असतत स्थिति में अवकल एन्ट्रॉपी के लिए एक श्रृंखला नियम है- |
| :<math>h(Y|X)\,=\,h(X,Y)-h(X)</math><ref name=cover1991 />{{rp|253}} | | :<math>h(Y|X)\,=\,h(X,Y)-h(X)</math><ref name=cover1991 />{{rp|253}} |
| हालांकि, ध्यान दें कि यह नियम सही नहीं हो सकता है यदि शामिल अंतर एंट्रॉपी मौजूद नहीं हैं या अनंत हैं। | | हालांकि, ध्यान दें कि यह नियम सही नहीं हो सकता है यदि सम्मिलित अवकल एंट्रॉपी उपस्थित नहीं हैं या अनंत हैं। |
|
| |
|
| निरंतर यादृच्छिक चर के बीच पारस्परिक जानकारी की परिभाषा में संयुक्त अंतर एंट्रॉपी का भी उपयोग किया जाता है:
| | सतत यादृच्छिक चर के बीच पारस्परिक जानकारी की परिभाषा में संयुक्त अवकल एंट्रॉपी का भी उपयोग किया जाता है- |
| :<math>\operatorname{I}(X,Y)=h(X)-h(X|Y)=h(Y)-h(Y|X)</math> | | :<math>\operatorname{I}(X,Y)=h(X)-h(X|Y)=h(Y)-h(Y|X)</math> |
|
| |
|
| <math>h(X|Y) \le h(X)</math> समानता के साथ अगर और केवल अगर <math>X</math> और <math>Y</math> स्वतंत्र हैं।<ref name=cover1991 />{{rp|253}} | | <math>h(X|Y) \le h(X)</math> समानता के साथ यदि और केवल यदि <math>X</math> और <math>Y</math> स्वतंत्र हैं।<ref name=cover1991 />{{rp|253}} |
|
| |
|
| ===अनुमानक त्रुटि से संबंध=== | | ===अनुमानक त्रुटि से संबंध=== |
| सशर्त अंतर एन्ट्रापी एक अनुमानक की अपेक्षित चुकता त्रुटि पर एक निचली सीमा उत्पन्न करता है। किसी भी यादृच्छिक चर के लिए <math>X</math>, अवलोकन <math>Y</math> और अनुमानक <math>\widehat{X}</math> निम्नलिखित धारण करता है:<ref name=cover1991 />{{rp|255}} | | सशर्त अवकल एन्ट्रापी अनुमानक की अपेक्षित वर्गकित त्रुटि पर एक निचली सीमा उत्पन्न करता है। किसी भी यादृच्छिक चर <math>X</math> के लिए, अवलोकन <math>Y</math> और अनुमानक <math>\widehat{X}</math> निम्नलिखित धारण करता है-<ref name=cover1991 />{{rp|255}}<math display="block">\mathbb{E}\left[\bigl(X - \widehat{X}{(Y)}\bigr)^2\right] |
| :<math display="block">\mathbb{E}\left[\bigl(X - \widehat{X}{(Y)}\bigr)^2\right]
| | \ge \frac{1}{2\pi e}e^{2h(X|Y)}</math>यह [[क्वांटम यांत्रिकी]] के अनिश्चितता के सिद्धांत से संबंधित है। |
| \ge \frac{1}{2\pi e}e^{2h(X|Y)}</math> | |
| यह [[क्वांटम यांत्रिकी]] से अनिश्चितता सिद्धांत से संबंधित है। | |
|
| |
|
| == क्वांटम सिद्धांत के लिए सामान्यीकरण == | | == क्वांटम सिद्धांत के लिए सामान्यीकरण == |
| [[क्वांटम सूचना सिद्धांत]] में, सशर्त एन्ट्रापी को [[सशर्त क्वांटम एन्ट्रापी]] के लिए सामान्यीकृत किया जाता है। उत्तरार्द्ध अपने शास्त्रीय समकक्ष के विपरीत, नकारात्मक मान ले सकता है। | | [[क्वांटम सूचना सिद्धांत]] में, सशर्त एन्ट्रापी को [[सशर्त क्वांटम एन्ट्रापी]] के लिए सामान्यीकृत किया जाता है। दूसरा अपने चिरसम्मत समकक्ष के विपरीत, ऋणात्मक मान ले सकता है। |
|
| |
|
| == यह भी देखें == | | == यह भी देखें == |
| * एंट्रॉपी (सूचना सिद्धांत) | | * एंट्रॉपी (सूचना सिद्धांत) |
| * आपसी जानकारी | | * परस्पर सूचना |
| * सशर्त क्वांटम एन्ट्रापी | | * सशर्त क्वांटम एन्ट्रापी |
| * सूचना का परिवर्तन | | * सूचना का परिवर्तन |
सहसंबद्ध चरों से जुड़ी जानकारी की विभिन्न मात्राओं को जोड़ने वाले और घटने वाले संबंधों को दर्शाने वाला
वेन आरेख और
. दोनों मंडलियों द्वारा निहित क्षेत्र संयुक्त एंट्रॉपी है
. बाईं ओर का वृत्त (लाल और बैंगनी)
एंट्रॉपी (सूचना सिद्धांत) है
, लाल सशर्त एन्ट्रापी होने के साथ
. दाईं ओर वृत्त (नीला और बैंगनी) है
, नीले होने के साथ
. वायलेट
आपसी जानकारी है
.
सूचना सिद्धांत में, सशर्त एन्ट्रापी यादृच्छिक चर के परिणाम का वर्णन करने के लिए आवश्यक जानकारी की मात्रा निर्धारित करता है, जिसे देखते हुए एक अन्य यादृच्छिक चर का मान ज्ञात होता है। जहां, शैनन, नैट्स और हार्टले में जानकारी को मापा जाता है। पर सशर्त की एन्ट्रापी को के रूप में लिखा जाता है।
परिभाषा
दिए गए की सशर्त एन्ट्रापी को इस रूप में परिभाषित किया गया है
|
|
(Eq.1)
|
जहाँ और और के समर्थन समुच्चय को दर्शाते हैं।
नोट: यहाँ, परंपरा यह है कि अभिव्यक्ति को शून्य के बराबर माना जाना चाहिए। ऐसा इसलिए है क्योंकि ।[1]
सहज रूप से, ध्यान दें कि अपेक्षित मान और सशर्त संभाव्यता की परिभाषा के अनुसार, को के रूप में लिखा जा सकता है, जहां को के रूप में परिभाषित किया गया है। के बारे में सोच सकते हैं कि प्रत्येक युग्म को दी गई की सूचना सामग्री को मापने वाली मात्रा के साथ जोड़ा जाए। यह मात्रा दी गई घटना का वर्णन करने के लिए आवश्यक जानकारी की मात्रा से सीधे संबंधित है। इसलिए मानों के सभी युग्मों पर के अपेक्षित मान की गणना करके, सशर्त एन्ट्रापी मापता है कि औसतन, चर , के बारे में कितनी जानकारी को एनकोड करता है।
अभिप्रेरण
माना एक निश्चित मान लेते हुए असतत यादृच्छिक चर पर सशर्त असतत यादृच्छिक चर की एन्ट्रापी हो। और द्वारा और के समर्थन समुच्चय को निरूपित करें। माना कि में प्रायिकता द्रव्यमान फलन है। की बिना शर्त एन्ट्रॉपी की गणना के रूप में की जाती है, अर्थात
जहाँ , के मान लेने के परिणाम की सूचनात्मक सामग्री है। का मान लेने पर सशर्त की एन्ट्रापी को सशर्त अपेक्षा के अनुसार समान रूप से परिभाषित किया गया है-
ध्यान दें कि सभी संभावित मानों पर के औसत का परिणाम है जो ले सकता है।
साथ ही, यदि उपरोक्त योग को नमूना पर ले लिया जाता है तो अपेक्षित मान को कुछ क्षेत्र में समानता के रूप में जाना जाता है।[2]
चित्र के साथ असतत यादृच्छिक चर और चित्र के साथ दिया गया है, दिए गए की सशर्त एन्ट्रापी को के प्रत्येक संभावित मान के लिए के भारित योग के रूप में परिभाषित किया गया है, को भार के रूप में उपयोग करते हुए-[3]: 15
गुण
सशर्त एन्ट्रापी शून्य के बराबर
यदि और केवल यदि का मान पूरी तरह से के मान द्वारा निर्धारित किया जाता है।
स्वतंत्र यादृच्छिक चरों की सशर्त एन्ट्रापी
इसके विपरीत, यदि और केवल यदि और स्वतंत्र यादृच्छिक चर हैं।
श्रृंखला नियम
माना कि दो यादृच्छिक चर और द्वारा निर्धारित संयुक्त प्रणाली में संयुक्त एन्ट्रॉपी है, अर्थात, हमें इसकी सटीक स्थिति का वर्णन करने के लिए औसतन जानकारी के बिट्स की आवश्यकता है। अब यदि हम पहले का मान सीखते हैं, तो हमें बिट्स की जानकारी प्राप्त हुई है। एक बार ज्ञात हो जाने के बाद, हमें पूरी प्रणाली की स्थिति का वर्णन करने के लिए केवल बिट्स की आवश्यकता होती है। यह मात्रा ठीक है, जो सशर्त एन्ट्रापी का श्रृंखला नियम देती है-
- [3]: 17
सशर्त एन्ट्रापी की उपरोक्त परिभाषा से श्रृंखला नियम का पालन होता है-
सामान्य तौर पर, कई यादृच्छिक चर के लिए एक श्रृंखला नियम धारण करता है-
- [3]: 22
संभाव्यता सिद्धांत में श्रृंखला नियम के समान इसका रूप है, सिवाय इसके कि गुणन के स्थान पर जोड़ का उपयोग किया जाता है।
बेयस का नियम
सशर्त एन्ट्रापी अवस्थाओं के लिए बेयस का नियम
प्रमाण। और । समरूपता में सम्मिलित है। दो समीकरणों को घटाना बेयस के नियम को दर्शाता है।
यदि सशर्त रूप से दिए गए से स्वतंत्र है तो हमारे पास है-
अन्य गुण
किसी और के लिए-
जहां और के बीच पारस्परिक जानकारी है।
स्वतंत्र और के लिए-
- और
हालांकि विशिष्ट-सशर्त एंट्रॉपी के दिए गए यादृच्छिक चर के लिए से कम या अधिक हो सकता है, कभी भी से अधिक नहीं हो सकता है।
सशर्त अवकल एंट्रॉपी
परिभाषा
उपरोक्त परिभाषा असतत यादृच्छिक चर के लिए है। असतत सशर्त एन्ट्रॉपी के सतत संस्करण को सशर्त अवकल (या सतत) एंट्रॉपी कहा जाता है। माना कि और एक संयुक्त प्रायिकता घनत्व फलन के साथ सतत यादृच्छिक चर हैं। अवकल सशर्त एन्ट्रापी के रूप में परिभाषित किया गया है[3]: 249
|
|
(Eq.2)
|
गुण
असतत यादृच्छिक चर के लिए सशर्त एन्ट्रापी के विपरीत, सशर्त अवकल एन्ट्रॉपी ऋणात्मक हो सकती है।
जैसा कि असतत स्थिति में अवकल एन्ट्रॉपी के लिए एक श्रृंखला नियम है-
- [3]: 253
हालांकि, ध्यान दें कि यह नियम सही नहीं हो सकता है यदि सम्मिलित अवकल एंट्रॉपी उपस्थित नहीं हैं या अनंत हैं।
सतत यादृच्छिक चर के बीच पारस्परिक जानकारी की परिभाषा में संयुक्त अवकल एंट्रॉपी का भी उपयोग किया जाता है-
समानता के साथ यदि और केवल यदि और स्वतंत्र हैं।[3]: 253
अनुमानक त्रुटि से संबंध
सशर्त अवकल एन्ट्रापी अनुमानक की अपेक्षित वर्गकित त्रुटि पर एक निचली सीमा उत्पन्न करता है। किसी भी यादृच्छिक चर के लिए, अवलोकन और अनुमानक निम्नलिखित धारण करता है-[3]: 255
यह
क्वांटम यांत्रिकी के अनिश्चितता के सिद्धांत से संबंधित है।
क्वांटम सिद्धांत के लिए सामान्यीकरण
क्वांटम सूचना सिद्धांत में, सशर्त एन्ट्रापी को सशर्त क्वांटम एन्ट्रापी के लिए सामान्यीकृत किया जाता है। दूसरा अपने चिरसम्मत समकक्ष के विपरीत, ऋणात्मक मान ले सकता है।
यह भी देखें
संदर्भ