सशर्त एन्ट्रापी: Difference between revisions

From Vigyanwiki
(Created page with "{{Short description|Measure of relative information in probability theory}} {{Information theory}} Image:Entropy-mutual-information-relative-entropy-relation-diagram.svg|th...")
 
No edit summary
Line 2: Line 2:
{{Information theory}}
{{Information theory}}


[[Image:Entropy-mutual-information-relative-entropy-relation-diagram.svg|thumb|256px|right|सहसंबद्ध चरों से जुड़ी जानकारी की विभिन्न मात्राओं को जोड़ने वाले और घटने वाले संबंधों को दर्शाने वाला [[वेन आरेख]] <math>X</math> और <math>Y</math>. दोनों मंडलियों द्वारा निहित क्षेत्र संयुक्त एंट्रॉपी है <math>\Eta(X,Y)</math>. बाईं ओर का वृत्त (लाल और बैंगनी) [[एंट्रॉपी (सूचना सिद्धांत)]] है <math>\Eta(X)</math>, लाल सशर्त एन्ट्रापी होने के साथ <math>\Eta(X|Y)</math>. दाईं ओर वृत्त (नीला और बैंगनी) है <math>\Eta(Y)</math>, नीले होने के साथ <math>\Eta(Y|X)</math>. वायलेट [[आपसी जानकारी]] है <math>\operatorname{I}(X;Y)</math>.]][[सूचना सिद्धांत]] में, सशर्त एन्ट्रापी एक यादृच्छिक चर के परिणाम का वर्णन करने के लिए आवश्यक जानकारी की मात्रा निर्धारित करता है <math>Y</math> दिया गया है कि एक और यादृच्छिक चर का मान <math>X</math> ज्ञात है। यहाँ, सूचना को [[ शैनन (इकाई) ]] s, Nat (यूनिट) s, या [[ हार्टले (इकाई) ]] s में मापा जाता है। की एन्ट्रापी <math>Y</math> पर वातानुकूलित <math>X</math>के रूप में लिखा गया है <math>\Eta(Y|X)</math>.
[[Image:Entropy-mutual-information-relative-entropy-relation-diagram.svg|thumb|256px|right|सहसंबद्ध चरों से जुड़ी जानकारी की विभिन्न मात्राओं को जोड़ने वाले और घटने वाले संबंधों को दर्शाने वाला [[वेन आरेख]] <math>X</math> और <math>Y</math>. दोनों मंडलियों द्वारा निहित क्षेत्र संयुक्त एंट्रॉपी है <math>\Eta(X,Y)</math>. बाईं ओर का वृत्त (लाल और बैंगनी) [[एंट्रॉपी (सूचना सिद्धांत)]] है <math>\Eta(X)</math>, लाल सशर्त एन्ट्रापी होने के साथ <math>\Eta(X|Y)</math>. दाईं ओर वृत्त (नीला और बैंगनी) है <math>\Eta(Y)</math>, नीले होने के साथ <math>\Eta(Y|X)</math>. वायलेट [[आपसी जानकारी]] है <math>\operatorname{I}(X;Y)</math>.]][[सूचना सिद्धांत]] में, सशर्त एन्ट्रापी यादृच्छिक चर <math>Y</math> के परिणाम का वर्णन करने के लिए आवश्यक जानकारी की मात्रा निर्धारित करता है, जिसे देखते हुए एक अन्य यादृच्छिक चर <math>X</math> का मान ज्ञात होता है। जहां, [[ शैनन (इकाई) |शैनन]], नैट्स और [[ हार्टले (इकाई) |हार्टले]] में जानकारी को मापा जाता है। <math>X</math> पर सशर्त <math>Y</math> की एन्ट्रापी को <math>\Eta(Y|X)</math> के रूप में लिखा जाता है।


== परिभाषा ==
== परिभाषा ==
की सशर्त एन्ट्रॉपी <math>Y</math> दिया गया <math>X</math> परिभाषित किया जाता है
<math>Y</math> दिए गए <math>X</math> की सशर्त एन्ट्रापी को इस रूप में परिभाषित किया गया है


{{Equation box 1
{{Equation box 1
Line 16: Line 16:
|background colour=#F5FFFA}}
|background colour=#F5FFFA}}


कहाँ <math>\mathcal X</math> और <math>\mathcal Y</math> के [[समर्थन (गणित)]] को निरूपित करें <math>X</math> और <math>Y</math>.
जहाँ <math>\mathcal X</math> और <math>\mathcal Y</math> <math>X</math> और <math>Y</math> के [[समर्थन (गणित)|समर्थन]] समुच्चय को दर्शाते हैं।


नोट: यहाँ, परिपाटी यह है कि व्यंजक <math>0 \log 0</math> शून्य के बराबर माना जाना चाहिए। यह है क्योंकि <math>\lim_{\theta\to0^+} \theta\, \log \theta = 0</math>.<ref>{{Cite web|url=http://www.inference.org.uk/mackay/itprnn/book.html|title=David MacKay: Information Theory, Pattern Recognition and Neural Networks: The Book|website=www.inference.org.uk|access-date=2019-10-25}}</ref> <!-- because p(x,y) could still equal 0 even if p(x) != 0 and p(y) != 0. What about p(x,y)=p(x)=0? -->
नोट: यहाँ, परंपरा यह है कि अभिव्यक्ति <math>0 \log 0</math> को शून्य के बराबर माना जाना चाहिए। ऐसा इसलिए है क्योंकि <math>\lim_{\theta\to0^+} \theta\, \log \theta = 0</math><ref>{{Cite web|url=http://www.inference.org.uk/mackay/itprnn/book.html|title=David MacKay: Information Theory, Pattern Recognition and Neural Networks: The Book|website=www.inference.org.uk|access-date=2019-10-25}}</ref>  
सहज रूप से, ध्यान दें कि [[अपेक्षित मूल्य]] और [[सशर्त संभाव्यता]] की परिभाषा के अनुसार, <math>\displaystyle H(Y|X) </math> रूप में लिखा जा सकता है <math> H(Y|X) = \mathbb{E}[f(X,Y)]</math>, कहाँ <math> f </math> परिभाषित किया जाता है <math>\displaystyle f(x,y) := -\log\left(\frac{p(x, y)}{p(x)}\right) = -\log(p(y|x))</math>. कोई सोच सकता है <math>\displaystyle f</math> प्रत्येक जोड़ी को जोड़ने के रूप में <math>\displaystyle (x, y)</math> की सूचना सामग्री को मापने वाली मात्रा के साथ <math>\displaystyle (Y=y)</math> दिया गया <math>\displaystyle (X=x)</math>. यह मात्रा घटना का वर्णन करने के लिए आवश्यक जानकारी की मात्रा से सीधे संबंधित है <math>\displaystyle (Y=y)</math> दिया गया <math>(X=x)</math>. इसलिए के अपेक्षित मूल्य की गणना करके <math>\displaystyle f </math> मूल्यों के सभी जोड़े पर <math>(x, y) \in \mathcal{X} \times \mathcal{Y}</math>, सशर्त एन्ट्रापी <math>\displaystyle H(Y|X)</math> मापता है कि कितनी जानकारी, औसतन, चर <math> X </math> के बारे में कूटबद्ध करता है <math> Y </math>.


== प्रेरणा ==
सहज रूप से, ध्यान दें कि [[अपेक्षित मूल्य|अपेक्षित मान]] और [[सशर्त संभाव्यता]] की परिभाषा के अनुसार, <math>\displaystyle H(Y|X) </math> को <math> H(Y|X) = \mathbb{E}[f(X,Y)]</math> के रूप में लिखा जा सकता है, जहां <math> f </math> को <math>\displaystyle f(x,y) := -\log\left(\frac{p(x, y)}{p(x)}\right) = -\log(p(y|x))</math> के रूप में परिभाषित किया गया है। <math>\displaystyle f</math> के बारे में सोच सकते हैं कि प्रत्येक युग्म <math>\displaystyle (x, y)</math> को दी गई <math>\displaystyle (Y=y)</math> की सूचना सामग्री को मापने वाली मात्रा <math>\displaystyle (X=x)</math> के साथ जोड़ा जाए। यह मात्रा दी गई घटना <math>\displaystyle (Y=y)</math> <math>(X=x)</math> का वर्णन करने के लिए आवश्यक जानकारी की मात्रा से सीधे संबंधित है। इसलिए मानों <math> Y </math> के सभी युग्मों पर <math>\displaystyle f </math> के अपेक्षित मान की गणना करके, सशर्त एन्ट्रापी <math>\displaystyle H(Y|X)</math> मापता है कि औसतन, चर <math> X </math>, <math>(x, y) \in \mathcal{X} \times \mathcal{Y}</math> के बारे में कितनी जानकारी को एनकोड करता है।
होने देना <math>\Eta(Y|X=x)</math> असतत यादृच्छिक चर का [[शैनन एंट्रॉपी]] बनें <math>Y</math> असतत यादृच्छिक चर पर वातानुकूलित <math>X</math> एक निश्चित मूल्य लेना <math>x</math>. के समर्थन सेट को निरूपित करें <math>X</math> और <math>Y</math> द्वारा <math>\mathcal X</math> और <math>\mathcal Y</math>. होने देना <math>Y</math> प्रायिकता द्रव्यमान कार्य है <math>p_Y{(y)}</math>. की बिना शर्त एन्ट्रापी <math>Y</math> के रूप में गणना की जाती है <math>\Eta(Y) := \mathbb{E}[\operatorname{I}(Y)]</math>, अर्थात।


:<math>\Eta(Y) = \sum_{y\in\mathcal Y} {\mathrm{Pr}(Y=y)\,\mathrm{I}(y)}  
== अभिप्रेरण ==
माना <math>\Eta(Y|X=x)</math> एक निश्चित मान <math>x</math> लेते हुए असतत यादृच्छिक चर <math>X</math> पर सशर्त असतत यादृच्छिक चर <math>Y</math> की [[शैनन एंट्रॉपी|एन्ट्रापी]] हो। <math>\mathcal X</math> और <math>\mathcal Y</math> द्वारा <math>X</math> और <math>Y</math> के समर्थन समुच्चय को निरूपित करें। माना कि <math>Y</math> में प्रायिकता द्रव्यमान फलन <math>p_Y{(y)}</math> है। <math>Y</math> की बिना शर्त एन्ट्रॉपी की गणना <math>\Eta(Y) := \mathbb{E}[\operatorname{I}(Y)]</math> के रूप में की जाती है, अर्थात
 
<math>\Eta(Y) = \sum_{y\in\mathcal Y} {\mathrm{Pr}(Y=y)\,\mathrm{I}(y)}  
= -\sum_{y\in\mathcal Y} {p_Y(y) \log_2{p_Y(y)}},</math>
= -\sum_{y\in\mathcal Y} {p_Y(y) \log_2{p_Y(y)}},</math>
कहाँ <math>\operatorname{I}(y_i)</math> के [[परिणाम (संभावना)]] की सूचना सामग्री है <math>Y</math> मूल्य ले रहा है <math>y_i</math>. की एन्ट्रापी <math>Y</math> पर वातानुकूलित <math>X</math> मूल्य ले रहा है <math>x</math> [[सशर्त अपेक्षा]] द्वारा समान रूप से परिभाषित किया गया है:
 
जहाँ <math>\operatorname{I}(y_i)</math>, <math>Y</math> के मान <math>y_i</math> लेने के [[परिणाम (संभावना)|परिणाम]] की सूचनात्मक सामग्री है। <math>X</math> का मान <math>x</math> लेने पर सशर्त <math>Y</math> की एन्ट्रापी को [[सशर्त अपेक्षा]] के अनुसार समान रूप से परिभाषित किया गया है-


:<math>\Eta(Y|X=x)
:<math>\Eta(Y|X=x)
= -\sum_{y\in\mathcal Y} {\Pr(Y = y|X=x) \log_2{\Pr(Y = y|X=x)}}.</math>
= -\sum_{y\in\mathcal Y} {\Pr(Y = y|X=x) \log_2{\Pr(Y = y|X=x)}}.</math>
ध्यान दें कि <math>\Eta(Y|X)</math> औसत का परिणाम है <math>\Eta(Y|X=x)</math> सभी संभावित मूल्यों पर <math>x</math> वह <math>X</math> लग सकता है। साथ ही, यदि उपरोक्त योग को एक नमूने पर लिया जाता है <math>y_1, \dots, y_n</math>, अपेक्षित मूल्य <math>E_X[ \Eta(y_1, \dots, y_n \mid X = x)]</math> कुछ डोमेन में इक्विवोकेशन के रूप में जाना जाता है।<ref>{{cite journal|author1=Hellman, M.|author2=Raviv, J.|year=1970|title=त्रुटि की संभावना, इक्विवोकेशन, और चेरनॉफ़ बाउंड|journal=IEEE Transactions on Information Theory|volume=16|issue=4|pages=368–372|doi=10.1109/TIT.1970.1054466}}</ref>
ध्यान दें कि <math>\Eta(Y|X)</math> सभी संभावित मानों <math>x</math> पर <math>\Eta(Y|X=x)</math> के औसत का परिणाम है जो <math>X</math> ले सकता है।  
दिया गया [[असतत यादृच्छिक चर]] <math>X</math> छवि के साथ <math>\mathcal X</math> और <math>Y</math> छवि के साथ <math>\mathcal Y</math>, की सशर्त एन्ट्रापी <math>Y</math> दिया गया <math>X</math> के भारित योग के रूप में परिभाषित किया गया है <math>\Eta(Y|X=x)</math> के प्रत्येक संभावित मूल्य के लिए <math>x</math>, का उपयोग कर  <math>p(x)</math> भार के रूप में:<ref name=cover1991>{{cite book|isbn=0-471-06259-6|year=1991|authorlink1=Thomas M. Cover|author1=T. Cover|author2=J. Thomas|title=सूचना सिद्धांत के तत्व|url=https://archive.org/details/elementsofinform0000cove|url-access=registration}}</ref>{{rp|15}}
 
साथ ही, यदि उपरोक्त योग को नमूना <math>y_1, \dots, y_n</math> पर ले लिया जाता है तो अपेक्षित मान <math>E_X[ \Eta(y_1, \dots, y_n \mid X = x)]</math> को कुछ क्षेत्र में समानता के रूप में जाना जाता है।<ref>{{cite journal|author1=Hellman, M.|author2=Raviv, J.|year=1970|title=त्रुटि की संभावना, इक्विवोकेशन, और चेरनॉफ़ बाउंड|journal=IEEE Transactions on Information Theory|volume=16|issue=4|pages=368–372|doi=10.1109/TIT.1970.1054466}}</ref>  
 
चित्र <math>\mathcal X</math> के साथ [[असतत यादृच्छिक चर]] <math>X</math> और चित्र <math>\mathcal Y</math> के साथ <math>Y</math> दिया गया है, <math>Y</math> दिए गए <math>X</math> की सशर्त एन्ट्रापी को <math>x</math> के प्रत्येक संभावित मान के लिए <math>\Eta(Y|X=x)</math> के भारित योग के रूप में परिभाषित किया गया है, <math>p(x)</math> को भार के रूप में उपयोग करते हुए-<ref name="cover1991">{{cite book|isbn=0-471-06259-6|year=1991|authorlink1=Thomas M. Cover|author1=T. Cover|author2=J. Thomas|title=सूचना सिद्धांत के तत्व|url=https://archive.org/details/elementsofinform0000cove|url-access=registration}}</ref>{{rp|15}}
:<math>
:<math>
\begin{align}
\begin{align}
Line 40: Line 45:
\end{align}
\end{align}
</math>
</math>
== गुण ==
== गुण ==


=== सशर्त एंट्रॉपी शून्य === के बराबर है
=== सशर्त एन्ट्रापी शून्य के बराबर ===
<math>\Eta(Y|X)=0</math> अगर और केवल अगर का मूल्य <math>Y</math> के मूल्य से पूरी तरह से निर्धारित होता है <math>X</math>.
<math>\Eta(Y|X)=0</math> यदि और केवल यदि <math>Y</math> का मान पूरी तरह से <math>X</math> के मान द्वारा निर्धारित किया जाता है।


=== स्वतंत्र यादृच्छिक चर की सशर्त एन्ट्रापी ===
=== स्वतंत्र यादृच्छिक चरों की सशर्त एन्ट्रापी ===
इसके विपरीत, <math>\Eta(Y|X) = \Eta(Y)</math> अगर और केवल अगर <math>Y</math> और <math>X</math> [[स्वतंत्र यादृच्छिक चर]] हैं।
इसके विपरीत, <math>\Eta(Y|X) = \Eta(Y)</math> यदि और केवल यदि <math>Y</math> और <math>X</math> [[स्वतंत्र यादृच्छिक चर]] हैं।


=== श्रृंखला नियम ===
=== श्रृंखला नियम ===
मान लें कि संयुक्त प्रणाली दो यादृच्छिक चर द्वारा निर्धारित की जाती है <math>X</math> और <math>Y</math> संयुक्त एन्ट्रापी है <math>\Eta(X,Y)</math>यानी हमें जरूरत है <math>\Eta(X,Y)</math> इसकी सटीक स्थिति का वर्णन करने के लिए औसतन जानकारी के बिट्स। अब अगर हम पहले का मूल्य सीखते हैं <math>X</math>, हमने प्राप्त किया है <math>\Eta(X)</math> जानकारी के टुकड़े। एक बार <math>X</math> ज्ञात है, हमें केवल आवश्यकता है <math>\Eta(X,Y)-\Eta(X)</math> पूरे सिस्टम की स्थिति का वर्णन करने के लिए बिट्स। यह मात्रा बिल्कुल है <math>\Eta(Y|X)</math>, जो सशर्त एन्ट्रॉपी का चेन नियम देता है:
माना कि दो यादृच्छिक चर <math>X</math> और <math>Y</math> द्वारा निर्धारित संयुक्त प्रणाली में संयुक्त एन्ट्रॉपी <math>\Eta(X,Y)</math> है, अर्थात, हमें इसकी सटीक स्थिति का वर्णन करने के लिए औसतन जानकारी के <math>\Eta(X,Y)</math> बिट्स की आवश्यकता है। अब यदि हम पहले <math>X</math> का मान सीखते हैं, तो हमें <math>\Eta(X)</math> बिट्स की जानकारी प्राप्त हुई है। एक बार <math>X</math> ज्ञात हो जाने के बाद, हमें पूरी प्रणाली की स्थिति का वर्णन करने के लिए केवल <math>\Eta(X,Y)-\Eta(X)</math> बिट्स की आवश्यकता होती है। यह मात्रा ठीक <math>\Eta(Y|X)</math> है, जो सशर्त एन्ट्रापी का श्रृंखला नियम देती है-


:<math>\Eta(Y|X)\, = \, \Eta(X,Y)- \Eta(X).</math><ref name=cover1991 />{{rp|17}}
:<math>\Eta(Y|X)\, = \, \Eta(X,Y)- \Eta(X).</math><ref name=cover1991 />{{rp|17}}


सशर्त एन्ट्रापी की उपरोक्त परिभाषा से श्रृंखला नियम का पालन होता है:
सशर्त एन्ट्रापी की उपरोक्त परिभाषा से श्रृंखला नियम का पालन होता है-


:<math>\begin{align}  
:<math>\begin{align}  
Line 64: Line 67:
  & = \Eta(X,Y) - \Eta(X).  
  & = \Eta(X,Y) - \Eta(X).  
\end{align}</math>
\end{align}</math>
सामान्य तौर पर, एकाधिक यादृच्छिक चर के लिए एक श्रृंखला नियम धारण करता है:
सामान्य तौर पर, कई यादृच्छिक चर के लिए एक श्रृंखला नियम धारण करता है-


:<math> \Eta(X_1,X_2,\ldots,X_n) =
:<math> \Eta(X_1,X_2,\ldots,X_n) =
  \sum_{i=1}^n \Eta(X_i | X_1, \ldots, X_{i-1}) </math><ref name=cover1991 />{{rp|22}}
  \sum_{i=1}^n \Eta(X_i | X_1, \ldots, X_{i-1}) </math><ref name=cover1991 />{{rp|22}}


संभाव्यता सिद्धांत में इसका एक समान रूप चेन नियम (संभाव्यता) है, सिवाय इसके कि गुणन के बजाय जोड़ का उपयोग किया जाता है।
संभाव्यता सिद्धांत में श्रृंखला नियम के समान इसका रूप है, सिवाय इसके कि गुणन के स्थान पर जोड़ का उपयोग किया जाता है।


=== बेयस का नियम ===
=== बेयस का नियम ===
सशर्त एंट्रॉपी राज्यों के लिए बेयस नियम
सशर्त एन्ट्रापी अवस्थाओं के लिए बेयस का नियम
:<math>\Eta(Y|X) \,=\, \Eta(X|Y) - \Eta(X) + \Eta(Y).</math>
:<math>\Eta(Y|X) \,=\, \Eta(X|Y) - \Eta(X) + \Eta(Y).</math>
सबूत। <math>\Eta(Y|X) = \Eta(X,Y) - \Eta(X)</math> और <math>\Eta(X|Y) = \Eta(Y,X) - \Eta(Y)</math>. समरूपता शामिल है <math>\Eta(X,Y) = \Eta(Y,X)</math>. दो समीकरणों को घटाना बेज़ के नियम को दर्शाता है।
प्रमाण। <math>\Eta(Y|X) = \Eta(X,Y) - \Eta(X)</math> और <math>\Eta(X|Y) = \Eta(Y,X) - \Eta(Y)</math>समरूपता में <math>\Eta(X,Y) = \Eta(Y,X)</math> सम्मिलित है। दो समीकरणों को घटाना बेयस के नियम को दर्शाता है।


अगर <math>Y</math> की [[सशर्त स्वतंत्रता]] है <math>Z</math> दिया गया <math>X</math> अपने पास:
यदि <math>Y</math> सशर्त रूप से <math>Z</math> दिए गए <math>X</math> से [[सशर्त स्वतंत्रता|स्वतंत्र]] है तो हमारे पास है-


:<math>\Eta(Y|X,Z) \,=\, \Eta(Y|X).</math>
:<math>\Eta(Y|X,Z) \,=\, \Eta(Y|X).</math>
=== अन्य गुण ===
=== अन्य गुण ===
किसी के लिए <math>X</math> और <math>Y</math>:
किसी <math>X</math> और <math>Y</math> के लिए-
:<math>\begin{align}
:<math>\begin{align}
   \Eta(Y|X) &\le \Eta(Y) \, \\
   \Eta(Y|X) &\le \Eta(Y) \, \\
Line 89: Line 90:
   \operatorname{I}(X;Y) &\le \Eta(X),\,
   \operatorname{I}(X;Y) &\le \Eta(X),\,
\end{align}</math>
\end{align}</math>
कहाँ <math>\operatorname{I}(X;Y)</math> के बीच परस्पर सूचना है <math>X</math> और <math>Y</math>.
जहां <math>\operatorname{I}(X;Y)</math> <math>X</math> और <math>Y</math> के बीच पारस्परिक जानकारी है।


स्वतंत्र के लिए <math>X</math> और <math>Y</math>:
स्वतंत्र <math>X</math> और <math>Y</math> के लिए-


:<math>\Eta(Y|X) = \Eta(Y) </math> और <math>\Eta(X|Y) = \Eta(X) \, </math>
:<math>\Eta(Y|X) = \Eta(Y) </math> और <math>\Eta(X|Y) = \Eta(X) \, </math>
हालांकि विशिष्ट-सशर्त एन्ट्रापी <math>\Eta(X|Y=y)</math> से कम या अधिक हो सकता है <math>\Eta(X)</math> किसी दिए गए [[यादृच्छिक चर]] के लिए <math>y</math> का <math>Y</math>, <math>\Eta(X|Y)</math> कभी अधिक नहीं हो सकता <math>\Eta(X)</math>.
हालांकि विशिष्ट-सशर्त एंट्रॉपी <math>\Eta(X|Y=y)</math> <math>Y</math> के दिए गए [[यादृच्छिक चर]] <math>y</math> के लिए <math>\Eta(X)</math> से कम या अधिक हो सकता है, <math>\Eta(X|Y)</math> कभी भी <math>\Eta(X)</math> से अधिक नहीं हो सकता है।


== सशर्त अंतर एंट्रॉपी ==
== सशर्त अवकल एंट्रॉपी ==


=== परिभाषा ===
=== परिभाषा ===
उपरोक्त परिभाषा असतत यादृच्छिक चर के लिए है। असतत सशर्त एन्ट्रॉपी के निरंतर संस्करण को सशर्त अंतर (या निरंतर) एंट्रॉपी कहा जाता है। होने देना <math>X</math> और <math>Y</math> एक संयुक्त प्रायिकता घनत्व समारोह के साथ एक निरंतर यादृच्छिक चर हो <math>f(x,y)</math>. अंतर सशर्त एन्ट्रापी <math>h(X|Y)</math> परिभाषित किया जाता है<ref name=cover1991 />{{rp|249}}
उपरोक्त परिभाषा असतत यादृच्छिक चर के लिए है। असतत सशर्त एन्ट्रॉपी के सतत संस्करण को सशर्त अवकल (या सतत) एंट्रॉपी कहा जाता है। माना कि <math>X</math> और <math>Y</math> एक संयुक्त प्रायिकता घनत्व फलन <math>f(x,y)</math> के साथ सतत यादृच्छिक चर हैं। अवकल सशर्त एन्ट्रापी <math>h(X|Y)</math> के रूप में परिभाषित किया गया है<ref name=cover1991 />{{rp|249}}


{{Equation box 1
{{Equation box 1

Revision as of 18:03, 25 May 2023

सहसंबद्ध चरों से जुड़ी जानकारी की विभिन्न मात्राओं को जोड़ने वाले और घटने वाले संबंधों को दर्शाने वाला वेन आरेख और . दोनों मंडलियों द्वारा निहित क्षेत्र संयुक्त एंट्रॉपी है . बाईं ओर का वृत्त (लाल और बैंगनी) एंट्रॉपी (सूचना सिद्धांत) है , लाल सशर्त एन्ट्रापी होने के साथ . दाईं ओर वृत्त (नीला और बैंगनी) है , नीले होने के साथ . वायलेट आपसी जानकारी है .

सूचना सिद्धांत में, सशर्त एन्ट्रापी यादृच्छिक चर के परिणाम का वर्णन करने के लिए आवश्यक जानकारी की मात्रा निर्धारित करता है, जिसे देखते हुए एक अन्य यादृच्छिक चर का मान ज्ञात होता है। जहां, शैनन, नैट्स और हार्टले में जानकारी को मापा जाता है। पर सशर्त की एन्ट्रापी को के रूप में लिखा जाता है।

परिभाषा

दिए गए की सशर्त एन्ट्रापी को इस रूप में परिभाषित किया गया है

 

 

 

 

(Eq.1)

जहाँ और और के समर्थन समुच्चय को दर्शाते हैं।

नोट: यहाँ, परंपरा यह है कि अभिव्यक्ति को शून्य के बराबर माना जाना चाहिए। ऐसा इसलिए है क्योंकि [1]

सहज रूप से, ध्यान दें कि अपेक्षित मान और सशर्त संभाव्यता की परिभाषा के अनुसार, को के रूप में लिखा जा सकता है, जहां को के रूप में परिभाषित किया गया है। के बारे में सोच सकते हैं कि प्रत्येक युग्म को दी गई की सूचना सामग्री को मापने वाली मात्रा के साथ जोड़ा जाए। यह मात्रा दी गई घटना का वर्णन करने के लिए आवश्यक जानकारी की मात्रा से सीधे संबंधित है। इसलिए मानों के सभी युग्मों पर के अपेक्षित मान की गणना करके, सशर्त एन्ट्रापी मापता है कि औसतन, चर , के बारे में कितनी जानकारी को एनकोड करता है।

अभिप्रेरण

माना एक निश्चित मान लेते हुए असतत यादृच्छिक चर पर सशर्त असतत यादृच्छिक चर की एन्ट्रापी हो। और द्वारा और के समर्थन समुच्चय को निरूपित करें। माना कि में प्रायिकता द्रव्यमान फलन है। की बिना शर्त एन्ट्रॉपी की गणना के रूप में की जाती है, अर्थात

जहाँ , के मान लेने के परिणाम की सूचनात्मक सामग्री है। का मान लेने पर सशर्त की एन्ट्रापी को सशर्त अपेक्षा के अनुसार समान रूप से परिभाषित किया गया है-

ध्यान दें कि सभी संभावित मानों पर के औसत का परिणाम है जो ले सकता है।

साथ ही, यदि उपरोक्त योग को नमूना पर ले लिया जाता है तो अपेक्षित मान को कुछ क्षेत्र में समानता के रूप में जाना जाता है।[2]

चित्र के साथ असतत यादृच्छिक चर और चित्र के साथ दिया गया है, दिए गए की सशर्त एन्ट्रापी को के प्रत्येक संभावित मान के लिए के भारित योग के रूप में परिभाषित किया गया है, को भार के रूप में उपयोग करते हुए-[3]: 15 

गुण

सशर्त एन्ट्रापी शून्य के बराबर

यदि और केवल यदि का मान पूरी तरह से के मान द्वारा निर्धारित किया जाता है।

स्वतंत्र यादृच्छिक चरों की सशर्त एन्ट्रापी

इसके विपरीत, यदि और केवल यदि और स्वतंत्र यादृच्छिक चर हैं।

श्रृंखला नियम

माना कि दो यादृच्छिक चर और द्वारा निर्धारित संयुक्त प्रणाली में संयुक्त एन्ट्रॉपी है, अर्थात, हमें इसकी सटीक स्थिति का वर्णन करने के लिए औसतन जानकारी के बिट्स की आवश्यकता है। अब यदि हम पहले का मान सीखते हैं, तो हमें बिट्स की जानकारी प्राप्त हुई है। एक बार ज्ञात हो जाने के बाद, हमें पूरी प्रणाली की स्थिति का वर्णन करने के लिए केवल बिट्स की आवश्यकता होती है। यह मात्रा ठीक है, जो सशर्त एन्ट्रापी का श्रृंखला नियम देती है-

[3]: 17 

सशर्त एन्ट्रापी की उपरोक्त परिभाषा से श्रृंखला नियम का पालन होता है-

सामान्य तौर पर, कई यादृच्छिक चर के लिए एक श्रृंखला नियम धारण करता है-

[3]: 22 

संभाव्यता सिद्धांत में श्रृंखला नियम के समान इसका रूप है, सिवाय इसके कि गुणन के स्थान पर जोड़ का उपयोग किया जाता है।

बेयस का नियम

सशर्त एन्ट्रापी अवस्थाओं के लिए बेयस का नियम

प्रमाण। और । समरूपता में सम्मिलित है। दो समीकरणों को घटाना बेयस के नियम को दर्शाता है।

यदि सशर्त रूप से दिए गए से स्वतंत्र है तो हमारे पास है-

अन्य गुण

किसी और के लिए-

जहां और के बीच पारस्परिक जानकारी है।

स्वतंत्र और के लिए-

और

हालांकि विशिष्ट-सशर्त एंट्रॉपी के दिए गए यादृच्छिक चर के लिए से कम या अधिक हो सकता है, कभी भी से अधिक नहीं हो सकता है।

सशर्त अवकल एंट्रॉपी

परिभाषा

उपरोक्त परिभाषा असतत यादृच्छिक चर के लिए है। असतत सशर्त एन्ट्रॉपी के सतत संस्करण को सशर्त अवकल (या सतत) एंट्रॉपी कहा जाता है। माना कि और एक संयुक्त प्रायिकता घनत्व फलन के साथ सतत यादृच्छिक चर हैं। अवकल सशर्त एन्ट्रापी के रूप में परिभाषित किया गया है[3]: 249 

 

 

 

 

(Eq.2)

गुण

असतत यादृच्छिक चर के लिए सशर्त एन्ट्रापी के विपरीत, सशर्त अंतर एन्ट्रॉपी नकारात्मक हो सकता है।

असतत मामले में विभेदक एन्ट्रापी के लिए एक श्रृंखला नियम है:

[3]: 253 

हालांकि, ध्यान दें कि यह नियम सही नहीं हो सकता है यदि शामिल अंतर एंट्रॉपी मौजूद नहीं हैं या अनंत हैं।

निरंतर यादृच्छिक चर के बीच पारस्परिक जानकारी की परिभाषा में संयुक्त अंतर एंट्रॉपी का भी उपयोग किया जाता है:

समानता के साथ अगर और केवल अगर और स्वतंत्र हैं।[3]: 253 

अनुमानक त्रुटि से संबंध

सशर्त अंतर एन्ट्रापी एक अनुमानक की अपेक्षित चुकता त्रुटि पर एक निचली सीमा उत्पन्न करता है। किसी भी यादृच्छिक चर के लिए , अवलोकन और अनुमानक निम्नलिखित धारण करता है:[3]: 255 

यह क्वांटम यांत्रिकी से अनिश्चितता सिद्धांत से संबंधित है।

क्वांटम सिद्धांत के लिए सामान्यीकरण

क्वांटम सूचना सिद्धांत में, सशर्त एन्ट्रापी को सशर्त क्वांटम एन्ट्रापी के लिए सामान्यीकृत किया जाता है। उत्तरार्द्ध अपने शास्त्रीय समकक्ष के विपरीत, नकारात्मक मान ले सकता है।

यह भी देखें

संदर्भ

  1. "David MacKay: Information Theory, Pattern Recognition and Neural Networks: The Book". www.inference.org.uk. Retrieved 2019-10-25.
  2. Hellman, M.; Raviv, J. (1970). "त्रुटि की संभावना, इक्विवोकेशन, और चेरनॉफ़ बाउंड". IEEE Transactions on Information Theory. 16 (4): 368–372. doi:10.1109/TIT.1970.1054466.
  3. 3.0 3.1 3.2 3.3 3.4 3.5 3.6 T. Cover; J. Thomas (1991). सूचना सिद्धांत के तत्व. ISBN 0-471-06259-6.