सशर्त एन्ट्रापी: Difference between revisions
(Created page with "{{Short description|Measure of relative information in probability theory}} {{Information theory}} Image:Entropy-mutual-information-relative-entropy-relation-diagram.svg|th...") |
No edit summary |
||
Line 2: | Line 2: | ||
{{Information theory}} | {{Information theory}} | ||
[[Image:Entropy-mutual-information-relative-entropy-relation-diagram.svg|thumb|256px|right|सहसंबद्ध चरों से जुड़ी जानकारी की विभिन्न मात्राओं को जोड़ने वाले और घटने वाले संबंधों को दर्शाने वाला [[वेन आरेख]] <math>X</math> और <math>Y</math>. दोनों मंडलियों द्वारा निहित क्षेत्र संयुक्त एंट्रॉपी है <math>\Eta(X,Y)</math>. बाईं ओर का वृत्त (लाल और बैंगनी) [[एंट्रॉपी (सूचना सिद्धांत)]] है <math>\Eta(X)</math>, लाल सशर्त एन्ट्रापी होने के साथ <math>\Eta(X|Y)</math>. दाईं ओर वृत्त (नीला और बैंगनी) है <math>\Eta(Y)</math>, नीले होने के साथ <math>\Eta(Y|X)</math>. वायलेट [[आपसी जानकारी]] है <math>\operatorname{I}(X;Y)</math>.]][[सूचना सिद्धांत]] में, सशर्त एन्ट्रापी | [[Image:Entropy-mutual-information-relative-entropy-relation-diagram.svg|thumb|256px|right|सहसंबद्ध चरों से जुड़ी जानकारी की विभिन्न मात्राओं को जोड़ने वाले और घटने वाले संबंधों को दर्शाने वाला [[वेन आरेख]] <math>X</math> और <math>Y</math>. दोनों मंडलियों द्वारा निहित क्षेत्र संयुक्त एंट्रॉपी है <math>\Eta(X,Y)</math>. बाईं ओर का वृत्त (लाल और बैंगनी) [[एंट्रॉपी (सूचना सिद्धांत)]] है <math>\Eta(X)</math>, लाल सशर्त एन्ट्रापी होने के साथ <math>\Eta(X|Y)</math>. दाईं ओर वृत्त (नीला और बैंगनी) है <math>\Eta(Y)</math>, नीले होने के साथ <math>\Eta(Y|X)</math>. वायलेट [[आपसी जानकारी]] है <math>\operatorname{I}(X;Y)</math>.]][[सूचना सिद्धांत]] में, सशर्त एन्ट्रापी यादृच्छिक चर <math>Y</math> के परिणाम का वर्णन करने के लिए आवश्यक जानकारी की मात्रा निर्धारित करता है, जिसे देखते हुए एक अन्य यादृच्छिक चर <math>X</math> का मान ज्ञात होता है। जहां, [[ शैनन (इकाई) |शैनन]], नैट्स और [[ हार्टले (इकाई) |हार्टले]] में जानकारी को मापा जाता है। <math>X</math> पर सशर्त <math>Y</math> की एन्ट्रापी को <math>\Eta(Y|X)</math> के रूप में लिखा जाता है। | ||
== परिभाषा == | == परिभाषा == | ||
<math>Y</math> दिए गए <math>X</math> की सशर्त एन्ट्रापी को इस रूप में परिभाषित किया गया है | |||
{{Equation box 1 | {{Equation box 1 | ||
Line 16: | Line 16: | ||
|background colour=#F5FFFA}} | |background colour=#F5FFFA}} | ||
जहाँ <math>\mathcal X</math> और <math>\mathcal Y</math> <math>X</math> और <math>Y</math> के [[समर्थन (गणित)|समर्थन]] समुच्चय को दर्शाते हैं। | |||
नोट: यहाँ, | नोट: यहाँ, परंपरा यह है कि अभिव्यक्ति <math>0 \log 0</math> को शून्य के बराबर माना जाना चाहिए। ऐसा इसलिए है क्योंकि <math>\lim_{\theta\to0^+} \theta\, \log \theta = 0</math>।<ref>{{Cite web|url=http://www.inference.org.uk/mackay/itprnn/book.html|title=David MacKay: Information Theory, Pattern Recognition and Neural Networks: The Book|website=www.inference.org.uk|access-date=2019-10-25}}</ref> | ||
सहज रूप से, ध्यान दें कि [[अपेक्षित मूल्य|अपेक्षित मान]] और [[सशर्त संभाव्यता]] की परिभाषा के अनुसार, <math>\displaystyle H(Y|X) </math> को <math> H(Y|X) = \mathbb{E}[f(X,Y)]</math> के रूप में लिखा जा सकता है, जहां <math> f </math> को <math>\displaystyle f(x,y) := -\log\left(\frac{p(x, y)}{p(x)}\right) = -\log(p(y|x))</math> के रूप में परिभाषित किया गया है। <math>\displaystyle f</math> के बारे में सोच सकते हैं कि प्रत्येक युग्म <math>\displaystyle (x, y)</math> को दी गई <math>\displaystyle (Y=y)</math> की सूचना सामग्री को मापने वाली मात्रा <math>\displaystyle (X=x)</math> के साथ जोड़ा जाए। यह मात्रा दी गई घटना <math>\displaystyle (Y=y)</math> <math>(X=x)</math> का वर्णन करने के लिए आवश्यक जानकारी की मात्रा से सीधे संबंधित है। इसलिए मानों <math> Y </math> के सभी युग्मों पर <math>\displaystyle f </math> के अपेक्षित मान की गणना करके, सशर्त एन्ट्रापी <math>\displaystyle H(Y|X)</math> मापता है कि औसतन, चर <math> X </math>, <math>(x, y) \in \mathcal{X} \times \mathcal{Y}</math> के बारे में कितनी जानकारी को एनकोड करता है। | |||
:<math>\Eta(Y) = \sum_{y\in\mathcal Y} {\mathrm{Pr}(Y=y)\,\mathrm{I}(y)} | == अभिप्रेरण == | ||
माना <math>\Eta(Y|X=x)</math> एक निश्चित मान <math>x</math> लेते हुए असतत यादृच्छिक चर <math>X</math> पर सशर्त असतत यादृच्छिक चर <math>Y</math> की [[शैनन एंट्रॉपी|एन्ट्रापी]] हो। <math>\mathcal X</math> और <math>\mathcal Y</math> द्वारा <math>X</math> और <math>Y</math> के समर्थन समुच्चय को निरूपित करें। माना कि <math>Y</math> में प्रायिकता द्रव्यमान फलन <math>p_Y{(y)}</math> है। <math>Y</math> की बिना शर्त एन्ट्रॉपी की गणना <math>\Eta(Y) := \mathbb{E}[\operatorname{I}(Y)]</math> के रूप में की जाती है, अर्थात | |||
<math>\Eta(Y) = \sum_{y\in\mathcal Y} {\mathrm{Pr}(Y=y)\,\mathrm{I}(y)} | |||
= -\sum_{y\in\mathcal Y} {p_Y(y) \log_2{p_Y(y)}},</math> | = -\sum_{y\in\mathcal Y} {p_Y(y) \log_2{p_Y(y)}},</math> | ||
जहाँ <math>\operatorname{I}(y_i)</math>, <math>Y</math> के मान <math>y_i</math> लेने के [[परिणाम (संभावना)|परिणाम]] की सूचनात्मक सामग्री है। <math>X</math> का मान <math>x</math> लेने पर सशर्त <math>Y</math> की एन्ट्रापी को [[सशर्त अपेक्षा]] के अनुसार समान रूप से परिभाषित किया गया है- | |||
:<math>\Eta(Y|X=x) | :<math>\Eta(Y|X=x) | ||
= -\sum_{y\in\mathcal Y} {\Pr(Y = y|X=x) \log_2{\Pr(Y = y|X=x)}}.</math> | = -\sum_{y\in\mathcal Y} {\Pr(Y = y|X=x) \log_2{\Pr(Y = y|X=x)}}.</math> | ||
ध्यान दें कि <math>\Eta(Y|X)</math> | ध्यान दें कि <math>\Eta(Y|X)</math> सभी संभावित मानों <math>x</math> पर <math>\Eta(Y|X=x)</math> के औसत का परिणाम है जो <math>X</math> ले सकता है। | ||
साथ ही, यदि उपरोक्त योग को नमूना <math>y_1, \dots, y_n</math> पर ले लिया जाता है तो अपेक्षित मान <math>E_X[ \Eta(y_1, \dots, y_n \mid X = x)]</math> को कुछ क्षेत्र में समानता के रूप में जाना जाता है।<ref>{{cite journal|author1=Hellman, M.|author2=Raviv, J.|year=1970|title=त्रुटि की संभावना, इक्विवोकेशन, और चेरनॉफ़ बाउंड|journal=IEEE Transactions on Information Theory|volume=16|issue=4|pages=368–372|doi=10.1109/TIT.1970.1054466}}</ref> | |||
चित्र <math>\mathcal X</math> के साथ [[असतत यादृच्छिक चर]] <math>X</math> और चित्र <math>\mathcal Y</math> के साथ <math>Y</math> दिया गया है, <math>Y</math> दिए गए <math>X</math> की सशर्त एन्ट्रापी को <math>x</math> के प्रत्येक संभावित मान के लिए <math>\Eta(Y|X=x)</math> के भारित योग के रूप में परिभाषित किया गया है, <math>p(x)</math> को भार के रूप में उपयोग करते हुए-<ref name="cover1991">{{cite book|isbn=0-471-06259-6|year=1991|authorlink1=Thomas M. Cover|author1=T. Cover|author2=J. Thomas|title=सूचना सिद्धांत के तत्व|url=https://archive.org/details/elementsofinform0000cove|url-access=registration}}</ref>{{rp|15}} | |||
:<math> | :<math> | ||
\begin{align} | \begin{align} | ||
Line 40: | Line 45: | ||
\end{align} | \end{align} | ||
</math> | </math> | ||
== गुण == | == गुण == | ||
=== सशर्त | === सशर्त एन्ट्रापी शून्य के बराबर === | ||
<math>\Eta(Y|X)=0</math> | <math>\Eta(Y|X)=0</math> यदि और केवल यदि <math>Y</math> का मान पूरी तरह से <math>X</math> के मान द्वारा निर्धारित किया जाता है। | ||
=== स्वतंत्र यादृच्छिक | === स्वतंत्र यादृच्छिक चरों की सशर्त एन्ट्रापी === | ||
इसके विपरीत, <math>\Eta(Y|X) = \Eta(Y)</math> | इसके विपरीत, <math>\Eta(Y|X) = \Eta(Y)</math> यदि और केवल यदि <math>Y</math> और <math>X</math> [[स्वतंत्र यादृच्छिक चर]] हैं। | ||
=== श्रृंखला नियम === | === श्रृंखला नियम === | ||
माना कि दो यादृच्छिक चर <math>X</math> और <math>Y</math> द्वारा निर्धारित संयुक्त प्रणाली में संयुक्त एन्ट्रॉपी <math>\Eta(X,Y)</math> है, अर्थात, हमें इसकी सटीक स्थिति का वर्णन करने के लिए औसतन जानकारी के <math>\Eta(X,Y)</math> बिट्स की आवश्यकता है। अब यदि हम पहले <math>X</math> का मान सीखते हैं, तो हमें <math>\Eta(X)</math> बिट्स की जानकारी प्राप्त हुई है। एक बार <math>X</math> ज्ञात हो जाने के बाद, हमें पूरी प्रणाली की स्थिति का वर्णन करने के लिए केवल <math>\Eta(X,Y)-\Eta(X)</math> बिट्स की आवश्यकता होती है। यह मात्रा ठीक <math>\Eta(Y|X)</math> है, जो सशर्त एन्ट्रापी का श्रृंखला नियम देती है- | |||
:<math>\Eta(Y|X)\, = \, \Eta(X,Y)- \Eta(X).</math><ref name=cover1991 />{{rp|17}} | :<math>\Eta(Y|X)\, = \, \Eta(X,Y)- \Eta(X).</math><ref name=cover1991 />{{rp|17}} | ||
सशर्त एन्ट्रापी की उपरोक्त परिभाषा से श्रृंखला नियम का पालन होता है | सशर्त एन्ट्रापी की उपरोक्त परिभाषा से श्रृंखला नियम का पालन होता है- | ||
:<math>\begin{align} | :<math>\begin{align} | ||
Line 64: | Line 67: | ||
& = \Eta(X,Y) - \Eta(X). | & = \Eta(X,Y) - \Eta(X). | ||
\end{align}</math> | \end{align}</math> | ||
सामान्य तौर पर, | सामान्य तौर पर, कई यादृच्छिक चर के लिए एक श्रृंखला नियम धारण करता है- | ||
:<math> \Eta(X_1,X_2,\ldots,X_n) = | :<math> \Eta(X_1,X_2,\ldots,X_n) = | ||
\sum_{i=1}^n \Eta(X_i | X_1, \ldots, X_{i-1}) </math><ref name=cover1991 />{{rp|22}} | \sum_{i=1}^n \Eta(X_i | X_1, \ldots, X_{i-1}) </math><ref name=cover1991 />{{rp|22}} | ||
संभाव्यता सिद्धांत में इसका | संभाव्यता सिद्धांत में श्रृंखला नियम के समान इसका रूप है, सिवाय इसके कि गुणन के स्थान पर जोड़ का उपयोग किया जाता है। | ||
=== बेयस का नियम === | === बेयस का नियम === | ||
सशर्त | सशर्त एन्ट्रापी अवस्थाओं के लिए बेयस का नियम | ||
:<math>\Eta(Y|X) \,=\, \Eta(X|Y) - \Eta(X) + \Eta(Y).</math> | :<math>\Eta(Y|X) \,=\, \Eta(X|Y) - \Eta(X) + \Eta(Y).</math> | ||
प्रमाण। <math>\Eta(Y|X) = \Eta(X,Y) - \Eta(X)</math> और <math>\Eta(X|Y) = \Eta(Y,X) - \Eta(Y)</math>। समरूपता में <math>\Eta(X,Y) = \Eta(Y,X)</math> सम्मिलित है। दो समीकरणों को घटाना बेयस के नियम को दर्शाता है। | |||
यदि <math>Y</math> सशर्त रूप से <math>Z</math> दिए गए <math>X</math> से [[सशर्त स्वतंत्रता|स्वतंत्र]] है तो हमारे पास है- | |||
:<math>\Eta(Y|X,Z) \,=\, \Eta(Y|X).</math> | :<math>\Eta(Y|X,Z) \,=\, \Eta(Y|X).</math> | ||
=== अन्य गुण === | === अन्य गुण === | ||
किसी | किसी <math>X</math> और <math>Y</math> के लिए- | ||
:<math>\begin{align} | :<math>\begin{align} | ||
\Eta(Y|X) &\le \Eta(Y) \, \\ | \Eta(Y|X) &\le \Eta(Y) \, \\ | ||
Line 89: | Line 90: | ||
\operatorname{I}(X;Y) &\le \Eta(X),\, | \operatorname{I}(X;Y) &\le \Eta(X),\, | ||
\end{align}</math> | \end{align}</math> | ||
जहां <math>\operatorname{I}(X;Y)</math> <math>X</math> और <math>Y</math> के बीच पारस्परिक जानकारी है। | |||
स्वतंत्र | स्वतंत्र <math>X</math> और <math>Y</math> के लिए- | ||
:<math>\Eta(Y|X) = \Eta(Y) </math> और <math>\Eta(X|Y) = \Eta(X) \, </math> | :<math>\Eta(Y|X) = \Eta(Y) </math> और <math>\Eta(X|Y) = \Eta(X) \, </math> | ||
हालांकि विशिष्ट-सशर्त | हालांकि विशिष्ट-सशर्त एंट्रॉपी <math>\Eta(X|Y=y)</math> <math>Y</math> के दिए गए [[यादृच्छिक चर]] <math>y</math> के लिए <math>\Eta(X)</math> से कम या अधिक हो सकता है, <math>\Eta(X|Y)</math> कभी भी <math>\Eta(X)</math> से अधिक नहीं हो सकता है। | ||
== सशर्त | == सशर्त अवकल एंट्रॉपी == | ||
=== परिभाषा === | === परिभाषा === | ||
उपरोक्त परिभाषा असतत यादृच्छिक चर के लिए है। असतत सशर्त एन्ट्रॉपी के | उपरोक्त परिभाषा असतत यादृच्छिक चर के लिए है। असतत सशर्त एन्ट्रॉपी के सतत संस्करण को सशर्त अवकल (या सतत) एंट्रॉपी कहा जाता है। माना कि <math>X</math> और <math>Y</math> एक संयुक्त प्रायिकता घनत्व फलन <math>f(x,y)</math> के साथ सतत यादृच्छिक चर हैं। अवकल सशर्त एन्ट्रापी <math>h(X|Y)</math> के रूप में परिभाषित किया गया है<ref name=cover1991 />{{rp|249}} | ||
{{Equation box 1 | {{Equation box 1 |
Revision as of 18:03, 25 May 2023
Information theory |
---|
सूचना सिद्धांत में, सशर्त एन्ट्रापी यादृच्छिक चर के परिणाम का वर्णन करने के लिए आवश्यक जानकारी की मात्रा निर्धारित करता है, जिसे देखते हुए एक अन्य यादृच्छिक चर का मान ज्ञात होता है। जहां, शैनन, नैट्स और हार्टले में जानकारी को मापा जाता है। पर सशर्त की एन्ट्रापी को के रूप में लिखा जाता है।
परिभाषा
दिए गए की सशर्त एन्ट्रापी को इस रूप में परिभाषित किया गया है
|
(Eq.1) |
जहाँ और और के समर्थन समुच्चय को दर्शाते हैं।
नोट: यहाँ, परंपरा यह है कि अभिव्यक्ति को शून्य के बराबर माना जाना चाहिए। ऐसा इसलिए है क्योंकि ।[1]
सहज रूप से, ध्यान दें कि अपेक्षित मान और सशर्त संभाव्यता की परिभाषा के अनुसार, को के रूप में लिखा जा सकता है, जहां को के रूप में परिभाषित किया गया है। के बारे में सोच सकते हैं कि प्रत्येक युग्म को दी गई की सूचना सामग्री को मापने वाली मात्रा के साथ जोड़ा जाए। यह मात्रा दी गई घटना का वर्णन करने के लिए आवश्यक जानकारी की मात्रा से सीधे संबंधित है। इसलिए मानों के सभी युग्मों पर के अपेक्षित मान की गणना करके, सशर्त एन्ट्रापी मापता है कि औसतन, चर , के बारे में कितनी जानकारी को एनकोड करता है।
अभिप्रेरण
माना एक निश्चित मान लेते हुए असतत यादृच्छिक चर पर सशर्त असतत यादृच्छिक चर की एन्ट्रापी हो। और द्वारा और के समर्थन समुच्चय को निरूपित करें। माना कि में प्रायिकता द्रव्यमान फलन है। की बिना शर्त एन्ट्रॉपी की गणना के रूप में की जाती है, अर्थात
जहाँ , के मान लेने के परिणाम की सूचनात्मक सामग्री है। का मान लेने पर सशर्त की एन्ट्रापी को सशर्त अपेक्षा के अनुसार समान रूप से परिभाषित किया गया है-
ध्यान दें कि सभी संभावित मानों पर के औसत का परिणाम है जो ले सकता है।
साथ ही, यदि उपरोक्त योग को नमूना पर ले लिया जाता है तो अपेक्षित मान को कुछ क्षेत्र में समानता के रूप में जाना जाता है।[2]
चित्र के साथ असतत यादृच्छिक चर और चित्र के साथ दिया गया है, दिए गए की सशर्त एन्ट्रापी को के प्रत्येक संभावित मान के लिए के भारित योग के रूप में परिभाषित किया गया है, को भार के रूप में उपयोग करते हुए-[3]: 15
गुण
सशर्त एन्ट्रापी शून्य के बराबर
यदि और केवल यदि का मान पूरी तरह से के मान द्वारा निर्धारित किया जाता है।
स्वतंत्र यादृच्छिक चरों की सशर्त एन्ट्रापी
इसके विपरीत, यदि और केवल यदि और स्वतंत्र यादृच्छिक चर हैं।
श्रृंखला नियम
माना कि दो यादृच्छिक चर और द्वारा निर्धारित संयुक्त प्रणाली में संयुक्त एन्ट्रॉपी है, अर्थात, हमें इसकी सटीक स्थिति का वर्णन करने के लिए औसतन जानकारी के बिट्स की आवश्यकता है। अब यदि हम पहले का मान सीखते हैं, तो हमें बिट्स की जानकारी प्राप्त हुई है। एक बार ज्ञात हो जाने के बाद, हमें पूरी प्रणाली की स्थिति का वर्णन करने के लिए केवल बिट्स की आवश्यकता होती है। यह मात्रा ठीक है, जो सशर्त एन्ट्रापी का श्रृंखला नियम देती है-
- [3]: 17
सशर्त एन्ट्रापी की उपरोक्त परिभाषा से श्रृंखला नियम का पालन होता है-
सामान्य तौर पर, कई यादृच्छिक चर के लिए एक श्रृंखला नियम धारण करता है-
- [3]: 22
संभाव्यता सिद्धांत में श्रृंखला नियम के समान इसका रूप है, सिवाय इसके कि गुणन के स्थान पर जोड़ का उपयोग किया जाता है।
बेयस का नियम
सशर्त एन्ट्रापी अवस्थाओं के लिए बेयस का नियम
प्रमाण। और । समरूपता में सम्मिलित है। दो समीकरणों को घटाना बेयस के नियम को दर्शाता है।
यदि सशर्त रूप से दिए गए से स्वतंत्र है तो हमारे पास है-
अन्य गुण
किसी और के लिए-
जहां और के बीच पारस्परिक जानकारी है।
स्वतंत्र और के लिए-
- और
हालांकि विशिष्ट-सशर्त एंट्रॉपी के दिए गए यादृच्छिक चर के लिए से कम या अधिक हो सकता है, कभी भी से अधिक नहीं हो सकता है।
सशर्त अवकल एंट्रॉपी
परिभाषा
उपरोक्त परिभाषा असतत यादृच्छिक चर के लिए है। असतत सशर्त एन्ट्रॉपी के सतत संस्करण को सशर्त अवकल (या सतत) एंट्रॉपी कहा जाता है। माना कि और एक संयुक्त प्रायिकता घनत्व फलन के साथ सतत यादृच्छिक चर हैं। अवकल सशर्त एन्ट्रापी के रूप में परिभाषित किया गया है[3]: 249
|
(Eq.2) |
गुण
असतत यादृच्छिक चर के लिए सशर्त एन्ट्रापी के विपरीत, सशर्त अंतर एन्ट्रॉपी नकारात्मक हो सकता है।
असतत मामले में विभेदक एन्ट्रापी के लिए एक श्रृंखला नियम है:
- [3]: 253
हालांकि, ध्यान दें कि यह नियम सही नहीं हो सकता है यदि शामिल अंतर एंट्रॉपी मौजूद नहीं हैं या अनंत हैं।
निरंतर यादृच्छिक चर के बीच पारस्परिक जानकारी की परिभाषा में संयुक्त अंतर एंट्रॉपी का भी उपयोग किया जाता है:
समानता के साथ अगर और केवल अगर और स्वतंत्र हैं।[3]: 253
अनुमानक त्रुटि से संबंध
सशर्त अंतर एन्ट्रापी एक अनुमानक की अपेक्षित चुकता त्रुटि पर एक निचली सीमा उत्पन्न करता है। किसी भी यादृच्छिक चर के लिए , अवलोकन और अनुमानक निम्नलिखित धारण करता है:[3]: 255
यह क्वांटम यांत्रिकी से अनिश्चितता सिद्धांत से संबंधित है।
क्वांटम सिद्धांत के लिए सामान्यीकरण
क्वांटम सूचना सिद्धांत में, सशर्त एन्ट्रापी को सशर्त क्वांटम एन्ट्रापी के लिए सामान्यीकृत किया जाता है। उत्तरार्द्ध अपने शास्त्रीय समकक्ष के विपरीत, नकारात्मक मान ले सकता है।
यह भी देखें
- एंट्रॉपी (सूचना सिद्धांत)
- आपसी जानकारी
- सशर्त क्वांटम एन्ट्रापी
- सूचना का परिवर्तन
- एन्ट्रापी शक्ति असमानता
- संभावना समारोह
संदर्भ
- ↑ "David MacKay: Information Theory, Pattern Recognition and Neural Networks: The Book". www.inference.org.uk. Retrieved 2019-10-25.
- ↑ Hellman, M.; Raviv, J. (1970). "त्रुटि की संभावना, इक्विवोकेशन, और चेरनॉफ़ बाउंड". IEEE Transactions on Information Theory. 16 (4): 368–372. doi:10.1109/TIT.1970.1054466.
- ↑ 3.0 3.1 3.2 3.3 3.4 3.5 3.6 T. Cover; J. Thomas (1991). सूचना सिद्धांत के तत्व. ISBN 0-471-06259-6.