सशर्त एन्ट्रापी: Difference between revisions
(Created page with "{{Short description|Measure of relative information in probability theory}} {{Information theory}} Image:Entropy-mutual-information-relative-entropy-relation-diagram.svg|th...") |
No edit summary |
||
Line 2: | Line 2: | ||
{{Information theory}} | {{Information theory}} | ||
[[Image:Entropy-mutual-information-relative-entropy-relation-diagram.svg|thumb|256px|right|सहसंबद्ध चरों से जुड़ी जानकारी की विभिन्न मात्राओं को जोड़ने वाले और घटने वाले संबंधों को दर्शाने वाला [[वेन आरेख]] <math>X</math> और <math>Y</math>. दोनों मंडलियों द्वारा निहित क्षेत्र संयुक्त एंट्रॉपी है <math>\Eta(X,Y)</math>. बाईं ओर का वृत्त (लाल और बैंगनी) [[एंट्रॉपी (सूचना सिद्धांत)]] है <math>\Eta(X)</math>, लाल सशर्त एन्ट्रापी होने के साथ <math>\Eta(X|Y)</math>. दाईं ओर वृत्त (नीला और बैंगनी) है <math>\Eta(Y)</math>, नीले होने के साथ <math>\Eta(Y|X)</math>. वायलेट [[आपसी जानकारी]] है <math>\operatorname{I}(X;Y)</math>.]][[सूचना सिद्धांत]] में, सशर्त एन्ट्रापी | [[Image:Entropy-mutual-information-relative-entropy-relation-diagram.svg|thumb|256px|right|सहसंबद्ध चरों से जुड़ी जानकारी की विभिन्न मात्राओं को जोड़ने वाले और घटने वाले संबंधों को दर्शाने वाला [[वेन आरेख]] <math>X</math> और <math>Y</math>. दोनों मंडलियों द्वारा निहित क्षेत्र संयुक्त एंट्रॉपी है <math>\Eta(X,Y)</math>. बाईं ओर का वृत्त (लाल और बैंगनी) [[एंट्रॉपी (सूचना सिद्धांत)]] है <math>\Eta(X)</math>, लाल सशर्त एन्ट्रापी होने के साथ <math>\Eta(X|Y)</math>. दाईं ओर वृत्त (नीला और बैंगनी) है <math>\Eta(Y)</math>, नीले होने के साथ <math>\Eta(Y|X)</math>. वायलेट [[आपसी जानकारी]] है <math>\operatorname{I}(X;Y)</math>.]][[सूचना सिद्धांत]] में, सशर्त एन्ट्रापी यादृच्छिक चर <math>Y</math> के परिणाम का वर्णन करने के लिए आवश्यक जानकारी की मात्रा निर्धारित करता है, जिसे देखते हुए एक अन्य यादृच्छिक चर <math>X</math> का मान ज्ञात होता है। जहां, [[ शैनन (इकाई) |शैनन]], नैट्स और [[ हार्टले (इकाई) |हार्टले]] में जानकारी को मापा जाता है। <math>X</math> पर सशर्त <math>Y</math> की एन्ट्रापी को <math>\Eta(Y|X)</math> के रूप में लिखा जाता है। | ||
== परिभाषा == | == परिभाषा == | ||
<math>Y</math> दिए गए <math>X</math> की सशर्त एन्ट्रापी को इस रूप में परिभाषित किया गया है | |||
{{Equation box 1 | {{Equation box 1 | ||
Line 16: | Line 16: | ||
|background colour=#F5FFFA}} | |background colour=#F5FFFA}} | ||
जहाँ <math>\mathcal X</math> और <math>\mathcal Y</math> <math>X</math> और <math>Y</math> के [[समर्थन (गणित)|समर्थन]] समुच्चय को दर्शाते हैं। | |||
नोट: यहाँ, | नोट: यहाँ, परंपरा यह है कि अभिव्यक्ति <math>0 \log 0</math> को शून्य के बराबर माना जाना चाहिए। ऐसा इसलिए है क्योंकि <math>\lim_{\theta\to0^+} \theta\, \log \theta = 0</math>।<ref>{{Cite web|url=http://www.inference.org.uk/mackay/itprnn/book.html|title=David MacKay: Information Theory, Pattern Recognition and Neural Networks: The Book|website=www.inference.org.uk|access-date=2019-10-25}}</ref> | ||
सहज रूप से, ध्यान दें कि [[अपेक्षित मूल्य|अपेक्षित मान]] और [[सशर्त संभाव्यता]] की परिभाषा के अनुसार, <math>\displaystyle H(Y|X) </math> को <math> H(Y|X) = \mathbb{E}[f(X,Y)]</math> के रूप में लिखा जा सकता है, जहां <math> f </math> को <math>\displaystyle f(x,y) := -\log\left(\frac{p(x, y)}{p(x)}\right) = -\log(p(y|x))</math> के रूप में परिभाषित किया गया है। <math>\displaystyle f</math> के बारे में सोच सकते हैं कि प्रत्येक युग्म <math>\displaystyle (x, y)</math> को दी गई <math>\displaystyle (Y=y)</math> की सूचना सामग्री को मापने वाली मात्रा <math>\displaystyle (X=x)</math> के साथ जोड़ा जाए। यह मात्रा दी गई घटना <math>\displaystyle (Y=y)</math> <math>(X=x)</math> का वर्णन करने के लिए आवश्यक जानकारी की मात्रा से सीधे संबंधित है। इसलिए मानों <math> Y </math> के सभी युग्मों पर <math>\displaystyle f </math> के अपेक्षित मान की गणना करके, सशर्त एन्ट्रापी <math>\displaystyle H(Y|X)</math> मापता है कि औसतन, चर <math> X </math>, <math>(x, y) \in \mathcal{X} \times \mathcal{Y}</math> के बारे में कितनी जानकारी को एनकोड करता है। | |||
:<math>\Eta(Y) = \sum_{y\in\mathcal Y} {\mathrm{Pr}(Y=y)\,\mathrm{I}(y)} | == अभिप्रेरण == | ||
माना <math>\Eta(Y|X=x)</math> एक निश्चित मान <math>x</math> लेते हुए असतत यादृच्छिक चर <math>X</math> पर सशर्त असतत यादृच्छिक चर <math>Y</math> की [[शैनन एंट्रॉपी|एन्ट्रापी]] हो। <math>\mathcal X</math> और <math>\mathcal Y</math> द्वारा <math>X</math> और <math>Y</math> के समर्थन समुच्चय को निरूपित करें। माना कि <math>Y</math> में प्रायिकता द्रव्यमान फलन <math>p_Y{(y)}</math> है। <math>Y</math> की बिना शर्त एन्ट्रॉपी की गणना <math>\Eta(Y) := \mathbb{E}[\operatorname{I}(Y)]</math> के रूप में की जाती है, अर्थात | |||
<math>\Eta(Y) = \sum_{y\in\mathcal Y} {\mathrm{Pr}(Y=y)\,\mathrm{I}(y)} | |||
= -\sum_{y\in\mathcal Y} {p_Y(y) \log_2{p_Y(y)}},</math> | = -\sum_{y\in\mathcal Y} {p_Y(y) \log_2{p_Y(y)}},</math> | ||
जहाँ <math>\operatorname{I}(y_i)</math>, <math>Y</math> के मान <math>y_i</math> लेने के [[परिणाम (संभावना)|परिणाम]] की सूचनात्मक सामग्री है। <math>X</math> का मान <math>x</math> लेने पर सशर्त <math>Y</math> की एन्ट्रापी को [[सशर्त अपेक्षा]] के अनुसार समान रूप से परिभाषित किया गया है- | |||
:<math>\Eta(Y|X=x) | :<math>\Eta(Y|X=x) | ||
= -\sum_{y\in\mathcal Y} {\Pr(Y = y|X=x) \log_2{\Pr(Y = y|X=x)}}.</math> | = -\sum_{y\in\mathcal Y} {\Pr(Y = y|X=x) \log_2{\Pr(Y = y|X=x)}}.</math> | ||
ध्यान दें कि <math>\Eta(Y|X)</math> | ध्यान दें कि <math>\Eta(Y|X)</math> सभी संभावित मानों <math>x</math> पर <math>\Eta(Y|X=x)</math> के औसत का परिणाम है जो <math>X</math> ले सकता है। | ||
साथ ही, यदि उपरोक्त योग को नमूना <math>y_1, \dots, y_n</math> पर ले लिया जाता है तो अपेक्षित मान <math>E_X[ \Eta(y_1, \dots, y_n \mid X = x)]</math> को कुछ क्षेत्र में समानता के रूप में जाना जाता है।<ref>{{cite journal|author1=Hellman, M.|author2=Raviv, J.|year=1970|title=त्रुटि की संभावना, इक्विवोकेशन, और चेरनॉफ़ बाउंड|journal=IEEE Transactions on Information Theory|volume=16|issue=4|pages=368–372|doi=10.1109/TIT.1970.1054466}}</ref> | |||
चित्र <math>\mathcal X</math> के साथ [[असतत यादृच्छिक चर]] <math>X</math> और चित्र <math>\mathcal Y</math> के साथ <math>Y</math> दिया गया है, <math>Y</math> दिए गए <math>X</math> की सशर्त एन्ट्रापी को <math>x</math> के प्रत्येक संभावित मान के लिए <math>\Eta(Y|X=x)</math> के भारित योग के रूप में परिभाषित किया गया है, <math>p(x)</math> को भार के रूप में उपयोग करते हुए-<ref name="cover1991">{{cite book|isbn=0-471-06259-6|year=1991|authorlink1=Thomas M. Cover|author1=T. Cover|author2=J. Thomas|title=सूचना सिद्धांत के तत्व|url=https://archive.org/details/elementsofinform0000cove|url-access=registration}}</ref>{{rp|15}} | |||
:<math> | :<math> | ||
\begin{align} | \begin{align} | ||
Line 40: | Line 45: | ||
\end{align} | \end{align} | ||
</math> | </math> | ||
== गुण == | == गुण == | ||
=== सशर्त | === सशर्त एन्ट्रापी शून्य के बराबर === | ||
<math>\Eta(Y|X)=0</math> | <math>\Eta(Y|X)=0</math> यदि और केवल यदि <math>Y</math> का मान पूरी तरह से <math>X</math> के मान द्वारा निर्धारित किया जाता है। | ||
=== स्वतंत्र यादृच्छिक | === स्वतंत्र यादृच्छिक चरों की सशर्त एन्ट्रापी === | ||
इसके विपरीत, <math>\Eta(Y|X) = \Eta(Y)</math> | इसके विपरीत, <math>\Eta(Y|X) = \Eta(Y)</math> यदि और केवल यदि <math>Y</math> और <math>X</math> [[स्वतंत्र यादृच्छिक चर]] हैं। | ||
=== श्रृंखला नियम === | === श्रृंखला नियम === | ||
माना कि दो यादृच्छिक चर <math>X</math> और <math>Y</math> द्वारा निर्धारित संयुक्त प्रणाली में संयुक्त एन्ट्रॉपी <math>\Eta(X,Y)</math> है, अर्थात, हमें इसकी सटीक स्थिति का वर्णन करने के लिए औसतन जानकारी के <math>\Eta(X,Y)</math> बिट्स की आवश्यकता है। अब यदि हम पहले <math>X</math> का मान सीखते हैं, तो हमें <math>\Eta(X)</math> बिट्स की जानकारी प्राप्त हुई है। एक बार <math>X</math> ज्ञात हो जाने के बाद, हमें पूरी प्रणाली की स्थिति का वर्णन करने के लिए केवल <math>\Eta(X,Y)-\Eta(X)</math> बिट्स की आवश्यकता होती है। यह मात्रा ठीक <math>\Eta(Y|X)</math> है, जो सशर्त एन्ट्रापी का श्रृंखला नियम देती है- | |||
:<math>\Eta(Y|X)\, = \, \Eta(X,Y)- \Eta(X).</math><ref name=cover1991 />{{rp|17}} | :<math>\Eta(Y|X)\, = \, \Eta(X,Y)- \Eta(X).</math><ref name=cover1991 />{{rp|17}} | ||
सशर्त एन्ट्रापी की उपरोक्त परिभाषा से श्रृंखला नियम का पालन होता है | सशर्त एन्ट्रापी की उपरोक्त परिभाषा से श्रृंखला नियम का पालन होता है- | ||
:<math>\begin{align} | :<math>\begin{align} | ||
Line 64: | Line 67: | ||
& = \Eta(X,Y) - \Eta(X). | & = \Eta(X,Y) - \Eta(X). | ||
\end{align}</math> | \end{align}</math> | ||
सामान्य तौर पर, | सामान्य तौर पर, कई यादृच्छिक चर के लिए एक श्रृंखला नियम धारण करता है- | ||
:<math> \Eta(X_1,X_2,\ldots,X_n) = | :<math> \Eta(X_1,X_2,\ldots,X_n) = | ||
\sum_{i=1}^n \Eta(X_i | X_1, \ldots, X_{i-1}) </math><ref name=cover1991 />{{rp|22}} | \sum_{i=1}^n \Eta(X_i | X_1, \ldots, X_{i-1}) </math><ref name=cover1991 />{{rp|22}} | ||
संभाव्यता सिद्धांत में इसका | संभाव्यता सिद्धांत में श्रृंखला नियम के समान इसका रूप है, सिवाय इसके कि गुणन के स्थान पर जोड़ का उपयोग किया जाता है। | ||
=== बेयस का नियम === | === बेयस का नियम === | ||
सशर्त | सशर्त एन्ट्रापी अवस्थाओं के लिए बेयस का नियम | ||
:<math>\Eta(Y|X) \,=\, \Eta(X|Y) - \Eta(X) + \Eta(Y).</math> | :<math>\Eta(Y|X) \,=\, \Eta(X|Y) - \Eta(X) + \Eta(Y).</math> | ||
प्रमाण। <math>\Eta(Y|X) = \Eta(X,Y) - \Eta(X)</math> और <math>\Eta(X|Y) = \Eta(Y,X) - \Eta(Y)</math>। समरूपता में <math>\Eta(X,Y) = \Eta(Y,X)</math> सम्मिलित है। दो समीकरणों को घटाना बेयस के नियम को दर्शाता है। | |||
यदि <math>Y</math> सशर्त रूप से <math>Z</math> दिए गए <math>X</math> से [[सशर्त स्वतंत्रता|स्वतंत्र]] है तो हमारे पास है- | |||
:<math>\Eta(Y|X,Z) \,=\, \Eta(Y|X).</math> | :<math>\Eta(Y|X,Z) \,=\, \Eta(Y|X).</math> | ||
=== अन्य गुण === | === अन्य गुण === | ||
किसी | किसी <math>X</math> और <math>Y</math> के लिए- | ||
:<math>\begin{align} | :<math>\begin{align} | ||
\Eta(Y|X) &\le \Eta(Y) \, \\ | \Eta(Y|X) &\le \Eta(Y) \, \\ | ||
Line 89: | Line 90: | ||
\operatorname{I}(X;Y) &\le \Eta(X),\, | \operatorname{I}(X;Y) &\le \Eta(X),\, | ||
\end{align}</math> | \end{align}</math> | ||
जहां <math>\operatorname{I}(X;Y)</math> <math>X</math> और <math>Y</math> के बीच पारस्परिक जानकारी है। | |||
स्वतंत्र | स्वतंत्र <math>X</math> और <math>Y</math> के लिए- | ||
:<math>\Eta(Y|X) = \Eta(Y) </math> और <math>\Eta(X|Y) = \Eta(X) \, </math> | :<math>\Eta(Y|X) = \Eta(Y) </math> और <math>\Eta(X|Y) = \Eta(X) \, </math> | ||
हालांकि विशिष्ट-सशर्त | हालांकि विशिष्ट-सशर्त एंट्रॉपी <math>\Eta(X|Y=y)</math> <math>Y</math> के दिए गए [[यादृच्छिक चर]] <math>y</math> के लिए <math>\Eta(X)</math> से कम या अधिक हो सकता है, <math>\Eta(X|Y)</math> कभी भी <math>\Eta(X)</math> से अधिक नहीं हो सकता है। | ||
== सशर्त | == सशर्त अवकल एंट्रॉपी == | ||
=== परिभाषा === | === परिभाषा === | ||
उपरोक्त परिभाषा असतत यादृच्छिक चर के लिए है। असतत सशर्त एन्ट्रॉपी के | उपरोक्त परिभाषा असतत यादृच्छिक चर के लिए है। असतत सशर्त एन्ट्रॉपी के सतत संस्करण को सशर्त अवकल (या सतत) एंट्रॉपी कहा जाता है। माना कि <math>X</math> और <math>Y</math> एक संयुक्त प्रायिकता घनत्व फलन <math>f(x,y)</math> के साथ सतत यादृच्छिक चर हैं। अवकल सशर्त एन्ट्रापी <math>h(X|Y)</math> के रूप में परिभाषित किया गया है<ref name=cover1991 />{{rp|249}} | ||
{{Equation box 1 | {{Equation box 1 |
Revision as of 18:03, 25 May 2023
Information theory |
---|
![]() |
![](https://upload.wikimedia.org/wikipedia/commons/thumb/d/d4/Entropy-mutual-information-relative-entropy-relation-diagram.svg/langen-gb-256px-Entropy-mutual-information-relative-entropy-relation-diagram.svg.png)
सूचना सिद्धांत में, सशर्त एन्ट्रापी यादृच्छिक चर के परिणाम का वर्णन करने के लिए आवश्यक जानकारी की मात्रा निर्धारित करता है, जिसे देखते हुए एक अन्य यादृच्छिक चर का मान ज्ञात होता है। जहां, शैनन, नैट्स और हार्टले में जानकारी को मापा जाता है। पर सशर्त की एन्ट्रापी को के रूप में लिखा जाता है।
परिभाषा
दिए गए की सशर्त एन्ट्रापी को इस रूप में परिभाषित किया गया है
|
(Eq.1) |
जहाँ और और के समर्थन समुच्चय को दर्शाते हैं।
नोट: यहाँ, परंपरा यह है कि अभिव्यक्ति को शून्य के बराबर माना जाना चाहिए। ऐसा इसलिए है क्योंकि ।[1]
सहज रूप से, ध्यान दें कि अपेक्षित मान और सशर्त संभाव्यता की परिभाषा के अनुसार, को के रूप में लिखा जा सकता है, जहां को के रूप में परिभाषित किया गया है। के बारे में सोच सकते हैं कि प्रत्येक युग्म को दी गई की सूचना सामग्री को मापने वाली मात्रा के साथ जोड़ा जाए। यह मात्रा दी गई घटना का वर्णन करने के लिए आवश्यक जानकारी की मात्रा से सीधे संबंधित है। इसलिए मानों के सभी युग्मों पर के अपेक्षित मान की गणना करके, सशर्त एन्ट्रापी मापता है कि औसतन, चर , के बारे में कितनी जानकारी को एनकोड करता है।
अभिप्रेरण
माना एक निश्चित मान लेते हुए असतत यादृच्छिक चर पर सशर्त असतत यादृच्छिक चर की एन्ट्रापी हो। और द्वारा और के समर्थन समुच्चय को निरूपित करें। माना कि में प्रायिकता द्रव्यमान फलन है। की बिना शर्त एन्ट्रॉपी की गणना के रूप में की जाती है, अर्थात
जहाँ , के मान लेने के परिणाम की सूचनात्मक सामग्री है। का मान लेने पर सशर्त की एन्ट्रापी को सशर्त अपेक्षा के अनुसार समान रूप से परिभाषित किया गया है-
ध्यान दें कि सभी संभावित मानों पर के औसत का परिणाम है जो ले सकता है।
साथ ही, यदि उपरोक्त योग को नमूना पर ले लिया जाता है तो अपेक्षित मान को कुछ क्षेत्र में समानता के रूप में जाना जाता है।[2]
चित्र के साथ असतत यादृच्छिक चर और चित्र के साथ दिया गया है, दिए गए की सशर्त एन्ट्रापी को के प्रत्येक संभावित मान के लिए के भारित योग के रूप में परिभाषित किया गया है, को भार के रूप में उपयोग करते हुए-[3]: 15
गुण
सशर्त एन्ट्रापी शून्य के बराबर
यदि और केवल यदि का मान पूरी तरह से के मान द्वारा निर्धारित किया जाता है।
स्वतंत्र यादृच्छिक चरों की सशर्त एन्ट्रापी
इसके विपरीत, यदि और केवल यदि और स्वतंत्र यादृच्छिक चर हैं।
श्रृंखला नियम
माना कि दो यादृच्छिक चर और द्वारा निर्धारित संयुक्त प्रणाली में संयुक्त एन्ट्रॉपी है, अर्थात, हमें इसकी सटीक स्थिति का वर्णन करने के लिए औसतन जानकारी के बिट्स की आवश्यकता है। अब यदि हम पहले का मान सीखते हैं, तो हमें बिट्स की जानकारी प्राप्त हुई है। एक बार ज्ञात हो जाने के बाद, हमें पूरी प्रणाली की स्थिति का वर्णन करने के लिए केवल बिट्स की आवश्यकता होती है। यह मात्रा ठीक है, जो सशर्त एन्ट्रापी का श्रृंखला नियम देती है-
- [3]: 17
सशर्त एन्ट्रापी की उपरोक्त परिभाषा से श्रृंखला नियम का पालन होता है-
सामान्य तौर पर, कई यादृच्छिक चर के लिए एक श्रृंखला नियम धारण करता है-
- [3]: 22
संभाव्यता सिद्धांत में श्रृंखला नियम के समान इसका रूप है, सिवाय इसके कि गुणन के स्थान पर जोड़ का उपयोग किया जाता है।
बेयस का नियम
सशर्त एन्ट्रापी अवस्थाओं के लिए बेयस का नियम
प्रमाण। और । समरूपता में सम्मिलित है। दो समीकरणों को घटाना बेयस के नियम को दर्शाता है।
यदि सशर्त रूप से दिए गए से स्वतंत्र है तो हमारे पास है-
अन्य गुण
किसी और के लिए-
जहां और के बीच पारस्परिक जानकारी है।
स्वतंत्र और के लिए-
- और
हालांकि विशिष्ट-सशर्त एंट्रॉपी के दिए गए यादृच्छिक चर के लिए से कम या अधिक हो सकता है, कभी भी से अधिक नहीं हो सकता है।
सशर्त अवकल एंट्रॉपी
परिभाषा
उपरोक्त परिभाषा असतत यादृच्छिक चर के लिए है। असतत सशर्त एन्ट्रॉपी के सतत संस्करण को सशर्त अवकल (या सतत) एंट्रॉपी कहा जाता है। माना कि और एक संयुक्त प्रायिकता घनत्व फलन के साथ सतत यादृच्छिक चर हैं। अवकल सशर्त एन्ट्रापी के रूप में परिभाषित किया गया है[3]: 249
|
(Eq.2) |
गुण
असतत यादृच्छिक चर के लिए सशर्त एन्ट्रापी के विपरीत, सशर्त अंतर एन्ट्रॉपी नकारात्मक हो सकता है।
असतत मामले में विभेदक एन्ट्रापी के लिए एक श्रृंखला नियम है:
- [3]: 253
हालांकि, ध्यान दें कि यह नियम सही नहीं हो सकता है यदि शामिल अंतर एंट्रॉपी मौजूद नहीं हैं या अनंत हैं।
निरंतर यादृच्छिक चर के बीच पारस्परिक जानकारी की परिभाषा में संयुक्त अंतर एंट्रॉपी का भी उपयोग किया जाता है:
समानता के साथ अगर और केवल अगर और स्वतंत्र हैं।[3]: 253
अनुमानक त्रुटि से संबंध
सशर्त अंतर एन्ट्रापी एक अनुमानक की अपेक्षित चुकता त्रुटि पर एक निचली सीमा उत्पन्न करता है। किसी भी यादृच्छिक चर के लिए , अवलोकन और अनुमानक निम्नलिखित धारण करता है:[3]: 255
यह क्वांटम यांत्रिकी से अनिश्चितता सिद्धांत से संबंधित है।
क्वांटम सिद्धांत के लिए सामान्यीकरण
क्वांटम सूचना सिद्धांत में, सशर्त एन्ट्रापी को सशर्त क्वांटम एन्ट्रापी के लिए सामान्यीकृत किया जाता है। उत्तरार्द्ध अपने शास्त्रीय समकक्ष के विपरीत, नकारात्मक मान ले सकता है।
यह भी देखें
- एंट्रॉपी (सूचना सिद्धांत)
- आपसी जानकारी
- सशर्त क्वांटम एन्ट्रापी
- सूचना का परिवर्तन
- एन्ट्रापी शक्ति असमानता
- संभावना समारोह
संदर्भ
- ↑ "David MacKay: Information Theory, Pattern Recognition and Neural Networks: The Book". www.inference.org.uk. Retrieved 2019-10-25.
- ↑ Hellman, M.; Raviv, J. (1970). "त्रुटि की संभावना, इक्विवोकेशन, और चेरनॉफ़ बाउंड". IEEE Transactions on Information Theory. 16 (4): 368–372. doi:10.1109/TIT.1970.1054466.
- ↑ 3.0 3.1 3.2 3.3 3.4 3.5 3.6 T. Cover; J. Thomas (1991). सूचना सिद्धांत के तत्व. ISBN 0-471-06259-6.