जानकारी सामग्री: Difference between revisions
No edit summary |
No edit summary |
||
Line 1: | Line 1: | ||
{{short description|Basic quantity derived from the probability of a particular event occurring from a random variable}}[[सूचना सिद्धांत]] में, सूचना सामग्री, आत्म-सूचना, आश्चर्य, या शैनन | {{short description|Basic quantity derived from the probability of a particular event occurring from a random variable}}[[सूचना सिद्धांत]] में, सूचना सामग्री, आत्म-सूचना, आश्चर्य, या शैनन सूचना यादृच्छिक वेरिएबल से होने वाली किसी विशेष घटना ([[संभावना]] सिद्धांत) की संभावना से प्राप्त मूल मात्रा है। इसे संभावना व्यक्त करने के वैकल्पिक विधि के रूप में विचार किया जा सकता है, सामान्य अनेक [[कठिनाइयाँ]] या [[लॉग-बाधाओं]] की तरह, किन्तु सूचना सिद्धांत की सेटिंग में इसके विशेष गणितीय लाभकारक हैं। | ||
शैनन | इस प्रकार से शैनन सूचना की व्याख्या किसी विशेष परिणाम के आश्चर्य के स्तर को मापने के रूप में की जा सकती है। चूंकि यह इतनी मूलभूत मात्रा है, यह कई अन्य सेटिंग्स में भी दिखाई देती है, जैसे यादृच्छिक वेरिएबल के इष्टतम शैनन के स्रोत कोडिंग प्रमेय को देखते हुए घटना को प्रसारित करने के लिए आवश्यक संदेश की लंबाई को दर्शाया गया है । | ||
शैनन की | शैनन की सूचना ''एंट्रॉपी (सूचना सिद्धांत)'' से निकटता से संबंधित है, जो यादृच्छिक वेरिएबल की आत्म-सूचना का अपेक्षित मूल्य है, जो यह निर्धारित करती है कि यादृच्छिक वेरिएबल औसतन कितना आश्चर्यजनक है। यह आत्म-सूचना की वह औसत मात्रा है जो पर्यवेक्षक किसी यादृच्छिक वेरिएबल को मापते समय उसके बारे में प्राप्त करने की अपेक्षा करता है।<ref>Jones, D.S., ''Elementary Information Theory'', Vol., Clarendon Press, Oxford pp 11–15 1979</ref> | ||
सूचना सामग्री को सूचना की विभिन्न इकाइयों में व्यक्त किया जा सकता है, जिनमें से | अतः सूचना सामग्री को सूचना की विभिन्न इकाइयों में व्यक्त किया जा सकता है, जिनमें से अधिक समान बिट (अधिक सही रूप से शैनन कहा जाता है) है, जैसा कि नीचे बताया गया है। | ||
== परिभाषा == | == परिभाषा == | ||
[[क्लाउड शैनन]] की आत्म-सूचना की परिभाषा को कई सिद्धांतों को पूरा करने के लिए चुना गया था: | [[क्लाउड शैनन]] की आत्म-सूचना की परिभाषा को कई सिद्धांतों को पूरा करने के लिए चुना गया था: | ||
# 100% संभावना वाली घटना | # 100% संभावना वाली घटना पूर्ण प्रकार से आश्चर्यजनक है और कोई सूचना नहीं देती है। | ||
# | # अनेक घटना जितनी कम संभावित होती है, वह उतनी ही अधिक आश्चर्यजनक होती है और उतनी ही अधिक सूचना देती है। | ||
# यदि दो स्वतंत्र घटनाओं को अलग-अलग मापा जाता है, तो | # यदि दो स्वतंत्र घटनाओं को अलग-अलग मापा जाता है, तो सूचना की कुल मात्रा व्यक्तिगत घटनाओं की स्वयं-सूचना का योग है। | ||
विस्तृत व्युत्पत्ति नीचे है, | इस प्रकार से विस्तृत व्युत्पत्ति नीचे है, किन्तु यह दिखाया जा सकता है कि संभाव्यता का अनूठा कार्य है जो गुणक स्केलिंग कारक तक, इन तीन सिद्धांतों को पूरा करता है। सामान्यतः , वास्तविक संख्या <math>b>1</math> दी गई है और घटना (संभावना सिद्धांत) <math>x</math> संभाव्यता के साथ <math>P</math>, सूचना सामग्री को इस प्रकार परिभाषित किया गया है: | ||
<math display="block">\mathrm{I}(x) := - \log_b{\left[\Pr{\left(x\right)}\right]} = -\log_b{\left(P\right)}. </math> | <math display="block">\mathrm{I}(x) := - \log_b{\left[\Pr{\left(x\right)}\right]} = -\log_b{\left(P\right)}. </math> | ||
आधार b उपरोक्त स्केलिंग कारक से मेल खाता है। | आधार b उपरोक्त स्केलिंग कारक से मेल खाता है। ''b'' के विभिन्न विकल्प सूचना की विभिन्न इकाइयों के अनुरूप हैं: जब {{nowrap|1=''b'' = 2}}, इकाई [[शैनन (इकाई)]] (प्रतीक श) है, जिसे प्रायः 'बिट' कहा जाता है; जब {{nowrap|1=''b'' = [[Euler's number|e]]}}, इकाई [[नेट (इकाई)]] (प्रतीक नेट) है; और जब {{nowrap|1=''b'' = 10}}, इकाई [[हार्टले (इकाई)]] (प्रतीक हार्ट) है। | ||
औपचारिक रूप से, यादृच्छिक | औपचारिक रूप से, यादृच्छिक वेरिएबल <math>X</math> दिया गया है संभाव्यता द्रव्यमान फलन के साथ <math>p_{X}{\left(x\right)}</math>, मापने की स्व-सूचना <math>X</math> परिणाम के रूप में (संभावना) <math>x</math> परिभाषित किया जाता है<ref name=":0">{{Cite book|title=क्वांटम कंप्यूटिंग की व्याख्या|last=McMahon|first=David M.|publisher=Wiley-Interscience|year=2008|isbn=9780470181386 |location=Hoboken, NJ|oclc=608622533}}</ref> | ||
<math display="block">\operatorname I_X(x) := | <math display="block">\operatorname I_X(x) := | ||
- \log{\left[p_{X}{\left(x\right)}\right]} | - \log{\left[p_{X}{\left(x\right)}\right]} | ||
= \log{\left(\frac{1}{p_{X}{\left(x\right)}}\right)}. </math> | = \log{\left(\frac{1}{p_{X}{\left(x\right)}}\right)}. </math> | ||
इस प्रकार से उपरोक्त स्व-सूचना के लिए अंकन <math>I_X(x)</math> का उपयोग सार्वभौमिक नहीं है। चूंकि संकेतन <math>I(X;Y)</math> का उपयोग प्रायः [[आपसी जानकारी|पारस्परिक सूचना]] की संबंधित मात्रा के लिए भी किया जाता है, कई लेखक इसके अतिरिक्त स्व-एन्ट्रॉपी के लिए लोअरकेस <math>h_X(x)</math> का उपयोग करते हैं, जो एन्ट्रॉपी के लिए पूंजी <math>H(X)</math> के उपयोग को प्रतिबिंबित करता है। | |||
== गुण == | == गुण == | ||
=== संभाव्यता का नीरस रूप से घटता हुआ कार्य === | === संभाव्यता का नीरस रूप से घटता हुआ कार्य === | ||
किसी दिए गए [[संभाव्यता स्थान]] के लिए, दुर्लभ घटना (संभावना सिद्धांत) का माप सहज रूप से अधिक आश्चर्यजनक है, और अधिक सामान्य मूल्यों की तुलना में अधिक | किसी दिए गए [[संभाव्यता स्थान]] के लिए, दुर्लभ घटना (संभावना सिद्धांत) का माप सहज रूप से अधिक आश्चर्यजनक है, और अधिक सामान्य मूल्यों की तुलना में अधिक सूचना सामग्री प्रदान करता है। इस प्रकार, स्व-सूचना संभाव्यता का [[मोनोटोनिक फ़ंक्शन|मोनोटोनिक फलन]] है, या कभी-कभी इसे एंटीटोनिक फलन भी कहा जाता है। | ||
जबकि मानक संभावनाओं को अंतराल में वास्तविक संख्याओं | जबकि मानक संभावनाओं को अंतराल में वास्तविक संख्याओं <math>[0, 1]</math> द्वारा दर्शाया जाता है , आत्म-सूचना को अंतराल में विस्तारित वास्तविक संख्याओं <math>[0, \infty]</math> द्वारा दर्शाया जाता है . विशेष रूप से, लघुगणकीय आधार के किसी भी विकल्प के लिए हमारे पास निम्नलिखित हैं: | ||
* यदि किसी विशेष घटना के घटित होने की 100% संभावना हो तो उसकी स्व- | * यदि किसी विशेष घटना के घटित होने की 100% संभावना हो तो उसकी स्व-सूचना होती है <math>-\log(1) = 0</math>: इसकी घटना बिल्कुल गैर-आश्चर्यजनक है और इससे कोई सूचना नहीं मिलती है। | ||
* यदि किसी विशेष घटना के घटित होने की संभावना 0% है, तो उसकी स्व- | * यदि किसी विशेष घटना के घटित होने की संभावना 0% है, तो उसकी स्व-सूचना है <math>-\log(0) = \infty</math>: इसकी घटना असीम रूप से आश्चर्यजनक है। | ||
इससे, हम कुछ सामान्य गुण प्राप्त कर सकते हैं: | इससे, हम कुछ सामान्य गुण प्राप्त कर सकते हैं: | ||
* सहज रूप से, किसी अप्रत्याशित घटना को देखने से अधिक | * सहज रूप से, किसी अप्रत्याशित घटना को देखने से अधिक सूचना प्राप्त होती है—यह आश्चर्यजनक है। | ||
** उदाहरण के लिए, यदि ऐलिस के [[लॉटरी]] जीतने की लाखों में से संभावना है, तो उसके दोस्त बॉब को यह जानने से | ** उदाहरण के लिए, यदि ऐलिस के [[लॉटरी]] जीतने की लाखों में से संभावना है, तो उसके दोस्त बॉब को यह जानने से लिए अधिक सूचना प्राप्त होगी कि उसने लॉटरी जीती है, अतिरिक्त इसके कि वह लॉटरी जीत गई है। निश्चित दिन. ([[लॉटरी गणित]] भी देखें।) | ||
* यह यादृच्छिक | * यह यादृच्छिक वेरिएबल की आत्म-सूचना और उसके विचरण के मध्य अंतर्निहित संबंध स्थापित करता है। | ||
=== लॉग-ऑड्स से संबंध === | === लॉग-ऑड्स से संबंध === | ||
शैनन | चूंकि शैनन सूचना लॉग-ऑड्स से निकटता से संबंधित है। विशेष रूप से, किसी घटना को देखते हुए <math>x</math>, मान लीजिये कि <math>p(x)</math> की प्रायिकता है <math>x</math> घटित हो रहा है, और वह <math>p(\lnot x) = 1-p(x)</math> की सम्भावना है <math>x</math> घटित नहीं हो रहा है. फिर हमारे पास लॉग-ऑड्स की निम्नलिखित परिभाषा है: | ||
<math display="block">\text{log-odds}(x) = \log\left(\frac{p(x)}{p(\lnot x)}\right)</math> | <math display="block">\text{log-odds}(x) = \log\left(\frac{p(x)}{p(\lnot x)}\right)</math> | ||
इसे दो शैनन सूचनाओं के अंतर के रूप में व्यक्त किया जा सकता है: | इसे दो शैनन सूचनाओं के अंतर के रूप में व्यक्त किया जा सकता है: | ||
Line 47: | Line 47: | ||
=== स्वतंत्र घटनाओं की संयोजकता === | === स्वतंत्र घटनाओं की संयोजकता === | ||
दो स्वतंत्र घटनाओं की सूचना सामग्री प्रत्येक घटना की सूचना सामग्री का योग है। इस संपत्ति को गणित में [[ योगात्मक मानचित्र |योगात्मक मानचित्र]] के रूप में जाना जाता है, और विशेष रूप से [[माप (गणित)]] और संभाव्यता सिद्धांत में [[ सिग्मा additivity |सिग्मा additivity]] के रूप में जाना जाता है। दो [[स्वतंत्र यादृच्छिक चर]] पर विचार करें <math display="inline">X,\, Y</math> संभाव्यता जन कार्यों के साथ <math>p_X(x)</math> और <math>p_Y(y)</math> क्रमश। संयुक्त संभाव्यता द्रव्यमान फलन है | '''दो स्वतंत्र घटनाओं की सूचना''' सामग्री प्रत्येक घटना की सूचना सामग्री का योग है। इस संपत्ति को गणित में [[ योगात्मक मानचित्र |योगात्मक मानचित्र]] के रूप में जाना जाता है, और विशेष रूप से [[माप (गणित)]] और संभाव्यता सिद्धांत में [[ सिग्मा additivity |सिग्मा additivity]] के रूप में जाना जाता है। दो [[स्वतंत्र यादृच्छिक चर|स्वतंत्र यादृच्छिक]] वेरिएबल पर विचार करें <math display="inline">X,\, Y</math> संभाव्यता जन कार्यों के साथ <math>p_X(x)</math> और <math>p_Y(y)</math> क्रमश। संयुक्त संभाव्यता द्रव्यमान फलन है | ||
<math display="block"> p_{X, Y}\!\left(x, y\right) = \Pr(X = x,\, Y = y) | <math display="block"> p_{X, Y}\!\left(x, y\right) = \Pr(X = x,\, Y = y) | ||
Line 61: | Line 61: | ||
देखना{{Section link||Two independent, identically distributed dice|nopage=y}} उदाहरण के लिए नीचे। | देखना{{Section link||Two independent, identically distributed dice|nopage=y}} उदाहरण के लिए नीचे। | ||
[[संभावना]]ओं के लिए संबंधित संपत्ति यह है कि स्वतंत्र घटनाओं की लॉग-संभावना प्रत्येक घटना की लॉग-संभावनाओं का योग है। लॉग-संभावना को समर्थन या नकारात्मक आश्चर्य के रूप में व्याख्या करना (वह डिग्री जिस तक कोई घटना किसी दिए गए मॉडल का समर्थन करती है: मॉडल को किसी घटना द्वारा इस हद तक समर्थित किया जाता है कि घटना अप्रत्याशित है, मॉडल को देखते हुए), यह बताता है कि स्वतंत्र घटनाएं समर्थन जोड़ती हैं: दो घटनाएँ मिलकर सांख्यिकीय अनुमान के लिए जो | [[संभावना]]ओं के लिए संबंधित संपत्ति यह है कि स्वतंत्र घटनाओं की लॉग-संभावना प्रत्येक घटना की लॉग-संभावनाओं का योग है। लॉग-संभावना को समर्थन या नकारात्मक आश्चर्य के रूप में व्याख्या करना (वह डिग्री जिस तक कोई घटना किसी दिए गए मॉडल का समर्थन करती है: मॉडल को किसी घटना द्वारा इस हद तक समर्थित किया जाता है कि घटना अप्रत्याशित है, मॉडल को देखते हुए), यह बताता है कि स्वतंत्र घटनाएं समर्थन जोड़ती हैं: दो घटनाएँ मिलकर सांख्यिकीय अनुमान के लिए जो सूचना प्रदान करती हैं, वह उनकी स्वतंत्र सूचना का योग है। | ||
==एंट्रॉपी से संबंध== | ==एंट्रॉपी से संबंध== | ||
यादृच्छिक | यादृच्छिक वेरिएबल की [[शैनन एन्ट्रापी]] <math>X </math> ऊपर शैनन एन्ट्रॉपी#परिभाषा है | ||
<math display="block">\begin{alignat}{2} | <math display="block">\begin{alignat}{2} | ||
\Eta(X) &= \sum_{x} {-p_{X}{\left(x\right)} \log{p_{X}{\left(x\right)}}} \\ | \Eta(X) &= \sum_{x} {-p_{X}{\left(x\right)} \log{p_{X}{\left(x\right)}}} \\ | ||
Line 71: | Line 71: | ||
\operatorname{E}{\left[\operatorname{I}_X (X)\right]}, | \operatorname{E}{\left[\operatorname{I}_X (X)\right]}, | ||
\end{alignat} </math> | \end{alignat} </math> | ||
परिभाषा के अनुसार [[अपेक्षित मूल्य]] की माप की | परिभाषा के अनुसार [[अपेक्षित मूल्य]] की माप की सूचना सामग्री के बराबर <math>X </math>.<ref>{{cite book|url=https://books.google.com/books?id=Lyte2yl1SPAC&pg=PA11|title=सूचना सिद्धांत और कोडिंग में बुनियादी बातें|author=Borda, Monica|publisher=Springer|year=2011|isbn=978-3-642-20346-6}}</ref>{{rp|11}}<ref>{{cite book|url=https://books.google.com/books?id=VpRESN24Zj0C&pg=PA19|title=सूचना और कोडिंग का गणित|publisher=American Mathematical Society|year=2002|isbn=978-0-8218-4256-0|author1=Han, Te Sun |author2=Kobayashi, Kingo }}</ref>{{rp|19–20}} | ||
अपेक्षा को इसके [[समर्थन (गणित)]] पर [[असतत यादृच्छिक चर]] पर लिया जाता है। | अपेक्षा को इसके [[समर्थन (गणित)]] पर [[असतत यादृच्छिक चर|असतत यादृच्छिक]] वेरिएबल पर लिया जाता है। | ||
कभी-कभी, एन्ट्रापी को ही यादृच्छिक | कभी-कभी, एन्ट्रापी को ही यादृच्छिक वेरिएबल की स्व-सूचना कहा जाता है, संभवतः इसलिए क्योंकि एन्ट्रापी संतुष्ट करती है <math>\Eta(X) = \operatorname{I}(X; X)</math>, कहाँ <math>\operatorname{I}(X;X)</math> की पारस्परिक सूचना है <math>X</math> खुद के साथ.<ref>Thomas M. Cover, Joy A. Thomas; Elements of Information Theory; p. 20; 1991.</ref> | ||
[[सतत यादृच्छिक चर]] के लिए संबंधित अवधारणा [[विभेदक एन्ट्रापी]] है। | |||
[[सतत यादृच्छिक चर|सतत यादृच्छिक]] वेरिएबल के लिए संबंधित अवधारणा [[विभेदक एन्ट्रापी]] है। | |||
== टिप्पणियाँ == | == टिप्पणियाँ == | ||
Line 86: | Line 87: | ||
===उचित [[सिक्का उछालना]] === | ===उचित [[सिक्का उछालना]] === | ||
सिक्का उछालने के [[बर्नौली परीक्षण]] पर विचार करें <math>X</math>. सिक्के के शीर्ष के रूप में उतरने की घटना की संभावना (संभावना सिद्धांत)। <math>\text{H}</math> और पूँछ <math>\text{T}</math> (निष्पक्ष सिक्का तथा अग्र एवं पृष्ठ देखें) प्रत्येक आधा-आधा है, <math display="inline">p_X{(\text{H})} = p_X{(\text{T})} = \tfrac{1}{2} = 0.5</math>. वैरिएबल को हेड के रूप में [[ नमूनाकरण (सिग्नल प्रोसेसिंग) |नमूनाकरण (सिग्नल प्रोसेसिंग)]] करने पर, संबंधित | सिक्का उछालने के [[बर्नौली परीक्षण]] पर विचार करें <math>X</math>. सिक्के के शीर्ष के रूप में उतरने की घटना की संभावना (संभावना सिद्धांत)। <math>\text{H}</math> और पूँछ <math>\text{T}</math> (निष्पक्ष सिक्का तथा अग्र एवं पृष्ठ देखें) प्रत्येक आधा-आधा है, <math display="inline">p_X{(\text{H})} = p_X{(\text{T})} = \tfrac{1}{2} = 0.5</math>. वैरिएबल को हेड के रूप में [[ नमूनाकरण (सिग्नल प्रोसेसिंग) |नमूनाकरण (सिग्नल प्रोसेसिंग)]] करने पर, संबंधित सूचना प्राप्त होती है | ||
<math display="block">\operatorname{I}_X(\text{H}) | <math display="block">\operatorname{I}_X(\text{H}) | ||
= -\log_2 {p_X{(\text{H})}} | = -\log_2 {p_X{(\text{H})}} | ||
= -\log_2\!{\tfrac{1}{2}} = 1,</math>इसलिए हेड के रूप में उतरने वाले उचित सिक्के का सूचना लाभ 1 शैनन (इकाई) है।<ref name=":0" /> इसी तरह, पूंछ मापने की | = -\log_2\!{\tfrac{1}{2}} = 1,</math>इसलिए हेड के रूप में उतरने वाले उचित सिक्के का सूचना लाभ 1 शैनन (इकाई) है।<ref name=":0" /> इसी तरह, पूंछ मापने की सूचना प्राप्त होती है <math>T</math> है<math display="block">\operatorname{I}_X(T) | ||
= -\log_2 {p_X{(\text{T})}} | = -\log_2 {p_X{(\text{T})}} | ||
= -\log_2 {\tfrac{1}{2}} = 1 \text{ Sh}.</math> | = -\log_2 {\tfrac{1}{2}} = 1 \text{ Sh}.</math> | ||
=== [[निष्पक्ष पासा]] रोल === | === [[निष्पक्ष पासा]] रोल === | ||
मान लीजिए कि हमारे पास अच्छा पासा है|एक अच्छा छह तरफा पासा। पासा पलटने का मूल्य असतत समान वितरण है <math>X \sim \mathrm{DU}[1, 6]</math> संभाव्यता द्रव्यमान | मान लीजिए कि हमारे पास अच्छा पासा है|एक अच्छा छह तरफा पासा। पासा पलटने का मूल्य असतत समान वितरण है <math>X \sim \mathrm{DU}[1, 6]</math> संभाव्यता द्रव्यमान फलन के साथ <math display="block">p_X(k) = \begin{cases} | ||
\frac{1}{6}, & k \in \{1, 2, 3, 4, 5, 6\} \\ | \frac{1}{6}, & k \in \{1, 2, 3, 4, 5, 6\} \\ | ||
0, & \text{otherwise} | 0, & \text{otherwise} | ||
\end{cases}</math>4 आने की प्रायिकता है <math display="inline">p_X(4) = \frac{1}{6}</math>, किसी भी अन्य वैध रोल की तरह। 4 को रोल करने की सूचना सामग्री इस प्रकार है<math display="block">\operatorname{I}_{X}(4) = -\log_2{p_X{(4)}} | \end{cases}</math>4 आने की प्रायिकता है <math display="inline">p_X(4) = \frac{1}{6}</math>, किसी भी अन्य वैध रोल की तरह। 4 को रोल करने की सूचना सामग्री इस प्रकार है<math display="block">\operatorname{I}_{X}(4) = -\log_2{p_X{(4)}} | ||
= -\log_2{\tfrac{1}{6}} | = -\log_2{\tfrac{1}{6}} | ||
\approx 2.585\; \text{Sh}</math> | \approx 2.585\; \text{Sh}</math>सूचना की। | ||
=== दो स्वतंत्र, समान रूप से वितरित पासे === | === दो स्वतंत्र, समान रूप से वितरित पासे === | ||
मान लीजिए कि हमारे पास दो स्वतंत्र और समान रूप से वितरित यादृच्छिक | मान लीजिए कि हमारे पास दो स्वतंत्र और समान रूप से वितरित यादृच्छिक वेरिएबल हैं|स्वतंत्र, समान रूप से वितरित यादृच्छिक वेरिएबल <math display="inline">X,\, Y \sim \mathrm{DU}[1, 6]</math> प्रत्येक स्वतंत्र यादृच्छिक वेरिएबल के अनुरूप 6-पक्षीय पासा रोल। की [[संयुक्त संभाव्यता वितरण]] <math>X</math> और <math>Y</math> है<math display="block"> \begin{align} | ||
p_{X, Y}\!\left(x, y\right) & {} = \Pr(X = x,\, Y = y) | p_{X, Y}\!\left(x, y\right) & {} = \Pr(X = x,\, Y = y) | ||
= p_X\!(x)\,p_Y\!(y) \\ | = p_X\!(x)\,p_Y\!(y) \\ | ||
Line 108: | Line 109: | ||
0 & \text{otherwise.} \end{cases} | 0 & \text{otherwise.} \end{cases} | ||
\end{align}</math> | \end{align}</math> | ||
यादृच्छिक | यादृच्छिक वेरिएबल की सूचना सामग्री <math> (X, Y) = (2,\, 4)</math> है | ||
<math display="block"> \begin{align} | <math display="block"> \begin{align} | ||
\operatorname{I}_{X, Y}{(2, 4)} | \operatorname{I}_{X, Y}{(2, 4)} | ||
Line 125: | Line 126: | ||
\end{align} | \end{align} | ||
</math> | </math> | ||
==== रोल की आवृत्ति से | ==== रोल की आवृत्ति से सूचना ==== | ||
यदि हमें पासे के मूल्य के बारे में | यदि हमें पासे के मूल्य के बारे में सूचना प्राप्त होती है, तो बारह गुना विधि #केस एफएक्स में किस पासे का कौन सा मूल्य था, हम तथाकथित गिनती वेरिएबल के साथ दृष्टिकोण को औपचारिक रूप दे सकते हैं | ||
<math display="block"> C_k := \delta_k(X) + \delta_k(Y) = \begin{cases} | <math display="block"> C_k := \delta_k(X) + \delta_k(Y) = \begin{cases} | ||
0, & \neg\, (X = k \vee Y = k) \\ | 0, & \neg\, (X = k \vee Y = k) \\ | ||
Line 160: | Line 161: | ||
<math display="block"> \operatorname{I}(\text{Diff}) = -\log_2\!{\tfrac{5}{6}} = 0.2630344 \text{ Sh}.</math> | <math display="block"> \operatorname{I}(\text{Diff}) = -\log_2\!{\tfrac{5}{6}} = 0.2630344 \text{ Sh}.</math> | ||
==== पासे के योग से | ==== पासे के योग से सूचना ==== | ||
स्वतंत्र यादृच्छिक चरों के योग का संभाव्यता द्रव्यमान या घनत्व | स्वतंत्र यादृच्छिक चरों के योग का संभाव्यता द्रव्यमान या घनत्व फलन (सामूहिक [[संभाव्यता माप]]) कनवल्शन#मापों का कनवल्शन। स्वतंत्र निष्पक्ष 6-पक्षीय पासा रोल के मामले में, यादृच्छिक वेरिएबल <math> Z = X + Y</math> संभाव्यता द्रव्यमान फलन है <math display="inline"> p_Z(z) = p_X(x) * p_Y(y) = {6 - |z - 7| \over 36} </math>, कहाँ <math> *</math> [[असतत कनवल्शन]] का प्रतिनिधित्व करता है। परिणाम (संभावना) <math> Z = 5 </math> संभावना है <math display="inline"> p_Z(5) = \frac{4}{36} = {1 \over 9} </math>. इसलिए, दावा की गई सूचना है<math display="block"> \operatorname{I}_Z(5) = -\log_2{\tfrac{1}{9}} = \log_2{9} | ||
\approx 3.169925 \text{ Sh}. | \approx 3.169925 \text{ Sh}. | ||
</math> | </math> | ||
=== सामान्य असतत समान वितरण === | === सामान्य असतत समान वितरण === | ||
सामान्यीकरण करना {{Section link||Fair dice roll|nopage=y}} उपरोक्त उदाहरण में, सामान्य असतत समान यादृच्छिक | सामान्यीकरण करना {{Section link||Fair dice roll|nopage=y}} उपरोक्त उदाहरण में, सामान्य असतत समान यादृच्छिक वेरिएबल (DURV) पर विचार करें <math>X \sim \mathrm{DU}[a,b]; \quad a, b \in \mathbb{Z}, \ b \ge a.</math> सुविधा के लिए परिभाषित करें <math display="inline">N := b - a + 1</math>. प्रायिकता द्रव्यमान फलन है <math display="block">p_X(k) = \begin{cases} | ||
\frac{1}{N}, & k \in [a, b] \cap \mathbb{Z} \\ | \frac{1}{N}, & k \in [a, b] \cap \mathbb{Z} \\ | ||
0, & \text{otherwise}. | 0, & \text{otherwise}. | ||
\end{cases}</math>सामान्य तौर पर, DURV के मानों को [[पूर्णांक]] होने की आवश्यकता नहीं है, या सूचना सिद्धांत के प्रयोजनों के लिए समान रूप से अंतरित होने की भी आवश्यकता नहीं है; उन्हें केवल [[समसंभाव्य]] होने की आवश्यकता है।<ref name=":0" />किसी भी अवलोकन का सूचना लाभ <math>X = k</math> है<math display="block">\operatorname{I}_X(k) = -\log_2{\frac{1}{N}} = \log_2{N} \text{ Sh}.</math> | \end{cases}</math>सामान्य तौर पर, DURV के मानों को [[पूर्णांक]] होने की आवश्यकता नहीं है, या सूचना सिद्धांत के प्रयोजनों के लिए समान रूप से अंतरित होने की भी आवश्यकता नहीं है; उन्हें केवल [[समसंभाव्य]] होने की आवश्यकता है।<ref name=":0" />किसी भी अवलोकन का सूचना लाभ <math>X = k</math> है<math display="block">\operatorname{I}_X(k) = -\log_2{\frac{1}{N}} = \log_2{N} \text{ Sh}.</math> | ||
==== विशेष मामला: निरंतर यादृच्छिक चर ==== | ==== विशेष मामला: निरंतर यादृच्छिक चर ==== | ||
अगर <math>b = a</math> ऊपर, <math>X</math> नियतात्मक रूप से दिए गए संभाव्यता वितरण के साथ [[निरंतर यादृच्छिक चर]] के लिए पतन (गणित)। <math>X = b</math> और संभाव्यता [[डिराक माप]] को मापती है <math display="inline">p_X(k) = \delta_{b}(k)</math>. एकमात्र मूल्य <math>X</math> [[नियतिवादी प्रणाली]] ले सकते हैं <math>b</math>, इसलिए किसी भी माप की सूचना सामग्री <math>X</math> है<math display="block">\operatorname{I}_X(b) = - \log_2{1} = 0.</math>सामान्य तौर पर, किसी ज्ञात मूल्य को मापने से कोई | अगर <math>b = a</math> ऊपर, <math>X</math> नियतात्मक रूप से दिए गए संभाव्यता वितरण के साथ [[निरंतर यादृच्छिक चर|निरंतर यादृच्छिक]] वेरिएबल के लिए पतन (गणित)। <math>X = b</math> और संभाव्यता [[डिराक माप]] को मापती है <math display="inline">p_X(k) = \delta_{b}(k)</math>. एकमात्र मूल्य <math>X</math> [[नियतिवादी प्रणाली]] ले सकते हैं <math>b</math>, इसलिए किसी भी माप की सूचना सामग्री <math>X</math> है<math display="block">\operatorname{I}_X(b) = - \log_2{1} = 0.</math>सामान्य तौर पर, किसी ज्ञात मूल्य को मापने से कोई सूचना प्राप्त नहीं होती है।<ref name=":0" /> | ||
=== श्रेणीबद्ध वितरण === | === श्रेणीबद्ध वितरण === | ||
उपरोक्त सभी मामलों को सामान्यीकृत करते हुए, समर्थन (गणित) के साथ श्रेणीबद्ध | उपरोक्त सभी मामलों को सामान्यीकृत करते हुए, समर्थन (गणित) के साथ श्रेणीबद्ध वेरिएबल [[असतत यादृच्छिक चर|असतत यादृच्छिक]] वेरिएबल पर विचार करें <math display="inline">\mathcal{S} = \bigl\{s_i\bigr\}_{i=1}^{N}</math> और संभाव्यता द्रव्यमान फलन द्वारा दिया गया | ||
<math display="block">p_X(k) = \begin{cases} | <math display="block">p_X(k) = \begin{cases} | ||
Line 182: | Line 183: | ||
सूचना सिद्धांत के प्रयोजनों के लिए, मूल्य <math>s \in \mathcal{S}</math> [[संख्या]]एँ होना आवश्यक नहीं है; वे [[परिमित माप]] के माप स्थान पर कोई भी पारस्परिक रूप से अनन्य # संभाव्यता घटना (संभावना सिद्धांत) हो सकते हैं जो संभाव्यता माप के लिए [[सामान्यीकरण (सांख्यिकी)]] रहा है <math>p</math>. व्यापकता की हानि के बिना, हम मान सकते हैं कि सेट पर श्रेणीबद्ध वितरण समर्थित है <math display="inline">[N] = \left\{1, 2, \dots, N \right\}</math>; संभाव्यता सिद्धांत और इसलिए सूचना सिद्धांत के संदर्भ में गणितीय संरचना समरूपता है। | सूचना सिद्धांत के प्रयोजनों के लिए, मूल्य <math>s \in \mathcal{S}</math> [[संख्या]]एँ होना आवश्यक नहीं है; वे [[परिमित माप]] के माप स्थान पर कोई भी पारस्परिक रूप से अनन्य # संभाव्यता घटना (संभावना सिद्धांत) हो सकते हैं जो संभाव्यता माप के लिए [[सामान्यीकरण (सांख्यिकी)]] रहा है <math>p</math>. व्यापकता की हानि के बिना, हम मान सकते हैं कि सेट पर श्रेणीबद्ध वितरण समर्थित है <math display="inline">[N] = \left\{1, 2, \dots, N \right\}</math>; संभाव्यता सिद्धांत और इसलिए सूचना सिद्धांत के संदर्भ में गणितीय संरचना समरूपता है। | ||
नतीजे की | नतीजे की सूचना <math>X = x</math> दिया हुआ है | ||
<math display="block">\operatorname{I}_X(x) = -\log_2{p_X(x)}.</math> | <math display="block">\operatorname{I}_X(x) = -\log_2{p_X(x)}.</math> | ||
इन उदाहरणों से, सिग्मा एडिटिविटी द्वारा ज्ञात संभाव्यता वितरण के साथ स्वतंत्र यादृच्छिक | इन उदाहरणों से, सिग्मा एडिटिविटी द्वारा ज्ञात संभाव्यता वितरण के साथ स्वतंत्र यादृच्छिक वेरिएबल असतत यादृच्छिक वेरिएबल के किसी भी सेट की सूचना की गणना करना संभव है। | ||
==व्युत्पत्ति== | ==व्युत्पत्ति== | ||
परिभाषा के अनुसार, | परिभाषा के अनुसार, सूचना रखने वाली मूल इकाई से सूचना प्राप्त करने वाली इकाई को तभी स्थानांतरित की जाती है, जब प्राप्तकर्ता को सूचना नहीं होती है। यदि प्राप्तकर्ता इकाई को संदेश प्राप्त करने से पहले संदेश की सामग्री निश्चित रूप से पता थी, तो प्राप्त संदेश की सूचना की मात्रा शून्य है। केवल तभी जब प्राप्तकर्ता को संदेश की सामग्री का अग्रिम ज्ञान 100% से कम हो, तभी संदेश वास्तव में सूचना संप्रेषित करता है। | ||
उदाहरण के लिए, हास्य अभिनेता [[जॉर्ज कार्लिन]] के चरित्र (हिप्पी डिप्पी वेदरमैन) को उद्धृत करते हुए, आज रात के लिए मौसम का पूर्वानुमान: अंधेरा। रात भर अंधेरा जारी रहा, सुबह तक रोशनी व्यापक रूप से बिखरी हुई थी।<ref>{{Cite web|title=जॉर्ज कार्लिन का एक उद्धरण|url=https://www.goodreads.com/quotes/94336-weather-forecast-for-tonight-dark-continued-dark-overnight-with-widely|access-date=2021-04-01|website=www.goodreads.com}}</ref> यह मानते हुए कि कोई व्यक्ति [[पृथ्वी के ध्रुवीय क्षेत्र]]ों के निकट नहीं रहता है, उस पूर्वानुमान में बताई गई | उदाहरण के लिए, हास्य अभिनेता [[जॉर्ज कार्लिन]] के चरित्र (हिप्पी डिप्पी वेदरमैन) को उद्धृत करते हुए, आज रात के लिए मौसम का पूर्वानुमान: अंधेरा। रात भर अंधेरा जारी रहा, सुबह तक रोशनी व्यापक रूप से बिखरी हुई थी।<ref>{{Cite web|title=जॉर्ज कार्लिन का एक उद्धरण|url=https://www.goodreads.com/quotes/94336-weather-forecast-for-tonight-dark-continued-dark-overnight-with-widely|access-date=2021-04-01|website=www.goodreads.com}}</ref> यह मानते हुए कि कोई व्यक्ति [[पृथ्वी के ध्रुवीय क्षेत्र]]ों के निकट नहीं रहता है, उस पूर्वानुमान में बताई गई सूचना की मात्रा शून्य है क्योंकि पूर्वानुमान प्राप्त होने से पहले ही यह ज्ञात होता है कि अंधेरा हमेशा रात के साथ आता है। | ||
तदनुसार, किसी घटना की घटना (संभावना सिद्धांत) को सूचित करने वाली सामग्री को संदेश देने वाले संदेश में निहित स्व- | तदनुसार, किसी घटना की घटना (संभावना सिद्धांत) को सूचित करने वाली सामग्री को संदेश देने वाले संदेश में निहित स्व-सूचना की मात्रा, <math>\omega_n</math>, केवल उस घटना की संभावना पर निर्भर करता है। | ||
<math display="block">\operatorname I(\omega_n) = f(\operatorname P(\omega_n)) </math> | <math display="block">\operatorname I(\omega_n) = f(\operatorname P(\omega_n)) </math> | ||
किसी समारोह के लिए <math>f(\cdot)</math> नीचे निर्धारित किया जाएगा. अगर <math>\operatorname P(\omega_n) = 1</math>, तब <math>\operatorname I(\omega_n) = 0</math>. अगर <math>\operatorname P(\omega_n) < 1</math>, तब <math>\operatorname I(\omega_n) > 0</math>. | किसी समारोह के लिए <math>f(\cdot)</math> नीचे निर्धारित किया जाएगा. अगर <math>\operatorname P(\omega_n) = 1</math>, तब <math>\operatorname I(\omega_n) = 0</math>. अगर <math>\operatorname P(\omega_n) < 1</math>, तब <math>\operatorname I(\omega_n) > 0</math>. | ||
इसके अलावा, परिभाषा के अनुसार, आत्म- | इसके अलावा, परिभाषा के अनुसार, आत्म-सूचना का माप (गणित) गैर-नकारात्मक और योगात्मक है। यदि कोई संदेश घटना की सूचना देता है <math>C</math> दो [[सांख्यिकीय स्वतंत्रता]] घटनाओं का प्रतिच्छेदन है <math>A</math> और <math>B</math>, फिर घटना की सूचना <math>C</math> घटित होना दोनों स्वतंत्र घटनाओं के मिश्रित संदेश का है <math>A</math> और <math>B</math> घटित हो रहा है. मिश्रित संदेश की सूचना की मात्रा <math>C</math> व्यक्तिगत घटक संदेशों की सूचना की मात्रा के योग के बराबर होने की उम्मीद की जाएगी <math>A</math> और <math>B</math> क्रमश: | ||
<math display="block">\operatorname I(C) = \operatorname I(A \cap B) = \operatorname I(A) + \operatorname I(B).</math> | <math display="block">\operatorname I(C) = \operatorname I(A \cap B) = \operatorname I(A) + \operatorname I(B).</math> | ||
घटनाओं की स्वतंत्रता के कारण <math>A</math> और <math>B</math>, घटना की संभावना <math>C</math> है | घटनाओं की स्वतंत्रता के कारण <math>A</math> और <math>B</math>, घटना की संभावना <math>C</math> है | ||
<math display="block">\operatorname P(C) = \operatorname P(A \cap B) = \operatorname P(A) \cdot \operatorname P(B).</math> | <math display="block">\operatorname P(C) = \operatorname P(A \cap B) = \operatorname P(A) \cdot \operatorname P(B).</math> | ||
हालाँकि, | हालाँकि, फलन लागू करना <math>f(\cdot)</math> का परिणाम | ||
<math display="block">\begin{align} | <math display="block">\begin{align} | ||
\operatorname I(C) & = \operatorname I(A) + \operatorname I(B) \\ | \operatorname I(C) & = \operatorname I(A) + \operatorname I(B) \\ | ||
Line 209: | Line 210: | ||
कॉची के कार्यात्मक समीकरण पर काम करने के लिए धन्यवाद, एकमात्र मोनोटोन कार्य <math>f(\cdot)</math> ऐसी संपत्ति होना | कॉची के कार्यात्मक समीकरण पर काम करने के लिए धन्यवाद, एकमात्र मोनोटोन कार्य <math>f(\cdot)</math> ऐसी संपत्ति होना | ||
<math display="block">f(x \cdot y) = f(x) + f(y)</math> | <math display="block">f(x \cdot y) = f(x) + f(y)</math> | ||
लघुगणक फलन हैं <math>\log_b(x)</math>. विभिन्न आधारों के लघुगणक के | लघुगणक फलन हैं <math>\log_b(x)</math>. विभिन्न आधारों के लघुगणक के मध्य एकमात्र परिचालन अंतर अलग-अलग स्केलिंग स्थिरांक का है, इसलिए हम मान सकते हैं | ||
<math display="block">f(x) = K \log(x)</math> | <math display="block">f(x) = K \log(x)</math> | ||
कहाँ <math>\log</math> [[प्राकृतिक]] लघुगणक है. चूँकि घटनाओं की संभावनाएँ हमेशा 0 और 1 के | कहाँ <math>\log</math> [[प्राकृतिक]] लघुगणक है. चूँकि घटनाओं की संभावनाएँ हमेशा 0 और 1 के मध्य होती हैं और इन घटनाओं से जुड़ी सूचना गैर-नकारात्मक होनी चाहिए, इसके लिए यह आवश्यक है <math>K<0</math>. | ||
इन गुणों को ध्यान में रखते हुए, आत्म- | इन गुणों को ध्यान में रखते हुए, आत्म-सूचना <math>\operatorname I(\omega_n)</math> परिणाम से सम्बंधित <math>\omega_n</math> संभाव्यता के साथ <math>\operatorname P(\omega_n)</math> परिभाषित किया जाता है: | ||
<math display="block">\operatorname I(\omega_n) = -\log(\operatorname P(\omega_n)) = \log \left(\frac{1}{\operatorname P(\omega_n)} \right) </math> | <math display="block">\operatorname I(\omega_n) = -\log(\operatorname P(\omega_n)) = \log \left(\frac{1}{\operatorname P(\omega_n)} \right) </math> | ||
घटना की संभावना उतनी ही कम होगी <math>\omega_n</math>, संदेश से जुड़ी आत्म- | घटना की संभावना उतनी ही कम होगी <math>\omega_n</math>, संदेश से जुड़ी आत्म-सूचना की मात्रा जितनी अधिक होगी कि घटना वास्तव में घटित हुई। यदि उपरोक्त लघुगणक आधार 2 है, तो की इकाई <math> I(\omega_n)</math> [[ अंश |अंश]] ्स है. यह सबसे आम प्रथा है. आधार के प्राकृतिक लघुगणक का उपयोग करते समय <math> e</math>, इकाई नेट (इकाई) होगी। आधार 10 लघुगणक के लिए, सूचना की इकाई हार्टले (इकाई) है। | ||
एक त्वरित उदाहरण के रूप में, सिक्के के लगातार 4 उछाल में 4 चित (या किसी विशिष्ट परिणाम) के परिणाम से जुड़ी सूचना सामग्री 4 बिट्स (संभावना 1/16) होगी, और परिणाम प्राप्त करने से जुड़ी सूचना सामग्री इसके अलावा होगी निर्दिष्ट ~0.09 बिट्स (संभावना 15/16) होगा। विस्तृत उदाहरणों के लिए ऊपर देखें। | एक त्वरित उदाहरण के रूप में, सिक्के के लगातार 4 उछाल में 4 चित (या किसी विशिष्ट परिणाम) के परिणाम से जुड़ी सूचना सामग्री 4 बिट्स (संभावना 1/16) होगी, और परिणाम प्राप्त करने से जुड़ी सूचना सामग्री इसके अलावा होगी निर्दिष्ट ~0.09 बिट्स (संभावना 15/16) होगा। विस्तृत उदाहरणों के लिए ऊपर देखें। |
Revision as of 21:39, 15 July 2023
सूचना सिद्धांत में, सूचना सामग्री, आत्म-सूचना, आश्चर्य, या शैनन सूचना यादृच्छिक वेरिएबल से होने वाली किसी विशेष घटना (संभावना सिद्धांत) की संभावना से प्राप्त मूल मात्रा है। इसे संभावना व्यक्त करने के वैकल्पिक विधि के रूप में विचार किया जा सकता है, सामान्य अनेक कठिनाइयाँ या लॉग-बाधाओं की तरह, किन्तु सूचना सिद्धांत की सेटिंग में इसके विशेष गणितीय लाभकारक हैं।
इस प्रकार से शैनन सूचना की व्याख्या किसी विशेष परिणाम के आश्चर्य के स्तर को मापने के रूप में की जा सकती है। चूंकि यह इतनी मूलभूत मात्रा है, यह कई अन्य सेटिंग्स में भी दिखाई देती है, जैसे यादृच्छिक वेरिएबल के इष्टतम शैनन के स्रोत कोडिंग प्रमेय को देखते हुए घटना को प्रसारित करने के लिए आवश्यक संदेश की लंबाई को दर्शाया गया है ।
शैनन की सूचना एंट्रॉपी (सूचना सिद्धांत) से निकटता से संबंधित है, जो यादृच्छिक वेरिएबल की आत्म-सूचना का अपेक्षित मूल्य है, जो यह निर्धारित करती है कि यादृच्छिक वेरिएबल औसतन कितना आश्चर्यजनक है। यह आत्म-सूचना की वह औसत मात्रा है जो पर्यवेक्षक किसी यादृच्छिक वेरिएबल को मापते समय उसके बारे में प्राप्त करने की अपेक्षा करता है।[1]
अतः सूचना सामग्री को सूचना की विभिन्न इकाइयों में व्यक्त किया जा सकता है, जिनमें से अधिक समान बिट (अधिक सही रूप से शैनन कहा जाता है) है, जैसा कि नीचे बताया गया है।
परिभाषा
क्लाउड शैनन की आत्म-सूचना की परिभाषा को कई सिद्धांतों को पूरा करने के लिए चुना गया था:
- 100% संभावना वाली घटना पूर्ण प्रकार से आश्चर्यजनक है और कोई सूचना नहीं देती है।
- अनेक घटना जितनी कम संभावित होती है, वह उतनी ही अधिक आश्चर्यजनक होती है और उतनी ही अधिक सूचना देती है।
- यदि दो स्वतंत्र घटनाओं को अलग-अलग मापा जाता है, तो सूचना की कुल मात्रा व्यक्तिगत घटनाओं की स्वयं-सूचना का योग है।
इस प्रकार से विस्तृत व्युत्पत्ति नीचे है, किन्तु यह दिखाया जा सकता है कि संभाव्यता का अनूठा कार्य है जो गुणक स्केलिंग कारक तक, इन तीन सिद्धांतों को पूरा करता है। सामान्यतः , वास्तविक संख्या दी गई है और घटना (संभावना सिद्धांत) संभाव्यता के साथ , सूचना सामग्री को इस प्रकार परिभाषित किया गया है:
औपचारिक रूप से, यादृच्छिक वेरिएबल दिया गया है संभाव्यता द्रव्यमान फलन के साथ , मापने की स्व-सूचना परिणाम के रूप में (संभावना) परिभाषित किया जाता है[2]
गुण
संभाव्यता का नीरस रूप से घटता हुआ कार्य
किसी दिए गए संभाव्यता स्थान के लिए, दुर्लभ घटना (संभावना सिद्धांत) का माप सहज रूप से अधिक आश्चर्यजनक है, और अधिक सामान्य मूल्यों की तुलना में अधिक सूचना सामग्री प्रदान करता है। इस प्रकार, स्व-सूचना संभाव्यता का मोनोटोनिक फलन है, या कभी-कभी इसे एंटीटोनिक फलन भी कहा जाता है।
जबकि मानक संभावनाओं को अंतराल में वास्तविक संख्याओं द्वारा दर्शाया जाता है , आत्म-सूचना को अंतराल में विस्तारित वास्तविक संख्याओं द्वारा दर्शाया जाता है . विशेष रूप से, लघुगणकीय आधार के किसी भी विकल्प के लिए हमारे पास निम्नलिखित हैं:
- यदि किसी विशेष घटना के घटित होने की 100% संभावना हो तो उसकी स्व-सूचना होती है : इसकी घटना बिल्कुल गैर-आश्चर्यजनक है और इससे कोई सूचना नहीं मिलती है।
- यदि किसी विशेष घटना के घटित होने की संभावना 0% है, तो उसकी स्व-सूचना है : इसकी घटना असीम रूप से आश्चर्यजनक है।
इससे, हम कुछ सामान्य गुण प्राप्त कर सकते हैं:
- सहज रूप से, किसी अप्रत्याशित घटना को देखने से अधिक सूचना प्राप्त होती है—यह आश्चर्यजनक है।
- उदाहरण के लिए, यदि ऐलिस के लॉटरी जीतने की लाखों में से संभावना है, तो उसके दोस्त बॉब को यह जानने से लिए अधिक सूचना प्राप्त होगी कि उसने लॉटरी जीती है, अतिरिक्त इसके कि वह लॉटरी जीत गई है। निश्चित दिन. (लॉटरी गणित भी देखें।)
- यह यादृच्छिक वेरिएबल की आत्म-सूचना और उसके विचरण के मध्य अंतर्निहित संबंध स्थापित करता है।
लॉग-ऑड्स से संबंध
चूंकि शैनन सूचना लॉग-ऑड्स से निकटता से संबंधित है। विशेष रूप से, किसी घटना को देखते हुए , मान लीजिये कि की प्रायिकता है घटित हो रहा है, और वह की सम्भावना है घटित नहीं हो रहा है. फिर हमारे पास लॉग-ऑड्स की निम्नलिखित परिभाषा है:
स्वतंत्र घटनाओं की संयोजकता
दो स्वतंत्र घटनाओं की सूचना सामग्री प्रत्येक घटना की सूचना सामग्री का योग है। इस संपत्ति को गणित में योगात्मक मानचित्र के रूप में जाना जाता है, और विशेष रूप से माप (गणित) और संभाव्यता सिद्धांत में सिग्मा additivity के रूप में जाना जाता है। दो स्वतंत्र यादृच्छिक वेरिएबल पर विचार करें संभाव्यता जन कार्यों के साथ और क्रमश। संयुक्त संभाव्यता द्रव्यमान फलन है
संभावनाओं के लिए संबंधित संपत्ति यह है कि स्वतंत्र घटनाओं की लॉग-संभावना प्रत्येक घटना की लॉग-संभावनाओं का योग है। लॉग-संभावना को समर्थन या नकारात्मक आश्चर्य के रूप में व्याख्या करना (वह डिग्री जिस तक कोई घटना किसी दिए गए मॉडल का समर्थन करती है: मॉडल को किसी घटना द्वारा इस हद तक समर्थित किया जाता है कि घटना अप्रत्याशित है, मॉडल को देखते हुए), यह बताता है कि स्वतंत्र घटनाएं समर्थन जोड़ती हैं: दो घटनाएँ मिलकर सांख्यिकीय अनुमान के लिए जो सूचना प्रदान करती हैं, वह उनकी स्वतंत्र सूचना का योग है।
एंट्रॉपी से संबंध
यादृच्छिक वेरिएबल की शैनन एन्ट्रापी ऊपर शैनन एन्ट्रॉपी#परिभाषा है
कभी-कभी, एन्ट्रापी को ही यादृच्छिक वेरिएबल की स्व-सूचना कहा जाता है, संभवतः इसलिए क्योंकि एन्ट्रापी संतुष्ट करती है , कहाँ की पारस्परिक सूचना है खुद के साथ.[5]
सतत यादृच्छिक वेरिएबल के लिए संबंधित अवधारणा विभेदक एन्ट्रापी है।
टिप्पणियाँ
This measure has also been called surprisal, as it represents the "surprise" of seeing the outcome (a highly improbable outcome is very surprising). This term (as a log-probability measure) was coined by Myron Tribus in his 1961 book Thermostatics and Thermodynamics.[6][7]
When the event is a random realization (of a variable) the self-information of the variable is defined as the expected value of the self-information of the realization.
Self-information is an example of a proper scoring rule.
उदाहरण
उचित सिक्का उछालना
सिक्का उछालने के बर्नौली परीक्षण पर विचार करें . सिक्के के शीर्ष के रूप में उतरने की घटना की संभावना (संभावना सिद्धांत)। और पूँछ (निष्पक्ष सिक्का तथा अग्र एवं पृष्ठ देखें) प्रत्येक आधा-आधा है, . वैरिएबल को हेड के रूप में नमूनाकरण (सिग्नल प्रोसेसिंग) करने पर, संबंधित सूचना प्राप्त होती है
निष्पक्ष पासा रोल
मान लीजिए कि हमारे पास अच्छा पासा है|एक अच्छा छह तरफा पासा। पासा पलटने का मूल्य असतत समान वितरण है संभाव्यता द्रव्यमान फलन के साथ
दो स्वतंत्र, समान रूप से वितरित पासे
मान लीजिए कि हमारे पास दो स्वतंत्र और समान रूप से वितरित यादृच्छिक वेरिएबल हैं|स्वतंत्र, समान रूप से वितरित यादृच्छिक वेरिएबल प्रत्येक स्वतंत्र यादृच्छिक वेरिएबल के अनुरूप 6-पक्षीय पासा रोल। की संयुक्त संभाव्यता वितरण और है
रोल की आवृत्ति से सूचना
यदि हमें पासे के मूल्य के बारे में सूचना प्राप्त होती है, तो बारह गुना विधि #केस एफएक्स में किस पासे का कौन सा मूल्य था, हम तथाकथित गिनती वेरिएबल के साथ दृष्टिकोण को औपचारिक रूप दे सकते हैं
आश्चर्य की बात नहीं है कि सीखने की सूचना सामग्री कि दोनों पासों को ही विशेष संख्या के रूप में घुमाया गया था, सीखने की सूचना सामग्री से अधिक है कि पासा संख्या थी और दूसरा अलग संख्या थी। उदाहरण के लिए घटनाओं को लीजिए और के लिए . उदाहरण के लिए, और .
सूचना सामग्री हैं
होने देना ऐसी घटना हो कि दोनों पासों का मूल्य समान हो और ऐसा हो कि पासा अलग-अलग हो। तब और . घटनाओं की सूचना सामग्री हैं
पासे के योग से सूचना
स्वतंत्र यादृच्छिक चरों के योग का संभाव्यता द्रव्यमान या घनत्व फलन (सामूहिक संभाव्यता माप) कनवल्शन#मापों का कनवल्शन। स्वतंत्र निष्पक्ष 6-पक्षीय पासा रोल के मामले में, यादृच्छिक वेरिएबल संभाव्यता द्रव्यमान फलन है , कहाँ असतत कनवल्शन का प्रतिनिधित्व करता है। परिणाम (संभावना) संभावना है . इसलिए, दावा की गई सूचना है
सामान्य असतत समान वितरण
सामान्यीकरण करना § Fair dice roll उपरोक्त उदाहरण में, सामान्य असतत समान यादृच्छिक वेरिएबल (DURV) पर विचार करें सुविधा के लिए परिभाषित करें . प्रायिकता द्रव्यमान फलन है
विशेष मामला: निरंतर यादृच्छिक चर
अगर ऊपर, नियतात्मक रूप से दिए गए संभाव्यता वितरण के साथ निरंतर यादृच्छिक वेरिएबल के लिए पतन (गणित)। और संभाव्यता डिराक माप को मापती है . एकमात्र मूल्य नियतिवादी प्रणाली ले सकते हैं , इसलिए किसी भी माप की सूचना सामग्री है
श्रेणीबद्ध वितरण
उपरोक्त सभी मामलों को सामान्यीकृत करते हुए, समर्थन (गणित) के साथ श्रेणीबद्ध वेरिएबल असतत यादृच्छिक वेरिएबल पर विचार करें और संभाव्यता द्रव्यमान फलन द्वारा दिया गया
नतीजे की सूचना दिया हुआ है
व्युत्पत्ति
परिभाषा के अनुसार, सूचना रखने वाली मूल इकाई से सूचना प्राप्त करने वाली इकाई को तभी स्थानांतरित की जाती है, जब प्राप्तकर्ता को सूचना नहीं होती है। यदि प्राप्तकर्ता इकाई को संदेश प्राप्त करने से पहले संदेश की सामग्री निश्चित रूप से पता थी, तो प्राप्त संदेश की सूचना की मात्रा शून्य है। केवल तभी जब प्राप्तकर्ता को संदेश की सामग्री का अग्रिम ज्ञान 100% से कम हो, तभी संदेश वास्तव में सूचना संप्रेषित करता है।
उदाहरण के लिए, हास्य अभिनेता जॉर्ज कार्लिन के चरित्र (हिप्पी डिप्पी वेदरमैन) को उद्धृत करते हुए, आज रात के लिए मौसम का पूर्वानुमान: अंधेरा। रात भर अंधेरा जारी रहा, सुबह तक रोशनी व्यापक रूप से बिखरी हुई थी।[8] यह मानते हुए कि कोई व्यक्ति पृथ्वी के ध्रुवीय क्षेत्रों के निकट नहीं रहता है, उस पूर्वानुमान में बताई गई सूचना की मात्रा शून्य है क्योंकि पूर्वानुमान प्राप्त होने से पहले ही यह ज्ञात होता है कि अंधेरा हमेशा रात के साथ आता है।
तदनुसार, किसी घटना की घटना (संभावना सिद्धांत) को सूचित करने वाली सामग्री को संदेश देने वाले संदेश में निहित स्व-सूचना की मात्रा, , केवल उस घटना की संभावना पर निर्भर करता है।
इसके अलावा, परिभाषा के अनुसार, आत्म-सूचना का माप (गणित) गैर-नकारात्मक और योगात्मक है। यदि कोई संदेश घटना की सूचना देता है दो सांख्यिकीय स्वतंत्रता घटनाओं का प्रतिच्छेदन है और , फिर घटना की सूचना घटित होना दोनों स्वतंत्र घटनाओं के मिश्रित संदेश का है और घटित हो रहा है. मिश्रित संदेश की सूचना की मात्रा व्यक्तिगत घटक संदेशों की सूचना की मात्रा के योग के बराबर होने की उम्मीद की जाएगी और क्रमश:
इन गुणों को ध्यान में रखते हुए, आत्म-सूचना परिणाम से सम्बंधित संभाव्यता के साथ परिभाषित किया जाता है:
एक त्वरित उदाहरण के रूप में, सिक्के के लगातार 4 उछाल में 4 चित (या किसी विशिष्ट परिणाम) के परिणाम से जुड़ी सूचना सामग्री 4 बिट्स (संभावना 1/16) होगी, और परिणाम प्राप्त करने से जुड़ी सूचना सामग्री इसके अलावा होगी निर्दिष्ट ~0.09 बिट्स (संभावना 15/16) होगा। विस्तृत उदाहरणों के लिए ऊपर देखें।
यह भी देखें
संदर्भ
- ↑ Jones, D.S., Elementary Information Theory, Vol., Clarendon Press, Oxford pp 11–15 1979
- ↑ 2.0 2.1 2.2 2.3 McMahon, David M. (2008). क्वांटम कंप्यूटिंग की व्याख्या. Hoboken, NJ: Wiley-Interscience. ISBN 9780470181386. OCLC 608622533.
- ↑ Borda, Monica (2011). सूचना सिद्धांत और कोडिंग में बुनियादी बातें. Springer. ISBN 978-3-642-20346-6.
- ↑ Han, Te Sun; Kobayashi, Kingo (2002). सूचना और कोडिंग का गणित. American Mathematical Society. ISBN 978-0-8218-4256-0.
- ↑ Thomas M. Cover, Joy A. Thomas; Elements of Information Theory; p. 20; 1991.
- ↑ R. B. Bernstein and R. D. Levine (1972) "Entropy and Chemical Change. I. Characterization of Product (and Reactant) Energy Distributions in Reactive Molecular Collisions: Information and Entropy Deficiency", The Journal of Chemical Physics 57, 434–449 link.
- ↑ Myron Tribus (1961) Thermodynamics and Thermostatics: An Introduction to Energy, Information and States of Matter, with Engineering Applications (D. Van Nostrand, 24 West 40 Street, New York 18, New York, U.S.A) Tribus, Myron (1961), pp. 64–66 borrow.
- ↑ "जॉर्ज कार्लिन का एक उद्धरण". www.goodreads.com. Retrieved 2021-04-01.
अग्रिम पठन
- C.E. Shannon, A Mathematical Theory of Communication, Bell Systems Technical Journal, Vol. 27, pp 379–423, (Part I), 1948.