जानकारी सामग्री: Difference between revisions

From Vigyanwiki
No edit summary
No edit summary
Line 1: Line 1:
{{short description|Basic quantity derived from the probability of a particular event occurring from a random variable}}[[सूचना सिद्धांत]] में, सूचना सामग्री, आत्म-सूचना, आश्चर्य, या शैनन सूचना यादृच्छिक वेरिएबल से होने वाली किसी विशेष घटना ([[संभावना]] सिद्धांत) की संभावना से प्राप्त मूल मात्रा है। इसे संभावना व्यक्त करने के वैकल्पिक विधि  के रूप में विचार किया  जा सकता है, सामान्य अनेक  [[कठिनाइयाँ]] या [[लॉग-बाधाओं]] की तरह, किन्तु  सूचना सिद्धांत की सेटिंग में इसके विशेष गणितीय लाभकारक हैं।
{{short description|Basic quantity derived from the probability of a particular event occurring from a random variable}}[[सूचना सिद्धांत]] में, सूचना सामग्री, आत्म-सूचना, आश्चर्य, या शैनन सूचना यादृच्छिक वेरिएबल से होने वाली किसी विशेष घटना ([[संभावना]] सिद्धांत) की संभावना से प्राप्त मूल मात्रा है। इसे संभावना व्यक्त करने के वैकल्पिक विधि  के रूप में विचार किया  जा सकता है, सामान्य अनेक  [[कठिनाइयाँ]] या [[लॉग-बाधाओं]] की तरह, किन्तु  सूचना सिद्धांत की समुच्चय िंग में इसके विशेष गणितीय निवेश कारक हैं।


इस प्रकार से शैनन सूचना की व्याख्या किसी विशेष परिणाम के आश्चर्य के स्तर को मापने के रूप में की जा सकती है। चूंकि यह इतनी मूलभूत  मात्रा है, यह कई अन्य सेटिंग्स में भी दिखाई देती है, जैसे यादृच्छिक वेरिएबल के इष्टतम शैनन के स्रोत कोडिंग प्रमेय को देखते हुए घटना को प्रसारित करने के लिए आवश्यक संदेश की लंबाई को दर्शाया गया है ।
इस प्रकार से शैनन सूचना की व्याख्या किसी विशेष परिणाम के आश्चर्य के स्तर को मापने के रूप में की जा सकती है। चूंकि यह इतनी मूलभूत  मात्रा है, यह कई अन्य समुच्चय िंग्स में भी दिखाई देती है, जैसे यादृच्छिक वेरिएबल के इष्टतम शैनन के स्रोत कोडिंग प्रमेय को देखते हुए घटना को प्रसारित करने के लिए आवश्यक संदेश की लंबाई को दर्शाया गया है ।


शैनन की सूचना ''एंट्रॉपी (सूचना सिद्धांत)'' से निकटता से संबंधित है, जो यादृच्छिक वेरिएबल की आत्म-सूचना का अपेक्षित मूल्य है, जो यह निर्धारित करती है कि यादृच्छिक वेरिएबल औसतन कितना आश्चर्यजनक है। यह आत्म-सूचना की वह औसत मात्रा है जो पर्यवेक्षक किसी यादृच्छिक वेरिएबल को मापते समय उसके बारे में प्राप्त करने की अपेक्षा करता है।<ref>Jones, D.S., ''Elementary Information Theory'', Vol., Clarendon Press, Oxford pp 11–15 1979</ref>
शैनन की सूचना ''एंट्रॉपी (सूचना सिद्धांत)'' से निकटता से संबंधित है, जो यादृच्छिक वेरिएबल की आत्म-सूचना का अपेक्षित मूल्य है, जो यह निर्धारित करती है कि यादृच्छिक वेरिएबल औसतन कितना आश्चर्यजनक है। यह आत्म-सूचना की वह औसत मात्रा है जो पर्यवेक्षक किसी यादृच्छिक वेरिएबल को मापते समय उसके बारे में प्राप्त करने की अपेक्षा करता है।<ref>Jones, D.S., ''Elementary Information Theory'', Vol., Clarendon Press, Oxford pp 11–15 1979</ref>
Line 47: Line 47:


=== स्वतंत्र घटनाओं की संयोजकता ===
=== स्वतंत्र घटनाओं की संयोजकता ===
'''दो स्वतंत्र घटनाओं की सूचना''' सामग्री प्रत्येक घटना की सूचना सामग्री का योग है। इस संपत्ति को गणित में [[ योगात्मक मानचित्र |योगात्मक मानचित्र]] के रूप में जाना जाता है, और विशेष रूप से [[माप (गणित)]] और संभाव्यता सिद्धांत में [[ सिग्मा additivity |सिग्मा additivity]] के रूप में जाना जाता है। दो [[स्वतंत्र यादृच्छिक चर|स्वतंत्र यादृच्छिक]] वेरिएबल पर विचार करें <math display="inline">X,\, Y</math> संभाव्यता जन कार्यों के साथ <math>p_X(x)</math> और <math>p_Y(y)</math> क्रमश। संयुक्त संभाव्यता द्रव्यमान फलन है
दो स्वतंत्र घटनाओं की सूचना सामग्री प्रत्येक घटना की सूचना सामग्री का योग है। इस गुण को गणित में [[ सिग्मा additivity |सिग्मा एडिटिविटी]] और विशेष रूप से [[माप (गणित)]]और संभाव्यता सिद्धांत में सिग्मा एडिटिविटी के रूप में जाना जाता है। संभाव्यता द्रव्यमान फलन क्रमशः <math>p_X(x)</math>और <math>p_Y(y)</math> के साथ [[स्वतंत्र यादृच्छिक चर|स्वतंत्र यादृच्छिक]] वेरिएबल <math display="inline">X,\, Y</math> पर विचार करें। संयुक्त संभाव्यता द्रव्यमान फलन है


<math display="block"> p_{X, Y}\!\left(x, y\right) = \Pr(X = x,\, Y = y)  
<math display="block"> p_{X, Y}\!\left(x, y\right) = \Pr(X = x,\, Y = y)  
Line 59: Line 59:
\end{align}
\end{align}
</math>
</math>
देखना{{Section link||Two independent, identically distributed dice|nopage=y}} उदाहरण के लिए नीचे।
देखना{{Section link||दो स्वतंत्र, समान रूप से वितरित पासे|nopage=वाई}} उदाहरण के लिए नीचे।


[[संभावना]]ओं के लिए संबंधित संपत्ति यह है कि स्वतंत्र घटनाओं की लॉग-संभावना प्रत्येक घटना की लॉग-संभावनाओं का योग है। लॉग-संभावना को समर्थन या नकारात्मक आश्चर्य के रूप में व्याख्या करना (वह डिग्री जिस तक कोई घटना किसी दिए गए मॉडल का समर्थन करती है: मॉडल को किसी घटना द्वारा इस हद तक समर्थित किया जाता है कि घटना अप्रत्याशित है, मॉडल को देखते हुए), यह बताता है कि स्वतंत्र घटनाएं समर्थन जोड़ती हैं: दो घटनाएँ मिलकर सांख्यिकीय अनुमान के लिए जो सूचना प्रदान करती हैं, वह उनकी स्वतंत्र सूचना का योग है।
इस प्रकार से  [[संभावना]]ओं के लिए संबंधित संपत्ति यह है कि स्वतंत्र घटनाओं की लॉग-संभावना प्रत्येक घटना की लॉग-संभावनाओं का योग है। लॉग-संभावना को समर्थन या नकारात्मक आश्चर्य के रूप में व्याख्या करना (वह डिग्री जिस तक कोई घटना किसी दिए गए मॉडल का समर्थन करती है: मॉडल को किसी घटना द्वारा इस सीमा तक समर्थित किया जाता है कि घटना अप्रत्याशित है, मॉडल को देखते हुए), यह दर्शाता  है कि स्वतंत्र घटनाएं समर्थन जोड़ती हैं: दो घटनाएँ मिलकर सांख्यिकीय अनुमान के लिए जो सूचना प्रदान करती हैं, वह उनकी स्वतंत्र सूचना का योग है।


==एंट्रॉपी से संबंध==
==एंट्रॉपी से संबंध==
यादृच्छिक वेरिएबल की [[शैनन एन्ट्रापी]] <math>X </math> ऊपर शैनन एन्ट्रॉपी#परिभाषा है
यादृच्छिक वेरिएबल की [[शैनन एन्ट्रापी]] उपरोक्त <math>X </math> को इस प्रकार परिभाषित किया गया है
<math display="block">\begin{alignat}{2}  
<math display="block">\begin{alignat}{2}  
  \Eta(X) &= \sum_{x} {-p_{X}{\left(x\right)} \log{p_{X}{\left(x\right)}}} \\
  \Eta(X) &= \sum_{x} {-p_{X}{\left(x\right)} \log{p_{X}{\left(x\right)}}} \\
Line 71: Line 71:
   \operatorname{E}{\left[\operatorname{I}_X (X)\right]},
   \operatorname{E}{\left[\operatorname{I}_X (X)\right]},
\end{alignat} </math>
\end{alignat} </math>
परिभाषा के अनुसार [[अपेक्षित मूल्य]] की माप की सूचना सामग्री के बराबर <math>X </math>.<ref>{{cite book|url=https://books.google.com/books?id=Lyte2yl1SPAC&pg=PA11|title=सूचना सिद्धांत और कोडिंग में बुनियादी बातें|author=Borda, Monica|publisher=Springer|year=2011|isbn=978-3-642-20346-6}}</ref>{{rp|11}}<ref>{{cite book|url=https://books.google.com/books?id=VpRESN24Zj0C&pg=PA19|title=सूचना और कोडिंग का गणित|publisher=American Mathematical Society|year=2002|isbn=978-0-8218-4256-0|author1=Han, Te Sun |author2=Kobayashi, Kingo }}</ref>{{rp|19–20}}
अतः परिभाषा <math>X </math> के अनुसार [[अपेक्षित मूल्य]] की माप की सूचना सामग्री के समान  .<ref>{{cite book|url=https://books.google.com/books?id=Lyte2yl1SPAC&pg=PA11|title=सूचना सिद्धांत और कोडिंग में बुनियादी बातें|author=Borda, Monica|publisher=Springer|year=2011|isbn=978-3-642-20346-6}}</ref>{{rp|11}}<ref>{{cite book|url=https://books.google.com/books?id=VpRESN24Zj0C&pg=PA19|title=सूचना और कोडिंग का गणित|publisher=American Mathematical Society|year=2002|isbn=978-0-8218-4256-0|author1=Han, Te Sun |author2=Kobayashi, Kingo }}</ref>{{rp|19–20}}
 
अपेक्षा को इसके [[समर्थन (गणित)]] पर [[असतत यादृच्छिक चर|असतत यादृच्छिक]] वेरिएबल पर लिया जाता है।
अपेक्षा को इसके [[समर्थन (गणित)]] पर [[असतत यादृच्छिक चर|असतत यादृच्छिक]] वेरिएबल पर लिया जाता है।


कभी-कभी, एन्ट्रापी को ही यादृच्छिक वेरिएबल की स्व-सूचना कहा जाता है, संभवतः इसलिए क्योंकि एन्ट्रापी संतुष्ट करती है <math>\Eta(X) = \operatorname{I}(X; X)</math>, कहाँ <math>\operatorname{I}(X;X)</math> की पारस्परिक सूचना है <math>X</math> खुद के साथ.<ref>Thomas M. Cover, Joy A. Thomas; Elements of Information Theory; p. 20; 1991.</ref>
कभी-कभी, एन्ट्रापी को ही यादृच्छिक वेरिएबल की स्व-सूचना कहा जाता है, संभवतः इसलिए क्योंकि एन्ट्रापी <math>\Eta(X) = \operatorname{I}(X; X)</math>संतुष्ट करती है , जहाँ  <math>\operatorname{I}(X;X)</math> <math>X</math> की पारस्परिक सूचना है<ref>Thomas M. Cover, Joy A. Thomas; Elements of Information Theory; p. 20; 1991.</ref>


[[सतत यादृच्छिक चर|सतत यादृच्छिक]] वेरिएबल के लिए संबंधित अवधारणा [[विभेदक एन्ट्रापी]] है।
[[सतत यादृच्छिक चर|सतत यादृच्छिक]] वेरिएबल के लिए संबंधित अवधारणा [[विभेदक एन्ट्रापी]] है।


== टिप्पणियाँ ==
== टिप्पणियाँ ==
This measure has also been called '''surprisal''', as it represents the "[[surprise (emotion)|surprise]]" of seeing the outcome (a highly improbable outcome is very surprising). This term (as a log-probability measure) was coined by [[Myron Tribus]] in his 1961 book ''Thermostatics and Thermodynamics''.<ref name="Bernstein1972">R. B. Bernstein and R. D. Levine (1972) "Entropy and Chemical Change. I. Characterization of Product (and Reactant) Energy Distributions in Reactive Molecular Collisions: Information and Entropy Deficiency", ''The Journal of Chemical Physics'' '''57''', 434–449 [https://aip.scitation.org/doi/abs/10.1063/1.1677983 link].</ref><ref name="Tribus1961">[http://www.eoht.info/page/Myron+Tribus Myron Tribus] (1961) '''Thermodynamics and Thermostatics:''' ''An Introduction to Energy, Information and States of Matter, with Engineering Applications'' (D. Van Nostrand, 24 West 40 Street, New York 18, New York, U.S.A) Tribus, Myron (1961), pp. 64–66 [https://archive.org/details/thermostaticsthe00trib borrow].</ref>
इस उपाय को आश्चर्य भी कहा गया है, क्योंकि यह परिणाम देखने के "आश्चर्य" का प्रतिनिधित्व करता है (एक अत्यधिक असंभव परिणाम बहुत आश्चर्यजनक है)। यह शब्द (लॉग-प्रायिकता माप के रूप में) मायरोन ट्रिबस द्वारा उनकी 1961 की पुस्तक थर्मोस्टैटिक्स और थर्मोडायनामिक्स में गढ़ा गया था।.<ref name="Bernstein1972">R. B. Bernstein and R. D. Levine (1972) "Entropy and Chemical Change. I. Characterization of Product (and Reactant) Energy Distributions in Reactive Molecular Collisions: Information and Entropy Deficiency", ''The Journal of Chemical Physics'' '''57''', 434–449 [https://aip.scitation.org/doi/abs/10.1063/1.1677983 link].</ref><ref name="Tribus1961">[http://www.eoht.info/page/Myron+Tribus Myron Tribus] (1961) '''Thermodynamics and Thermostatics:''' ''An Introduction to Energy, Information and States of Matter, with Engineering Applications'' (D. Van Nostrand, 24 West 40 Street, New York 18, New York, U.S.A) Tribus, Myron (1961), pp. 64–66 [https://archive.org/details/thermostaticsthe00trib borrow].</ref>
 
जब घटना एक यादृच्छिक अहसास (एक वेरिएबल का) होती है तो वेरिएबल की आत्म-सूचना  को अहसास की आत्म-सूचना  के अपेक्षित मूल्य के रूप में परिभाषित किया जाता है।


When the event is a random realization (of a variable) the self-information of the variable is defined as the [[expected value]] of the self-information of the realization.
स्व-सूचना  उचित [[Scoring rule|स्कोरिंग]] नियम का एक [[Scoring rule|उदाहरण]] है


'''Self-information''' is an example of a [[Scoring rule|proper scoring rule]].
==उदाहरण==
==उदाहरण==


===उचित [[सिक्का उछालना]] ===
===निष्पक्ष [[सिक्का उछालना|कॉइन टॉस]] ===
सिक्का उछालने के [[बर्नौली परीक्षण]] पर विचार करें <math>X</math>. सिक्के के शीर्ष के रूप में उतरने की घटना की संभावना (संभावना सिद्धांत)। <math>\text{H}</math> और पूँछ <math>\text{T}</math> (निष्पक्ष सिक्का तथा अग्र एवं पृष्ठ देखें) प्रत्येक आधा-आधा है, <math display="inline">p_X{(\text{H})} = p_X{(\text{T})} = \tfrac{1}{2} = 0.5</math>. वैरिएबल को हेड के रूप में [[ नमूनाकरण (सिग्नल प्रोसेसिंग) |नमूनाकरण (सिग्नल प्रोसेसिंग)]] करने पर, संबंधित सूचना प्राप्त होती है
<math>X</math> सिक्का उछालने के [[बर्नौली परीक्षण]] पर विचार करें . सिक्के के शीर्ष के रूप में उतरने की घटना की संभावना (संभावना सिद्धांत)। <math>\text{H}</math> और पट <math>\text{T}</math> (निष्पक्ष सिक्का तथा अग्र एवं पृष्ठ देखें) प्रत्येक आधा-आधा है, <math display="inline">p_X{(\text{H})} = p_X{(\text{T})} = \tfrac{1}{2} = 0.5</math>. वेरिएबल को हेड के रूप में [[ नमूनाकरण (सिग्नल प्रोसेसिंग) |नमूनाकरण (सिग्नल प्रोसेसिंग)]] करने पर, संबंधित सूचना प्राप्त होती है
<math display="block">\operatorname{I}_X(\text{H})
<math display="block">\operatorname{I}_X(\text{H})
  = -\log_2 {p_X{(\text{H})}}
  = -\log_2 {p_X{(\text{H})}}
  = -\log_2\!{\tfrac{1}{2}} = 1,</math>इसलिए हेड के रूप में उतरने वाले उचित सिक्के का सूचना लाभ 1 शैनन (इकाई) है।<ref name=":0" /> इसी तरह, पूंछ मापने की सूचना प्राप्त होती है <math>T</math> है<math display="block">\operatorname{I}_X(T)
  = -\log_2\!{\tfrac{1}{2}} = 1,</math>इसलिए हेड के रूप में उतरने वाले उचित सिक्के का सूचना निवेश  1 शैनन (इकाई) है।<ref name=":0" /> इसी तरह, पूंछ मापने की सूचना प्राप्त होती है <math>T</math> है<math display="block">\operatorname{I}_X(T)
  = -\log_2 {p_X{(\text{T})}}
  = -\log_2 {p_X{(\text{T})}}
  = -\log_2 {\tfrac{1}{2}} = 1 \text{ Sh}.</math>
  = -\log_2 {\tfrac{1}{2}} = 1 \text{ Sh}.</math>
=== [[निष्पक्ष पासा]] रोल ===
=== [[निष्पक्ष पासा]] रोल ===
मान लीजिए कि हमारे पास अच्छा पासा है|एक अच्छा छह तरफा पासा। पासा पलटने का मूल्य असतत समान वितरण है <math>X \sim \mathrm{DU}[1, 6]</math> संभाव्यता द्रव्यमान फलन  के साथ <math display="block">p_X(k) = \begin{cases}
मान लीजिए कि हमारे पास एक छह-तरफा पासा है। पासा पलटने का मान एक असतत एकसमान यादृच्छिक वैरिएबल<math>X \sim \mathrm{DU}[1, 6]</math> है  जिसमे  संभाव्यता द्रव्यमान फलन  '''के साथ'''  <math display="block">p_X(k) = \begin{cases}
\frac{1}{6}, & k \in \{1, 2, 3, 4, 5, 6\} \\
\frac{1}{6}, & k \in \{1, 2, 3, 4, 5, 6\} \\
0, & \text{otherwise}
0, & \text{otherwise}
\end{cases}</math>4 आने की प्रायिकता है <math display="inline">p_X(4) = \frac{1}{6}</math>, किसी भी अन्य वैध रोल की तरह। 4 को रोल करने की सूचना सामग्री इस प्रकार है<math display="block">\operatorname{I}_{X}(4) = -\log_2{p_X{(4)}}  
\end{cases}</math>किसी भी अन्य वैध रोल की तरह, 4 आने की प्रायिकता <math display="inline">p_X(4) = \frac{1}{6}</math> है , 4 को रोल करने की सूचना सामग्री इस प्रकार है<math display="block">\operatorname{I}_{X}(4) = -\log_2{p_X{(4)}}  
= -\log_2{\tfrac{1}{6}}  
= -\log_2{\tfrac{1}{6}}  
\approx 2.585\; \text{Sh}</math>सूचना की।
\approx 2.585\; \text{Sh}</math>सूचना की।


=== दो स्वतंत्र, समान रूप से वितरित पासे ===
=== दो स्वतंत्र, समान रूप से वितरित पासे ===
मान लीजिए कि हमारे पास दो स्वतंत्र और समान रूप से वितरित यादृच्छिक वेरिएबल हैं|स्वतंत्र, समान रूप से वितरित यादृच्छिक वेरिएबल <math display="inline">X,\, Y \sim \mathrm{DU}[1, 6]</math> प्रत्येक स्वतंत्र यादृच्छिक वेरिएबल के अनुरूप 6-पक्षीय पासा रोल। की [[संयुक्त संभाव्यता वितरण]] <math>X</math> और <math>Y</math> है<math display="block"> \begin{align}
मान लीजिए कि हमारे पास दो स्वतंत्र, समान रूप से वितरित यादृच्छिक वेरिएबल हैं <math display="inline">X,\, Y \sim \mathrm{DU}[1, 6]</math> प्रत्येक एक स्वतंत्र निष्पक्ष 6-पक्षीय पासा रोल के अनुरूप है। <math>X</math> और <math>Y</math> का [[संयुक्त संभाव्यता वितरण]] है<math display="block"> \begin{align}
  p_{X, Y}\!\left(x, y\right) & {} = \Pr(X = x,\, Y = y)  
  p_{X, Y}\!\left(x, y\right) & {} = \Pr(X = x,\, Y = y)  
  = p_X\!(x)\,p_Y\!(y) \\
  = p_X\!(x)\,p_Y\!(y) \\
Line 117: Line 119:
\end{align}
\end{align}
</math>
</math>
और स्वतंत्र घटनाओं की #Addivity द्वारा भी गणना की जा सकती है
और घटनाओं की संवेदनशीलता द्वारा भी गणना की जा सकती है<math display="block"> \begin{align}
<math display="block"> \begin{align}
\operatorname{I}_{X, Y}{(2, 4)}  
\operatorname{I}_{X, Y}{(2, 4)}  
  &= -\log_2\!{\left[p_{X,Y}{(2, 4)}\right]}
  &= -\log_2\!{\left[p_{X,Y}{(2, 4)}\right]}
Line 126: Line 127:
\end{align}
\end{align}
</math>
</math>
==== रोल की आवृत्ति से सूचना ====
==== रोल की आवृत्ति से सूचना ====
यदि हमें पासे के मूल्य के बारे में सूचना प्राप्त होती है, तो बारह गुना विधि #केस एफएक्स में किस पासे का कौन सा मूल्य था, हम तथाकथित गिनती वेरिएबल के साथ दृष्टिकोण को औपचारिक रूप दे सकते हैं
यदि हमें पासे के मूल्य के बारे में सुचना  मिलती है, बिना यह जाने कि किस पासे का मूल्य क्या है, तो हम तथाकथित गणना वेरिएबल के साथ दृष्टिकोण को औपचारिक बना सकते हैं
<math display="block"> C_k := \delta_k(X) + \delta_k(Y) = \begin{cases}  
<math display="block"> C_k := \delta_k(X) + \delta_k(Y) = \begin{cases}  
  0, & \neg\, (X = k \vee Y = k) \\
  0, & \neg\, (X = k \vee Y = k) \\
Line 148: Line 150:
इसे सत्यापित करने के लिए, 6 परिणाम <math display="inline">(X, Y) \in \left\{(k, k)\right\}_{k = 1}^{6} = \left\{
इसे सत्यापित करने के लिए, 6 परिणाम <math display="inline">(X, Y) \in \left\{(k, k)\right\}_{k = 1}^{6} = \left\{
  (1, 1), (2, 2), (3, 3), (4, 4), (5, 5), (6, 6)
  (1, 1), (2, 2), (3, 3), (4, 4), (5, 5), (6, 6)
\right\}</math> घटना के अनुरूप <math>C_k = 2</math> और की [[कुल संभावना]] {{Sfrac|6}}. ये एकमात्र ऐसी घटनाएँ हैं जिन्हें इस बात की पहचान के साथ ईमानदारी से संरक्षित किया गया है कि कौन सा पासा पलटा और कौन सा परिणाम निकला क्योंकि परिणाम समान हैं। अन्य संख्याओं को घुमाने वाले पासों को अलग करने के ज्ञान के बिना <math display="inline"> \binom{6}{2} = 15</math> [[संयोजन]] इस प्रकार हैं कि पासा संख्या को घुमाता है और दूसरा पासा अलग संख्या को घुमाता है, प्रत्येक की संभावना होती है {{Sfrac|18}}. वास्तव में, <math display="inline"> 6 \cdot \tfrac{1}{36} + 15 \cdot \tfrac{1}{18} = 1</math>, आवश्यकता अनुसार।
\right\}</math> घटना के अनुरूप <math>C_k = 2</math> और की [[कुल संभावना]] {{Sfrac|6}}. ये एकमात्र ऐसी घटनाएँ हैं जिन्हें इस संवाद  की पहचान के साथ निष्ठापूर्वक से संरक्षित किया गया है कि कौन सा पासा पलटा और कौन सा परिणाम निकला क्योंकि परिणाम समान हैं। अन्य संख्याओं को घुमाने वाले पासों को अलग करने के ज्ञान के बिना <math display="inline"> \binom{6}{2} = 15</math> [[संयोजन]] इस प्रकार हैं कि पासा संख्या को घुमाता है और दूसरा पासा अलग संख्या को घुमाता है, प्रत्येक की संभावना होती है {{Sfrac|18}}. वास्तव में, <math display="inline"> 6 \cdot \tfrac{1}{36} + 15 \cdot \tfrac{1}{18} = 1</math>, आवश्यकता अनुसार।


आश्चर्य की बात नहीं है कि सीखने की सूचना सामग्री कि दोनों पासों को ही विशेष संख्या के रूप में घुमाया गया था, सीखने की सूचना सामग्री से अधिक है कि पासा संख्या थी और दूसरा अलग संख्या थी। उदाहरण के लिए घटनाओं को लीजिए <math> A_k = \{(X, Y) = (k, k)\}</math> और <math> B_{j, k} = \{c_j = 1\} \cap \{c_k = 1\}</math> के लिए <math> j \ne k, 1 \leq j, k \leq 6</math>. उदाहरण के लिए, <math> A_2 = \{X = 2 \text{ and } Y = 2\}</math> और <math> B_{3, 4} = \{(3, 4), (4, 3)\}</math>.
आश्चर्य की बात नहीं है कि सीखने की सूचना सामग्री कि दोनों पासों को ही विशेष संख्या के रूप में घुमाया गया था, सीखने की सूचना सामग्री से अधिक है कि पासा संख्या थी और दूसरा अलग संख्या थी। उदाहरण के लिए घटनाओं को लीजिए <math> A_k = \{(X, Y) = (k, k)\}</math> और <math> B_{j, k} = \{c_j = 1\} \cap \{c_k = 1\}</math> के लिए <math> j \ne k, 1 \leq j, k \leq 6</math>. उदाहरण के लिए, <math> A_2 = \{X = 2 \text{ and } Y = 2\}</math> और <math> B_{3, 4} = \{(3, 4), (4, 3)\}</math>.
Line 157: Line 159:




होने देना <math display="inline"> \text{Same} = \bigcup_{i = 1}^{6}{A_i}</math> ऐसी घटना हो कि दोनों पासों का मूल्य समान हो और <math> \text{Diff} = \overline{\text{Same}}</math> ऐसा हो कि पासा अलग-अलग हो। तब <math display="inline"> \Pr(\text{Same}) = \tfrac{1}{6}</math> और <math display="inline"> \Pr(\text{Diff}) = \tfrac{5}{6}</math>. घटनाओं की सूचना सामग्री हैं
 
<math display="block"> \operatorname{I}(\text{Same}) = -\log_2\!{\tfrac{1}{6}} = 2.5849625 \text{ Sh}</math>
 
<math display="block"> \operatorname{I}(\text{Diff}) = -\log_2\!{\tfrac{5}{6}} = 0.2630344 \text{ Sh}.</math>
 
मान लीजिये  <math display="inline"> \text{Same} = \bigcup_{i = 1}^{6}{A_i}</math> ऐसी घटना हो कि दोनों पासों का मूल्य समान हो और <math> \text{Diff} = \overline{\text{Same}}</math> ऐसा हो कि पासा अलग-अलग हो। तब <math display="inline"> \Pr(\text{Same}) = \tfrac{1}{6}</math> और <math display="inline"> \Pr(\text{Diff}) = \tfrac{5}{6}</math>. घटनाओं की सूचना सामग्री हैं
<math display="block"> \operatorname{I}(\text{Same}) = -\log_2\!{\tfrac{1}{6}} = 2.5849625 \text{ Sh}</math><math display="block"> \operatorname{I}(\text{Diff}) = -\log_2\!{\tfrac{5}{6}} = 0.2630344 \text{ Sh}.</math>


==== पासे के योग से सूचना ====
==== पासे के योग से सूचना ====


स्वतंत्र यादृच्छिक चरों के योग का संभाव्यता द्रव्यमान या घनत्व फलन  (सामूहिक [[संभाव्यता माप]]) कनवल्शन#मापों का कनवल्शन। स्वतंत्र निष्पक्ष 6-पक्षीय पासा रोल के मामले में, यादृच्छिक वेरिएबल <math> Z = X + Y</math> संभाव्यता द्रव्यमान फलन है <math display="inline"> p_Z(z) = p_X(x) * p_Y(y) = {6 - |z - 7| \over 36} </math>, कहाँ <math> *</math> [[असतत कनवल्शन]] का प्रतिनिधित्व करता है। परिणाम (संभावना) <math> Z = 5 </math> संभावना है <math display="inline"> p_Z(5) = \frac{4}{36} = {1 \over 9} </math>. इसलिए, दावा की गई सूचना है<math display="block"> \operatorname{I}_Z(5) = -\log_2{\tfrac{1}{9}} = \log_2{9}
स्वतंत्र यादृच्छिक वेरिएबल  के योग का संभाव्यता द्रव्यमान या घनत्व फलन  (सामूहिक [[संभाव्यता माप]]) कनवल्शन या मापों का कनवल्शन है । स्वतंत्र निष्पक्ष 6-पक्षीय पासा रोल के मामले में, यादृच्छिक वेरिएबल <math> Z = X + Y</math> संभाव्यता द्रव्यमान फलन <math display="inline"> p_Z(z) = p_X(x) * p_Y(y) = {6 - |z - 7| \over 36} </math> है , जहाँ  <math> *</math> [[असतत कनवल्शन]] का प्रतिनिधित्व करता है। परिणाम (संभावना) <math> Z = 5 </math> की प्रायिकता <math display="inline"> p_Z(5) = \frac{4}{36} = {1 \over 9} </math> है. इसलिए, दावा की गई सूचना है<math display="block"> \operatorname{I}_Z(5) = -\log_2{\tfrac{1}{9}} = \log_2{9}
  \approx 3.169925 \text{ Sh}.  
  \approx 3.169925 \text{ Sh}.  
</math>
</math>
=== सामान्य असतत समान वितरण ===
=== सामान्य असतत समान वितरण ===


सामान्यीकरण करना {{Section link||Fair dice roll|nopage=y}} उपरोक्त उदाहरण में, सामान्य असतत समान यादृच्छिक वेरिएबल (DURV) पर विचार करें <math>X \sim \mathrm{DU}[a,b]; \quad a, b \in \mathbb{Z}, \ b \ge a.</math> सुविधा के लिए परिभाषित करें <math display="inline">N := b - a + 1</math>. प्रायिकता द्रव्यमान फलन है <math display="block">p_X(k) = \begin{cases}
सामान्यीकरण करना {{Section link||निष्पक्ष पासा पलटना|nopage=वाई}} उपरोक्त उदाहरण में, सामान्य असतत समान यादृच्छिक वेरिएबल (डीयूआरवी) पर विचार करें <math>X \sim \mathrm{DU}[a,b]; \quad a, b \in \mathbb{Z}, \ b \ge a.</math> सुविधा के लिए <math display="inline">N := b - a + 1</math> परिभाषित करें . प्रायिकता द्रव्यमान फलन है <math display="block">p_X(k) = \begin{cases}
  \frac{1}{N}, & k \in [a, b] \cap \mathbb{Z}  \\
  \frac{1}{N}, & k \in [a, b] \cap \mathbb{Z}  \\
  0,  & \text{otherwise}.
  0,  & \text{otherwise}.
\end{cases}</math>सामान्य तौर पर, DURV के मानों को [[पूर्णांक]] होने की आवश्यकता नहीं है, या सूचना सिद्धांत के प्रयोजनों के लिए समान रूप से अंतरित होने की भी आवश्यकता नहीं है; उन्हें केवल [[समसंभाव्य]] होने की आवश्यकता है।<ref name=":0" />किसी भी अवलोकन का सूचना लाभ <math>X = k</math> है<math display="block">\operatorname{I}_X(k) = -\log_2{\frac{1}{N}}  = \log_2{N} \text{ Sh}.</math>
\end{cases}</math>सामान्यतः  , डीयूआरवी    के मानों को [[पूर्णांक]] होने की आवश्यकता नहीं है, या सूचना सिद्धांत के प्रयोजनों के लिए समान रूप से अंतरित होने की भी आवश्यकता नहीं है; उन्हें केवल [[समसंभाव्य]] होने की आवश्यकता है।<ref name=":0" />किसी भी अवलोकन का सूचना निवेश  <math>X = k</math> है<math display="block">\operatorname{I}_X(k) = -\log_2{\frac{1}{N}}  = \log_2{N} \text{ Sh}.</math>
==== विशेष मामला: निरंतर यादृच्छिक चर ====
==== विशेष मामला: निरंतर यादृच्छिक चर ====
अगर <math>b = a</math> ऊपर, <math>X</math> नियतात्मक रूप से दिए गए संभाव्यता वितरण के साथ [[निरंतर यादृच्छिक चर|निरंतर यादृच्छिक]] वेरिएबल के लिए पतन (गणित)। <math>X = b</math> और संभाव्यता [[डिराक माप]] को मापती है <math display="inline">p_X(k) = \delta_{b}(k)</math>. एकमात्र मूल्य <math>X</math> [[नियतिवादी प्रणाली]] ले सकते हैं <math>b</math>, इसलिए किसी भी माप की सूचना सामग्री <math>X</math> है<math display="block">\operatorname{I}_X(b) = - \log_2{1} = 0.</math>सामान्य तौर पर, किसी ज्ञात मूल्य को मापने से कोई सूचना प्राप्त नहीं होती है।<ref name=":0" />
यदि    <math>b = a</math> ऊपर, <math>X</math> नियतात्मक रूप से दिए गए संभाव्यता वितरण के साथ [[निरंतर यादृच्छिक चर|निरंतर यादृच्छिक]] वेरिएबल के लिए पतन (गणित)। <math>X = b</math> और संभाव्यता [[डिराक माप]] <math display="inline">p_X(k) = \delta_{b}(k)</math> को मापती है . <math>X</math> एकमात्र मूल्य  [[नियतिवादी प्रणाली]] ले सकते हैं वह नियतात्मक रूप से <math>b</math>, है,  इसलिए <math>X</math> किसी भी माप की सूचना सामग्री  है<math display="block">\operatorname{I}_X(b) = - \log_2{1} = 0.</math>सामान्यतः, किसी ज्ञात मूल्य को मापने से कोई सूचना प्राप्त नहीं होती है।<ref name=":0" />
=== श्रेणीबद्ध वितरण ===
=== श्रेणीबद्ध वितरण ===
उपरोक्त सभी मामलों को सामान्यीकृत करते हुए, समर्थन (गणित) के साथ श्रेणीबद्ध वेरिएबल [[असतत यादृच्छिक चर|असतत यादृच्छिक]] वेरिएबल पर विचार करें <math display="inline">\mathcal{S} = \bigl\{s_i\bigr\}_{i=1}^{N}</math> और संभाव्यता द्रव्यमान फलन द्वारा दिया गया
उपरोक्त सभी स्तिथियों  को सामान्यीकृत करते हुए, <math display="inline">\mathcal{S} = \bigl\{s_i\bigr\}_{i=1}^{N}</math> के समर्थन (गणित) और दिए गए संभाव्यता द्रव्यमान फलन के साथ एक श्रेणीबद्ध [[असतत यादृच्छिक चर|असतत यादृच्छिक]] वेरिएबल पर विचार करें


<math display="block">p_X(k) = \begin{cases}
<math display="block">p_X(k) = \begin{cases}
Line 181: Line 185:
  \\ 0,  & \text{otherwise} .
  \\ 0,  & \text{otherwise} .
\end{cases}</math>
\end{cases}</math>
सूचना सिद्धांत के प्रयोजनों के लिए, मूल्य <math>s \in \mathcal{S}</math> [[संख्या]]एँ होना आवश्यक नहीं है; वे [[परिमित माप]] के माप स्थान पर कोई भी पारस्परिक रूप से अनन्य # संभाव्यता घटना (संभावना सिद्धांत) हो सकते हैं जो संभाव्यता माप के लिए [[सामान्यीकरण (सांख्यिकी)]] रहा है <math>p</math>. व्यापकता की हानि के बिना, हम मान सकते हैं कि सेट पर श्रेणीबद्ध वितरण समर्थित है <math display="inline">[N] = \left\{1, 2, \dots, N \right\}</math>; संभाव्यता सिद्धांत और इसलिए सूचना सिद्धांत के संदर्भ में गणितीय संरचना समरूपता है।
इस प्रकार से सूचना सिद्धांत के प्रयोजनों के लिए, <math>s \in \mathcal{S}</math> मूल्यों का [[संख्या]]एँ होना आवश्यक नहीं है; वे [[परिमित माप]] के माप स्थान पर कोई परस्पर अनन्य घटनाएँ हो सकते हैं जिन्हें संभाव्यता माप <math>p</math> के लिए सामान्यीकृत किया गया है, व्यापकता के नुकसान के बिना, हम मान सकते हैं कि श्रेणीबद्ध वितरण समुच्चय  <math display="inline">[N] = \left\{1, 2, \dots, N \right\}</math> पर समर्थित है, गणितीय संरचना संभाव्यता सिद्धांत के संदर्भ में आइसोमोर्फिक है और इसलिए सूचना सिद्धांत भी।


नतीजे की सूचना <math>X = x</math> दिया हुआ है
नतीजे की सूचना <math>X = x</math> दिया हुआ है


<math display="block">\operatorname{I}_X(x) = -\log_2{p_X(x)}.</math>
<math display="block">\operatorname{I}_X(x) = -\log_2{p_X(x)}.</math>
इन उदाहरणों से, सिग्मा एडिटिविटी द्वारा ज्ञात संभाव्यता वितरण के साथ स्वतंत्र यादृच्छिक वेरिएबल असतत यादृच्छिक वेरिएबल के किसी भी सेट की सूचना की गणना करना संभव है।
इन उदाहरणों से, सिग्मा एडिटिविटी द्वारा ज्ञात संभाव्यता वितरण के साथ स्वतंत्र यादृच्छिक वेरिएबल असतत यादृच्छिक वेरिएबल के किसी भी समुच्चय  की सूचना की गणना करना संभव है।


==व्युत्पत्ति==
==व्युत्पत्ति==
परिभाषा के अनुसार, सूचना रखने वाली मूल इकाई से सूचना प्राप्त करने वाली इकाई को तभी स्थानांतरित की जाती है, जब प्राप्तकर्ता को सूचना नहीं होती है। यदि प्राप्तकर्ता इकाई को संदेश प्राप्त करने से पहले संदेश की सामग्री निश्चित रूप से पता थी, तो प्राप्त संदेश की सूचना की मात्रा शून्य है। केवल तभी जब प्राप्तकर्ता को संदेश की सामग्री का अग्रिम ज्ञान 100% से कम हो, तभी संदेश वास्तव में सूचना संप्रेषित करता है।
परिभाषा के अनुसार, सूचना रखने वाली मूल इकाई से सूचना प्राप्त करने वाली इकाई को तभी स्थानांतरित की जाती है, जब प्राप्तकर्ता को सूचना नहीं होती है। यदि प्राप्तकर्ता इकाई को संदेश प्राप्त करने से पहले संदेश की सामग्री निश्चित रूप से पता थी, तो प्राप्त संदेश की सूचना की मात्रा शून्य है। केवल तभी जब प्राप्तकर्ता को संदेश की सामग्री का अग्रिम ज्ञान 100% से कम हो, तभी संदेश वास्तव में सूचना संप्रेषित करता है।


उदाहरण के लिए, हास्य अभिनेता [[जॉर्ज कार्लिन]] के चरित्र (हिप्पी डिप्पी वेदरमैन) को उद्धृत करते हुए, आज रात के लिए मौसम का पूर्वानुमान: अंधेरा। रात भर अंधेरा जारी रहा, सुबह तक रोशनी व्यापक रूप से बिखरी हुई थी।<ref>{{Cite web|title=जॉर्ज कार्लिन का एक उद्धरण|url=https://www.goodreads.com/quotes/94336-weather-forecast-for-tonight-dark-continued-dark-overnight-with-widely|access-date=2021-04-01|website=www.goodreads.com}}</ref> यह मानते हुए कि कोई व्यक्ति [[पृथ्वी के ध्रुवीय क्षेत्र]]ों के निकट नहीं रहता है, उस पूर्वानुमान में बताई गई सूचना की मात्रा शून्य है क्योंकि पूर्वानुमान प्राप्त होने से पहले ही यह ज्ञात होता है कि अंधेरा हमेशा रात के साथ आता है।
इस प्रकार से उदाहरण के लिए, हास्य अभिनेता [[जॉर्ज कार्लिन]] के चरित्र (हिप्पी डिप्पी वेदरमैन) को उद्धृत करते हुए, आज रात के लिए मौसम का पूर्वानुमान: अंधेरा। रात भर अंधेरा प्रवाहित रहा, सुबह तक प्रकाश  व्यापक रूप से फैली  हुई थी।<ref>{{Cite web|title=जॉर्ज कार्लिन का एक उद्धरण|url=https://www.goodreads.com/quotes/94336-weather-forecast-for-tonight-dark-continued-dark-overnight-with-widely|access-date=2021-04-01|website=www.goodreads.com}}</ref> यह मानते हुए कि कोई व्यक्ति [[पृथ्वी के ध्रुवीय क्षेत्र]] के निकट नहीं रहता है, उस पूर्वानुमान में दर्शायी  गई सूचना की मात्रा शून्य है क्योंकि पूर्वानुमान प्राप्त होने से पहले ही यह ज्ञात होता है कि अंधेरा सदैव  रात के साथ आता है।


तदनुसार, किसी घटना की घटना (संभावना सिद्धांत) को सूचित करने वाली सामग्री को संदेश देने वाले संदेश में निहित स्व-सूचना की मात्रा, <math>\omega_n</math>, केवल उस घटना की संभावना पर निर्भर करता है।
तदनुसार, किसी घटना की घटना (संभावना सिद्धांत) को सूचित करने वाली सामग्री को संदेश देने वाले संदेश में निहित स्व-सूचना की मात्रा, <math>\omega_n</math>, केवल उस घटना की संभावना पर निर्भर करता है।


<math display="block">\operatorname I(\omega_n) = f(\operatorname P(\omega_n)) </math>
<math display="block">\operatorname I(\omega_n) = f(\operatorname P(\omega_n)) </math>
किसी समारोह के लिए <math>f(\cdot)</math> नीचे निर्धारित किया जाएगा. अगर <math>\operatorname P(\omega_n) = 1</math>, तब <math>\operatorname I(\omega_n) = 0</math>. अगर <math>\operatorname P(\omega_n) < 1</math>, तब <math>\operatorname I(\omega_n) > 0</math>.
किसी फलन  के लिए <math>f(\cdot)</math> नीचे निर्धारित किया जाएगा. यदि    <math>\operatorname P(\omega_n) = 1</math>, तब <math>\operatorname I(\omega_n) = 0</math>. यदि    <math>\operatorname P(\omega_n) < 1</math>, तब <math>\operatorname I(\omega_n) > 0</math>.  


इसके अलावा, परिभाषा के अनुसार, आत्म-सूचना का माप (गणित) गैर-नकारात्मक और योगात्मक है। यदि कोई संदेश घटना की सूचना देता है <math>C</math> दो [[सांख्यिकीय स्वतंत्रता]] घटनाओं का प्रतिच्छेदन है <math>A</math> और <math>B</math>, फिर घटना की सूचना <math>C</math> घटित होना दोनों स्वतंत्र घटनाओं के मिश्रित संदेश का है <math>A</math> और <math>B</math> घटित हो रहा है. मिश्रित संदेश की सूचना की मात्रा <math>C</math> व्यक्तिगत घटक संदेशों की सूचना की मात्रा के योग के बराबर होने की उम्मीद की जाएगी <math>A</math> और <math>B</math> क्रमश:
इसके अतिरिक्त , परिभाषा के अनुसार, आत्म-सूचना का माप (गणित) गैर-नकारात्मक और योगात्मक है। यदि घटना <math>C</math> की सूचना देने वाला संदेश दो [[सांख्यिकीय स्वतंत्रता]] घटनाओं <math>A</math> और <math>B</math> का प्रतिच्छेदन है, तो घटना <math>C</math> की सूचना घटित होने वाली दोनों स्वतंत्र घटनाओं <math>A</math> और <math>B</math> के मिश्रित संदेश की है। मिश्रित संदेश <math>C</math> की सूचना की मात्रा क्रमशः व्यक्तिगत घटक संदेश <math>A</math> और <math>B</math> की सूचना की मात्रा के समान  होने की आशा की जाएगी:
<math display="block">\operatorname I(C) = \operatorname I(A \cap B) = \operatorname I(A) + \operatorname I(B).</math>
<math display="block">\operatorname I(C) = \operatorname I(A \cap B) = \operatorname I(A) + \operatorname I(B).</math>
घटनाओं की स्वतंत्रता के कारण <math>A</math> और <math>B</math>, घटना की संभावना <math>C</math> है
'''घटनाओं की स्वतंत्रता के कारण''' <math>A</math> और <math>B</math>, घटना की संभावना <math>C</math> है
<math display="block">\operatorname P(C) = \operatorname P(A \cap B) = \operatorname P(A) \cdot \operatorname P(B).</math>
<math display="block">\operatorname P(C) = \operatorname P(A \cap B) = \operatorname P(A) \cdot \operatorname P(B).</math>
हालाँकि, फलन  लागू करना <math>f(\cdot)</math> का परिणाम
हालाँकि, फलन  लागू करना <math>f(\cdot)</math> का परिणाम
Line 213: Line 217:


<math display="block">f(x) = K \log(x)</math>
<math display="block">f(x) = K \log(x)</math>
कहाँ <math>\log</math> [[प्राकृतिक]] लघुगणक है. चूँकि घटनाओं की संभावनाएँ हमेशा 0 और 1 के मध्य  होती हैं और इन घटनाओं से जुड़ी सूचना गैर-नकारात्मक होनी चाहिए, इसके लिए यह आवश्यक है <math>K<0</math>.
जहाँ  <math>\log</math> [[प्राकृतिक]] लघुगणक है. चूँकि घटनाओं की संभावनाएँ हमेशा 0 और 1 के मध्य  होती हैं और इन घटनाओं से जुड़ी सूचना गैर-नकारात्मक होनी चाहिए, इसके लिए यह आवश्यक है <math>K<0</math>.


इन गुणों को ध्यान में रखते हुए, आत्म-सूचना <math>\operatorname I(\omega_n)</math> परिणाम से सम्बंधित <math>\omega_n</math> संभाव्यता के साथ <math>\operatorname P(\omega_n)</math> परिभाषित किया जाता है:
इन गुणों को ध्यान में रखते हुए, आत्म-सूचना <math>\operatorname I(\omega_n)</math> परिणाम से सम्बंधित <math>\omega_n</math> संभाव्यता के साथ <math>\operatorname P(\omega_n)</math> परिभाषित किया जाता है:
Line 219: Line 223:
घटना की संभावना उतनी ही कम होगी <math>\omega_n</math>, संदेश से जुड़ी आत्म-सूचना की मात्रा जितनी अधिक होगी कि घटना वास्तव में घटित हुई। यदि उपरोक्त लघुगणक आधार 2 है, तो की इकाई <math> I(\omega_n)</math> [[ अंश |अंश]] ्स है. यह सबसे आम प्रथा है. आधार के प्राकृतिक लघुगणक का उपयोग करते समय <math> e</math>, इकाई नेट (इकाई) होगी। आधार 10 लघुगणक के लिए, सूचना की इकाई हार्टले (इकाई) है।
घटना की संभावना उतनी ही कम होगी <math>\omega_n</math>, संदेश से जुड़ी आत्म-सूचना की मात्रा जितनी अधिक होगी कि घटना वास्तव में घटित हुई। यदि उपरोक्त लघुगणक आधार 2 है, तो की इकाई <math> I(\omega_n)</math> [[ अंश |अंश]] ्स है. यह सबसे आम प्रथा है. आधार के प्राकृतिक लघुगणक का उपयोग करते समय <math> e</math>, इकाई नेट (इकाई) होगी। आधार 10 लघुगणक के लिए, सूचना की इकाई हार्टले (इकाई) है।


एक त्वरित उदाहरण के रूप में, सिक्के के लगातार 4 उछाल में 4 चित (या किसी विशिष्ट परिणाम) के परिणाम से जुड़ी सूचना सामग्री 4 बिट्स (संभावना 1/16) होगी, और परिणाम प्राप्त करने से जुड़ी सूचना सामग्री इसके अलावा होगी निर्दिष्ट ~0.09 बिट्स (संभावना 15/16) होगा। विस्तृत उदाहरणों के लिए ऊपर देखें।
एक त्वरित उदाहरण के रूप में, सिक्के के लगातार 4 उछाल में 4 चित (या किसी विशिष्ट परिणाम) के परिणाम से जुड़ी सूचना सामग्री 4 बिट्स (संभावना 1/16) होगी, और परिणाम प्राप्त करने से जुड़ी सूचना सामग्री इसके अतिरिक्त  होगी निर्दिष्ट ~0.09 बिट्स (संभावना 15/16) होगा। विस्तृत उदाहरणों के लिए ऊपर देखें।


== यह भी देखें ==
== यह भी देखें ==

Revision as of 10:28, 16 July 2023

सूचना सिद्धांत में, सूचना सामग्री, आत्म-सूचना, आश्चर्य, या शैनन सूचना यादृच्छिक वेरिएबल से होने वाली किसी विशेष घटना (संभावना सिद्धांत) की संभावना से प्राप्त मूल मात्रा है। इसे संभावना व्यक्त करने के वैकल्पिक विधि के रूप में विचार किया जा सकता है, सामान्य अनेक कठिनाइयाँ या लॉग-बाधाओं की तरह, किन्तु सूचना सिद्धांत की समुच्चय िंग में इसके विशेष गणितीय निवेश कारक हैं।

इस प्रकार से शैनन सूचना की व्याख्या किसी विशेष परिणाम के आश्चर्य के स्तर को मापने के रूप में की जा सकती है। चूंकि यह इतनी मूलभूत मात्रा है, यह कई अन्य समुच्चय िंग्स में भी दिखाई देती है, जैसे यादृच्छिक वेरिएबल के इष्टतम शैनन के स्रोत कोडिंग प्रमेय को देखते हुए घटना को प्रसारित करने के लिए आवश्यक संदेश की लंबाई को दर्शाया गया है ।

शैनन की सूचना एंट्रॉपी (सूचना सिद्धांत) से निकटता से संबंधित है, जो यादृच्छिक वेरिएबल की आत्म-सूचना का अपेक्षित मूल्य है, जो यह निर्धारित करती है कि यादृच्छिक वेरिएबल औसतन कितना आश्चर्यजनक है। यह आत्म-सूचना की वह औसत मात्रा है जो पर्यवेक्षक किसी यादृच्छिक वेरिएबल को मापते समय उसके बारे में प्राप्त करने की अपेक्षा करता है।[1]

अतः सूचना सामग्री को सूचना की विभिन्न इकाइयों में व्यक्त किया जा सकता है, जिनमें से अधिक समान बिट (अधिक सही रूप से शैनन कहा जाता है) है, जैसा कि नीचे बताया गया है।

परिभाषा

क्लाउड शैनन की आत्म-सूचना की परिभाषा को कई सिद्धांतों को पूरा करने के लिए चुना गया था:

  1. 100% संभावना वाली घटना पूर्ण प्रकार से आश्चर्यजनक है और कोई सूचना नहीं देती है।
  2. अनेक घटना जितनी कम संभावित होती है, वह उतनी ही अधिक आश्चर्यजनक होती है और उतनी ही अधिक सूचना देती है।
  3. यदि दो स्वतंत्र घटनाओं को अलग-अलग मापा जाता है, तो सूचना की कुल मात्रा व्यक्तिगत घटनाओं की स्वयं-सूचना का योग है।

इस प्रकार से विस्तृत व्युत्पत्ति नीचे है, किन्तु यह दिखाया जा सकता है कि संभाव्यता का अनूठा कार्य है जो गुणक स्केलिंग कारक तक, इन तीन सिद्धांतों को पूरा करता है। सामान्यतः , वास्तविक संख्या दी गई है और घटना (संभावना सिद्धांत) संभाव्यता के साथ , सूचना सामग्री को इस प्रकार परिभाषित किया गया है:

आधार b उपरोक्त स्केलिंग कारक से मेल खाता है। b के विभिन्न विकल्प सूचना की विभिन्न इकाइयों के अनुरूप हैं: जब b = 2, इकाई शैनन (इकाई) (प्रतीक श) है, जिसे प्रायः 'बिट' कहा जाता है; जब b = e, इकाई नेट (इकाई) (प्रतीक नेट) है; और जब b = 10, इकाई हार्टले (इकाई) (प्रतीक हार्ट) है।

औपचारिक रूप से, यादृच्छिक वेरिएबल दिया गया है संभाव्यता द्रव्यमान फलन के साथ , मापने की स्व-सूचना परिणाम के रूप में (संभावना) परिभाषित किया जाता है[2]

इस प्रकार से उपरोक्त स्व-सूचना के लिए अंकन का उपयोग सार्वभौमिक नहीं है। चूंकि संकेतन का उपयोग प्रायः पारस्परिक सूचना की संबंधित मात्रा के लिए भी किया जाता है, कई लेखक इसके अतिरिक्त स्व-एन्ट्रॉपी के लिए लोअरकेस का उपयोग करते हैं, जो एन्ट्रॉपी के लिए पूंजी के उपयोग को प्रतिबिंबित करता है।

गुण

संभाव्यता का नीरस रूप से घटता हुआ कार्य

किसी दिए गए संभाव्यता स्थान के लिए, दुर्लभ घटना (संभावना सिद्धांत) का माप सहज रूप से अधिक आश्चर्यजनक है, और अधिक सामान्य मूल्यों की तुलना में अधिक सूचना सामग्री प्रदान करता है। इस प्रकार, स्व-सूचना संभाव्यता का मोनोटोनिक फलन है, या कभी-कभी इसे एंटीटोनिक फलन भी कहा जाता है।

जबकि मानक संभावनाओं को अंतराल में वास्तविक संख्याओं द्वारा दर्शाया जाता है , आत्म-सूचना को अंतराल में विस्तारित वास्तविक संख्याओं द्वारा दर्शाया जाता है . विशेष रूप से, लघुगणकीय आधार के किसी भी विकल्प के लिए हमारे पास निम्नलिखित हैं:

  • यदि किसी विशेष घटना के घटित होने की 100% संभावना हो तो उसकी स्व-सूचना होती है : इसकी घटना बिल्कुल गैर-आश्चर्यजनक है और इससे कोई सूचना नहीं मिलती है।
  • यदि किसी विशेष घटना के घटित होने की संभावना 0% है, तो उसकी स्व-सूचना है : इसकी घटना असीम रूप से आश्चर्यजनक है।

इससे, हम कुछ सामान्य गुण प्राप्त कर सकते हैं:

  • सहज रूप से, किसी अप्रत्याशित घटना को देखने से अधिक सूचना प्राप्त होती है—यह आश्चर्यजनक है।
    • उदाहरण के लिए, यदि ऐलिस के लॉटरी जीतने की लाखों में से संभावना है, तो उसके दोस्त बॉब को यह जानने से लिए अधिक सूचना प्राप्त होगी कि उसने लॉटरी जीती है, अतिरिक्त इसके कि वह लॉटरी जीत गई है। निश्चित दिन. (लॉटरी गणित भी देखें।)
  • यह यादृच्छिक वेरिएबल की आत्म-सूचना और उसके विचरण के मध्य अंतर्निहित संबंध स्थापित करता है।

लॉग-ऑड्स से संबंध

चूंकि शैनन सूचना लॉग-ऑड्स से निकटता से संबंधित है। विशेष रूप से, किसी घटना को देखते हुए , मान लीजिये कि की प्रायिकता है घटित हो रहा है, और वह की सम्भावना है घटित नहीं हो रहा है. फिर हमारे पास लॉग-ऑड्स की निम्नलिखित परिभाषा है:

इसे दो शैनन सूचनाओं के अंतर के रूप में व्यक्त किया जा सकता है:
दूसरे शब्दों में, लॉग-ऑड्स की व्याख्या उस समय आश्चर्य के स्तर के रूप में की जा सकती है जब घटना नहीं होती है, घटना के घटित होने पर आश्चर्य के स्तर को घटा दिया जाता है।

स्वतंत्र घटनाओं की संयोजकता

दो स्वतंत्र घटनाओं की सूचना सामग्री प्रत्येक घटना की सूचना सामग्री का योग है। इस गुण को गणित में सिग्मा एडिटिविटी और विशेष रूप से माप (गणित)और संभाव्यता सिद्धांत में सिग्मा एडिटिविटी के रूप में जाना जाता है। संभाव्यता द्रव्यमान फलन क्रमशः और के साथ स्वतंत्र यादृच्छिक वेरिएबल पर विचार करें। संयुक्त संभाव्यता द्रव्यमान फलन है

क्योंकि और स्वतंत्रता (संभावना सिद्धांत) हैं। परिणाम की सूचना सामग्री (संभावना) है
देखना§ दो स्वतंत्र, समान रूप से वितरित पासे उदाहरण के लिए नीचे।

इस प्रकार से संभावनाओं के लिए संबंधित संपत्ति यह है कि स्वतंत्र घटनाओं की लॉग-संभावना प्रत्येक घटना की लॉग-संभावनाओं का योग है। लॉग-संभावना को समर्थन या नकारात्मक आश्चर्य के रूप में व्याख्या करना (वह डिग्री जिस तक कोई घटना किसी दिए गए मॉडल का समर्थन करती है: मॉडल को किसी घटना द्वारा इस सीमा तक समर्थित किया जाता है कि घटना अप्रत्याशित है, मॉडल को देखते हुए), यह दर्शाता है कि स्वतंत्र घटनाएं समर्थन जोड़ती हैं: दो घटनाएँ मिलकर सांख्यिकीय अनुमान के लिए जो सूचना प्रदान करती हैं, वह उनकी स्वतंत्र सूचना का योग है।

एंट्रॉपी से संबंध

यादृच्छिक वेरिएबल की शैनन एन्ट्रापी उपरोक्त को इस प्रकार परिभाषित किया गया है

अतः परिभाषा के अनुसार अपेक्षित मूल्य की माप की सूचना सामग्री के समान .[3]: 11 [4]: 19–20 

अपेक्षा को इसके समर्थन (गणित) पर असतत यादृच्छिक वेरिएबल पर लिया जाता है।

कभी-कभी, एन्ट्रापी को ही यादृच्छिक वेरिएबल की स्व-सूचना कहा जाता है, संभवतः इसलिए क्योंकि एन्ट्रापी संतुष्ट करती है , जहाँ की पारस्परिक सूचना है[5]

सतत यादृच्छिक वेरिएबल के लिए संबंधित अवधारणा विभेदक एन्ट्रापी है।

टिप्पणियाँ

इस उपाय को आश्चर्य भी कहा गया है, क्योंकि यह परिणाम देखने के "आश्चर्य" का प्रतिनिधित्व करता है (एक अत्यधिक असंभव परिणाम बहुत आश्चर्यजनक है)। यह शब्द (लॉग-प्रायिकता माप के रूप में) मायरोन ट्रिबस द्वारा उनकी 1961 की पुस्तक थर्मोस्टैटिक्स और थर्मोडायनामिक्स में गढ़ा गया था।.[6][7]

जब घटना एक यादृच्छिक अहसास (एक वेरिएबल का) होती है तो वेरिएबल की आत्म-सूचना को अहसास की आत्म-सूचना के अपेक्षित मूल्य के रूप में परिभाषित किया जाता है।

स्व-सूचना उचित स्कोरिंग नियम का एक उदाहरण है

उदाहरण

निष्पक्ष कॉइन टॉस

सिक्का उछालने के बर्नौली परीक्षण पर विचार करें . सिक्के के शीर्ष के रूप में उतरने की घटना की संभावना (संभावना सिद्धांत)। और पट (निष्पक्ष सिक्का तथा अग्र एवं पृष्ठ देखें) प्रत्येक आधा-आधा है, . वेरिएबल को हेड के रूप में नमूनाकरण (सिग्नल प्रोसेसिंग) करने पर, संबंधित सूचना प्राप्त होती है

इसलिए हेड के रूप में उतरने वाले उचित सिक्के का सूचना निवेश 1 शैनन (इकाई) है।[2] इसी तरह, पूंछ मापने की सूचना प्राप्त होती है है

निष्पक्ष पासा रोल

मान लीजिए कि हमारे पास एक छह-तरफा पासा है। पासा पलटने का मान एक असतत एकसमान यादृच्छिक वैरिएबल है जिसमे संभाव्यता द्रव्यमान फलन के साथ

किसी भी अन्य वैध रोल की तरह, 4 आने की प्रायिकता है , 4 को रोल करने की सूचना सामग्री इस प्रकार है
सूचना की।

दो स्वतंत्र, समान रूप से वितरित पासे

मान लीजिए कि हमारे पास दो स्वतंत्र, समान रूप से वितरित यादृच्छिक वेरिएबल हैं प्रत्येक एक स्वतंत्र निष्पक्ष 6-पक्षीय पासा रोल के अनुरूप है। और का संयुक्त संभाव्यता वितरण है

यादृच्छिक वेरिएबल की सूचना सामग्री है
और घटनाओं की संवेदनशीलता द्वारा भी गणना की जा सकती है

रोल की आवृत्ति से सूचना

यदि हमें पासे के मूल्य के बारे में सुचना मिलती है, बिना यह जाने कि किस पासे का मूल्य क्या है, तो हम तथाकथित गणना वेरिएबल के साथ दृष्टिकोण को औपचारिक बना सकते हैं

के लिए , तब और गिनती में बहुपद वितरण होता है
इसे सत्यापित करने के लिए, 6 परिणाम घटना के अनुरूप और की कुल संभावना 1/6. ये एकमात्र ऐसी घटनाएँ हैं जिन्हें इस संवाद की पहचान के साथ निष्ठापूर्वक से संरक्षित किया गया है कि कौन सा पासा पलटा और कौन सा परिणाम निकला क्योंकि परिणाम समान हैं। अन्य संख्याओं को घुमाने वाले पासों को अलग करने के ज्ञान के बिना संयोजन इस प्रकार हैं कि पासा संख्या को घुमाता है और दूसरा पासा अलग संख्या को घुमाता है, प्रत्येक की संभावना होती है 1/18. वास्तव में, , आवश्यकता अनुसार।

आश्चर्य की बात नहीं है कि सीखने की सूचना सामग्री कि दोनों पासों को ही विशेष संख्या के रूप में घुमाया गया था, सीखने की सूचना सामग्री से अधिक है कि पासा संख्या थी और दूसरा अलग संख्या थी। उदाहरण के लिए घटनाओं को लीजिए और के लिए . उदाहरण के लिए, और .

सूचना सामग्री हैं



मान लीजिये ऐसी घटना हो कि दोनों पासों का मूल्य समान हो और ऐसा हो कि पासा अलग-अलग हो। तब और . घटनाओं की सूचना सामग्री हैं

पासे के योग से सूचना

स्वतंत्र यादृच्छिक वेरिएबल के योग का संभाव्यता द्रव्यमान या घनत्व फलन (सामूहिक संभाव्यता माप) कनवल्शन या मापों का कनवल्शन है । स्वतंत्र निष्पक्ष 6-पक्षीय पासा रोल के मामले में, यादृच्छिक वेरिएबल संभाव्यता द्रव्यमान फलन है , जहाँ असतत कनवल्शन का प्रतिनिधित्व करता है। परिणाम (संभावना) की प्रायिकता है. इसलिए, दावा की गई सूचना है

सामान्य असतत समान वितरण

सामान्यीकरण करना § निष्पक्ष पासा पलटना उपरोक्त उदाहरण में, सामान्य असतत समान यादृच्छिक वेरिएबल (डीयूआरवी) पर विचार करें सुविधा के लिए परिभाषित करें . प्रायिकता द्रव्यमान फलन है

सामान्यतः , डीयूआरवी के मानों को पूर्णांक होने की आवश्यकता नहीं है, या सूचना सिद्धांत के प्रयोजनों के लिए समान रूप से अंतरित होने की भी आवश्यकता नहीं है; उन्हें केवल समसंभाव्य होने की आवश्यकता है।[2]किसी भी अवलोकन का सूचना निवेश है

विशेष मामला: निरंतर यादृच्छिक चर

यदि ऊपर, नियतात्मक रूप से दिए गए संभाव्यता वितरण के साथ निरंतर यादृच्छिक वेरिएबल के लिए पतन (गणित)। और संभाव्यता डिराक माप को मापती है . एकमात्र मूल्य नियतिवादी प्रणाली ले सकते हैं वह नियतात्मक रूप से , है, इसलिए किसी भी माप की सूचना सामग्री है

सामान्यतः, किसी ज्ञात मूल्य को मापने से कोई सूचना प्राप्त नहीं होती है।[2]

श्रेणीबद्ध वितरण

उपरोक्त सभी स्तिथियों को सामान्यीकृत करते हुए, के समर्थन (गणित) और दिए गए संभाव्यता द्रव्यमान फलन के साथ एक श्रेणीबद्ध असतत यादृच्छिक वेरिएबल पर विचार करें

इस प्रकार से सूचना सिद्धांत के प्रयोजनों के लिए, मूल्यों का संख्याएँ होना आवश्यक नहीं है; वे परिमित माप के माप स्थान पर कोई परस्पर अनन्य घटनाएँ हो सकते हैं जिन्हें संभाव्यता माप के लिए सामान्यीकृत किया गया है, व्यापकता के नुकसान के बिना, हम मान सकते हैं कि श्रेणीबद्ध वितरण समुच्चय पर समर्थित है, गणितीय संरचना संभाव्यता सिद्धांत के संदर्भ में आइसोमोर्फिक है और इसलिए सूचना सिद्धांत भी।

नतीजे की सूचना दिया हुआ है

इन उदाहरणों से, सिग्मा एडिटिविटी द्वारा ज्ञात संभाव्यता वितरण के साथ स्वतंत्र यादृच्छिक वेरिएबल असतत यादृच्छिक वेरिएबल के किसी भी समुच्चय की सूचना की गणना करना संभव है।

व्युत्पत्ति

परिभाषा के अनुसार, सूचना रखने वाली मूल इकाई से सूचना प्राप्त करने वाली इकाई को तभी स्थानांतरित की जाती है, जब प्राप्तकर्ता को सूचना नहीं होती है। यदि प्राप्तकर्ता इकाई को संदेश प्राप्त करने से पहले संदेश की सामग्री निश्चित रूप से पता थी, तो प्राप्त संदेश की सूचना की मात्रा शून्य है। केवल तभी जब प्राप्तकर्ता को संदेश की सामग्री का अग्रिम ज्ञान 100% से कम हो, तभी संदेश वास्तव में सूचना संप्रेषित करता है।

इस प्रकार से उदाहरण के लिए, हास्य अभिनेता जॉर्ज कार्लिन के चरित्र (हिप्पी डिप्पी वेदरमैन) को उद्धृत करते हुए, आज रात के लिए मौसम का पूर्वानुमान: अंधेरा। रात भर अंधेरा प्रवाहित रहा, सुबह तक प्रकाश व्यापक रूप से फैली हुई थी।[8] यह मानते हुए कि कोई व्यक्ति पृथ्वी के ध्रुवीय क्षेत्र के निकट नहीं रहता है, उस पूर्वानुमान में दर्शायी गई सूचना की मात्रा शून्य है क्योंकि पूर्वानुमान प्राप्त होने से पहले ही यह ज्ञात होता है कि अंधेरा सदैव रात के साथ आता है।

तदनुसार, किसी घटना की घटना (संभावना सिद्धांत) को सूचित करने वाली सामग्री को संदेश देने वाले संदेश में निहित स्व-सूचना की मात्रा, , केवल उस घटना की संभावना पर निर्भर करता है।

किसी फलन के लिए नीचे निर्धारित किया जाएगा. यदि , तब . यदि , तब .

इसके अतिरिक्त , परिभाषा के अनुसार, आत्म-सूचना का माप (गणित) गैर-नकारात्मक और योगात्मक है। यदि घटना की सूचना देने वाला संदेश दो सांख्यिकीय स्वतंत्रता घटनाओं और का प्रतिच्छेदन है, तो घटना की सूचना घटित होने वाली दोनों स्वतंत्र घटनाओं और के मिश्रित संदेश की है। मिश्रित संदेश की सूचना की मात्रा क्रमशः व्यक्तिगत घटक संदेश और की सूचना की मात्रा के समान होने की आशा की जाएगी:

घटनाओं की स्वतंत्रता के कारण और , घटना की संभावना है
हालाँकि, फलन लागू करना का परिणाम
कॉची के कार्यात्मक समीकरण पर काम करने के लिए धन्यवाद, एकमात्र मोनोटोन कार्य ऐसी संपत्ति होना
लघुगणक फलन हैं . विभिन्न आधारों के लघुगणक के मध्य एकमात्र परिचालन अंतर अलग-अलग स्केलिंग स्थिरांक का है, इसलिए हम मान सकते हैं

जहाँ प्राकृतिक लघुगणक है. चूँकि घटनाओं की संभावनाएँ हमेशा 0 और 1 के मध्य होती हैं और इन घटनाओं से जुड़ी सूचना गैर-नकारात्मक होनी चाहिए, इसके लिए यह आवश्यक है .

इन गुणों को ध्यान में रखते हुए, आत्म-सूचना परिणाम से सम्बंधित संभाव्यता के साथ परिभाषित किया जाता है:

घटना की संभावना उतनी ही कम होगी , संदेश से जुड़ी आत्म-सूचना की मात्रा जितनी अधिक होगी कि घटना वास्तव में घटित हुई। यदि उपरोक्त लघुगणक आधार 2 है, तो की इकाई अंश ्स है. यह सबसे आम प्रथा है. आधार के प्राकृतिक लघुगणक का उपयोग करते समय , इकाई नेट (इकाई) होगी। आधार 10 लघुगणक के लिए, सूचना की इकाई हार्टले (इकाई) है।

एक त्वरित उदाहरण के रूप में, सिक्के के लगातार 4 उछाल में 4 चित (या किसी विशिष्ट परिणाम) के परिणाम से जुड़ी सूचना सामग्री 4 बिट्स (संभावना 1/16) होगी, और परिणाम प्राप्त करने से जुड़ी सूचना सामग्री इसके अतिरिक्त होगी निर्दिष्ट ~0.09 बिट्स (संभावना 15/16) होगा। विस्तृत उदाहरणों के लिए ऊपर देखें।

यह भी देखें

संदर्भ

  1. Jones, D.S., Elementary Information Theory, Vol., Clarendon Press, Oxford pp 11–15 1979
  2. 2.0 2.1 2.2 2.3 McMahon, David M. (2008). क्वांटम कंप्यूटिंग की व्याख्या. Hoboken, NJ: Wiley-Interscience. ISBN 9780470181386. OCLC 608622533.
  3. Borda, Monica (2011). सूचना सिद्धांत और कोडिंग में बुनियादी बातें. Springer. ISBN 978-3-642-20346-6.
  4. Han, Te Sun; Kobayashi, Kingo (2002). सूचना और कोडिंग का गणित. American Mathematical Society. ISBN 978-0-8218-4256-0.
  5. Thomas M. Cover, Joy A. Thomas; Elements of Information Theory; p. 20; 1991.
  6. R. B. Bernstein and R. D. Levine (1972) "Entropy and Chemical Change. I. Characterization of Product (and Reactant) Energy Distributions in Reactive Molecular Collisions: Information and Entropy Deficiency", The Journal of Chemical Physics 57, 434–449 link.
  7. Myron Tribus (1961) Thermodynamics and Thermostatics: An Introduction to Energy, Information and States of Matter, with Engineering Applications (D. Van Nostrand, 24 West 40 Street, New York 18, New York, U.S.A) Tribus, Myron (1961), pp. 64–66 borrow.
  8. "जॉर्ज कार्लिन का एक उद्धरण". www.goodreads.com. Retrieved 2021-04-01.

अग्रिम पठन

बाहरी संबंध