जानकारी सामग्री: Difference between revisions
(Created page with "{{short description|Basic quantity derived from the probability of a particular event occurring from a random variable}} {{cleanup|reason=unclear terminology|date=June 2017}}...") |
No edit summary |
||
Line 1: | Line 1: | ||
{{short description|Basic quantity derived from the probability of a particular event occurring from a random variable}} | {{short description|Basic quantity derived from the probability of a particular event occurring from a random variable}}[[सूचना सिद्धांत]] में, सूचना सामग्री, आत्म-सूचना, आश्चर्य, या शैनन जानकारी यादृच्छिक चर से होने वाली किसी विशेष घटना ([[संभावना]] सिद्धांत) की संभावना से प्राप्त मूल मात्रा है। इसे संभावना व्यक्त करने के वैकल्पिक तरीके के रूप में सोचा जा सकता है, बहुत कुछ [[कठिनाइयाँ]] या [[लॉग-बाधाओं]] की तरह, लेकिन सूचना सिद्धांत की सेटिंग में इसके विशेष गणितीय फायदे हैं। | ||
शैनन जानकारी की व्याख्या किसी विशेष परिणाम के आश्चर्य के स्तर को मापने के रूप में की जा सकती है। चूंकि यह इतनी बुनियादी मात्रा है, यह कई अन्य सेटिंग्स में भी दिखाई देती है, जैसे यादृच्छिक चर के इष्टतम शैनन के स्रोत कोडिंग प्रमेय को देखते हुए घटना को प्रसारित करने के लिए आवश्यक संदेश की लंबाई। | |||
शैनन जानकारी की | शैनन की जानकारी ''एंट्रॉपी (सूचना सिद्धांत)'' से निकटता से संबंधित है, जो यादृच्छिक चर की आत्म-जानकारी का अपेक्षित मूल्य है, जो यह निर्धारित करती है कि यादृच्छिक चर औसतन कितना आश्चर्यजनक है। यह आत्म-सूचना की वह औसत मात्रा है जो पर्यवेक्षक किसी यादृच्छिक चर को मापते समय उसके बारे में प्राप्त करने की अपेक्षा करता है।<ref>Jones, D.S., ''Elementary Information Theory'', Vol., Clarendon Press, Oxford pp 11–15 1979</ref> | ||
सूचना सामग्री को सूचना की विभिन्न इकाइयों में व्यक्त किया जा सकता है, जिनमें से सबसे आम बिट (अधिक सही ढंग से शैनन कहा जाता है) है, जैसा कि नीचे बताया गया है। | सूचना सामग्री को सूचना की विभिन्न इकाइयों में व्यक्त किया जा सकता है, जिनमें से सबसे आम बिट (अधिक सही ढंग से शैनन कहा जाता है) है, जैसा कि नीचे बताया गया है। | ||
Line 12: | Line 10: | ||
[[क्लाउड शैनन]] की आत्म-सूचना की परिभाषा को कई सिद्धांतों को पूरा करने के लिए चुना गया था: | [[क्लाउड शैनन]] की आत्म-सूचना की परिभाषा को कई सिद्धांतों को पूरा करने के लिए चुना गया था: | ||
# 100% संभावना वाली | # 100% संभावना वाली घटना पूरी तरह से आश्चर्यजनक है और कोई जानकारी नहीं देती है। | ||
# कोई घटना जितनी कम संभावित होती है, वह उतनी ही अधिक आश्चर्यजनक होती है और उतनी ही अधिक जानकारी देती है। | # कोई घटना जितनी कम संभावित होती है, वह उतनी ही अधिक आश्चर्यजनक होती है और उतनी ही अधिक जानकारी देती है। | ||
# यदि दो स्वतंत्र घटनाओं को अलग-अलग मापा जाता है, तो जानकारी की कुल मात्रा व्यक्तिगत घटनाओं की स्वयं-जानकारी का योग है। | # यदि दो स्वतंत्र घटनाओं को अलग-अलग मापा जाता है, तो जानकारी की कुल मात्रा व्यक्तिगत घटनाओं की स्वयं-जानकारी का योग है। | ||
विस्तृत व्युत्पत्ति नीचे है, लेकिन यह दिखाया जा सकता है कि संभाव्यता का | विस्तृत व्युत्पत्ति नीचे है, लेकिन यह दिखाया जा सकता है कि संभाव्यता का अनूठा कार्य है जो गुणक स्केलिंग कारक तक, इन तीन सिद्धांतों को पूरा करता है। मोटे तौर पर, वास्तविक संख्या दी गई है <math>b>1</math> और घटना (संभावना सिद्धांत) <math>x</math> संभाव्यता के साथ <math>P</math>, सूचना सामग्री को इस प्रकार परिभाषित किया गया है: | ||
<math display="block">\mathrm{I}(x) := - \log_b{\left[\Pr{\left(x\right)}\right]} = -\log_b{\left(P\right)}. </math> | <math display="block">\mathrm{I}(x) := - \log_b{\left[\Pr{\left(x\right)}\right]} = -\log_b{\left(P\right)}. </math> | ||
आधार b उपरोक्त स्केलिंग कारक से मेल खाता है। बी के विभिन्न विकल्प सूचना की विभिन्न इकाइयों के अनुरूप हैं: कब {{nowrap|1=''b'' = 2}}, इकाई [[शैनन (इकाई)]] (प्रतीक श) है, जिसे अक्सर 'बिट' कहा जाता है; कब {{nowrap|1=''b'' = [[Euler's number|e]]}}, इकाई [[नेट (इकाई)]] (प्रतीक नेट) है; और जब {{nowrap|1=''b'' = 10}}, इकाई [[हार्टले (इकाई)]] (प्रतीक हार्ट) है। | आधार b उपरोक्त स्केलिंग कारक से मेल खाता है। बी के विभिन्न विकल्प सूचना की विभिन्न इकाइयों के अनुरूप हैं: कब {{nowrap|1=''b'' = 2}}, इकाई [[शैनन (इकाई)]] (प्रतीक श) है, जिसे अक्सर 'बिट' कहा जाता है; कब {{nowrap|1=''b'' = [[Euler's number|e]]}}, इकाई [[नेट (इकाई)]] (प्रतीक नेट) है; और जब {{nowrap|1=''b'' = 10}}, इकाई [[हार्टले (इकाई)]] (प्रतीक हार्ट) है। | ||
औपचारिक रूप से, | औपचारिक रूप से, यादृच्छिक चर दिया गया है <math>X</math> संभाव्यता द्रव्यमान फ़ंक्शन के साथ <math>p_{X}{\left(x\right)}</math>, मापने की स्व-जानकारी <math>X</math> परिणाम के रूप में (संभावना) <math>x</math> परिभाषित किया जाता है<ref name=":0">{{Cite book|title=क्वांटम कंप्यूटिंग की व्याख्या|last=McMahon|first=David M.|publisher=Wiley-Interscience|year=2008|isbn=9780470181386 |location=Hoboken, NJ|oclc=608622533}}</ref> | ||
<math display="block">\operatorname I_X(x) := | <math display="block">\operatorname I_X(x) := | ||
- \log{\left[p_{X}{\left(x\right)}\right]} | - \log{\left[p_{X}{\left(x\right)}\right]} | ||
Line 27: | Line 25: | ||
== गुण == | == गुण == | ||
=== संभाव्यता का नीरस रूप से घटता हुआ कार्य === | === संभाव्यता का नीरस रूप से घटता हुआ कार्य === | ||
किसी दिए गए [[संभाव्यता स्थान]] के लिए, दुर्लभ घटना (संभावना सिद्धांत) का माप सहज रूप से अधिक आश्चर्यजनक है, और अधिक सामान्य मूल्यों की तुलना में अधिक जानकारी सामग्री प्रदान करता है। इस प्रकार, स्व-जानकारी संभाव्यता का | किसी दिए गए [[संभाव्यता स्थान]] के लिए, दुर्लभ घटना (संभावना सिद्धांत) का माप सहज रूप से अधिक आश्चर्यजनक है, और अधिक सामान्य मूल्यों की तुलना में अधिक जानकारी सामग्री प्रदान करता है। इस प्रकार, स्व-जानकारी संभाव्यता का [[मोनोटोनिक फ़ंक्शन]] है, या कभी-कभी इसे एंटीटोनिक फ़ंक्शन भी कहा जाता है। | ||
जबकि मानक संभावनाओं को अंतराल में वास्तविक संख्याओं द्वारा दर्शाया जाता है <math>[0, 1]</math>, आत्म-जानकारी को अंतराल में विस्तारित वास्तविक संख्याओं द्वारा दर्शाया जाता है <math>[0, \infty]</math>. विशेष रूप से, लघुगणकीय आधार के किसी भी विकल्प के लिए हमारे पास निम्नलिखित हैं: | जबकि मानक संभावनाओं को अंतराल में वास्तविक संख्याओं द्वारा दर्शाया जाता है <math>[0, 1]</math>, आत्म-जानकारी को अंतराल में विस्तारित वास्तविक संख्याओं द्वारा दर्शाया जाता है <math>[0, \infty]</math>. विशेष रूप से, लघुगणकीय आधार के किसी भी विकल्प के लिए हमारे पास निम्नलिखित हैं: | ||
Line 40: | Line 36: | ||
* सहज रूप से, किसी अप्रत्याशित घटना को देखने से अधिक जानकारी प्राप्त होती है—यह आश्चर्यजनक है। | * सहज रूप से, किसी अप्रत्याशित घटना को देखने से अधिक जानकारी प्राप्त होती है—यह आश्चर्यजनक है। | ||
** उदाहरण के लिए, यदि ऐलिस के [[लॉटरी]] जीतने की लाखों में से | ** उदाहरण के लिए, यदि ऐलिस के [[लॉटरी]] जीतने की लाखों में से संभावना है, तो उसके दोस्त बॉब को यह जानने से काफी अधिक जानकारी प्राप्त होगी कि उसने लॉटरी जीती है, बजाय इसके कि वह लॉटरी जीत गई है। निश्चित दिन. ([[लॉटरी गणित]] भी देखें।) | ||
* यह | * यह यादृच्छिक चर की आत्म-जानकारी और उसके विचरण के बीच अंतर्निहित संबंध स्थापित करता है। | ||
=== लॉग-ऑड्स से संबंध === | === लॉग-ऑड्स से संबंध === | ||
Line 51: | Line 47: | ||
=== स्वतंत्र घटनाओं की संयोजकता === | === स्वतंत्र घटनाओं की संयोजकता === | ||
दो स्वतंत्र घटनाओं की सूचना सामग्री प्रत्येक घटना की सूचना सामग्री का योग है। इस संपत्ति को गणित में [[ योगात्मक मानचित्र ]] के रूप में जाना जाता है, और विशेष रूप से [[माप (गणित)]] और संभाव्यता सिद्धांत में [[ सिग्मा additivity ]] के रूप में जाना जाता है। दो [[स्वतंत्र यादृच्छिक चर]] पर विचार करें <math display="inline">X,\, Y</math> संभाव्यता जन कार्यों के साथ <math>p_X(x)</math> और <math>p_Y(y)</math> क्रमश। संयुक्त संभाव्यता द्रव्यमान फलन है | दो स्वतंत्र घटनाओं की सूचना सामग्री प्रत्येक घटना की सूचना सामग्री का योग है। इस संपत्ति को गणित में [[ योगात्मक मानचित्र |योगात्मक मानचित्र]] के रूप में जाना जाता है, और विशेष रूप से [[माप (गणित)]] और संभाव्यता सिद्धांत में [[ सिग्मा additivity |सिग्मा additivity]] के रूप में जाना जाता है। दो [[स्वतंत्र यादृच्छिक चर]] पर विचार करें <math display="inline">X,\, Y</math> संभाव्यता जन कार्यों के साथ <math>p_X(x)</math> और <math>p_Y(y)</math> क्रमश। संयुक्त संभाव्यता द्रव्यमान फलन है | ||
<math display="block"> p_{X, Y}\!\left(x, y\right) = \Pr(X = x,\, Y = y) | <math display="block"> p_{X, Y}\!\left(x, y\right) = \Pr(X = x,\, Y = y) | ||
Line 65: | Line 61: | ||
देखना{{Section link||Two independent, identically distributed dice|nopage=y}} उदाहरण के लिए नीचे। | देखना{{Section link||Two independent, identically distributed dice|nopage=y}} उदाहरण के लिए नीचे। | ||
[[संभावना]]ओं के लिए संबंधित संपत्ति यह है कि स्वतंत्र घटनाओं की लॉग-संभावना प्रत्येक घटना की लॉग-संभावनाओं का योग है। लॉग-संभावना को समर्थन या नकारात्मक आश्चर्य के रूप में व्याख्या करना (वह डिग्री जिस तक कोई घटना किसी दिए गए मॉडल का समर्थन करती है: | [[संभावना]]ओं के लिए संबंधित संपत्ति यह है कि स्वतंत्र घटनाओं की लॉग-संभावना प्रत्येक घटना की लॉग-संभावनाओं का योग है। लॉग-संभावना को समर्थन या नकारात्मक आश्चर्य के रूप में व्याख्या करना (वह डिग्री जिस तक कोई घटना किसी दिए गए मॉडल का समर्थन करती है: मॉडल को किसी घटना द्वारा इस हद तक समर्थित किया जाता है कि घटना अप्रत्याशित है, मॉडल को देखते हुए), यह बताता है कि स्वतंत्र घटनाएं समर्थन जोड़ती हैं: दो घटनाएँ मिलकर सांख्यिकीय अनुमान के लिए जो जानकारी प्रदान करती हैं, वह उनकी स्वतंत्र जानकारी का योग है। | ||
==एंट्रॉपी से संबंध== | ==एंट्रॉपी से संबंध== | ||
Line 86: | Line 82: | ||
When the event is a random realization (of a variable) the self-information of the variable is defined as the [[expected value]] of the self-information of the realization. | When the event is a random realization (of a variable) the self-information of the variable is defined as the [[expected value]] of the self-information of the realization. | ||
'''Self-information''' is an example of a [[Scoring rule|proper scoring rule]]. | '''Self-information''' is an example of a [[Scoring rule|proper scoring rule]]. | ||
==उदाहरण== | ==उदाहरण== | ||
===उचित [[सिक्का उछालना]] === | ===उचित [[सिक्का उछालना]] === | ||
सिक्का उछालने के [[बर्नौली परीक्षण]] पर विचार करें <math>X</math>. सिक्के के शीर्ष के रूप में उतरने की घटना की संभावना (संभावना सिद्धांत)। <math>\text{H}</math> और पूँछ <math>\text{T}</math> (निष्पक्ष सिक्का तथा अग्र एवं पृष्ठ देखें) प्रत्येक आधा-आधा है, <math display="inline">p_X{(\text{H})} = p_X{(\text{T})} = \tfrac{1}{2} = 0.5</math>. वैरिएबल को हेड के रूप में [[ नमूनाकरण (सिग्नल प्रोसेसिंग) ]] करने पर, संबंधित जानकारी प्राप्त होती है | सिक्का उछालने के [[बर्नौली परीक्षण]] पर विचार करें <math>X</math>. सिक्के के शीर्ष के रूप में उतरने की घटना की संभावना (संभावना सिद्धांत)। <math>\text{H}</math> और पूँछ <math>\text{T}</math> (निष्पक्ष सिक्का तथा अग्र एवं पृष्ठ देखें) प्रत्येक आधा-आधा है, <math display="inline">p_X{(\text{H})} = p_X{(\text{T})} = \tfrac{1}{2} = 0.5</math>. वैरिएबल को हेड के रूप में [[ नमूनाकरण (सिग्नल प्रोसेसिंग) |नमूनाकरण (सिग्नल प्रोसेसिंग)]] करने पर, संबंधित जानकारी प्राप्त होती है | ||
<math display="block">\operatorname{I}_X(\text{H}) | <math display="block">\operatorname{I}_X(\text{H}) | ||
= -\log_2 {p_X{(\text{H})}} | = -\log_2 {p_X{(\text{H})}} | ||
= -\log_2\!{\tfrac{1}{2}} = 1,</math>इसलिए हेड के रूप में उतरने वाले | = -\log_2\!{\tfrac{1}{2}} = 1,</math>इसलिए हेड के रूप में उतरने वाले उचित सिक्के का सूचना लाभ 1 शैनन (इकाई) है।<ref name=":0" /> इसी तरह, पूंछ मापने की जानकारी प्राप्त होती है <math>T</math> है<math display="block">\operatorname{I}_X(T) | ||
= -\log_2 {p_X{(\text{T})}} | = -\log_2 {p_X{(\text{T})}} | ||
= -\log_2 {\tfrac{1}{2}} = 1 \text{ Sh}.</math> | = -\log_2 {\tfrac{1}{2}} = 1 \text{ Sh}.</math> | ||
=== [[निष्पक्ष पासा]] रोल === | === [[निष्पक्ष पासा]] रोल === | ||
मान लीजिए कि हमारे पास | मान लीजिए कि हमारे पास अच्छा पासा है|एक अच्छा छह तरफा पासा। पासा पलटने का मूल्य असतत समान वितरण है <math>X \sim \mathrm{DU}[1, 6]</math> संभाव्यता द्रव्यमान फ़ंक्शन के साथ <math display="block">p_X(k) = \begin{cases} | ||
\frac{1}{6}, & k \in \{1, 2, 3, 4, 5, 6\} \\ | \frac{1}{6}, & k \in \{1, 2, 3, 4, 5, 6\} \\ | ||
0, & \text{otherwise} | 0, & \text{otherwise} | ||
Line 109: | Line 101: | ||
=== दो स्वतंत्र, समान रूप से वितरित पासे === | === दो स्वतंत्र, समान रूप से वितरित पासे === | ||
मान लीजिए कि हमारे पास दो स्वतंत्र और समान रूप से वितरित यादृच्छिक चर हैं|स्वतंत्र, समान रूप से वितरित यादृच्छिक चर <math display="inline">X,\, Y \sim \mathrm{DU}[1, 6]</math> प्रत्येक | मान लीजिए कि हमारे पास दो स्वतंत्र और समान रूप से वितरित यादृच्छिक चर हैं|स्वतंत्र, समान रूप से वितरित यादृच्छिक चर <math display="inline">X,\, Y \sim \mathrm{DU}[1, 6]</math> प्रत्येक स्वतंत्र यादृच्छिक चर के अनुरूप 6-पक्षीय पासा रोल। की [[संयुक्त संभाव्यता वितरण]] <math>X</math> और <math>Y</math> है<math display="block"> \begin{align} | ||
p_{X, Y}\!\left(x, y\right) & {} = \Pr(X = x,\, Y = y) | p_{X, Y}\!\left(x, y\right) & {} = \Pr(X = x,\, Y = y) | ||
= p_X\!(x)\,p_Y\!(y) \\ | = p_X\!(x)\,p_Y\!(y) \\ | ||
Line 133: | Line 125: | ||
\end{align} | \end{align} | ||
</math> | </math> | ||
==== रोल की आवृत्ति से जानकारी ==== | ==== रोल की आवृत्ति से जानकारी ==== | ||
यदि हमें पासे के मूल्य के बारे में जानकारी प्राप्त होती है, तो बारह गुना तरीके#केस एफएक्स में किस पासे का कौन सा मूल्य था, हम तथाकथित गिनती चर के साथ दृष्टिकोण को औपचारिक रूप दे सकते हैं | यदि हमें पासे के मूल्य के बारे में जानकारी प्राप्त होती है, तो बारह गुना तरीके#केस एफएक्स में किस पासे का कौन सा मूल्य था, हम तथाकथित गिनती चर के साथ दृष्टिकोण को औपचारिक रूप दे सकते हैं | ||
Line 157: | Line 147: | ||
इसे सत्यापित करने के लिए, 6 परिणाम <math display="inline">(X, Y) \in \left\{(k, k)\right\}_{k = 1}^{6} = \left\{ | इसे सत्यापित करने के लिए, 6 परिणाम <math display="inline">(X, Y) \in \left\{(k, k)\right\}_{k = 1}^{6} = \left\{ | ||
(1, 1), (2, 2), (3, 3), (4, 4), (5, 5), (6, 6) | (1, 1), (2, 2), (3, 3), (4, 4), (5, 5), (6, 6) | ||
\right\}</math> घटना के अनुरूप <math>C_k = 2</math> और की [[कुल संभावना]] {{Sfrac|6}}. ये एकमात्र ऐसी घटनाएँ हैं जिन्हें इस बात की पहचान के साथ ईमानदारी से संरक्षित किया गया है कि कौन सा पासा पलटा और कौन सा परिणाम निकला क्योंकि परिणाम समान हैं। अन्य संख्याओं को घुमाने वाले पासों को अलग करने के ज्ञान के बिना <math display="inline"> \binom{6}{2} = 15</math> [[संयोजन]] इस प्रकार हैं कि | \right\}</math> घटना के अनुरूप <math>C_k = 2</math> और की [[कुल संभावना]] {{Sfrac|6}}. ये एकमात्र ऐसी घटनाएँ हैं जिन्हें इस बात की पहचान के साथ ईमानदारी से संरक्षित किया गया है कि कौन सा पासा पलटा और कौन सा परिणाम निकला क्योंकि परिणाम समान हैं। अन्य संख्याओं को घुमाने वाले पासों को अलग करने के ज्ञान के बिना <math display="inline"> \binom{6}{2} = 15</math> [[संयोजन]] इस प्रकार हैं कि पासा संख्या को घुमाता है और दूसरा पासा अलग संख्या को घुमाता है, प्रत्येक की संभावना होती है {{Sfrac|18}}. वास्तव में, <math display="inline"> 6 \cdot \tfrac{1}{36} + 15 \cdot \tfrac{1}{18} = 1</math>, आवश्यकता अनुसार। | ||
आश्चर्य की बात नहीं है कि सीखने की सूचना सामग्री कि दोनों पासों को | आश्चर्य की बात नहीं है कि सीखने की सूचना सामग्री कि दोनों पासों को ही विशेष संख्या के रूप में घुमाया गया था, सीखने की सूचना सामग्री से अधिक है कि पासा संख्या थी और दूसरा अलग संख्या थी। उदाहरण के लिए घटनाओं को लीजिए <math> A_k = \{(X, Y) = (k, k)\}</math> और <math> B_{j, k} = \{c_j = 1\} \cap \{c_k = 1\}</math> के लिए <math> j \ne k, 1 \leq j, k \leq 6</math>. उदाहरण के लिए, <math> A_2 = \{X = 2 \text{ and } Y = 2\}</math> और <math> B_{3, 4} = \{(3, 4), (4, 3)\}</math>. | ||
सूचना सामग्री हैं | सूचना सामग्री हैं | ||
<math display="block"> \operatorname{I}(A_2) = -\log_2\!{\tfrac{1}{36}} = 5.169925 \text{ Sh}</math> | <math display="block"> \operatorname{I}(A_2) = -\log_2\!{\tfrac{1}{36}} = 5.169925 \text{ Sh}</math> | ||
<math display="block"> \operatorname{I}\left(B_{3, 4}\right) = - \log_2 \! \tfrac{1}{18} = 4.169925 \text{ Sh}</math> | <math display="block"> \operatorname{I}\left(B_{3, 4}\right) = - \log_2 \! \tfrac{1}{18} = 4.169925 \text{ Sh}</math> | ||
होने देना <math display="inline"> \text{Same} = \bigcup_{i = 1}^{6}{A_i}</math> ऐसी घटना हो कि दोनों पासों का मूल्य समान हो और <math> \text{Diff} = \overline{\text{Same}}</math> ऐसा हो कि पासा अलग-अलग हो। तब <math display="inline"> \Pr(\text{Same}) = \tfrac{1}{6}</math> और <math display="inline"> \Pr(\text{Diff}) = \tfrac{5}{6}</math>. घटनाओं की सूचना सामग्री हैं | होने देना <math display="inline"> \text{Same} = \bigcup_{i = 1}^{6}{A_i}</math> ऐसी घटना हो कि दोनों पासों का मूल्य समान हो और <math> \text{Diff} = \overline{\text{Same}}</math> ऐसा हो कि पासा अलग-अलग हो। तब <math display="inline"> \Pr(\text{Same}) = \tfrac{1}{6}</math> और <math display="inline"> \Pr(\text{Diff}) = \tfrac{5}{6}</math>. घटनाओं की सूचना सामग्री हैं | ||
<math display="block"> \operatorname{I}(\text{Same}) = -\log_2\!{\tfrac{1}{6}} = 2.5849625 \text{ Sh}</math> | <math display="block"> \operatorname{I}(\text{Same}) = -\log_2\!{\tfrac{1}{6}} = 2.5849625 \text{ Sh}</math> | ||
<math display="block"> \operatorname{I}(\text{Diff}) = -\log_2\!{\tfrac{5}{6}} = 0.2630344 \text{ Sh}.</math> | <math display="block"> \operatorname{I}(\text{Diff}) = -\log_2\!{\tfrac{5}{6}} = 0.2630344 \text{ Sh}.</math> | ||
==== पासे के योग से जानकारी ==== | ==== पासे के योग से जानकारी ==== | ||
Line 174: | Line 165: | ||
\approx 3.169925 \text{ Sh}. | \approx 3.169925 \text{ Sh}. | ||
</math> | </math> | ||
=== सामान्य असतत समान वितरण === | === सामान्य असतत समान वितरण === | ||
सामान्यीकरण करना {{Section link||Fair dice roll|nopage=y}} उपरोक्त उदाहरण में, | सामान्यीकरण करना {{Section link||Fair dice roll|nopage=y}} उपरोक्त उदाहरण में, सामान्य असतत समान यादृच्छिक चर (DURV) पर विचार करें <math>X \sim \mathrm{DU}[a,b]; \quad a, b \in \mathbb{Z}, \ b \ge a.</math> सुविधा के लिए परिभाषित करें <math display="inline">N := b - a + 1</math>. प्रायिकता द्रव्यमान फलन है <math display="block">p_X(k) = \begin{cases} | ||
\frac{1}{N}, & k \in [a, b] \cap \mathbb{Z} \\ | \frac{1}{N}, & k \in [a, b] \cap \mathbb{Z} \\ | ||
0, & \text{otherwise}. | 0, & \text{otherwise}. | ||
\end{cases}</math>सामान्य तौर पर, DURV के मानों को [[पूर्णांक]] होने की आवश्यकता नहीं है, या सूचना सिद्धांत के प्रयोजनों के लिए समान रूप से अंतरित होने की भी आवश्यकता नहीं है; उन्हें केवल [[समसंभाव्य]] होने की आवश्यकता है।<ref name=":0" />किसी भी अवलोकन का सूचना लाभ <math>X = k</math> है<math display="block">\operatorname{I}_X(k) = -\log_2{\frac{1}{N}} = \log_2{N} \text{ Sh}.</math> | \end{cases}</math>सामान्य तौर पर, DURV के मानों को [[पूर्णांक]] होने की आवश्यकता नहीं है, या सूचना सिद्धांत के प्रयोजनों के लिए समान रूप से अंतरित होने की भी आवश्यकता नहीं है; उन्हें केवल [[समसंभाव्य]] होने की आवश्यकता है।<ref name=":0" />किसी भी अवलोकन का सूचना लाभ <math>X = k</math> है<math display="block">\operatorname{I}_X(k) = -\log_2{\frac{1}{N}} = \log_2{N} \text{ Sh}.</math> | ||
==== विशेष मामला: निरंतर यादृच्छिक चर ==== | ==== विशेष मामला: निरंतर यादृच्छिक चर ==== | ||
अगर <math>b = a</math> ऊपर, <math>X</math> नियतात्मक रूप से दिए गए संभाव्यता वितरण के साथ | अगर <math>b = a</math> ऊपर, <math>X</math> नियतात्मक रूप से दिए गए संभाव्यता वितरण के साथ [[निरंतर यादृच्छिक चर]] के लिए पतन (गणित)। <math>X = b</math> और संभाव्यता [[डिराक माप]] को मापती है <math display="inline">p_X(k) = \delta_{b}(k)</math>. एकमात्र मूल्य <math>X</math> [[नियतिवादी प्रणाली]] ले सकते हैं <math>b</math>, इसलिए किसी भी माप की सूचना सामग्री <math>X</math> है<math display="block">\operatorname{I}_X(b) = - \log_2{1} = 0.</math>सामान्य तौर पर, किसी ज्ञात मूल्य को मापने से कोई जानकारी प्राप्त नहीं होती है।<ref name=":0" /> | ||
=== श्रेणीबद्ध वितरण === | === श्रेणीबद्ध वितरण === | ||
उपरोक्त सभी मामलों को सामान्यीकृत करते हुए, समर्थन (गणित) के साथ | उपरोक्त सभी मामलों को सामान्यीकृत करते हुए, समर्थन (गणित) के साथ श्रेणीबद्ध चर [[असतत यादृच्छिक चर]] पर विचार करें <math display="inline">\mathcal{S} = \bigl\{s_i\bigr\}_{i=1}^{N}</math> और संभाव्यता द्रव्यमान फ़ंक्शन द्वारा दिया गया | ||
<math display="block">p_X(k) = \begin{cases} | <math display="block">p_X(k) = \begin{cases} | ||
Line 203: | Line 188: | ||
==व्युत्पत्ति== | ==व्युत्पत्ति== | ||
परिभाषा के अनुसार, जानकारी रखने वाली | परिभाषा के अनुसार, जानकारी रखने वाली मूल इकाई से जानकारी प्राप्त करने वाली इकाई को तभी स्थानांतरित की जाती है, जब प्राप्तकर्ता को जानकारी नहीं होती है। यदि प्राप्तकर्ता इकाई को संदेश प्राप्त करने से पहले संदेश की सामग्री निश्चित रूप से पता थी, तो प्राप्त संदेश की जानकारी की मात्रा शून्य है। केवल तभी जब प्राप्तकर्ता को संदेश की सामग्री का अग्रिम ज्ञान 100% से कम हो, तभी संदेश वास्तव में जानकारी संप्रेषित करता है। | ||
उदाहरण के लिए, हास्य अभिनेता [[जॉर्ज कार्लिन]] के | उदाहरण के लिए, हास्य अभिनेता [[जॉर्ज कार्लिन]] के चरित्र (हिप्पी डिप्पी वेदरमैन) को उद्धृत करते हुए, आज रात के लिए मौसम का पूर्वानुमान: अंधेरा। रात भर अंधेरा जारी रहा, सुबह तक रोशनी व्यापक रूप से बिखरी हुई थी।<ref>{{Cite web|title=जॉर्ज कार्लिन का एक उद्धरण|url=https://www.goodreads.com/quotes/94336-weather-forecast-for-tonight-dark-continued-dark-overnight-with-widely|access-date=2021-04-01|website=www.goodreads.com}}</ref> यह मानते हुए कि कोई व्यक्ति [[पृथ्वी के ध्रुवीय क्षेत्र]]ों के निकट नहीं रहता है, उस पूर्वानुमान में बताई गई जानकारी की मात्रा शून्य है क्योंकि पूर्वानुमान प्राप्त होने से पहले ही यह ज्ञात होता है कि अंधेरा हमेशा रात के साथ आता है। | ||
तदनुसार, किसी घटना की घटना (संभावना सिद्धांत) को सूचित करने वाली सामग्री को संदेश देने वाले संदेश में निहित स्व-जानकारी की मात्रा, <math>\omega_n</math>, केवल उस घटना की संभावना पर निर्भर करता है। | तदनुसार, किसी घटना की घटना (संभावना सिद्धांत) को सूचित करने वाली सामग्री को संदेश देने वाले संदेश में निहित स्व-जानकारी की मात्रा, <math>\omega_n</math>, केवल उस घटना की संभावना पर निर्भर करता है। | ||
Line 231: | Line 216: | ||
इन गुणों को ध्यान में रखते हुए, आत्म-जानकारी <math>\operatorname I(\omega_n)</math> परिणाम से सम्बंधित <math>\omega_n</math> संभाव्यता के साथ <math>\operatorname P(\omega_n)</math> परिभाषित किया जाता है: | इन गुणों को ध्यान में रखते हुए, आत्म-जानकारी <math>\operatorname I(\omega_n)</math> परिणाम से सम्बंधित <math>\omega_n</math> संभाव्यता के साथ <math>\operatorname P(\omega_n)</math> परिभाषित किया जाता है: | ||
<math display="block">\operatorname I(\omega_n) = -\log(\operatorname P(\omega_n)) = \log \left(\frac{1}{\operatorname P(\omega_n)} \right) </math> | <math display="block">\operatorname I(\omega_n) = -\log(\operatorname P(\omega_n)) = \log \left(\frac{1}{\operatorname P(\omega_n)} \right) </math> | ||
घटना की संभावना उतनी ही कम होगी <math>\omega_n</math>, संदेश से जुड़ी आत्म-जानकारी की मात्रा जितनी अधिक होगी कि घटना वास्तव में घटित हुई। यदि उपरोक्त लघुगणक आधार 2 है, तो की इकाई <math> I(\omega_n)</math> [[ अंश ]]्स है. यह सबसे आम प्रथा है. आधार के प्राकृतिक लघुगणक का उपयोग करते समय <math> e</math>, इकाई नेट (इकाई) होगी। आधार 10 लघुगणक के लिए, सूचना की इकाई हार्टले (इकाई) है। | घटना की संभावना उतनी ही कम होगी <math>\omega_n</math>, संदेश से जुड़ी आत्म-जानकारी की मात्रा जितनी अधिक होगी कि घटना वास्तव में घटित हुई। यदि उपरोक्त लघुगणक आधार 2 है, तो की इकाई <math> I(\omega_n)</math> [[ अंश |अंश]] ्स है. यह सबसे आम प्रथा है. आधार के प्राकृतिक लघुगणक का उपयोग करते समय <math> e</math>, इकाई नेट (इकाई) होगी। आधार 10 लघुगणक के लिए, सूचना की इकाई हार्टले (इकाई) है। | ||
एक त्वरित उदाहरण के रूप में, | एक त्वरित उदाहरण के रूप में, सिक्के के लगातार 4 उछाल में 4 चित (या किसी विशिष्ट परिणाम) के परिणाम से जुड़ी सूचना सामग्री 4 बिट्स (संभावना 1/16) होगी, और परिणाम प्राप्त करने से जुड़ी सूचना सामग्री इसके अलावा होगी निर्दिष्ट ~0.09 बिट्स (संभावना 15/16) होगा। विस्तृत उदाहरणों के लिए ऊपर देखें। | ||
== यह भी देखें == | == यह भी देखें == | ||
Line 240: | Line 225: | ||
== संदर्भ == | == संदर्भ == | ||
{{Reflist}} | {{Reflist}} | ||
== अग्रिम पठन == | == अग्रिम पठन == | ||
*[[Claude Shannon|C.E. Shannon]], [[A Mathematical Theory of Communication]], ''Bell Systems Technical Journal'', Vol. 27, pp 379–423, (Part I), 1948. | *[[Claude Shannon|C.E. Shannon]], [[A Mathematical Theory of Communication]], ''Bell Systems Technical Journal'', Vol. 27, pp 379–423, (Part I), 1948. | ||
== बाहरी संबंध == | == बाहरी संबंध == | ||
* [http://www.umsl.edu/~fraundor/egsurpri.html Examples of surprisal measures] | * [http://www.umsl.edu/~fraundor/egsurpri.html Examples of surprisal measures] | ||
* [https://web.archive.org/web/20120717011943/http://www.lecb.ncifcrf.gov/~toms/glossary.html#surprisal "Surprisal" entry in a glossary of molecular information theory] | * [https://web.archive.org/web/20120717011943/http://www.lecb.ncifcrf.gov/~toms/glossary.html#surprisal "Surprisal" entry in a glossary of molecular information theory] | ||
* [http://ilab.usc.edu/surprise/ Bayesian Theory of Surprise] | * [http://ilab.usc.edu/surprise/ Bayesian Theory of Surprise] | ||
[[Category: सूचना सिद्धांत]] [[Category: एन्ट्रापी और सूचना]] | [[Category: सूचना सिद्धांत]] [[Category: एन्ट्रापी और सूचना]] | ||
Revision as of 20:59, 15 July 2023
सूचना सिद्धांत में, सूचना सामग्री, आत्म-सूचना, आश्चर्य, या शैनन जानकारी यादृच्छिक चर से होने वाली किसी विशेष घटना (संभावना सिद्धांत) की संभावना से प्राप्त मूल मात्रा है। इसे संभावना व्यक्त करने के वैकल्पिक तरीके के रूप में सोचा जा सकता है, बहुत कुछ कठिनाइयाँ या लॉग-बाधाओं की तरह, लेकिन सूचना सिद्धांत की सेटिंग में इसके विशेष गणितीय फायदे हैं।
शैनन जानकारी की व्याख्या किसी विशेष परिणाम के आश्चर्य के स्तर को मापने के रूप में की जा सकती है। चूंकि यह इतनी बुनियादी मात्रा है, यह कई अन्य सेटिंग्स में भी दिखाई देती है, जैसे यादृच्छिक चर के इष्टतम शैनन के स्रोत कोडिंग प्रमेय को देखते हुए घटना को प्रसारित करने के लिए आवश्यक संदेश की लंबाई।
शैनन की जानकारी एंट्रॉपी (सूचना सिद्धांत) से निकटता से संबंधित है, जो यादृच्छिक चर की आत्म-जानकारी का अपेक्षित मूल्य है, जो यह निर्धारित करती है कि यादृच्छिक चर औसतन कितना आश्चर्यजनक है। यह आत्म-सूचना की वह औसत मात्रा है जो पर्यवेक्षक किसी यादृच्छिक चर को मापते समय उसके बारे में प्राप्त करने की अपेक्षा करता है।[1]
सूचना सामग्री को सूचना की विभिन्न इकाइयों में व्यक्त किया जा सकता है, जिनमें से सबसे आम बिट (अधिक सही ढंग से शैनन कहा जाता है) है, जैसा कि नीचे बताया गया है।
परिभाषा
क्लाउड शैनन की आत्म-सूचना की परिभाषा को कई सिद्धांतों को पूरा करने के लिए चुना गया था:
- 100% संभावना वाली घटना पूरी तरह से आश्चर्यजनक है और कोई जानकारी नहीं देती है।
- कोई घटना जितनी कम संभावित होती है, वह उतनी ही अधिक आश्चर्यजनक होती है और उतनी ही अधिक जानकारी देती है।
- यदि दो स्वतंत्र घटनाओं को अलग-अलग मापा जाता है, तो जानकारी की कुल मात्रा व्यक्तिगत घटनाओं की स्वयं-जानकारी का योग है।
विस्तृत व्युत्पत्ति नीचे है, लेकिन यह दिखाया जा सकता है कि संभाव्यता का अनूठा कार्य है जो गुणक स्केलिंग कारक तक, इन तीन सिद्धांतों को पूरा करता है। मोटे तौर पर, वास्तविक संख्या दी गई है और घटना (संभावना सिद्धांत) संभाव्यता के साथ , सूचना सामग्री को इस प्रकार परिभाषित किया गया है:
औपचारिक रूप से, यादृच्छिक चर दिया गया है संभाव्यता द्रव्यमान फ़ंक्शन के साथ , मापने की स्व-जानकारी परिणाम के रूप में (संभावना) परिभाषित किया जाता है[2]
गुण
संभाव्यता का नीरस रूप से घटता हुआ कार्य
किसी दिए गए संभाव्यता स्थान के लिए, दुर्लभ घटना (संभावना सिद्धांत) का माप सहज रूप से अधिक आश्चर्यजनक है, और अधिक सामान्य मूल्यों की तुलना में अधिक जानकारी सामग्री प्रदान करता है। इस प्रकार, स्व-जानकारी संभाव्यता का मोनोटोनिक फ़ंक्शन है, या कभी-कभी इसे एंटीटोनिक फ़ंक्शन भी कहा जाता है।
जबकि मानक संभावनाओं को अंतराल में वास्तविक संख्याओं द्वारा दर्शाया जाता है , आत्म-जानकारी को अंतराल में विस्तारित वास्तविक संख्याओं द्वारा दर्शाया जाता है . विशेष रूप से, लघुगणकीय आधार के किसी भी विकल्प के लिए हमारे पास निम्नलिखित हैं:
- यदि किसी विशेष घटना के घटित होने की 100% संभावना हो तो उसकी स्व-जानकारी होती है : इसकी घटना बिल्कुल गैर-आश्चर्यजनक है और इससे कोई जानकारी नहीं मिलती है।
- यदि किसी विशेष घटना के घटित होने की संभावना 0% है, तो उसकी स्व-जानकारी है : इसकी घटना असीम रूप से आश्चर्यजनक है।
इससे, हम कुछ सामान्य गुण प्राप्त कर सकते हैं:
- सहज रूप से, किसी अप्रत्याशित घटना को देखने से अधिक जानकारी प्राप्त होती है—यह आश्चर्यजनक है।
- उदाहरण के लिए, यदि ऐलिस के लॉटरी जीतने की लाखों में से संभावना है, तो उसके दोस्त बॉब को यह जानने से काफी अधिक जानकारी प्राप्त होगी कि उसने लॉटरी जीती है, बजाय इसके कि वह लॉटरी जीत गई है। निश्चित दिन. (लॉटरी गणित भी देखें।)
- यह यादृच्छिक चर की आत्म-जानकारी और उसके विचरण के बीच अंतर्निहित संबंध स्थापित करता है।
लॉग-ऑड्स से संबंध
शैनन जानकारी लॉग-ऑड्स से निकटता से संबंधित है। विशेष रूप से, किसी घटना को देखते हुए , लगता है कि की सम्भावना है घटित हो रहा है, और वह की सम्भावना है घटित नहीं हो रहा है. फिर हमारे पास लॉग-ऑड्स की निम्नलिखित परिभाषा है:
स्वतंत्र घटनाओं की संयोजकता
दो स्वतंत्र घटनाओं की सूचना सामग्री प्रत्येक घटना की सूचना सामग्री का योग है। इस संपत्ति को गणित में योगात्मक मानचित्र के रूप में जाना जाता है, और विशेष रूप से माप (गणित) और संभाव्यता सिद्धांत में सिग्मा additivity के रूप में जाना जाता है। दो स्वतंत्र यादृच्छिक चर पर विचार करें संभाव्यता जन कार्यों के साथ और क्रमश। संयुक्त संभाव्यता द्रव्यमान फलन है
संभावनाओं के लिए संबंधित संपत्ति यह है कि स्वतंत्र घटनाओं की लॉग-संभावना प्रत्येक घटना की लॉग-संभावनाओं का योग है। लॉग-संभावना को समर्थन या नकारात्मक आश्चर्य के रूप में व्याख्या करना (वह डिग्री जिस तक कोई घटना किसी दिए गए मॉडल का समर्थन करती है: मॉडल को किसी घटना द्वारा इस हद तक समर्थित किया जाता है कि घटना अप्रत्याशित है, मॉडल को देखते हुए), यह बताता है कि स्वतंत्र घटनाएं समर्थन जोड़ती हैं: दो घटनाएँ मिलकर सांख्यिकीय अनुमान के लिए जो जानकारी प्रदान करती हैं, वह उनकी स्वतंत्र जानकारी का योग है।
एंट्रॉपी से संबंध
यादृच्छिक चर की शैनन एन्ट्रापी ऊपर शैनन एन्ट्रॉपी#परिभाषा है
कभी-कभी, एन्ट्रापी को ही यादृच्छिक चर की स्व-सूचना कहा जाता है, संभवतः इसलिए क्योंकि एन्ट्रापी संतुष्ट करती है , कहाँ की पारस्परिक जानकारी है खुद के साथ.[5] सतत यादृच्छिक चर के लिए संबंधित अवधारणा विभेदक एन्ट्रापी है।
टिप्पणियाँ
This measure has also been called surprisal, as it represents the "surprise" of seeing the outcome (a highly improbable outcome is very surprising). This term (as a log-probability measure) was coined by Myron Tribus in his 1961 book Thermostatics and Thermodynamics.[6][7]
When the event is a random realization (of a variable) the self-information of the variable is defined as the expected value of the self-information of the realization.
Self-information is an example of a proper scoring rule.
उदाहरण
उचित सिक्का उछालना
सिक्का उछालने के बर्नौली परीक्षण पर विचार करें . सिक्के के शीर्ष के रूप में उतरने की घटना की संभावना (संभावना सिद्धांत)। और पूँछ (निष्पक्ष सिक्का तथा अग्र एवं पृष्ठ देखें) प्रत्येक आधा-आधा है, . वैरिएबल को हेड के रूप में नमूनाकरण (सिग्नल प्रोसेसिंग) करने पर, संबंधित जानकारी प्राप्त होती है
निष्पक्ष पासा रोल
मान लीजिए कि हमारे पास अच्छा पासा है|एक अच्छा छह तरफा पासा। पासा पलटने का मूल्य असतत समान वितरण है संभाव्यता द्रव्यमान फ़ंक्शन के साथ
दो स्वतंत्र, समान रूप से वितरित पासे
मान लीजिए कि हमारे पास दो स्वतंत्र और समान रूप से वितरित यादृच्छिक चर हैं|स्वतंत्र, समान रूप से वितरित यादृच्छिक चर प्रत्येक स्वतंत्र यादृच्छिक चर के अनुरूप 6-पक्षीय पासा रोल। की संयुक्त संभाव्यता वितरण और है
रोल की आवृत्ति से जानकारी
यदि हमें पासे के मूल्य के बारे में जानकारी प्राप्त होती है, तो बारह गुना तरीके#केस एफएक्स में किस पासे का कौन सा मूल्य था, हम तथाकथित गिनती चर के साथ दृष्टिकोण को औपचारिक रूप दे सकते हैं
आश्चर्य की बात नहीं है कि सीखने की सूचना सामग्री कि दोनों पासों को ही विशेष संख्या के रूप में घुमाया गया था, सीखने की सूचना सामग्री से अधिक है कि पासा संख्या थी और दूसरा अलग संख्या थी। उदाहरण के लिए घटनाओं को लीजिए और के लिए . उदाहरण के लिए, और .
सूचना सामग्री हैं
होने देना ऐसी घटना हो कि दोनों पासों का मूल्य समान हो और ऐसा हो कि पासा अलग-अलग हो। तब और . घटनाओं की सूचना सामग्री हैं
पासे के योग से जानकारी
स्वतंत्र यादृच्छिक चरों के योग का संभाव्यता द्रव्यमान या घनत्व फ़ंक्शन (सामूहिक संभाव्यता माप) कनवल्शन#मापों का कनवल्शन। स्वतंत्र निष्पक्ष 6-पक्षीय पासा रोल के मामले में, यादृच्छिक चर संभाव्यता द्रव्यमान फलन है , कहाँ असतत कनवल्शन का प्रतिनिधित्व करता है। परिणाम (संभावना) संभावना है . इसलिए, दावा की गई जानकारी है
सामान्य असतत समान वितरण
सामान्यीकरण करना § Fair dice roll उपरोक्त उदाहरण में, सामान्य असतत समान यादृच्छिक चर (DURV) पर विचार करें सुविधा के लिए परिभाषित करें . प्रायिकता द्रव्यमान फलन है
विशेष मामला: निरंतर यादृच्छिक चर
अगर ऊपर, नियतात्मक रूप से दिए गए संभाव्यता वितरण के साथ निरंतर यादृच्छिक चर के लिए पतन (गणित)। और संभाव्यता डिराक माप को मापती है . एकमात्र मूल्य नियतिवादी प्रणाली ले सकते हैं , इसलिए किसी भी माप की सूचना सामग्री है
श्रेणीबद्ध वितरण
उपरोक्त सभी मामलों को सामान्यीकृत करते हुए, समर्थन (गणित) के साथ श्रेणीबद्ध चर असतत यादृच्छिक चर पर विचार करें और संभाव्यता द्रव्यमान फ़ंक्शन द्वारा दिया गया
नतीजे की जानकारी दिया हुआ है
व्युत्पत्ति
परिभाषा के अनुसार, जानकारी रखने वाली मूल इकाई से जानकारी प्राप्त करने वाली इकाई को तभी स्थानांतरित की जाती है, जब प्राप्तकर्ता को जानकारी नहीं होती है। यदि प्राप्तकर्ता इकाई को संदेश प्राप्त करने से पहले संदेश की सामग्री निश्चित रूप से पता थी, तो प्राप्त संदेश की जानकारी की मात्रा शून्य है। केवल तभी जब प्राप्तकर्ता को संदेश की सामग्री का अग्रिम ज्ञान 100% से कम हो, तभी संदेश वास्तव में जानकारी संप्रेषित करता है।
उदाहरण के लिए, हास्य अभिनेता जॉर्ज कार्लिन के चरित्र (हिप्पी डिप्पी वेदरमैन) को उद्धृत करते हुए, आज रात के लिए मौसम का पूर्वानुमान: अंधेरा। रात भर अंधेरा जारी रहा, सुबह तक रोशनी व्यापक रूप से बिखरी हुई थी।[8] यह मानते हुए कि कोई व्यक्ति पृथ्वी के ध्रुवीय क्षेत्रों के निकट नहीं रहता है, उस पूर्वानुमान में बताई गई जानकारी की मात्रा शून्य है क्योंकि पूर्वानुमान प्राप्त होने से पहले ही यह ज्ञात होता है कि अंधेरा हमेशा रात के साथ आता है।
तदनुसार, किसी घटना की घटना (संभावना सिद्धांत) को सूचित करने वाली सामग्री को संदेश देने वाले संदेश में निहित स्व-जानकारी की मात्रा, , केवल उस घटना की संभावना पर निर्भर करता है।
इसके अलावा, परिभाषा के अनुसार, आत्म-जानकारी का माप (गणित) गैर-नकारात्मक और योगात्मक है। यदि कोई संदेश घटना की सूचना देता है दो सांख्यिकीय स्वतंत्रता घटनाओं का प्रतिच्छेदन है और , फिर घटना की जानकारी घटित होना दोनों स्वतंत्र घटनाओं के मिश्रित संदेश का है और घटित हो रहा है. मिश्रित संदेश की जानकारी की मात्रा व्यक्तिगत घटक संदेशों की जानकारी की मात्रा के योग के बराबर होने की उम्मीद की जाएगी और क्रमश:
इन गुणों को ध्यान में रखते हुए, आत्म-जानकारी परिणाम से सम्बंधित संभाव्यता के साथ परिभाषित किया जाता है:
एक त्वरित उदाहरण के रूप में, सिक्के के लगातार 4 उछाल में 4 चित (या किसी विशिष्ट परिणाम) के परिणाम से जुड़ी सूचना सामग्री 4 बिट्स (संभावना 1/16) होगी, और परिणाम प्राप्त करने से जुड़ी सूचना सामग्री इसके अलावा होगी निर्दिष्ट ~0.09 बिट्स (संभावना 15/16) होगा। विस्तृत उदाहरणों के लिए ऊपर देखें।
यह भी देखें
संदर्भ
- ↑ Jones, D.S., Elementary Information Theory, Vol., Clarendon Press, Oxford pp 11–15 1979
- ↑ 2.0 2.1 2.2 2.3 McMahon, David M. (2008). क्वांटम कंप्यूटिंग की व्याख्या. Hoboken, NJ: Wiley-Interscience. ISBN 9780470181386. OCLC 608622533.
- ↑ Borda, Monica (2011). सूचना सिद्धांत और कोडिंग में बुनियादी बातें. Springer. ISBN 978-3-642-20346-6.
- ↑ Han, Te Sun; Kobayashi, Kingo (2002). सूचना और कोडिंग का गणित. American Mathematical Society. ISBN 978-0-8218-4256-0.
- ↑ Thomas M. Cover, Joy A. Thomas; Elements of Information Theory; p. 20; 1991.
- ↑ R. B. Bernstein and R. D. Levine (1972) "Entropy and Chemical Change. I. Characterization of Product (and Reactant) Energy Distributions in Reactive Molecular Collisions: Information and Entropy Deficiency", The Journal of Chemical Physics 57, 434–449 link.
- ↑ Myron Tribus (1961) Thermodynamics and Thermostatics: An Introduction to Energy, Information and States of Matter, with Engineering Applications (D. Van Nostrand, 24 West 40 Street, New York 18, New York, U.S.A) Tribus, Myron (1961), pp. 64–66 borrow.
- ↑ "जॉर्ज कार्लिन का एक उद्धरण". www.goodreads.com. Retrieved 2021-04-01.
अग्रिम पठन
- C.E. Shannon, A Mathematical Theory of Communication, Bell Systems Technical Journal, Vol. 27, pp 379–423, (Part I), 1948.