जानकारी सामग्री: Difference between revisions
No edit summary |
No edit summary |
||
Line 1: | Line 1: | ||
{{short description|Basic quantity derived from the probability of a particular event occurring from a random variable}}[[सूचना सिद्धांत]] में, सूचना सामग्री, आत्म-सूचना, आश्चर्य, या शैनन सूचना यादृच्छिक वेरिएबल से होने वाली किसी विशेष घटना ([[संभावना]] सिद्धांत) की संभावना से प्राप्त मूल मात्रा है। इसे संभावना व्यक्त करने के वैकल्पिक विधि के रूप में विचार किया जा सकता है, सामान्य अनेक [[कठिनाइयाँ]] या [[लॉग-बाधाओं]] की तरह, किन्तु सूचना सिद्धांत की समुच्चय | {{short description|Basic quantity derived from the probability of a particular event occurring from a random variable}}[[सूचना सिद्धांत]] में, '''सूचना सामग्री''', आत्म-सूचना, आश्चर्य, या शैनन सूचना यादृच्छिक वेरिएबल से होने वाली किसी विशेष घटना ([[संभावना]] सिद्धांत) की संभावना से प्राप्त मूल मात्रा है। इसे संभावना व्यक्त करने के वैकल्पिक विधि के रूप में विचार किया जा सकता है, सामान्य अनेक [[कठिनाइयाँ]] या [[लॉग-बाधाओं]] की तरह, किन्तु सूचना सिद्धांत की समुच्चय में इसके विशेष गणितीय निवेश कारक हैं। | ||
इस प्रकार से शैनन सूचना की व्याख्या किसी विशेष परिणाम के आश्चर्य के स्तर को मापने के रूप में की जा सकती है। चूंकि यह इतनी मूलभूत मात्रा है, यह कई अन्य समुच्चय | इस प्रकार से शैनन सूचना की व्याख्या किसी विशेष परिणाम के आश्चर्य के स्तर को मापने के रूप में की जा सकती है। चूंकि यह इतनी मूलभूत मात्रा है, यह कई अन्य समुच्चय में भी दिखाई देती है, जैसे यादृच्छिक वेरिएबल के इष्टतम शैनन के स्रोत कोडिंग प्रमेय को देखते हुए घटना को प्रसारित करने के लिए आवश्यक संदेश की लंबाई को दर्शाया गया है । | ||
शैनन की सूचना ''एंट्रॉपी (सूचना सिद्धांत)'' से निकटता से संबंधित है, जो यादृच्छिक वेरिएबल की आत्म-सूचना का अपेक्षित मूल्य है, जो यह निर्धारित करती है कि यादृच्छिक वेरिएबल औसतन कितना आश्चर्यजनक है। यह आत्म-सूचना की वह औसत मात्रा है जो पर्यवेक्षक किसी यादृच्छिक वेरिएबल को मापते समय उसके बारे में प्राप्त करने की अपेक्षा करता है।<ref>Jones, D.S., ''Elementary Information Theory'', Vol., Clarendon Press, Oxford pp 11–15 1979</ref> | शैनन की सूचना ''एंट्रॉपी (सूचना सिद्धांत)'' से निकटता से संबंधित है, जो यादृच्छिक वेरिएबल की आत्म-सूचना का अपेक्षित मूल्य है, जो यह निर्धारित करती है कि यादृच्छिक वेरिएबल औसतन कितना आश्चर्यजनक है। यह आत्म-सूचना की वह औसत मात्रा है जो पर्यवेक्षक किसी यादृच्छिक वेरिएबल को मापते समय उसके बारे में प्राप्त करने की अपेक्षा करता है।<ref>Jones, D.S., ''Elementary Information Theory'', Vol., Clarendon Press, Oxford pp 11–15 1979</ref> | ||
Line 88: | Line 88: | ||
==उदाहरण== | ==उदाहरण== | ||
===निष्पक्ष [[सिक्का उछालना | ===निष्पक्ष [[सिक्का उछालना]] === | ||
<math>X</math> सिक्का उछालने के [[बर्नौली परीक्षण]] पर विचार करें . सिक्के के शीर्ष के रूप में उतरने की घटना की संभावना (संभावना सिद्धांत)। <math>\text{H}</math> और पट <math>\text{T}</math> (निष्पक्ष सिक्का तथा अग्र एवं पृष्ठ देखें) प्रत्येक आधा-आधा है, <math display="inline">p_X{(\text{H})} = p_X{(\text{T})} = \tfrac{1}{2} = 0.5</math>. वेरिएबल को हेड के रूप में [[ नमूनाकरण (सिग्नल प्रोसेसिंग) |नमूनाकरण (सिग्नल प्रोसेसिंग)]] करने पर, संबंधित सूचना प्राप्त होती है | <math>X</math> सिक्का उछालने के [[बर्नौली परीक्षण]] पर विचार करें . सिक्के के शीर्ष के रूप में उतरने की घटना की संभावना (संभावना सिद्धांत)। <math>\text{H}</math> और पट <math>\text{T}</math> (निष्पक्ष सिक्का तथा अग्र एवं पृष्ठ देखें) प्रत्येक आधा-आधा है, <math display="inline">p_X{(\text{H})} = p_X{(\text{T})} = \tfrac{1}{2} = 0.5</math>. वेरिएबल को हेड के रूप में [[ नमूनाकरण (सिग्नल प्रोसेसिंग) |नमूनाकरण (सिग्नल प्रोसेसिंग)]] करने पर, संबंधित सूचना प्राप्त होती है | ||
<math display="block">\operatorname{I}_X(\text{H}) | <math display="block">\operatorname{I}_X(\text{H}) | ||
Line 96: | Line 96: | ||
= -\log_2 {\tfrac{1}{2}} = 1 \text{ Sh}.</math> | = -\log_2 {\tfrac{1}{2}} = 1 \text{ Sh}.</math> | ||
=== [[निष्पक्ष पासा]] रोल === | === [[निष्पक्ष पासा]] रोल === | ||
मान लीजिए कि हमारे पास | मान लीजिए कि हमारे पास निष्पक्ष छह-पक्षीय पासा. है। पासा पलटने का मान एक असतत एकसमान यादृच्छिक वैरिएबल<math>X \sim \mathrm{DU}[1, 6]</math> है जिसमे संभाव्यता द्रव्यमान फलन के साथ <math display="block">p_X(k) = \begin{cases} | ||
\frac{1}{6}, & k \in \{1, 2, 3, 4, 5, 6\} \\ | \frac{1}{6}, & k \in \{1, 2, 3, 4, 5, 6\} \\ | ||
0, & \text{otherwise} | 0, & \text{otherwise} | ||
Line 204: | Line 204: | ||
इसके अतिरिक्त , परिभाषा के अनुसार, आत्म-सूचना का माप (गणित) गैर-नकारात्मक और योगात्मक है। यदि घटना <math>C</math> की सूचना देने वाला संदेश दो [[सांख्यिकीय स्वतंत्रता]] घटनाओं <math>A</math> और <math>B</math> का प्रतिच्छेदन है, तो घटना <math>C</math> की सूचना घटित होने वाली दोनों स्वतंत्र घटनाओं <math>A</math> और <math>B</math> के मिश्रित संदेश की है। मिश्रित संदेश <math>C</math> की सूचना की मात्रा क्रमशः व्यक्तिगत घटक संदेश <math>A</math> और <math>B</math> की सूचना की मात्रा के समान होने की आशा की जाएगी: | इसके अतिरिक्त , परिभाषा के अनुसार, आत्म-सूचना का माप (गणित) गैर-नकारात्मक और योगात्मक है। यदि घटना <math>C</math> की सूचना देने वाला संदेश दो [[सांख्यिकीय स्वतंत्रता]] घटनाओं <math>A</math> और <math>B</math> का प्रतिच्छेदन है, तो घटना <math>C</math> की सूचना घटित होने वाली दोनों स्वतंत्र घटनाओं <math>A</math> और <math>B</math> के मिश्रित संदेश की है। मिश्रित संदेश <math>C</math> की सूचना की मात्रा क्रमशः व्यक्तिगत घटक संदेश <math>A</math> और <math>B</math> की सूचना की मात्रा के समान होने की आशा की जाएगी: | ||
<math display="block">\operatorname I(C) = \operatorname I(A \cap B) = \operatorname I(A) + \operatorname I(B).</math> | <math display="block">\operatorname I(C) = \operatorname I(A \cap B) = \operatorname I(A) + \operatorname I(B).</math> | ||
घटनाओं की स्वतंत्रता के कारण <math>A</math> और <math>B</math>, घटना की संभावना <math>C</math> है | |||
<math display="block">\operatorname P(C) = \operatorname P(A \cap B) = \operatorname P(A) \cdot \operatorname P(B).</math> | <math display="block">\operatorname P(C) = \operatorname P(A \cap B) = \operatorname P(A) \cdot \operatorname P(B).</math> | ||
चूंकि , फलन प्रयुक्त करना <math>f(\cdot)</math> का परिणाम | |||
<math display="block">\begin{align} | <math display="block">\begin{align} | ||
\operatorname I(C) & = \operatorname I(A) + \operatorname I(B) \\ | \operatorname I(C) & = \operatorname I(A) + \operatorname I(B) \\ | ||
Line 212: | Line 212: | ||
& = f\big(\operatorname P(A) \cdot \operatorname P(B)\big) \\ | & = f\big(\operatorname P(A) \cdot \operatorname P(B)\big) \\ | ||
\end{align}</math> | \end{align}</math> | ||
कॉची के कार्यात्मक समीकरण पर | कॉची के कार्यात्मक समीकरण पर कार्य करने के लिए धन्यवाद, एकमात्र मोनोटोन फलन <math>f(\cdot)</math> में ऐसी संपत्ति होना | ||
<math display="block">f(x \cdot y) = f(x) + f(y)</math> | <math display="block">f(x \cdot y) = f(x) + f(y)</math> | ||
लघुगणक फलन | लघुगणक फलन <math>\log_b(x)</math> हैं . विभिन्न आधारों के लघुगणक के मध्य एकमात्र परिचालन अंतर अलग-अलग स्केलिंग स्थिरांक का है, इसलिए हम मान सकते हैं | ||
<math display="block">f(x) = K \log(x)</math> | <math display="block">f(x) = K \log(x)</math> | ||
जहाँ <math>\log</math> [[प्राकृतिक]] लघुगणक है. चूँकि घटनाओं की संभावनाएँ हमेशा 0 और 1 के मध्य होती हैं और इन घटनाओं से जुड़ी सूचना गैर-नकारात्मक होनी चाहिए, इसके लिए यह आवश्यक है <math>K<0</math>. | जहाँ <math>\log</math> [[प्राकृतिक]] लघुगणक है. चूँकि घटनाओं की संभावनाएँ हमेशा ''0'' और ''1'' के मध्य होती हैं और इन घटनाओं से जुड़ी सूचना गैर-नकारात्मक होनी चाहिए, इसके लिए यह आवश्यक है की <math>K<0</math>. | ||
इन गुणों को ध्यान में रखते हुए, | इन गुणों को ध्यान में रखते हुए, संभावना <math>\operatorname I(\omega_n)</math> के साथ परिणाम <math>\omega_n</math> से जुड़ी स्व-सूचना <math>\operatorname P(\omega_n)</math> को इस प्रकार परिभाषित किया गया है: | ||
<math display="block">\operatorname I(\omega_n) = -\log(\operatorname P(\omega_n)) = \log \left(\frac{1}{\operatorname P(\omega_n)} \right) </math> | <math display="block">\operatorname I(\omega_n) = -\log(\operatorname P(\omega_n)) = \log \left(\frac{1}{\operatorname P(\omega_n)} \right) </math> | ||
घटना | घटना <math>\omega_n</math> की संभावना उतनी ही कम होगी , संदेश से जुड़ी आत्म-सूचना की मात्रा जितनी अधिक होगी कि घटना वास्तव में घटित हुई। यदि उपरोक्त लघुगणक आधार 2 है, तो <math> I(\omega_n)</math> की इकाई [[ अंश |शैनन]] है. यह सबसे आम प्रथा है. आधार <math> e</math> के प्राकृतिक लघुगणक का उपयोग करते समय , इकाई नेट (इकाई) होगी। आधार 10 लघुगणक के लिए, सूचना की इकाई हार्टले (इकाई) है। | ||
एक त्वरित उदाहरण के रूप में, सिक्के के | एक त्वरित उदाहरण के रूप में, सिक्के के निरंतर ''4'' उछालों में 4 चित (या किसी विशिष्ट परिणाम) के परिणाम से जुड़ी सूचना सामग्री 4 शैनन (संभावना ''1/16'') होगी, और इसके अलावा परिणाम प्राप्त करने से जुड़ी सूचना सामग्री होगी निर्दिष्ट एक ''~0.09'' शैनन बिट्स (संभावना ''15/16'') होगा। विस्तृत उदाहरणों के लिए ऊपर देखें। | ||
== यह भी देखें == | == यह भी देखें == |
Revision as of 11:30, 16 July 2023
सूचना सिद्धांत में, सूचना सामग्री, आत्म-सूचना, आश्चर्य, या शैनन सूचना यादृच्छिक वेरिएबल से होने वाली किसी विशेष घटना (संभावना सिद्धांत) की संभावना से प्राप्त मूल मात्रा है। इसे संभावना व्यक्त करने के वैकल्पिक विधि के रूप में विचार किया जा सकता है, सामान्य अनेक कठिनाइयाँ या लॉग-बाधाओं की तरह, किन्तु सूचना सिद्धांत की समुच्चय में इसके विशेष गणितीय निवेश कारक हैं।
इस प्रकार से शैनन सूचना की व्याख्या किसी विशेष परिणाम के आश्चर्य के स्तर को मापने के रूप में की जा सकती है। चूंकि यह इतनी मूलभूत मात्रा है, यह कई अन्य समुच्चय में भी दिखाई देती है, जैसे यादृच्छिक वेरिएबल के इष्टतम शैनन के स्रोत कोडिंग प्रमेय को देखते हुए घटना को प्रसारित करने के लिए आवश्यक संदेश की लंबाई को दर्शाया गया है ।
शैनन की सूचना एंट्रॉपी (सूचना सिद्धांत) से निकटता से संबंधित है, जो यादृच्छिक वेरिएबल की आत्म-सूचना का अपेक्षित मूल्य है, जो यह निर्धारित करती है कि यादृच्छिक वेरिएबल औसतन कितना आश्चर्यजनक है। यह आत्म-सूचना की वह औसत मात्रा है जो पर्यवेक्षक किसी यादृच्छिक वेरिएबल को मापते समय उसके बारे में प्राप्त करने की अपेक्षा करता है।[1]
अतः सूचना सामग्री को सूचना की विभिन्न इकाइयों में व्यक्त किया जा सकता है, जिनमें से अधिक समान बिट (अधिक सही रूप से शैनन कहा जाता है) है, जैसा कि नीचे बताया गया है।
परिभाषा
क्लाउड शैनन की आत्म-सूचना की परिभाषा को कई सिद्धांतों को पूरा करने के लिए चुना गया था:
- 100% संभावना वाली घटना पूर्ण प्रकार से आश्चर्यजनक है और कोई सूचना नहीं देती है।
- अनेक घटना जितनी कम संभावित होती है, वह उतनी ही अधिक आश्चर्यजनक होती है और उतनी ही अधिक सूचना देती है।
- यदि दो स्वतंत्र घटनाओं को अलग-अलग मापा जाता है, तो सूचना की कुल मात्रा व्यक्तिगत घटनाओं की स्वयं-सूचना का योग है।
इस प्रकार से विस्तृत व्युत्पत्ति नीचे है, किन्तु यह दिखाया जा सकता है कि संभाव्यता का अनूठा कार्य है जो गुणक स्केलिंग कारक तक, इन तीन सिद्धांतों को पूरा करता है। सामान्यतः , वास्तविक संख्या दी गई है और घटना (संभावना सिद्धांत) संभाव्यता के साथ , सूचना सामग्री को इस प्रकार परिभाषित किया गया है:
औपचारिक रूप से, यादृच्छिक वेरिएबल दिया गया है संभाव्यता द्रव्यमान फलन के साथ , मापने की स्व-सूचना परिणाम के रूप में (संभावना) परिभाषित किया जाता है[2]
गुण
संभाव्यता का नीरस रूप से घटता हुआ कार्य
किसी दिए गए संभाव्यता स्थान के लिए, दुर्लभ घटना (संभावना सिद्धांत) का माप सहज रूप से अधिक आश्चर्यजनक है, और अधिक सामान्य मूल्यों की तुलना में अधिक सूचना सामग्री प्रदान करता है। इस प्रकार, स्व-सूचना संभाव्यता का मोनोटोनिक फलन है, या कभी-कभी इसे एंटीटोनिक फलन भी कहा जाता है।
जबकि मानक संभावनाओं को अंतराल में वास्तविक संख्याओं द्वारा दर्शाया जाता है , आत्म-सूचना को अंतराल में विस्तारित वास्तविक संख्याओं द्वारा दर्शाया जाता है . विशेष रूप से, लघुगणकीय आधार के किसी भी विकल्प के लिए हमारे पास निम्नलिखित हैं:
- यदि किसी विशेष घटना के घटित होने की 100% संभावना हो तो उसकी स्व-सूचना होती है : इसकी घटना बिल्कुल गैर-आश्चर्यजनक है और इससे कोई सूचना नहीं मिलती है।
- यदि किसी विशेष घटना के घटित होने की संभावना 0% है, तो उसकी स्व-सूचना है : इसकी घटना असीम रूप से आश्चर्यजनक है।
इससे, हम कुछ सामान्य गुण प्राप्त कर सकते हैं:
- सहज रूप से, किसी अप्रत्याशित घटना को देखने से अधिक सूचना प्राप्त होती है—यह आश्चर्यजनक है।
- उदाहरण के लिए, यदि ऐलिस के लॉटरी जीतने की लाखों में से संभावना है, तो उसके दोस्त बॉब को यह जानने से लिए अधिक सूचना प्राप्त होगी कि उसने लॉटरी जीती है, अतिरिक्त इसके कि वह लॉटरी जीत गई है। निश्चित दिन. (लॉटरी गणित भी देखें।)
- यह यादृच्छिक वेरिएबल की आत्म-सूचना और उसके विचरण के मध्य अंतर्निहित संबंध स्थापित करता है।
लॉग-ऑड्स से संबंध
चूंकि शैनन सूचना लॉग-ऑड्स से निकटता से संबंधित है। विशेष रूप से, किसी घटना को देखते हुए , मान लीजिये कि की प्रायिकता है घटित हो रहा है, और वह की सम्भावना है घटित नहीं हो रहा है. फिर हमारे पास लॉग-ऑड्स की निम्नलिखित परिभाषा है:
स्वतंत्र घटनाओं की संयोजकता
दो स्वतंत्र घटनाओं की सूचना सामग्री प्रत्येक घटना की सूचना सामग्री का योग है। इस गुण को गणित में सिग्मा एडिटिविटी और विशेष रूप से माप (गणित)और संभाव्यता सिद्धांत में सिग्मा एडिटिविटी के रूप में जाना जाता है। संभाव्यता द्रव्यमान फलन क्रमशः और के साथ स्वतंत्र यादृच्छिक वेरिएबल पर विचार करें। संयुक्त संभाव्यता द्रव्यमान फलन है
इस प्रकार से संभावनाओं के लिए संबंधित संपत्ति यह है कि स्वतंत्र घटनाओं की लॉग-संभावना प्रत्येक घटना की लॉग-संभावनाओं का योग है। लॉग-संभावना को समर्थन या नकारात्मक आश्चर्य के रूप में व्याख्या करना (वह डिग्री जिस तक कोई घटना किसी दिए गए मॉडल का समर्थन करती है: मॉडल को किसी घटना द्वारा इस सीमा तक समर्थित किया जाता है कि घटना अप्रत्याशित है, मॉडल को देखते हुए), यह दर्शाता है कि स्वतंत्र घटनाएं समर्थन जोड़ती हैं: दो घटनाएँ मिलकर सांख्यिकीय अनुमान के लिए जो सूचना प्रदान करती हैं, वह उनकी स्वतंत्र सूचना का योग है।
एंट्रॉपी से संबंध
यादृच्छिक वेरिएबल की शैनन एन्ट्रापी उपरोक्त को इस प्रकार परिभाषित किया गया है
अपेक्षा को इसके समर्थन (गणित) पर असतत यादृच्छिक वेरिएबल पर लिया जाता है।
कभी-कभी, एन्ट्रापी को ही यादृच्छिक वेरिएबल की स्व-सूचना कहा जाता है, संभवतः इसलिए क्योंकि एन्ट्रापी संतुष्ट करती है , जहाँ की पारस्परिक सूचना है[5]
सतत यादृच्छिक वेरिएबल के लिए संबंधित अवधारणा विभेदक एन्ट्रापी है।
टिप्पणियाँ
इस उपाय को आश्चर्य भी कहा गया है, क्योंकि यह परिणाम देखने के "आश्चर्य" का प्रतिनिधित्व करता है (एक अत्यधिक असंभव परिणाम बहुत आश्चर्यजनक है)। यह शब्द (लॉग-प्रायिकता माप के रूप में) मायरोन ट्रिबस द्वारा उनकी 1961 की पुस्तक थर्मोस्टैटिक्स और थर्मोडायनामिक्स में गढ़ा गया था।.[6][7]
जब घटना एक यादृच्छिक अहसास (एक वेरिएबल का) होती है तो वेरिएबल की आत्म-सूचना को अहसास की आत्म-सूचना के अपेक्षित मूल्य के रूप में परिभाषित किया जाता है।
स्व-सूचना उचित स्कोरिंग नियम का एक उदाहरण है
उदाहरण
निष्पक्ष सिक्का उछालना
सिक्का उछालने के बर्नौली परीक्षण पर विचार करें . सिक्के के शीर्ष के रूप में उतरने की घटना की संभावना (संभावना सिद्धांत)। और पट (निष्पक्ष सिक्का तथा अग्र एवं पृष्ठ देखें) प्रत्येक आधा-आधा है, . वेरिएबल को हेड के रूप में नमूनाकरण (सिग्नल प्रोसेसिंग) करने पर, संबंधित सूचना प्राप्त होती है
निष्पक्ष पासा रोल
मान लीजिए कि हमारे पास निष्पक्ष छह-पक्षीय पासा. है। पासा पलटने का मान एक असतत एकसमान यादृच्छिक वैरिएबल है जिसमे संभाव्यता द्रव्यमान फलन के साथ
दो स्वतंत्र, समान रूप से वितरित पासे
मान लीजिए कि हमारे पास दो स्वतंत्र, समान रूप से वितरित यादृच्छिक वेरिएबल हैं प्रत्येक एक स्वतंत्र निष्पक्ष 6-पक्षीय पासा रोल के अनुरूप है। और का संयुक्त संभाव्यता वितरण है
रोल की आवृत्ति से सूचना
यदि हमें पासे के मूल्य के बारे में सुचना मिलती है, बिना यह जाने कि किस पासे का मूल्य क्या है, तो हम तथाकथित गणना वेरिएबल के साथ दृष्टिकोण को औपचारिक बना सकते हैं
आश्चर्य की बात नहीं है कि सीखने की सूचना सामग्री कि दोनों पासों को ही विशेष संख्या के रूप में घुमाया गया था, सीखने की सूचना सामग्री से अधिक है कि पासा संख्या थी और दूसरा अलग संख्या थी। उदाहरण के लिए घटनाओं को लीजिए और के लिए . उदाहरण के लिए, और .
सूचना सामग्री हैं
मान लीजिये ऐसी घटना हो कि दोनों पासों का मूल्य समान हो और ऐसा हो कि पासा अलग-अलग हो। तब और . घटनाओं की सूचना सामग्री हैं
पासे के योग से सूचना
स्वतंत्र यादृच्छिक वेरिएबल के योग का संभाव्यता द्रव्यमान या घनत्व फलन (सामूहिक संभाव्यता माप) कनवल्शन या मापों का कनवल्शन है । स्वतंत्र निष्पक्ष 6-पक्षीय पासा रोल के मामले में, यादृच्छिक वेरिएबल संभाव्यता द्रव्यमान फलन है , जहाँ असतत कनवल्शन का प्रतिनिधित्व करता है। परिणाम (संभावना) की प्रायिकता है. इसलिए, दावा की गई सूचना है
सामान्य असतत समान वितरण
सामान्यीकरण करना § निष्पक्ष पासा पलटना उपरोक्त उदाहरण में, सामान्य असतत समान यादृच्छिक वेरिएबल (डीयूआरवी) पर विचार करें सुविधा के लिए परिभाषित करें . प्रायिकता द्रव्यमान फलन है
विशेष मामला: निरंतर यादृच्छिक चर
यदि ऊपर, नियतात्मक रूप से दिए गए संभाव्यता वितरण के साथ निरंतर यादृच्छिक वेरिएबल के लिए पतन (गणित)। और संभाव्यता डिराक माप को मापती है . एकमात्र मूल्य नियतिवादी प्रणाली ले सकते हैं वह नियतात्मक रूप से , है, इसलिए किसी भी माप की सूचना सामग्री है
श्रेणीबद्ध वितरण
उपरोक्त सभी स्तिथियों को सामान्यीकृत करते हुए, के समर्थन (गणित) और दिए गए संभाव्यता द्रव्यमान फलन के साथ एक श्रेणीबद्ध असतत यादृच्छिक वेरिएबल पर विचार करें
नतीजे की सूचना दिया हुआ है
व्युत्पत्ति
परिभाषा के अनुसार, सूचना रखने वाली मूल इकाई से सूचना प्राप्त करने वाली इकाई को तभी स्थानांतरित की जाती है, जब प्राप्तकर्ता को सूचना नहीं होती है। यदि प्राप्तकर्ता इकाई को संदेश प्राप्त करने से पहले संदेश की सामग्री निश्चित रूप से पता थी, तो प्राप्त संदेश की सूचना की मात्रा शून्य है। केवल तभी जब प्राप्तकर्ता को संदेश की सामग्री का अग्रिम ज्ञान 100% से कम हो, तभी संदेश वास्तव में सूचना संप्रेषित करता है।
इस प्रकार से उदाहरण के लिए, हास्य अभिनेता जॉर्ज कार्लिन के चरित्र (हिप्पी डिप्पी वेदरमैन) को उद्धृत करते हुए, आज रात के लिए मौसम का पूर्वानुमान: अंधेरा। रात भर अंधेरा प्रवाहित रहा, सुबह तक प्रकाश व्यापक रूप से फैली हुई थी।[8] यह मानते हुए कि कोई व्यक्ति पृथ्वी के ध्रुवीय क्षेत्र के निकट नहीं रहता है, उस पूर्वानुमान में दर्शायी गई सूचना की मात्रा शून्य है क्योंकि पूर्वानुमान प्राप्त होने से पहले ही यह ज्ञात होता है कि अंधेरा सदैव रात के साथ आता है।
तदनुसार, किसी घटना की घटना (संभावना सिद्धांत) को सूचित करने वाली सामग्री को संदेश देने वाले संदेश में निहित स्व-सूचना की मात्रा, , केवल उस घटना की संभावना पर निर्भर करता है।
इसके अतिरिक्त , परिभाषा के अनुसार, आत्म-सूचना का माप (गणित) गैर-नकारात्मक और योगात्मक है। यदि घटना की सूचना देने वाला संदेश दो सांख्यिकीय स्वतंत्रता घटनाओं और का प्रतिच्छेदन है, तो घटना की सूचना घटित होने वाली दोनों स्वतंत्र घटनाओं और के मिश्रित संदेश की है। मिश्रित संदेश की सूचना की मात्रा क्रमशः व्यक्तिगत घटक संदेश और की सूचना की मात्रा के समान होने की आशा की जाएगी:
इन गुणों को ध्यान में रखते हुए, संभावना के साथ परिणाम से जुड़ी स्व-सूचना को इस प्रकार परिभाषित किया गया है:
एक त्वरित उदाहरण के रूप में, सिक्के के निरंतर 4 उछालों में 4 चित (या किसी विशिष्ट परिणाम) के परिणाम से जुड़ी सूचना सामग्री 4 शैनन (संभावना 1/16) होगी, और इसके अलावा परिणाम प्राप्त करने से जुड़ी सूचना सामग्री होगी निर्दिष्ट एक ~0.09 शैनन बिट्स (संभावना 15/16) होगा। विस्तृत उदाहरणों के लिए ऊपर देखें।
यह भी देखें
संदर्भ
- ↑ Jones, D.S., Elementary Information Theory, Vol., Clarendon Press, Oxford pp 11–15 1979
- ↑ 2.0 2.1 2.2 2.3 McMahon, David M. (2008). क्वांटम कंप्यूटिंग की व्याख्या. Hoboken, NJ: Wiley-Interscience. ISBN 9780470181386. OCLC 608622533.
- ↑ Borda, Monica (2011). सूचना सिद्धांत और कोडिंग में बुनियादी बातें. Springer. ISBN 978-3-642-20346-6.
- ↑ Han, Te Sun; Kobayashi, Kingo (2002). सूचना और कोडिंग का गणित. American Mathematical Society. ISBN 978-0-8218-4256-0.
- ↑ Thomas M. Cover, Joy A. Thomas; Elements of Information Theory; p. 20; 1991.
- ↑ R. B. Bernstein and R. D. Levine (1972) "Entropy and Chemical Change. I. Characterization of Product (and Reactant) Energy Distributions in Reactive Molecular Collisions: Information and Entropy Deficiency", The Journal of Chemical Physics 57, 434–449 link.
- ↑ Myron Tribus (1961) Thermodynamics and Thermostatics: An Introduction to Energy, Information and States of Matter, with Engineering Applications (D. Van Nostrand, 24 West 40 Street, New York 18, New York, U.S.A) Tribus, Myron (1961), pp. 64–66 borrow.
- ↑ "जॉर्ज कार्लिन का एक उद्धरण". www.goodreads.com. Retrieved 2021-04-01.
अग्रिम पठन
- C.E. Shannon, A Mathematical Theory of Communication, Bell Systems Technical Journal, Vol. 27, pp 379–423, (Part I), 1948.