जानकारी सामग्री

From Vigyanwiki
Revision as of 13:09, 10 July 2023 by alpha>Indicwiki (Created page with "{{short description|Basic quantity derived from the probability of a particular event occurring from a random variable}} {{cleanup|reason=unclear terminology|date=June 2017}}...")
(diff) ← Older revision | Latest revision (diff) | Newer revision → (diff)

सूचना सिद्धांत में, सूचना सामग्री, आत्म-सूचना, आश्चर्य, या शैनन जानकारी एक यादृच्छिक चर से होने वाली किसी विशेष घटना (संभावना सिद्धांत) की संभावना से प्राप्त एक मूल मात्रा है। इसे संभावना व्यक्त करने के एक वैकल्पिक तरीके के रूप में सोचा जा सकता है, बहुत कुछ कठिनाइयाँ या लॉग-बाधाओं की तरह, लेकिन सूचना सिद्धांत की सेटिंग में इसके विशेष गणितीय फायदे हैं।

शैनन जानकारी की व्याख्या किसी विशेष परिणाम के आश्चर्य के स्तर को मापने के रूप में की जा सकती है। चूंकि यह इतनी बुनियादी मात्रा है, यह कई अन्य सेटिंग्स में भी दिखाई देती है, जैसे यादृच्छिक चर के इष्टतम शैनन के स्रोत कोडिंग प्रमेय को देखते हुए घटना को प्रसारित करने के लिए आवश्यक संदेश की लंबाई।

शैनन की जानकारी एंट्रॉपी (सूचना सिद्धांत) से निकटता से संबंधित है, जो एक यादृच्छिक चर की आत्म-जानकारी का अपेक्षित मूल्य है, जो यह निर्धारित करती है कि यादृच्छिक चर औसतन कितना आश्चर्यजनक है। यह आत्म-सूचना की वह औसत मात्रा है जो एक पर्यवेक्षक किसी यादृच्छिक चर को मापते समय उसके बारे में प्राप्त करने की अपेक्षा करता है।[1] सूचना सामग्री को सूचना की विभिन्न इकाइयों में व्यक्त किया जा सकता है, जिनमें से सबसे आम बिट (अधिक सही ढंग से शैनन कहा जाता है) है, जैसा कि नीचे बताया गया है।

परिभाषा

क्लाउड शैनन की आत्म-सूचना की परिभाषा को कई सिद्धांतों को पूरा करने के लिए चुना गया था:

  1. 100% संभावना वाली एक घटना पूरी तरह से आश्चर्यजनक है और कोई जानकारी नहीं देती है।
  2. कोई घटना जितनी कम संभावित होती है, वह उतनी ही अधिक आश्चर्यजनक होती है और उतनी ही अधिक जानकारी देती है।
  3. यदि दो स्वतंत्र घटनाओं को अलग-अलग मापा जाता है, तो जानकारी की कुल मात्रा व्यक्तिगत घटनाओं की स्वयं-जानकारी का योग है।

विस्तृत व्युत्पत्ति नीचे है, लेकिन यह दिखाया जा सकता है कि संभाव्यता का एक अनूठा कार्य है जो गुणक स्केलिंग कारक तक, इन तीन सिद्धांतों को पूरा करता है। मोटे तौर पर, एक वास्तविक संख्या दी गई है और एक घटना (संभावना सिद्धांत) संभाव्यता के साथ , सूचना सामग्री को इस प्रकार परिभाषित किया गया है:

आधार b उपरोक्त स्केलिंग कारक से मेल खाता है। बी के विभिन्न विकल्प सूचना की विभिन्न इकाइयों के अनुरूप हैं: कब b = 2, इकाई शैनन (इकाई) (प्रतीक श) है, जिसे अक्सर 'बिट' कहा जाता है; कब b = e, इकाई नेट (इकाई) (प्रतीक नेट) है; और जब b = 10, इकाई हार्टले (इकाई) (प्रतीक हार्ट) है।

औपचारिक रूप से, एक यादृच्छिक चर दिया गया है संभाव्यता द्रव्यमान फ़ंक्शन के साथ , मापने की स्व-जानकारी परिणाम के रूप में (संभावना) परिभाषित किया जाता है[2]

संकेतन का प्रयोग उपरोक्त स्व-जानकारी सार्वभौमिक नहीं है। अंकन के बाद से इसका उपयोग अक्सर आपसी जानकारी की संबंधित मात्रा के लिए भी किया जाता है, कई लेखक छोटे अक्षरों का उपयोग करते हैं इसके बजाय, पूंजी के उपयोग को प्रतिबिंबित करते हुए, स्व-एन्ट्रापी के लिए एन्ट्रापी के लिए.

गुण

संभाव्यता का नीरस रूप से घटता हुआ कार्य

किसी दिए गए संभाव्यता स्थान के लिए, दुर्लभ घटना (संभावना सिद्धांत) का माप सहज रूप से अधिक आश्चर्यजनक है, और अधिक सामान्य मूल्यों की तुलना में अधिक जानकारी सामग्री प्रदान करता है। इस प्रकार, स्व-जानकारी संभाव्यता का एक मोनोटोनिक फ़ंक्शन है, या कभी-कभी इसे एंटीटोनिक फ़ंक्शन भी कहा जाता है।

जबकि मानक संभावनाओं को अंतराल में वास्तविक संख्याओं द्वारा दर्शाया जाता है , आत्म-जानकारी को अंतराल में विस्तारित वास्तविक संख्याओं द्वारा दर्शाया जाता है . विशेष रूप से, लघुगणकीय आधार के किसी भी विकल्प के लिए हमारे पास निम्नलिखित हैं:

  • यदि किसी विशेष घटना के घटित होने की 100% संभावना हो तो उसकी स्व-जानकारी होती है : इसकी घटना बिल्कुल गैर-आश्चर्यजनक है और इससे कोई जानकारी नहीं मिलती है।
  • यदि किसी विशेष घटना के घटित होने की संभावना 0% है, तो उसकी स्व-जानकारी है : इसकी घटना असीम रूप से आश्चर्यजनक है।

इससे, हम कुछ सामान्य गुण प्राप्त कर सकते हैं:

  • सहज रूप से, किसी अप्रत्याशित घटना को देखने से अधिक जानकारी प्राप्त होती है—यह आश्चर्यजनक है।
    • उदाहरण के लिए, यदि ऐलिस के लॉटरी जीतने की लाखों में से एक संभावना है, तो उसके दोस्त बॉब को यह जानने से काफी अधिक जानकारी प्राप्त होगी कि उसने लॉटरी जीती है, बजाय इसके कि वह लॉटरी जीत गई है। एक निश्चित दिन. (लॉटरी गणित भी देखें।)
  • यह एक यादृच्छिक चर की आत्म-जानकारी और उसके विचरण के बीच एक अंतर्निहित संबंध स्थापित करता है।

लॉग-ऑड्स से संबंध

शैनन जानकारी लॉग-ऑड्स से निकटता से संबंधित है। विशेष रूप से, किसी घटना को देखते हुए , लगता है कि की सम्भावना है घटित हो रहा है, और वह की सम्भावना है घटित नहीं हो रहा है. फिर हमारे पास लॉग-ऑड्स की निम्नलिखित परिभाषा है:

इसे दो शैनन सूचनाओं के अंतर के रूप में व्यक्त किया जा सकता है:
दूसरे शब्दों में, लॉग-ऑड्स की व्याख्या उस समय आश्चर्य के स्तर के रूप में की जा सकती है जब घटना नहीं होती है, घटना के घटित होने पर आश्चर्य के स्तर को घटा दिया जाता है।

स्वतंत्र घटनाओं की संयोजकता

दो स्वतंत्र घटनाओं की सूचना सामग्री प्रत्येक घटना की सूचना सामग्री का योग है। इस संपत्ति को गणित में योगात्मक मानचित्र के रूप में जाना जाता है, और विशेष रूप से माप (गणित) और संभाव्यता सिद्धांत में सिग्मा additivity के रूप में जाना जाता है। दो स्वतंत्र यादृच्छिक चर पर विचार करें संभाव्यता जन कार्यों के साथ और क्रमश। संयुक्त संभाव्यता द्रव्यमान फलन है

क्योंकि और स्वतंत्रता (संभावना सिद्धांत) हैं। परिणाम की सूचना सामग्री (संभावना) है
देखना§ Two independent, identically distributed dice उदाहरण के लिए नीचे।

संभावनाओं के लिए संबंधित संपत्ति यह है कि स्वतंत्र घटनाओं की लॉग-संभावना प्रत्येक घटना की लॉग-संभावनाओं का योग है। लॉग-संभावना को समर्थन या नकारात्मक आश्चर्य के रूप में व्याख्या करना (वह डिग्री जिस तक कोई घटना किसी दिए गए मॉडल का समर्थन करती है: एक मॉडल को किसी घटना द्वारा इस हद तक समर्थित किया जाता है कि घटना अप्रत्याशित है, मॉडल को देखते हुए), यह बताता है कि स्वतंत्र घटनाएं समर्थन जोड़ती हैं: दो घटनाएँ मिलकर सांख्यिकीय अनुमान के लिए जो जानकारी प्रदान करती हैं, वह उनकी स्वतंत्र जानकारी का योग है।

एंट्रॉपी से संबंध

यादृच्छिक चर की शैनन एन्ट्रापी ऊपर शैनन एन्ट्रॉपी#परिभाषा है

परिभाषा के अनुसार अपेक्षित मूल्य की माप की जानकारी सामग्री के बराबर .[3]: 11 [4]: 19–20  अपेक्षा को इसके समर्थन (गणित) पर असतत यादृच्छिक चर पर लिया जाता है।

कभी-कभी, एन्ट्रापी को ही यादृच्छिक चर की स्व-सूचना कहा जाता है, संभवतः इसलिए क्योंकि एन्ट्रापी संतुष्ट करती है , कहाँ की पारस्परिक जानकारी है खुद के साथ.[5] सतत यादृच्छिक चर के लिए संबंधित अवधारणा विभेदक एन्ट्रापी है।

टिप्पणियाँ

This measure has also been called surprisal, as it represents the "surprise" of seeing the outcome (a highly improbable outcome is very surprising). This term (as a log-probability measure) was coined by Myron Tribus in his 1961 book Thermostatics and Thermodynamics.[6][7]

When the event is a random realization (of a variable) the self-information of the variable is defined as the expected value of the self-information of the realization.

Self-information is an example of a proper scoring rule.[clarification needed]


उदाहरण

उचित सिक्का उछालना

सिक्का उछालने के बर्नौली परीक्षण पर विचार करें . सिक्के के शीर्ष के रूप में उतरने की घटना की संभावना (संभावना सिद्धांत)। और पूँछ (निष्पक्ष सिक्का तथा अग्र एवं पृष्ठ देखें) प्रत्येक आधा-आधा है, . वैरिएबल को हेड के रूप में नमूनाकरण (सिग्नल प्रोसेसिंग) करने पर, संबंधित जानकारी प्राप्त होती है

इसलिए हेड के रूप में उतरने वाले एक उचित सिक्के का सूचना लाभ 1 शैनन (इकाई) है।[2]इसी तरह, पूंछ मापने की जानकारी प्राप्त होती है है


निष्पक्ष पासा रोल

मान लीजिए कि हमारे पास एक अच्छा पासा है|एक अच्छा छह तरफा पासा। एक पासा पलटने का मूल्य एक असतत समान वितरण है संभाव्यता द्रव्यमान फ़ंक्शन के साथ

4 आने की प्रायिकता है , किसी भी अन्य वैध रोल की तरह। 4 को रोल करने की सूचना सामग्री इस प्रकार है
जानकारी की।

दो स्वतंत्र, समान रूप से वितरित पासे

मान लीजिए कि हमारे पास दो स्वतंत्र और समान रूप से वितरित यादृच्छिक चर हैं|स्वतंत्र, समान रूप से वितरित यादृच्छिक चर प्रत्येक एक स्वतंत्र यादृच्छिक चर के अनुरूप 6-पक्षीय पासा रोल। की संयुक्त संभाव्यता वितरण और है

यादृच्छिक चर की सूचना सामग्री है
और स्वतंत्र घटनाओं की #Addivity द्वारा भी गणना की जा सकती है


रोल की आवृत्ति से जानकारी

यदि हमें पासे के मूल्य के बारे में जानकारी प्राप्त होती है, तो बारह गुना तरीके#केस एफएक्स में किस पासे का कौन सा मूल्य था, हम तथाकथित गिनती चर के साथ दृष्टिकोण को औपचारिक रूप दे सकते हैं

के लिए , तब और गिनती में बहुपद वितरण होता है
इसे सत्यापित करने के लिए, 6 परिणाम घटना के अनुरूप और की कुल संभावना 1/6. ये एकमात्र ऐसी घटनाएँ हैं जिन्हें इस बात की पहचान के साथ ईमानदारी से संरक्षित किया गया है कि कौन सा पासा पलटा और कौन सा परिणाम निकला क्योंकि परिणाम समान हैं। अन्य संख्याओं को घुमाने वाले पासों को अलग करने के ज्ञान के बिना संयोजन इस प्रकार हैं कि एक पासा एक संख्या को घुमाता है और दूसरा पासा एक अलग संख्या को घुमाता है, प्रत्येक की संभावना होती है 1/18. वास्तव में, , आवश्यकता अनुसार।

आश्चर्य की बात नहीं है कि सीखने की सूचना सामग्री कि दोनों पासों को एक ही विशेष संख्या के रूप में घुमाया गया था, सीखने की सूचना सामग्री से अधिक है कि एक पासा एक संख्या थी और दूसरा एक अलग संख्या थी। उदाहरण के लिए घटनाओं को लीजिए और के लिए . उदाहरण के लिए, और .

सूचना सामग्री हैं

होने देना ऐसी घटना हो कि दोनों पासों का मूल्य समान हो और ऐसा हो कि पासा अलग-अलग हो। तब और . घटनाओं की सूचना सामग्री हैं


पासे के योग से जानकारी

स्वतंत्र यादृच्छिक चरों के योग का संभाव्यता द्रव्यमान या घनत्व फ़ंक्शन (सामूहिक संभाव्यता माप) कनवल्शन#मापों का कनवल्शन। स्वतंत्र निष्पक्ष 6-पक्षीय पासा रोल के मामले में, यादृच्छिक चर संभाव्यता द्रव्यमान फलन है , कहाँ असतत कनवल्शन का प्रतिनिधित्व करता है। परिणाम (संभावना) संभावना है . इसलिए, दावा की गई जानकारी है


सामान्य असतत समान वितरण

सामान्यीकरण करना § Fair dice roll उपरोक्त उदाहरण में, एक सामान्य असतत समान यादृच्छिक चर (DURV) पर विचार करें सुविधा के लिए परिभाषित करें . प्रायिकता द्रव्यमान फलन है

सामान्य तौर पर, DURV के मानों को पूर्णांक होने की आवश्यकता नहीं है, या सूचना सिद्धांत के प्रयोजनों के लिए समान रूप से अंतरित होने की भी आवश्यकता नहीं है; उन्हें केवल समसंभाव्य होने की आवश्यकता है।[2]किसी भी अवलोकन का सूचना लाभ है


विशेष मामला: निरंतर यादृच्छिक चर

अगर ऊपर, नियतात्मक रूप से दिए गए संभाव्यता वितरण के साथ एक निरंतर यादृच्छिक चर के लिए पतन (गणित)। और संभाव्यता डिराक माप को मापती है . एकमात्र मूल्य नियतिवादी प्रणाली ले सकते हैं , इसलिए किसी भी माप की सूचना सामग्री है

सामान्य तौर पर, किसी ज्ञात मूल्य को मापने से कोई जानकारी प्राप्त नहीं होती है।[2]


श्रेणीबद्ध वितरण

उपरोक्त सभी मामलों को सामान्यीकृत करते हुए, समर्थन (गणित) के साथ एक श्रेणीबद्ध चर असतत यादृच्छिक चर पर विचार करें और संभाव्यता द्रव्यमान फ़ंक्शन द्वारा दिया गया

सूचना सिद्धांत के प्रयोजनों के लिए, मूल्य संख्याएँ होना आवश्यक नहीं है; वे परिमित माप के माप स्थान पर कोई भी पारस्परिक रूप से अनन्य # संभाव्यता घटना (संभावना सिद्धांत) हो सकते हैं जो संभाव्यता माप के लिए सामान्यीकरण (सांख्यिकी) रहा है . व्यापकता की हानि के बिना, हम मान सकते हैं कि सेट पर श्रेणीबद्ध वितरण समर्थित है ; संभाव्यता सिद्धांत और इसलिए सूचना सिद्धांत के संदर्भ में गणितीय संरचना समरूपता है।

नतीजे की जानकारी दिया हुआ है

इन उदाहरणों से, सिग्मा एडिटिविटी द्वारा ज्ञात संभाव्यता वितरण के साथ स्वतंत्र यादृच्छिक चर असतत यादृच्छिक चर के किसी भी सेट की जानकारी की गणना करना संभव है।

व्युत्पत्ति

परिभाषा के अनुसार, जानकारी रखने वाली एक मूल इकाई से जानकारी प्राप्त करने वाली इकाई को तभी स्थानांतरित की जाती है, जब प्राप्तकर्ता को जानकारी नहीं होती है। यदि प्राप्तकर्ता इकाई को संदेश प्राप्त करने से पहले संदेश की सामग्री निश्चित रूप से पता थी, तो प्राप्त संदेश की जानकारी की मात्रा शून्य है। केवल तभी जब प्राप्तकर्ता को संदेश की सामग्री का अग्रिम ज्ञान 100% से कम हो, तभी संदेश वास्तव में जानकारी संप्रेषित करता है।

उदाहरण के लिए, हास्य अभिनेता जॉर्ज कार्लिन के एक चरित्र (हिप्पी डिप्पी वेदरमैन) को उद्धृत करते हुए, आज रात के लिए मौसम का पूर्वानुमान: अंधेरा। रात भर अंधेरा जारी रहा, सुबह तक रोशनी व्यापक रूप से बिखरी हुई थी।[8] यह मानते हुए कि कोई व्यक्ति पृथ्वी के ध्रुवीय क्षेत्रों के निकट नहीं रहता है, उस पूर्वानुमान में बताई गई जानकारी की मात्रा शून्य है क्योंकि पूर्वानुमान प्राप्त होने से पहले ही यह ज्ञात होता है कि अंधेरा हमेशा रात के साथ आता है।

तदनुसार, किसी घटना की घटना (संभावना सिद्धांत) को सूचित करने वाली सामग्री को संदेश देने वाले संदेश में निहित स्व-जानकारी की मात्रा, , केवल उस घटना की संभावना पर निर्भर करता है।

किसी समारोह के लिए नीचे निर्धारित किया जाएगा. अगर , तब . अगर , तब .

इसके अलावा, परिभाषा के अनुसार, आत्म-जानकारी का माप (गणित) गैर-नकारात्मक और योगात्मक है। यदि कोई संदेश घटना की सूचना देता है दो सांख्यिकीय स्वतंत्रता घटनाओं का प्रतिच्छेदन है और , फिर घटना की जानकारी घटित होना दोनों स्वतंत्र घटनाओं के मिश्रित संदेश का है और घटित हो रहा है. मिश्रित संदेश की जानकारी की मात्रा व्यक्तिगत घटक संदेशों की जानकारी की मात्रा के योग के बराबर होने की उम्मीद की जाएगी और क्रमश:

घटनाओं की स्वतंत्रता के कारण और , घटना की संभावना है
हालाँकि, फ़ंक्शन लागू करना का परिणाम
कॉची के कार्यात्मक समीकरण पर काम करने के लिए धन्यवाद, एकमात्र मोनोटोन कार्य ऐसी संपत्ति होना
लघुगणक फलन हैं . विभिन्न आधारों के लघुगणक के बीच एकमात्र परिचालन अंतर अलग-अलग स्केलिंग स्थिरांक का है, इसलिए हम मान सकते हैं

कहाँ प्राकृतिक लघुगणक है. चूँकि घटनाओं की संभावनाएँ हमेशा 0 और 1 के बीच होती हैं और इन घटनाओं से जुड़ी जानकारी गैर-नकारात्मक होनी चाहिए, इसके लिए यह आवश्यक है .

इन गुणों को ध्यान में रखते हुए, आत्म-जानकारी परिणाम से सम्बंधित संभाव्यता के साथ परिभाषित किया जाता है:

घटना की संभावना उतनी ही कम होगी , संदेश से जुड़ी आत्म-जानकारी की मात्रा जितनी अधिक होगी कि घटना वास्तव में घटित हुई। यदि उपरोक्त लघुगणक आधार 2 है, तो की इकाई अंश ्स है. यह सबसे आम प्रथा है. आधार के प्राकृतिक लघुगणक का उपयोग करते समय , इकाई नेट (इकाई) होगी। आधार 10 लघुगणक के लिए, सूचना की इकाई हार्टले (इकाई) है।

एक त्वरित उदाहरण के रूप में, एक सिक्के के लगातार 4 उछाल में 4 चित (या किसी विशिष्ट परिणाम) के परिणाम से जुड़ी सूचना सामग्री 4 बिट्स (संभावना 1/16) होगी, और परिणाम प्राप्त करने से जुड़ी सूचना सामग्री इसके अलावा होगी निर्दिष्ट एक ~0.09 बिट्स (संभावना 15/16) होगा। विस्तृत उदाहरणों के लिए ऊपर देखें।

यह भी देखें

संदर्भ

  1. Jones, D.S., Elementary Information Theory, Vol., Clarendon Press, Oxford pp 11–15 1979
  2. 2.0 2.1 2.2 2.3 McMahon, David M. (2008). क्वांटम कंप्यूटिंग की व्याख्या. Hoboken, NJ: Wiley-Interscience. ISBN 9780470181386. OCLC 608622533.
  3. Borda, Monica (2011). सूचना सिद्धांत और कोडिंग में बुनियादी बातें. Springer. ISBN 978-3-642-20346-6.
  4. Han, Te Sun; Kobayashi, Kingo (2002). सूचना और कोडिंग का गणित. American Mathematical Society. ISBN 978-0-8218-4256-0.
  5. Thomas M. Cover, Joy A. Thomas; Elements of Information Theory; p. 20; 1991.
  6. R. B. Bernstein and R. D. Levine (1972) "Entropy and Chemical Change. I. Characterization of Product (and Reactant) Energy Distributions in Reactive Molecular Collisions: Information and Entropy Deficiency", The Journal of Chemical Physics 57, 434–449 link.
  7. Myron Tribus (1961) Thermodynamics and Thermostatics: An Introduction to Energy, Information and States of Matter, with Engineering Applications (D. Van Nostrand, 24 West 40 Street, New York 18, New York, U.S.A) Tribus, Myron (1961), pp. 64–66 borrow.
  8. "जॉर्ज कार्लिन का एक उद्धरण". www.goodreads.com. Retrieved 2021-04-01.


अग्रिम पठन


बाहरी संबंध