सूचना सिद्धांत में, सूचना कंटेंट, आत्म-सूचना, आश्चर्य, या शैनन सूचना यादृच्छिक वेरिएबल से होने वाली किसी विशेष घटना (संभावना सिद्धांत) की संभावना से प्राप्त मूल मात्रा है। इसे संभावना व्यक्त करने के वैकल्पिक विधि के रूप में विचार किया जा सकता है, सामान्य अनेक कठिनाइयाँ या लॉग-बाधाओं की तरह, किन्तु सूचना सिद्धांत की समुच्चय में इसके विशेष गणितीय निवेश कारक हैं।
इस प्रकार से शैनन सूचना की व्याख्या किसी विशेष परिणाम के आश्चर्य के स्तर को मापने के रूप में की जा सकती है। चूंकि यह इतनी मूलभूत मात्रा है, यह कई अन्य समुच्चय में भी दिखाई देती है, जैसे यादृच्छिक वेरिएबल के इष्टतम शैनन के स्रोत कोडिंग प्रमेय को देखते हुए घटना को प्रसारित करने के लिए आवश्यक संदेश की लंबाई को दर्शाया गया है ।
शैनन की सूचना एंट्रॉपी (सूचना सिद्धांत) से निकटता से संबंधित है, जो यादृच्छिक वेरिएबल की आत्म-सूचना का अपेक्षित मूल्य है, जो यह निर्धारित करती है कि यादृच्छिक वेरिएबल औसतन कितना आश्चर्यजनक है। यह आत्म-सूचना की वह औसत मात्रा है जो पर्यवेक्षक किसी यादृच्छिक वेरिएबल को मापते समय उसके बारे में प्राप्त करने की अपेक्षा करता है।[1]
अतः सूचना कंटेंट को सूचना की विभिन्न इकाइयों में व्यक्त किया जा सकता है, जिनमें से अधिक समान बिट (अधिक सही रूप से शैनन कहा जाता है) है, जैसा कि नीचे बताया गया है।
क्लाउड शैनन की आत्म-सूचना की परिभाषा को कई सिद्धांतों को पूरा करने के लिए चुना गया था:
100% संभावना वाली घटना पूर्ण प्रकार से आश्चर्यजनक है और कोई सूचना नहीं देती है।
अनेक घटना जितनी कम संभावित होती है, वह उतनी ही अधिक आश्चर्यजनक होती है और उतनी ही अधिक सूचना देती है।
यदि दो स्वतंत्र घटनाओं को अलग-अलग मापा जाता है, तो सूचना की कुल मात्रा व्यक्तिगत घटनाओं की स्वयं-सूचना का योग है।
इस प्रकार से विस्तृत व्युत्पत्ति नीचे है, किन्तु यह दिखाया जा सकता है कि संभाव्यता का अनूठा कार्य है जो गुणक स्केलिंग कारक तक, इन तीन सिद्धांतों को पूरा करता है। सामान्यतः वास्तविक संख्या दी गई है और घटना (संभावना सिद्धांत) संभाव्यता के साथ , सूचना कंटेंट को इस प्रकार परिभाषित किया गया है:
आधार b उपरोक्त स्केलिंग कारक से मेल खाता है। b के विभिन्न विकल्प सूचना की विभिन्न इकाइयों के अनुरूप हैं: जब b = 2, इकाई शैनन (इकाई) (प्रतीक श) है, जिसे प्रायः 'बिट' कहा जाता है; जब b = e, इकाई नेट (इकाई) (प्रतीक नेट) है; और जब b = 10, इकाई हार्टले (इकाई) (प्रतीक हार्ट) है।
औपचारिक रूप से, यादृच्छिक वेरिएबल दिया गया है संभाव्यता द्रव्यमान फलन के साथ , मापने की स्व-सूचना परिणाम के रूप में (संभावना) परिभाषित किया जाता है[2]
इस प्रकार से उपरोक्त स्व-सूचना के लिए अंकन का उपयोग सार्वभौमिक नहीं है। चूंकि संकेतन का उपयोग प्रायः पारस्परिक सूचना की संबंधित मात्रा के लिए भी किया जाता है, कई लेखक इसके अतिरिक्त स्व-एन्ट्रॉपी के लिए लोअरकेस का उपयोग करते हैं, जो एन्ट्रॉपी के लिए पूंजी के उपयोग को प्रतिबिंबित करता है।
गुण
संभाव्यता का नीरस रूप से घटता हुआ कार्य
किसी दिए गए संभाव्यता स्थान के लिए, घटना (संभावना सिद्धांत) का माप सहज रूप से अधिक आश्चर्यजनक है, और अधिक सामान्य मूल्यों की तुलना में अधिक सूचना कंटेंट प्रदान करता है। इस प्रकार, स्व-सूचना संभाव्यता का मोनोटोनिक फलन है, या कभी-कभी इसे एंटीटोनिक फलन भी कहा जाता है।
जबकि मानक संभावनाओं को अंतराल में वास्तविक संख्याओं द्वारा दर्शाया जाता है , आत्म-सूचना को अंतराल में विस्तारित वास्तविक संख्याओं द्वारा दर्शाया जाता है . विशेष रूप से, लघुगणकीय आधार के किसी भी विकल्प के लिए हमारे पास निम्नलिखित हैं:
यदि किसी विशेष घटना के घटित होने की 100% संभावना हो तो उसकी स्व-सूचना होती है : इसकी घटना बिल्कुल गैर-आश्चर्यजनक है और इससे कोई सूचना नहीं मिलती है।
यदि किसी विशेष घटना के घटित होने की संभावना 0% है, तो उसकी स्व-सूचना है : इसकी घटना असीम रूप से आश्चर्यजनक है।
इससे, हम कुछ सामान्य गुण प्राप्त कर सकते हैं:
सहज रूप से, किसी अप्रत्याशित घटना को देखने से अधिक सूचना प्राप्त होती है—यह आश्चर्यजनक है।
उदाहरण के लिए, यदि ऐलिस के लॉटरी जीतने की लाखों में से संभावना है, तो उसके दोस्त बॉब को यह जानने से लिए अधिक सूचना प्राप्त होगी कि उसने लॉटरी जीती है, अतिरिक्त इसके कि वह लॉटरी जीत गई है। निश्चित दिन. (लॉटरी गणित भी देखें।)
यह यादृच्छिक वेरिएबल की आत्म-सूचना और उसके विचरण के मध्य अंतर्निहित संबंध स्थापित करता है।
लॉग-ऑड्स से संबंध
चूंकि शैनन सूचना लॉग-ऑड्स से निकटता से संबंधित है। विशेष रूप से, किसी घटना को देखते हुए , मान लीजिये कि की प्रायिकता है घटित हो रहा है, और वह की सम्भावना है घटित नहीं हो रहा है. फिर हमारे पास लॉग-ऑड्स की निम्नलिखित परिभाषा है:
इसे दो शैनन सूचनाओं के अंतर के रूप में व्यक्त किया जा सकता है:
दूसरे शब्दों में, लॉग-ऑड्स की व्याख्या उस समय आश्चर्य के स्तर के रूप में की जा सकती है जब घटना नहीं होती है, घटना के घटित होने पर आश्चर्य के स्तर को घटा दिया जाता है।
स्वतंत्र घटनाओं की संयोजकता
दो स्वतंत्र घटनाओं की सूचना कंटेंट प्रत्येक घटना की सूचना कंटेंट का योग है। इस गुण को गणित में सिग्मा एडिटिविटी और विशेष रूप से माप (गणित)और संभाव्यता सिद्धांत में सिग्मा एडिटिविटी के रूप में जाना जाता है। संभाव्यता द्रव्यमान फलन क्रमशः और के साथ स्वतंत्र यादृच्छिक वेरिएबल पर विचार करें। संयुक्त संभाव्यता द्रव्यमान फलन है
इस प्रकार से संभावनाओं के लिए संबंधित संपत्ति यह है कि स्वतंत्र घटनाओं की लॉग-संभावना प्रत्येक घटना की लॉग-संभावनाओं का योग है। लॉग-संभावना को समर्थन या नकारात्मक आश्चर्य के रूप में व्याख्या करना (वह डिग्री जिस तक कोई घटना किसी दिए गए मॉडल का समर्थन करती है: मॉडल को किसी घटना द्वारा इस सीमा तक समर्थित किया जाता है कि घटना अप्रत्याशित है, मॉडल को देखते हुए), यह दर्शाता है कि स्वतंत्र घटनाएं समर्थन जोड़ती हैं: दो घटनाएँ मिलकर सांख्यिकीय अनुमान के लिए जो सूचना प्रदान करती हैं, वह उनकी स्वतंत्र सूचना का योग है।
एंट्रॉपी से संबंध
यादृच्छिक वेरिएबल की शैनन एन्ट्रापी उपरोक्त को इस प्रकार परिभाषित किया गया है
अतः परिभाषा के अनुसार अपेक्षित मूल्य की माप की सूचना कंटेंट के समान .[3]: 11 [4]: 19–20
इस उपाय को आश्चर्य भी कहा गया है, क्योंकि यह परिणाम देखने के "आश्चर्य" का प्रतिनिधित्व करता है (एक अत्यधिक असंभव परिणाम बहुत आश्चर्यजनक है)। यह शब्द (लॉग-प्रायिकता माप के रूप में) मायरोन ट्रिबस द्वारा उनकी 1961 की पुस्तक थर्मोस्टैटिक्स और थर्मोडायनामिक्स में गढ़ा गया था।.[6][7]
जब घटना एक यादृच्छिक अनुभव (एक वेरिएबल का) होती है तो वेरिएबल की आत्म-सूचना को अनुभव की आत्म-सूचना के अपेक्षित मूल्य के रूप में परिभाषित किया जाता है।
सिक्का उछालने के बर्नौली परीक्षण पर विचार करें . सिक्के के शीर्ष के रूप में उतरने की घटना की संभावना (संभावना सिद्धांत)। और पट (निष्पक्ष सिक्का तथा अग्र एवं पृष्ठ देखें) प्रत्येक आधा-आधा है, . वेरिएबल को हेड के रूप में नमूनाकरण (सिग्नल प्रोसेसिंग) करने पर, संबंधित सूचना प्राप्त होती है
इसलिए हेड के रूप में उतरने वाले उचित सिक्के का सूचना निवेश 1 शैनन (इकाई) है।[2] इसी तरह, पूंछ मापने की सूचना प्राप्त होती है है
मान लीजिए कि हमारे पास निष्पक्ष छह-पक्षीय पासा. है। पासा पलटने का मान एक असतत एकसमान यादृच्छिक वैरिएबल है जिसमे संभाव्यता द्रव्यमान फलन के साथ
किसी भी अन्य वैध रोल की तरह, 4 आने की प्रायिकता है , 4 को रोल करने की सूचना कंटेंट इस प्रकार है
सूचना की।
दो स्वतंत्र, समान रूप से वितरित पासे
मान लीजिए कि हमारे पास दो स्वतंत्र, समान रूप से वितरित यादृच्छिक वेरिएबल हैं प्रत्येक एक स्वतंत्र निष्पक्ष 6-पक्षीय पासा रोल के अनुरूप है। और का संयुक्त संभाव्यता वितरण है
यादृच्छिक वेरिएबल की सूचना कंटेंट है
और घटनाओं की संवेदनशीलता द्वारा भी गणना की जा सकती है
रोल की आवृत्ति से सूचना
यदि हमें पासे के मूल्य के बारे में सुचना मिलती है, बिना यह जाने कि किस पासे का मूल्य क्या है, तो हम तथाकथित गणना वेरिएबल के साथ दृष्टिकोण को औपचारिक बना सकते हैं
इसे सत्यापित करने के लिए, 6 परिणाम घटना के अनुरूप और की कुल संभावना1/6. ये एकमात्र ऐसी घटनाएँ हैं जिन्हें इस संवाद की पहचान के साथ निष्ठापूर्वक से संरक्षित किया गया है कि कौन सा पासा पलटा और कौन सा परिणाम निकला क्योंकि परिणाम समान हैं। अन्य संख्याओं को घुमाने वाले पासों को अलग करने के ज्ञान के बिना संयोजन इस प्रकार हैं कि पासा संख्या को घुमाता है और दूसरा पासा अलग संख्या को घुमाता है, प्रत्येक की संभावना होती है 1/18. वास्तव में, , आवश्यकता अनुसार।
आश्चर्य की बात नहीं है कि सीखने की सूचना कंटेंट कि दोनों पासों को ही विशेष संख्या के रूप में घुमाया गया था, सीखने की सूचना कंटेंट से अधिक है कि पासा संख्या थी और दूसरा अलग संख्या थी। उदाहरण के लिए घटनाओं को लीजिए और के लिए . उदाहरण के लिए, और .
सूचना कंटेंट हैं
मान लीजिये ऐसी घटना हो कि दोनों पासों का मूल्य समान हो और ऐसा हो कि पासा अलग-अलग हो। तब और . घटनाओं की सूचना कंटेंट हैं
पासे के योग से सूचना
स्वतंत्र यादृच्छिक वेरिएबल के योग का संभाव्यता द्रव्यमान या घनत्व फलन (सामूहिक संभाव्यता माप) कनवल्शन या मापों का कनवल्शन है । स्वतंत्र निष्पक्ष 6-पक्षीय पासा रोल के मामले में, यादृच्छिक वेरिएबल संभाव्यता द्रव्यमान फलन है , जहाँ असतत कनवल्शन का प्रतिनिधित्व करता है। परिणाम (संभावना) की प्रायिकता है. इसलिए, दावा की गई सूचना है
सामान्य असतत समान वितरण
सामान्यीकरण करना § निष्पक्ष पासा पलटना उपरोक्त उदाहरण में, सामान्य असतत समान यादृच्छिक वेरिएबल (डीयूआरवी) पर विचार करें सुविधा के लिए परिभाषित करें . प्रायिकता द्रव्यमान फलन है
सामान्यतः , डीयूआरवी के मानों को पूर्णांक होने की आवश्यकता नहीं है, या सूचना सिद्धांत के प्रयोजनों के लिए समान रूप से अंतरित होने की भी आवश्यकता नहीं है; उन्हें केवल समसंभाव्य होने की आवश्यकता है।[2]किसी भी अवलोकन का सूचना निवेश है
विशेष मामला: निरंतर यादृच्छिक चर
यदि ऊपर, नियतात्मक रूप से दिए गए संभाव्यता वितरण के साथ निरंतर यादृच्छिक वेरिएबल के लिए पतन (गणित)। और संभाव्यता डिराक माप को मापती है . एकमात्र मूल्य नियतिवादी प्रणाली ले सकते हैं वह नियतात्मक रूप से , है, इसलिए किसी भी माप की सूचना कंटेंट है
सामान्यतः, किसी ज्ञात मूल्य को मापने से कोई सूचना प्राप्त नहीं होती है।[2]
श्रेणीबद्ध वितरण
उपरोक्त सभी स्तिथियों को सामान्यीकृत करते हुए, के समर्थन (गणित) और दिए गए संभाव्यता द्रव्यमान फलन के साथ एक श्रेणीबद्ध असतत यादृच्छिक वेरिएबल पर विचार करें
इस प्रकार से सूचना सिद्धांत के प्रयोजनों के लिए, मूल्यों का संख्याएँ होना आवश्यक नहीं है; वे परिमित माप के माप स्थान पर कोई परस्पर अनन्य घटनाएँ हो सकते हैं जिन्हें संभाव्यता माप के लिए सामान्यीकृत किया गया है, व्यापकता के नुकसान के बिना, हम मान सकते हैं कि श्रेणीबद्ध वितरण समुच्चय पर समर्थित है, गणितीय संरचना संभाव्यता सिद्धांत के संदर्भ में आइसोमोर्फिक है और इसलिए सूचना सिद्धांत भी है।
परिणाम की सूचना दिया हुआ है
इन उदाहरणों से, सिग्मा एडिटिविटी द्वारा ज्ञात संभाव्यता वितरण के साथ स्वतंत्र यादृच्छिक वेरिएबल असतत यादृच्छिक वेरिएबल के किसी भी समुच्चय की सूचना की गणना करना संभव है।
व्युत्पत्ति
परिभाषा के अनुसार, सूचना रखने वाली मूल इकाई से सूचना प्राप्त करने वाली इकाई को तभी स्थानांतरित की जाती है, जब प्राप्तकर्ता को सूचना नहीं होती है। यदि प्राप्तकर्ता इकाई को संदेश प्राप्त करने से पहले संदेश की कंटेंट निश्चित रूप से पता थी, तो प्राप्त संदेश की सूचना की मात्रा शून्य है। केवल तभी जब प्राप्तकर्ता को संदेश की कंटेंट का अग्रिम ज्ञान 100% से कम हो, तभी संदेश वास्तव में सूचना संप्रेषित करता है।
इस प्रकार से उदाहरण के लिए, हास्य अभिनेता जॉर्ज कार्लिन के चरित्र (हिप्पी डिप्पी वेदरमैन) को उद्धृत करते हुए, आज रात के लिए मौसम का पूर्वानुमान: अंधेरा। रात भर अंधेरा प्रवाहित रहा, सुबह तक प्रकाश व्यापक रूप से फैली हुई थी।[8] यह मानते हुए कि कोई व्यक्ति पृथ्वी के ध्रुवीय क्षेत्र के निकट नहीं रहता है, उस पूर्वानुमान में दर्शायी गई सूचना की मात्रा शून्य है क्योंकि पूर्वानुमान प्राप्त होने से पहले ही यह ज्ञात होता है कि अंधेरा सदैव रात के साथ आता है।
तदनुसार, किसी घटना की घटना (संभावना सिद्धांत) को सूचित करने वाली कंटेंट को संदेश देने वाले संदेश में निहित स्व-सूचना की मात्रा, , केवल उस घटना की संभावना पर निर्भर करता है।
किसी फलन के लिए नीचे निर्धारित किया जाएगा. यदि , तब . यदि , तब .
इसके अतिरिक्त , परिभाषा के अनुसार, आत्म-सूचना का माप (गणित) गैर-नकारात्मक और योगात्मक है। यदि घटना की सूचना देने वाला संदेश दो सांख्यिकीय स्वतंत्रता घटनाओं और का प्रतिच्छेदन है, तो घटना की सूचना घटित होने वाली दोनों स्वतंत्र घटनाओं और के मिश्रित संदेश की है। मिश्रित संदेश की सूचना की मात्रा क्रमशः व्यक्तिगत घटक संदेश और की सूचना की मात्रा के समान होने की आशा की जाएगी:
घटनाओं की स्वतंत्रता के कारण और , घटना की संभावना है
चूंकि , फलन प्रयुक्त करना का परिणाम
कॉची के कार्यात्मक समीकरण पर कार्य करने के लिए धन्यवाद, एकमात्र मोनोटोन फलन में ऐसी संपत्ति होना
लघुगणक फलन हैं . विभिन्न आधारों के लघुगणक के मध्य एकमात्र परिचालन अंतर अलग-अलग स्केलिंग स्थिरांक का है, इसलिए हम मान सकते हैं
जहाँ प्राकृतिक लघुगणक है. चूँकि घटनाओं की संभावनाएँ हमेशा 0 और 1 के मध्य होती हैं और इन घटनाओं से जुड़ी सूचना गैर-नकारात्मक होनी चाहिए, इसके लिए यह आवश्यक है की .
इन गुणों को ध्यान में रखते हुए, संभावना के साथ परिणाम से जुड़ी स्व-सूचना को इस प्रकार परिभाषित किया गया है:
घटना की संभावना उतनी ही कम होगी , संदेश से जुड़ी आत्म-सूचना की मात्रा जितनी अधिक होगी कि घटना वास्तव में घटित हुई। यदि उपरोक्त लघुगणक आधार 2 है, तो की इकाई शैनन है. यह सबसे आम प्रथा है. आधार के प्राकृतिक लघुगणक का उपयोग करते समय , इकाई नेट (इकाई) होगी। आधार 10 लघुगणक के लिए, सूचना की इकाई हार्टले (इकाई) है।
एक त्वरित उदाहरण के रूप में, सिक्के के निरंतर 4 उछालों में 4 चित (या किसी विशिष्ट परिणाम) के परिणाम से जुड़ी सूचना कंटेंट 4 शैनन (संभावना 1/16) होगी, और इसके अलावा परिणाम प्राप्त करने से जुड़ी सूचना कंटेंट होगी निर्दिष्ट एक ~0.09 शैनन बिट्स (संभावना 15/16) होगा। विस्तृत उदाहरणों के लिए ऊपर देखें।
↑Thomas M. Cover, Joy A. Thomas; Elements of Information Theory; p. 20; 1991.
↑R. B. Bernstein and R. D. Levine (1972) "Entropy and Chemical Change. I. Characterization of Product (and Reactant) Energy Distributions in Reactive Molecular Collisions: Information and Entropy Deficiency", The Journal of Chemical Physics57, 434–449 link.
↑Myron Tribus (1961) Thermodynamics and Thermostatics:An Introduction to Energy, Information and States of Matter, with Engineering Applications (D. Van Nostrand, 24 West 40 Street, New York 18, New York, U.S.A) Tribus, Myron (1961), pp. 64–66 borrow.