सशर्त पारस्परिक जानकारी: Difference between revisions
m (added Category:Vigyan Ready using HotCat) |
m (8 revisions imported from alpha:सशर्त_पारस्परिक_जानकारी) |
(No difference)
|
Latest revision as of 09:18, 12 December 2023
Information theory |
---|
संभाव्यता सिद्धांत में, विशेष रूप से सूचना सिद्धांत में, सशर्त पारस्परिक जानकारी[1][2], अपने सबसे बुनियादी रूप में, दो यादृच्छिक चर की पारस्परिक जानकारी का अपेक्षित मूल्य है जिसे एक तिहाई का मूल्य दिया जाता है।
परिभाषा
समर्थन सेट , और के साथ यादृच्छिक चर , और के लिए, हम सशर्त पारस्परिक जानकारी को इस प्रकार परिभाषित करते हैं
इसे अपेक्षा ऑपरेटर के संदर्भ में लिखा जा सकता है: .
इस प्रकार अपेक्षित है (के संबंध में)। ) सशर्त संयुक्त वितरण से कुल्बैक-लीब्लर विचलन सशर्त सीमांत के गुणनफल और के लिए आपसी जानकारी की परिभाषा से तुलना करें।
असतत वितरण के लिए पीएमएफ के संदर्भ में
असतत यादृच्छिक चर के लिए , , और समर्थन के साथ (गणित) , और , सशर्त पारस्परिक जानकारी इस प्रकार है
जहां सीमांत, संयुक्त, और/या सशर्त संभाव्यता द्रव्यमान कार्यों को उचित उपस्क्रिप्ट के साथ द्वारा दर्शाया जाता है। इसे इस प्रकार सरल बनाया जा सकता है
निरंतर वितरण के लिए पीडीएफ के संदर्भ में
(बिल्कुल) निरंतर यादृच्छिक चर के लिए , , और समर्थन के साथ (गणित) , और , सशर्त पारस्परिक जानकारी इस प्रकार है
जहां सीमांत, संयुक्त, और/या सशर्त संभाव्यता घनत्व कार्यों को दर्शाया जाता है उपयुक्त सबस्क्रिप्ट के साथ. इसे इस तरह सरल बनाया जा सकता है
कुछ सर्वसमिका
वैकल्पिक रूप से, हम संयुक्त और सशर्त एन्ट्रॉपी (सूचना सिद्धांत) के रूप में लिख सकते हैं[3]
आपसी जानकारी से इसका संबंध दिखाने के लिए इसे फिर से लिखा जा सकता है
सामान्यतः आपसी जानकारी के लिए श्रृंखला नियम के रूप में पुनर्व्यवस्थित किया जाता है
या
उपरोक्त का दूसरा समकक्ष रूप है
सशर्त पारस्परिक जानकारी का एक और समकक्ष रूप है
पारस्परिक जानकारी की तरह, सशर्त पारस्परिक जानकारी को कुल्बैक-लीबलर विचलन के रूप में व्यक्त किया जा सकता है:
या सरल कुल्बैक-लीब्लर विचलन के अपेक्षित मूल्य के रूप में:
- ,
- .
अधिक सामान्य परिभाषा
सशर्त पारस्परिक जानकारी की एक अधिक सामान्य परिभाषा, जो निरंतर या अन्य मनमाने वितरण वाले यादृच्छिक चर पर लागू होती है, नियमित सशर्त संभाव्यता की अवधारणा पर निर्भर करेगी।[4]
मान लीजिए एक संभाव्यता स्थान है, और यादृच्छिक चर , , मान लीजिए और प्रत्येक को से टोपोलॉजिकल संरचना से संपन्न कुछ राज्य स्थान तक एक बोरेल-मापने योग्य फ़ंक्शन के रूप में परिभाषित किया जाना चाहिए।
प्रत्येक बोरेल द्वारा परिभाषित प्रत्येक यादृच्छिक चर के राज्य स्थान में बोरेल माप (खुले सेटों द्वारा उत्पन्न σ-बीजगणित पर) पर विचार करें, इसकी प्रीइमेज के -माप को में सेट करें। इसे पुशफॉरवर्ड माप कहा जाता है। एक यादृच्छिक चर के समर्थन को इस माप के टोपोलॉजिकल समर्थन के रूप में परिभाषित किया गया है, यानी
अब हम यादृच्छिक चरों में से एक (या, उत्पाद टोपोलॉजी के माध्यम से, अधिक) के मान को देखते हुए सशर्त संभाव्यता माप को औपचारिक रूप से परिभाषित कर सकते हैं। मान लीजिए , का मापनीय उपसमुच्चय है (अर्थात् और मान लीजिए फिर, विघटन प्रमेय का उपयोग करते हुए:
जहां सीमा को के खुले परिवेश पर ले लिया गया है, क्योंकि उन्हें सेट समावेशन के संबंध में मनमाने ढंग से छोटा होने की अनुमति है।
अंत में हम लेब्सग्यू एकीकरण के माध्यम से सशर्त पारस्परिक जानकारी को परिभाषित कर सकते हैं:
जहां इंटीग्रैंड रेडॉन-निकोडिम व्युत्पन्न का लघुगणक है जिसमें कुछ सशर्त संभाव्यता उपाय सम्मिलित हैं जिन्हें हमने अभी परिभाषित किया है।
नोटेशन पर नोट
और जैसी अभिव्यक्ति में जरूरी नहीं कि ये केवल व्यक्तिगत यादृच्छिक चर का प्रतिनिधित्व करने तक ही सीमित हों, बल्कि संयुक्त का भी प्रतिनिधित्व कर सकते हैं। एक ही संभाव्यता स्थान पर परिभाषित यादृच्छिक चर के किसी भी संग्रह का वितरण। जैसा कि संभाव्यता सिद्धांत में आम है, हम ऐसे संयुक्त वितरण को दर्शाने के लिए अल्पविराम का उपयोग कर सकते हैं, जैसे मैं। इसलिए आपसी सूचना प्रतीक के प्रमुख तर्कों को अलग करने के लिए अर्धविराम (या कभी-कभी एक कोलन या यहां तक कि एक पच्चर ) का उपयोग किया जाता है। (संयुक्त एन्ट्रापी के प्रतीक में ऐसा कोई अंतर आवश्यक नहीं है, क्योंकि किसी भी संख्या में यादृच्छिक चर की संयुक्त एन्ट्रापी उनके संयुक्त वितरण की एन्ट्रापी के समान होती है।)
गुण
गैर-ऋणात्मकता
यह सदैव सत्य है
- ,
असतत, संयुक्त रूप से वितरित यादृच्छिक चर के लिए , और . इस परिणाम का उपयोग सूचना सिद्धांत में अन्य असमानताओं को साबित करने के लिए एक बुनियादी निर्माण खंड के रूप में किया गया है, विशेष रूप से, जिन्हें शैनन-प्रकार की असमानताओं के रूप में जाना जाता है। कुछ नियमितता शर्तों के तहत निरंतर यादृच्छिक चर के लिए सशर्त पारस्परिक जानकारी भी गैर-ऋणात्मकता है।[5]
इंटरैक्शन जानकारी
तीसरे यादृच्छिक चर पर कंडीशनिंग या तो पारस्परिक जानकारी को बढ़ा या घटा सकती है: यानी, अंतर , जिसे इंटरैक्शन जानकारी कहा जाता है, धनात्मक, ऋणात्मक या शून्य हो सकता है। यह तब भी मामला है जब यादृच्छिक चर जोड़ीदार स्वतंत्र होते हैं। ऐसी स्थिति तब होती है जब
किस स्थिति में , और जोड़ीवार स्वतंत्र हैं और विशेष रूप से , लेकिन
पारस्परिक जानकारी के लिए श्रृंखला नियम
श्रृंखला नियम (जैसा कि ऊपर बताया गया है) विघटित होने के दो तरीके प्रदान करता है :
डेटा प्रोसेसिंग असमानता सशर्त पारस्परिक जानकारी से निकटता से संबंधित है और इसे श्रृंखला नियम का उपयोग करके सिद्ध किया जा सकता है।
इंटरेक्शन संबंधी जानकारी
सशर्त पारस्परिक जानकारी का उपयोग परस्पर क्रिया संबंधी जानकारी को आगमनात्मक रूप से परिभाषित करने के लिए किया जाता है, जो कि पारस्परिक जानकारी का सामान्यीकरण है, इस प्रकार है:
जहाँ
क्योंकि सशर्त पारस्परिक जानकारी अपने बिना शर्त समकक्ष से अधिक या कम हो सकती है, बातचीत की जानकारी धनात्मक, ऋणात्मक या शून्य हो सकती है, जिससे इसकी व्याख्या करना कठिन हो जाता है।
संदर्भ
- ↑ Wyner, A. D. (1978). "मनमाने समूहों के लिए सशर्त पारस्परिक जानकारी की परिभाषा". Information and Control. 38 (1): 51–59. doi:10.1016/s0019-9958(78)90026-8.
- ↑ Dobrushin, R. L. (1959). "सूचना सिद्धांत में शैनन के मुख्य प्रमेय का सामान्य सूत्रीकरण". Uspekhi Mat. Nauk. 14: 3–104.
- ↑ Cover, Thomas; Thomas, Joy A. (2006). सूचना सिद्धांत के तत्व (2nd ed.). New York: Wiley-Interscience. ISBN 0-471-24195-4.
- ↑ D. Leao, Jr. et al. Regular conditional probability, disintegration of probability and Radon spaces. Proyecciones. Vol. 23, No. 1, pp. 15–29, May 2004, Universidad Católica del Norte, Antofagasta, Chile PDF
- ↑ Polyanskiy, Yury; Wu, Yihong (2017). सूचना सिद्धांत पर व्याख्यान नोट्स (PDF). p. 30.