सशर्त एन्ट्रापी

From Vigyanwiki
Revision as of 10:50, 20 May 2023 by alpha>Indicwiki (Created page with "{{Short description|Measure of relative information in probability theory}} {{Information theory}} Image:Entropy-mutual-information-relative-entropy-relation-diagram.svg|th...")
(diff) ← Older revision | Latest revision (diff) | Newer revision → (diff)
सहसंबद्ध चरों से जुड़ी जानकारी की विभिन्न मात्राओं को जोड़ने वाले और घटने वाले संबंधों को दर्शाने वाला वेन आरेख और . दोनों मंडलियों द्वारा निहित क्षेत्र संयुक्त एंट्रॉपी है . बाईं ओर का वृत्त (लाल और बैंगनी) एंट्रॉपी (सूचना सिद्धांत) है , लाल सशर्त एन्ट्रापी होने के साथ . दाईं ओर वृत्त (नीला और बैंगनी) है , नीले होने के साथ . वायलेट आपसी जानकारी है .

सूचना सिद्धांत में, सशर्त एन्ट्रापी एक यादृच्छिक चर के परिणाम का वर्णन करने के लिए आवश्यक जानकारी की मात्रा निर्धारित करता है दिया गया है कि एक और यादृच्छिक चर का मान ज्ञात है। यहाँ, सूचना को शैनन (इकाई) s, Nat (यूनिट) s, या हार्टले (इकाई) s में मापा जाता है। की एन्ट्रापी पर वातानुकूलित के रूप में लिखा गया है .

परिभाषा

की सशर्त एन्ट्रॉपी दिया गया परिभाषित किया जाता है

 

 

 

 

(Eq.1)

कहाँ और के समर्थन (गणित) को निरूपित करें और .

नोट: यहाँ, परिपाटी यह है कि व्यंजक शून्य के बराबर माना जाना चाहिए। यह है क्योंकि .[1] सहज रूप से, ध्यान दें कि अपेक्षित मूल्य और सशर्त संभाव्यता की परिभाषा के अनुसार, रूप में लिखा जा सकता है , कहाँ परिभाषित किया जाता है . कोई सोच सकता है प्रत्येक जोड़ी को जोड़ने के रूप में की सूचना सामग्री को मापने वाली मात्रा के साथ दिया गया . यह मात्रा घटना का वर्णन करने के लिए आवश्यक जानकारी की मात्रा से सीधे संबंधित है दिया गया . इसलिए के अपेक्षित मूल्य की गणना करके मूल्यों के सभी जोड़े पर , सशर्त एन्ट्रापी मापता है कि कितनी जानकारी, औसतन, चर के बारे में कूटबद्ध करता है .

प्रेरणा

होने देना असतत यादृच्छिक चर का शैनन एंट्रॉपी बनें असतत यादृच्छिक चर पर वातानुकूलित एक निश्चित मूल्य लेना . के समर्थन सेट को निरूपित करें और द्वारा और . होने देना प्रायिकता द्रव्यमान कार्य है . की बिना शर्त एन्ट्रापी के रूप में गणना की जाती है , अर्थात।

कहाँ के परिणाम (संभावना) की सूचना सामग्री है मूल्य ले रहा है . की एन्ट्रापी पर वातानुकूलित मूल्य ले रहा है सशर्त अपेक्षा द्वारा समान रूप से परिभाषित किया गया है:

ध्यान दें कि औसत का परिणाम है सभी संभावित मूल्यों पर वह लग सकता है। साथ ही, यदि उपरोक्त योग को एक नमूने पर लिया जाता है , अपेक्षित मूल्य कुछ डोमेन में इक्विवोकेशन के रूप में जाना जाता है।[2] दिया गया असतत यादृच्छिक चर छवि के साथ और छवि के साथ , की सशर्त एन्ट्रापी दिया गया के भारित योग के रूप में परिभाषित किया गया है के प्रत्येक संभावित मूल्य के लिए , का उपयोग कर भार के रूप में:[3]: 15 


गुण

=== सशर्त एंट्रॉपी शून्य === के बराबर है अगर और केवल अगर का मूल्य के मूल्य से पूरी तरह से निर्धारित होता है .

स्वतंत्र यादृच्छिक चर की सशर्त एन्ट्रापी

इसके विपरीत, अगर और केवल अगर और स्वतंत्र यादृच्छिक चर हैं।

श्रृंखला नियम

मान लें कि संयुक्त प्रणाली दो यादृच्छिक चर द्वारा निर्धारित की जाती है और संयुक्त एन्ट्रापी है यानी हमें जरूरत है इसकी सटीक स्थिति का वर्णन करने के लिए औसतन जानकारी के बिट्स। अब अगर हम पहले का मूल्य सीखते हैं , हमने प्राप्त किया है जानकारी के टुकड़े। एक बार ज्ञात है, हमें केवल आवश्यकता है पूरे सिस्टम की स्थिति का वर्णन करने के लिए बिट्स। यह मात्रा बिल्कुल है , जो सशर्त एन्ट्रॉपी का चेन नियम देता है:

[3]: 17 

सशर्त एन्ट्रापी की उपरोक्त परिभाषा से श्रृंखला नियम का पालन होता है:

सामान्य तौर पर, एकाधिक यादृच्छिक चर के लिए एक श्रृंखला नियम धारण करता है:

[3]: 22 

संभाव्यता सिद्धांत में इसका एक समान रूप चेन नियम (संभाव्यता) है, सिवाय इसके कि गुणन के बजाय जोड़ का उपयोग किया जाता है।

बेयस का नियम

सशर्त एंट्रॉपी राज्यों के लिए बेयस नियम

सबूत। और . समरूपता शामिल है . दो समीकरणों को घटाना बेज़ के नियम को दर्शाता है।

अगर की सशर्त स्वतंत्रता है दिया गया अपने पास:


अन्य गुण

किसी के लिए और :

कहाँ के बीच परस्पर सूचना है और .

स्वतंत्र के लिए और :

और

हालांकि विशिष्ट-सशर्त एन्ट्रापी से कम या अधिक हो सकता है किसी दिए गए यादृच्छिक चर के लिए का , कभी अधिक नहीं हो सकता .

सशर्त अंतर एंट्रॉपी

परिभाषा

उपरोक्त परिभाषा असतत यादृच्छिक चर के लिए है। असतत सशर्त एन्ट्रॉपी के निरंतर संस्करण को सशर्त अंतर (या निरंतर) एंट्रॉपी कहा जाता है। होने देना और एक संयुक्त प्रायिकता घनत्व समारोह के साथ एक निरंतर यादृच्छिक चर हो . अंतर सशर्त एन्ट्रापी परिभाषित किया जाता है[3]: 249 

 

 

 

 

(Eq.2)

गुण

असतत यादृच्छिक चर के लिए सशर्त एन्ट्रापी के विपरीत, सशर्त अंतर एन्ट्रॉपी नकारात्मक हो सकता है।

असतत मामले में विभेदक एन्ट्रापी के लिए एक श्रृंखला नियम है:

[3]: 253 

हालांकि, ध्यान दें कि यह नियम सही नहीं हो सकता है यदि शामिल अंतर एंट्रॉपी मौजूद नहीं हैं या अनंत हैं।

निरंतर यादृच्छिक चर के बीच पारस्परिक जानकारी की परिभाषा में संयुक्त अंतर एंट्रॉपी का भी उपयोग किया जाता है:

समानता के साथ अगर और केवल अगर और स्वतंत्र हैं।[3]: 253 

अनुमानक त्रुटि से संबंध

सशर्त अंतर एन्ट्रापी एक अनुमानक की अपेक्षित चुकता त्रुटि पर एक निचली सीमा उत्पन्न करता है। किसी भी यादृच्छिक चर के लिए , अवलोकन और अनुमानक निम्नलिखित धारण करता है:[3]: 255 

यह क्वांटम यांत्रिकी से अनिश्चितता सिद्धांत से संबंधित है।

क्वांटम सिद्धांत के लिए सामान्यीकरण

क्वांटम सूचना सिद्धांत में, सशर्त एन्ट्रापी को सशर्त क्वांटम एन्ट्रापी के लिए सामान्यीकृत किया जाता है। उत्तरार्द्ध अपने शास्त्रीय समकक्ष के विपरीत, नकारात्मक मान ले सकता है।

यह भी देखें

संदर्भ

  1. "David MacKay: Information Theory, Pattern Recognition and Neural Networks: The Book". www.inference.org.uk. Retrieved 2019-10-25.
  2. Hellman, M.; Raviv, J. (1970). "त्रुटि की संभावना, इक्विवोकेशन, और चेरनॉफ़ बाउंड". IEEE Transactions on Information Theory. 16 (4): 368–372. doi:10.1109/TIT.1970.1054466.
  3. 3.0 3.1 3.2 3.3 3.4 3.5 3.6 T. Cover; J. Thomas (1991). सूचना सिद्धांत के तत्व. ISBN 0-471-06259-6.