संयुक्त एन्ट्रापी

From Vigyanwiki
Revision as of 06:02, 4 December 2023 by alpha>Indicwiki (Created page with "{{Short description|Measure of information in probability and information theory}} {{Information theory}} Image:Entropy-mutual-information-relative-entropy-relation-diagram...")
(diff) ← Older revision | Latest revision (diff) | Newer revision → (diff)
X) है। बैंगनी पारस्परिक सूचना I(X;Y) है।

सूचना सिद्धांत में, संयुक्त एन्ट्रापी (सूचना सिद्धांत) यादृच्छिक चर के एक सेट से जुड़ी अनिश्चितता का एक माप है।[2]


परिभाषा

दो असतत यादृच्छिक चर की संयुक्त शैनन एन्ट्रापी (अंश ्स में)। और छवियों के साथ और परिभाषित किया जाता है[3]: 16 

 

 

 

 

(Eq.1)

कहाँ और के विशेष मूल्य हैं और , क्रमश, इन मूल्यों के एक साथ घटित होने की संयुक्त संभावना है, और यदि 0 के रूप में परिभाषित किया गया है .

दो से अधिक यादृच्छिक चर के लिए इसका विस्तार होता है

 

 

 

 

(Eq.2)

कहाँ के विशेष मूल्य हैं , क्रमश, इन मानों के एक साथ घटित होने की प्रायिकता है, और यदि 0 के रूप में परिभाषित किया गया है .

गुण

गैर-नकारात्मकता

यादृच्छिक चर के एक सेट की संयुक्त एन्ट्रापी एक गैर-नकारात्मक संख्या है।


व्यक्तिगत एन्ट्रॉपी से अधिक

चरों के एक सेट की संयुक्त एन्ट्रॉपी, सेट में चरों की सभी व्यक्तिगत एन्ट्रॉपी की अधिकतम से अधिक या उसके बराबर होती है।


व्यक्तिगत एन्ट्रॉपियों के योग से कम या उसके बराबर

चरों के एक सेट की संयुक्त एन्ट्रॉपी, सेट में चरों की व्यक्तिगत एन्ट्रॉपी के योग से कम या उसके बराबर होती है। यह उपादेयता का एक उदाहरण है. यह असमानता एक समानता है यदि और केवल यदि और सांख्यिकीय रूप से स्वतंत्र हैं।[3]: 30 


अन्य एन्ट्रापी उपायों से संबंध

संयुक्त एन्ट्रापी का उपयोग सशर्त एन्ट्रापी की परिभाषा में किया जाता है[3]: 22 

,

और

इसका उपयोग आपसी जानकारी की परिभाषा में भी किया जाता है[3]: 21 

क्वांटम सूचना सिद्धांत में, संयुक्त एन्ट्रापी को संयुक्त क्वांटम एन्ट्रापी में सामान्यीकृत किया जाता है।

संयुक्त विभेदक एन्ट्रापी

परिभाषा

उपरोक्त परिभाषा असतत यादृच्छिक चर के लिए है और निरंतर यादृच्छिक चर के मामले में भी उतनी ही मान्य है। असतत संयुक्त एन्ट्रॉपी के निरंतर संस्करण को संयुक्त अंतर (या निरंतर) एन्ट्रॉपी कहा जाता है। होने देना और संयुक्त संभाव्यता घनत्व फ़ंक्शन के साथ एक सतत यादृच्छिक चर बनें . विभेदक संयुक्त एन्ट्रापी परिभाषित किया जाता है[3]: 249 

 

 

 

 

(Eq.3)

दो से अधिक सतत यादृच्छिक चर के लिए परिभाषा को सामान्यीकृत किया गया है:

 

 

 

 

(Eq.4)

अभिन्न का सहारा लिया जाता है . यह संभव है कि अभिन्न अस्तित्व में नहीं है जिस स्थिति में हम कहते हैं कि अंतर एन्ट्रापी परिभाषित नहीं है।

गुण

जैसा कि असतत मामले में यादृच्छिक चर के एक सेट की संयुक्त अंतर एन्ट्रॉपी व्यक्तिगत यादृच्छिक चर की एन्ट्रॉपी के योग से छोटी या बराबर होती है:

[3]: 253 

निम्नलिखित श्रृंखला नियम दो यादृच्छिक चर के लिए लागू होता है:

दो से अधिक यादृच्छिक चर के मामले में इसे सामान्यीकृत किया जाता है:[3]: 253 

संयुक्त अंतर एन्ट्रॉपी का उपयोग निरंतर यादृच्छिक चर के बीच पारस्परिक जानकारी की परिभाषा में भी किया जाता है:


संदर्भ

  1. D.J.C. Mackay (2003). सूचना सिद्धांत, अनुमान, और सीखने के एल्गोरिदम. Bibcode:2003itil.book.....M.: 141 
  2. Theresa M. Korn; Korn, Granino Arthur (January 2000). Mathematical Handbook for Scientists and Engineers: Definitions, Theorems, and Formulas for Reference and Review. New York: Dover Publications. ISBN 0-486-41147-8.
  3. 3.0 3.1 3.2 3.3 3.4 3.5 3.6 Thomas M. Cover; Joy A. Thomas (18 July 2006). सूचना सिद्धांत के तत्व. Hoboken, New Jersey: Wiley. ISBN 0-471-24195-4.