संयुक्त एन्ट्रापी: Difference between revisions
(Created page with "{{Short description|Measure of information in probability and information theory}} {{Information theory}} Image:Entropy-mutual-information-relative-entropy-relation-diagram...") |
m (6 revisions imported from alpha:संयुक्त_एन्ट्रापी) |
||
(5 intermediate revisions by 3 users not shown) | |||
Line 1: | Line 1: | ||
{{Short description|Measure of information in probability and information theory}} | {{Short description|Measure of information in probability and information theory}}[[Image:Entropy-mutual-information-relative-entropy-relation-diagram.svg|thumb|256px|<nowiki>भ्रामक वेन आरेख जो सहसंबद्ध चर बाईं ओर का वृत्त (लाल और बैंगनी) व्यक्तिगत एन्ट्रापी H(X) है, जबकि लाल सशर्त एन्ट्रापी H(X|Y) है। दाईं ओर का वृत्त (नीला और बैंगनी) H(Y) है, नीला रंग H(Y|X) है। बैंगनी परस्पर सूचना (X;Y) है।</nowiki>]][[सूचना सिद्धांत]] में, संयुक्त एन्ट्रापी (सूचना सिद्धांत) [[यादृच्छिक चर]] के समुच्चय से जुड़ी अनिश्चितता का एक माप है।<ref name=korn>{{cite book |author1=Theresa M. Korn|author1-link= Theresa M. Korn |author2=Korn, Granino Arthur |title=Mathematical Handbook for Scientists and Engineers: Definitions, Theorems, and Formulas for Reference and Review |date= January 2000 |publisher=Dover Publications |location=New York |isbn=0-486-41147-8 }}</ref> | ||
[[Image:Entropy-mutual-information-relative-entropy-relation-diagram.svg|thumb|256px| | |||
==परिभाषा== | ==परिभाषा== | ||
दो असतत यादृच्छिक चर की संयुक्त [[शैनन एन्ट्रापी]] ([[ अंश ]] | दो असतत यादृच्छिक चर की संयुक्त [[शैनन एन्ट्रापी]] ([[ अंश | बिट्स]] में)। <math>X </math> और <math>Y</math> छवियों के साथ <math>\mathcal X </math> और <math>\mathcal Y </math> परिभाषित किया जाता है<ref name=cover1991>{{cite book |author1=Thomas M. Cover |author2=Joy A. Thomas |title=सूचना सिद्धांत के तत्व|date=18 July 2006 |publisher=Wiley |location=Hoboken, New Jersey |isbn=0-471-24195-4}}</ref>{{rp|16}} | ||
{{Equation box 1 | {{Equation box 1 | ||
Line 17: | Line 12: | ||
|background colour=#F5FFFA}} | |background colour=#F5FFFA}} | ||
जहाँ <math>x </math> और <math>y </math> के विशेष मान <math>X</math> और <math>Y</math> हैं, क्रमश, <math>P(x,y)</math> इन मानों के एक साथ घटित होने की संयुक्त संभावना है, और <math>P(x,y) \log_2[P(x,y)]</math> को 0 के रूप में परिभाषित किया गया है यदि <math>P(x,y)=0</math>. | |||
दो से अधिक यादृच्छिक चर के लिए <math>X_1, ..., X_n</math> इसका विस्तार होता है | दो से अधिक यादृच्छिक चर के लिए <math>X_1, ..., X_n</math> इसका विस्तार होता है | ||
Line 31: | Line 26: | ||
|background colour=#F5FFFA}} | |background colour=#F5FFFA}} | ||
जहाँ <math>x_1,...,x_n</math> के विशेष मान <math>X_1,...,X_n</math> हैं, क्रमश, <math>P(x_1, ..., x_n)</math> इन मानों के एक साथ घटित होने की प्रायिकता है, और <math>P(x_1, ..., x_n) \log_2[P(x_1, ..., x_n)]</math> को 0 के रूप में परिभाषित किया गया है यदि <math>P(x_1, ..., x_n)=0</math>. | |||
==गुण== | ==गुण== | ||
===गैर- | ===गैर-ऋणात्मक=== | ||
यादृच्छिक चर के | यादृच्छिक चर के समुच्चय की संयुक्त एन्ट्रापी एक गैर-ऋणात्मक संख्या है। | ||
:<math>\Eta(X,Y) \geq 0</math> | :<math>\Eta(X,Y) \geq 0</math> | ||
:<math>\Eta(X_1,\ldots, X_n) \geq 0</math> | :<math>\Eta(X_1,\ldots, X_n) \geq 0</math> | ||
===विशिष्ट एन्ट्रॉपी से अधिक=== | |||
चरों के समुच्चय की संयुक्त एन्ट्रॉपी, समुच्चय में चरों की सभी विशिष्ट एन्ट्रॉपी की अधिकतम से अधिक या उसके समान होती है। | |||
चरों के | |||
:<math>\Eta(X,Y) \geq \max \left[\Eta(X),\Eta(Y) \right]</math> | :<math>\Eta(X,Y) \geq \max \left[\Eta(X),\Eta(Y) \right]</math> | ||
Line 51: | Line 45: | ||
\Bigl\{ \Eta\bigl(X_i\bigr) \Bigr\}</math> | \Bigl\{ \Eta\bigl(X_i\bigr) \Bigr\}</math> | ||
===विशिष्ट एन्ट्रॉपियों के योग से कम या उसके समान=== | |||
चरों के एक समुच्चय की संयुक्त एन्ट्रॉपी, समुच्चय में चरों की विशिष्ट एन्ट्रॉपी के योग से कम या उसके समान होती है। यह [[उपादेयता]] का एक उदाहरण है. यह असमानता एक समानता है यदि और केवल यदि <math>X </math> और <math>Y </math> [[सांख्यिकीय रूप से स्वतंत्र]] हैं।<ref name=cover1991 />{{rp|30}} | |||
चरों के एक | |||
:<math>\Eta(X,Y) \leq \Eta(X) + \Eta(Y)</math> | :<math>\Eta(X,Y) \leq \Eta(X) + \Eta(Y)</math> | ||
:<math>\Eta(X_1,\ldots, X_n) \leq \Eta(X_1) + \ldots + \Eta(X_n)</math> | :<math>\Eta(X_1,\ldots, X_n) \leq \Eta(X_1) + \ldots + \Eta(X_n)</math> | ||
: | |||
==अन्य एन्ट्रापी उपायों से संबंध== | ==अन्य एन्ट्रापी उपायों से संबंध== | ||
Line 66: | Line 58: | ||
:<math>\Eta(X|Y) = \Eta(X,Y) - \Eta(Y)\,</math>, | :<math>\Eta(X|Y) = \Eta(X,Y) - \Eta(Y)\,</math>, | ||
और <math display="block">\Eta(X_1,\dots,X_n) = \sum_{k=1}^n \Eta(X_k|X_{k-1},\dots, X_1)</math>इसका उपयोग आपसी जानकारी की परिभाषा में भी किया जाता है<ref name=cover1991 />{{rp|21}} | और<math display="block">\Eta(X_1,\dots,X_n) = \sum_{k=1}^n \Eta(X_k|X_{k-1},\dots, X_1)</math> इसका उपयोग आपसी जानकारी की परिभाषा में भी किया जाता है<ref name=cover1991 />{{rp|21}} | ||
:<math>\operatorname{I}(X;Y) = \Eta(X) + \Eta(Y) - \Eta(X,Y)\,</math> | :<math>\operatorname{I}(X;Y) = \Eta(X) + \Eta(Y) - \Eta(X,Y)\,</math> | ||
Line 74: | Line 66: | ||
===परिभाषा=== | ===परिभाषा=== | ||
उपरोक्त परिभाषा असतत यादृच्छिक चर के लिए है और निरंतर यादृच्छिक चर के | उपरोक्त परिभाषा असतत यादृच्छिक चर के लिए है और निरंतर यादृच्छिक चर के स्थिति में भी उतनी ही मान्य है। असतत संयुक्त एन्ट्रॉपी के निरंतर संस्करण को संयुक्त विभेदक (या निरंतर) एन्ट्रॉपी कहा जाता है। होने देना <math>X</math> और <math>Y</math> [[संयुक्त संभाव्यता घनत्व फ़ंक्शन|संयुक्त संभाव्यता घनत्व फलन]] के साथ एक सतत यादृच्छिक चर <math>f(x,y)</math> बनें. विभेदक संयुक्त एन्ट्रापी <math>h(X,Y)</math> परिभाषित किया जाता है<ref name=cover1991 />{{rp|249}} | ||
{{Equation box 1 | {{Equation box 1 | ||
Line 96: | Line 88: | ||
|background colour=#F5FFFA}} | |background colour=#F5FFFA}} | ||
[[अभिन्न]] | [[अभिन्न|अविभाज्य]] को <math>f</math> के समर्थन पर लिया गया है. यह संभव है कि अविभाज्य अस्तित्व में नहीं है जिस स्थिति में हम कहते हैं कि विभेदक एन्ट्रापी परिभाषित नहीं है। | ||
===गुण=== | ===गुण=== | ||
जैसा कि असतत | जैसा कि असतत स्थिति में यादृच्छिक चर के एक समुच्चय की संयुक्त विभेदक एन्ट्रॉपी विशिष्ट यादृच्छिक चर की एन्ट्रॉपी के योग से छोटी या समान होती है: | ||
:<math>h(X_1,X_2, \ldots,X_n) \le \sum_{i=1}^n h(X_i)</math><ref name=cover1991 />{{rp|253}} | :<math>h(X_1,X_2, \ldots,X_n) \le \sum_{i=1}^n h(X_i)</math><ref name=cover1991 />{{rp|253}} | ||
निम्नलिखित श्रृंखला नियम दो यादृच्छिक चर के लिए | निम्नलिखित श्रृंखला नियम दो यादृच्छिक चर के लिए क्रियान्वित होता है: | ||
:<math>h(X,Y) = h(X|Y) + h(Y)</math> | :<math>h(X,Y) = h(X|Y) + h(Y)</math> | ||
दो से अधिक यादृच्छिक चर के | दो से अधिक यादृच्छिक चर के स्थिति में इसे सामान्यीकृत किया जाता है:<ref name=cover1991 />{{rp|253}} | ||
:<math>h(X_1,X_2, \ldots,X_n) = \sum_{i=1}^n h(X_i|X_1,X_2, \ldots,X_{i-1})</math> | :<math>h(X_1,X_2, \ldots,X_n) = \sum_{i=1}^n h(X_i|X_1,X_2, \ldots,X_{i-1})</math> | ||
संयुक्त | संयुक्त विभेदक एन्ट्रॉपी का उपयोग निरंतर यादृच्छिक चर के मध्य पारस्परिक जानकारी की परिभाषा में भी किया जाता है: | ||
:<math>\operatorname{I}(X,Y)=h(X)+h(Y)-h(X,Y)</math> | :<math>\operatorname{I}(X,Y)=h(X)+h(Y)-h(X,Y)</math> | ||
== संदर्भ == | == संदर्भ == | ||
{{Reflist}} | {{Reflist}} | ||
Line 120: | Line 110: | ||
[[Category: Machine Translated Page]] | [[Category: Machine Translated Page]] | ||
[[Category:Created On 04/12/2023]] | [[Category:Created On 04/12/2023]] | ||
[[Category:Vigyan Ready]] |
Latest revision as of 14:47, 14 December 2023
सूचना सिद्धांत में, संयुक्त एन्ट्रापी (सूचना सिद्धांत) यादृच्छिक चर के समुच्चय से जुड़ी अनिश्चितता का एक माप है।[1]
परिभाषा
दो असतत यादृच्छिक चर की संयुक्त शैनन एन्ट्रापी ( बिट्स में)। और छवियों के साथ और परिभाषित किया जाता है[2]: 16
|
(Eq.1) |
जहाँ और के विशेष मान और हैं, क्रमश, इन मानों के एक साथ घटित होने की संयुक्त संभावना है, और को 0 के रूप में परिभाषित किया गया है यदि .
दो से अधिक यादृच्छिक चर के लिए इसका विस्तार होता है
|
(Eq.2) |
जहाँ के विशेष मान हैं, क्रमश, इन मानों के एक साथ घटित होने की प्रायिकता है, और को 0 के रूप में परिभाषित किया गया है यदि .
गुण
गैर-ऋणात्मक
यादृच्छिक चर के समुच्चय की संयुक्त एन्ट्रापी एक गैर-ऋणात्मक संख्या है।
विशिष्ट एन्ट्रॉपी से अधिक
चरों के समुच्चय की संयुक्त एन्ट्रॉपी, समुच्चय में चरों की सभी विशिष्ट एन्ट्रॉपी की अधिकतम से अधिक या उसके समान होती है।
विशिष्ट एन्ट्रॉपियों के योग से कम या उसके समान
चरों के एक समुच्चय की संयुक्त एन्ट्रॉपी, समुच्चय में चरों की विशिष्ट एन्ट्रॉपी के योग से कम या उसके समान होती है। यह उपादेयता का एक उदाहरण है. यह असमानता एक समानता है यदि और केवल यदि और सांख्यिकीय रूप से स्वतंत्र हैं।[2]: 30
अन्य एन्ट्रापी उपायों से संबंध
संयुक्त एन्ट्रापी का उपयोग सशर्त एन्ट्रापी की परिभाषा में किया जाता है[2]: 22
- ,
और
क्वांटम सूचना सिद्धांत में, संयुक्त एन्ट्रापी को संयुक्त क्वांटम एन्ट्रापी में सामान्यीकृत किया जाता है।
संयुक्त विभेदक एन्ट्रापी
परिभाषा
उपरोक्त परिभाषा असतत यादृच्छिक चर के लिए है और निरंतर यादृच्छिक चर के स्थिति में भी उतनी ही मान्य है। असतत संयुक्त एन्ट्रॉपी के निरंतर संस्करण को संयुक्त विभेदक (या निरंतर) एन्ट्रॉपी कहा जाता है। होने देना और संयुक्त संभाव्यता घनत्व फलन के साथ एक सतत यादृच्छिक चर बनें. विभेदक संयुक्त एन्ट्रापी परिभाषित किया जाता है[2]: 249
|
(Eq.3) |
दो से अधिक सतत यादृच्छिक चर के लिए परिभाषा को सामान्यीकृत किया गया है:
|
(Eq.4) |
अविभाज्य को के समर्थन पर लिया गया है. यह संभव है कि अविभाज्य अस्तित्व में नहीं है जिस स्थिति में हम कहते हैं कि विभेदक एन्ट्रापी परिभाषित नहीं है।
गुण
जैसा कि असतत स्थिति में यादृच्छिक चर के एक समुच्चय की संयुक्त विभेदक एन्ट्रॉपी विशिष्ट यादृच्छिक चर की एन्ट्रॉपी के योग से छोटी या समान होती है:
- [2]: 253
निम्नलिखित श्रृंखला नियम दो यादृच्छिक चर के लिए क्रियान्वित होता है:
दो से अधिक यादृच्छिक चर के स्थिति में इसे सामान्यीकृत किया जाता है:[2]: 253
संयुक्त विभेदक एन्ट्रॉपी का उपयोग निरंतर यादृच्छिक चर के मध्य पारस्परिक जानकारी की परिभाषा में भी किया जाता है:
संदर्भ
- ↑ Theresa M. Korn; Korn, Granino Arthur (January 2000). Mathematical Handbook for Scientists and Engineers: Definitions, Theorems, and Formulas for Reference and Review. New York: Dover Publications. ISBN 0-486-41147-8.
- ↑ 2.0 2.1 2.2 2.3 2.4 2.5 2.6 Thomas M. Cover; Joy A. Thomas (18 July 2006). सूचना सिद्धांत के तत्व. Hoboken, New Jersey: Wiley. ISBN 0-471-24195-4.