दिष्‍ट सूचना: Difference between revisions

From Vigyanwiki
Line 5: Line 5:
दिष्‍ट सूचना में उन समस्याओं के लिए अनुप्रयोग होते हैं जहां कारण कार्य महत्वपूर्ण भूमिका निभाता है जैसे फीडबैक वाले [[चैनल क्षमता]],<ref name="Massey 1990"/><ref name="Kramer 1998">{{cite thesis |type=Doctoral |last=Kramer |first=Gerhard |date=1998 |title=फीडबैक के साथ चैनलों के लिए निर्देशित जानकारी|doi=10.3929/ethz-a-001988524 |publisher=ETH Zurich |hdl=20.500.11850/143796 |language=en}}</ref><ref>{{cite thesis |type=Doctoral |last=Tatikonda |first=Sekhar Chandra |date=2000 |title=संचार बाधाओं के तहत नियंत्रण|url=https://dspace.mit.edu/handle/1721.1/16755 |publisher=Massachusetts Institute of Technology|hdl=1721.1/16755 }}</ref><ref name="2008.2009849">{{cite journal |last1=Permuter |first1=Haim Henry|last2=Weissman|first2=Tsachy|last3=Goldsmith |first3=Andrea J.|title=समय-अपरिवर्तनीय नियतात्मक प्रतिक्रिया के साथ परिमित राज्य चैनल|journal=IEEE Transactions on Information Theory |date=February 2009 |volume=55|issue=2 |pages=644–662 |doi=10.1109/TIT.2008.2009849|arxiv=cs/0608070|s2cid=13178}}</ref> असतत [[स्मृतिहीन|मेमोरी रहित]] नेटवर्क की क्षमता,<ref name="Kramer 2003">{{cite journal |last1=Kramer |first1=G. |title=असतत स्मृतिहीन नेटवर्क के लिए क्षमता परिणाम|journal=IEEE Transactions on Information Theory|date=January 2003|volume=49|issue=1 |pages=4–21|doi=10.1109/TIT.2002.806135}}</ref> इन-ब्लॉक मेमोरी वाले नेटवर्क की क्षमता,<ref>{{cite journal |last1=Kramer |first1=Gerhard |title=इन-ब्लॉक मेमोरी के साथ सूचना नेटवर्क|journal=IEEE Transactions on Information Theory |date=April 2014 |volume=60 |issue=4 |pages=2105–2120 |doi=10.1109/TIT.2014.2303120|arxiv=1206.5389 |s2cid=16382644 }}</ref> कारण पक्ष की सूचना के साथ [[जुआ|गैम्बल]],<ref>{{cite journal|last1=Permuter|first1=Haim H.|last2=Kim |first2=Young-Han|last3=Weissman |first3=Tsachy|title=पोर्टफोलियो सिद्धांत, डेटा संपीड़न और परिकल्पना परीक्षण में निर्देशित सूचना की व्याख्या|journal=IEEE Transactions on Information Theory|date=June 2011|volume=57|issue=6 |pages=3248–3259|doi=10.1109/TIT.2011.2136270|arxiv=0912.4872 |s2cid=11722596}}</ref> कारण पक्ष की सूचना के साथ संपीड़न,<ref>{{cite journal|last1=Simeone|first1=Osvaldo |last2=Permuter|first2=Haim Henri|title=स्रोत कोडिंग जब साइड सूचना में देरी हो सकती है|journal=IEEE Transactions on Information Theory|date=June 2013 |volume=59|issue=6|pages=3607–3618 |doi=10.1109/TIT.2013.2248192|arxiv=1109.1293|s2cid=3211485}}</ref> [[वास्तविक समय नियंत्रण]] संचार समायोजन,<ref>{{cite journal |last1=Charalambous|first1=Charalambos D. |last2=Stavrou |first2=Photios A.|title=Directed Information on Abstract Spaces: Properties and Variational Equalities |journal=IEEE Transactions on Information Theory|date=August 2016|volume=62|issue=11|pages=6019–6052 |doi=10.1109/TIT.2016.2604846 |arxiv=1302.3971|s2cid=8107565}}</ref><ref>{{cite journal |last1=Tanaka |first1=Takashi |last2=Esfahani |first2=Peyman Mohajerin |last3=Mitter |first3=Sanjoy K. |title=LQG Control With Minimum Directed Information: Semidefinite Programming Approach |journal=IEEE Transactions on Automatic Control |date=January 2018 |volume=63 |issue=1 |pages=37–52 |doi=10.1109/TAC.2017.2709618 |s2cid=1401958 |arxiv=1510.04214 |url=http://resolver.tudelft.nl/uuid:d9db1c11-fbfd-4c0c-b66f-f341b49fa61a}}</ref> और सांख्यिकीय भौतिकी।<ref>{{cite journal |last1=Vinkler |first1=Dror A |last2=Permuter |first2=Haim H |last3=Merhav |first3=Neri |title=जुए और माप-आधारित कार्य निष्कर्षण के बीच समानता|journal=Journal of Statistical Mechanics: Theory and Experiment |date=20 April 2016 |volume=2016 |issue=4 |page=043403 |doi=10.1088/1742-5468/2016/04/043403 |arxiv=1404.6788 |bibcode=2016JSMTE..04.3403V |s2cid=124719237}}</ref>
दिष्‍ट सूचना में उन समस्याओं के लिए अनुप्रयोग होते हैं जहां कारण कार्य महत्वपूर्ण भूमिका निभाता है जैसे फीडबैक वाले [[चैनल क्षमता]],<ref name="Massey 1990"/><ref name="Kramer 1998">{{cite thesis |type=Doctoral |last=Kramer |first=Gerhard |date=1998 |title=फीडबैक के साथ चैनलों के लिए निर्देशित जानकारी|doi=10.3929/ethz-a-001988524 |publisher=ETH Zurich |hdl=20.500.11850/143796 |language=en}}</ref><ref>{{cite thesis |type=Doctoral |last=Tatikonda |first=Sekhar Chandra |date=2000 |title=संचार बाधाओं के तहत नियंत्रण|url=https://dspace.mit.edu/handle/1721.1/16755 |publisher=Massachusetts Institute of Technology|hdl=1721.1/16755 }}</ref><ref name="2008.2009849">{{cite journal |last1=Permuter |first1=Haim Henry|last2=Weissman|first2=Tsachy|last3=Goldsmith |first3=Andrea J.|title=समय-अपरिवर्तनीय नियतात्मक प्रतिक्रिया के साथ परिमित राज्य चैनल|journal=IEEE Transactions on Information Theory |date=February 2009 |volume=55|issue=2 |pages=644–662 |doi=10.1109/TIT.2008.2009849|arxiv=cs/0608070|s2cid=13178}}</ref> असतत [[स्मृतिहीन|मेमोरी रहित]] नेटवर्क की क्षमता,<ref name="Kramer 2003">{{cite journal |last1=Kramer |first1=G. |title=असतत स्मृतिहीन नेटवर्क के लिए क्षमता परिणाम|journal=IEEE Transactions on Information Theory|date=January 2003|volume=49|issue=1 |pages=4–21|doi=10.1109/TIT.2002.806135}}</ref> इन-ब्लॉक मेमोरी वाले नेटवर्क की क्षमता,<ref>{{cite journal |last1=Kramer |first1=Gerhard |title=इन-ब्लॉक मेमोरी के साथ सूचना नेटवर्क|journal=IEEE Transactions on Information Theory |date=April 2014 |volume=60 |issue=4 |pages=2105–2120 |doi=10.1109/TIT.2014.2303120|arxiv=1206.5389 |s2cid=16382644 }}</ref> कारण पक्ष की सूचना के साथ [[जुआ|गैम्बल]],<ref>{{cite journal|last1=Permuter|first1=Haim H.|last2=Kim |first2=Young-Han|last3=Weissman |first3=Tsachy|title=पोर्टफोलियो सिद्धांत, डेटा संपीड़न और परिकल्पना परीक्षण में निर्देशित सूचना की व्याख्या|journal=IEEE Transactions on Information Theory|date=June 2011|volume=57|issue=6 |pages=3248–3259|doi=10.1109/TIT.2011.2136270|arxiv=0912.4872 |s2cid=11722596}}</ref> कारण पक्ष की सूचना के साथ संपीड़न,<ref>{{cite journal|last1=Simeone|first1=Osvaldo |last2=Permuter|first2=Haim Henri|title=स्रोत कोडिंग जब साइड सूचना में देरी हो सकती है|journal=IEEE Transactions on Information Theory|date=June 2013 |volume=59|issue=6|pages=3607–3618 |doi=10.1109/TIT.2013.2248192|arxiv=1109.1293|s2cid=3211485}}</ref> [[वास्तविक समय नियंत्रण]] संचार समायोजन,<ref>{{cite journal |last1=Charalambous|first1=Charalambos D. |last2=Stavrou |first2=Photios A.|title=Directed Information on Abstract Spaces: Properties and Variational Equalities |journal=IEEE Transactions on Information Theory|date=August 2016|volume=62|issue=11|pages=6019–6052 |doi=10.1109/TIT.2016.2604846 |arxiv=1302.3971|s2cid=8107565}}</ref><ref>{{cite journal |last1=Tanaka |first1=Takashi |last2=Esfahani |first2=Peyman Mohajerin |last3=Mitter |first3=Sanjoy K. |title=LQG Control With Minimum Directed Information: Semidefinite Programming Approach |journal=IEEE Transactions on Automatic Control |date=January 2018 |volume=63 |issue=1 |pages=37–52 |doi=10.1109/TAC.2017.2709618 |s2cid=1401958 |arxiv=1510.04214 |url=http://resolver.tudelft.nl/uuid:d9db1c11-fbfd-4c0c-b66f-f341b49fa61a}}</ref> और सांख्यिकीय भौतिकी।<ref>{{cite journal |last1=Vinkler |first1=Dror A |last2=Permuter |first2=Haim H |last3=Merhav |first3=Neri |title=जुए और माप-आधारित कार्य निष्कर्षण के बीच समानता|journal=Journal of Statistical Mechanics: Theory and Experiment |date=20 April 2016 |volume=2016 |issue=4 |page=043403 |doi=10.1088/1742-5468/2016/04/043403 |arxiv=1404.6788 |bibcode=2016JSMTE..04.3403V |s2cid=124719237}}</ref>
==कारण अनुबंधन==
==कारण अनुबंधन==
दिष्‍ट सूचना का सार '''कारण अनुबंधन''' है। <math>x^n</math>पर यथोचित रूप से अनुबंधन <math>y^n</math> की संभावना को इस प्रकार परिभाषित किया गया है<ref name="Kramer 2003"/>:
दिष्‍ट सूचना का सार '''कारण अनुबंधन''' है। <math>x^n</math>पर यथोचित रूप से अनुबंधन <math>y^n</math> की प्रायिकता को इस प्रकार परिभाषित किया गया है<ref name="Kramer 2003"/>:


<math>P(x^n||y^n) \triangleq \prod_{i=1}^n P(x_i|x^{i-1},y^{i})</math>.
<math>P(x^n||y^n) \triangleq \prod_{i=1}^n P(x_i|x^{i-1},y^{i})</math>.


यह पारंपरिक कंडीशनिंग के लिए श्रृंखला नियम के समान है <math>P(x^n|y^n) = \prod_{i=1}^n P(x_i|x^{i-1},y^{n})</math> अतीत और वर्तमान प्रतीकों पर एक शर्त को छोड़कर <math>y^{i}</math> सभी प्रतीकों के बजाय <math>y^{n}</math>. केवल पिछले प्रतीकों को शामिल करने के लिए, एक स्थिर प्रतीक को जोड़कर विलंब का परिचय दिया जा सकता है:
यह पारंपरिक अनुबंधन
 
<math>P(x^n|y^n) = \prod_{i=1}^n P(x_i|x^{i-1},y^{n})</math> के लिए श्रृंखला नियम, सभी प्रतीकों <math>y^{i}</math> के बजाय "अतीत" और "वर्तमान" प्रतीकों <math>y^{n}</math> पर एक अनुबंधन को छोड़कर के समान है। केवल "अतीत" प्रतीकों को शामिल करने के लिए, स्थिर प्रतीक को जोड़कर विलंब का परिचय दिया जा सकता है:
:<math>P(x^n||(0,y^{n-1})) \triangleq \prod_{i=1}^n P(x_i|x^{i-1},y^{i-1})</math>.
:<math>P(x^n||(0,y^{n-1})) \triangleq \prod_{i=1}^n P(x_i|x^{i-1},y^{i-1})</math>.
लिखकर संकेतन का दुरुपयोग करना आम बात है <math>P(x^n||y^{n-1})</math> इस अभिव्यक्ति के लिए, हालाँकि औपचारिक रूप से सभी तारों में प्रतीकों की संख्या समान होनी चाहिए।
इस अभिव्यक्ति के लिए <math>P(x^n||y^{n-1})</math> लिखकर संकेतन का दुरुपयोग करना आम बात है, हालांकि औपचारिक रूप से सभी स्ट्रिंग्स में प्रतीकों की संख्या समान होनी चाहिए।
 
कोई भी कई स्ट्रिंग्स पर अनुबंधन लगा सकता है: <math>P(x^n||y^n,z^n) \triangleq \prod_{i=1}^n P(x_i|x^{i-1},y^{i},z^{i})</math>.


कोई भी कई स्ट्रिंग्स पर शर्त लगा सकता है: <math>P(x^n||y^n,z^n) \triangleq \prod_{i=1}^n P(x_i|x^{i-1},y^{i},z^{i})</math>.
===कारण अनुबंधन एन्ट्रापी===
'''कारणतः अनुबंधन एन्ट्रापी''' को इस प्रकार परिभाषित किया गया है:<ref name="Kramer 1998" />:<math>H(X^n || Y^n)=\mathbf E\left[ -\log {P(X^n||Y^n)} \right]=\sum_{i=1}^n H(X_{i}|X^{i-1},Y^{i})</math>


===कारण रूप से अनुबंधन एन्ट्रापी===
इसी तरह, कोई भी कई स्ट्रिंग्स पर कारणात्मक अनुबंधन कर सकता है और लिख सकता है<math>H(X^n || Y^n,Z^n)=\mathbf E\left[ -\log {P(X^n||Y^n,Z^n)} \right]</math>
कारणतः अनुबंधन एन्ट्रापी को इस प्रकार परिभाषित किया गया है:<ref name="Kramer 1998" />:<math>H(X^n || Y^n)=\mathbf E\left[ -\log {P(X^n||Y^n)} \right]=\sum_{i=1}^n H(X_{i}|X^{i-1},Y^{i})</math>
इसी तरह, कोई भी कई स्ट्रिंग्स पर कारणात्मक रूप से कंडीशन कर सकता है और लिख सकता है
<math>H(X^n || Y^n,Z^n)=\mathbf E\left[ -\log {P(X^n||Y^n,Z^n)} \right]</math>.


==गुण==
==गुण==
कारण अनुबंधन के लिए एक अपघटन नियम<ref name="Massey 1990"/>है
कारण अनुबंधन के लिए अपघटन नियम<ref name="Massey 1990"/>है
:<math>P(x^n, y^n) = P(x^n||y^{n-1}) P(y^n||x^n)</math>.
:<math>P(x^n, y^n) = P(x^n||y^{n-1}) P(y^n||x^n)</math>.
यह नियम दर्शाता है कि कोई भी उत्पाद <math>P(x^n||y^{n-1}), P(y^n||x^n)</math> संयुक्त वितरण देता है <math>P(x^n, y^n)</math>.
यह नियम दर्शाता है कि कोई भी उत्पाद <math>P(x^n||y^{n-1}), P(y^n||x^n)</math> संयुक्त वितरण <math>P(x^n, y^n)</math> देता है।


कारण कंडीशनिंग संभावना<math>P(y^n||x^n) = \prod_{i=1}^n P(y_i|y^{i-1},x^{i})</math> एक संभाव्यता वेक्टर है, यानी,
कारण अनुबंधन प्रायिकता<math>P(y^n||x^n) = \prod_{i=1}^n P(y_i|y^{i-1},x^{i})</math> प्रायिकता सदिश है, यानी,
:<math>P(y^n||x^n)\geq 0 \quad\text{and}\quad \sum_{y^n} P(y^n||x^n)=1 \quad\text{for all } (x^n,y^n)</math>.
:<math>P(y^n||x^n)\geq 0 \quad\text{and}\quad \sum_{y^n} P(y^n||x^n)=1 \quad\text{for all } (x^n,y^n)</math>.


दिष्‍ट सूचना को कारण अनुबंधन के संदर्भ में लिखा जा सकता है:<ref name="Kramer 1998"/>:<math>I(X^N \rightarrow Y^N)=\mathbf E\left[ \log \frac{P(Y^N||X^N)}{P(Y^N)} \right] = H(Y^n)- H(Y^n || X^n)</math>.
दिष्‍ट सूचना को कारण अनुबंधन के संदर्भ में लिखा जा सकता है:<ref name="Kramer 1998"/>:<math>I(X^N \rightarrow Y^N)=\mathbf E\left[ \log \frac{P(Y^N||X^N)}{P(Y^N)} \right] = H(Y^n)- H(Y^n || X^n)</math>.


संबंध तीन तारों तक सामान्यीकृत होता है: दिष्‍ट सूचना प्रवाहित होती है <math>X^n</math> को <math>Y^n</math> यथोचित रूप से अनुबंधन <math>Z^n</math> है
संबंध तीन स्ट्रिंग्स तक सामान्यीकृत होता है: <math>X^n</math> को <math>Y^n</math> तक प्रवाहित वाली <math>Z^n</math> यथोचित रूप से अनुबंधन  है
:<math>I(X^n\to Y^n || Z^n) = H(Y^n || Z^n)- H(Y^n || X^n, Z^n)</math>.
:<math>I(X^n\to Y^n || Z^n) = H(Y^n || Z^n)- H(Y^n || X^n, Z^n)</math>.


===सूचना का संरक्षण कानून===
===सूचना का संरक्षण नियम===
जेम्स मैसी और उनके बेटे पीटर मैसी द्वारा स्थापित यह कानून,<ref>{{cite book |last1=Massey |first1=J.L. |last2=Massey |first2=P.C. |title=Proceedings. International Symposium on Information Theory, 2005. ISIT 2005 |chapter=Conservation of mutual and directed information |date=September 2005 |pages=157–158 |doi=10.1109/ISIT.2005.1523313|isbn=0-7803-9151-9 |s2cid=38053218 }}</ref> दिष्‍ट सूचना और पारस्परिक सूचना से संबंधित होकर अंतर्ज्ञान देता है। कानून कहता है कि किसी के लिए भी <math>X^n, Y^n </math>, निम्नलिखित समानता रखती है:
जेम्स मैसी और उनके बेटे पीटर मैसी द्वारा स्थापित यह कानून,<ref>{{cite book |last1=Massey |first1=J.L. |last2=Massey |first2=P.C. |title=Proceedings. International Symposium on Information Theory, 2005. ISIT 2005 |chapter=Conservation of mutual and directed information |date=September 2005 |pages=157–158 |doi=10.1109/ISIT.2005.1523313|isbn=0-7803-9151-9 |s2cid=38053218 }}</ref> दिष्‍ट सूचना और पारस्परिक सूचना से संबंधित होकर अंतर्ज्ञान देता है। कानून कहता है कि किसी के लिए भी <math>X^n, Y^n </math>, निम्नलिखित समानता रखती है:
:<math>I(X^n;Y^n)= I(X^n \to Y^n)+I(Y^{n-1} \to X^n).</math>
:<math>I(X^n;Y^n)= I(X^n \to Y^n)+I(Y^{n-1} \to X^n).</math>
Line 55: Line 57:


== मार्को का द्विदिश संचार का सिद्धांत ==
== मार्को का द्विदिश संचार का सिद्धांत ==
मैसी की दिष्‍ट सूचना द्विदिश संचार के सिद्धांत को विकसित करने पर मार्को के शुरुआती काम (1966) से प्रेरित थी।<ref>{{cite journal |last1=Marko |first1=Hans |title=Die Theorie der bidirektionalen Kommunikation und ihre Anwendung auf die Nachrichtenübermittlung zwischen Menschen (Subjektive Information) |journal=Kybernetik |date=1 September 1966 |volume=3 |issue=3 |pages=128–136 |doi=10.1007/BF00288922 |pmid=5920460 |s2cid=33275199 |url=https://link.springer.com/article/10.1007/BF00288922 |language=de |issn=1432-0770}}</ref><ref>{{cite journal |last1=Marko |first1=H. |title=द्विदिश संचार सिद्धांत--सूचना सिद्धांत का एक सामान्यीकरण|journal=IEEE Transactions on Communications |date=December 1973 |volume=21 |issue=12 |pages=1345–1351 |doi=10.1109/TCOM.1973.1091610|s2cid=51664185 }}</ref> दिष्‍ट परिवर्तन सूचना की मार्को की परिभाषा उस समय मैसी की परिभाषा से थोड़ी भिन्न है <math>n</math>, पिछले प्रतीकों पर एक शर्त <math>X^{n-1},Y^{n-1}</math> केवल और एक सीमा लेता है:
मैसी की दिष्‍ट सूचना द्विदिश संचार के सिद्धांत को विकसित करने पर मार्को के शुरुआती काम (1966) से प्रेरित थी।<ref>{{cite journal |last1=Marko |first1=Hans |title=Die Theorie der bidirektionalen Kommunikation und ihre Anwendung auf die Nachrichtenübermittlung zwischen Menschen (Subjektive Information) |journal=Kybernetik |date=1 September 1966 |volume=3 |issue=3 |pages=128–136 |doi=10.1007/BF00288922 |pmid=5920460 |s2cid=33275199 |url=https://link.springer.com/article/10.1007/BF00288922 |language=de |issn=1432-0770}}</ref><ref>{{cite journal |last1=Marko |first1=H. |title=द्विदिश संचार सिद्धांत--सूचना सिद्धांत का एक सामान्यीकरण|journal=IEEE Transactions on Communications |date=December 1973 |volume=21 |issue=12 |pages=1345–1351 |doi=10.1109/TCOM.1973.1091610|s2cid=51664185 }}</ref> दिष्‍ट परिवर्तन सूचना की मार्को की परिभाषा उस समय मैसी की परिभाषा से थोड़ी भिन्न है <math>n</math>, पिछले प्रतीकों पर एक अनुबंधन <math>X^{n-1},Y^{n-1}</math> केवल और एक सीमा लेता है:
:<math>T_{12} = \lim_{n \to \infty} \mathbf E\left[ -\log \frac{P(X_{n}|X^{n-1})}{P(X_{n}|X^{n-1},Y^{n-1})} \right] \quad\text{and}\quad T_{21} = \lim_{n \to \infty} \mathbf E\left[ -\log \frac{P(Y_{n}|Y^{n-1})}{P(Y_{n}|Y^{n-1},X^{n-1})} \right].</math>
:<math>T_{12} = \lim_{n \to \infty} \mathbf E\left[ -\log \frac{P(X_{n}|X^{n-1})}{P(X_{n}|X^{n-1},Y^{n-1})} \right] \quad\text{and}\quad T_{21} = \lim_{n \to \infty} \mathbf E\left[ -\log \frac{P(Y_{n}|Y^{n-1})}{P(Y_{n}|Y^{n-1},X^{n-1})} \right].</math>
मार्को ने कई अन्य मात्राएँ परिभाषित कीं, जिनमें शामिल हैं:
मार्को ने कई अन्य मात्राएँ परिभाषित कीं, जिनमें शामिल हैं:
Line 67: Line 69:
* <math>R_{1} = H_{1}-K = F_{1}-T_{21}</math>
* <math>R_{1} = H_{1}-K = F_{1}-T_{21}</math>
* <math>R_{2} = H_{2}-K = F_{2}-T_{12}</math>
* <math>R_{2} = H_{2}-K = F_{2}-T_{12}</math>
और संरक्षण कानून विकसित किया <math>F_{1}+F_{2} = R_{1}+R_{2}+K = H_{1}+H_{2}-K</math> और कई सीमाएँ.
और संरक्षण नियम विकसित किया <math>F_{1}+F_{2} = R_{1}+R_{2}+K = H_{1}+H_{2}-K</math> और कई सीमाएँ.


==[[एन्ट्रापी स्थानांतरण]] से संबंध==
==[[एन्ट्रापी स्थानांतरण]] से संबंध==

Revision as of 10:49, 7 December 2023

दिष्‍ट सूचना एक सूचना सिद्धांत आकलन है जो यादृच्छिक स्ट्रिंग से यादृच्छिक स्ट्रिंग तक सूचना प्रवाह की मात्रा निर्धारित करता है। दिष्‍ट सूचना शब्द जेम्स मैसी द्वारा गढ़ा गया था और इसे इस प्रकार परिभाषित किया गया है[1]

जहाँ सशर्त पारस्परिक सूचना है .

दिष्‍ट सूचना में उन समस्याओं के लिए अनुप्रयोग होते हैं जहां कारण कार्य महत्वपूर्ण भूमिका निभाता है जैसे फीडबैक वाले चैनल क्षमता,[1][2][3][4] असतत मेमोरी रहित नेटवर्क की क्षमता,[5] इन-ब्लॉक मेमोरी वाले नेटवर्क की क्षमता,[6] कारण पक्ष की सूचना के साथ गैम्बल,[7] कारण पक्ष की सूचना के साथ संपीड़न,[8] वास्तविक समय नियंत्रण संचार समायोजन,[9][10] और सांख्यिकीय भौतिकी।[11]

कारण अनुबंधन

दिष्‍ट सूचना का सार कारण अनुबंधन है। पर यथोचित रूप से अनुबंधन की प्रायिकता को इस प्रकार परिभाषित किया गया है[5]:

.

यह पारंपरिक अनुबंधन

के लिए श्रृंखला नियम, सभी प्रतीकों के बजाय "अतीत" और "वर्तमान" प्रतीकों पर एक अनुबंधन को छोड़कर के समान है। केवल "अतीत" प्रतीकों को शामिल करने के लिए, स्थिर प्रतीक को जोड़कर विलंब का परिचय दिया जा सकता है:

.

इस अभिव्यक्ति के लिए लिखकर संकेतन का दुरुपयोग करना आम बात है, हालांकि औपचारिक रूप से सभी स्ट्रिंग्स में प्रतीकों की संख्या समान होनी चाहिए।

कोई भी कई स्ट्रिंग्स पर अनुबंधन लगा सकता है: .

कारण अनुबंधन एन्ट्रापी

कारणतः अनुबंधन एन्ट्रापी को इस प्रकार परिभाषित किया गया है:[2]:

इसी तरह, कोई भी कई स्ट्रिंग्स पर कारणात्मक अनुबंधन कर सकता है और लिख सकता है

गुण

कारण अनुबंधन के लिए अपघटन नियम[1]है

.

यह नियम दर्शाता है कि कोई भी उत्पाद संयुक्त वितरण देता है।

कारण अनुबंधन प्रायिकता प्रायिकता सदिश है, यानी,

.

दिष्‍ट सूचना को कारण अनुबंधन के संदर्भ में लिखा जा सकता है:[2]:.

संबंध तीन स्ट्रिंग्स तक सामान्यीकृत होता है: को तक प्रवाहित वाली यथोचित रूप से अनुबंधन है

.

सूचना का संरक्षण नियम

जेम्स मैसी और उनके बेटे पीटर मैसी द्वारा स्थापित यह कानून,[12] दिष्‍ट सूचना और पारस्परिक सूचना से संबंधित होकर अंतर्ज्ञान देता है। कानून कहता है कि किसी के लिए भी , निम्नलिखित समानता रखती है:

इस कानून के दो वैकल्पिक रूप हैं[2][13]

जहाँ .

अनुमान और अनुकूलन

दिष्‍ट सूचना का अनुमान लगाना और उसका अनुकूलन करना चुनौतीपूर्ण है क्योंकि ऐसा हुआ है शर्तें कहां बड़ा हो सकता है. कई मामलों में, किसी की रुचि सीमित औसत को अनुकूलित करने में होती है, अर्थात कब अनंत तक बढ़ता है जिसे बहु-अक्षर अभिव्यक्ति कहा जाता है।

अनुमान

नमूनों से दिष्‍ट सूचना का अनुमान लगाना एक कठिन समस्या है क्योंकि दिष्‍ट सूचना अभिव्यक्ति नमूनों पर नहीं बल्कि संयुक्त वितरण पर निर्भर करती है जो अज्ञात हो सकता है. संदर्भ वृक्ष भार पर आधारित कई एल्गोरिदम हैं[14] और अनुभवजन्य पैरामीट्रिक वितरण[15] और दीर्घकालिक अल्पकालिक स्मृति का उपयोग करना।[16]


अनुकूलन

दिष्‍ट सूचना को अधिकतम करना सूचना सिद्धांत में एक मूलभूत समस्या है। उदाहरण के लिए, चैनल वितरण दिया गया , उद्देश्य अनुकूलन करना हो सकता है चैनल इनपुट वितरण पर .

ब्लाहुत-अरिमोटो एल्गोरिदम के आधार पर दिष्‍ट सूचना को अनुकूलित करने के लिए एल्गोरिदम हैं|ब्लाहुत-अरिमोटो,[17] मार्कोव निर्णय प्रक्रिया,[18][19][20][21] आवर्तक तंत्रिका नेटवर्क,[16] सुदृढीकरण सीखना[22] और ग्राफ़िकल विधियाँ (क्यू-ग्राफ़)[23][24] ब्लाहुत-अरिमोटो एल्गोरिदम के लिए|ब्लाहुत-अरिमोटो एल्गोरिदम,[17]मुख्य विचार दिष्‍ट सूचना अभिव्यक्ति की अंतिम पारस्परिक सूचना से शुरू करना और पीछे की ओर जाना है। मार्कोव निर्णय प्रक्रिया के लिए,[18][19][20][21]मुख्य विचार अनुकूलन को अनंत क्षितिज औसत इनाम मार्कोव निर्णय प्रक्रिया में बदलना है। आवर्ती तंत्रिका नेटवर्क के लिए,[16]मुख्य विचार आवर्तक तंत्रिका नेटवर्क का उपयोग करके इनपुट वितरण को मॉडल करना और ढतला हुआ वंश का उपयोग करके मापदंडों को अनुकूलित करना है। सुदृढीकरण सीखने के लिए,[22]मुख्य विचार सुदृढीकरण सीखने के उपकरणों का उपयोग करके क्षमता के मार्कोव निर्णय प्रक्रिया सूत्रीकरण को हल करना है, जो किसी को बड़े या यहां तक ​​कि निरंतर वर्णमाला से निपटने की सुविधा देता है।

मार्को का द्विदिश संचार का सिद्धांत

मैसी की दिष्‍ट सूचना द्विदिश संचार के सिद्धांत को विकसित करने पर मार्को के शुरुआती काम (1966) से प्रेरित थी।[25][26] दिष्‍ट परिवर्तन सूचना की मार्को की परिभाषा उस समय मैसी की परिभाषा से थोड़ी भिन्न है , पिछले प्रतीकों पर एक अनुबंधन केवल और एक सीमा लेता है:

मार्को ने कई अन्य मात्राएँ परिभाषित कीं, जिनमें शामिल हैं:

  • कुल सूचना: और
  • निःशुल्क सूचना: और
  • संयोग:

कुल सूचना को आमतौर पर एन्ट्रापी दर कहा जाता है। मार्को ने उन समस्याओं के लिए निम्नलिखित संबंध दिखाए जिनमें उनकी रुचि थी:

  • और

उन्होंने मात्राओं को भी परिभाषित किया जिन्हें उन्होंने अवशिष्ट एन्ट्रॉपीज़ कहा:

और संरक्षण नियम विकसित किया और कई सीमाएँ.

एन्ट्रापी स्थानांतरण से संबंध

दिष्‍ट सूचना ट्रांसफर एन्ट्रापी से संबंधित है, जो मार्को की दिष्‍ट ट्रांसइन्फॉर्मेशन का एक छोटा संस्करण है .

समय पर स्थानांतरण एन्ट्रापी और स्मृति के साथ है

जहां किसी में वर्तमान प्रतीक शामिल नहीं है या अतीत के प्रतीक समय से पहले .

स्थानांतरण एन्ट्रापी आमतौर पर स्थिरता मानती है, अर्थात, समय पर निर्भर नहीं करता .

संदर्भ

  1. 1.0 1.1 1.2 Massey, James (1990). "कारणता, प्रतिक्रिया और निर्देशित जानकारी". Proceedings 1990 International Symposium on Information Theory and its Applications, Waikiki, Hawaii, Nov. 27-30, 1990.
  2. 2.0 2.1 2.2 2.3 Kramer, Gerhard (1998). फीडबैक के साथ चैनलों के लिए निर्देशित जानकारी (Doctoral) (in English). ETH Zurich. doi:10.3929/ethz-a-001988524. hdl:20.500.11850/143796.
  3. Tatikonda, Sekhar Chandra (2000). संचार बाधाओं के तहत नियंत्रण (Doctoral). Massachusetts Institute of Technology. hdl:1721.1/16755.
  4. Permuter, Haim Henry; Weissman, Tsachy; Goldsmith, Andrea J. (February 2009). "समय-अपरिवर्तनीय नियतात्मक प्रतिक्रिया के साथ परिमित राज्य चैनल". IEEE Transactions on Information Theory. 55 (2): 644–662. arXiv:cs/0608070. doi:10.1109/TIT.2008.2009849. S2CID 13178.
  5. 5.0 5.1 Kramer, G. (January 2003). "असतत स्मृतिहीन नेटवर्क के लिए क्षमता परिणाम". IEEE Transactions on Information Theory. 49 (1): 4–21. doi:10.1109/TIT.2002.806135.
  6. Kramer, Gerhard (April 2014). "इन-ब्लॉक मेमोरी के साथ सूचना नेटवर्क". IEEE Transactions on Information Theory. 60 (4): 2105–2120. arXiv:1206.5389. doi:10.1109/TIT.2014.2303120. S2CID 16382644.
  7. Permuter, Haim H.; Kim, Young-Han; Weissman, Tsachy (June 2011). "पोर्टफोलियो सिद्धांत, डेटा संपीड़न और परिकल्पना परीक्षण में निर्देशित सूचना की व्याख्या". IEEE Transactions on Information Theory. 57 (6): 3248–3259. arXiv:0912.4872. doi:10.1109/TIT.2011.2136270. S2CID 11722596.
  8. Simeone, Osvaldo; Permuter, Haim Henri (June 2013). "स्रोत कोडिंग जब साइड सूचना में देरी हो सकती है". IEEE Transactions on Information Theory. 59 (6): 3607–3618. arXiv:1109.1293. doi:10.1109/TIT.2013.2248192. S2CID 3211485.
  9. Charalambous, Charalambos D.; Stavrou, Photios A. (August 2016). "Directed Information on Abstract Spaces: Properties and Variational Equalities". IEEE Transactions on Information Theory. 62 (11): 6019–6052. arXiv:1302.3971. doi:10.1109/TIT.2016.2604846. S2CID 8107565.
  10. Tanaka, Takashi; Esfahani, Peyman Mohajerin; Mitter, Sanjoy K. (January 2018). "LQG Control With Minimum Directed Information: Semidefinite Programming Approach". IEEE Transactions on Automatic Control. 63 (1): 37–52. arXiv:1510.04214. doi:10.1109/TAC.2017.2709618. S2CID 1401958.
  11. Vinkler, Dror A; Permuter, Haim H; Merhav, Neri (20 April 2016). "जुए और माप-आधारित कार्य निष्कर्षण के बीच समानता". Journal of Statistical Mechanics: Theory and Experiment. 2016 (4): 043403. arXiv:1404.6788. Bibcode:2016JSMTE..04.3403V. doi:10.1088/1742-5468/2016/04/043403. S2CID 124719237.
  12. Massey, J.L.; Massey, P.C. (September 2005). "Conservation of mutual and directed information". Proceedings. International Symposium on Information Theory, 2005. ISIT 2005. pp. 157–158. doi:10.1109/ISIT.2005.1523313. ISBN 0-7803-9151-9. S2CID 38053218.
  13. Amblard, Pierre-Olivier; Michel, Olivier (28 December 2012). "The Relation between Granger Causality and Directed Information Theory: A Review". Entropy. 15 (1): 113–143. arXiv:1211.3169. Bibcode:2012Entrp..15..113A. doi:10.3390/e15010113.
  14. Jiao, Jiantao; Permuter, Haim H.; Zhao, Lei; Kim, Young-Han; Weissman, Tsachy (October 2013). "निर्देशित सूचना का सार्वभौमिक अनुमान". IEEE Trans. Inf. Theory. 59 (10): 6220–6242. arXiv:1201.2334. doi:10.1109/TIT.2013.2267934. S2CID 10855063.
  15. Quinn, Christopher J.; Kiyavash, Negar; Coleman, Todd P. (December 2015). "निर्देशित सूचना ग्राफ़". IEEE Trans. Inf. Theory. 61 (12): 6887–6909. arXiv:1204.2003. doi:10.1109/TIT.2015.2478440. S2CID 3121664.
  16. 16.0 16.1 16.2 Aharoni, Ziv; Tsur, Dor; Goldfeld, Ziv; Permuter, Haim Henry (June 2020). "Capacity of Continuous Channels with Memory via Directed Information Neural Estimator". 2020 IEEE International Symposium on Information Theory (ISIT). pp. 2014–2019. arXiv:2003.04179. doi:10.1109/ISIT44484.2020.9174109. ISBN 978-1-7281-6432-8. S2CID 212634151. {{cite book}}: |journal= ignored (help)
  17. 17.0 17.1 Naiss, Iddo; Permuter, Haim H. (January 2013). "Extension of the Blahut–Arimoto Algorithm for Maximizing Directed Information". IEEE Trans. Inf. Theory. 59 (1): 204–222. arXiv:1012.5071. doi:10.1109/TIT.2012.2214202. S2CID 3115749.
  18. 18.0 18.1 Permuter, Haim; Cuff, Paul; Van Roy, Benjamin; Weissman, Tsachy (July 2008). "फीडबैक के साथ ट्रैपडोर चैनल की क्षमता". IEEE Trans. Inf. Theory. 54 (7): 3150–3165. arXiv:cs/0610047. doi:10.1109/TIT.2008.924681. S2CID 1265.
  19. 19.0 19.1 Elishco, Ohad; Permuter, Haim (September 2014). "फीडबैक के साथ आइसिंग चैनल के लिए क्षमता और कोडिंग". IEEE Trans. Inf. Theory. 60 (9): 5138–5149. arXiv:1205.4674. doi:10.1109/TIT.2014.2331951. S2CID 9761759.
  20. 20.0 20.1 Sabag, Oron; Permuter, Haim H.; Kashyap, Navin (January 2016). "बिना किसी निरंतर इनपुट बाधा के बाइनरी इरेज़र चैनल की फीडबैक क्षमता". IEEE Trans. Inf. Theory. 62 (1): 8–22. doi:10.1109/TIT.2015.2495239. S2CID 476381.
  21. 21.0 21.1 Peled, Ori; Sabag, Oron; Permuter, Haim H. (July 2019). "$(0,k)$ -RLL इनपुट-विवश BEC के लिए फीडबैक क्षमता और कोडिंग". IEEE Trans. Inf. Theory. 65 (7): 4097–4114. arXiv:1712.02690. doi:10.1109/TIT.2019.2903252. S2CID 86582654.
  22. 22.0 22.1 Aharoni, Ziv; Sabag, Oron; Permuter, Haim Henri (18 August 2020). "बड़े वर्णमाला के साथ आइसिंग चैनल की फीडबैक क्षमता के लिए सुदृढीकरण सीखने का मूल्यांकन और समाधान". arXiv:2008.07983 [cs.IT].
  23. Sabag, Oron; Permuter, Haim Henry; Pfister, Henry (March 2017). "यूनिफ़िलर परिमित-राज्य चैनलों की फीडबैक क्षमता पर एक एकल-अक्षर ऊपरी सीमा". IEEE Trans. Inf. Theory. 63 (3): 1392–1409. arXiv:1604.01878. doi:10.1109/TIT.2016.2636851. S2CID 3259603.
  24. Sabag, Oron; Huleihel, Bashar; Permuter, Haim Henry (2020). "ग्राफ-आधारित एनकोडर और फीडबैक के साथ परिमित-राज्य चैनलों के लिए उनका प्रदर्शन". IEEE Trans. Commun. 68 (4): 2106–2117. arXiv:1907.08063. doi:10.1109/TCOMM.2020.2965454. S2CID 197544824.
  25. Marko, Hans (1 September 1966). "Die Theorie der bidirektionalen Kommunikation und ihre Anwendung auf die Nachrichtenübermittlung zwischen Menschen (Subjektive Information)". Kybernetik (in Deutsch). 3 (3): 128–136. doi:10.1007/BF00288922. ISSN 1432-0770. PMID 5920460. S2CID 33275199.
  26. Marko, H. (December 1973). "द्विदिश संचार सिद्धांत--सूचना सिद्धांत का एक सामान्यीकरण". IEEE Transactions on Communications. 21 (12): 1345–1351. doi:10.1109/TCOM.1973.1091610. S2CID 51664185.