दिष्ट सूचना: Difference between revisions
(text) |
|||
Line 47: | Line 47: | ||
===अनुमान=== | ===अनुमान=== | ||
नमूनों से दिष्ट सूचना का अनुमान लगाना एक कठिन समस्या है क्योंकि दिष्ट सूचना अभिव्यक्ति नमूनों पर नहीं बल्कि संयुक्त वितरण <math>\{P(x_i,y_i|x^{i-1},y^{i-1})_{i=1}^n\}</math> पर निर्भर करती | नमूनों से दिष्ट सूचना का अनुमान लगाना एक कठिन समस्या है क्योंकि दिष्ट सूचना अभिव्यक्ति नमूनों पर नहीं बल्कि संयुक्त वितरण <math>\{P(x_i,y_i|x^{i-1},y^{i-1})_{i=1}^n\}</math> पर निर्भर करती है जो अज्ञात हो सकता है। कॉन्टेक्स्ट ट्री वेइटिंग ([[संदर्भ वृक्ष भार|संदर्भ वृक्ष भार)]]<ref>{{cite journal |last1=Jiao |first1=Jiantao |last2=Permuter |first2=Haim H. |last3=Zhao |first3=Lei |last4=Kim |first4=Young-Han |last5=Weissman |first5=Tsachy |title=निर्देशित सूचना का सार्वभौमिक अनुमान|journal=IEEE Trans. Inf. Theory |date=October 2013 |volume=59 |issue=10 |pages=6220–6242 |doi=10.1109/TIT.2013.2267934 |arxiv=1201.2334 |s2cid=10855063 }}</ref> और अनुभवजन्य पैरामीट्रिक वितरण<ref>{{cite journal |last1=Quinn |first1=Christopher J. |last2=Kiyavash |first2=Negar |last3=Coleman |first3=Todd P. |title=निर्देशित सूचना ग्राफ़|journal=IEEE Trans. Inf. Theory |date=December 2015 |volume=61 |issue=12 |pages=6887–6909 |doi=10.1109/TIT.2015.2478440|arxiv=1204.2003 |s2cid=3121664}}</ref> और [[दीर्घकालिक अल्पकालिक स्मृति]] का उपयोग करने पर आधारित कई एल्गोरिदम हैं।<ref name="2003.04179"/> | ||
===अनुकूलन=== | ===अनुकूलन=== | ||
दिष्ट सूचना को अधिकतम करना सूचना सिद्धांत में एक मूलभूत समस्या है। उदाहरण के लिए, चैनल वितरण <math>\{P(y_i|x^{i},y^{i-1}\}_{i=1}^n)</math> को देखते हुए, उद्देश्य चैनल इनपुट वितरण <math> I(X^n\to Y^n)</math> पर <math>\{P(x_i|x^{i-1},y^{i-1}\}_{i=1}^n)</math> को अनुकूलित करना हो सकता है। | दिष्ट सूचना को अधिकतम करना सूचना सिद्धांत में एक मूलभूत समस्या है। उदाहरण के लिए, चैनल वितरण <math>\{P(y_i|x^{i},y^{i-1}\}_{i=1}^n)</math> को देखते हुए, उद्देश्य चैनल इनपुट वितरण <math> I(X^n\to Y^n)</math> पर <math>\{P(x_i|x^{i-1},y^{i-1}\}_{i=1}^n)</math> को अनुकूलित करना हो सकता है। |
Revision as of 12:20, 7 December 2023
दिष्ट सूचना एक सूचना सिद्धांत आकलन है जो यादृच्छिक स्ट्रिंग से यादृच्छिक स्ट्रिंग तक सूचना प्रवाह की मात्रा निर्धारित करता है। दिष्ट सूचना शब्द जेम्स मैसी द्वारा गढ़ा गया था और इसे इस प्रकार परिभाषित किया गया है[1]
जहाँ सशर्त पारस्परिक सूचना है .
दिष्ट सूचना में उन समस्याओं के लिए अनुप्रयोग होते हैं जहां कारण कार्य महत्वपूर्ण भूमिका निभाता है जैसे फीडबैक वाले चैनल क्षमता,[1][2][3][4] असतत मेमोरी रहित नेटवर्क की क्षमता,[5] इन-ब्लॉक मेमोरी वाले नेटवर्क की क्षमता,[6] कारण पक्ष की सूचना के साथ गैम्बल,[7] कारण पक्ष की सूचना के साथ संपीड़न,[8] वास्तविक समय नियंत्रण संचार समायोजन,[9][10] और सांख्यिकीय भौतिकी।[11]
कारण अनुबंधन
दिष्ट सूचना का सार कारण अनुबंधन है। पर यथोचित रूप से अनुबंधन की प्रायिकता को इस प्रकार परिभाषित किया गया है[5]:
.
यह पारंपरिक अनुबंधन
के लिए श्रृंखला नियम, सभी प्रतीकों के अतिरिक्त "अतीत" और "वर्तमान" प्रतीकों पर एक अनुबंधन को छोड़कर के समान है। केवल "अतीत" प्रतीकों को सम्मिलित करने के लिए, स्थिर प्रतीक को जोड़कर विलंब का परिचय दिया जा सकता है:
- .
इस अभिव्यक्ति के लिए लिखकर संकेतन का दुरुपयोग करना आम बात है, चूंकि औपचारिक रूप से सभी स्ट्रिंग्स में प्रतीकों की संख्या समान होनी चाहिए।
कोई भी कई स्ट्रिंग्स पर अनुबंधन लगा सकता है: .
कारण अनुबंधन एन्ट्रापी
कारणतः अनुबंधन एन्ट्रापी को इस प्रकार परिभाषित किया गया है:[2]:
इसी तरह, कोई भी कई स्ट्रिंग्स पर कारणात्मक अनुबंधन कर सकता है और लिख सकता है
गुण
कारण अनुबंधन के लिए अपघटन नियम[1]है
- .
यह नियम दर्शाता है कि कोई भी उत्पाद संयुक्त वितरण देता है।
कारण अनुबंधन प्रायिकता प्रायिकता सदिश है, अर्थात,
- .
दिष्ट सूचना को कारण अनुबंधन के संदर्भ में लिखा जा सकता है:[2]:.
संबंध तीन स्ट्रिंग्स तक सामान्यीकृत होता है: को तक प्रवाहित वाली यथोचित रूप से अनुबंधन है
- .
सूचना का संरक्षण नियम
जेम्स मैसी और उनके बेटे पीटर मैसी द्वारा स्थापित यह नियम,[12] दिष्ट सूचना और पारस्परिक सूचना से संबंधित होकर अंतर्ज्ञान देता है। नियम कहता है कि किसी के लिए भी लिए, निम्नलिखित समानता रखती है:
इस नियम के दो वैकल्पिक रूप हैं[2][13]
जहाँ .
अनुमान और अनुकूलन
दिष्ट सूचना का अनुमान लगाना और उसका अनुकूलन करना चुनौतीपूर्ण है क्योंकि इसमें शब्द हैं जहाँ बड़े हो सकते हैं। कई स्थितियों में, कोई व्यक्ति सीमित औसत को अनुकूलित करने में रुचि रखता है, अर्थात, जब अनंत तक बढ़ता है जिसे बहु-अक्षर अभिव्यक्ति कहा जाता है।
अनुमान
नमूनों से दिष्ट सूचना का अनुमान लगाना एक कठिन समस्या है क्योंकि दिष्ट सूचना अभिव्यक्ति नमूनों पर नहीं बल्कि संयुक्त वितरण पर निर्भर करती है जो अज्ञात हो सकता है। कॉन्टेक्स्ट ट्री वेइटिंग (संदर्भ वृक्ष भार)[14] और अनुभवजन्य पैरामीट्रिक वितरण[15] और दीर्घकालिक अल्पकालिक स्मृति का उपयोग करने पर आधारित कई एल्गोरिदम हैं।[16]
अनुकूलन
दिष्ट सूचना को अधिकतम करना सूचना सिद्धांत में एक मूलभूत समस्या है। उदाहरण के लिए, चैनल वितरण को देखते हुए, उद्देश्य चैनल इनपुट वितरण पर को अनुकूलित करना हो सकता है।
ब्लाहुत-अरिमोटो,[17] मार्कोव निर्णय प्रक्रिया,[18][19][20][21] आवर्तक तंत्रिका नेटवर्क,[16] सुदृढीकरण [22] और ग्राफ़िकल विधियाँ (क्यू-ग्राफ़)[23][24]सीखने पर आधारित निर्देशित जानकारी को अनुकूलित करने के लिए एल्गोरिदम हैं। ब्लाहुत-अरिमोटो एल्गोरिदम के लिए,[17]मुख्य विचार दिष्ट सूचना अभिव्यक्ति की अंतिम पारस्परिक सूचना से प्रारंभ करना और पीछे की ओर जाना है। मार्कोव निर्णय प्रक्रिया के लिए,[18][19][20][21]मुख्य विचार अनुकूलन को अनंत क्षितिज औसत इनाम मार्कोव निर्णय प्रक्रिया में बदलना है। आवर्ती तंत्रिका नेटवर्क के लिए,[16]मुख्य विचार आवर्तक तंत्रिका नेटवर्क का उपयोग करके इनपुट वितरण को मॉडल करना और ग्रेडिएंट डिसेंट का उपयोग करके मापदंडों को अनुकूलित करना है। सुदृढीकरण सीखने के लिए,[22]मुख्य विचार सुदृढीकरण सीखने के उपकरणों का उपयोग करके क्षमता के मार्कोव निर्णय प्रक्रिया सूत्रीकरण को हल करना है, जो किसी को बड़े या यहां तक कि निरंतर वर्णमाला से निपटने की सुविधा देता है।
मार्को का द्विदिश संचार का सिद्धांत
मैसी की दिष्ट सूचना द्विदिश संचार के सिद्धांत को विकसित करने पर मार्को के प्रारंभिक काम (1966) से प्रेरित थी।[25][26] दिष्ट परिवर्तन सूचना की मार्को की परिभाषा मैसी की परिभाषा से थोड़ी भिन्न है, समय पर, पिछले प्रतीकों पर अनुबंधन केवल और एक सीमा लेता है:
मार्को ने कई अन्य मात्राएँ परिभाषित कीं, जिनमें सम्मिलित हैं:
- कुल सूचना: और
- मुक्त सूचना: और
- संयोग:
कुल सूचना को सामान्यतः एन्ट्रापी दर कहा जाता है। मार्को ने उन समस्याओं के लिए निम्नलिखित संबंध दिखाए जिनमें उनकी रुचि थी:
- और
उन्होंने मात्राओं को भी परिभाषित किया जिन्हें उन्होंने अवशिष्ट एन्ट्रॉपीज़ कहा:
और संरक्षण नियम और कई सीमाएँ विकसित किया।
एन्ट्रापी अन्तरित से संबंध
दिष्ट सूचना अन्तरित एन्ट्रापी से संबंधित है, जो मार्को की दिष्ट परिवर्तन सूचना का एक छोटा संस्करण है।
समय पर अन्तरित एन्ट्रापी और मेमोरी के साथ है।
जहां किसी में वर्तमान प्रतीक सम्मिलित नहीं है या अतीत के प्रतीक समय से पहले है।
अन्तरित एन्ट्रापी सामान्यतः स्थिरता मानती है, अर्थात, समय पर निर्भर नहीं करता है।
संदर्भ
- ↑ 1.0 1.1 1.2 Massey, James (1990). "कारणता, प्रतिक्रिया और निर्देशित जानकारी". Proceedings 1990 International Symposium on Information Theory and its Applications, Waikiki, Hawaii, Nov. 27-30, 1990.
- ↑ 2.0 2.1 2.2 2.3 Kramer, Gerhard (1998). फीडबैक के साथ चैनलों के लिए निर्देशित जानकारी (Doctoral) (in English). ETH Zurich. doi:10.3929/ethz-a-001988524. hdl:20.500.11850/143796.
- ↑ Tatikonda, Sekhar Chandra (2000). संचार बाधाओं के तहत नियंत्रण (Doctoral). Massachusetts Institute of Technology. hdl:1721.1/16755.
- ↑ Permuter, Haim Henry; Weissman, Tsachy; Goldsmith, Andrea J. (February 2009). "समय-अपरिवर्तनीय नियतात्मक प्रतिक्रिया के साथ परिमित राज्य चैनल". IEEE Transactions on Information Theory. 55 (2): 644–662. arXiv:cs/0608070. doi:10.1109/TIT.2008.2009849. S2CID 13178.
- ↑ 5.0 5.1 Kramer, G. (January 2003). "असतत स्मृतिहीन नेटवर्क के लिए क्षमता परिणाम". IEEE Transactions on Information Theory. 49 (1): 4–21. doi:10.1109/TIT.2002.806135.
- ↑ Kramer, Gerhard (April 2014). "इन-ब्लॉक मेमोरी के साथ सूचना नेटवर्क". IEEE Transactions on Information Theory. 60 (4): 2105–2120. arXiv:1206.5389. doi:10.1109/TIT.2014.2303120. S2CID 16382644.
- ↑ Permuter, Haim H.; Kim, Young-Han; Weissman, Tsachy (June 2011). "पोर्टफोलियो सिद्धांत, डेटा संपीड़न और परिकल्पना परीक्षण में निर्देशित सूचना की व्याख्या". IEEE Transactions on Information Theory. 57 (6): 3248–3259. arXiv:0912.4872. doi:10.1109/TIT.2011.2136270. S2CID 11722596.
- ↑ Simeone, Osvaldo; Permuter, Haim Henri (June 2013). "स्रोत कोडिंग जब साइड सूचना में देरी हो सकती है". IEEE Transactions on Information Theory. 59 (6): 3607–3618. arXiv:1109.1293. doi:10.1109/TIT.2013.2248192. S2CID 3211485.
- ↑ Charalambous, Charalambos D.; Stavrou, Photios A. (August 2016). "Directed Information on Abstract Spaces: Properties and Variational Equalities". IEEE Transactions on Information Theory. 62 (11): 6019–6052. arXiv:1302.3971. doi:10.1109/TIT.2016.2604846. S2CID 8107565.
- ↑ Tanaka, Takashi; Esfahani, Peyman Mohajerin; Mitter, Sanjoy K. (January 2018). "LQG Control With Minimum Directed Information: Semidefinite Programming Approach". IEEE Transactions on Automatic Control. 63 (1): 37–52. arXiv:1510.04214. doi:10.1109/TAC.2017.2709618. S2CID 1401958.
- ↑ Vinkler, Dror A; Permuter, Haim H; Merhav, Neri (20 April 2016). "जुए और माप-आधारित कार्य निष्कर्षण के बीच समानता". Journal of Statistical Mechanics: Theory and Experiment. 2016 (4): 043403. arXiv:1404.6788. Bibcode:2016JSMTE..04.3403V. doi:10.1088/1742-5468/2016/04/043403. S2CID 124719237.
- ↑ Massey, J.L.; Massey, P.C. (September 2005). "Conservation of mutual and directed information". Proceedings. International Symposium on Information Theory, 2005. ISIT 2005. pp. 157–158. doi:10.1109/ISIT.2005.1523313. ISBN 0-7803-9151-9. S2CID 38053218.
- ↑ Amblard, Pierre-Olivier; Michel, Olivier (28 December 2012). "The Relation between Granger Causality and Directed Information Theory: A Review". Entropy. 15 (1): 113–143. arXiv:1211.3169. Bibcode:2012Entrp..15..113A. doi:10.3390/e15010113.
- ↑ Jiao, Jiantao; Permuter, Haim H.; Zhao, Lei; Kim, Young-Han; Weissman, Tsachy (October 2013). "निर्देशित सूचना का सार्वभौमिक अनुमान". IEEE Trans. Inf. Theory. 59 (10): 6220–6242. arXiv:1201.2334. doi:10.1109/TIT.2013.2267934. S2CID 10855063.
- ↑ Quinn, Christopher J.; Kiyavash, Negar; Coleman, Todd P. (December 2015). "निर्देशित सूचना ग्राफ़". IEEE Trans. Inf. Theory. 61 (12): 6887–6909. arXiv:1204.2003. doi:10.1109/TIT.2015.2478440. S2CID 3121664.
- ↑ 16.0 16.1 16.2 Aharoni, Ziv; Tsur, Dor; Goldfeld, Ziv; Permuter, Haim Henry (June 2020). "Capacity of Continuous Channels with Memory via Directed Information Neural Estimator". 2020 IEEE International Symposium on Information Theory (ISIT). pp. 2014–2019. arXiv:2003.04179. doi:10.1109/ISIT44484.2020.9174109. ISBN 978-1-7281-6432-8. S2CID 212634151.
{{cite book}}
:|journal=
ignored (help) - ↑ 17.0 17.1 Naiss, Iddo; Permuter, Haim H. (January 2013). "Extension of the Blahut–Arimoto Algorithm for Maximizing Directed Information". IEEE Trans. Inf. Theory. 59 (1): 204–222. arXiv:1012.5071. doi:10.1109/TIT.2012.2214202. S2CID 3115749.
- ↑ 18.0 18.1 Permuter, Haim; Cuff, Paul; Van Roy, Benjamin; Weissman, Tsachy (July 2008). "फीडबैक के साथ ट्रैपडोर चैनल की क्षमता". IEEE Trans. Inf. Theory. 54 (7): 3150–3165. arXiv:cs/0610047. doi:10.1109/TIT.2008.924681. S2CID 1265.
- ↑ 19.0 19.1 Elishco, Ohad; Permuter, Haim (September 2014). "फीडबैक के साथ आइसिंग चैनल के लिए क्षमता और कोडिंग". IEEE Trans. Inf. Theory. 60 (9): 5138–5149. arXiv:1205.4674. doi:10.1109/TIT.2014.2331951. S2CID 9761759.
- ↑ 20.0 20.1 Sabag, Oron; Permuter, Haim H.; Kashyap, Navin (January 2016). "बिना किसी निरंतर इनपुट बाधा के बाइनरी इरेज़र चैनल की फीडबैक क्षमता". IEEE Trans. Inf. Theory. 62 (1): 8–22. doi:10.1109/TIT.2015.2495239. S2CID 476381.
- ↑ 21.0 21.1 Peled, Ori; Sabag, Oron; Permuter, Haim H. (July 2019). "$(0,k)$ -RLL इनपुट-विवश BEC के लिए फीडबैक क्षमता और कोडिंग". IEEE Trans. Inf. Theory. 65 (7): 4097–4114. arXiv:1712.02690. doi:10.1109/TIT.2019.2903252. S2CID 86582654.
- ↑ 22.0 22.1 Aharoni, Ziv; Sabag, Oron; Permuter, Haim Henri (18 August 2020). "बड़े वर्णमाला के साथ आइसिंग चैनल की फीडबैक क्षमता के लिए सुदृढीकरण सीखने का मूल्यांकन और समाधान". arXiv:2008.07983 [cs.IT].
- ↑ Sabag, Oron; Permuter, Haim Henry; Pfister, Henry (March 2017). "यूनिफ़िलर परिमित-राज्य चैनलों की फीडबैक क्षमता पर एक एकल-अक्षर ऊपरी सीमा". IEEE Trans. Inf. Theory. 63 (3): 1392–1409. arXiv:1604.01878. doi:10.1109/TIT.2016.2636851. S2CID 3259603.
- ↑ Sabag, Oron; Huleihel, Bashar; Permuter, Haim Henry (2020). "ग्राफ-आधारित एनकोडर और फीडबैक के साथ परिमित-राज्य चैनलों के लिए उनका प्रदर्शन". IEEE Trans. Commun. 68 (4): 2106–2117. arXiv:1907.08063. doi:10.1109/TCOMM.2020.2965454. S2CID 197544824.
- ↑ Marko, Hans (1 September 1966). "Die Theorie der bidirektionalen Kommunikation und ihre Anwendung auf die Nachrichtenübermittlung zwischen Menschen (Subjektive Information)". Kybernetik (in Deutsch). 3 (3): 128–136. doi:10.1007/BF00288922. ISSN 1432-0770. PMID 5920460. S2CID 33275199.
- ↑ Marko, H. (December 1973). "द्विदिश संचार सिद्धांत--सूचना सिद्धांत का एक सामान्यीकरण". IEEE Transactions on Communications. 21 (12): 1345–1351. doi:10.1109/TCOM.1973.1091610. S2CID 51664185.