मनमाने ढंग से भिन्न चैनल (एवीसी) संचार चैनल मॉडल है जिसका उपयोग कोडिंग सिद्धांत में किया जाता है, और इसे सबसे पहले ब्लैकवेल, ब्रिमन और थॉमसियन द्वारा पेश किया गया था। इस विशेष संचार चैनल में अज्ञात पैरामीटर हैं जो समय के साथ बदल सकते हैं और कोडवर्ड के प्रसारण के दौरान इन परिवर्तनों का समान पैटर्न नहीं हो सकता है। इस चैनल मॉडल के उपयोग को स्टोकेस्टिक मैट्रिक्स का उपयोग करके वर्णित किया जा सकता है , कहाँ इनपुट वर्णमाला है, आउटपुट वर्णमाला है, और राज्यों के दिए गए सेट पर संभाव्यता है , वह संचरित इनपुट प्राप्त आउटपुट की ओर ले जाता है . राज्य सेट में प्रत्येक समय इकाई में मनमाने ढंग से परिवर्तन हो सकता है . इस चैनल मॉडल को क्लाउड शैनन|शैनन के बाइनरी सममित चैनल (बीएससी) के विकल्प के रूप में विकसित किया गया था, जहां चैनल मॉडल की संपूर्ण प्रकृति ज्ञात है, जो वास्तविक संचार चैनल स्थितियों के लिए अधिक यथार्थवादी है।
क्षमताएं और संबंधित प्रमाण
नियतात्मक एवीसी की क्षमता
AVC की चैनल क्षमता कुछ मापदंडों के आधार पर भिन्न हो सकती है।
प्राप्य सूचना सिद्धांत है#निर्धारक एवीसी चैनल कोडिंग के लिए दर यदि यह इससे बड़ा है , और यदि प्रत्येक सकारात्मक के लिए और , और बहुत बड़ा , लंबाई- ब्लॉक कोड मौजूद हैं जो निम्नलिखित समीकरणों को संतुष्ट करते हैं: और , कहाँ में उच्चतम मूल्य है और कहाँ किसी राज्य अनुक्रम के लिए त्रुटि की औसत संभावना है . सबसे बड़ा सूचना सिद्धांत#दर AVC की चैनल क्षमता को दर्शाता है, जिसे द्वारा दर्शाया गया है .
जैसा कि आप देख सकते हैं, केवल तभी उपयोगी स्थितियाँ होती हैं जब AVC की चैनल क्षमता इससे अधिक होती है , क्योंकि तब चैनल मॉडल गारंटीकृत मात्रा में डेटा संचारित कर सकता है त्रुटियों के बिना. तो हम प्रमेय से शुरुआत करते हैं जो दिखाता है कि कब AVC में सकारात्मक है और बाद में चर्चा किए गए प्रमेयों की सीमा कम हो जाएगी विभिन्न परिस्थितियों के लिए.
प्रमेय 1 शुरू करने से पहले, कुछ परिभाषाओं पर ध्यान देने की आवश्यकता है:
- और AVC सममित है यदि हर के लिए , कहाँ , , और चैनल फ़ंक्शन है .
- , , और सेट में सभी यादृच्छिक चर हैं , , और क्रमश।
- यादृच्छिक चर की प्रायिकता के बराबर है के बराबर है .
- यादृच्छिक चर की प्रायिकता के बराबर है के बराबर है .
- का संयुक्त प्रायिकता द्रव्यमान फलन (पीएमएफ) है , , और . औपचारिक रूप से परिभाषित किया गया है .
- की सूचना एन्ट्रापी है .
- औसत संभावना के बराबर है कि सभी मूल्यों के आधार पर निश्चित मूल्य होगा संभवतः के बराबर हो सकता है.
- की पारस्परिक जानकारी है और , और के बराबर है .
- , जहां न्यूनतम सभी यादृच्छिक चर से अधिक है ऐसा है कि , , और के रूप में वितरित किया जाता है .
प्रमेय 1: यदि और केवल यदि AVC सममित नहीं है। अगर , तब .
समरूपता के लिए पहले भाग का प्रमाण: यदि हम इसे सिद्ध कर सकें जब AVC सममित नहीं है तो सकारात्मक है, और फिर इसे सिद्ध करें , हम प्रमेय 1 को सिद्ध करने में सक्षम होंगे। मान लीजिए के बराबर थे . की परिभाषा से , यह बनेगा और कुछ के लिए स्वतंत्रता (संभावना सिद्धांत) यादृच्छिक चर , क्योंकि इसका मतलब यह होगा कि किसी भी यादृच्छिक चर की सूचना एन्ट्रापी दूसरे यादृच्छिक चर के मान पर निर्भर नहीं होगी। समीकरण का उपयोग करके , (और याद रखना ,) हम प्राप्त कर सकते हैं,
- तब से और स्वतंत्रता (संभावना सिद्धांत) यादृच्छिक चर हैं, कुछ के लिए
- क्योंकि केवल पर निर्भर करता है अब
- क्योंकि
तो अब हमारे पास संभाव्यता वितरण है वह है स्वतंत्रता (संभावना सिद्धांत) की . तो अब सममित AVC की परिभाषा को इस प्रकार फिर से लिखा जा सकता है: तब से और दोनों फ़ंक्शन पर आधारित हैं , उन्हें फ़ंक्शंस के आधार पर प्रतिस्थापित किया गया है और केवल। जैसा कि आप देख सकते हैं, दोनों पक्ष अब बराबर हैं हमने पहले गणना की थी, इसलिए AVC वास्तव में सममित है के बराबर है . इसलिए, केवल तभी सकारात्मक हो सकता है जब AVC सममित न हो।
क्षमता के लिए दूसरे भाग का प्रमाण: पेपर देखें मनमाने ढंग से भिन्न चैनल की क्षमता पर दोबारा गौर किया गया: सकारात्मकता, बाधाएं, पूर्ण प्रमाण के लिए नीचे संदर्भित।
इनपुट और राज्य बाधाओं के साथ एवीसी की क्षमता
अगला प्रमेय इनपुट और/या राज्य बाधाओं के साथ एवीसी के लिए चैनल क्षमता से निपटेगा। ये बाधाएं AVC पर ट्रांसमिशन और त्रुटि की संभावनाओं की बहुत बड़ी श्रृंखला को कम करने में मदद करती हैं, जिससे यह देखना थोड़ा आसान हो जाता है कि AVC कैसे व्यवहार करता है।
इससे पहले कि हम प्रमेय 2 पर आगे बढ़ें, हमें कुछ परिभाषाएँ और लेम्मा (गणित) परिभाषित करने की आवश्यकता है:
ऐसे AVC के लिए, मौजूद है:
- - इनपुट बाधा समीकरण के आधार पर , कहाँ और .
- - राज्य बाधा , समीकरण के आधार पर , कहाँ और .
- -
- - से बहुत मिलता जुलता है पहले उल्लेखित समीकरण, , लेकिन अब कोई भी राज्य या समीकरण में का पालन करना होगा राज्य प्रतिबंध.
मान लीजिए दिया गया गैर-नकारात्मक-मूल्यवान फ़ंक्शन है और दिया गया गैर-नकारात्मक-मूल्यवान फ़ंक्शन है और यह कि दोनों के लिए न्यूनतम मान है . इस विषय पर मैंने जो साहित्य पढ़ा है, उसमें दोनों की सटीक परिभाषाएँ दी गई हैं और ( चर के लिए ,) का कभी भी औपचारिक रूप से वर्णन नहीं किया गया है। इनपुट बाधा की उपयोगिता और राज्य की बाधा इन समीकरणों पर आधारित होगा.
इनपुट और/या राज्य बाधाओं वाले एवीसी के लिए, सूचना सिद्धांत#दर अब प्रारूप के कोडवर्ड तक ही सीमित है जो संतुष्ट करता है , और अब राज्य संतुष्ट करने वाले सभी राज्यों तक सीमित है . सबसे बड़ा सूचना सिद्धांत#रेट अभी भी AVC की चैनल क्षमता माना जाता है, और अब इसे इस रूप में दर्शाया जाता है .
लेम्मा 1: कोई भी चैनल कोडिंग कहां से बड़ा है अच्छा चैनल कोडिंग नहीं माना जा सकता, क्योंकि इस प्रकार की चैनल कोडिंग में त्रुटि की अधिकतम औसत संभावना उससे अधिक या उसके बराबर होती है , कहाँ का अधिकतम मान है . यह अच्छी अधिकतम औसत त्रुटि संभावना नहीं है क्योंकि यह काफी बड़ी है, इसके करीब है , और समीकरण का दूसरा भाग बहुत छोटा होगा मान चुकता है, और से बड़ा होना तय है . इसलिए, त्रुटि के बिना कोडवर्ड प्राप्त करना बहुत ही असंभव होगा। यही कारण है कि स्थिति प्रमेय 2 में मौजूद है।
प्रमेय 2: सकारात्मक दिया गया है और मनमाने ढंग से छोटा , , , किसी भी ब्लॉक लंबाई के लिए और किसी भी प्रकार के लिए शर्तों के साथ और , और कहाँ , कोडवर्ड के साथ चैनल कोडिंग मौजूद है , प्रत्येक प्रकार का , जो निम्नलिखित समीकरणों को संतुष्ट करता है: , , और जहां सकारात्मक और पर ही निर्भर हैं , , , और दिया गया AVC।
प्रमेय 2 का प्रमाण: पेपर देखें मनमाने ढंग से भिन्न चैनल की क्षमता पर दोबारा गौर किया गया: सकारात्मकता, बाधाएं, पूर्ण प्रमाण के लिए नीचे संदर्भित।
यादृच्छिक AVC की क्षमता
अगला प्रमेय सूचना एन्ट्रॉपी चैनल कोडिंग वाले एवीसी के लिए होगा। ऐसे एवीसी के लिए चैनल कोडिंग लंबाई-एन ब्लॉक कोड के परिवार के मूल्यों के साथ यादृच्छिक चर है, और इन चैनल कोडिंग को कोडवर्ड के वास्तविक मूल्य पर निर्भर/भरोसा करने की अनुमति नहीं है। इन चैनल कोडिंग में इसकी यादृच्छिक प्रकृति के कारण किसी भी चैनल मॉडल के लिए समान अधिकतम और औसत त्रुटि संभावना मूल्य होता है। इस प्रकार की चैनल कोडिंग AVC के कुछ गुणों को अधिक स्पष्ट बनाने में भी मदद करती है।
इससे पहले कि हम प्रमेय 3 पर आगे बढ़ें, हमें पहले कुछ महत्वपूर्ण शब्दों को परिभाषित करना होगा:
के समान ही है पहले उल्लेखित समीकरण, , लेकिन अब /प्रायिकता द्रव्यमान फ़ंक्शन समीकरण में जोड़ा जाता है, जिससे न्यूनतम बनता है का नया रूप आधारित है , कहाँ के स्थान पर .
प्रमेय 3: एवीसी की सूचना एन्ट्रापी चैनल कोडिंग के लिए चैनल क्षमता है .
प्रमेय 3 का प्रमाण: पूर्ण प्रमाण के लिए नीचे संदर्भित रैंडम कोडिंग के तहत कुछ चैनल कक्षाओं की क्षमता वाला पेपर देखें।
यह भी देखें
संदर्भ
- Ahlswede, Rudolf and Blinovsky, Vladimir, "Classical Capacity of Classical-Quantum Arbitrarily Varying Channels," https://ieeexplore.ieee.org/document/4069128
- Blackwell, David, Breiman, Leo, and Thomasian, A. J., "The Capacities of Certain Channel Classes Under Random Coding," https://www.jstor.org/stable/2237566
- Csiszar, I. and Narayan, P., "Arbitrarily varying channels with constrained inputs and states," http://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=2598&isnumber=154
- Csiszar, I. and Narayan, P., "Capacity and Decoding Rules for Classes of Arbitrarily Varying Channels," http://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=32153&isnumber=139
- Csiszar, I. and Narayan, P., "The capacity of the arbitrarily varying channel revisited: positivity, constraints," http://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=2627&isnumber=155
- Lapidoth, A. and Narayan, P., "Reliable communication under channel uncertainty," http://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=720535&isnumber=15554