अर्बिट्ररीली वरयींग चैनल: Difference between revisions
(Created page with "{{More citations needed|date=January 2012}} एक मनमाने ढंग से भिन्न चैनल (एवीसी) एक संचार चैनल म...") |
No edit summary |
||
Line 1: | Line 1: | ||
मनमाने ढंग से भिन्न चैनल (एवीसी) संचार [[चैनल मॉडल]] है जिसका उपयोग [[कोडिंग सिद्धांत]] में किया जाता है, और इसे सबसे पहले ब्लैकवेल, ब्रिमन और थॉमसियन द्वारा पेश किया गया था। इस विशेष संचार चैनल में अज्ञात पैरामीटर हैं जो समय के साथ बदल सकते हैं और [[कोडवर्ड]] के प्रसारण के दौरान इन परिवर्तनों का समान पैटर्न नहीं हो सकता है। <math>\textstyle n</math> इस चैनल मॉडल के उपयोग को [[स्टोकेस्टिक मैट्रिक्स]] का उपयोग करके वर्णित किया जा सकता है <math>\textstyle W^n: X^n \times</math> <math>\textstyle S^n \rightarrow Y^n</math>, कहाँ <math>\textstyle X</math> इनपुट वर्णमाला है, <math>\textstyle Y</math> आउटपुट वर्णमाला है, और <math>\textstyle W^n (y | x, s)</math> राज्यों के दिए गए सेट पर संभाव्यता है <math>\textstyle S</math>, वह संचरित इनपुट <math>\textstyle x = (x_1, \ldots, x_n)</math> प्राप्त आउटपुट की ओर ले जाता है <math>\textstyle y = (y_1, \ldots, y_n)</math>. राज्य <math>\textstyle s_i</math> सेट में <math>\textstyle S</math> प्रत्येक समय इकाई में मनमाने ढंग से परिवर्तन हो सकता है <math>\textstyle i</math>. इस चैनल मॉडल को क्लाउड शैनन|शैनन के [[ बाइनरी सममित चैनल |बाइनरी सममित चैनल]] (बीएससी) के विकल्प के रूप में विकसित किया गया था, जहां चैनल मॉडल की संपूर्ण प्रकृति ज्ञात है, जो वास्तविक संचार चैनल स्थितियों के लिए अधिक यथार्थवादी है। | |||
==क्षमताएं और संबंधित प्रमाण== | ==क्षमताएं और संबंधित प्रमाण== | ||
===नियतात्मक एवीसी की क्षमता=== | ===नियतात्मक एवीसी की क्षमता=== | ||
AVC की [[चैनल क्षमता]] कुछ मापदंडों के आधार पर भिन्न हो सकती है। | |||
<math>\textstyle R</math> | <math>\textstyle R</math> प्राप्य सूचना सिद्धांत है#निर्धारक एवीसी [[चैनल कोडिंग]] के लिए दर यदि यह इससे बड़ा है <math>\textstyle 0</math>, और यदि प्रत्येक सकारात्मक के लिए <math>\textstyle \varepsilon</math> और <math>\textstyle \delta</math>, और बहुत बड़ा <math>\textstyle n</math>, लंबाई-<math>\textstyle n</math> [[ब्लॉक कोड]] मौजूद हैं जो निम्नलिखित समीकरणों को संतुष्ट करते हैं: <math>\textstyle \frac{1}{n}\log N > R - \delta</math> और <math>\displaystyle \max_{s \in S^n} \bar{e}(s) \leq \varepsilon</math>, कहाँ <math>\textstyle N</math> में उच्चतम मूल्य है <math>\textstyle Y</math> और कहाँ <math>\textstyle \bar{e}(s)</math> किसी राज्य अनुक्रम के लिए त्रुटि की औसत संभावना है <math>\textstyle s</math>. सबसे बड़ा सूचना सिद्धांत#दर <math>\textstyle R</math> AVC की चैनल क्षमता को दर्शाता है, जिसे द्वारा दर्शाया गया है <math>\textstyle c</math>. | ||
जैसा कि आप देख सकते हैं, केवल तभी उपयोगी स्थितियाँ होती हैं जब AVC की चैनल क्षमता इससे अधिक होती है <math>\textstyle 0</math>, क्योंकि तब चैनल मॉडल | जैसा कि आप देख सकते हैं, केवल तभी उपयोगी स्थितियाँ होती हैं जब AVC की चैनल क्षमता इससे अधिक होती है <math>\textstyle 0</math>, क्योंकि तब चैनल मॉडल गारंटीकृत मात्रा में डेटा संचारित कर सकता है <math>\textstyle \leq c</math> त्रुटियों के बिना. तो हम [[प्रमेय]] से शुरुआत करते हैं जो दिखाता है कि कब <math>\textstyle c</math> AVC में सकारात्मक है और बाद में चर्चा किए गए प्रमेयों की सीमा कम हो जाएगी <math>\textstyle c</math> विभिन्न परिस्थितियों के लिए. | ||
प्रमेय 1 शुरू करने से पहले, कुछ परिभाषाओं पर ध्यान देने की आवश्यकता है: | प्रमेय 1 शुरू करने से पहले, कुछ परिभाषाओं पर ध्यान देने की आवश्यकता है: | ||
* और AVC सममित है यदि <math>\displaystyle \sum_{s \in S}W(y|x, s)U(s|x') = \sum_{s \in S}W(y|x', s)U(s|x)</math> | * और AVC सममित है यदि <math>\displaystyle \sum_{s \in S}W(y|x, s)U(s|x') = \sum_{s \in S}W(y|x', s)U(s|x)</math> हर के लिए <math>\textstyle (x, x', y,s)</math>, कहाँ <math>\textstyle x,x'\in X</math>, <math>\textstyle y \in Y</math>, और <math>\textstyle U(s|x)</math> चैनल फ़ंक्शन है <math>\textstyle U: X \rightarrow S</math>. | ||
* <math>\textstyle X_r</math>, <math>\textstyle S_r</math>, और <math>\textstyle Y_r</math> सेट में सभी यादृच्छिक चर हैं <math>\textstyle X</math>, <math>\textstyle S</math>, और <math>\textstyle Y</math> क्रमश। | * <math>\textstyle X_r</math>, <math>\textstyle S_r</math>, और <math>\textstyle Y_r</math> सेट में सभी यादृच्छिक चर हैं <math>\textstyle X</math>, <math>\textstyle S</math>, और <math>\textstyle Y</math> क्रमश। | ||
* <math>\textstyle P_{X_r}(x)</math> यादृच्छिक चर की प्रायिकता के बराबर है <math>\textstyle X_r</math> के बराबर है <math>\textstyle x</math>. | * <math>\textstyle P_{X_r}(x)</math> यादृच्छिक चर की प्रायिकता के बराबर है <math>\textstyle X_r</math> के बराबर है <math>\textstyle x</math>. | ||
* <math>\textstyle P_{S_r}(s)</math> यादृच्छिक चर की प्रायिकता के बराबर है <math>\textstyle S_r</math> के बराबर है <math>\textstyle s</math>. | * <math>\textstyle P_{S_r}(s)</math> यादृच्छिक चर की प्रायिकता के बराबर है <math>\textstyle S_r</math> के बराबर है <math>\textstyle s</math>. | ||
* <math>\textstyle P_{X_{r}S_{r}Y_{r}}</math> का संयुक्त प्रायिकता द्रव्यमान फलन (पीएमएफ) है <math>\textstyle P_{X_r}(x)</math>, <math>\textstyle P_{S_r}(s)</math>, और <math>\textstyle W(y|x,s)</math>. | * <math>\textstyle P_{X_{r}S_{r}Y_{r}}</math> का संयुक्त प्रायिकता द्रव्यमान फलन (पीएमएफ) है <math>\textstyle P_{X_r}(x)</math>, <math>\textstyle P_{S_r}(s)</math>, और <math>\textstyle W(y|x,s)</math>. <math>\textstyle P_{X_{r}S_{r}Y_{r}}</math> औपचारिक रूप से परिभाषित किया गया है <math>\textstyle P_{X_{r}S_{r}Y_{r}}(x,s,y) = P_{X_r}(x)P_{S_r}(s)W(y|x,s)</math>. | ||
* <math>\textstyle H(X_r)</math> की [[सूचना एन्ट्रापी]] है <math>\textstyle X_r</math>. | * <math>\textstyle H(X_r)</math> की [[सूचना एन्ट्रापी]] है <math>\textstyle X_r</math>. | ||
* <math>\textstyle H(X_r|Y_r)</math> औसत संभावना के बराबर है कि <math>\textstyle X_r</math> सभी मूल्यों के आधार पर | * <math>\textstyle H(X_r|Y_r)</math> औसत संभावना के बराबर है कि <math>\textstyle X_r</math> सभी मूल्यों के आधार पर निश्चित मूल्य होगा <math>\textstyle Y_r</math> संभवतः के बराबर हो सकता है. | ||
* <math>\textstyle I(X_r \land Y_r)</math> की पारस्परिक जानकारी है <math>\textstyle X_r</math> और <math>\textstyle Y_r</math>, और के बराबर है <math>\textstyle H(X_r) - H(X_r|Y_r)</math>. | * <math>\textstyle I(X_r \land Y_r)</math> की पारस्परिक जानकारी है <math>\textstyle X_r</math> और <math>\textstyle Y_r</math>, और के बराबर है <math>\textstyle H(X_r) - H(X_r|Y_r)</math>. | ||
* <math>\displaystyle I(P) = \min_{Y_r} I(X_r \land Y_r)</math>, जहां न्यूनतम सभी यादृच्छिक चर से अधिक है <math>\textstyle Y_r</math> ऐसा है कि <math>\textstyle X_r</math>, <math>\textstyle S_r</math>, और <math>\textstyle Y_r</math> के रूप में वितरित किया जाता है <math>\textstyle P_{X_{r}S_{r}Y_{r}}</math>. | * <math>\displaystyle I(P) = \min_{Y_r} I(X_r \land Y_r)</math>, जहां न्यूनतम सभी यादृच्छिक चर से अधिक है <math>\textstyle Y_r</math> ऐसा है कि <math>\textstyle X_r</math>, <math>\textstyle S_r</math>, और <math>\textstyle Y_r</math> के रूप में वितरित किया जाता है <math>\textstyle P_{X_{r}S_{r}Y_{r}}</math>. | ||
Line 32: | Line 31: | ||
:<math>\textstyle \equiv (</math>क्योंकि <math>\displaystyle \sum_{x\in X} P(x) = 1)</math> | :<math>\textstyle \equiv (</math>क्योंकि <math>\displaystyle \sum_{x\in X} P(x) = 1)</math> | ||
:<math>\displaystyle P_{Y_r}(y) = \sum_{s\in S} P_{S_r}(s)W'(y|s)</math> | :<math>\displaystyle P_{Y_r}(y) = \sum_{s\in S} P_{S_r}(s)W'(y|s)</math> | ||
तो अब हमारे पास संभाव्यता वितरण है <math>\textstyle Y_r</math> वह है स्वतंत्रता (संभावना सिद्धांत) की <math>\textstyle X_r</math>. तो अब | तो अब हमारे पास संभाव्यता वितरण है <math>\textstyle Y_r</math> वह है स्वतंत्रता (संभावना सिद्धांत) की <math>\textstyle X_r</math>. तो अब सममित AVC की परिभाषा को इस प्रकार फिर से लिखा जा सकता है: <math>\displaystyle \sum_{s \in S}W'(y|s)P_{S_r}(s) = \sum_{s \in S}W'(y|s)P_{S_r}(s)</math> तब से <math>\textstyle U(s|x)</math> और <math>\textstyle W(y|x, s)</math> दोनों फ़ंक्शन पर आधारित हैं <math>\textstyle x</math>, उन्हें फ़ंक्शंस के आधार पर प्रतिस्थापित किया गया है <math>\textstyle s</math> और <math>\textstyle y</math> केवल। जैसा कि आप देख सकते हैं, दोनों पक्ष अब बराबर हैं <math>\textstyle P_{Y_r}(y)</math> हमने पहले गणना की थी, इसलिए AVC वास्तव में सममित है <math>\textstyle I(P)</math> के बराबर है <math>\textstyle 0</math>. इसलिए, <math>\textstyle I(P)</math> केवल तभी सकारात्मक हो सकता है जब AVC सममित न हो। | ||
क्षमता के लिए दूसरे भाग का प्रमाण: पेपर देखें मनमाने ढंग से भिन्न चैनल की क्षमता पर दोबारा गौर किया गया: सकारात्मकता, बाधाएं, पूर्ण प्रमाण के लिए नीचे संदर्भित। | क्षमता के लिए दूसरे भाग का प्रमाण: पेपर देखें मनमाने ढंग से भिन्न चैनल की क्षमता पर दोबारा गौर किया गया: सकारात्मकता, बाधाएं, पूर्ण प्रमाण के लिए नीचे संदर्भित। | ||
Line 43: | Line 42: | ||
ऐसे AVC के लिए, मौजूद है:<br> | ऐसे AVC के लिए, मौजूद है:<br> | ||
:- | :- इनपुट बाधा <math>\textstyle \Gamma</math> समीकरण के आधार पर <math>\displaystyle g(x) = \frac{1}{n}\sum_{i=1}^n g(x_i)</math>, कहाँ <math>\textstyle x \in X</math> और <math>\textstyle x = (x_1,\dots,x_n)</math>. | ||
:- | :- राज्य बाधा <math>\textstyle \Lambda</math>, समीकरण के आधार पर <math>\displaystyle l(s) = \frac{1}{n}\sum_{i=1}^n l(s_i)</math>, कहाँ <math>\textstyle s \in X</math> और <math>\textstyle s = (s_1,\dots,s_n)</math>. | ||
:- <math>\displaystyle \Lambda_0(P) = \min \sum_{x \in X, s \in S}P(x)l(s)</math> | :- <math>\displaystyle \Lambda_0(P) = \min \sum_{x \in X, s \in S}P(x)l(s)</math> | ||
:- <math>\textstyle I(P, \Lambda)</math> से बहुत मिलता जुलता है <math>\textstyle I(P)</math> पहले उल्लेखित समीकरण, <math>\displaystyle I(P, \Lambda) = \min_{Y_r} I(X_r \land Y_r)</math>, लेकिन अब कोई भी राज्य <math>\textstyle s</math> या <math>\textstyle S_r</math> समीकरण में का पालन करना होगा <math>\textstyle l(s) \leq \Lambda</math> राज्य प्रतिबंध. | :- <math>\textstyle I(P, \Lambda)</math> से बहुत मिलता जुलता है <math>\textstyle I(P)</math> पहले उल्लेखित समीकरण, <math>\displaystyle I(P, \Lambda) = \min_{Y_r} I(X_r \land Y_r)</math>, लेकिन अब कोई भी राज्य <math>\textstyle s</math> या <math>\textstyle S_r</math> समीकरण में का पालन करना होगा <math>\textstyle l(s) \leq \Lambda</math> राज्य प्रतिबंध. | ||
मान लीजिए <math>\textstyle g(x)</math> | मान लीजिए <math>\textstyle g(x)</math> दिया गया गैर-नकारात्मक-मूल्यवान फ़ंक्शन है <math>\textstyle X</math> और <math>\textstyle l(s)</math> दिया गया गैर-नकारात्मक-मूल्यवान फ़ंक्शन है <math>\textstyle S</math> और यह कि दोनों के लिए न्यूनतम मान है <math>\textstyle 0</math>. इस विषय पर मैंने जो साहित्य पढ़ा है, उसमें दोनों की सटीक परिभाषाएँ दी गई हैं <math>\textstyle g(x)</math> और <math>\textstyle l(s)</math> ( चर के लिए <math>\textstyle x_i</math>,) का कभी भी औपचारिक रूप से वर्णन नहीं किया गया है। इनपुट बाधा की उपयोगिता <math>\textstyle \Gamma</math> और राज्य की बाधा <math>\textstyle \Lambda</math> इन समीकरणों पर आधारित होगा. | ||
इनपुट और/या राज्य बाधाओं वाले एवीसी के लिए, सूचना सिद्धांत#दर <math>\textstyle R</math> अब प्रारूप के कोडवर्ड तक ही सीमित है <math>\textstyle x_1,\dots,x_N</math> जो संतुष्ट करता है <math>\textstyle g(x_i) \leq \Gamma</math>, और अब राज्य <math>\textstyle s</math> संतुष्ट करने वाले सभी राज्यों तक सीमित है <math>\textstyle l(s) \leq \Lambda</math>. सबसे बड़ा सूचना सिद्धांत#रेट अभी भी AVC की चैनल क्षमता माना जाता है, और अब इसे इस रूप में दर्शाया जाता है <math>\textstyle c(\Gamma, \Lambda)</math>. | इनपुट और/या राज्य बाधाओं वाले एवीसी के लिए, सूचना सिद्धांत#दर <math>\textstyle R</math> अब प्रारूप के कोडवर्ड तक ही सीमित है <math>\textstyle x_1,\dots,x_N</math> जो संतुष्ट करता है <math>\textstyle g(x_i) \leq \Gamma</math>, और अब राज्य <math>\textstyle s</math> संतुष्ट करने वाले सभी राज्यों तक सीमित है <math>\textstyle l(s) \leq \Lambda</math>. सबसे बड़ा सूचना सिद्धांत#रेट अभी भी AVC की चैनल क्षमता माना जाता है, और अब इसे इस रूप में दर्शाया जाता है <math>\textstyle c(\Gamma, \Lambda)</math>. | ||
लेम्मा 1: कोई भी चैनल कोडिंग कहां <math>\textstyle \Lambda</math> से बड़ा है <math>\textstyle \Lambda_0(P)</math> अच्छा चैनल कोडिंग नहीं माना जा सकता, क्योंकि इस प्रकार की चैनल कोडिंग में त्रुटि की अधिकतम औसत संभावना उससे अधिक या उसके बराबर होती है <math>\textstyle \frac{N-1}{2N} - \frac{1}{n}\frac{l_{max}^2}{n(\Lambda - \Lambda_0(P))^2}</math>, कहाँ <math>\textstyle l_{max}</math> का अधिकतम मान है <math>\textstyle l(s)</math>. यह | लेम्मा 1: कोई भी चैनल कोडिंग कहां <math>\textstyle \Lambda</math> से बड़ा है <math>\textstyle \Lambda_0(P)</math> अच्छा चैनल कोडिंग नहीं माना जा सकता, क्योंकि इस प्रकार की चैनल कोडिंग में त्रुटि की अधिकतम औसत संभावना उससे अधिक या उसके बराबर होती है <math>\textstyle \frac{N-1}{2N} - \frac{1}{n}\frac{l_{max}^2}{n(\Lambda - \Lambda_0(P))^2}</math>, कहाँ <math>\textstyle l_{max}</math> का अधिकतम मान है <math>\textstyle l(s)</math>. यह अच्छी अधिकतम औसत त्रुटि संभावना नहीं है क्योंकि यह काफी बड़ी है, <math>\textstyle \frac{N-1}{2N}</math> इसके करीब है <math>\textstyle \frac{1}{2}</math>, और समीकरण का दूसरा भाग बहुत छोटा होगा <math>\textstyle (\Lambda - \Lambda_0(P))</math> मान चुकता है, और <math>\textstyle \Lambda</math> से बड़ा होना तय है <math>\textstyle \Lambda_0(P)</math>. इसलिए, त्रुटि के बिना कोडवर्ड प्राप्त करना बहुत ही असंभव होगा। यही कारण है कि <math>\textstyle \Lambda_0(P)</math> स्थिति प्रमेय 2 में मौजूद है। | ||
प्रमेय 2: | प्रमेय 2: सकारात्मक दिया गया है <math>\textstyle \Lambda</math> और मनमाने ढंग से छोटा <math>\textstyle \alpha > 0</math>, <math>\textstyle \beta > 0</math>, <math>\textstyle \delta > 0</math>, किसी भी ब्लॉक लंबाई के लिए <math>\textstyle n \geq n_0</math> और किसी भी प्रकार के लिए <math>\textstyle P</math> शर्तों के साथ <math>\textstyle \Lambda_0(P) \geq \Lambda + \alpha</math> और <math>\displaystyle \min_{x \in X}P(x) \geq \beta</math>, और कहाँ <math>\textstyle P_{X_r} = P</math>, कोडवर्ड के साथ चैनल कोडिंग मौजूद है <math>\textstyle x_1,\dots,x_N</math>, प्रत्येक प्रकार का <math>\textstyle P</math>, जो निम्नलिखित समीकरणों को संतुष्ट करता है: <math>\textstyle \frac{1}{n}\log N > I(P,\Lambda) - \delta</math>, <math>\displaystyle \max_{l(s) \leq \Lambda} \bar{e}(s) \leq \exp(-n\gamma)</math>, और जहां सकारात्मक <math>\textstyle n_0</math> और <math>\textstyle \gamma</math> पर ही निर्भर हैं <math>\textstyle \alpha</math>, <math>\textstyle \beta</math>, <math>\textstyle \delta</math>, और दिया गया AVC। | ||
प्रमेय 2 का प्रमाण: पेपर देखें मनमाने ढंग से भिन्न चैनल की क्षमता पर दोबारा गौर किया गया: सकारात्मकता, बाधाएं, पूर्ण प्रमाण के लिए नीचे संदर्भित। | प्रमेय 2 का प्रमाण: पेपर देखें मनमाने ढंग से भिन्न चैनल की क्षमता पर दोबारा गौर किया गया: सकारात्मकता, बाधाएं, पूर्ण प्रमाण के लिए नीचे संदर्भित। | ||
===यादृच्छिक AVC की क्षमता=== | ===यादृच्छिक AVC की क्षमता=== | ||
अगला प्रमेय सूचना एन्ट्रॉपी चैनल कोडिंग वाले एवीसी के लिए होगा। ऐसे एवीसी के लिए चैनल कोडिंग लंबाई-एन ब्लॉक कोड के परिवार के मूल्यों के साथ | अगला प्रमेय सूचना एन्ट्रॉपी चैनल कोडिंग वाले एवीसी के लिए होगा। ऐसे एवीसी के लिए चैनल कोडिंग लंबाई-एन ब्लॉक कोड के परिवार के मूल्यों के साथ यादृच्छिक चर है, और इन चैनल कोडिंग को कोडवर्ड के वास्तविक मूल्य पर निर्भर/भरोसा करने की अनुमति नहीं है। इन चैनल कोडिंग में इसकी यादृच्छिक प्रकृति के कारण किसी भी चैनल मॉडल के लिए समान अधिकतम और औसत त्रुटि संभावना मूल्य होता है। इस प्रकार की चैनल कोडिंग AVC के कुछ गुणों को अधिक स्पष्ट बनाने में भी मदद करती है। | ||
इससे पहले कि हम प्रमेय 3 पर आगे बढ़ें, हमें पहले कुछ महत्वपूर्ण शब्दों को परिभाषित करना होगा: | इससे पहले कि हम प्रमेय 3 पर आगे बढ़ें, हमें पहले कुछ महत्वपूर्ण शब्दों को परिभाषित करना होगा: | ||
<math>\displaystyle W_{\zeta}(y|x) = \sum_{s \in S} W(y|x, s)P_{S_r}(s)</math><br> | <math>\displaystyle W_{\zeta}(y|x) = \sum_{s \in S} W(y|x, s)P_{S_r}(s)</math><br> | ||
<math>\textstyle I(P, \zeta)</math> के समान ही है <math>\textstyle I(P)</math> पहले उल्लेखित समीकरण, <math>\displaystyle I(P, \zeta) = \min_{Y_r} I(X_r \land Y_r)</math>, लेकिन अब /प्रायिकता द्रव्यमान फ़ंक्शन <math>\textstyle P_{S_r}(s)</math> समीकरण में जोड़ा जाता है, जिससे न्यूनतम बनता है <math>\textstyle I(P, \zeta)</math> का | <math>\textstyle I(P, \zeta)</math> के समान ही है <math>\textstyle I(P)</math> पहले उल्लेखित समीकरण, <math>\displaystyle I(P, \zeta) = \min_{Y_r} I(X_r \land Y_r)</math>, लेकिन अब /प्रायिकता द्रव्यमान फ़ंक्शन <math>\textstyle P_{S_r}(s)</math> समीकरण में जोड़ा जाता है, जिससे न्यूनतम बनता है <math>\textstyle I(P, \zeta)</math> का नया रूप आधारित है <math>\textstyle P_{X_{r}S_{r}Y_{r}}</math>, कहाँ <math>\textstyle W_{\zeta}(y|x)</math> के स्थान पर <math>\textstyle W(y|x, s)</math>. | ||
प्रमेय 3: एवीसी की सूचना एन्ट्रापी चैनल कोडिंग के लिए चैनल क्षमता है <math>\displaystyle c = max_P I(P, \zeta)</math>. | प्रमेय 3: एवीसी की सूचना एन्ट्रापी चैनल कोडिंग के लिए चैनल क्षमता है <math>\displaystyle c = max_P I(P, \zeta)</math>. | ||
Line 79: | Line 78: | ||
== संदर्भ == | == संदर्भ == | ||
* Ahlswede, Rudolf and Blinovsky, Vladimir, "Classical Capacity of Classical-Quantum Arbitrarily Varying Channels," | * Ahlswede, Rudolf and Blinovsky, Vladimir, "Classical Capacity of Classical-Quantum Arbitrarily Varying Channels," https://ieeexplore.ieee.org/document/4069128 | ||
* Blackwell, David, Breiman, Leo, and Thomasian, A. J., | * Blackwell, David, Breiman, Leo, and Thomasian, A. J., "The Capacities of Certain Channel Classes Under Random Coding," https://www.jstor.org/stable/2237566 | ||
* Csiszar, I. and Narayan, P., "Arbitrarily varying channels with constrained inputs and states," http://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=2598&isnumber=154 | * Csiszar, I. and Narayan, P., "Arbitrarily varying channels with constrained inputs and states," http://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=2598&isnumber=154 | ||
* Csiszar, I. and Narayan, P., "Capacity and Decoding Rules for Classes of Arbitrarily Varying Channels," http://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=32153&isnumber=139 | * Csiszar, I. and Narayan, P., "Capacity and Decoding Rules for Classes of Arbitrarily Varying Channels," http://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=32153&isnumber=139 |
Revision as of 17:49, 27 September 2023
मनमाने ढंग से भिन्न चैनल (एवीसी) संचार चैनल मॉडल है जिसका उपयोग कोडिंग सिद्धांत में किया जाता है, और इसे सबसे पहले ब्लैकवेल, ब्रिमन और थॉमसियन द्वारा पेश किया गया था। इस विशेष संचार चैनल में अज्ञात पैरामीटर हैं जो समय के साथ बदल सकते हैं और कोडवर्ड के प्रसारण के दौरान इन परिवर्तनों का समान पैटर्न नहीं हो सकता है। इस चैनल मॉडल के उपयोग को स्टोकेस्टिक मैट्रिक्स का उपयोग करके वर्णित किया जा सकता है , कहाँ इनपुट वर्णमाला है, आउटपुट वर्णमाला है, और राज्यों के दिए गए सेट पर संभाव्यता है , वह संचरित इनपुट प्राप्त आउटपुट की ओर ले जाता है . राज्य सेट में प्रत्येक समय इकाई में मनमाने ढंग से परिवर्तन हो सकता है . इस चैनल मॉडल को क्लाउड शैनन|शैनन के बाइनरी सममित चैनल (बीएससी) के विकल्प के रूप में विकसित किया गया था, जहां चैनल मॉडल की संपूर्ण प्रकृति ज्ञात है, जो वास्तविक संचार चैनल स्थितियों के लिए अधिक यथार्थवादी है।
क्षमताएं और संबंधित प्रमाण
नियतात्मक एवीसी की क्षमता
AVC की चैनल क्षमता कुछ मापदंडों के आधार पर भिन्न हो सकती है।
प्राप्य सूचना सिद्धांत है#निर्धारक एवीसी चैनल कोडिंग के लिए दर यदि यह इससे बड़ा है , और यदि प्रत्येक सकारात्मक के लिए और , और बहुत बड़ा , लंबाई- ब्लॉक कोड मौजूद हैं जो निम्नलिखित समीकरणों को संतुष्ट करते हैं: और , कहाँ में उच्चतम मूल्य है और कहाँ किसी राज्य अनुक्रम के लिए त्रुटि की औसत संभावना है . सबसे बड़ा सूचना सिद्धांत#दर AVC की चैनल क्षमता को दर्शाता है, जिसे द्वारा दर्शाया गया है .
जैसा कि आप देख सकते हैं, केवल तभी उपयोगी स्थितियाँ होती हैं जब AVC की चैनल क्षमता इससे अधिक होती है , क्योंकि तब चैनल मॉडल गारंटीकृत मात्रा में डेटा संचारित कर सकता है त्रुटियों के बिना. तो हम प्रमेय से शुरुआत करते हैं जो दिखाता है कि कब AVC में सकारात्मक है और बाद में चर्चा किए गए प्रमेयों की सीमा कम हो जाएगी विभिन्न परिस्थितियों के लिए. प्रमेय 1 शुरू करने से पहले, कुछ परिभाषाओं पर ध्यान देने की आवश्यकता है:
- और AVC सममित है यदि हर के लिए , कहाँ , , और चैनल फ़ंक्शन है .
- , , और सेट में सभी यादृच्छिक चर हैं , , और क्रमश।
- यादृच्छिक चर की प्रायिकता के बराबर है के बराबर है .
- यादृच्छिक चर की प्रायिकता के बराबर है के बराबर है .
- का संयुक्त प्रायिकता द्रव्यमान फलन (पीएमएफ) है , , और . औपचारिक रूप से परिभाषित किया गया है .
- की सूचना एन्ट्रापी है .
- औसत संभावना के बराबर है कि सभी मूल्यों के आधार पर निश्चित मूल्य होगा संभवतः के बराबर हो सकता है.
- की पारस्परिक जानकारी है और , और के बराबर है .
- , जहां न्यूनतम सभी यादृच्छिक चर से अधिक है ऐसा है कि , , और के रूप में वितरित किया जाता है .
प्रमेय 1: यदि और केवल यदि AVC सममित नहीं है। अगर , तब .
समरूपता के लिए पहले भाग का प्रमाण: यदि हम इसे सिद्ध कर सकें जब AVC सममित नहीं है तो सकारात्मक है, और फिर इसे सिद्ध करें , हम प्रमेय 1 को सिद्ध करने में सक्षम होंगे। मान लीजिए के बराबर थे . की परिभाषा से , यह बनेगा और कुछ के लिए स्वतंत्रता (संभावना सिद्धांत) यादृच्छिक चर , क्योंकि इसका मतलब यह होगा कि किसी भी यादृच्छिक चर की सूचना एन्ट्रापी दूसरे यादृच्छिक चर के मान पर निर्भर नहीं होगी। समीकरण का उपयोग करके , (और याद रखना ,) हम प्राप्त कर सकते हैं,
- तब से और स्वतंत्रता (संभावना सिद्धांत) यादृच्छिक चर हैं, कुछ के लिए
- क्योंकि केवल पर निर्भर करता है अब
- क्योंकि
तो अब हमारे पास संभाव्यता वितरण है वह है स्वतंत्रता (संभावना सिद्धांत) की . तो अब सममित AVC की परिभाषा को इस प्रकार फिर से लिखा जा सकता है: तब से और दोनों फ़ंक्शन पर आधारित हैं , उन्हें फ़ंक्शंस के आधार पर प्रतिस्थापित किया गया है और केवल। जैसा कि आप देख सकते हैं, दोनों पक्ष अब बराबर हैं हमने पहले गणना की थी, इसलिए AVC वास्तव में सममित है के बराबर है . इसलिए, केवल तभी सकारात्मक हो सकता है जब AVC सममित न हो।
क्षमता के लिए दूसरे भाग का प्रमाण: पेपर देखें मनमाने ढंग से भिन्न चैनल की क्षमता पर दोबारा गौर किया गया: सकारात्मकता, बाधाएं, पूर्ण प्रमाण के लिए नीचे संदर्भित।
इनपुट और राज्य बाधाओं के साथ एवीसी की क्षमता
अगला प्रमेय इनपुट और/या राज्य बाधाओं के साथ एवीसी के लिए चैनल क्षमता से निपटेगा। ये बाधाएं AVC पर ट्रांसमिशन और त्रुटि की संभावनाओं की बहुत बड़ी श्रृंखला को कम करने में मदद करती हैं, जिससे यह देखना थोड़ा आसान हो जाता है कि AVC कैसे व्यवहार करता है।
इससे पहले कि हम प्रमेय 2 पर आगे बढ़ें, हमें कुछ परिभाषाएँ और लेम्मा (गणित) परिभाषित करने की आवश्यकता है:
ऐसे AVC के लिए, मौजूद है:
- - इनपुट बाधा समीकरण के आधार पर , कहाँ और .
- - राज्य बाधा , समीकरण के आधार पर , कहाँ और .
- -
- - से बहुत मिलता जुलता है पहले उल्लेखित समीकरण, , लेकिन अब कोई भी राज्य या समीकरण में का पालन करना होगा राज्य प्रतिबंध.
मान लीजिए दिया गया गैर-नकारात्मक-मूल्यवान फ़ंक्शन है और दिया गया गैर-नकारात्मक-मूल्यवान फ़ंक्शन है और यह कि दोनों के लिए न्यूनतम मान है . इस विषय पर मैंने जो साहित्य पढ़ा है, उसमें दोनों की सटीक परिभाषाएँ दी गई हैं और ( चर के लिए ,) का कभी भी औपचारिक रूप से वर्णन नहीं किया गया है। इनपुट बाधा की उपयोगिता और राज्य की बाधा इन समीकरणों पर आधारित होगा.
इनपुट और/या राज्य बाधाओं वाले एवीसी के लिए, सूचना सिद्धांत#दर अब प्रारूप के कोडवर्ड तक ही सीमित है जो संतुष्ट करता है , और अब राज्य संतुष्ट करने वाले सभी राज्यों तक सीमित है . सबसे बड़ा सूचना सिद्धांत#रेट अभी भी AVC की चैनल क्षमता माना जाता है, और अब इसे इस रूप में दर्शाया जाता है .
लेम्मा 1: कोई भी चैनल कोडिंग कहां से बड़ा है अच्छा चैनल कोडिंग नहीं माना जा सकता, क्योंकि इस प्रकार की चैनल कोडिंग में त्रुटि की अधिकतम औसत संभावना उससे अधिक या उसके बराबर होती है , कहाँ का अधिकतम मान है . यह अच्छी अधिकतम औसत त्रुटि संभावना नहीं है क्योंकि यह काफी बड़ी है, इसके करीब है , और समीकरण का दूसरा भाग बहुत छोटा होगा मान चुकता है, और से बड़ा होना तय है . इसलिए, त्रुटि के बिना कोडवर्ड प्राप्त करना बहुत ही असंभव होगा। यही कारण है कि स्थिति प्रमेय 2 में मौजूद है।
प्रमेय 2: सकारात्मक दिया गया है और मनमाने ढंग से छोटा , , , किसी भी ब्लॉक लंबाई के लिए और किसी भी प्रकार के लिए शर्तों के साथ और , और कहाँ , कोडवर्ड के साथ चैनल कोडिंग मौजूद है , प्रत्येक प्रकार का , जो निम्नलिखित समीकरणों को संतुष्ट करता है: , , और जहां सकारात्मक और पर ही निर्भर हैं , , , और दिया गया AVC।
प्रमेय 2 का प्रमाण: पेपर देखें मनमाने ढंग से भिन्न चैनल की क्षमता पर दोबारा गौर किया गया: सकारात्मकता, बाधाएं, पूर्ण प्रमाण के लिए नीचे संदर्भित।
यादृच्छिक AVC की क्षमता
अगला प्रमेय सूचना एन्ट्रॉपी चैनल कोडिंग वाले एवीसी के लिए होगा। ऐसे एवीसी के लिए चैनल कोडिंग लंबाई-एन ब्लॉक कोड के परिवार के मूल्यों के साथ यादृच्छिक चर है, और इन चैनल कोडिंग को कोडवर्ड के वास्तविक मूल्य पर निर्भर/भरोसा करने की अनुमति नहीं है। इन चैनल कोडिंग में इसकी यादृच्छिक प्रकृति के कारण किसी भी चैनल मॉडल के लिए समान अधिकतम और औसत त्रुटि संभावना मूल्य होता है। इस प्रकार की चैनल कोडिंग AVC के कुछ गुणों को अधिक स्पष्ट बनाने में भी मदद करती है।
इससे पहले कि हम प्रमेय 3 पर आगे बढ़ें, हमें पहले कुछ महत्वपूर्ण शब्दों को परिभाषित करना होगा:
के समान ही है पहले उल्लेखित समीकरण, , लेकिन अब /प्रायिकता द्रव्यमान फ़ंक्शन समीकरण में जोड़ा जाता है, जिससे न्यूनतम बनता है का नया रूप आधारित है , कहाँ के स्थान पर .
प्रमेय 3: एवीसी की सूचना एन्ट्रापी चैनल कोडिंग के लिए चैनल क्षमता है .
प्रमेय 3 का प्रमाण: पूर्ण प्रमाण के लिए नीचे संदर्भित रैंडम कोडिंग के तहत कुछ चैनल कक्षाओं की क्षमता वाला पेपर देखें।
यह भी देखें
- बाइनरी सममित चैनल
- बाइनरी इरेज़र चैनल
- जेड-चैनल (सूचना सिद्धांत)
- चैनल मॉडल
- सूचना सिद्धांत
- कोडिंग सिद्धांत
संदर्भ
- Ahlswede, Rudolf and Blinovsky, Vladimir, "Classical Capacity of Classical-Quantum Arbitrarily Varying Channels," https://ieeexplore.ieee.org/document/4069128
- Blackwell, David, Breiman, Leo, and Thomasian, A. J., "The Capacities of Certain Channel Classes Under Random Coding," https://www.jstor.org/stable/2237566
- Csiszar, I. and Narayan, P., "Arbitrarily varying channels with constrained inputs and states," http://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=2598&isnumber=154
- Csiszar, I. and Narayan, P., "Capacity and Decoding Rules for Classes of Arbitrarily Varying Channels," http://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=32153&isnumber=139
- Csiszar, I. and Narayan, P., "The capacity of the arbitrarily varying channel revisited: positivity, constraints," http://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=2627&isnumber=155
- Lapidoth, A. and Narayan, P., "Reliable communication under channel uncertainty," http://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=720535&isnumber=15554