अर्बिट्ररीली वरयींग चैनल: Difference between revisions

From Vigyanwiki
No edit summary
No edit summary
Line 1: Line 1:
मनमाने ढंग से भिन्न चैनल (एवीसी) संचार [[चैनल मॉडल]] है जिसका उपयोग [[कोडिंग सिद्धांत]] में किया जाता है, और इसे सबसे पहले ब्लैकवेल, ब्रिमन और थॉमसियन द्वारा पेश किया गया था। इस विशेष संचार चैनल में अज्ञात पैरामीटर हैं जो समय के साथ बदल सकते हैं और [[कोडवर्ड]] के प्रसारण के दौरान इन परिवर्तनों का समान पैटर्न नहीं हो सकता है। <math>\textstyle n</math> इस चैनल मॉडल के उपयोग को [[स्टोकेस्टिक मैट्रिक्स]] का उपयोग करके वर्णित किया जा सकता है <math>\textstyle W^n: X^n \times</math> <math>\textstyle S^n \rightarrow Y^n</math>, कहाँ <math>\textstyle X</math> इनपुट वर्णमाला है, <math>\textstyle Y</math> आउटपुट वर्णमाला है, और <math>\textstyle W^n (y | x, s)</math> राज्यों के दिए गए सेट पर संभाव्यता है <math>\textstyle S</math>, वह संचरित इनपुट <math>\textstyle x = (x_1, \ldots, x_n)</math> प्राप्त आउटपुट की ओर ले जाता है <math>\textstyle y = (y_1, \ldots, y_n)</math>. राज्य <math>\textstyle s_i</math> सेट में <math>\textstyle S</math> प्रत्येक समय इकाई में मनमाने ढंग से परिवर्तन हो सकता है <math>\textstyle i</math>. इस चैनल मॉडल को क्लाउड शैनन|शैनन के [[ बाइनरी सममित चैनल |बाइनरी सममित चैनल]] (बीएससी) के विकल्प के रूप में विकसित किया गया था, जहां चैनल मॉडल की संपूर्ण प्रकृति ज्ञात है, जो वास्तविक संचार चैनल स्थितियों के लिए अधिक यथार्थवादी है।
अर्बिट्ररीली वरयींग चैनल (एवीसी) संचार [[चैनल मॉडल]] है जिसका उपयोग [[कोडिंग सिद्धांत]] में किया जाता है, और इसे सबसे पहले ब्लैकवेल, ब्रिमन और थॉमसियन द्वारा प्रस्तुत किया गया था। इस विशेष संचार चैनल में अज्ञात मापदंड हैं जो समय के साथ परिवर्तित हो सकते हैं और [[कोडवर्ड]] के प्रसारण के समय इन परिवर्तनों का समान क्रम नहीं हो सकता है। इस चैनल के <math>\textstyle n</math> उपयोगों को स्टोकेस्टिक आव्यूह <math>\textstyle W^n: X^n \times</math><math>\textstyle S^n \rightarrow Y^n</math> का उपयोग करके वर्णित किया जा सकता है, जहां <math>\textstyle X</math> इनपुट वर्णमाला है, <math>\textstyle Y</math> आउटपुट वर्णमाला है, और <math>\textstyle W^n (y | x, s)</math> स्थितियो <math>\textstyle S</math> के दिए गए समुच्चय पर संभावना है, कि प्रेषित इनपुट <math>\textstyle x = (x_1, \ldots, x_n)</math> प्राप्त आउटपुट की ओर ले जाता है इस प्रकार <math>\textstyle y = (y_1, \ldots, y_n)</math> समुच्चय <math>\textstyle S</math> में स्थिति <math>\textstyle s_i</math> प्रत्येक समय इकाई <math>\textstyle i</math> पर अर्बिट्ररीली वरयींग हो सकती है। इस चैनल को शैनन के बाइनरी सिमेट्रिक चैनल (बीएससी) के विकल्प के रूप में विकसित किया गया था, जहां चैनल की संपूर्ण प्रकृति को वास्तविक नेटवर्क चैनल स्थितियों के लिए अधिक यथार्थवादी माना जाता है।


==क्षमताएं और संबंधित प्रमाण==
==क्षमताएं और संबंधित प्रमाण==


===नियतात्मक एवीसी की क्षमता===
===नियतात्मक एवीसी की क्षमता===
AVC की [[चैनल क्षमता]] कुछ मापदंडों के आधार पर भिन्न हो सकती है।
एवीसी की [[चैनल क्षमता]] कुछ मापदंडों के आधार पर भिन्न हो सकती है।


<math>\textstyle R</math> प्राप्य सूचना सिद्धांत है#निर्धारक एवीसी [[चैनल कोडिंग]] के लिए दर यदि यह इससे बड़ा है <math>\textstyle 0</math>, और यदि प्रत्येक सकारात्मक के लिए <math>\textstyle \varepsilon</math> और <math>\textstyle \delta</math>, और बहुत बड़ा <math>\textstyle n</math>, लंबाई-<math>\textstyle n</math> [[ब्लॉक कोड]] मौजूद हैं जो निम्नलिखित समीकरणों को संतुष्ट करते हैं: <math>\textstyle \frac{1}{n}\log N > R - \delta</math> और <math>\displaystyle \max_{s \in S^n} \bar{e}(s) \leq \varepsilon</math>, कहाँ <math>\textstyle N</math> में उच्चतम मूल्य है <math>\textstyle Y</math> और कहाँ <math>\textstyle \bar{e}(s)</math> किसी राज्य अनुक्रम के लिए त्रुटि की औसत संभावना है <math>\textstyle s</math>. सबसे बड़ा सूचना सिद्धांत#दर <math>\textstyle R</math> AVC की चैनल क्षमता को दर्शाता है, जिसे द्वारा दर्शाया गया है <math>\textstyle c</math>.
<math>\textstyle R</math> एक नियतात्मक एवीसी [[चैनल कोडिंग]] के लिए एक प्राप्य सूचना सिद्धांत है यदि यह <math>\textstyle 0</math> से बड़ा है, और यदि प्रत्येक धनात्मक  <math>\textstyle \varepsilon</math> और <math>\textstyle \delta</math> के लिए, और बहुत बड़े <math>\textstyle n</math>, लंबाई-<math>\textstyle n</math> ब्लॉक कोड के लिए है उपस्थित हैं जो निम्नलिखित समीकरणों को संतुष्ट करते हैं: <math>\textstyle \frac{1}{n}\log N > R - \delta</math> और <math>\displaystyle \max_{s \in S^n} \bar{e}(s) \leq \varepsilon</math> , जहां  <math>\textstyle N</math> <math>\textstyle Y</math>  में उच्चतम मान है और जहां <math>\textstyle N</math> एक स्थिति अनुक्रम <math>\textstyle \bar{e}(s)</math> के लिए त्रुटि की औसत संभावना है। सबसे बड़ी दर <math>\textstyle R</math>, एवीसी की क्षमता को दर्शाती है, जिसे <math>\textstyle c</math> द्वारा दर्शाया गया है


जैसा कि आप देख सकते हैं, केवल तभी उपयोगी स्थितियाँ होती हैं जब AVC की चैनल क्षमता इससे अधिक होती है <math>\textstyle 0</math>, क्योंकि तब चैनल मॉडल गारंटीकृत मात्रा में डेटा संचारित कर सकता है <math>\textstyle \leq c</math> त्रुटियों के बिना. तो हम [[प्रमेय]] से शुरुआत करते हैं जो दिखाता है कि कब <math>\textstyle c</math> AVC में सकारात्मक है और बाद में चर्चा किए गए प्रमेयों की सीमा कम हो जाएगी <math>\textstyle c</math> विभिन्न परिस्थितियों के लिए.
जैसा कि आप देख सकते हैं, केवल उपयोगी स्थितियाँ तब होती हैं जब एवीसी की क्षमता <math>\textstyle 0</math> से अधिक होती है, क्योंकि तब चैनल त्रुटियों के बिना प्रत्याभूत मात्रा में डेटा <math>\textstyle \leq c</math> संचारित कर सकता है। जिससे हम एक प्रमेय से प्रारंभ करते हैं जो दिखाता है कि एवीसी में <math>\textstyle c</math> कब धनात्मक है और इसके पश्चात् में विचार किए गए प्रमेय विभिन्न परिस्थितियों के लिए <math>\textstyle c</math> की सीमा को कम कर देता है।
प्रमेय 1 शुरू करने से पहले, कुछ परिभाषाओं पर ध्यान देने की आवश्यकता है:
* और AVC सममित है यदि <math>\displaystyle \sum_{s \in S}W(y|x, s)U(s|x') = \sum_{s \in S}W(y|x', s)U(s|x)</math> हर के लिए <math>\textstyle (x, x', y,s)</math>, कहाँ <math>\textstyle x,x'\in X</math>, <math>\textstyle y \in Y</math>, और <math>\textstyle U(s|x)</math> चैनल फ़ंक्शन है <math>\textstyle U: X \rightarrow S</math>.
* <math>\textstyle X_r</math>, <math>\textstyle S_r</math>, और <math>\textstyle Y_r</math> सेट में सभी यादृच्छिक चर हैं <math>\textstyle X</math>, <math>\textstyle S</math>, और <math>\textstyle Y</math> क्रमश।
* <math>\textstyle P_{X_r}(x)</math> यादृच्छिक चर की प्रायिकता के बराबर है <math>\textstyle X_r</math> के बराबर है <math>\textstyle x</math>.
* <math>\textstyle P_{S_r}(s)</math> यादृच्छिक चर की प्रायिकता के बराबर है <math>\textstyle S_r</math> के बराबर है <math>\textstyle s</math>.
* <math>\textstyle P_{X_{r}S_{r}Y_{r}}</math> का संयुक्त प्रायिकता द्रव्यमान फलन (पीएमएफ) है <math>\textstyle P_{X_r}(x)</math>, <math>\textstyle P_{S_r}(s)</math>, और <math>\textstyle W(y|x,s)</math>. <math>\textstyle P_{X_{r}S_{r}Y_{r}}</math> औपचारिक रूप से परिभाषित किया गया है <math>\textstyle P_{X_{r}S_{r}Y_{r}}(x,s,y) = P_{X_r}(x)P_{S_r}(s)W(y|x,s)</math>.
* <math>\textstyle H(X_r)</math> की [[सूचना एन्ट्रापी]] है <math>\textstyle X_r</math>.
* <math>\textstyle H(X_r|Y_r)</math> औसत संभावना के बराबर है कि <math>\textstyle X_r</math> सभी मूल्यों के आधार पर निश्चित मूल्य होगा <math>\textstyle Y_r</math> संभवतः के बराबर हो सकता है.
* <math>\textstyle I(X_r \land Y_r)</math> की पारस्परिक जानकारी है <math>\textstyle X_r</math> और <math>\textstyle Y_r</math>, और के बराबर है <math>\textstyle H(X_r) - H(X_r|Y_r)</math>.
* <math>\displaystyle I(P) = \min_{Y_r} I(X_r \land Y_r)</math>, जहां न्यूनतम सभी यादृच्छिक चर से अधिक है <math>\textstyle Y_r</math> ऐसा है कि <math>\textstyle X_r</math>, <math>\textstyle S_r</math>, और <math>\textstyle Y_r</math> के रूप में वितरित किया जाता है <math>\textstyle P_{X_{r}S_{r}Y_{r}}</math>.


प्रमेय 1: <math>\textstyle c > 0</math> यदि और केवल यदि AVC सममित नहीं है। अगर <math>\textstyle c > 0</math>, तब <math>\displaystyle c = \max_P I(P)</math>.
प्रमेय 1 प्रारंभ करने से पहले, कुछ परिभाषाओं पर ध्यान देने की आवश्यकता है:
* एक एवीसी सममित है यदि <math>\displaystyle \sum_{s \in S}W(y|x, s)U(s|x') = \sum_{s \in S}W(y|x', s)U(s|x)</math> प्रत्येक <math>\textstyle (x, x', y,s)</math> के लिए जहां <math>\textstyle x,x'\in X</math>, <math>\textstyle y \in Y</math>, और <math>\textstyle U(s|x)</math> एक चैनल फलन है <math>\textstyle U: X \rightarrow S</math>
*<math>\textstyle X_r</math>, <math>\textstyle S_r</math>, और <math>\textstyle Y_r</math>  क्रमशः समुच्चय  <math>\textstyle X</math>, <math>\textstyle S</math>, और <math>\textstyle Y</math> में सभी यादृच्छिक चर हैं।
*<math>\textstyle P_{X_r}(x)</math> इस प्रायिकता के समान है कि यादृच्छिक चर <math>\textstyle X_r</math> <math>\textstyle x</math> के समान है
*<math>\textstyle P_{S_r}(s)</math> इस प्रायिकता के समान है कि यादृच्छिक चर <math>\textstyle S_r</math> <math>\textstyle s</math> के समान है
*<math>\textstyle P_{X_{r}S_{r}Y_{r}}</math> का संयुक्त संभाव्यता द्रव्यमान फलन (पीएमएफ) है और <math>\textstyle P_{X_r}(x)</math>, <math>\textstyle P_{S_r}(s)</math>, और <math>\textstyle W(y|x,s)</math> को औपचारिक रूप से <math>\textstyle P_{X_{r}S_{r}Y_{r}}</math> के रूप में परिभाषित किया गया है
*<math>\textstyle P_{X_{r}S_{r}Y_{r}}(x,s,y) = P_{X_r}(x)P_{S_r}(s)W(y|x,s)</math>.
*<math>\textstyle H(X_r)</math> <math>\textstyle X_r</math> की एन्ट्रापी है
*<math>\textstyle H(X_r|Y_r)</math> उस औसत संभावना के समान है कि <math>\textstyle X_r</math> उन सभी मानों के आधार पर एक निश्चित मान होगा जिनके लिए <math>\textstyle Y_r</math> संभवतः समान हो सकता है।
*<math>\textstyle I(X_r \land Y_r)</math> और  <math>\textstyle X_r</math> और <math>\textstyle Y_r</math> की पारस्परिक जानकारी है और <math>\textstyle H(X_r) - H(X_r|Y_r)</math> के समान है
*<math>\displaystyle I(P) = \min_{Y_r} I(X_r \land Y_r)</math> जहां न्यूनतम सभी यादृच्छिक चर <math>\textstyle Y_r</math> पर है  जैसे कि <math>\textstyle X_r</math>, <math>\textstyle S_r</math>, और <math>\textstyle Y_r</math> को <math>\textstyle P_{X_{r}S_{r}Y_{r}}</math> के रूप में वितरित किए गए हैं


समरूपता के लिए पहले भाग का प्रमाण: यदि हम इसे सिद्ध कर सकें <math>\textstyle I(P)</math> जब AVC सममित नहीं है तो सकारात्मक है, और फिर इसे सिद्ध करें <math>\textstyle c = \max_P I(P)</math>, हम प्रमेय 1 को सिद्ध करने में सक्षम होंगे। मान लीजिए <math>\textstyle I(P)</math> के बराबर थे <math>\textstyle 0</math>. की परिभाषा से <math>\textstyle I(P)</math>, यह बनेगा <math>\textstyle X_r</math> और <math>\textstyle Y_r</math> कुछ के लिए [[स्वतंत्रता (संभावना सिद्धांत)]] यादृच्छिक चर <math>\textstyle S_r</math>, क्योंकि इसका मतलब यह होगा कि किसी भी यादृच्छिक चर की सूचना एन्ट्रापी दूसरे यादृच्छिक चर के मान पर निर्भर नहीं होगी। समीकरण का उपयोग करके <math>\textstyle P_{X_{r}S_{r}Y_{r}}</math>, (और याद रखना <math>\textstyle P_{X_r} = P</math>,) हम प्राप्त कर सकते हैं,
प्रमेय 1: <math>\textstyle c > 0</math> यदि और केवल यदि एवीसी सममित नहीं है। यदि <math>\textstyle c > 0</math>, तब <math>\displaystyle c = \max_P I(P)</math>.
 
समरूपता के लिए पहले भाग का प्रमाण: यदि हम सिद्ध कर सकते हैं कि एवीसी सममित नहीं होने पर <math>\textstyle I(P)</math> धनात्मक है, और फिर सिद्ध करें कि <math>\textstyle c = \max_P I(P)</math>, तो हम सक्षम होंगे प्रमेय 1 को सिद्ध करने के लिए। मान लें कि <math>\textstyle I(P)</math> <math>\textstyle 0</math> के समान है। इस प्रकार <math>\textstyle I(P)</math> की परिभाषा से, यह <math>\textstyle X_r</math> और <math>\textstyle Y_r</math> को स्वतंत्र यादृच्छिक चर बना देगा, कुछ <math>\textstyle S_r</math> के लिए, क्योंकि इसका कारण यह होगा कि किसी भी यादृच्छिक चर की एन्ट्रॉपी दूसरे यादृच्छिक चर के मान पर निर्भर नहीं होगी। समीकरण <math>\textstyle P_{X_{r}S_{r}Y_{r}}</math> का उपयोग करके हम <math>\textstyle P_{X_r} = P</math> प्राप्त कर सकते हैं,


:<math>\displaystyle P_{Y_r}(y) = \sum_{x\in X} \sum_{s\in S} P(x)P_{S_r}(s)W(y|x,s)</math>
:<math>\displaystyle P_{Y_r}(y) = \sum_{x\in X} \sum_{s\in S} P(x)P_{S_r}(s)W(y|x,s)</math>
:<math>\textstyle \equiv (</math>तब से <math>\textstyle X_r</math> और <math>\textstyle Y_r</math> स्वतंत्रता (संभावना सिद्धांत) यादृच्छिक चर हैं, <math>\textstyle W(y|x, s) = W'(y|s)</math> कुछ के लिए <math>\textstyle W')</math>
:<math>\textstyle \equiv (</math>चूँकि  <math>\textstyle X_r</math> और <math>\textstyle Y_r</math> कुछ <math>\textstyle W')</math> के लिए स्वतंत्र यादृच्छिक चर <math>\textstyle W(y|x, s) = W'(y|s)</math> हैं<math>\textstyle )</math>
:
:<math>\displaystyle P_{Y_r}(y) = \sum_{x\in X} \sum_{s\in S} P(x)P_{S_r}(s)W'(y|s)</math>
:<math>\displaystyle P_{Y_r}(y) = \sum_{x\in X} \sum_{s\in S} P(x)P_{S_r}(s)W'(y|s)</math>
:<math>\textstyle \equiv (</math>क्योंकि केवल <math>\textstyle P(x)</math> पर निर्भर करता है <math>\textstyle x</math> अब<math>\textstyle )</math>
:<math>\textstyle \equiv (</math>क्योंकि <math>\textstyle x</math> केवल <math>\textstyle P(x)</math> पर निर्भर करता है<math>\textstyle )</math>
:<math>\displaystyle P_{Y_r}(y) = \sum_{s\in S} P_{S_r}(s)W'(y|s) \left[\sum_{x\in X} P(x)\right]</math>
:<math>\displaystyle P_{Y_r}(y) = \sum_{s\in S} P_{S_r}(s)W'(y|s) \left[\sum_{x\in X} P(x)\right]</math>
:<math>\textstyle \equiv (</math>क्योंकि <math>\displaystyle \sum_{x\in X} P(x) = 1)</math>
:<math>\textstyle \equiv (</math>क्योंकि <math>\displaystyle \sum_{x\in X} P(x) = 1)</math>
:<math>\displaystyle P_{Y_r}(y) = \sum_{s\in S} P_{S_r}(s)W'(y|s)</math>
:<math>\displaystyle P_{Y_r}(y) = \sum_{s\in S} P_{S_r}(s)W'(y|s)</math>
तो अब हमारे पास संभाव्यता वितरण है <math>\textstyle Y_r</math> वह है स्वतंत्रता (संभावना सिद्धांत) की <math>\textstyle X_r</math>. तो अब सममित AVC की परिभाषा को इस प्रकार फिर से लिखा जा सकता है: <math>\displaystyle \sum_{s \in S}W'(y|s)P_{S_r}(s) = \sum_{s \in S}W'(y|s)P_{S_r}(s)</math> तब से <math>\textstyle U(s|x)</math> और <math>\textstyle W(y|x, s)</math> दोनों फ़ंक्शन पर आधारित हैं <math>\textstyle x</math>, उन्हें फ़ंक्शंस के आधार पर प्रतिस्थापित किया गया है <math>\textstyle s</math> और <math>\textstyle y</math> केवल। जैसा कि आप देख सकते हैं, दोनों पक्ष अब बराबर हैं <math>\textstyle P_{Y_r}(y)</math> हमने पहले गणना की थी, इसलिए AVC वास्तव में सममित है <math>\textstyle I(P)</math> के बराबर है <math>\textstyle 0</math>. इसलिए, <math>\textstyle I(P)</math> केवल तभी सकारात्मक हो सकता है जब AVC सममित न हो।
तो अब हमारे निकट <math>\textstyle Y_r</math> पर एक संभाव्यता वितरण है जो <math>\textstyle X_r</math> से स्वतंत्र है। जिससे अब एक सममित एवीसी की परिभाषा को इस प्रकार फिर से लिखा जा सकता है: <math>\displaystyle \sum_{s \in S}W'(y|s)P_{S_r}(s) = \sum_{s \in S}W'(y|s)P_{S_r}(s)</math> क्योंकि <math>\textstyle U(s|x)</math> और <math>\textstyle W(y|x, s)</math> दोनों फलन  <math>\textstyle x</math> पर आधारित हैं, उन्हें केवल  <math>\textstyle s</math> और <math>\textstyle y</math> पर आधारित फलन से परिवर्तित कर दिया गया है। जैसा कि आप देख सकते हैं, दोनों पक्ष अब <math>\textstyle P_{Y_r}(y)</math> के समान हैं, जिसकी हमने पहले गणना की थी, इसलिए एवीसी वास्तव में सममित है जब <math>\textstyle I(P)</math> <math>\textstyle 0</math> के समान है। इसलिए, <math>\textstyle I(P)</math> केवल तभी धनात्मक हो सकता है जब एवीसी सममित नही होता है।


क्षमता के लिए दूसरे भाग का प्रमाण: पेपर देखें मनमाने ढंग से भिन्न चैनल की क्षमता पर दोबारा गौर किया गया: सकारात्मकता, बाधाएं, पूर्ण प्रमाण के लिए नीचे संदर्भित।
क्षमता के लिए दूसरे भाग का प्रमाण: पूर्ण प्रमाण के लिए नीचे संदर्भित पेपर "अर्बिट्ररीली वरयींग चैनल की क्षमता: धनात्मकता, बाधाएं" देखें।


===इनपुट और राज्य बाधाओं के साथ एवीसी की क्षमता===
===इनपुट और स्थिति बाधाओं के साथ एवीसी की क्षमता===


अगला प्रमेय इनपुट और/या राज्य बाधाओं के साथ एवीसी के लिए चैनल क्षमता से निपटेगा। ये बाधाएं AVC पर ट्रांसमिशन और त्रुटि की संभावनाओं की बहुत बड़ी श्रृंखला को कम करने में मदद करती हैं, जिससे यह देखना थोड़ा आसान हो जाता है कि AVC कैसे व्यवहार करता है।
अगला प्रमेय इनपुट और/या स्थिति बाधाओं के साथ एवीसी के लिए चैनल क्षमता से सामना करता है। यह बाधाएं एवीसी पर ट्रांसमिशन और त्रुटि की संभावनाओं की बहुत बड़ी श्रृंखला को कम करने में सहायता करती हैं, जिससे यह देखना कम सरल हो जाता है कि एवीसी कैसे व्यवहार करता है।


इससे पहले कि हम प्रमेय 2 पर आगे बढ़ें, हमें कुछ परिभाषाएँ और [[लेम्मा (गणित)]] परिभाषित करने की आवश्यकता है:
इससे पहले कि हम प्रमेय 2 पर आगे बढ़ें, हमें कुछ परिभाषाएँ और [[लेम्मा (गणित)]] परिभाषित करने की आवश्यकता है:


ऐसे AVC के लिए, मौजूद है:<br>
ऐसे एवीसी के लिए, उपस्थित है:<br>
:- इनपुट बाधा <math>\textstyle \Gamma</math> समीकरण के आधार पर <math>\displaystyle g(x) = \frac{1}{n}\sum_{i=1}^n g(x_i)</math>, कहाँ <math>\textstyle x \in X</math> और <math>\textstyle x = (x_1,\dots,x_n)</math>.
:- इनपुट बाधा <math>\textstyle \Gamma</math> समीकरण के आधार पर <math>\displaystyle g(x) = \frac{1}{n}\sum_{i=1}^n g(x_i)</math>, जहाँ <math>\textstyle x \in X</math> और <math>\textstyle x = (x_1,\dots,x_n)</math>.
:- राज्य बाधा <math>\textstyle \Lambda</math>, समीकरण के आधार पर <math>\displaystyle l(s) = \frac{1}{n}\sum_{i=1}^n l(s_i)</math>, कहाँ <math>\textstyle s \in X</math> और <math>\textstyle s = (s_1,\dots,s_n)</math>.
:- स्थिति बाधा <math>\textstyle \Lambda</math>, समीकरण के आधार पर <math>\displaystyle l(s) = \frac{1}{n}\sum_{i=1}^n l(s_i)</math>, जहाँ <math>\textstyle s \in X</math> और <math>\textstyle s = (s_1,\dots,s_n)</math>.
:- <math>\displaystyle \Lambda_0(P) = \min \sum_{x \in X, s \in S}P(x)l(s)</math>
:- <math>\displaystyle \Lambda_0(P) = \min \sum_{x \in X, s \in S}P(x)l(s)</math>
:- <math>\textstyle I(P, \Lambda)</math> से बहुत मिलता जुलता है <math>\textstyle I(P)</math> पहले उल्लेखित समीकरण, <math>\displaystyle I(P, \Lambda) = \min_{Y_r} I(X_r \land Y_r)</math>, लेकिन अब कोई भी राज्य <math>\textstyle s</math> या <math>\textstyle S_r</math> समीकरण में का पालन करना होगा <math>\textstyle l(s) \leq \Lambda</math> राज्य प्रतिबंध.
:<math>\textstyle I(P, \Lambda)</math> पहले बताए गए <math>\textstyle I(P)</math> समीकरण के समान है <math>\displaystyle I(P, \Lambda) = \min_{Y_r} I(X_r \land Y_r)</math>, किन्तु अब समीकरण में किसी भी स्थिति <math>\textstyle s</math> या <math>\textstyle S_r</math> को <math>\textstyle l(s) \leq \Lambda</math> स्थिति प्रतिबंध का पालन करना होगा।


मान लीजिए <math>\textstyle g(x)</math> दिया गया गैर-नकारात्मक-मूल्यवान फ़ंक्शन है <math>\textstyle X</math> और <math>\textstyle l(s)</math> दिया गया गैर-नकारात्मक-मूल्यवान फ़ंक्शन है <math>\textstyle S</math> और यह कि दोनों के लिए न्यूनतम मान है <math>\textstyle 0</math>. इस विषय पर मैंने जो साहित्य पढ़ा है, उसमें दोनों की सटीक परिभाषाएँ दी गई हैं <math>\textstyle g(x)</math> और <math>\textstyle l(s)</math> ( चर के लिए <math>\textstyle x_i</math>,) का कभी भी औपचारिक रूप से वर्णन नहीं किया गया है। इनपुट बाधा की उपयोगिता <math>\textstyle \Gamma</math> और राज्य की बाधा <math>\textstyle \Lambda</math> इन समीकरणों पर आधारित होगा.
मान लें कि <math>\textstyle g(x)</math><math>\textstyle X</math> पर एक गैर-ऋणात्मक-मूल्यवान फलन है और <math>\textstyle l(s)</math> <math>\textstyle S</math> पर एक दिया गया गैर-ऋणात्मक-मूल्यवान फलन है और दोनों के लिए न्यूनतम मान <math>\textstyle 0</math> है। साहित्य में मेरे पास है इस विषय पर पढ़ें, इस प्रकार <math>\textstyle g(x)</math> और <math>\textstyle l(s)</math> (चर <math>\textstyle x_i</math>, के लिए) दोनों की स्पष्ट परिभाषाओं का कभी भी औपचारिक रूप से वर्णन नहीं किया गया है। इनपुट बाधा <math>\textstyle \Gamma</math> और स्थिति बाधा <math>\textstyle \Lambda</math> की उपयोगिता इन समीकरणों पर आधारित होती है।


इनपुट और/या राज्य बाधाओं वाले एवीसी के लिए, सूचना सिद्धांत#दर <math>\textstyle R</math> अब प्रारूप के कोडवर्ड तक ही सीमित है <math>\textstyle x_1,\dots,x_N</math> जो संतुष्ट करता है <math>\textstyle g(x_i) \leq \Gamma</math>, और अब राज्य <math>\textstyle s</math> संतुष्ट करने वाले सभी राज्यों तक सीमित है <math>\textstyle l(s) \leq \Lambda</math>. सबसे बड़ा सूचना सिद्धांत#रेट अभी भी AVC की चैनल क्षमता माना जाता है, और अब इसे इस रूप में दर्शाया जाता है <math>\textstyle c(\Gamma, \Lambda)</math>.
इनपुट और/या स्थिति बाधाओं वाले एवीसी के लिए, दर <math>\textstyle R</math> अब <math>\textstyle x_1,\dots,x_N</math> प्रारूप के कोडवर्ड तक सीमित है जो <math>\textstyle g(x_i) \leq \Gamma</math> को संतुष्ट करते हैं गामा, और अब स्थिति <math>\textstyle s</math> उन सभी स्थितिों तक सीमित है जो <math>\textstyle l(s) \leq \Lambda</math> को संतुष्ट करते हैं। सबसे बड़ी दर अभी भी एवीसी की क्षमता मानी जाती है, और अब इसे <math>\textstyle c(\Gamma, \Lambda)</math> के रूप में दर्शाया जाता है


लेम्मा 1: कोई भी चैनल कोडिंग कहां <math>\textstyle \Lambda</math> से बड़ा है <math>\textstyle \Lambda_0(P)</math> अच्छा चैनल कोडिंग नहीं माना जा सकता, क्योंकि इस प्रकार की चैनल कोडिंग में त्रुटि की अधिकतम औसत संभावना उससे अधिक या उसके बराबर होती है <math>\textstyle \frac{N-1}{2N} - \frac{1}{n}\frac{l_{max}^2}{n(\Lambda - \Lambda_0(P))^2}</math>, कहाँ <math>\textstyle l_{max}</math> का अधिकतम मान है <math>\textstyle l(s)</math>. यह अच्छी अधिकतम औसत त्रुटि संभावना नहीं है क्योंकि यह काफी बड़ी है, <math>\textstyle \frac{N-1}{2N}</math> इसके करीब है <math>\textstyle \frac{1}{2}</math>, और समीकरण का दूसरा भाग बहुत छोटा होगा <math>\textstyle (\Lambda - \Lambda_0(P))</math> मान चुकता है, और <math>\textstyle \Lambda</math> से बड़ा होना तय है <math>\textstyle \Lambda_0(P)</math>. इसलिए, त्रुटि के बिना कोडवर्ड प्राप्त करना बहुत ही असंभव होगा। यही कारण है कि <math>\textstyle \Lambda_0(P)</math> स्थिति प्रमेय 2 में मौजूद है।
लेम्मा 1: कोई भी कोड जहां <math>\textstyle \Lambda</math> <math>\textstyle \Lambda_0(P)</math> से बड़ा है, उसे "अच्छा" कोड नहीं माना जा सकता है, क्योंकि उन प्रकार के कोड में त्रुटि की अधिकतम औसत संभावना <math>\textstyle l(s)</math> से अधिक या उसके समान होती है। <math>\textstyle \frac{N-1}{2N} - \frac{1}{n}\frac{l_{max}^2}{n(\Lambda - \Lambda_0(P))^2}</math>, जहां <math>\textstyle l_{max}</math> का अधिकतम मान है। यह एक अच्छी अधिकतम औसत त्रुटि संभावना नहीं है क्योंकि यह अधिक बड़ी है, <math>\textstyle \frac{N-1}{2N}</math> <math>\textstyle \frac{1}{2}</math> के निकट है, और दूसरा भाग समीकरण का भाग बहुत छोटा होगा क्योंकि <math>\textstyle (\Lambda - \Lambda_0(P))</math> मान का वर्ग किया गया है, और <math>\textstyle \Lambda</math> को <math>\textstyle \Lambda_0(P)</math> से बड़ा माना गया है ). इसलिए, त्रुटि के बिना कोडवर्ड प्राप्त करना बहुत ही असंभव होगा। यही कारण है कि <math>\textstyle \Lambda_0(P)</math> स्थिति प्रमेय 2 में उपस्थित है।


प्रमेय 2: सकारात्मक दिया गया है <math>\textstyle \Lambda</math> और मनमाने ढंग से छोटा <math>\textstyle \alpha > 0</math>, <math>\textstyle \beta > 0</math>, <math>\textstyle \delta > 0</math>, किसी भी ब्लॉक लंबाई के लिए <math>\textstyle n \geq n_0</math> और किसी भी प्रकार के लिए <math>\textstyle P</math> शर्तों के साथ <math>\textstyle \Lambda_0(P) \geq \Lambda + \alpha</math> और <math>\displaystyle \min_{x \in X}P(x) \geq \beta</math>, और कहाँ <math>\textstyle P_{X_r} = P</math>, कोडवर्ड के साथ चैनल कोडिंग मौजूद है <math>\textstyle x_1,\dots,x_N</math>, प्रत्येक प्रकार का <math>\textstyle P</math>, जो निम्नलिखित समीकरणों को संतुष्ट करता है: <math>\textstyle \frac{1}{n}\log N > I(P,\Lambda) - \delta</math>, <math>\displaystyle \max_{l(s) \leq \Lambda} \bar{e}(s) \leq \exp(-n\gamma)</math>, और जहां सकारात्मक <math>\textstyle n_0</math> और <math>\textstyle \gamma</math> पर ही निर्भर हैं <math>\textstyle \alpha</math>, <math>\textstyle \beta</math>, <math>\textstyle \delta</math>, और दिया गया AVC।
प्रमेय 2: किसी भी ब्लॉक लंबाई  <math>\textstyle \alpha > 0</math>, <math>\textstyle \beta > 0</math>, <math>\textstyle \delta > 0</math> के लिए और किसी भी प्रकार <math>\textstyle P</math> के लिए नियमो <math>\textstyle n \geq n_0</math> के लिए एक धनात्मक <math>\displaystyle \min_{x \in X}P(x) \geq \beta</math> और अर्बिट्ररीली से छोटा <math>\textstyle \Lambda_0(P) \geq \Lambda + \alpha</math> दिया गया है। <math>\textstyle x_1,\dots,x_N</math> <math>\textstyle \frac{1}{n}\log N > I(P,\Lambda) - \delta</math>, और जहां धनात्मक <math>\textstyle n_0</math> और <math>\textstyle \gamma</math> केवल  <math>\textstyle \alpha</math>, <math>\textstyle \beta</math>, <math>\textstyle \delta</math> और दिए गए एवीसी पर निर्भर करते हैं।


प्रमेय 2 का प्रमाण: पेपर देखें मनमाने ढंग से भिन्न चैनल की क्षमता पर दोबारा गौर किया गया: सकारात्मकता, बाधाएं, पूर्ण प्रमाण के लिए नीचे संदर्भित।
प्रमेय 2 का प्रमाण: पूर्ण प्रमाण के लिए नीचे संदर्भित पेपर "अर्बिट्ररीली वरयींग चैनल की क्षमता: धनात्मकता, बाधाएं" देखें।


===यादृच्छिक AVC की क्षमता===
===यादृच्छिक एवीसी की क्षमता===
अगला प्रमेय सूचना एन्ट्रॉपी चैनल कोडिंग वाले एवीसी के लिए होगा। ऐसे एवीसी के लिए चैनल कोडिंग लंबाई-एन ब्लॉक कोड के परिवार के मूल्यों के साथ यादृच्छिक चर है, और इन चैनल कोडिंग को कोडवर्ड के वास्तविक मूल्य पर निर्भर/भरोसा करने की अनुमति नहीं है। इन चैनल कोडिंग में इसकी यादृच्छिक प्रकृति के कारण किसी भी चैनल मॉडल के लिए समान अधिकतम और औसत त्रुटि संभावना मूल्य होता है। इस प्रकार की चैनल कोडिंग AVC के कुछ गुणों को अधिक स्पष्ट बनाने में भी मदद करती है।
इस प्रकार अगला प्रमेय सूचना एन्ट्रॉपी चैनल कोडिंग वाले एवीसी के लिए होगा। ऐसे एवीसी के लिए चैनल कोडिंग लंबाई-एन ब्लॉक कोड के वर्ग के मानो के साथ यादृच्छिक चर है, और इन चैनल कोडिंग को कोडवर्ड के वास्तविक मूल्य पर निर्भर/विश्वास करने की अनुमति नहीं है। इन चैनल कोडिंग में इसकी यादृच्छिक प्रकृति के कारण किसी भी चैनल मॉडल के लिए समान अधिकतम और औसत त्रुटि संभावना मूल्य होता है। इस प्रकार की चैनल कोडिंग एवीसी के कुछ गुणों को अधिक स्पष्ट बनाने में भी सहायता करती है।


इससे पहले कि हम प्रमेय 3 पर आगे बढ़ें, हमें पहले कुछ महत्वपूर्ण शब्दों को परिभाषित करना होगा:
इससे पहले कि हम प्रमेय 3 पर आगे बढ़ें, हमें पहले कुछ महत्वपूर्ण शब्दों को परिभाषित करना होगा:


<math>\displaystyle W_{\zeta}(y|x) = \sum_{s \in S} W(y|x, s)P_{S_r}(s)</math><br>
<math>\displaystyle W_{\zeta}(y|x) = \sum_{s \in S} W(y|x, s)P_{S_r}(s)</math><br>
<math>\textstyle I(P, \zeta)</math> के समान ही है <math>\textstyle I(P)</math> पहले उल्लेखित समीकरण, <math>\displaystyle I(P, \zeta) = \min_{Y_r} I(X_r \land Y_r)</math>, लेकिन अब /प्रायिकता द्रव्यमान फ़ंक्शन <math>\textstyle P_{S_r}(s)</math> समीकरण में जोड़ा जाता है, जिससे न्यूनतम बनता है <math>\textstyle I(P, \zeta)</math> का नया रूप आधारित है <math>\textstyle P_{X_{r}S_{r}Y_{r}}</math>, कहाँ <math>\textstyle W_{\zeta}(y|x)</math> के स्थान पर <math>\textstyle W(y|x, s)</math>.


प्रमेय 3: एवीसी की सूचना एन्ट्रापी चैनल कोडिंग के लिए चैनल क्षमता है <math>\displaystyle c = max_P I(P, \zeta)</math>.
<math>\textstyle I(P, \zeta)</math> पहले उल्लिखित <math>\textstyle I(P)</math> समीकरण के समान है, <math>\displaystyle I(P, \zeta) = \min_{Y_r} I(X_r \land Y_r)</math>, किन्तु अब प्रायिकता द्रव्यमान फलन <math>\textstyle P_{S_r}(s)</math> को समीकरण में जोड़ा गया है, जिससे न्यूनतम <math>\textstyle I(P, \zeta)</math> एक नया रूप आधारित हो गया है <math>\textstyle P_{X_{r}S_{r}Y_{r}}</math> का, जहां <math>\textstyle W_{\zeta}(y|x)</math> के स्थान पर <math>\textstyle W(y|x, s)</math> प्रतिस्थापित करता है
 
प्रमेय 3: एवीसी की सूचना एन्ट्रापी चैनल कोडिंग के लिए चैनल क्षमता <math>\displaystyle c = max_P I(P, \zeta)</math> है .


प्रमेय 3 का प्रमाण: पूर्ण प्रमाण के लिए नीचे संदर्भित रैंडम कोडिंग के तहत कुछ चैनल कक्षाओं की क्षमता वाला पेपर देखें।
प्रमेय 3 का प्रमाण: पूर्ण प्रमाण के लिए नीचे संदर्भित रैंडम कोडिंग के अनुसार कुछ चैनल कक्षाओं की क्षमता वाला पेपर देखें।


==यह भी देखें==
==यह भी देखें==

Revision as of 19:44, 27 September 2023

अर्बिट्ररीली वरयींग चैनल (एवीसी) संचार चैनल मॉडल है जिसका उपयोग कोडिंग सिद्धांत में किया जाता है, और इसे सबसे पहले ब्लैकवेल, ब्रिमन और थॉमसियन द्वारा प्रस्तुत किया गया था। इस विशेष संचार चैनल में अज्ञात मापदंड हैं जो समय के साथ परिवर्तित हो सकते हैं और कोडवर्ड के प्रसारण के समय इन परिवर्तनों का समान क्रम नहीं हो सकता है। इस चैनल के उपयोगों को स्टोकेस्टिक आव्यूह का उपयोग करके वर्णित किया जा सकता है, जहां इनपुट वर्णमाला है, आउटपुट वर्णमाला है, और स्थितियो के दिए गए समुच्चय पर संभावना है, कि प्रेषित इनपुट प्राप्त आउटपुट की ओर ले जाता है इस प्रकार समुच्चय में स्थिति प्रत्येक समय इकाई पर अर्बिट्ररीली वरयींग हो सकती है। इस चैनल को शैनन के बाइनरी सिमेट्रिक चैनल (बीएससी) के विकल्प के रूप में विकसित किया गया था, जहां चैनल की संपूर्ण प्रकृति को वास्तविक नेटवर्क चैनल स्थितियों के लिए अधिक यथार्थवादी माना जाता है।

क्षमताएं और संबंधित प्रमाण

नियतात्मक एवीसी की क्षमता

एवीसी की चैनल क्षमता कुछ मापदंडों के आधार पर भिन्न हो सकती है।

एक नियतात्मक एवीसी चैनल कोडिंग के लिए एक प्राप्य सूचना सिद्धांत है यदि यह से बड़ा है, और यदि प्रत्येक धनात्मक और के लिए, और बहुत बड़े , लंबाई- ब्लॉक कोड के लिए है उपस्थित हैं जो निम्नलिखित समीकरणों को संतुष्ट करते हैं: और , जहां में उच्चतम मान है और जहां एक स्थिति अनुक्रम के लिए त्रुटि की औसत संभावना है। सबसे बड़ी दर , एवीसी की क्षमता को दर्शाती है, जिसे द्वारा दर्शाया गया है

जैसा कि आप देख सकते हैं, केवल उपयोगी स्थितियाँ तब होती हैं जब एवीसी की क्षमता से अधिक होती है, क्योंकि तब चैनल त्रुटियों के बिना प्रत्याभूत मात्रा में डेटा संचारित कर सकता है। जिससे हम एक प्रमेय से प्रारंभ करते हैं जो दिखाता है कि एवीसी में कब धनात्मक है और इसके पश्चात् में विचार किए गए प्रमेय विभिन्न परिस्थितियों के लिए की सीमा को कम कर देता है।

प्रमेय 1 प्रारंभ करने से पहले, कुछ परिभाषाओं पर ध्यान देने की आवश्यकता है:

  • एक एवीसी सममित है यदि प्रत्येक के लिए जहां , , और एक चैनल फलन है
  • , , और क्रमशः समुच्चय , , और में सभी यादृच्छिक चर हैं।
  • इस प्रायिकता के समान है कि यादृच्छिक चर के समान है
  • इस प्रायिकता के समान है कि यादृच्छिक चर के समान है
  • का संयुक्त संभाव्यता द्रव्यमान फलन (पीएमएफ) है और , , और को औपचारिक रूप से के रूप में परिभाषित किया गया है
  • .
  • की एन्ट्रापी है
  • उस औसत संभावना के समान है कि उन सभी मानों के आधार पर एक निश्चित मान होगा जिनके लिए संभवतः समान हो सकता है।
  • और और की पारस्परिक जानकारी है और के समान है
  • जहां न्यूनतम सभी यादृच्छिक चर पर है जैसे कि , , और को के रूप में वितरित किए गए हैं

प्रमेय 1: यदि और केवल यदि एवीसी सममित नहीं है। यदि , तब .

समरूपता के लिए पहले भाग का प्रमाण: यदि हम सिद्ध कर सकते हैं कि एवीसी सममित नहीं होने पर धनात्मक है, और फिर सिद्ध करें कि , तो हम सक्षम होंगे प्रमेय 1 को सिद्ध करने के लिए। मान लें कि के समान है। इस प्रकार की परिभाषा से, यह और को स्वतंत्र यादृच्छिक चर बना देगा, कुछ के लिए, क्योंकि इसका कारण यह होगा कि किसी भी यादृच्छिक चर की एन्ट्रॉपी दूसरे यादृच्छिक चर के मान पर निर्भर नहीं होगी। समीकरण का उपयोग करके हम प्राप्त कर सकते हैं,

चूँकि और कुछ के लिए स्वतंत्र यादृच्छिक चर हैं
क्योंकि केवल पर निर्भर करता है
क्योंकि

तो अब हमारे निकट पर एक संभाव्यता वितरण है जो से स्वतंत्र है। जिससे अब एक सममित एवीसी की परिभाषा को इस प्रकार फिर से लिखा जा सकता है: क्योंकि और दोनों फलन पर आधारित हैं, उन्हें केवल और पर आधारित फलन से परिवर्तित कर दिया गया है। जैसा कि आप देख सकते हैं, दोनों पक्ष अब के समान हैं, जिसकी हमने पहले गणना की थी, इसलिए एवीसी वास्तव में सममित है जब के समान है। इसलिए, केवल तभी धनात्मक हो सकता है जब एवीसी सममित नही होता है।

क्षमता के लिए दूसरे भाग का प्रमाण: पूर्ण प्रमाण के लिए नीचे संदर्भित पेपर "अर्बिट्ररीली वरयींग चैनल की क्षमता: धनात्मकता, बाधाएं" देखें।

इनपुट और स्थिति बाधाओं के साथ एवीसी की क्षमता

अगला प्रमेय इनपुट और/या स्थिति बाधाओं के साथ एवीसी के लिए चैनल क्षमता से सामना करता है। यह बाधाएं एवीसी पर ट्रांसमिशन और त्रुटि की संभावनाओं की बहुत बड़ी श्रृंखला को कम करने में सहायता करती हैं, जिससे यह देखना कम सरल हो जाता है कि एवीसी कैसे व्यवहार करता है।

इससे पहले कि हम प्रमेय 2 पर आगे बढ़ें, हमें कुछ परिभाषाएँ और लेम्मा (गणित) परिभाषित करने की आवश्यकता है:

ऐसे एवीसी के लिए, उपस्थित है:

- इनपुट बाधा समीकरण के आधार पर , जहाँ और .
- स्थिति बाधा , समीकरण के आधार पर , जहाँ और .
-
पहले बताए गए समीकरण के समान है , किन्तु अब समीकरण में किसी भी स्थिति या को स्थिति प्रतिबंध का पालन करना होगा।

मान लें कि , पर एक गैर-ऋणात्मक-मूल्यवान फलन है और पर एक दिया गया गैर-ऋणात्मक-मूल्यवान फलन है और दोनों के लिए न्यूनतम मान है। साहित्य में मेरे पास है इस विषय पर पढ़ें, इस प्रकार और (चर , के लिए) दोनों की स्पष्ट परिभाषाओं का कभी भी औपचारिक रूप से वर्णन नहीं किया गया है। इनपुट बाधा और स्थिति बाधा की उपयोगिता इन समीकरणों पर आधारित होती है।

इनपुट और/या स्थिति बाधाओं वाले एवीसी के लिए, दर अब प्रारूप के कोडवर्ड तक सीमित है जो को संतुष्ट करते हैं गामा, और अब स्थिति उन सभी स्थितिों तक सीमित है जो को संतुष्ट करते हैं। सबसे बड़ी दर अभी भी एवीसी की क्षमता मानी जाती है, और अब इसे के रूप में दर्शाया जाता है

लेम्मा 1: कोई भी कोड जहां से बड़ा है, उसे "अच्छा" कोड नहीं माना जा सकता है, क्योंकि उन प्रकार के कोड में त्रुटि की अधिकतम औसत संभावना से अधिक या उसके समान होती है। , जहां का अधिकतम मान है। यह एक अच्छी अधिकतम औसत त्रुटि संभावना नहीं है क्योंकि यह अधिक बड़ी है, के निकट है, और दूसरा भाग समीकरण का भाग बहुत छोटा होगा क्योंकि मान का वर्ग किया गया है, और को से बड़ा माना गया है ). इसलिए, त्रुटि के बिना कोडवर्ड प्राप्त करना बहुत ही असंभव होगा। यही कारण है कि स्थिति प्रमेय 2 में उपस्थित है।

प्रमेय 2: किसी भी ब्लॉक लंबाई , , के लिए और किसी भी प्रकार के लिए नियमो के लिए एक धनात्मक और अर्बिट्ररीली से छोटा दिया गया है। , और जहां धनात्मक और केवल , , और दिए गए एवीसी पर निर्भर करते हैं।

प्रमेय 2 का प्रमाण: पूर्ण प्रमाण के लिए नीचे संदर्भित पेपर "अर्बिट्ररीली वरयींग चैनल की क्षमता: धनात्मकता, बाधाएं" देखें।

यादृच्छिक एवीसी की क्षमता

इस प्रकार अगला प्रमेय सूचना एन्ट्रॉपी चैनल कोडिंग वाले एवीसी के लिए होगा। ऐसे एवीसी के लिए चैनल कोडिंग लंबाई-एन ब्लॉक कोड के वर्ग के मानो के साथ यादृच्छिक चर है, और इन चैनल कोडिंग को कोडवर्ड के वास्तविक मूल्य पर निर्भर/विश्वास करने की अनुमति नहीं है। इन चैनल कोडिंग में इसकी यादृच्छिक प्रकृति के कारण किसी भी चैनल मॉडल के लिए समान अधिकतम और औसत त्रुटि संभावना मूल्य होता है। इस प्रकार की चैनल कोडिंग एवीसी के कुछ गुणों को अधिक स्पष्ट बनाने में भी सहायता करती है।

इससे पहले कि हम प्रमेय 3 पर आगे बढ़ें, हमें पहले कुछ महत्वपूर्ण शब्दों को परिभाषित करना होगा:


पहले उल्लिखित समीकरण के समान है, , किन्तु अब प्रायिकता द्रव्यमान फलन को समीकरण में जोड़ा गया है, जिससे न्यूनतम एक नया रूप आधारित हो गया है का, जहां के स्थान पर प्रतिस्थापित करता है

प्रमेय 3: एवीसी की सूचना एन्ट्रापी चैनल कोडिंग के लिए चैनल क्षमता है .

प्रमेय 3 का प्रमाण: पूर्ण प्रमाण के लिए नीचे संदर्भित रैंडम कोडिंग के अनुसार कुछ चैनल कक्षाओं की क्षमता वाला पेपर देखें।

यह भी देखें

संदर्भ