बाइनरी सममित चैनल
द्विआधारी सममित चैनल (या ) सामान्य संचार चैनल मॉडल है जिसका उपयोग कोडिंग सिद्धांत और सूचना सिद्धांत में किया जाता है। इस मॉडल में, ट्रांसमीटर अंश (एक शून्य या एक) भेजना चाहता है, और प्राप्तकर्ता थोड़ा प्राप्त करेगा। बिट को 'पी' की क्रॉसओवर संभावना के साथ फ़्लिप किया जाएगा, और अन्यथा सही ढंग से प्राप्त किया जाएगा। यह मॉडल विभिन्न संचार चैनलों जैसे कि टेलीफोन लाइन या डिस्क ड्राइव स्टोरेज पर लागू किया जा सकता है।
शोर-चैनल कोडिंग प्रमेय पर लागू होता है, यह कहते हुए कि सूचना को मनमाने ढंग से कम त्रुटि के साथ चैनल क्षमता तक किसी भी दर पर प्रसारित किया जा सकता है। चैनल क्षमता है बिट्स, कहाँ बाइनरी एन्ट्रापी फ़ंक्शन है। फ़ॉर्नी के कोड सहित कोड पूरे चैनल में कुशलतापूर्वक सूचना प्रसारित करने के लिए डिज़ाइन किए गए हैं।
परिभाषा
क्रॉसओवर प्रायिकता वाला बाइनरी सममित चैनल , द्वारा चिह्नित, बाइनरी इनपुट और बाइनरी आउटपुट और त्रुटि की संभावना वाला चैनल है। इसके अतिरिक्त यदि संचरित यादृच्छिक चर है और प्राप्त चर है, तो चैनल सशर्त संभाव्यता की विशेषता है:[1]
यह मान लिया है कि . यदि , तो प्राप्तकर्ता आउटपुट स्वैप कर सकता है (1 की व्याख्या जब यह 0 देखता है, और इसके विपरीत) और क्रॉसओवर संभावना के साथ समकक्ष चैनल प्राप्त करता है .
क्षमता
बाइनरी सिमेट्रिक चैनल की चैनल क्षमता, बिट्स में है:[2]
कहां बाइनरी एंट्रॉपी फ़ंक्शन है, जिसे परिभाषित किया गया है:[2]
Proof[3] The capacity is defined as the maximum mutual information between input and output for all possible input distributions : The mutual information can be reformulated as
where the first and second step follows from the definition of mutual information and conditional entropy respectively. The entropy at the output for a given and fixed input symbol () equals the binary entropy function, which leads to the third line and this can be further simplified.
In the last line, only the first term depends on the input distribution . The entropy of a binary variable is at most 1 bit, and equality is attained if its probability distribution is uniform. It therefore suffices to exhibit an input distribution that yields a uniform probability distribution for the output . For this, note that it is a property of any binary symmetric channel that a uniform probability distribution of the input results in a uniform probability distribution of the output. Hence the value will be 1 when we choose a uniform distribution for . We conclude that the channel capacity for our binary symmetric channel is .
शोर-चैनल कोडिंग प्रमेय
शैनन का शोर-चैनल कोडिंग प्रमेय उस सूचना की दर के बारे में परिणाम देता है जिसे संचार चैनल के माध्यम से मनमाने ढंग से कम त्रुटि के साथ प्रेषित किया जा सकता है। हम के विशेष स्थितिे का अध्ययन करते हैं।
के लिए विशेषताओं को प्रदर्शित करता है जो यादृच्छिक चर है जिसमें n स्वतंत्र यादृच्छिक बिट्स होते हैं (n को नीचे परिभाषित किया गया है) जहां प्रत्येक यादृच्छिक बिट है संभावना के साथ और ए संभावना के साथ . हम इसे लिखकर इंगित करते हैं .
Theorem — सभी के लिए सभी , जो कि एक सीमा में बहुत अधिक हैं (ये निर्भर करते हैं and ), और यह सभी , एन्कोडिंग और डिकोडिंग कार्यों की एक जोड़ी मौजूद है and क्रमशः, जैसे कि हर संदेश निम्नलिखित संपत्ति है:
- .
इस प्रमेय का वास्तव में क्या अर्थ है, संदेश जब से चुना जाता है , यादृच्छिक एन्कोडिंग फ़ंक्शन के साथ एन्कोड किया गया , और शोर के पार भेजा जाता है जो डिकोडिंग द्वारा मूल संदेश को पुनर्प्राप्त करने की बहुत अधिक संभावना है, यदि या प्रभाव में चैनल की दर प्रमेय में बताई गई मात्रा से बंधी होती है। डिकोडिंग त्रुटि की संभावना घातीय रूप से छोटी है।
प्रमाण
प्रमेय को सीधे संभाव्य विधि से सिद्ध किया जा सकता है। एन्कोडिंग फ़ंक्शन पर विचार करें जिसे यादृच्छिक रूप से चुना जाता है। इसका मतलब है कि प्रत्येक संदेश के लिए है जिसका महत्व यादृच्छिक रूप से (समान संभावनाओं के साथ) चुना जाता है। किसी दिए गए एन्कोडिंग फ़ंक्शन के लिए , डिकोडिंग फ़ंक्शन निम्नानुसार निर्दिष्ट किया गया है: कोई भी प्राप्त कोडवर्ड दिया गया है , हम संदेश पाते हैं ऐसा हैमिंग दूरी जितना संभव हो उतना छोटा है (मनमाने ढंग से तोड़े गए संबंधों के साथ)। ( डिकोडिंग विधियाँ अधिकतम संभावना डिकोडिंग फ़ंक्शन कहा जाता है।)
कम से कम ऐसा विकल्प दिखा कर प्रमाण जारी है संभावनाओं पर एकीकरण द्वारा, प्रमेय के निष्कर्ष को संतुष्ट करता है। मान लीजिए और फिक्स किए गए हैं। पहले हम दिखाते हैं कि, निश्चित के लिए और यादृच्छिक रूप से चुना गया, विफलता की संभावना खत्म हो गई एन में शोर घातीय रूप से छोटा है। इस बिंदु पर, प्रमाण निश्चित संदेश के लिए कार्य करता है। आगे हम इस परिणाम को सभी संदेशों के लिए कार्य करने के लिए विस्तारित करते हैं, हम कोड से आधे कोडवर्ड को इस तर्क के साथ हटाकर इसे प्राप्त करते हैं कि डिकोडिंग त्रुटि संभावना के लिए प्रमाण कम से कम आधे कोडवर्ड के लिए होता है। बाद वाली विधि को निष्कासन कहा जाता है। यह संपूर्ण प्रक्रिया को निष्कासन के साथ यादृच्छिक कोडिंग का नाम देता है।
प्रमाण की निरंतरता (स्केच) Fix and . Given a fixed message , we need to estimate the expected value of the probability of the received codeword along with the noise does not give back on decoding. That is to say, we need to estimate: Let be the received codeword. In order for the decoded codeword not to be equal to the message , one of the following events must occur:
- does not lie within the Hamming ball of radius centered at . This condition is mainly used to make the calculations easier.
- There is another message such that . In other words, the errors due to noise take the transmitted codeword closer to another encoded message.
We can apply the Chernoff bound to ensure the non occurrence of the first event; we get:
This is exponentially small for large (recall that is fixed).
For the second event, we note that the probability that is where is the Hamming ball of radius centered at vector and is its volume. Using approximation to estimate the number of codewords in the Hamming ball, we have . Hence the above probability amounts to . Now using the union bound, we can upper bound the existence of such an by which is , as desired by the choice of .
प्रमाण की निरंतरता (विस्तृत) From the above analysis, we calculate the probability of the event that the decoded codeword plus the channel noise is not the same as the original message sent. We shall introduce some symbols here. Let denote the probability of receiving codeword given that codeword was sent. Let denote We get the last inequality by our analysis using the Chernoff bound above. Now taking expectation on both sides we have,
by appropriately choosing the value of . Since the above bound holds for each message, we have
Now we can change the order of summation in the expectation with respect to the message and the choice of the encoding function . Hence:
Hence in conclusion, by probabilistic method, we have some encoding function and a corresponding decoding function such that
At this point, the proof works for a fixed message . But we need to make sure that the above bound holds for all the messages simultaneously. For that, let us sort the messages by their decoding error probabilities. Now by applying Markov's inequality, we can show the decoding error probability for the first messages to be at most . Thus in order to confirm that the above bound to hold for every message , we could just trim off the last messages from the sorted order. This essentially gives us another encoding function with a corresponding decoding function with a decoding error probability of at most with the same rate. Taking to be equal to we bound the decoding error probability to . This expurgation process completes the proof.
शैनन की क्षमता प्रमेय का विलोम
क्षमता प्रमेय का विलोम अनिवार्य रूप से यह बताता है सर्वोत्तम दर है जिसे कोई बाइनरी सिमेट्रिक चैनल पर प्राप्त कर सकता है। औपचारिक रूप से प्रमेय कहता है:
चूंकि प्रमाण के पीछे का अंतर्ज्ञान त्रुटियों की संख्या को तेजी से बढ़ने के लिए दिखा रहा है क्योंकि दर चैनल क्षमता से परे बढ़ती है। विचार यह है कि प्रेषक आयाम के संदेश उत्पन्न करता है , जबकि चैनल के लिए संचरण त्रुटियों का परिचय देता है। जब चैनल की क्षमता है, त्रुटियों की संख्या पर सामान्य होती है इस प्रकार ब्लॉक लंबाई के कोड के लिए संदेशों की अधिकतम संख्या है दूसरी ओर चैनल का संभावित आउटपुट मान है। यदि किन्हीं दो संदेशों के बीच कोई भ्रम है, तो संभावना है कि . इसलिए हमारे पास होगा , ऐसी स्थिति जिससे हम डिकोडिंग त्रुटि संभावना को घातीय रूप से छोटा रखने से बचना चाहेंगे।
कोड
हाल ही में, कई मानक संचार चैनलों की क्षमताओं को प्राप्त करने के लिए स्पष्ट त्रुटि-सुधार कोड डिजाइन करने के लिए बहुत कार्य किया गया है और किया जा रहा है। इस तरह के कोड को डिजाइन करने के पीछे की प्रेरणा कोड की दर को त्रुटियों के अंश से संबंधित करना है जिसे वह ठीक कर सकता है।
कोड के डिजाइन के पीछे का दृष्टिकोण जो चैनल की क्षमता को पूरा करता है या बाइनरी इरेज़र चैनल उच्च संभावना के साथ कम संख्या में त्रुटियों को ठीक करना और उच्चतम संभव दर प्राप्त करना रहा है। शैनन का प्रमेय हमें वह सर्वोत्तम दर देता है जिसे प्राप्त किया जा सकता है , लेकिन यह हमें उस दर को प्राप्त करने वाले किसी भी स्पष्ट कोड का विचार नहीं देता है। वास्तव में इस तरह के कोड सामान्यतः त्रुटियों के केवल छोटे अंश को उच्च संभावना के साथ सही करने के लिए बनाए जाते हैं, लेकिन बहुत अच्छी दर प्राप्त करते हैं। इस तरह का पहला कोड 1966 में जॉर्ज डी. फॉर्नी के कारण था। कोड दो अलग-अलग प्रकार के कोडों को जोड़कर जुड़ा हुआ कोड है।
फ़ॉर्नी का कोड
फोर्नी ने समेकित कोड बनाया शोर-चैनल कोडिंग प्रमेय की क्षमता प्राप्त करने के लिए, उनके कोड में,
- बाहरी कोड ब्लॉक लंबाई का कोड है और दर मैदान के ऊपर , और . इसके अतिरिक्त, हमारे पास कोड एल्गोरिथम है के लिए तक ठीक किया जा सकता है सबसे खराब स्थिति त्रुटियों का अंश और में चलता है समय।
- आंतरिक कोड ब्लॉक लंबाई का कोड है , आयाम , और की दर . इसके अतिरिक्त, हमारे पास डिकोडिंग एल्गोरिदम है के लिए अधिकतम कोड त्रुटि संभावना के साथ ऊपर और अंदर दौड़ता है समय।
बाहरी कोड के लिए रीड-सोलोमन कोड दिमाग में आने वाला पहला कोड होता। चूंकि, हम देखेंगे कि ऐसे कोड का निर्माण बहुपद समय में नहीं किया जा सकता है। यही कारण है कि बाइनरी रैखिक कोड का उपयोग किया जाता है .
आंतरिक कोड के लिए ब्लॉक लंबाई के रैखिक कोड से पूरी तरह से खोज कर हम रैखिक कोड पाते हैं और आयाम , जिसकी दर क्षमता को शोर-चैनल कोडिंग प्रमेय द्वारा पूरा करती है ।
दर जो लगभग मिलता है क्षमता। हम आगे ध्यान दें कि एन्कोडिंग और डिकोडिंग के संबंध में बहुपद समय में किया जा सकता है . वास्तव में, एन्कोडिंग समय लेता है , इसके अतिरिक्त, वर्णित डिकोडिंग एल्गोरिदम में समय लगता है जब तक कि , और प्राप्त ना हो जाए।
डिकोडिंग त्रुटि संभावना
के लिए प्राकृतिक डिकोडिंग एल्गोरिदम है:
- मान लीजिए * अमल में लाना पर
ध्यान दें कि कोड के प्रत्येक ब्लॉक के लिए का प्रतीक माना जाता है . अब किसी भी सूचकांक में त्रुटि की संभावना के बाद से के लिए अधिक से अधिक है और त्रुटियों में स्वतंत्र हैं, त्रुटियों की अपेक्षित संख्या अधिक से अधिक है अपेक्षा की रैखिकता से। अब Chernoff बाध्य लगाने पर, हमारे पास बाउंड एरर प्रायिकता से अधिक है होने वाली त्रुटियां . बाहरी कोड के बाद से ज्यादा से ज्यादा त्रुटियां ठीक कर सकते हैं , यह कोड त्रुटि की संभावना है, यह जब स्पर्शोन्मुख शब्दों में व्यक्त किया जाता है, तो हमें त्रुटि की संभावना द्वारा मिलती है . इस प्रकार प्राप्त डिकोडिंग त्रुटि की संभावना शोर-चैनल कोडिंग प्रमेय के रूप में चरघातांकी रूप से छोटा है।
हमने निर्माण के लिए सामान्य तकनीक दी है . अधिक विस्तृत विवरण के लिए और कृपया निम्नलिखित संदर्भ पढ़ें। क्षमताओं को प्राप्त करने के लिए हाल ही में कुछ अन्य कोड भी बनाए गए हैं। इस उद्देश्य के लिए एलडीपीसी कोडों को उनके तेजी से डिकोडिंग समय के लिए माना गया है।[4]
अनुप्रयोग
बाइनरी सममित चैनल मेमोरी स्टोरेज के लिए उपयोग किए जाने वाले डिस्क ड्राइव को मॉडल कर सकता है: चैनल इनपुट डिस्क पर लिखे जाने वाले बिट का प्रतिनिधित्व करता है और आउटपुट बाद में पढ़े जाने वाले बिट से मेल खाता है। मैग्नेटाइजेशन फ़्लिपिंग, बैकग्राउंड नॉइज़ या राइटिंग हेड द्वारा त्रुटि करने से त्रुटि उत्पन्न हो सकती है। अन्य वस्तुएं जो बाइनरी सममित चैनल मॉडल कर सकती हैं उनमें टेलीफोन या रेडियो संचार लाइन या कोशिका विभाजन सम्मलित है, जिसमें से बेटी कोशिकाओं में उनके मूल सेल से डीएनए की जानकारी होती है।[5]
यह चैनल अधिकांशतः सिद्धांतकारों द्वारा प्रयोग किया जाता है क्योंकि यह विश्लेषण करने के लिए सबसे सरल सिग्नल शोर चैनलों में से है। संचार सिद्धांत में कई समस्याएं बीएससी में कमी (जटिलता) हो सकती हैं। इसके विपरीत, बीएससी पर प्रभावी ढंग से संचारित करने में सक्षम होने से अधिक जटिल चैनलों के समाधान में वृद्धि हो सकती है।
यह भी देखें
टिप्पणियाँ
- ↑ MacKay (2003), p. 4.
- ↑ 2.0 2.1 MacKay (2003), p. 15.
- ↑ Cover & Thomas (1991), p. 187.
- ↑ Richardson and Urbanke
- ↑ MacKay (2003), p. 3–4.
संदर्भ
- Cover, Thomas M.; Thomas, Joy A. (1991). Elements of Information Theory. Hoboken, New Jersey: Wiley. ISBN 978-0-471-24195-9.
- G. David Forney. Concatenated Codes. MIT Press, Cambridge, MA, 1966.
- Venkat Guruswamy's course on [1] Error-Correcting Codes: Constructions and Algorithms], Autumn 2006.
- MacKay, David J.C. (2003). Information Theory, Inference, and Learning Algorithms. Cambridge University Press. ISBN 0-521-64298-1.
- Atri Rudra's course on Error Correcting Codes: Combinatorics, Algorithms, and Applications (Fall 2007), Lectures 9, 10, 29, and 30.
- Madhu Sudan's course on Algorithmic Introduction to Coding Theory (Fall 2001), Lecture 1 and 2.
- A mathematical theory of communication C. E Shannon, ACM SIGMOBILE Mobile Computing and Communications Review.
- Modern Coding Theory by Tom Richardson and Rudiger Urbanke., Cambridge University Press