पारस्परिक अपवर्जन: Difference between revisions

From Vigyanwiki
(Created page with "{{short description|In computing, restricting data to be accessible by one thread at a time}} {{For|the concept in logic and probability theory|Mutual exclusivity}} {{Use dmy...")
 
No edit summary
Line 1: Line 1:
{{short description|In computing, restricting data to be accessible by one thread at a time}}
{{short description|In computing, restricting data to be accessible by one thread at a time}}
{{For|the concept in logic and probability theory|Mutual exclusivity}}
{{For|तर्क और संभाव्यता सिद्धांत में अवधारणा|पारस्परिक विशिष्टता}}
{{Use dmy dates|date=December 2019}}
{{Use dmy dates|date=December 2019}}
[[File:Mutual exclusion example with linked list.png|thumb|दो नोड, {{mvar|i}} और {{math|''i'' + 1}}, एक साथ हटाए जाने के परिणामस्वरूप नोड {{math|''i'' + 1}} हटाया नहीं जा रहा है।]][[कंप्यूटर विज्ञान]] में, पारस्परिक बहिष्करण संगामिति नियंत्रण की एक संपत्ति है, जिसे [[दौड़ की स्थिति]] को रोकने के उद्देश्य से स्थापित किया गया है। यह आवश्यक है कि एक धागा (कंप्यूटिंग) कभी भी एक महत्वपूर्ण खंड में प्रवेश न करे, जबकि निष्पादन का एक [[समवर्ती कंप्यूटिंग]] धागा पहले से ही उक्त महत्वपूर्ण खंड तक पहुंच रहा है, जो उस समय के अंतराल को संदर्भित करता है जिसके दौरान निष्पादन का एक धागा [[साझा संसाधन]] या साझा मेमोरी तक पहुंचता है।
[[File:Mutual exclusion example with linked list.png|thumb|दो नोड, {{mvar|i}} और {{math|''i'' + 1}}, एक साथ हटाए जाने के परिणामस्वरूप नोड {{math|''i'' + 1}} हटाया नहीं जा रहा है।]][[कंप्यूटर विज्ञान]] में, पारस्परिक बहिष्करण संगामिति नियंत्रण की एक संपत्ति है, जिसे [[दौड़ की स्थिति]] को रोकने के उद्देश्य से स्थापित किया गया है। यह आवश्यक है कि एक धागा (कंप्यूटिंग) कभी भी एक महत्वपूर्ण खंड में प्रवेश न करे, जबकि निष्पादन का एक [[समवर्ती कंप्यूटिंग]] धागा पहले से ही उक्त महत्वपूर्ण खंड तक पहुंच रहा है, जो उस समय के अंतराल को संदर्भित करता है जिसके समय निष्पादन का एक धागा [[साझा संसाधन]] या साझा मेमोरी तक पहुंचता है।


साझा संसाधन एक [[डेटा वस्तु]] है, जिसे दो या दो से अधिक समवर्ती धागे संशोधित करने का प्रयास कर रहे हैं (जहां दो समवर्ती पढ़ने के संचालन की अनुमति है लेकिन, कोई दो समवर्ती लेखन संचालन या एक पढ़ने और एक लिखने की अनुमति नहीं है, क्योंकि यह डेटा असंगतता की ओर जाता है)। म्युचुअल एक्सक्लूज़न एल्गोरिदम यह सुनिश्चित करते हैं कि यदि कोई प्रक्रिया पहले से ही डेटा ऑब्जेक्ट [[[ महत्वपूर्ण अनुभाग ]]] पर राइट ऑपरेशन कर रही है, तो किसी अन्य प्रोसेस/थ्रेड को उसी ऑब्जेक्ट को एक्सेस/संशोधित करने की अनुमति नहीं है, जब तक कि पहली प्रक्रिया डेटा ऑब्जेक्ट [क्रिटिकल सेक्शन] पर लिखना समाप्त नहीं कर देती। और अन्य प्रक्रियाओं को पढ़ने और लिखने के लिए वस्तु को जारी किया।
साझा संसाधन एक [[डेटा वस्तु]] है, जिसे दो या दो से अधिक समवर्ती धागे संशोधित करने का प्रयास कर रहे हैं (जहां दो समवर्ती पढ़ने के संचालन की अनुमति है लेकिन, कोई दो समवर्ती लेखन संचालन या एक पढ़ने और एक लिखने की अनुमति नहीं है, क्योंकि यह डेटा असंगतता की ओर जाता है)। आपसी बहिष्कार एल्गोरिदम यह सुनिश्चित करते हैं कि यदि कोई प्रक्रिया पहले से ही डेटा ऑब्जेक्ट [[[ महत्वपूर्ण अनुभाग ]]] पर राइट ऑपरेशन कर रही है, तो किसी अन्य प्रोसेस/थ्रेड को उसी ऑब्जेक्ट को एक्सेस/संशोधित करने की अनुमति नहीं है, जब तक कि पहली प्रक्रिया डेटा ऑब्जेक्ट [क्रिटिकल अनुभाग ] पर लिखना समाप्त नहीं कर देती। और अन्य प्रक्रियाओं को पढ़ने और लिखने के लिए वस्तु को जारी किया है।


पारस्परिक बहिष्करण की आवश्यकता को सबसे पहले एड्जर डब्ल्यू. डिज्कस्ट्रा ने अपने मौलिक 1965 के शोध पत्र समवर्ती प्रोग्रामिंग नियंत्रण में एक समस्या का समाधान में पहचाना और हल किया था।<ref>{{cite journal|last=Dijkstra|first=E. W.|title=समवर्ती प्रोग्रामिंग नियंत्रण में समस्या का समाधान|journal=Communications of the ACM|volume=8|issue=9|pages=569|doi=10.1145/365559.365617|year=1965|s2cid=19357737}}</ref><ref name="Taubenfeld:2004">Taubenfeld, [http://www.cs.tau.ac.il/~afek/gadi.pdf "The Black-White Bakery Algorithm"]. In Proc. Distributed Computing, 18th international conference, DISC 2004. Vol 18, 56–70, 2004</ref> जिसे समवर्ती एल्गोरिदम के अध्ययन में पहले विषय के रूप में श्रेय दिया जाता है।<ref>{{Citation | url=http://www.podc.org/influential/2002.html | title=PODC Influential Paper Award: 2002 | work=ACM Symposium on Principles of Distributed Computing | access-date=24 August 2009}}</ref>
पारस्परिक बहिष्करण की आवश्यकता को सबसे पहले एड्जर डब्ल्यू. डिज्कस्ट्रा ने अपने मौलिक 1965 के शोध पत्र समवर्ती प्रोग्रामिंग नियंत्रण में एक समस्या का समाधान में पहचाना और हल किया था।<ref>{{cite journal|last=Dijkstra|first=E. W.|title=समवर्ती प्रोग्रामिंग नियंत्रण में समस्या का समाधान|journal=Communications of the ACM|volume=8|issue=9|pages=569|doi=10.1145/365559.365617|year=1965|s2cid=19357737}}</ref><ref name="Taubenfeld:2004">Taubenfeld, [http://www.cs.tau.ac.il/~afek/gadi.pdf "The Black-White Bakery Algorithm"]. In Proc. Distributed Computing, 18th international conference, DISC 2004. Vol 18, 56–70, 2004</ref> जिसे समवर्ती एल्गोरिदम के अध्ययन में पहले विषय के रूप में श्रेय दिया जाता है।<ref>{{Citation | url=http://www.podc.org/influential/2002.html | title=PODC Influential Paper Award: 2002 | work=ACM Symposium on Principles of Distributed Computing | access-date=24 August 2009}}</ref>
व्यवहार में पारस्परिक बहिष्करण क्यों महत्वपूर्ण है इसका एक सरल उदाहरण चार मदों की एकल लिंक्ड सूची का उपयोग करके देखा जा सकता है, जहां दूसरे और तीसरे को हटाया जाना है। एक नोड को हटाना जो दो अन्य नोड्स के बीच बैठता है, पिछले नोड के अगले [[ सूचक (कंप्यूटर प्रोग्रामिंग) ]] को अगले नोड को इंगित करने के लिए बदलकर किया जाता है (दूसरे शब्दों में, यदि नोड {{mvar|i}} को हटाया जा रहा है, तो नोड का अगला सूचक {{math|''i'' – 1}} को बिंदु से नोड में बदल दिया गया है {{math|''i'' + 1}}, जिससे लिंक की गई सूची से नोड का कोई भी संदर्भ हटा दिया जाता है {{mvar|i}}). जब इस तरह की एक लिंक की गई सूची निष्पादन के कई थ्रेड्स के बीच साझा की जा रही है, तो निष्पादन के दो थ्रेड्स एक साथ दो अलग-अलग नोड्स को हटाने का प्रयास कर सकते हैं, निष्पादन का एक थ्रेड नोड के अगले पॉइंटर को बदल देता है {{math|''i'' – 1}} नोड को इंगित करने के लिए {{math|''i'' + 1}}, जबकि निष्पादन का एक और धागा नोड के अगले सूचक को बदलता है {{mvar|i}} नोड को इंगित करने के लिए {{math|''i'' + 2}}. हालाँकि दोनों निष्कासन कार्य सफलतापूर्वक पूर्ण हो गए हैं, लेकिन लिंक की गई सूची की वांछित स्थिति प्राप्त नहीं हुई है: नोड {{math|''i'' + 1}} सूची में रहता है, क्योंकि नोड का अगला सूचक {{math|''i'' – 1}} नोड को इंगित करता है {{math|''i'' + 1}}.


इस समस्या (जिसे दौड़ की स्थिति कहा जाता है) को पारस्परिक बहिष्करण की आवश्यकता का उपयोग करके यह सुनिश्चित करने के लिए टाला जा सकता है कि सूची के एक ही हिस्से में एक साथ अद्यतन नहीं हो सकते।
व्यवहार में पारस्परिक बहिष्करण क्यों महत्वपूर्ण है इसका एक सरल उदाहरण चार मदों की एकल लिंक्ड सूची का उपयोग करके देखा जा सकता है, जहां दूसरे और तीसरे को हटाया जाना है। एक नोड को हटाना जो दो अन्य नोड्स के बीच बैठता है, पिछले नोड के अगले [[ सूचक (कंप्यूटर प्रोग्रामिंग) | सूचक (कंप्यूटर प्रोग्रामिंग)]] को अगले नोड को इंगित करने के लिए बदलकर किया जाता है (दूसरे शब्दों में, यदि नोड {{mvar|i}} को हटाया जा रहा है, तो नोड का अगला सूचक {{math|''i'' – 1}} को बिंदु से नोड में बदल दिया गया है {{math|''i'' + 1}}, जिससे लिंक की गई सूची से नोड का कोई भी संदर्भ हटा दिया जाता है {{mvar|i}}). जब इस तरह की एक लिंक की गई सूची निष्पादन के कई थ्रेड्स के बीच साझा की जा रही है, तो निष्पादन के दो थ्रेड्स एक साथ दो अलग-अलग नोड्स को हटाने का प्रयास कर सकते हैं, निष्पादन का एक थ्रेड नोड के अगले पॉइंटर को बदल देता है {{math|''i'' – 1}} नोड को इंगित करने के लिए {{math|''i'' + 1}}, जबकि निष्पादन का एक और धागा नोड के अगले सूचक को बदलता है {{mvar|i}} नोड को इंगित करने के लिए {{math|''i'' + 2}}. चुकीं दोनों निष्कासन कार्य सफलतापूर्वक पूर्ण हो गए हैं, लेकिन लिंक की गई सूची की वांछित स्थिति प्राप्त नहीं हुई है: नोड {{math|''i'' + 1}} सूची में रहता है, क्योंकि नोड का अगला सूचक {{math|''i'' – 1}} नोड {{math|''i'' + 1}} को इंगित करता है '''{{math|''i'' + 1}}'''.
 
इस समस्या (जिसे दौड़ की स्थिति कहा जाता है) को पारस्परिक बहिष्करण की आवश्यकता का उपयोग करके यह सुनिश्चित करने के लिए टाला जा सकता है कि सूची के एक ही भागों में एक साथ अद्यतन नहीं हो सकते।


परस्पर बहिष्करण शब्द का उपयोग एक मेमोरी एड्रेस के एक साथ एक थ्रेड द्वारा लिखने के संदर्भ में भी किया जाता है, जबकि उपरोक्त मेमोरी एड्रेस को एक या अधिक अन्य थ्रेड्स द्वारा हेरफेर या पढ़ा जा रहा है।
परस्पर बहिष्करण शब्द का उपयोग एक मेमोरी एड्रेस के एक साथ एक थ्रेड द्वारा लिखने के संदर्भ में भी किया जाता है, जबकि उपरोक्त मेमोरी एड्रेस को एक या अधिक अन्य थ्रेड्स द्वारा हेरफेर या पढ़ा जा रहा है।
Line 18: Line 19:


इस समस्या के सफल समाधान में कम से कम ये दो गुण होने चाहिए:
इस समस्या के सफल समाधान में कम से कम ये दो गुण होने चाहिए:
* इसे आपसी बहिष्कार को लागू करना चाहिए: एक समय में केवल एक ही प्रक्रिया महत्वपूर्ण खंड में हो सकती है।
* इसे आपसी बहिष्कार को प्रयुक्त करना चाहिए: एक समय में केवल एक ही प्रक्रिया महत्वपूर्ण खंड में हो सकती है।
* यह [[गतिरोध]] से मुक्त होना चाहिए: यदि प्रक्रियाएं महत्वपूर्ण खंड में प्रवेश करने का प्रयास कर रही हैं, तो उनमें से एक को अंततः सफलतापूर्वक ऐसा करने में सक्षम होना चाहिए, बशर्ते कोई प्रक्रिया स्थायी रूप से महत्वपूर्ण खंड में न रहे।
* यह [[गतिरोध]] से मुक्त होना चाहिए: यदि प्रक्रियाएं महत्वपूर्ण खंड में प्रवेश करने का प्रयास कर रही हैं, तो उनमें से एक को अंततः सफलतापूर्वक ऐसा करने में सक्षम होना चाहिए, बशर्ते कोई प्रक्रिया स्थायी रूप से महत्वपूर्ण खंड में न रहे।


इनमें से एक या दोनों गुणों को लागू करने के लिए डेडलॉक स्वतंत्रता का विस्तार किया जा सकता है:
इनमें से एक या दोनों गुणों को प्रयुक्त करने के लिए डेडलॉक स्वतंत्रता का विस्तार किया जा सकता है:
* तालाबंदी-स्वतंत्रता गारंटी देती है कि महत्वपूर्ण खंड में प्रवेश करने की इच्छा रखने वाली कोई भी प्रक्रिया अंततः ऐसा करने में सक्षम होगी। यह गतिरोध परिहार से अलग है, जिसके लिए आवश्यक है कि कुछ प्रतीक्षा प्रक्रिया महत्वपूर्ण खंड तक पहुँच प्राप्त करने में सक्षम हो, लेकिन इसके लिए यह आवश्यक नहीं है कि प्रत्येक प्रक्रिया को एक मोड़ मिले। यदि दो प्रक्रियाएं लगातार उनके बीच एक संसाधन का व्यापार करती हैं, तो एक तीसरी प्रक्रिया को लॉक किया जा सकता है और [[भुखमरी (कंप्यूटर विज्ञान)]] का अनुभव हो सकता है, भले ही सिस्टम गतिरोध में न हो। यदि कोई सिस्टम तालाबंदी से मुक्त है, तो यह सुनिश्चित करता है कि प्रत्येक प्रक्रिया को भविष्य में किसी बिंदु पर मोड़ मिल सकता है।
* तालाबंदी-स्वतंत्रता गारंटी देती है कि महत्वपूर्ण खंड में प्रवेश करने की इच्छा रखने वाली कोई भी प्रक्रिया अंततः ऐसा करने में सक्षम होगी। यह गतिरोध परिहार से अलग है, जिसके लिए आवश्यक है कि कुछ प्रतीक्षा प्रक्रिया महत्वपूर्ण खंड तक पहुँच प्राप्त करने में सक्षम हो, लेकिन इसके लिए यह आवश्यक नहीं है कि प्रत्येक प्रक्रिया को एक मोड़ मिले। यदि दो प्रक्रियाएं लगातार उनके बीच एक संसाधन का व्यापार करती हैं, तो एक तीसरी प्रक्रिया को लॉक किया जा सकता है और [[भुखमरी (कंप्यूटर विज्ञान)]] का अनुभव हो सकता है, भले ही सिस्टम गतिरोध में न हो। यदि कोई सिस्टम तालाबंदी से मुक्त है, तो यह सुनिश्चित करता है कि प्रत्येक प्रक्रिया को भविष्य में किसी बिंदु पर मोड़ मिल सकता है।
* एक k-बाउंडेड वेटिंग प्रॉपर्टी लॉकआउट-फ्रीडम की तुलना में अधिक सटीक प्रतिबद्धता देती है। तालाबंदी-स्वतंत्रता सुनिश्चित करती है कि प्रत्येक प्रक्रिया अंततः महत्वपूर्ण खंड तक पहुंच सकती है: यह इस बात की कोई गारंटी नहीं देती है कि प्रतीक्षा कितनी लंबी होगी। व्यवहार में, एक प्रक्रिया को अपनी बारी आने से पहले अन्य उच्च-प्राथमिकता वाली प्रक्रियाओं द्वारा मनमाना या असीमित संख्या में आगे बढ़ाया जा सकता है। के-बाउंड वेटिंग प्रॉपर्टी के तहत, प्रत्येक प्रक्रिया में अधिकतम प्रतीक्षा समय होता है। यह कई बार अन्य प्रक्रियाओं को लाइन में कटौती करने की सीमा निर्धारित करके काम करता है, ताकि कोई भी प्रक्रिया महत्वपूर्ण खंड में K बार से अधिक प्रवेश न कर सके, जबकि कोई अन्य प्रतीक्षा कर रहा हो।<ref name="Distributed computing: fundamentals, simulations, and advanced topics">{{cite book|last1=Attiya|first1=Hagit|last2=Welch|first2=Jennifer|title=Distributed computing: fundamentals, simulations, and advanced topics|date=25 March 2004|publisher=John Wiley & Sons, Inc.|isbn=978-0-471-45324-6|url=http://ca.wiley.com/WileyCDA/WileyTitle/productCd-0471453242.html}}</ref>
* एक k-बाउंडेड वेटिंग प्रॉपर्टी लॉकआउट-फ्रीडम की तुलना में अधिक सटीक प्रतिबद्धता देती है। तालाबंदी-स्वतंत्रता सुनिश्चित करती है कि प्रत्येक प्रक्रिया अंततः महत्वपूर्ण खंड तक पहुंच सकती है: यह इस बात की कोई गारंटी नहीं देती है कि प्रतीक्षा कितनी लंबी होगी। व्यवहार में, एक प्रक्रिया को अपनी बारी आने से पहले अन्य उच्च-प्राथमिकता वाली प्रक्रियाओं द्वारा मनमाना या असीमित संख्या में आगे बढ़ाया जा सकता है। k-बाउंड वेटिंग प्रॉपर्टी के अंतर्गत, प्रत्येक प्रक्रिया में अधिकतम प्रतीक्षा समय होता है। यह कई बार अन्य प्रक्रियाओं को लाइन में कटौती करने की सीमा निर्धारित करके काम करता है, ताकि कोई भी प्रक्रिया महत्वपूर्ण खंड में K बार से अधिक प्रवेश न कर सके, जबकि कोई अन्य प्रतीक्षा कर रहा हो।<ref name="Distributed computing: fundamentals, simulations, and advanced topics">{{cite book|last1=Attiya|first1=Hagit|last2=Welch|first2=Jennifer|title=Distributed computing: fundamentals, simulations, and advanced topics|date=25 March 2004|publisher=John Wiley & Sons, Inc.|isbn=978-0-471-45324-6|url=http://ca.wiley.com/WileyCDA/WileyTitle/productCd-0471453242.html}}</ref>
प्रत्येक प्रक्रिया के कार्यक्रम को चार वर्गों में विभाजित किया जा सकता है, जिसके परिणामस्वरूप चार अवस्थाएँ होती हैं। क्रम में इन चार राज्यों के माध्यम से कार्यक्रम निष्पादन चक्र:<ref>{{Citation | url=http://research.microsoft.com/en-us/um/people/lamport/pubs/mutual2.pdf | last=Lamport | first=Leslie | title = The Mutual Exclusion Problem Part II: Statement and Solutions | journal=Journal of the Association for Computing Machinery |date = 26 June 2000| volume=33 | issue=2 | pages=313–348 | doi=10.1145/5383.5384 | s2cid=12012739 }}</ref>
प्रत्येक प्रक्रिया के कार्यक्रम को चार वर्गों में विभाजित किया जा सकता है, जिसके परिणामस्वरूप चार अवस्थाएँ होती हैं। क्रम में इन चार स्थितियों के माध्यम से कार्यक्रम निष्पादन चक्र:<ref>{{Citation | url=http://research.microsoft.com/en-us/um/people/lamport/pubs/mutual2.pdf | last=Lamport | first=Leslie | title = The Mutual Exclusion Problem Part II: Statement and Solutions | journal=Journal of the Association for Computing Machinery |date = 26 June 2000| volume=33 | issue=2 | pages=313–348 | doi=10.1145/5383.5384 | s2cid=12012739 }}</ref>
[[File:State graph 2.png|thumb|एकल प्रक्रिया के वर्गों का चक्र]];नॉन-क्रिटिकल सेक्शन: ऑपरेशन क्रिटिकल सेक्शन के बाहर है; प्रक्रिया साझा संसाधन का उपयोग या अनुरोध नहीं कर रही है।
[[File:State graph 2.png|thumb|एकल प्रक्रिया के वर्गों का चक्र]];नॉन-क्रिटिकल अनुभाग: ऑपरेशन क्रिटिकल अनुभाग के बाहर है; प्रक्रिया साझा संसाधन का उपयोग या अनुरोध नहीं कर रही है।


कोशिश कर रहा है: प्रक्रिया महत्वपूर्ण खंड में प्रवेश करने का प्रयास करती है।
प्रयास कर रहा है: प्रक्रिया महत्वपूर्ण खंड में प्रवेश करने का प्रयास करती है।


क्रिटिकल सेक्शन: प्रक्रिया को इस सेक्शन में साझा संसाधन तक पहुंचने की अनुमति है।
क्रिटिकल अनुभाग: प्रक्रिया को इस अनुभाग में साझा संसाधन तक पहुंचने की अनुमति है।


बाहर निकलें: प्रक्रिया महत्वपूर्ण खंड को छोड़ देती है और साझा संसाधनों को अन्य प्रक्रियाओं के लिए उपलब्ध कराती है।
बाहर निकलें: प्रक्रिया महत्वपूर्ण खंड को छोड़ देती है और साझा संसाधनों को अन्य प्रक्रियाओं के लिए उपलब्ध कराती है।


यदि कोई प्रक्रिया महत्वपूर्ण खंड में प्रवेश करना चाहती है, तो उसे पहले कोशिश करने वाले खंड को निष्पादित करना होगा और तब तक प्रतीक्षा करनी होगी जब तक कि वह महत्वपूर्ण खंड तक पहुंच प्राप्त न कर ले। प्रक्रिया के अपने महत्वपूर्ण खंड को निष्पादित करने और साझा संसाधनों के साथ समाप्त होने के बाद, इसे अन्य प्रक्रियाओं के उपयोग के लिए जारी करने के लिए निकास अनुभाग को निष्पादित करने की आवश्यकता होती है। प्रक्रिया फिर अपने गैर-महत्वपूर्ण खंड में वापस आती है।
यदि कोई प्रक्रिया महत्वपूर्ण खंड में प्रवेश करना चाहती है, तो उसे पहले प्रयास करने वाले खंड को निष्पादित करना होगा और तब तक प्रतीक्षा करनी होगी जब तक कि वह महत्वपूर्ण खंड तक पहुंच प्राप्त न कर ले। प्रक्रिया के अपने महत्वपूर्ण खंड को निष्पादित करने और साझा संसाधनों के साथ समाप्त होने के बाद, इसे अन्य प्रक्रियाओं के उपयोग के लिए जारी करने के लिए निकास अनुभाग को निष्पादित करने की आवश्यकता होती है। प्रक्रिया फिर अपने गैर-महत्वपूर्ण खंड में वापस आती है।


== आपसी बहिष्कार लागू करना ==
== आपसी बहिष्कार प्रयुक्त करना ==


=== हार्डवेयर समाधान ===
=== हार्डवेयर समाधान ===
[[ यूनिप्रोसेसर प्रणाली ]]|यूनी-प्रोसेसर सिस्टम पर, पारस्परिक बहिष्करण प्राप्त करने का सबसे सरल समाधान एक प्रक्रिया के महत्वपूर्ण खंड के दौरान व्यवधानों को अक्षम करना है। यह किसी भी बाधित सेवा रूटीन को चलने से रोकेगा (प्रभावी रूप से एक प्रक्रिया को प्रीमेशन (कंप्यूटिंग) होने से रोकता है)। हालांकि यह समाधान प्रभावी है, यह कई समस्याओं को जन्म देता है। यदि कोई महत्वपूर्ण खंड लंबा है, तो हर बार एक महत्वपूर्ण खंड निष्पादित होने पर [[ सिस्टम की घड़ी ]] ड्रिफ्ट हो जाएगा क्योंकि टाइमर व्यवधान अब सर्विस नहीं किया जाता है, इसलिए महत्वपूर्ण खंड के दौरान ट्रैकिंग समय असंभव है। इसके अलावा, यदि कोई प्रक्रिया अपने महत्वपूर्ण खंड के दौरान रुक जाती है, तो नियंत्रण कभी भी दूसरी प्रक्रिया में वापस नहीं आएगा, प्रभावी रूप से पूरे सिस्टम को रोक देगा। आपसी बहिष्कार को प्राप्त करने के लिए व्यस्त-प्रतीक्षा एक अधिक सुरुचिपूर्ण तरीका है।
[[ यूनिप्रोसेसर प्रणाली ]]|यूनी-प्रोसेसर सिस्टम पर, पारस्परिक बहिष्करण प्राप्त करने का सबसे सरल समाधान एक प्रक्रिया के महत्वपूर्ण खंड के समय व्यवधानों को अक्षम करना है। यह किसी भी बाधित सेवा रूटीन को चलने से रोकेगा (प्रभावी रूप से एक प्रक्रिया को प्रीमेशन (कंप्यूटिंग) होने से रोकता है)। हालांकि यह समाधान प्रभावी है, यह कई समस्याओं को जन्म देता है। यदि कोई महत्वपूर्ण खंड लंबा है, तो हर बार एक महत्वपूर्ण खंड निष्पादित होने पर [[ सिस्टम की घड़ी ]] ड्रिफ्ट हो जाएगा क्योंकि टाइमर व्यवधान अब सर्विस नहीं किया जाता है, इसलिए महत्वपूर्ण खंड के समय ट्रैकिंग समय असंभव है। इसके अलावा, यदि कोई प्रक्रिया अपने महत्वपूर्ण खंड के समय रुक जाती है, तो नियंत्रण कभी भी दूसरी प्रक्रिया में वापस नहीं आएगा, प्रभावी रूप से पूरे सिस्टम को रोक देगा। आपसी बहिष्कार को प्राप्त करने के लिए व्यस्त-प्रतीक्षा एक अधिक सुरुचिपूर्ण तरीका है।


बिजी-वेटिंग यूनिप्रोसेसर और [[मल्टीप्रोसेसर]] सिस्टम दोनों के लिए प्रभावी है। साझा मेमोरी का उपयोग और एक [[रैखिकता]] परीक्षण-और-सेट निर्देश पारस्परिक बहिष्करण प्रदान करते हैं। एक प्रक्रिया साझा मेमोरी में किसी स्थान पर [[परीक्षण और सेट]] कर सकती है, और चूंकि ऑपरेशन परमाणु है, एक समय में केवल एक ही प्रक्रिया ध्वज सेट कर सकती है। कोई भी प्रक्रिया जो फ़्लैग सेट करने में असफल होती है, वह या तो अन्य कार्य कर सकती है और बाद में पुनः प्रयास कर सकती है, प्रोसेसर को किसी अन्य प्रक्रिया के लिए रिलीज़ कर सकती है और बाद में पुनः प्रयास कर सकती है, या फ़्लैग की जाँच करते समय तब तक लूप करना जारी रख सकती है जब तक कि वह इसे प्राप्त करने में सफल न हो जाए। प्रीमेशन (कंप्यूटिंग) अभी भी संभव है, इसलिए यह विधि सिस्टम को कार्य करना जारी रखने की अनुमति देती है - भले ही लॉक को पकड़ते समय कोई प्रक्रिया रुक जाए।
बिजी-वेटिंग यूनिप्रोसेसर और [[मल्टीप्रोसेसर]] सिस्टम दोनों के लिए प्रभावी है। साझा मेमोरी का उपयोग और एक [[रैखिकता]] परीक्षण-और-सेट निर्देश पारस्परिक बहिष्करण प्रदान करते हैं। एक प्रक्रिया साझा मेमोरी में किसी स्थान पर [[परीक्षण और सेट]] कर सकती है, और चूंकि ऑपरेशन परमाणु है, एक समय में केवल एक ही प्रक्रिया ध्वज सेट कर सकती है। कोई भी प्रक्रिया जो फ़्लैग सेट करने में असफल होती है, वह या तो अन्य कार्य कर सकती है और बाद में पुनः प्रयास कर सकती है, प्रोसेसर को किसी अन्य प्रक्रिया के लिए रिलीज़ कर सकती है और बाद में पुनः प्रयास कर सकती है, या फ़्लैग की जाँच करते समय तब तक लूप करना जारी रख सकती है जब तक कि वह इसे प्राप्त करने में सफल न हो जाए। प्रीमेशन (कंप्यूटिंग) अभी भी संभव है, इसलिए यह विधि सिस्टम को कार्य करना जारी रखने की अनुमति देती है - भले ही लॉक को पकड़ते समय कोई प्रक्रिया रुक जाए।


डेटा संरचनाओं के पारस्परिक बहिष्करण प्रदान करने के लिए कई अन्य परमाणु संचालनों का उपयोग किया जा सकता है; इनमें से सबसे उल्लेखनीय तुलना-और-स्वैप (CAS) है। CAS का उपयोग किसी भी साझा डेटा संरचना के लिए एक [[लिंक्ड सूची]] बनाकर प्रतीक्षा-मुक्त पारस्परिक बहिष्करण प्राप्त करने के लिए किया जा सकता है, जहाँ प्रत्येक नोड प्रदर्शन किए जाने वाले वांछित ऑपरेशन का प्रतिनिधित्व करता है। CAS का उपयोग तब लिंक की गई सूची में पॉइंटर (कंप्यूटर प्रोग्रामिंग) को बदलने के लिए किया जाता है<ref>{{cite journal |last1=Harris |first1=Timothy L. |title=गैर-अवरुद्ध लिंक्ड-सूचियों का एक व्यावहारिक कार्यान्वयन|journal=Distributed Computing |series=Lecture Notes in Computer Science |date=2001 |volume=2180 |pages=300–314 |doi=10.1007/3-540-45414-4_21 |isbn=978-3-540-42605-9 |url=https://timharris.uk/papers/2001-disc.pdf |access-date=1 December 2022 |language=en}}</ref> एक नए नोड के सम्मिलन के दौरान। इसके CAS में केवल एक ही प्रक्रिया सफल हो सकती है; एक ही समय में एक नोड जोड़ने का प्रयास करने वाली अन्य सभी प्रक्रियाओं को फिर से प्रयास करना होगा। प्रत्येक प्रक्रिया तब डेटा संरचना की एक स्थानीय प्रति रख सकती है, और लिंक की गई सूची को पार करने पर, सूची से प्रत्येक ऑपरेशन को उसकी स्थानीय प्रति पर निष्पादित कर सकती है।
डेटा संरचनाओं के पारस्परिक बहिष्करण प्रदान करने के लिए कई अन्य परमाणु संचालनों का उपयोग किया जा सकता है; इनमें से सबसे उल्लेखनीय तुलना-और-स्वैप (CAS) है। CAS का उपयोग किसी भी साझा डेटा संरचना के लिए एक [[लिंक्ड सूची]] बनाकर प्रतीक्षा-मुक्त पारस्परिक बहिष्करण प्राप्त करने के लिए किया जा सकता है, जहाँ प्रत्येक नोड प्रदर्शन किए जाने वाले वांछित ऑपरेशन का प्रतिनिधित्व करता है। CAS का उपयोग तब लिंक की गई सूची में पॉइंटर (कंप्यूटर प्रोग्रामिंग) को बदलने के लिए किया जाता है<ref>{{cite journal |last1=Harris |first1=Timothy L. |title=गैर-अवरुद्ध लिंक्ड-सूचियों का एक व्यावहारिक कार्यान्वयन|journal=Distributed Computing |series=Lecture Notes in Computer Science |date=2001 |volume=2180 |pages=300–314 |doi=10.1007/3-540-45414-4_21 |isbn=978-3-540-42605-9 |url=https://timharris.uk/papers/2001-disc.pdf |access-date=1 December 2022 |language=en}}</ref> एक नए नोड के सम्मिलन के समय। इसके CAS में केवल एक ही प्रक्रिया सफल हो सकती है; एक ही समय में एक नोड जोड़ने का प्रयास करने वाली अन्य सभी प्रक्रियाओं को फिर से प्रयास करना होगा। प्रत्येक प्रक्रिया तब डेटा संरचना की एक स्थानीय प्रति रख सकती है, और लिंक की गई सूची को पार करने पर, सूची से प्रत्येक ऑपरेशन को उसकी स्थानीय प्रति पर निष्पादित कर सकती है।


=== सॉफ्टवेयर समाधान ===
=== सॉफ्टवेयर समाधान ===
Line 53: Line 54:


ये एल्गोरिदम काम नहीं करते हैं यदि उन्हें निष्पादित करने वाले प्लेटफॉर्म पर [[आउट-ऑफ-ऑर्डर निष्पादन]] का उपयोग किया जाता है। प्रोग्रामर को एक थ्रेड के भीतर मेमोरी ऑपरेशंस पर सख्त ऑर्डर देना होता है।<ref>{{cite journal|last=Holzmann|first=Gerard J.|author2=Bosnacki, Dragan|title=स्पिन मॉडल चेकर के मल्टीकोर एक्सटेंशन का डिज़ाइन|journal=IEEE Transactions on Software Engineering|date=1 October 2007|volume=33|issue=10|pages=659–674|doi=10.1109/TSE.2007.70724|s2cid=9080331|url=https://pure.tue.nl/ws/files/2357048/Metis212904.pdf |archive-url=https://ghostarchive.org/archive/20221009/https://pure.tue.nl/ws/files/2357048/Metis212904.pdf |archive-date=2022-10-09 |url-status=live}}</ref>
ये एल्गोरिदम काम नहीं करते हैं यदि उन्हें निष्पादित करने वाले प्लेटफॉर्म पर [[आउट-ऑफ-ऑर्डर निष्पादन]] का उपयोग किया जाता है। प्रोग्रामर को एक थ्रेड के भीतर मेमोरी ऑपरेशंस पर सख्त ऑर्डर देना होता है।<ref>{{cite journal|last=Holzmann|first=Gerard J.|author2=Bosnacki, Dragan|title=स्पिन मॉडल चेकर के मल्टीकोर एक्सटेंशन का डिज़ाइन|journal=IEEE Transactions on Software Engineering|date=1 October 2007|volume=33|issue=10|pages=659–674|doi=10.1109/TSE.2007.70724|s2cid=9080331|url=https://pure.tue.nl/ws/files/2357048/Metis212904.pdf |archive-url=https://ghostarchive.org/archive/20221009/https://pure.tue.nl/ws/files/2357048/Metis212904.pdf |archive-date=2022-10-09 |url-status=live}}</ref>
[[ऑपरेटिंग सिस्टम]] की मल्टीथ्रेडिंग लाइब्रेरी द्वारा प्रदान की गई सिंक्रोनाइज़ेशन सुविधाओं का उपयोग करना अक्सर बेहतर होता है, जो यदि संभव हो तो हार्डवेयर समाधानों का लाभ उठाएगा लेकिन यदि कोई हार्डवेयर समाधान मौजूद नहीं है तो सॉफ़्टवेयर समाधानों का उपयोग करेगा। उदाहरण के लिए, जब ऑपरेटिंग सिस्टम की [[ ताला (कंप्यूटर विज्ञान) ]] लाइब्रेरी का उपयोग किया जाता है और थ्रेड पहले से प्राप्त लॉक को प्राप्त करने का प्रयास करता है, तो ऑपरेटिंग सिस्टम [[संदर्भ स्विच]] का उपयोग करके थ्रेड को निलंबित कर सकता है और इसे चलाने के लिए तैयार किसी अन्य थ्रेड से स्वैप कर सकता है। , या उस प्रोसेसर को कम पावर स्थिति में रख सकता है यदि कोई अन्य थ्रेड नहीं चलाया जा सकता है। इसलिए, अधिकांश आधुनिक परस्पर बहिष्करण विधियाँ पंक्तिबद्ध और संदर्भ स्विच का उपयोग करके [[विलंबता (इंजीनियरिंग)]] और व्यस्त-प्रतीक्षा को कम करने का प्रयास करती हैं। हालाँकि, यदि किसी थ्रेड को निलंबित करने और फिर उसे पुनर्स्थापित करने में लगने वाला समय हमेशा उस समय से अधिक साबित हो सकता है, जो किसी विशेष स्थिति में अवरुद्ध होने के बाद थ्रेड के लिए तैयार होने के लिए प्रतीक्षा की जानी चाहिए, तो [[ spinlock ]] एक स्वीकार्य हैं समाधान (केवल उस स्थिति के लिए)।{{citation needed|date=August 2015}}
[[ऑपरेटिंग सिस्टम]] की मल्टीथ्रेडिंग लाइब्रेरी द्वारा प्रदान की गई सिंक्रोनाइज़ेशन सुविधाओं का उपयोग करना अक्सर बेहतर होता है, जो यदि संभव हो तो हार्डवेयर समाधानों का लाभ उठाएगा लेकिन यदि कोई हार्डवेयर समाधान मौजूद नहीं है तो सॉफ़्टवेयर समाधानों का उपयोग करेगा। उदाहरण के लिए, जब ऑपरेटिंग सिस्टम की [[ ताला (कंप्यूटर विज्ञान) ]] लाइब्रेरी का उपयोग किया जाता है और थ्रेड पहले से प्राप्त लॉक को प्राप्त करने का प्रयास करता है, तो ऑपरेटिंग सिस्टम [[संदर्भ स्विच]] का उपयोग करके थ्रेड को निलंबित कर सकता है और इसे चलाने के लिए तैयार किसी अन्य थ्रेड से स्वैप कर सकता है। , या उस प्रोसेसर को कम पावर स्थिति में रख सकता है यदि कोई अन्य थ्रेड नहीं चलाया जा सकता है। इसलिए, अधिकांश आधुनिक परस्पर बहिष्करण विधियाँ पंक्तिबद्ध और संदर्भ स्विच का उपयोग करके [[विलंबता (इंजीनियरिंग)]] और व्यस्त-प्रतीक्षा को कम करने का प्रयास करती हैं। चुकीं, यदि किसी थ्रेड को निलंबित करने और फिर उसे पुनर्स्थापित करने में लगने वाला समय हमेशा उस समय से अधिक साबित हो सकता है, जो किसी विशेष स्थिति में अवरुद्ध होने के बाद थ्रेड के लिए तैयार होने के लिए प्रतीक्षा की जानी चाहिए, तो [[ spinlock ]] एक स्वीकार्य हैं समाधान (केवल उस स्थिति के लिए)।{{citation needed|date=August 2015}}


== पारस्परिक बहिष्करण समस्या पर बाध्य ==
== पारस्परिक बहिष्करण समस्या पर बाध्य ==


आपसी बहिष्करण समस्या का डेडलॉक-मुक्त समाधान प्रदान करने के लिए एक बाइनरी टेस्ट-एंड-सेट | टेस्ट और सेट रजिस्टर पर्याप्त है। लेकिन एक परीक्षण और सेट रजिस्टर के साथ बनाया गया एक समाधान संभवतः कुछ प्रक्रियाओं की भुखमरी का कारण बन सकता है जो कोशिश करने वाले खंड में फंस जाती हैं।<ref name="Distributed computing: fundamentals, simulations, and advanced topics"/>वास्तव में, <math>\Omega(\sqrt{n})</math> लॉकआउट से बचने के लिए अलग-अलग मेमोरी स्टेट्स की आवश्यकता होती है। अनबाउंड वेटिंग से बचने के लिए, अलग-अलग मेमोरी स्टेट्स की आवश्यकता होती है।<ref>{{Citation | url=http://research.microsoft.com/en-us/um/people/lamport/pubs/mutual2.pdf | last=Burns |first=James E. |author2 = Paul Jackson, Nancy A. Lynch| title =Data Requirements for Implementation of N-Process Mutual Exclusion Using a Single Shared Variable  | journal=Journal of the Association for Computing Machinery |date = January 1982| volume=33 | issue=2 | pages=313–348 }}</ref>
आपसी बहिष्करण समस्या का डेडलॉक-मुक्त समाधान प्रदान करने के लिए एक बाइनरी टेस्ट-एंड-सेट | टेस्ट और सेट रजिस्टर पर्याप्त है। लेकिन एक परीक्षण और सेट रजिस्टर के साथ बनाया गया एक समाधान संभवतः कुछ प्रक्रियाओं की भुखमरी का कारण बन सकता है जो प्रयास करने वाले खंड में फंस जाती हैं।<ref name="Distributed computing: fundamentals, simulations, and advanced topics"/>वास्तव में, <math>\Omega(\sqrt{n})</math> लॉकआउट से बचने के लिए अलग-अलग मेमोरी स्टेट्स की आवश्यकता होती है। अनबाउंड वेटिंग से बचने के लिए, अलग-अलग मेमोरी स्टेट्स की आवश्यकता होती है।<ref>{{Citation | url=http://research.microsoft.com/en-us/um/people/lamport/pubs/mutual2.pdf | last=Burns |first=James E. |author2 = Paul Jackson, Nancy A. Lynch| title =Data Requirements for Implementation of N-Process Mutual Exclusion Using a Single Shared Variable  | journal=Journal of the Association for Computing Machinery |date = January 1982| volume=33 | issue=2 | pages=313–348 }}</ref>




== पुनर्प्राप्त करने योग्य पारस्परिक बहिष्करण ==
== पुनर्प्राप्त करने योग्य पारस्परिक बहिष्करण ==
आपसी बहिष्करण के लिए अधिकांश एल्गोरिदम इस धारणा के साथ डिज़ाइन किए गए हैं कि जब कोई प्रक्रिया महत्वपूर्ण खंड के अंदर चल रही हो तो कोई विफलता नहीं होती है। हालाँकि, वास्तव में ऐसी विफलताएँ सामान्य हो सकती हैं। उदाहरण के लिए, बिजली की अचानक हानि या दोषपूर्ण इंटरकनेक्ट एक महत्वपूर्ण खंड में एक अपरिवर्तनीय त्रुटि का अनुभव करने के लिए एक प्रक्रिया का कारण बन सकता है या अन्यथा जारी रखने में असमर्थ हो सकता है। यदि इस तरह की विफलता होती है, तो पारंपरिक, गैर-विफलता-सहिष्णु पारस्परिक बहिष्करण एल्गोरिदम गतिरोध कर सकते हैं या अन्यथा मुख्य जीवंतता गुणों को विफल कर सकते हैं। इस समस्या से निपटने के लिए क्रैश-रिकवरी तंत्र का उपयोग करते हुए कई समाधान प्रस्तावित किए गए हैं।<ref>{{Citation | chapter-url=http://dl.acm.org/citation.cfm?doid=2933057.2933087 | last=Golab|first=Wojciech|author2=Ramaraju, Aditya | title=Proceedings of the 2016 ACM Symposium on Principles of Distributed Computing|chapter = Recoverable Mutual Exclusion|date = July 2016| pages=65–74| doi=10.1145/2933057.2933087| isbn=9781450339643| s2cid=8621532}}</ref>
आपसी बहिष्करण के लिए अधिकांश एल्गोरिदम इस धारणा के साथ डिज़ाइन किए गए हैं कि जब कोई प्रक्रिया महत्वपूर्ण खंड के अंदर चल रही हो तो कोई विफलता नहीं होती है। चुकीं, वास्तव में ऐसी विफलताएँ सामान्य हो सकती हैं। उदाहरण के लिए, बिजली की अचानक हानि या दोषपूर्ण इंटरकनेक्ट एक महत्वपूर्ण खंड में एक अपरिवर्तनीय त्रुटि का अनुभव करने के लिए एक प्रक्रिया का कारण बन सकता है या अन्यथा जारी रखने में असमर्थ हो सकता है। यदि इस तरह की विफलता होती है, तो पारंपरिक, गैर-विफलता-सहिष्णु पारस्परिक बहिष्करण एल्गोरिदम गतिरोध कर सकते हैं या अन्यथा मुख्य जीवंतता गुणों को विफल कर सकते हैं। इस समस्या से निपटने के लिए क्रैश-रिकवरी तंत्र का उपयोग करते हुए कई समाधान प्रस्तावित किए गए हैं।<ref>{{Citation | chapter-url=http://dl.acm.org/citation.cfm?doid=2933057.2933087 | last=Golab|first=Wojciech|author2=Ramaraju, Aditya | title=Proceedings of the 2016 ACM Symposium on Principles of Distributed Computing|chapter = Recoverable Mutual Exclusion|date = July 2016| pages=65–74| doi=10.1145/2933057.2933087| isbn=9781450339643| s2cid=8621532}}</ref>





Revision as of 23:14, 31 May 2023

दो नोड, i और i + 1, एक साथ हटाए जाने के परिणामस्वरूप नोड i + 1 हटाया नहीं जा रहा है।

कंप्यूटर विज्ञान में, पारस्परिक बहिष्करण संगामिति नियंत्रण की एक संपत्ति है, जिसे दौड़ की स्थिति को रोकने के उद्देश्य से स्थापित किया गया है। यह आवश्यक है कि एक धागा (कंप्यूटिंग) कभी भी एक महत्वपूर्ण खंड में प्रवेश न करे, जबकि निष्पादन का एक समवर्ती कंप्यूटिंग धागा पहले से ही उक्त महत्वपूर्ण खंड तक पहुंच रहा है, जो उस समय के अंतराल को संदर्भित करता है जिसके समय निष्पादन का एक धागा साझा संसाधन या साझा मेमोरी तक पहुंचता है।

साझा संसाधन एक डेटा वस्तु है, जिसे दो या दो से अधिक समवर्ती धागे संशोधित करने का प्रयास कर रहे हैं (जहां दो समवर्ती पढ़ने के संचालन की अनुमति है लेकिन, कोई दो समवर्ती लेखन संचालन या एक पढ़ने और एक लिखने की अनुमति नहीं है, क्योंकि यह डेटा असंगतता की ओर जाता है)। आपसी बहिष्कार एल्गोरिदम यह सुनिश्चित करते हैं कि यदि कोई प्रक्रिया पहले से ही डेटा ऑब्जेक्ट [[[ महत्वपूर्ण अनुभाग ]]] पर राइट ऑपरेशन कर रही है, तो किसी अन्य प्रोसेस/थ्रेड को उसी ऑब्जेक्ट को एक्सेस/संशोधित करने की अनुमति नहीं है, जब तक कि पहली प्रक्रिया डेटा ऑब्जेक्ट [क्रिटिकल अनुभाग ] पर लिखना समाप्त नहीं कर देती। और अन्य प्रक्रियाओं को पढ़ने और लिखने के लिए वस्तु को जारी किया है।

पारस्परिक बहिष्करण की आवश्यकता को सबसे पहले एड्जर डब्ल्यू. डिज्कस्ट्रा ने अपने मौलिक 1965 के शोध पत्र समवर्ती प्रोग्रामिंग नियंत्रण में एक समस्या का समाधान में पहचाना और हल किया था।[1][2] जिसे समवर्ती एल्गोरिदम के अध्ययन में पहले विषय के रूप में श्रेय दिया जाता है।[3]

व्यवहार में पारस्परिक बहिष्करण क्यों महत्वपूर्ण है इसका एक सरल उदाहरण चार मदों की एकल लिंक्ड सूची का उपयोग करके देखा जा सकता है, जहां दूसरे और तीसरे को हटाया जाना है। एक नोड को हटाना जो दो अन्य नोड्स के बीच बैठता है, पिछले नोड के अगले सूचक (कंप्यूटर प्रोग्रामिंग) को अगले नोड को इंगित करने के लिए बदलकर किया जाता है (दूसरे शब्दों में, यदि नोड i को हटाया जा रहा है, तो नोड का अगला सूचक i – 1 को बिंदु से नोड में बदल दिया गया है i + 1, जिससे लिंक की गई सूची से नोड का कोई भी संदर्भ हटा दिया जाता है i). जब इस तरह की एक लिंक की गई सूची निष्पादन के कई थ्रेड्स के बीच साझा की जा रही है, तो निष्पादन के दो थ्रेड्स एक साथ दो अलग-अलग नोड्स को हटाने का प्रयास कर सकते हैं, निष्पादन का एक थ्रेड नोड के अगले पॉइंटर को बदल देता है i – 1 नोड को इंगित करने के लिए i + 1, जबकि निष्पादन का एक और धागा नोड के अगले सूचक को बदलता है i नोड को इंगित करने के लिए i + 2. चुकीं दोनों निष्कासन कार्य सफलतापूर्वक पूर्ण हो गए हैं, लेकिन लिंक की गई सूची की वांछित स्थिति प्राप्त नहीं हुई है: नोड i + 1 सूची में रहता है, क्योंकि नोड का अगला सूचक i – 1 नोड i + 1 को इंगित करता है i + 1.

इस समस्या (जिसे दौड़ की स्थिति कहा जाता है) को पारस्परिक बहिष्करण की आवश्यकता का उपयोग करके यह सुनिश्चित करने के लिए टाला जा सकता है कि सूची के एक ही भागों में एक साथ अद्यतन नहीं हो सकते।

परस्पर बहिष्करण शब्द का उपयोग एक मेमोरी एड्रेस के एक साथ एक थ्रेड द्वारा लिखने के संदर्भ में भी किया जाता है, जबकि उपरोक्त मेमोरी एड्रेस को एक या अधिक अन्य थ्रेड्स द्वारा हेरफेर या पढ़ा जा रहा है।

समस्या विवरण

पारस्परिक बहिष्करण की समस्या संसाधन साझा करने की समस्या है: एक साझा संसाधन तक एक सॉफ्टवेयर सिस्टम एकाधिक प्रक्रियाओं की पहुंच को कैसे नियंत्रित कर सकता है, जब प्रत्येक प्रक्रिया को अपना काम करते समय उस संसाधन के अनन्य नियंत्रण की आवश्यकता होती है? इसका आपसी-बहिष्करण समाधान साझा संसाधन को तभी उपलब्ध कराता है जब प्रक्रिया एक विशिष्ट कोड खंड में होती है जिसे महत्वपूर्ण खंड कहा जाता है। यह अपने कार्यक्रम के उस भाग के प्रत्येक पारस्परिक निष्पादन को नियंत्रित करके साझा संसाधन तक पहुँच को नियंत्रित करता है जहाँ संसाधन का उपयोग किया जाएगा।

इस समस्या के सफल समाधान में कम से कम ये दो गुण होने चाहिए:

  • इसे आपसी बहिष्कार को प्रयुक्त करना चाहिए: एक समय में केवल एक ही प्रक्रिया महत्वपूर्ण खंड में हो सकती है।
  • यह गतिरोध से मुक्त होना चाहिए: यदि प्रक्रियाएं महत्वपूर्ण खंड में प्रवेश करने का प्रयास कर रही हैं, तो उनमें से एक को अंततः सफलतापूर्वक ऐसा करने में सक्षम होना चाहिए, बशर्ते कोई प्रक्रिया स्थायी रूप से महत्वपूर्ण खंड में न रहे।

इनमें से एक या दोनों गुणों को प्रयुक्त करने के लिए डेडलॉक स्वतंत्रता का विस्तार किया जा सकता है:

  • तालाबंदी-स्वतंत्रता गारंटी देती है कि महत्वपूर्ण खंड में प्रवेश करने की इच्छा रखने वाली कोई भी प्रक्रिया अंततः ऐसा करने में सक्षम होगी। यह गतिरोध परिहार से अलग है, जिसके लिए आवश्यक है कि कुछ प्रतीक्षा प्रक्रिया महत्वपूर्ण खंड तक पहुँच प्राप्त करने में सक्षम हो, लेकिन इसके लिए यह आवश्यक नहीं है कि प्रत्येक प्रक्रिया को एक मोड़ मिले। यदि दो प्रक्रियाएं लगातार उनके बीच एक संसाधन का व्यापार करती हैं, तो एक तीसरी प्रक्रिया को लॉक किया जा सकता है और भुखमरी (कंप्यूटर विज्ञान) का अनुभव हो सकता है, भले ही सिस्टम गतिरोध में न हो। यदि कोई सिस्टम तालाबंदी से मुक्त है, तो यह सुनिश्चित करता है कि प्रत्येक प्रक्रिया को भविष्य में किसी बिंदु पर मोड़ मिल सकता है।
  • एक k-बाउंडेड वेटिंग प्रॉपर्टी लॉकआउट-फ्रीडम की तुलना में अधिक सटीक प्रतिबद्धता देती है। तालाबंदी-स्वतंत्रता सुनिश्चित करती है कि प्रत्येक प्रक्रिया अंततः महत्वपूर्ण खंड तक पहुंच सकती है: यह इस बात की कोई गारंटी नहीं देती है कि प्रतीक्षा कितनी लंबी होगी। व्यवहार में, एक प्रक्रिया को अपनी बारी आने से पहले अन्य उच्च-प्राथमिकता वाली प्रक्रियाओं द्वारा मनमाना या असीमित संख्या में आगे बढ़ाया जा सकता है। k-बाउंड वेटिंग प्रॉपर्टी के अंतर्गत, प्रत्येक प्रक्रिया में अधिकतम प्रतीक्षा समय होता है। यह कई बार अन्य प्रक्रियाओं को लाइन में कटौती करने की सीमा निर्धारित करके काम करता है, ताकि कोई भी प्रक्रिया महत्वपूर्ण खंड में K बार से अधिक प्रवेश न कर सके, जबकि कोई अन्य प्रतीक्षा कर रहा हो।[4]

प्रत्येक प्रक्रिया के कार्यक्रम को चार वर्गों में विभाजित किया जा सकता है, जिसके परिणामस्वरूप चार अवस्थाएँ होती हैं। क्रम में इन चार स्थितियों के माध्यम से कार्यक्रम निष्पादन चक्र:[5]

एकल प्रक्रिया के वर्गों का चक्र

;नॉन-क्रिटिकल अनुभाग: ऑपरेशन क्रिटिकल अनुभाग के बाहर है; प्रक्रिया साझा संसाधन का उपयोग या अनुरोध नहीं कर रही है।

प्रयास कर रहा है: प्रक्रिया महत्वपूर्ण खंड में प्रवेश करने का प्रयास करती है।

क्रिटिकल अनुभाग: प्रक्रिया को इस अनुभाग में साझा संसाधन तक पहुंचने की अनुमति है।

बाहर निकलें: प्रक्रिया महत्वपूर्ण खंड को छोड़ देती है और साझा संसाधनों को अन्य प्रक्रियाओं के लिए उपलब्ध कराती है।

यदि कोई प्रक्रिया महत्वपूर्ण खंड में प्रवेश करना चाहती है, तो उसे पहले प्रयास करने वाले खंड को निष्पादित करना होगा और तब तक प्रतीक्षा करनी होगी जब तक कि वह महत्वपूर्ण खंड तक पहुंच प्राप्त न कर ले। प्रक्रिया के अपने महत्वपूर्ण खंड को निष्पादित करने और साझा संसाधनों के साथ समाप्त होने के बाद, इसे अन्य प्रक्रियाओं के उपयोग के लिए जारी करने के लिए निकास अनुभाग को निष्पादित करने की आवश्यकता होती है। प्रक्रिया फिर अपने गैर-महत्वपूर्ण खंड में वापस आती है।

आपसी बहिष्कार प्रयुक्त करना

हार्डवेयर समाधान

यूनिप्रोसेसर प्रणाली |यूनी-प्रोसेसर सिस्टम पर, पारस्परिक बहिष्करण प्राप्त करने का सबसे सरल समाधान एक प्रक्रिया के महत्वपूर्ण खंड के समय व्यवधानों को अक्षम करना है। यह किसी भी बाधित सेवा रूटीन को चलने से रोकेगा (प्रभावी रूप से एक प्रक्रिया को प्रीमेशन (कंप्यूटिंग) होने से रोकता है)। हालांकि यह समाधान प्रभावी है, यह कई समस्याओं को जन्म देता है। यदि कोई महत्वपूर्ण खंड लंबा है, तो हर बार एक महत्वपूर्ण खंड निष्पादित होने पर सिस्टम की घड़ी ड्रिफ्ट हो जाएगा क्योंकि टाइमर व्यवधान अब सर्विस नहीं किया जाता है, इसलिए महत्वपूर्ण खंड के समय ट्रैकिंग समय असंभव है। इसके अलावा, यदि कोई प्रक्रिया अपने महत्वपूर्ण खंड के समय रुक जाती है, तो नियंत्रण कभी भी दूसरी प्रक्रिया में वापस नहीं आएगा, प्रभावी रूप से पूरे सिस्टम को रोक देगा। आपसी बहिष्कार को प्राप्त करने के लिए व्यस्त-प्रतीक्षा एक अधिक सुरुचिपूर्ण तरीका है।

बिजी-वेटिंग यूनिप्रोसेसर और मल्टीप्रोसेसर सिस्टम दोनों के लिए प्रभावी है। साझा मेमोरी का उपयोग और एक रैखिकता परीक्षण-और-सेट निर्देश पारस्परिक बहिष्करण प्रदान करते हैं। एक प्रक्रिया साझा मेमोरी में किसी स्थान पर परीक्षण और सेट कर सकती है, और चूंकि ऑपरेशन परमाणु है, एक समय में केवल एक ही प्रक्रिया ध्वज सेट कर सकती है। कोई भी प्रक्रिया जो फ़्लैग सेट करने में असफल होती है, वह या तो अन्य कार्य कर सकती है और बाद में पुनः प्रयास कर सकती है, प्रोसेसर को किसी अन्य प्रक्रिया के लिए रिलीज़ कर सकती है और बाद में पुनः प्रयास कर सकती है, या फ़्लैग की जाँच करते समय तब तक लूप करना जारी रख सकती है जब तक कि वह इसे प्राप्त करने में सफल न हो जाए। प्रीमेशन (कंप्यूटिंग) अभी भी संभव है, इसलिए यह विधि सिस्टम को कार्य करना जारी रखने की अनुमति देती है - भले ही लॉक को पकड़ते समय कोई प्रक्रिया रुक जाए।

डेटा संरचनाओं के पारस्परिक बहिष्करण प्रदान करने के लिए कई अन्य परमाणु संचालनों का उपयोग किया जा सकता है; इनमें से सबसे उल्लेखनीय तुलना-और-स्वैप (CAS) है। CAS का उपयोग किसी भी साझा डेटा संरचना के लिए एक लिंक्ड सूची बनाकर प्रतीक्षा-मुक्त पारस्परिक बहिष्करण प्राप्त करने के लिए किया जा सकता है, जहाँ प्रत्येक नोड प्रदर्शन किए जाने वाले वांछित ऑपरेशन का प्रतिनिधित्व करता है। CAS का उपयोग तब लिंक की गई सूची में पॉइंटर (कंप्यूटर प्रोग्रामिंग) को बदलने के लिए किया जाता है[6] एक नए नोड के सम्मिलन के समय। इसके CAS में केवल एक ही प्रक्रिया सफल हो सकती है; एक ही समय में एक नोड जोड़ने का प्रयास करने वाली अन्य सभी प्रक्रियाओं को फिर से प्रयास करना होगा। प्रत्येक प्रक्रिया तब डेटा संरचना की एक स्थानीय प्रति रख सकती है, और लिंक की गई सूची को पार करने पर, सूची से प्रत्येक ऑपरेशन को उसकी स्थानीय प्रति पर निष्पादित कर सकती है।

सॉफ्टवेयर समाधान

हार्डवेयर-समर्थित समाधानों के अतिरिक्त, कुछ सॉफ़्टवेयर समाधान मौजूद हैं जो परस्पर बहिष्करण प्राप्त करने के लिए व्यस्त प्रतीक्षा का उपयोग करते हैं। उदाहरणों में शामिल:

  • डेकर का एल्गोरिदम
  • पीटरसन का एल्गोरिदम
  • लामपोर्ट का बेकरी एल्गोरिथम[7]
  • सिजमेंस्की का एल्गोरिथम
  • तौबेनफेल्ड का ब्लैक-एंड-व्हाइट बेकरी एल्गोरिथम[2]* मकावा का एल्गोरिदम

ये एल्गोरिदम काम नहीं करते हैं यदि उन्हें निष्पादित करने वाले प्लेटफॉर्म पर आउट-ऑफ-ऑर्डर निष्पादन का उपयोग किया जाता है। प्रोग्रामर को एक थ्रेड के भीतर मेमोरी ऑपरेशंस पर सख्त ऑर्डर देना होता है।[8] ऑपरेटिंग सिस्टम की मल्टीथ्रेडिंग लाइब्रेरी द्वारा प्रदान की गई सिंक्रोनाइज़ेशन सुविधाओं का उपयोग करना अक्सर बेहतर होता है, जो यदि संभव हो तो हार्डवेयर समाधानों का लाभ उठाएगा लेकिन यदि कोई हार्डवेयर समाधान मौजूद नहीं है तो सॉफ़्टवेयर समाधानों का उपयोग करेगा। उदाहरण के लिए, जब ऑपरेटिंग सिस्टम की ताला (कंप्यूटर विज्ञान) लाइब्रेरी का उपयोग किया जाता है और थ्रेड पहले से प्राप्त लॉक को प्राप्त करने का प्रयास करता है, तो ऑपरेटिंग सिस्टम संदर्भ स्विच का उपयोग करके थ्रेड को निलंबित कर सकता है और इसे चलाने के लिए तैयार किसी अन्य थ्रेड से स्वैप कर सकता है। , या उस प्रोसेसर को कम पावर स्थिति में रख सकता है यदि कोई अन्य थ्रेड नहीं चलाया जा सकता है। इसलिए, अधिकांश आधुनिक परस्पर बहिष्करण विधियाँ पंक्तिबद्ध और संदर्भ स्विच का उपयोग करके विलंबता (इंजीनियरिंग) और व्यस्त-प्रतीक्षा को कम करने का प्रयास करती हैं। चुकीं, यदि किसी थ्रेड को निलंबित करने और फिर उसे पुनर्स्थापित करने में लगने वाला समय हमेशा उस समय से अधिक साबित हो सकता है, जो किसी विशेष स्थिति में अवरुद्ध होने के बाद थ्रेड के लिए तैयार होने के लिए प्रतीक्षा की जानी चाहिए, तो spinlock एक स्वीकार्य हैं समाधान (केवल उस स्थिति के लिए)।[citation needed]

पारस्परिक बहिष्करण समस्या पर बाध्य

आपसी बहिष्करण समस्या का डेडलॉक-मुक्त समाधान प्रदान करने के लिए एक बाइनरी टेस्ट-एंड-सेट | टेस्ट और सेट रजिस्टर पर्याप्त है। लेकिन एक परीक्षण और सेट रजिस्टर के साथ बनाया गया एक समाधान संभवतः कुछ प्रक्रियाओं की भुखमरी का कारण बन सकता है जो प्रयास करने वाले खंड में फंस जाती हैं।[4]वास्तव में, लॉकआउट से बचने के लिए अलग-अलग मेमोरी स्टेट्स की आवश्यकता होती है। अनबाउंड वेटिंग से बचने के लिए, अलग-अलग मेमोरी स्टेट्स की आवश्यकता होती है।[9]


पुनर्प्राप्त करने योग्य पारस्परिक बहिष्करण

आपसी बहिष्करण के लिए अधिकांश एल्गोरिदम इस धारणा के साथ डिज़ाइन किए गए हैं कि जब कोई प्रक्रिया महत्वपूर्ण खंड के अंदर चल रही हो तो कोई विफलता नहीं होती है। चुकीं, वास्तव में ऐसी विफलताएँ सामान्य हो सकती हैं। उदाहरण के लिए, बिजली की अचानक हानि या दोषपूर्ण इंटरकनेक्ट एक महत्वपूर्ण खंड में एक अपरिवर्तनीय त्रुटि का अनुभव करने के लिए एक प्रक्रिया का कारण बन सकता है या अन्यथा जारी रखने में असमर्थ हो सकता है। यदि इस तरह की विफलता होती है, तो पारंपरिक, गैर-विफलता-सहिष्णु पारस्परिक बहिष्करण एल्गोरिदम गतिरोध कर सकते हैं या अन्यथा मुख्य जीवंतता गुणों को विफल कर सकते हैं। इस समस्या से निपटने के लिए क्रैश-रिकवरी तंत्र का उपयोग करते हुए कई समाधान प्रस्तावित किए गए हैं।[10]


पारस्परिक बहिष्करण उपकरणों के प्रकार

ऊपर बताए गए समाधानों का उपयोग नीचे दिए गए सिंक्रोनाइज़ेशन प्रिमिटिव बनाने के लिए किया जा सकता है:

आपसी बहिष्करण के कई रूपों के दुष्प्रभाव होते हैं। उदाहरण के लिए, क्लासिक सेमाफोर (प्रोग्रामिंग) गतिरोध की अनुमति देता है, जिसमें एक प्रक्रिया को एक सेमाफोर मिलता है, दूसरी प्रक्रिया को दूसरा सेमाफोर मिलता है, और फिर दोनों दूसरे सेमाफोर के रिलीज होने तक प्रतीक्षा करते हैं। अन्य सामान्य दुष्प्रभावों में संसाधन भुखमरी शामिल है, जिसमें एक प्रक्रिया को पूरा करने के लिए चलाने के लिए कभी भी पर्याप्त संसाधन नहीं मिलते हैं; प्राथमिकता व्युत्क्रम, जिसमें एक उच्च-प्राथमिकता वाला धागा निम्न-प्राथमिकता वाले धागे की प्रतीक्षा करता है; और उच्च विलंबता, जिसमें व्यवधान की प्रतिक्रिया शीघ्र नहीं होती है।

अधिकांश शोध का उद्देश्य उपरोक्त प्रभावों को समाप्त करना है, अक्सर गैर-अवरुद्ध तुल्यकालन|गैर-अवरुद्ध प्रगति की गारंटी के लक्ष्य के साथ। कोई सही योजना ज्ञात नहीं है। ब्लॉकिंग सिस्टम कॉल एक पूरी प्रक्रिया को निष्क्रिय कर देती थी। जब तक ऐसी कॉल थ्रेड सुरक्षा नहीं बन जाती, तब तक एक प्रक्रिया के भीतर एक धागे को सोने के लिए कोई उचित तंत्र नहीं था (मतदान (कंप्यूटर विज्ञान) देखें)।[citation needed]

यह भी देखें

संदर्भ

  1. Dijkstra, E. W. (1965). "समवर्ती प्रोग्रामिंग नियंत्रण में समस्या का समाधान". Communications of the ACM. 8 (9): 569. doi:10.1145/365559.365617. S2CID 19357737.
  2. 2.0 2.1 Taubenfeld, "The Black-White Bakery Algorithm". In Proc. Distributed Computing, 18th international conference, DISC 2004. Vol 18, 56–70, 2004
  3. "PODC Influential Paper Award: 2002", ACM Symposium on Principles of Distributed Computing, retrieved 24 August 2009
  4. 4.0 4.1 Attiya, Hagit; Welch, Jennifer (25 March 2004). Distributed computing: fundamentals, simulations, and advanced topics. John Wiley & Sons, Inc. ISBN 978-0-471-45324-6.
  5. Lamport, Leslie (26 June 2000), "The Mutual Exclusion Problem Part II: Statement and Solutions" (PDF), Journal of the Association for Computing Machinery, 33 (2): 313–348, doi:10.1145/5383.5384, S2CID 12012739
  6. Harris, Timothy L. (2001). "गैर-अवरुद्ध लिंक्ड-सूचियों का एक व्यावहारिक कार्यान्वयन" (PDF). Distributed Computing. Lecture Notes in Computer Science (in English). 2180: 300–314. doi:10.1007/3-540-45414-4_21. ISBN 978-3-540-42605-9. Retrieved 1 December 2022.
  7. Lamport, Leslie (August 1974). "दिज्क्स्ट्रा की समवर्ती प्रोग्रामिंग समस्या का एक नया समाधान". Communications of the ACM. 17 (8): 453–455. doi:10.1145/361082.361093. S2CID 8736023.
  8. Holzmann, Gerard J.; Bosnacki, Dragan (1 October 2007). "स्पिन मॉडल चेकर के मल्टीकोर एक्सटेंशन का डिज़ाइन" (PDF). IEEE Transactions on Software Engineering. 33 (10): 659–674. doi:10.1109/TSE.2007.70724. S2CID 9080331. Archived (PDF) from the original on 9 October 2022.
  9. Burns, James E.; Paul Jackson, Nancy A. Lynch (January 1982), "Data Requirements for Implementation of N-Process Mutual Exclusion Using a Single Shared Variable" (PDF), Journal of the Association for Computing Machinery, 33 (2): 313–348
  10. Golab, Wojciech; Ramaraju, Aditya (July 2016), "Recoverable Mutual Exclusion", Proceedings of the 2016 ACM Symposium on Principles of Distributed Computing, pp. 65–74, doi:10.1145/2933057.2933087, ISBN 9781450339643, S2CID 8621532


अग्रिम पठन

  • Michel Raynal: Algorithms for Mutual Exclusion, MIT Press, ISBN 0-262-18119-3
  • Sunil R. Das, Pradip K. Srimani: Distributed Mutual Exclusion Algorithms, IEEE Computer Society, ISBN 0-8186-3380-8
  • Thomas W. Christopher, George K. Thiruvathukal: High-Performance Java Platform Computing, Prentice Hall, ISBN 0-13-016164-0
  • Gadi Taubenfeld, Synchronization Algorithms and Concurrent Programming, Pearson/Prentice Hall, ISBN 0-13-197259-6


बाहरी संबंध