एवरेज-केस कम्प्लेक्सिटी

From Vigyanwiki
Revision as of 12:54, 5 July 2023 by alpha>Indicwiki (Created page with "{{redirect|AvgP|other uses|avgp (disambiguation)}} कम्प्यूटेशनल जटिलता सिद्धांत में, कलन विधि...")
(diff) ← Older revision | Latest revision (diff) | Newer revision → (diff)

कम्प्यूटेशनल जटिलता सिद्धांत में, कलन विधि की औसत-केस जटिलता एल्गोरिदम द्वारा उपयोग किए गए कुछ कम्प्यूटेशनल संसाधन (आमतौर पर समय) की मात्रा है, जो सभी संभावित इनपुट पर औसत है। इसकी तुलना अक्सर सबसे खराब स्थिति वाली जटिलता से की जाती है जो सभी संभावित इनपुट पर एल्गोरिदम की अधिकतम जटिलता पर विचार करती है।

औसत-मामले की जटिलता का अध्ययन करने के लिए तीन प्राथमिक प्रेरणाएँ हैं।[1] सबसे पहले, हालांकि कुछ समस्याएं सबसे खराब स्थिति में कठिन हो सकती हैं, लेकिन इस व्यवहार को उत्पन्न करने वाले इनपुट व्यवहार में शायद ही कभी घटित होते हैं, इसलिए औसत-मामले की जटिलता एक एल्गोरिदम के प्रदर्शन का अधिक सटीक माप हो सकती है। दूसरा, औसत-केस जटिलता विश्लेषण समस्याओं के कठिन उदाहरण उत्पन्न करने के लिए उपकरण और तकनीक प्रदान करता है जिनका उपयोग क्रिप्टोग्राफी और व्युत्पन्नकरण जैसे क्षेत्रों में किया जा सकता है। तीसरा, औसत-केस जटिलता समतुल्य सर्वोत्तम केस जटिलता (उदाहरण के लिए क्विकॉर्ट#औपचारिक विश्लेषण) के एल्गोरिदम के बीच व्यवहार में सबसे कुशल एल्गोरिदम को भेदभाव करने की अनुमति देती है।

औसत-केस विश्लेषण के लिए एल्गोरिदम में औसत इनपुट की धारणा की आवश्यकता होती है, जिससे इनपुट पर संभाव्यता वितरण तैयार करने की समस्या पैदा होती है। वैकल्पिक रूप से, एक यादृच्छिक एल्गोरिदम का उपयोग किया जा सकता है। ऐसे एल्गोरिदम का विश्लेषण अपेक्षित जटिलता की संबंधित धारणा की ओर ले जाता है।[2]: 28 

इतिहास और पृष्ठभूमि

1950 के दशक में कम्प्यूटेशनल दक्षता की आधुनिक धारणाएँ विकसित होने के बाद से एल्गोरिदम के औसत-मामले प्रदर्शन का अध्ययन किया गया है। इस प्रारंभिक कार्य का अधिकांश भाग उन समस्याओं पर केंद्रित था जिनके लिए सबसे खराब स्थिति वाले बहुपद समय एल्गोरिदम पहले से ही ज्ञात थे।[3] 1973 में, डोनाल्ड नुथ[4] कंप्यूटर प्रोग्रामिंग की कला का खंड 3 प्रकाशित किया गया है, जो सॉर्टिंग और मीडियन-फाइंडिंग जैसी सबसे खराब स्थिति वाले बहुपद समय में हल करने योग्य समस्याओं के लिए एल्गोरिदम के औसत-केस प्रदर्शन का व्यापक रूप से सर्वेक्षण करता है।

एनपी-पूर्ण के लिए एक कुशल एल्गोरिदम|NP-पूर्ण समस्याओं को आम तौर पर एक ऐसी समस्या के रूप में जाना जाता है जो सभी इनपुट के लिए बहुपद समय में चलती है; यह कुशल सबसे खराब स्थिति की जटिलता की आवश्यकता के बराबर है। हालाँकि, एक एल्गोरिथ्म जो कम संख्या में इनपुट पर अक्षम है, फिर भी व्यवहार में आने वाले अधिकांश इनपुट के लिए कुशल हो सकता है। इस प्रकार, इन एल्गोरिदम के गुणों का अध्ययन करना वांछनीय है जहां औसत-मामले की जटिलता सबसे खराब-मामले की जटिलता से भिन्न हो सकती है और दोनों को जोड़ने के तरीके ढूंढ सकती है।

औसत-मामले की जटिलता की मौलिक धारणाएं 1986 में लियोनिद लेविन द्वारा विकसित की गईं जब उन्होंने एक पेज का पेपर प्रकाशित किया[5] पूर्ण समस्या का उदाहरण देते हुए औसत-मामले की जटिलता और पूर्णता को परिभाषित करना distNP, एनपी (जटिलता) का औसत-केस एनालॉग|NP.

परिभाषाएँ

कुशल औसत-मामले की जटिलता

पहला कार्य सटीक रूप से परिभाषित करना है कि एक एल्गोरिदम का क्या मतलब है जो औसतन कुशल है। एक प्रारंभिक प्रयास एक कुशल औसत-केस एल्गोरिदम को परिभाषित कर सकता है जो सभी संभावित इनपुट पर अपेक्षित बहुपद समय में चलता है। ऐसी परिभाषा में विभिन्न कमियाँ हैं; विशेष रूप से, यह कम्प्यूटेशनल मॉडल में बदलाव के लिए मजबूत नहीं है। उदाहरण के लिए, मान लीजिए एल्गोरिथ्म Aसमय पर चलता है tA(x) इनपुट पर x और एल्गोरिदम Bसमय पर चलता है tA(x)2 इनपुट पर x; वह है, B की तुलना में चतुष्कोणीय रूप से धीमा है A. सहज रूप से, औसत-मामले दक्षता की किसी भी परिभाषा में इस विचार को शामिल किया जाना चाहिए A औसत पर कुशल है यदि और केवल यदि B औसत रूप से कुशल है. हालाँकि, मान लीजिए कि इनपुट लंबाई के साथ स्ट्रिंग के समान वितरण से यादृच्छिक रूप से लिए गए हैं n, ओर वो Aसमय पर चलता है n2 स्ट्रिंग को छोड़कर सभी इनपुट पर 1n जिसके लिए A समय लेता है 2n. फिर यह आसानी से जांचा जा सकता है कि अपेक्षित चलने का समय क्या है A बहुपद है लेकिन अपेक्षित चलने का समय Bघातांकीय है.[3]

औसत-केस दक्षता की अधिक मजबूत परिभाषा बनाने के लिए, एक एल्गोरिदम की अनुमति देना समझ में आता है A कुछ इनपुट पर बहुपद समय से अधिक समय तक चलने के लिए लेकिन जिस पर इनपुट का अंश A बड़ी और बड़ी आवश्यकता होती है, चलने का समय छोटा और छोटा होता जाता है। इस अंतर्ज्ञान को औसत बहुपद चलने वाले समय के लिए निम्नलिखित सूत्र में कैद किया गया है, जो चलने वाले समय और इनपुट के अंश के बीच बहुपद व्यापार-बंद को संतुलित करता है:

हरएक के लिए n, t > 0 और बहुपद p, कहाँ tA(x) एल्गोरिथम के चलने के समय को दर्शाता है A इनपुट पर x, और ε एक सकारात्मक स्थिरांक मान है.[6] वैकल्पिक रूप से, इसे इस प्रकार लिखा जा सकता है

कुछ स्थिरांक के लिए C और ε, कहाँ n = |x|.[7] दूसरे शब्दों में, एक एल्गोरिदम {{mvar|A}यदि, दौड़ने के बाद, } में औसत-मामले की जटिलता अच्छी है tA(n) कदम, Aए को छोड़कर सभी को हल कर सकता है nc/(tA(n))ε लंबाई के इनपुट का अंश n, कुछ के लिए ε, c > 0.[3]


वितरण संबंधी समस्या

अगला कदम किसी विशेष समस्या के औसत इनपुट को परिभाषित करना है। यह प्रत्येक समस्या के इनपुट को एक विशेष संभाव्यता वितरण के साथ जोड़कर प्राप्त किया जाता है। अर्थात्, एक औसत-मामले की समस्या में एक भाषा शामिल होती है L और एक संबद्ध संभाव्यता वितरण D जो जोड़ी बनाता है (L, D).[7]वितरण के दो सबसे सामान्य वर्ग जिनकी अनुमति है वे हैं:

  1. बहुपद-समय गणना योग्य वितरण (P-कंप्यूटेबल): ये ऐसे वितरण हैं जिनके लिए किसी दिए गए इनपुट के संचयी घनत्व की गणना करना संभव है x. अधिक औपचारिक रूप से, संभाव्यता वितरण दिया गया μ और एक स्ट्रिंग x ∈ {0, 1}n मूल्य की गणना करना संभव है बहुपद समय में. इसका अर्थ यह है कि Pr[x] बहुपद समय में भी गणना योग्य है।
  2. बहुपद-समय नमूना योग्य वितरण (P-नमूना योग्य): ये ऐसे वितरण हैं जिनसे बहुपद समय में यादृच्छिक नमूने निकालना संभव है।

समान होते हुए भी ये दोनों सूत्र समतुल्य नहीं हैं। यदि कोई वितरण है P-यह संगणनीय भी है P-नमूना योग्य, लेकिन यदि P (जटिलता)| तो इसका विपरीत सत्य नहीं हैPP#P.[7]


एवीजीपी और डिस्टएनपी

एक वितरण संबंधी समस्या (L, D) जटिलता वर्ग में है AvgP यदि इसके लिए एक कुशल औसत-केस एल्गोरिदम है L, जैसा कि ऊपर परिभाषित किया गया है। कक्षा AvgP को कभी-कभी बुलाया जाता है distP साहित्य में।[7]

एक वितरण संबंधी समस्या (L, D) जटिलता वर्ग में है distNP अगर L में है NP और D है P-गणनायोग्य. कब L में है NP और D है P-नमूना योग्य, (L, D) से संबंधित sampNP.[7]

साथ में, AvgP और distNP के औसत-केस एनालॉग्स को परिभाषित करें P और NP, क्रमश।[7]


वितरण संबंधी समस्याओं के बीच कटौती

होने देना (L,D) और (L′, D′)दो वितरणात्मक समस्याएँ हों। (L, D) औसत-मामला कम हो जाता है (L′, D′) (लिखा हुआ (L, D) ≤AvgP (L′, D′)) यदि कोई फ़ंक्शन है f वह हर एक के लिए n, इनपुट पर x की गणना समय बहुपद में की जा सकती है n और

  1. (शुद्धता) xL अगर और केवल अगर f(x) ∈ L′
  2. (प्रभुत्व) बहुपद होते हैं p और m ऐसा कि, प्रत्येक के लिए n और y,

प्रभुत्व की स्थिति इस धारणा को लागू करती है कि यदि समस्या है (L, D) तो फिर औसत रूप से कठिन है (L′, D′) औसत रूप से भी कठिन है। सहज रूप से, कमी को किसी उदाहरण को हल करने का एक तरीका प्रदान करना चाहिए xसमस्या का L कंप्यूटिंग द्वारा f(x) और आउटपुट को एल्गोरिदम को फीड करना जो हल करता है L'. वर्चस्व की स्थिति के बिना, यह संभव नहीं हो सकता है क्योंकि एल्गोरिदम जो हल करता है L बहुपद समय में औसतन कम संख्या में इनपुट पर सुपर-बहुपद समय लग सकता है f इन इनपुटों को बहुत बड़े सेट में मैप कर सकता है D' तो वह एल्गोरिदम A' अब औसतन बहुपद समय में नहीं चलता। वर्चस्व की स्थिति केवल ऐसे तारों को बहुपद रूप से घटित होने की अनुमति देती है जैसा कि अक्सर होता है D'.[6]


डिस्टएनपी-पूर्ण समस्याएं

औसत-केस एनालॉग NP-सम्पूर्णता है distNP-सम्पूर्णता. एक वितरण संबंधी समस्या (L′, D′) है distNP-पूर्ण करें यदि (L′, D′) में है distNP और प्रत्येक के लिए (L, D) में distNP, (L, D) औसत-मामले को कम करने योग्य है (L′, D′).[7]

ए का एक उदाहरण distNP-पूर्ण समस्या बाउंडेड हॉल्टिंग समस्या है, BH, इस प्रकार परिभाषित:

[7]

अपने मूल पेपर में, लेविन ने वितरणात्मक टाइलिंग समस्या का एक उदाहरण दिखाया जो औसत-मामला है NP-पूरा।[5]ज्ञात का एक सर्वेक्षण distNP-सम्पूर्ण समस्याएँ ऑनलाइन उपलब्ध है।[6]

सक्रिय अनुसंधान के एक क्षेत्र में नया खोजना शामिल है distNP-पूर्ण समस्याएँ। हालाँकि, गुरेविच के परिणाम के कारण ऐसी समस्याओं का पता लगाना जटिल हो सकता है जो दर्शाता है कि एक फ्लैट वितरण के साथ कोई भी वितरण समस्या नहीं हो सकती है distNP-जब तक EXP|पूर्ण न हो जाएEXP = NEXP|NEXP.[8] (एक फ्लैट वितरण μ वह है जिसके लिए एक मौजूद है ε > 0 ऐसा कि किसी के लिए भी x, μ(x) ≤ 2−|x|ε.) लिव्ने के एक परिणाम से पता चलता है कि सब कुछ प्राकृतिक है NP-पूर्ण समस्याएँ हैं DistNP-पूर्ण संस्करण।[9] हालाँकि, एक प्राकृतिक वितरणात्मक समस्या को खोजने का लक्ष्य यही है DistNP-अभी तक पूरा नहीं हो पाया है.[10]


अनुप्रयोग

सॉर्टिंग एल्गोरिदम

जैसा कि ऊपर उल्लेख किया गया है, औसत-मामले की जटिलता से संबंधित बहुत से प्रारंभिक कार्य उन समस्याओं पर केंद्रित थे जिनके लिए बहुपद-समय एल्गोरिदम पहले से मौजूद थे, जैसे कि सॉर्टिंग। उदाहरण के लिए, कई सॉर्टिंग एल्गोरिदम जो यादृच्छिकता का उपयोग करते हैं, जैसे कि जल्दी से सुलझाएं, का चलने का समय सबसे खराब होता है O(n2), लेकिन औसत केस चलने का समय O(n log(n)), कहाँ n सॉर्ट किए जाने वाले इनपुट की लंबाई है।[2]


क्रिप्टोग्राफी

अधिकांश समस्याओं के लिए, औसत-केस जटिलता विश्लेषण उस समस्या के लिए कुशल एल्गोरिदम खोजने के लिए किया जाता है जिसे सबसे खराब स्थिति में कठिन माना जाता है। हालाँकि, क्रिप्टोग्राफ़िक अनुप्रयोगों में, विपरीत सच है: सबसे खराब स्थिति की जटिलता अप्रासंगिक है; इसके बजाय हम यह गारंटी चाहते हैं कि क्रिप्टोग्राफ़िक योजना को तोड़ने वाले प्रत्येक एल्गोरिदम की औसत-केस जटिलता अक्षम है।[11] इस प्रकार, सभी सुरक्षित क्रिप्टोग्राफ़िक योजनाएँ एकतरफा कार्यों के अस्तित्व पर निर्भर करती हैं।[3]हालाँकि एक-तरफ़ा फ़ंक्शंस का अस्तित्व अभी भी एक खुली समस्या है, कई उम्मीदवार एक-तरफ़ा फ़ंक्शंस पूर्णांक गुणनखंडन या असतत लॉग की गणना जैसी कठिन समस्याओं पर आधारित हैं। ध्यान दें कि उम्मीदवार के कार्य के लिए ऐसा होना वांछनीय नहीं है NP-पूर्ण क्योंकि यह केवल इस बात की गारंटी देगा कि सबसे खराब स्थिति में समस्या को हल करने के लिए कोई कुशल एल्गोरिदम नहीं है; हम वास्तव में यह गारंटी चाहते हैं कि कोई भी कुशल एल्गोरिदम यादृच्छिक इनपुट (यानी औसत मामला) पर समस्या का समाधान नहीं कर सकता है। वास्तव में, पूर्णांक गुणनखंडन और असतत लॉग समस्याएँ दोनों ही हैं NPcoNP|coNP, और इसलिए ऐसा नहीं माना जाता है NP-पूरा।[7]तथ्य यह है कि संपूर्ण क्रिप्टोग्राफी औसत-मामले में कठिन समस्याओं के अस्तित्व पर आधारित है NP औसत-मामले की जटिलता का अध्ययन करने के लिए प्राथमिक प्रेरणाओं में से एक है।

अन्य परिणाम

1990 में, इम्पाग्लिआज़ो और लेविन ने दिखाया कि यदि किसी के लिए एक कुशल औसत-केस एल्गोरिदम है distNP-समान वितरण के तहत पूर्ण समस्या, फिर प्रत्येक समस्या के लिए एक औसत-केस एल्गोरिदम है NP किसी भी बहुपद-समय नमूना योग्य वितरण के तहत।[12] इस सिद्धांत को प्राकृतिक वितरण संबंधी समस्याओं पर लागू करना एक उत्कृष्ट खुला प्रश्न बना हुआ है।[3]

1992 में, बेन-डेविड एट अल। दिखाया कि यदि सभी भाषाओं में distNP उनके पास औसत पर अच्छे निर्णय एल्गोरिदम हैं, उनके पास औसत पर अच्छे खोज एल्गोरिदम भी हैं। इसके अलावा, वे दिखाते हैं कि यह निष्कर्ष एक कमजोर धारणा के अंतर्गत आता है: यदि प्रत्येक भाषा में NPसमान वितरण के संबंध में निर्णय एल्गोरिदम के लिए औसत रूप से आसान है, फिर समान वितरण के संबंध में खोज एल्गोरिदम के लिए भी यह औसत रूप से आसान है।[13] इस प्रकार, क्रिप्टोग्राफ़िक वन-वे फ़ंक्शंस केवल तभी मौजूद हो सकते हैं जब वहाँ हों distNP समान वितरण पर समस्याएं जो निर्णय एल्गोरिदम के लिए औसतन कठिन हैं।

1993 में, फेगेनबाम और फ़ोर्टनो ने दिखाया कि गैर-अनुकूली यादृच्छिक कटौती के तहत, यह साबित करना संभव नहीं है कि एक अच्छे-ऑन-औसत एल्गोरिदम का अस्तित्व distNP-समान वितरण के तहत पूर्ण समस्या का तात्पर्य सभी समस्याओं के लिए सबसे खराब स्थिति वाले कुशल एल्गोरिदम के अस्तित्व से है NP.[14] 2003 में, बोगदानोव और ट्रेविसन ने इस परिणाम को मनमाने ढंग से गैर-अनुकूली कटौती के रूप में सामान्यीकृत किया।[15] इन परिणामों से पता चलता है कि यह संभावना नहीं है कि कटौती के माध्यम से औसत-मामले की जटिलता और सबसे खराब-मामले की जटिलता के बीच कोई संबंध बनाया जा सकता है।[3]


यह भी देखें

संदर्भ

  1. O. Goldreich and S. Vadhan, Special issue on worst-case versus average-case complexity, Comput. Complex. 16, 325–330, 2007.
  2. 2.0 2.1 Cormen, Thomas H.; Leiserson, Charles E., Rivest, Ronald L., Stein, Clifford (2009) [1990]. Introduction to Algorithms (3rd ed.). MIT Press and McGraw-Hill. ISBN 0-262-03384-4.
  3. 3.0 3.1 3.2 3.3 3.4 3.5 A. Bogdanov and L. Trevisan, "Average-Case Complexity," Foundations and Trends in Theoretical Computer Science, Vol. 2, No 1 (2006) 1–106.
  4. D. Knuth, The Art of Computer Programming. Vol. 3, Addison-Wesley, 1973.
  5. 5.0 5.1 L. Levin, "Average case complete problems," SIAM Journal on Computing, vol. 15, no. 1, pp. 285–286, 1986.
  6. 6.0 6.1 6.2 J. Wang, "Average-case computational complexity theory," Complexity Theory Retrospective II, pp. 295–328, 1997.
  7. 7.0 7.1 7.2 7.3 7.4 7.5 7.6 7.7 7.8 S. Arora and B. Barak, Computational Complexity: A Modern Approach, Cambridge University Press, New York, NY, 2009.
  8. Y. Gurevich, "Complete and incomplete randomized NP problems", Proc. 28th Annual Symp. on Found. of Computer Science, IEEE (1987), pp. 111–117.
  9. N. Livne, "All Natural NP-Complete Problems Have Average-Case Complete Versions," Computational Complexity (2010) 19:477. https://doi.org/10.1007/s00037-010-0298-9
  10. O. Goldreich, "Notes on Levin's theory of average-case complexity," Technical Report TR97-058, Electronic Colloquium on Computational Complexity, 1997.
  11. J. Katz and Y. Lindell, Introduction to Modern Cryptography (Chapman and Hall/Crc Cryptography and Network Security Series), Chapman and Hall/CRC, 2007.
  12. R. Impagliazzo and L. Levin, "No Better Ways to Generate Hard NP Instances than Picking Uniformly at Random," in Proceedings of the 31st IEEE Sympo- sium on Foundations of Computer Science, pp. 812–821, 1990.
  13. S. Ben-David, B. Chor, O. Goldreich, and M. Luby, "On the theory of average case complexity," Journal of Computer and System Sciences, vol. 44, no. 2, pp. 193–219, 1992.
  14. J. Feigenbaum and L. Fortnow, "Random-self-reducibility of complete sets," SIAM Journal on Computing, vol. 22, pp. 994–1005, 1993.
  15. A. Bogdanov and L. Trevisan, "On worst-case to average-case reductions for NP problems," in Proceedings of the 44th IEEE Symposium on Foundations of Computer Science, pp. 308–317, 2003.


अग्रिम पठन

The literature of average case complexity includes the following work: