कण दल इष्टतमीकरण

कम्प्यूटेशनल विज्ञान में, कण झुंड अनुकूलन (PSO)[1]एक कम्प्यूटेशनल विधि है कि गणितीय अनुकूलन गुणवत्ता के दिए गए माप के संबंध में एक उम्मीदवार समाधान में सुधार करने की कोशिश कर पुनरावृत्त विधि द्वारा एक समस्या है। यह उम्मीदवार समाधानों की आबादी, यहां डब किए गए बिंदु कणों, और इन कणों को ऑप्टिमाइजेशन (गणित) # अवधारणाओं और अंकन | खोज-स्थान में कण की स्थिति (वेक्टर) और वेग पर सरल सूत्र के अनुसार स्थानांतरित करके एक समस्या हल करता है। प्रत्येक कण की गति उसकी स्थानीय सर्वोत्तम ज्ञात स्थिति से प्रभावित होती है, लेकिन खोज-स्थान में सर्वोत्तम ज्ञात स्थितियों की ओर भी निर्देशित होती है, जो अन्य कणों द्वारा बेहतर स्थिति पाए जाने पर अपडेट की जाती हैं। इससे झुंड को सर्वोत्तम समाधानों की ओर ले जाने की उम्मीद है।
PSO का श्रेय मूल रूप से जेम्स कैनेडी (सामाजिक मनोवैज्ञानिक), रसेल सी. एबरहार्ट और आप शि करेंगे को दिया जाता है[2][3]और पहले कंप्यूटर सिमुलेशन सामाजिक व्यवहार के लिए अभिप्रेत था,[4]एक पक्षी झुंड (व्यवहार) या मछली स्कूल में जीवों के आंदोलन के एक शैलीगत प्रतिनिधित्व के रूप में। एल्गोरिथम को सरल बनाया गया था और यह देखा गया था कि यह अनुकूलन कर रहा है। केनेडी और एबरहार्ट की पुस्तक[5]PSO और झुंड खुफिया के कई दार्शनिक पहलुओं का वर्णन करता है। पीएसओ अनुप्रयोगों का एक व्यापक सर्वेक्षण रिकार्डो पोली द्वारा किया गया है।[6][7]हाल ही में, PSO पर सैद्धांतिक और प्रायोगिक कार्यों की एक व्यापक समीक्षा Bonyadi और Michalewicz द्वारा प्रकाशित की गई है।[1]
पीएसओ एक मेटाह्यूरिस्टिक है क्योंकि यह समस्या को अनुकूलित करने के बारे में कुछ या कोई धारणा नहीं बनाता है और उम्मीदवार समाधानों के बहुत बड़े स्थान खोज सकता है। साथ ही, PSO ऑप्टिमाइज़ की जा रही समस्या के ग्रेडियेंट का उपयोग नहीं करता है, जिसका अर्थ है कि PSO के लिए यह आवश्यक नहीं है कि ऑप्टिमाइज़ेशन समस्या विभेदक कार्य हो जैसा कि क्लासिक ऑप्टिमाइज़ेशन विधियों जैसे कि ढतला हुआ वंश और क्वैसी-न्यूटन विधियों द्वारा आवश्यक है। हालांकि, पीएसओ जैसे मेटाह्यूरिस्टिक्स इस बात की गारंटी नहीं देते हैं कि एक इष्टतम समाधान कभी भी मिल जाएगा।
एल्गोरिथम
पीएसओ एल्गोरिथम का एक मूल संस्करण उम्मीदवार समाधान (कण कहा जाता है) की आबादी (झुंड कहा जाता है) के द्वारा काम करता है। इन कणों को कुछ सरल सूत्रों के अनुसार खोज-स्थान में इधर-उधर घुमाया जाता है।[8] कणों के आंदोलनों को खोज-स्थान के साथ-साथ पूरे झुंड की सबसे अच्छी ज्ञात स्थिति में उनकी अपनी सबसे प्रसिद्ध स्थिति द्वारा निर्देशित किया जाता है। जब बेहतर स्थिति की खोज की जा रही है तो ये झुंड के आंदोलनों का मार्गदर्शन करने के लिए आएंगे। प्रक्रिया को दोहराया जाता है और ऐसा करने से यह आशा की जाती है, लेकिन इसकी गारंटी नहीं है कि अंत में एक संतोषजनक समाधान खोज लिया जाएगा।
औपचारिक रूप से, मान लीजिए f: ℝn → ℝ लागत फलन हो जिसे न्यूनतम किया जाना चाहिए। फ़ंक्शन एक उम्मीदवार समाधान को वास्तविक संख्याओं के एक पंक्ति वेक्टर के रूप में एक तर्क के रूप में लेता है और आउटपुट के रूप में एक वास्तविक संख्या उत्पन्न करता है जो दिए गए उम्मीदवार समाधान के उद्देश्य फ़ंक्शन मान को इंगित करता है। F की प्रवणता ज्ञात नहीं है। लक्ष्य एक समाधान 'ए' खोजना है जिसके लिए खोज-स्थान में सभी 'बी' के लिए f('a') ≤ f('b') है, जिसका अर्थ होगा 'a' वैश्विक न्यूनतम है।
मान लीजिए S झुंड में कणों की संख्या है, प्रत्येक की स्थिति 'x' हैi∈ ℝn खोज-स्थान में और एक वेग 'v'i∈ ℝएन. चलो 'पी'i कण i की सबसे अच्छी ज्ञात स्थिति हो और 'g' पूरे झुंड की सबसे अच्छी ज्ञात स्थिति हो। लागत फ़ंक्शन को कम करने के लिए एक मूल PSO एल्गोरिथम है:[9]
प्रत्येक कण के लिए i = 1, ..., S करें एक समान वितरण (निरंतर) यादृच्छिक वेक्टर के साथ कण की स्थिति को प्रारंभ करें: xi~ यू ('बीlo, बीup) कण की सबसे अच्छी ज्ञात स्थिति को उसकी प्रारंभिक स्थिति में प्रारंभ करें: पीi← एक्सi
अगर एफ (पीi) <च ('जी') 'फिर'
झुंड की सबसे प्रसिद्ध स्थिति को अपडेट करें: 'g' ← 'p'i
कण के वेग को प्रारंभ करें: vi~ यू(-|'बीup-बीlo|, |बीup-बीlo|)
जबकि समाप्ति मानदंड पूरा नहीं किया गया है: प्रत्येक कण के लिए i = 1, ..., S करें प्रत्येक आयाम के लिए d = 1, ..., n करें यादृच्छिक संख्या चुनें: आरp, आरg ~ यू (0,1) कण के वेग को अद्यतन करें: 'v'i,d← डब्ल्यू वीi,d + एफp rp (पीi,d-एक्सi,d) + चg rg (जीd-एक्सi,d) कण की स्थिति को अद्यतन करें: xi← एक्सi + विi
अगर एफ (एक्सi) <च ('पी'i) तब
कण की सर्वोत्तम ज्ञात स्थिति को अद्यतन करें: pi← एक्सi
अगर एफ (पीi) <च ('जी') 'फिर'
झुंड की सबसे अच्छी ज्ञात स्थिति को अपडेट करें: 'g' ← 'p'i
मान बीloऔर बीupक्रमशः खोज-स्थान की निचली और ऊपरी सीमाओं का प्रतिनिधित्व करते हैं। डब्ल्यू पैरामीटर जड़ता भार है। पैरामीटर φp और φg अक्सर संज्ञानात्मक गुणांक और सामाजिक गुणांक कहा जाता है।
समाप्ति मानदंड प्रदर्शन किए गए पुनरावृत्तियों की संख्या हो सकता है, या एक समाधान जहां पर्याप्त उद्देश्य फ़ंक्शन मान पाया जाता है।[10]पैरामीटर डब्ल्यू, φp, और φg व्यवसायी द्वारा चुने जाते हैं और PSO विधि (#पैरामीटर चयन) के व्यवहार और प्रभावकारिता को नियंत्रित करते हैं।
पैरामीटर चयन
PSO पैरामीटर के चुनाव का अनुकूलन प्रदर्शन पर बड़ा प्रभाव पड़ सकता है। अच्छा प्रदर्शन देने वाले पीएसओ पैरामीटर का चयन इसलिए बहुत शोध का विषय रहा है।[11][12][13][14][15][16][17][18][19]
विचलन (विस्फोट) को रोकने के लिए जड़ता का वजन 1 से कम होना चाहिए। फिर दो अन्य मापदंडों को कसना दृष्टिकोण के लिए धन्यवाद प्राप्त किया जा सकता है,[16]या स्वतंत्र रूप से चयनित, लेकिन विश्लेषण उन्हें विवश करने के लिए अभिसरण डोमेन का सुझाव देते हैं। विशिष्ट मान में हैं .
पीएसओ मापदंडों को एक अन्य ओवरलेइंग ऑप्टिमाइज़र का उपयोग करके भी ट्यून किया जा सकता है, एक अवधारणा जिसे मेटा-अनुकूलन के रूप में जाना जाता है,[20][21][22][23]या ऑप्टिमाइज़ेशन के दौरान फ़ाइन-ट्यून भी किया जाता है, उदाहरण के लिए, फ़ज़ी लॉजिक के माध्यम से।[24][25]
विभिन्न अनुकूलन परिदृश्यों के लिए पैरामीटर्स को भी ट्यून किया गया है।[26][27]
पड़ोस और टोपोलॉजी
झुंड की टोपोलॉजी कणों के सबसेट को परिभाषित करती है जिसके साथ प्रत्येक कण सूचना का आदान-प्रदान कर सकता है।[28]एल्गोरिदम का मूल संस्करण झुंड संचार संरचना के रूप में वैश्विक टोपोलॉजी का उपयोग करता है।[10]यह टोपोलॉजी सभी कणों को अन्य सभी कणों के साथ संवाद करने की अनुमति देती है, इस प्रकार पूरा झुंड एक ही कण से समान सर्वोत्तम स्थिति साझा करता है। हालाँकि, यह दृष्टिकोण झुंड को एक स्थानीय न्यूनतम में फँसाने का कारण बन सकता है,[29] इस प्रकार कणों के बीच सूचना के प्रवाह को नियंत्रित करने के लिए विभिन्न टोपोलॉजी का उपयोग किया गया है। उदाहरण के लिए, स्थानीय टोपोलॉजी में, कण केवल कणों के एक सबसेट के साथ सूचना साझा करते हैं।[10]यह उपसमुच्चय ज्यामितीय हो सकता है[30] - उदाहरण के लिए एम निकटतम कण - या, अधिक बार, एक सामाजिक, यानी कणों का एक सेट जो किसी भी दूरी पर निर्भर नहीं होता है। ऐसे मामलों में, PSO वैरिएंट को लोकल बेस्ट (बनाम बेसिक PSO के लिए ग्लोबल बेस्ट) कहा जाता है।
आमतौर पर इस्तेमाल की जाने वाली झुंड टोपोलॉजी रिंग है, जिसमें प्रत्येक कण के सिर्फ दो पड़ोसी होते हैं, लेकिन कई अन्य भी होते हैं।[10]टोपोलॉजी जरूरी स्थिर नहीं है। वास्तव में, चूंकि टोपोलॉजी कणों के संचार की विविधता से संबंधित है,[31]अनुकूली टोपोलॉजी बनाने के लिए कुछ प्रयास किए गए हैं (एसपीएसओ,[32] एपीएसओ,[33] स्टोकेस्टिक स्टार,[34] जनजाति,[35] साइबर झुंड,[36] और सी-पीएसओ[37]).
आंतरिक कामकाज
PSO एल्गोरिद्म अनुकूलन क्यों और कैसे कर सकता है, इस पर विचार के कई स्कूल हैं।
शोधकर्ताओं के बीच एक आम धारणा यह है कि झुंड का व्यवहार खोजपूर्ण व्यवहार के बीच भिन्न होता है, अर्थात, खोज-स्थान के एक व्यापक क्षेत्र की खोज, और शोषणकारी व्यवहार, जो कि स्थानीय रूप से उन्मुख खोज है ताकि एक (संभवतः स्थानीय) के करीब पहुंच सके। अनुकूलतम। पीएसओ की स्थापना के बाद से विचार का यह विद्यालय प्रचलित रहा है।[3][4][12][16]इस स्कूल ऑफ थिंक का तर्क है कि PSO एल्गोरिथम और इसके मापदंडों को चुना जाना चाहिए ताकि स्थानीय इष्टतम के लिए समय से पहले अभिसरण से बचने के लिए अन्वेषण और शोषण के बीच ठीक से संतुलन बनाया जा सके, फिर भी अभी भी इष्टतम के अभिसरण अनुक्रम की अच्छी दर सुनिश्चित की जा सके। यह विश्वास कई पीएसओ वेरिएंट का अग्रदूत है, #वेरिएंट देखें।
विचार का एक अन्य स्कूल यह है कि PSO झुंड का व्यवहार वास्तविक अनुकूलन प्रदर्शन को कैसे प्रभावित करता है, विशेष रूप से उच्च-आयामी खोज-स्थानों और अनुकूलन समस्याओं के संदर्भ में अच्छी तरह से नहीं समझा जाता है जो असतत, शोर और समय-भिन्न हो सकते हैं। विचार का यह स्कूल केवल पीएसओ एल्गोरिदम और पैरामीटर खोजने की कोशिश करता है जो अच्छे प्रदर्शन का कारण बनता है, भले ही झुंड के व्यवहार की व्याख्या कैसे की जा सकती है। अन्वेषण और शोषण। इस तरह के अध्ययनों से पीएसओ एल्गोरिथम का सरलीकरण हुआ है, #सरलीकरण देखें।
अभिसरण
पीएसओ के संबंध में शब्द अभिसरण आमतौर पर दो अलग-अलग परिभाषाओं को संदर्भित करता है:
- समाधानों के अनुक्रम का अभिसरण (उर्फ, स्थिरता विश्लेषण, अभिसरण अनुक्रम) जिसमें सभी कण खोज-स्थान में एक बिंदु पर अभिसरण करते हैं, जो इष्टतम हो सकता है या नहीं भी हो सकता है,
- एक स्थानीय इष्टतम के लिए अभिसरण जहां सभी व्यक्तिगत सर्वश्रेष्ठ 'पी' या, वैकल्पिक रूप से, झुंड की सबसे अच्छी ज्ञात स्थिति 'जी', झुंड कैसे व्यवहार करता है, इस पर ध्यान दिए बिना समस्या के स्थानीय इष्टतम तक पहुंचता है।
समाधान के क्रम के अभिसरण की पीएसओ के लिए जांच की गई है।[15][16][17]इन विश्लेषणों के परिणामस्वरूप पीएसओ मापदंडों का चयन करने के लिए दिशा-निर्देश दिए गए हैं, जिनके बारे में माना जाता है कि वे एक बिंदु पर अभिसरण का कारण बनते हैं और झुंड के कणों के विचलन को रोकते हैं (कण असीम रूप से आगे नहीं बढ़ते हैं और कहीं न कहीं अभिसरण करेंगे)। हालांकि, पेडर्सन द्वारा विश्लेषण की आलोचना की गई थी[22]अत्यधिक सरलीकृत होने के लिए क्योंकि वे मानते हैं कि झुंड में केवल एक कण है, यह स्टोकेस्टिक चर का उपयोग नहीं करता है और आकर्षण के बिंदु, यानी कण की सबसे अच्छी ज्ञात स्थिति पी और झुंड की सबसे अच्छी ज्ञात स्थिति जी, अनुकूलन प्रक्रिया के दौरान स्थिर रहती है। . हालांकि दिखाया गया[38] कि ये सरलीकरण इन अध्ययनों द्वारा पैरामीटर के लिए पाई गई सीमाओं को प्रभावित नहीं करते हैं जहां झुंड अभिसरण है। पीएसओ के स्थिरता विश्लेषण के दौरान उपयोग की जाने वाली मॉडलिंग धारणा को कमजोर करने के लिए हाल के वर्षों में काफी प्रयास किए गए हैं,[39]सबसे हालिया सामान्यीकृत परिणाम के साथ कई पीएसओ प्रकारों पर लागू होता है और जो न्यूनतम आवश्यक मॉडलिंग धारणाओं के रूप में दिखाया गया था उसका उपयोग किया जाता है।[40]
में पीएसओ के लिए एक स्थानीय इष्टतम के अभिसरण का विश्लेषण किया गया है[41] और।[42]यह साबित हो चुका है कि स्थानीय इष्टतम खोजने की गारंटी के लिए PSO को कुछ संशोधन की आवश्यकता है।
इसका मतलब यह है कि विभिन्न पीएसओ एल्गोरिदम और पैरामीटर की अभिसरण क्षमताओं का निर्धारण अभी भी अनुभवजन्य परिणामों पर निर्भर करता है। इस मुद्दे को संबोधित करने का एक प्रयास पी और जी के बीच संबंध में पहले से मौजूद जानकारी के बेहतर उपयोग के लिए एक ओर्थोगोनल सीखने की रणनीति का विकास है, ताकि एक प्रमुख अभिसरण उदाहरण तैयार किया जा सके और किसी भी पीएसओ टोपोलॉजी के साथ प्रभावी हो सके। इसका उद्देश्य समग्र रूप से पीएसओ के प्रदर्शन में सुधार करना है, जिसमें तेजी से वैश्विक अभिसरण, उच्च समाधान गुणवत्ता और मजबूत मजबूती शामिल है।[43]हालांकि, ऐसे अध्ययन वास्तव में उनके दावों को साबित करने के लिए सैद्धांतिक सबूत प्रदान नहीं करते हैं।
अनुकूली तंत्र
अभिसरण ('शोषण') और विचलन ('अन्वेषण') के बीच व्यापार-बंद की आवश्यकता के बिना, एक अनुकूली तंत्र पेश किया जा सकता है। अनुकूली कण झुंड अनुकूलन (एपीएसओ) [44]मानक पीएसओ की तुलना में बेहतर खोज दक्षता प्रदान करता है। APSO उच्च अभिसरण गति के साथ संपूर्ण खोज स्थान पर वैश्विक खोज कर सकता है। यह रन टाइम पर जड़ता वजन, त्वरण गुणांक और अन्य एल्गोरिथम मापदंडों के स्वत: नियंत्रण को सक्षम बनाता है, जिससे एक ही समय में खोज प्रभावशीलता और दक्षता में सुधार होता है। इसके अलावा, APSO संभावित स्थानीय ऑप्टिमा से बाहर निकलने के लिए विश्व स्तर पर सर्वश्रेष्ठ कण पर कार्य कर सकता है। हालाँकि, APSO नए एल्गोरिथम मापदंडों को पेश करेगा, फिर भी यह अतिरिक्त डिज़ाइन या कार्यान्वयन जटिलता का परिचय नहीं देता है।
वेरिएंट
बुनियादी पीएसओ एल्गोरिथम के भी कई रूप संभव हैं। उदाहरण के लिए, कणों और वेगों को आरंभ करने के विभिन्न तरीके हैं (उदाहरण के लिए इसके बजाय शून्य वेग से शुरू करें), वेग को कैसे कम करें, केवल p को अपडेट करेंi और जी के बाद पूरे झुंड को अद्यतन किया गया है, आदि। साहित्य में इनमें से कुछ विकल्पों और उनके संभावित प्रदर्शन प्रभाव पर चर्चा की गई है।[14]
प्रमुख शोधकर्ताओं द्वारा मानक कार्यान्वयन की एक श्रृंखला बनाई गई है, जिसका उद्देश्य तकनीक में सुधार के प्रदर्शन परीक्षण के लिए आधार रेखा के रूप में उपयोग करना और व्यापक अनुकूलन समुदाय के लिए पीएसओ का प्रतिनिधित्व करना है। एक प्रसिद्ध, सख्ती से परिभाषित मानक एल्गोरिदम होने से तुलना का एक मूल्यवान बिंदु प्रदान होता है जिसका प्रयोग अनुसंधान के क्षेत्र में नई प्रगति का बेहतर परीक्षण करने के लिए किया जा सकता है।[10]नवीनतम मानक PSO 2011 (SPSO-2011) है।[45]
संकरण
अनुकूलन प्रदर्शन को बेहतर बनाने के प्रयास में नए और अधिक परिष्कृत PSO संस्करण भी लगातार पेश किए जा रहे हैं। उस शोध में कुछ रुझान हैं; एक अन्य अनुकूलक के साथ संयुक्त पीएसओ का उपयोग करके एक संकर अनुकूलन विधि बनाना है,[46][47][48]उदा., जैवभूगोल-आधारित अनुकूलन के साथ संयुक्त PSO,[49] और एक प्रभावी शिक्षण पद्धति का समावेश।[43]
समयपूर्व अभिसरण को कम करें
एक अन्य शोध प्रवृत्ति समय से पहले अभिसरण (यानी, अनुकूलन ठहराव) को कम करने की कोशिश करना है, उदा। PSO कणों की गति को उलटने या परेशान करने से,[19][50][51][52]समयपूर्व अभिसरण से निपटने के लिए एक अन्य दृष्टिकोण एकाधिक झुंडों का उपयोग है[53] (बहु-झुंड अनुकूलन)। बहु-उद्देश्य अनुकूलन को लागू करने के लिए बहु-झुंड दृष्टिकोण का भी उपयोग किया जा सकता है।[54]अंत में, अनुकूलन के दौरान PSO के व्यवहार संबंधी मापदंडों को अपनाने में विकास हुआ है।[44][24]
सरलीकरण
विचार का एक अन्य स्कूल यह है कि पीएसओ को इसके प्रदर्शन को खराब किए बिना जितना संभव हो उतना सरल बनाया जाना चाहिए; एक सामान्य अवधारणा को अक्सर ओकाम का रेज़र कहा जाता है। सरलीकृत पीएसओ मूल रूप से केनेडी द्वारा सुझाया गया था[4]और अधिक व्यापक रूप से अध्ययन किया गया है,[18][21][22][55]जहां ऐसा प्रतीत हुआ कि अनुकूलन प्रदर्शन में सुधार हुआ है, और मापदंडों को ट्यून करना आसान था और उन्होंने विभिन्न अनुकूलन समस्याओं में लगातार अधिक प्रदर्शन किया।
पीएसओ को सरल बनाने के पक्ष में एक और तर्क यह है कि मेटाह्यूरिस्टिक्स केवल सीमित संख्या में अनुकूलन समस्याओं पर कम्प्यूटेशनल प्रयोग करके अनुभवजन्य रूप से अपनी प्रभावकारिता प्रदर्शित कर सकता है। इसका मतलब यह है कि पीएसओ जैसे मेटाहेरिस्टिक कार्यक्रम की शुद्धता नहीं हो सकती है और इससे इसके विवरण और कार्यान्वयन में त्रुटियां होने का खतरा बढ़ जाता है। इसका एक अच्छा उदाहरण है[56]एक आनुवंशिक एल्गोरिथम (एक अन्य लोकप्रिय मेटाह्यूरिस्टिक) का एक आशाजनक संस्करण प्रस्तुत किया गया था, लेकिन बाद में इसे दोषपूर्ण पाया गया क्योंकि यह खोज स्थान में विभिन्न आयामों के लिए समान मूल्यों के प्रति अपनी अनुकूलन खोज में दृढ़ता से पक्षपाती था, जो बेंचमार्क का इष्टतम हुआ। समस्याओं पर विचार किया। यह पक्षपात एक प्रोग्रामिंग त्रुटि के कारण था, और अब इसे ठीक कर लिया गया है।[57]
वेगों की शुरुआत के लिए अतिरिक्त इनपुट की आवश्यकता हो सकती है। द बेयर बोन्स पीएसओ वैरिएंट[58] 2003 में जेम्स कैनेडी द्वारा प्रस्तावित किया गया है, और इसमें वेग का उपयोग करने की आवश्यकता नहीं है।
एक और सरल संस्करण त्वरित कण झुंड अनुकूलन (एपीएसओ) है,[59] जिसे वेग का उपयोग करने की भी आवश्यकता नहीं है और कई अनुप्रयोगों में अभिसरण को गति दे सकता है। एपीएसओ का एक साधारण डेमो कोड उपलब्ध है।[60]
बहुउद्देश्यीय अनुकूलन
PSO को बहुउद्देश्यीय अनुकूलन | बहुउद्देश्यीय समस्याओं पर भी लागू किया गया है,[61][62][63]जिसमें पीएसओ कणों को स्थानांतरित करते समय उद्देश्य फ़ंक्शन तुलना पारेटो दक्षता को ध्यान में रखती है और गैर-प्रभुत्व वाले समाधानों को संग्रहीत किया जाता है ताकि पारेटो मोर्चे का अनुमान लगाया जा सके।
बाइनरी, डिस्क्रीट और कॉम्बिनेटरियल
जैसा कि ऊपर दिए गए पीएसओ समीकरण वास्तविक संख्याओं पर काम करते हैं, असतत समस्याओं को हल करने के लिए आमतौर पर इस्तेमाल की जाने वाली विधि असतत खोज स्थान को एक निरंतर डोमेन पर मैप करना है, क्लासिकल पीएसओ लागू करना है, और फिर परिणाम को डीमैप करना है। इस तरह की मैपिंग बहुत सरल हो सकती है (उदाहरण के लिए केवल गोलाकार मानों का उपयोग करके) या अधिक परिष्कृत।[64] हालांकि, यह ध्यान दिया जा सकता है कि संचलन के समीकरण उन ऑपरेटरों का उपयोग करते हैं जो चार क्रियाएं करते हैं:
- दो पदों के अंतर की गणना। नतीजा एक वेग है (अधिक सटीक रूप से एक विस्थापन)
- किसी वेग को संख्यात्मक गुणांक से गुणा करना
- दो वेग जोड़ना
- किसी स्थिति में वेग लागू करना
आमतौर पर एक स्थिति और एक वेग n वास्तविक संख्याओं द्वारा दर्शाए जाते हैं, और ये संकारक केवल -, *, +, और फिर से + होते हैं। लेकिन इन सभी गणितीय वस्तुओं को पूरी तरह से अलग तरीके से परिभाषित किया जा सकता है, ताकि बाइनरी समस्याओं (या अधिक आम तौर पर असतत वाले), या यहां तक कि संयोजन वाले लोगों का सामना किया जा सके।[65][66][67][68] एक दृष्टिकोण सेट के आधार पर ऑपरेटरों को फिर से परिभाषित करना है।[69]
यह भी देखें
- कृत्रिम मधुमक्खी कॉलोनी एल्गोरिदम
- मधुमक्खियों का एल्गोरिदम
- व्युत्पन्न मुक्त अनुकूलन
- बहु-झुंड अनुकूलन
- कण फिल्टर
- झुंड खुफिया
- मछली स्कूल खोज
- फैलाव मक्खियों अनुकूलन
संदर्भ
- ↑ Jump up to: 1.0 1.1 Bonyadi, M. R.; Michalewicz, Z. (2017). "Particle swarm optimization for single objective continuous space problems: a review". Evolutionary Computation. 25 (1): 1–54. doi:10.1162/EVCO_r_00180. PMID 26953883. S2CID 8783143.
- ↑ Kennedy, J.; Eberhart, R. (1995). "Particle Swarm Optimization". Proceedings of IEEE International Conference on Neural Networks. Vol. IV. pp. 1942–1948. doi:10.1109/ICNN.1995.488968.
- ↑ Jump up to: 3.0 3.1 Shi, Y.; Eberhart, R.C. (1998). "A modified particle swarm optimizer". Proceedings of IEEE International Conference on Evolutionary Computation. pp. 69–73. doi:10.1109/ICEC.1998.699146.
- ↑ Jump up to: 4.0 4.1 4.2 Kennedy, J. (1997). "The particle swarm: social adaptation of knowledge". Proceedings of IEEE International Conference on Evolutionary Computation. pp. 303–308. doi:10.1109/ICEC.1997.592326.
- ↑ Kennedy, J.; Eberhart, R.C. (2001). Swarm Intelligence. Morgan Kaufmann. ISBN 978-1-55860-595-4.
- ↑ Poli, R. (2007). "An analysis of publications on particle swarm optimisation applications" (PDF). Technical Report CSM-469. Archived from the original (PDF) on 2011-07-16. Retrieved 2010-05-03.
- ↑ Poli, R. (2008). "Analysis of the publications on the applications of particle swarm optimisation" (PDF). Journal of Artificial Evolution and Applications. 2008: 1–10. doi:10.1155/2008/685175.
- ↑ Zhang, Y. (2015). "A Comprehensive Survey on Particle Swarm Optimization Algorithm and Its Applications". Mathematical Problems in Engineering. 2015: 931256.
- ↑ Clerc, M. (2012). "Standard Particle Swarm Optimisation" (PDF). HAL Open Access Archive.
- ↑ Jump up to: 10.0 10.1 10.2 10.3 10.4 Bratton, Daniel; Kennedy, James (2007). Defining a Standard for Particle Swarm Optimization (PDF). pp. 120–127. doi:10.1109/SIS.2007.368035. ISBN 978-1-4244-0708-8. S2CID 6217309.
{{cite book}}
:|journal=
ignored (help) - ↑ Taherkhani, M.; Safabakhsh, R. (2016). "A novel stability-based adaptive inertia weight for particle swarm optimization". Applied Soft Computing. 38: 281–295. doi:10.1016/j.asoc.2015.10.004.
- ↑ Jump up to: 12.0 12.1 Shi, Y.; Eberhart, R.C. (1998). "Parameter selection in particle swarm optimization". Proceedings of Evolutionary Programming VII (EP98). pp. 591–600.
- ↑ Eberhart, R.C.; Shi, Y. (2000). "Comparing inertia weights and constriction factors in particle swarm optimization". Proceedings of the Congress on Evolutionary Computation. Vol. 1. pp. 84–88.
- ↑ Jump up to: 14.0 14.1 Carlisle, A.; Dozier, G. (2001). "An Off-The-Shelf PSO" (PDF). Proceedings of the Particle Swarm Optimization Workshop. pp. 1–6. Archived from the original (PDF) on 2003-05-03.
- ↑ Jump up to: 15.0 15.1 van den Bergh, F. (2001). An Analysis of Particle Swarm Optimizers (PDF) (PhD thesis). University of Pretoria, Faculty of Natural and Agricultural Science.
- ↑ Jump up to: 16.0 16.1 16.2 16.3 Clerc, M.; Kennedy, J. (2002). "The particle swarm - explosion, stability, and convergence in a multidimensional complex space". IEEE Transactions on Evolutionary Computation. 6 (1): 58–73. CiteSeerX 10.1.1.460.6608. doi:10.1109/4235.985692.
- ↑ Jump up to: 17.0 17.1 Trelea, I.C. (2003). "The Particle Swarm Optimization Algorithm: convergence analysis and parameter selection". Information Processing Letters. 85 (6): 317–325. doi:10.1016/S0020-0190(02)00447-7.
- ↑ Jump up to: 18.0 18.1 Bratton, D.; Blackwell, T. (2008). "A Simplified Recombinant PSO" (PDF). Journal of Artificial Evolution and Applications. 2008: 1–10. doi:10.1155/2008/654184.
- ↑ Jump up to: 19.0 19.1 Evers, G. (2009). An Automatic Regrouping Mechanism to Deal with Stagnation in Particle Swarm Optimization (Master's thesis). The University of Texas - Pan American, Department of Electrical Engineering.
- ↑ Meissner, M.; Schmuker, M.; Schneider, G. (2006). "Optimized Particle Swarm Optimization (OPSO) and its application to artificial neural network training". BMC Bioinformatics. 7 (1): 125. doi:10.1186/1471-2105-7-125. PMC 1464136. PMID 16529661.
- ↑ Jump up to: 21.0 21.1 Pedersen, M.E.H. (2010). Tuning & Simplifying Heuristical Optimization (PDF). University of Southampton, School of Engineering Sciences, Computational Engineering and Design Group. S2CID 107805461. Archived from the original (PhD thesis) on 2020-02-13.
- ↑ Jump up to: 22.0 22.1 22.2 Pedersen, M.E.H.; Chipperfield, A.J. (2010). "Simplifying particle swarm optimization". Applied Soft Computing. 10 (2): 618–628. CiteSeerX 10.1.1.149.8300. doi:10.1016/j.asoc.2009.08.029.
- ↑ Mason, Karl; Duggan, Jim; Howley, Enda (2018). "A Meta Optimisation Analysis of Particle Swarm Optimisation Velocity Update Equations for Watershed Management Learning". Applied Soft Computing. 62: 148–161. doi:10.1016/j.asoc.2017.10.018.
- ↑ Jump up to: 24.0 24.1 Nobile, M.S; Cazzaniga, P.; Besozzi, D.; Colombo, R.; Mauri, G.; Pasi, G. (2018). "Fuzzy Self-Tuning PSO: a settings-free algorithm for global optimization". Swarm and Evolutionary Computation. 39: 70–85. doi:10.1016/j.swevo.2017.09.001. hdl:10446/106467.
- ↑ Nobile, M.S; Pasi, G.; Cazzaniga, P.; Besozzi, D.; Colombo, R.; Mauri, G. (2015). "Proactive particles in swarm optimization: a self-tuning algorithm based on fuzzy logic". Proceedings of the 2015 IEEE International Conference on Fuzzy Systems (FUZZ-IEEE 2015), Istanbul (Turkey). pp. 1–8. doi:10.1109/FUZZ-IEEE.2015.7337957.
- ↑ Cazzaniga, P.; Nobile, M.S.; Besozzi, D. (2015). "The impact of particles initialization in PSO: parameter estimation as a case in point, (Canada)". Proceedings of IEEE Conference on Computational Intelligence in Bioinformatics and Computational Biology. doi:10.1109/CIBCB.2015.7300288.
- ↑ Pedersen, M.E.H. (2010). "Good parameters for particle swarm optimization". Technical Report HL1001. CiteSeerX 10.1.1.298.4359.
- ↑ Kennedy, J.; Mendes, R. (2002). Population structure and particle swarm performance. pp. 1671–1676 vol.2. CiteSeerX 10.1.1.114.7988. doi:10.1109/CEC.2002.1004493. ISBN 978-0-7803-7282-5. S2CID 14364974.
{{cite book}}
:|journal=
ignored (help) - ↑ Mendes, R. (2004). Population Topologies and Their Influence in Particle Swarm Performance (PhD thesis). Universidade do Minho.
- ↑ Suganthan, Ponnuthurai N. "Particle swarm optimiser with neighbourhood operator." Evolutionary Computation, 1999. CEC 99. Proceedings of the 1999 Congress on. Vol. 3. IEEE, 1999.
- ↑ Oliveira, M.; Pinheiro, D.; Andrade, B.; Bastos-Filho, C.; Menezes, R. (2016). Communication Diversity in Particle Swarm Optimizers. pp. 77–88. doi:10.1007/978-3-319-44427-7_7. ISBN 978-3-319-44426-0. S2CID 37588745.
{{cite book}}
:|journal=
ignored (help) - ↑ SPSO Particle Swarm Central
- ↑ Almasi, O. N. and Khooban, M. H. (2017). A parsimonious SVM model selection criterion for classification of real-world data sets via an adaptive population-based algorithm. Neural Computing and Applications, 1-9. https://doi.org/10.1007/s00521-017-2930-y
- ↑ Miranda, V., Keko, H. and Duque, Á. J. (2008). Stochastic Star Communication Topology in Evolutionary Particle Swarms (EPSO). International Journal of Computational Intelligence Research (IJCIR), Volume 4, Number 2, pp. 105-116
- ↑ Clerc, M. (2006). Particle Swarm Optimization. ISTE (International Scientific and Technical Encyclopedia), 2006
- ↑ Yin, P., Glover, F., Laguna, M., & Zhu, J. (2011). A Complementary Cyber Swarm Algorithm. International Journal of Swarm Intelligence Research (IJSIR), 2(2), 22-41
- ↑ Elshamy, W.; Rashad, H.; Bahgat, A. (2007). "Clubs-based Particle Swarm Optimization" (PDF). IEEE Swarm Intelligence Symposium 2007 (SIS2007). Honolulu, HI. pp. 289–296. Archived from the original (PDF) on 2013-10-23. Retrieved 2012-04-27.
- ↑ Cleghorn, Christopher W (2014). "Particle Swarm Convergence: Standardized Analysis and Topological Influence". Swarm Intelligence Conference. Lecture Notes in Computer Science. 8667: 134–145. doi:10.1007/978-3-319-09952-1_12. ISBN 978-3-319-09951-4.
- ↑ Liu, Q (2015). "Order-2 stability analysis of particle swarm optimization". Evolutionary Computation. 23 (2): 187–216. doi:10.1162/EVCO_a_00129. PMID 24738856. S2CID 25471827.
- ↑ Cleghorn, Christopher W.; Engelbrecht, Andries. (2018). "Particle Swarm Stability: A Theoretical Extension using the Non-Stagnate Distribution Assumption". Swarm Intelligence. 12 (1): 1–22. doi:10.1007/s11721-017-0141-x. hdl:2263/62934. S2CID 9778346.
- ↑ Van den Bergh, F. "A convergence proof for the particle swarm optimiser" (PDF). Fundamenta Informaticae.
- ↑ Bonyadi, Mohammad reza.; Michalewicz, Z. (2014). "A locally convergent rotationally invariant particle swarm optimization algorithm" (PDF). Swarm Intelligence. 8 (3): 159–198. doi:10.1007/s11721-014-0095-1. S2CID 2261683.
- ↑ Jump up to: 43.0 43.1 Zhan, Z-H.; Zhang, J.; Li, Y; Shi, Y-H. (2011). "Orthogonal Learning Particle Swarm Optimization" (PDF). IEEE Transactions on Evolutionary Computation. 15 (6): 832–847. doi:10.1109/TEVC.2010.2052054.
- ↑ Jump up to: 44.0 44.1 Zhan, Z-H.; Zhang, J.; Li, Y; Chung, H.S-H. (2009). "Adaptive Particle Swarm Optimization" (PDF). IEEE Transactions on Systems, Man, and Cybernetics. 39 (6): 1362–1381. doi:10.1109/TSMCB.2009.2015956. PMID 19362911. S2CID 11191625.
- ↑ Zambrano-Bigiarini, M.; Clerc, M.; Rojas, R. (2013). Standard Particle Swarm Optimisation 2011 at CEC-2013: A baseline for future PSO improvements. pp. 2337–2344. doi:10.1109/CEC.2013.6557848. ISBN 978-1-4799-0454-9. S2CID 206553432.
{{cite book}}
:|journal=
ignored (help) - ↑ Lovbjerg, M.; Krink, T. (2002). "The LifeCycle Model: combining particle swarm optimisation, genetic algorithms and hillclimbers" (PDF). Proceedings of Parallel Problem Solving from Nature VII (PPSN). pp. 621–630.
- ↑ Niknam, T.; Amiri, B. (2010). "An efficient hybrid approach based on PSO, ACO and k-means for cluster analysis". Applied Soft Computing. 10 (1): 183–197. doi:10.1016/j.asoc.2009.07.001.
- ↑ Zhang, Wen-Jun; Xie, Xiao-Feng (2003). DEPSO: hybrid particle swarm with differential evolution operator. IEEE International Conference on Systems, Man, and Cybernetics (SMCC), Washington, DC, USA: 3816-3821.
- ↑ Zhang, Y.; Wang, S. (2015). "Pathological Brain Detection in Magnetic Resonance Imaging Scanning by Wavelet Entropy and Hybridization of Biogeography-based Optimization and Particle Swarm Optimization". Progress in Electromagnetics Research. 152: 41–58. doi:10.2528/pier15040602.
- ↑ Lovbjerg, M.; Krink, T. (2002). "Extending Particle Swarm Optimisers with Self-Organized Criticality" (PDF). Proceedings of the Fourth Congress on Evolutionary Computation (CEC). Vol. 2. pp. 1588–1593.
- ↑ Xinchao, Z. (2010). "A perturbed particle swarm algorithm for numerical optimization". Applied Soft Computing. 10 (1): 119–124. doi:10.1016/j.asoc.2009.06.010.
- ↑ Xie, Xiao-Feng; Zhang, Wen-Jun; Yang, Zhi-Lian (2002). A dissipative particle swarm optimization. Congress on Evolutionary Computation (CEC), Honolulu, HI, USA: 1456-1461.
- ↑ Cheung, N. J.; Ding, X.-M.; Shen, H.-B. (2013). "OptiFel: A Convergent Heterogeneous Particle Sarm Optimization Algorithm for Takagi-Sugeno Fuzzy Modeling". IEEE Transactions on Fuzzy Systems. 22 (4): 919–933. doi:10.1109/TFUZZ.2013.2278972. S2CID 27974467.
- ↑ Nobile, M.; Besozzi, D.; Cazzaniga, P.; Mauri, G.; Pescini, D. (2012). "A GPU-Based Multi-Swarm PSO Method for Parameter Estimation in Stochastic Biological Systems Exploiting Discrete-Time Target Series". Evolutionary Computation, Machine Learning and Data Mining in Bioinformatics. Lecture Notes in Computer Science. Vol. 7264. pp. 74–85. doi:10.1007/978-3-642-29066-4_7.
- ↑ Yang, X.S. (2008). Nature-Inspired Metaheuristic Algorithms. Luniver Press. ISBN 978-1-905986-10-1.
- ↑ Tu, Z.; Lu, Y. (2004). "A robust stochastic genetic algorithm (StGA) for global numerical optimization". IEEE Transactions on Evolutionary Computation. 8 (5): 456–470. doi:10.1109/TEVC.2004.831258. S2CID 22382958.
- ↑ Tu, Z.; Lu, Y. (2008). "Corrections to "A Robust Stochastic Genetic Algorithm (StGA) for Global Numerical Optimization". IEEE Transactions on Evolutionary Computation. 12 (6): 781. doi:10.1109/TEVC.2008.926734. S2CID 2864886.
- ↑ Kennedy, James (2003). "Bare Bones Particle Swarms". Proceedings of the 2003 IEEE Swarm Intelligence Symposium: 80–87. doi:10.1109/SIS.2003.1202251. ISBN 0-7803-7914-4. S2CID 37185749.
- ↑ X. S. Yang, S. Deb and S. Fong, Accelerated particle swarm optimization and support vector machine for business optimization and applications, NDT 2011, Springer CCIS 136, pp. 53-66 (2011).
- ↑ "Search Results: APSO - File Exchange - MATLAB Central".
- ↑ Parsopoulos, K.; Vrahatis, M. (2002). "Particle swarm optimization method in multiobjective problems". Proceedings of the ACM Symposium on Applied Computing (SAC). pp. 603–607. doi:10.1145/508791.508907.
- ↑ Coello Coello, C.; Salazar Lechuga, M. (2002). "MOPSO: A Proposal for Multiple Objective Particle Swarm Optimization". Congress on Evolutionary Computation (CEC'2002). pp. 1051–1056.
- ↑ Mason, Karl; Duggan, Jim; Howley, Enda (2017). "Multi-objective dynamic economic emission dispatch using particle swarm optimisation variants". Neurocomputing. 270: 188–197. doi:10.1016/j.neucom.2017.03.086.
- ↑ Roy, R., Dehuri, S., & Cho, S. B. (2012). A Novel Particle Swarm Optimization Algorithm for Multi-Objective Combinatorial Optimization Problem. 'International Journal of Applied Metaheuristic Computing (IJAMC)', 2(4), 41-57
- ↑ Kennedy, J. & Eberhart, R. C. (1997). A discrete binary version of the particle swarm algorithm, Conference on Systems, Man, and Cybernetics, Piscataway, NJ: IEEE Service Center, pp. 4104-4109
- ↑ Clerc, M. (2004). Discrete Particle Swarm Optimization, illustrated by the Traveling Salesman Problem, New Optimization Techniques in Engineering, Springer, pp. 219-239
- ↑ Clerc, M. (2005). Binary Particle Swarm Optimisers: toolbox, derivations, and mathematical insights, Open Archive HAL
- ↑ Jarboui, B.; Damak, N.; Siarry, P.; Rebai, A. (2008). "A combinatorial particle swarm optimization for solving multi-mode resource-constrained project scheduling problems". Applied Mathematics and Computation. 195: 299–308. doi:10.1016/j.amc.2007.04.096.
- ↑ Chen, Wei-neng; Zhang, Jun (2010). "A novel set-based particle swarm optimization method for discrete optimization problem". IEEE Transactions on Evolutionary Computation. 14 (2): 278–300. CiteSeerX 10.1.1.224.5378. doi:10.1109/tevc.2009.2030331. S2CID 17984726.
बाहरी संबंध

- Particle Swarm Central is a repository for information on PSO. Several source codes are freely available.
- A brief video of particle swarms optimizing three benchmark functions.
- Simulation of PSO convergence in a two-dimensional space (Matlab).
- Applications of PSO.
- Liu, Yang (2009). "Automatic calibration of a rainfall–runoff model using a fast and elitist multi-objective particle swarm algorithm". Expert Systems with Applications. 36 (5): 9533–9538. doi:10.1016/j.eswa.2008.10.086.
- Links to PSO source code