फीचर चयन: Difference between revisions

From Vigyanwiki
No edit summary
No edit summary
Line 164: Line 164:
+ r_{f_k f_{k-1} })}}\right].</math>
+ r_{f_k f_{k-1} })}}\right].</math>


  <math>r_{cf_{i}}</math> एच> और <math>r_{f_{i}f_{j}}</math> वेरिएबल को सहसंबंध के रूप में संदर्भित किया जाता है, किन्तु जरूरी नहीं कि लघु पियर्सन उत्पाद-क्षण सहसंबंध गुणांक हों|पियर्सन का सहसंबंध गुणांक या स्पीयरमैन का रैंक सहसंबंध गुणांक हैं|स्पीयरमैन का ρ हॉल का शोध प्रबंध इनमें से किसी का भी उपयोग नहीं करता है, किंतु संबंधितता के तीन भिन्न-भिन्न मापों में हैं, न्यूनतम विवरण लंबाई (एमडीएल), यह पारस्परिक सूचना या सामान्यीकृत वेरिएंट और रिलीफ (सुविधा चयन) का उपयोग करता है।
  <math>r_{cf_{i}}</math>और <math>r_{f_{i}f_{j}}</math> वेरिएबल को सहसंबंध के रूप में संदर्भित किया जाता है, किन्तु आवश्यक नहीं कि यह पियर्सन सहसंबंध गुणांक या स्पीयरमैन के ρ होते हैं। हॉल का शोध प्रबंध इनमें से किसी का भी उपयोग नहीं करता है,किंतु संबंधितता के तीन भिन्न-भिन्न मापों में हैं, उपायों, न्यूनतम विवरण लंबाई (एमडीएल), सममित अनिश्चितता का उपयोग करता है और यह रिलीफ (सुविधा चयन) का भी उपयोग करता है।


चलो ''x<sub>i</sub>'' फीचर ''f<sub>i</sub>'' के लिए समुच्चय सदस्यता संकेतक फलन होता हैं तब उपरोक्त को अनुकूलन समस्या के रूप में फिर से लिखा जा सकता है:
चलो ''x<sub>i</sub>'' फीचर ''f<sub>i</sub>'' के लिए समुच्चय सदस्यता संकेतक फलन होता हैं तब उपरोक्त को अनुकूलन समस्या के रूप में फिर से लिखा जा सकता है  


:<math>\mathrm{CFS} = \max_{x\in \{0,1\}^{n}}  
:<math>\mathrm{CFS} = \max_{x\in \{0,1\}^{n}}  

Revision as of 14:30, 4 August 2023

यंत्र अधिगम और सांख्यिकी में, फीचर चयन होता हैं, जिसे वैरिएबल चयन, विशेषता चयन या वैरिएबल उपसमुच्चय चयन के रूप में भी जाना जाता है | यह मॉडल निर्माण में उपयोग के लिए प्रासंगिक फीचर (मशीन लर्निंग) (वेरिएबल , प्रडिक्टर) के उपसमुच्चय का चयन करने की प्रक्रिया है। फीचर चयन तकनीकों का उपयोग अनेक कारणों से किया जाता है |

  • शोधकर्ताओं/उपयोगकर्ताओं द्वारा व्याख्या करना और उसको सरल बनाने के लिए मॉडलों का सरलीकरण,[1]
  • कम समय में प्रशिक्षण,[2]
  • आयामीता के कर्स से बचने के लिए,[3]
  • लर्निंग मॉडल क्लास के साथ डेटा की अनुकूलता में सुधार,[4]
  • इनपुट स्पेस में उपस्थित अंतर्निहित सममित स्थान को एनकोड करें। [5][6][7][8]

फीचर चयन तकनीक का उपयोग करते समय केंद्रीय आधार यह है कि डेटा में कुछ विशेषताएं सम्मिलित हैं जो तब अनावश्यक हैं या अप्रासंगिक हैं, और इस प्रकार सूचना को अधिक हानि के अतिरिक्त उन्हें हटाया जा सकता है। [9] यह निरर्थक और अप्रासंगिक दो भिन्न-भिन्न धारणाएँ होती हैं, क्योंकि प्रासंगिक विशेषता किसी अन्य प्रासंगिक विशेषता की उपस्थिति में निरर्थक हो सकती है जिसके साथ यह दृढ़ता से सहसंबद्ध होता है।[10]

फीचर चयन तकनीकों को फीचर निष्कर्षण से भिन्न किया जाना चाहिए। [11] फीचर निष्कर्षण मूल सुविधाओं के कार्यों से नई सुविधाएँ बनाता है, जबकि फीचर चयन सुविधाओं का उपसमुच्चय लौटाता है। फीचर चयन तकनीकों का उपयोग अधिकांशतः उन डोमेन में किया जाता है जहाँ अनेक सुविधाएँ और तुलनात्मक रूप से प्रतिरुप (या डेटा बिंदु) होते हैं। फीचर चयन के अनुप्रयोग के लिए आदर्श स्तिथियों में स्टाइलोमेट्री और डीएनए माइक्रोएरे डेटा का विश्लेषण सम्मिलित होता है, जहां अनेक हजारों विशेषताएं होती हैं, और इसमें कुछ दसियों से सैकड़ों प्रतिरुप हैं।

परिचय

फीचर चयन एल्गोरिथ्म को नए फीचर उपसमुच्चय के प्रस्ताव के लिए खोज तकनीक के संयोजन के रूप में देखा जा सकता है | इसके साथ ही मूल्यांकन उपाय जो विभिन्न फीचर उपसमुच्चय को स्कोर करता है।यह सबसे सरल एल्गोरिदम सुविधाओं के प्रत्येक संभावित उपसमूह का परीक्षण करना है जो त्रुटि दर को कम करता है। यह स्पेस की विस्तृत खोज है, और यह लघु से लघु फीचर समुच्चय को छोड़कर सभी के लिए कम्प्यूटेशनल रूप से कठिन है। मूल्यांकन मेट्रिक का चुनाव एल्गोरिदम को अधिक रूप से प्रभावित करता है, और यह मूल्यांकन मेट्रिक्स होता हैं जो फीचर चयन एल्गोरिदम की तीन मुख्य श्रेणियों के मध्य अंतर करते हैं | इसमें रैपर, फिल्टर और एम्बेडेड विधियां होती हैं। [10]

  • रैपर विधियाँ फीचर उपसमुच्चय को स्कोर करने के लिए पूर्वानुमानित मॉडल का उपयोग करती हैं। प्रत्येक नए उपसमुच्चय का उपयोग मॉडल को प्रशिक्षित करने के लिए किया जाता है, जिसका परीक्षण होल्ड-आउट समुच्चय पर किया जाता है। उस होल्ड-आउट समुच्चय (मॉडल की त्रुटि दर) पर की गई त्रुटियों की संख्या की गणना करने से उस उपसमुच्चय के लिए स्कोर मिलता है। चूँकि रैपर विधियाँ प्रत्येक उपसमुच्चय के लिए नए मॉडल को प्रशिक्षित करती हैं, वह कम्प्यूटेशनल रूप से बहुत गहन होती हैं, किन्तु सामान्यतः यह उस विशेष प्रकार के मॉडल या विशिष्ट समस्या के लिए सबसे अच्छा प्रदर्शन करने वाला फीचर समुच्चय प्रदान करती हैं।
  • फ़िल्टर विधियाँ फीचर उपसमुच्चय को स्कोर करने के लिए त्रुटि दर के अतिरिक्त प्रॉक्सी माप का उपयोग करती हैं। फीचर समुच्चय की उपयोगिता को ध्यान में रखते हुए, गणना करने में तीव्र होने के लिए इस उपाय को चुना गया है। सामान्य उपायों में आपसी सूचना सम्मिलित होती है,[10] यह बिंदुवार आपसी सूचना हैं ,[12] पियर्सन उत्पाद-क्षण सहसंबंध गुणांक, रिलीफ (सुविधा चयन) | रिलीफ-आधारित एल्गोरिदम हैं,[13] और अंतर/अंतर क्लास दूरी या प्रत्येक वर्ग/सुविधा संयोजन के लिए सांख्यिकीय परिकल्पना परीक्षण के स्कोर सम्मिलित हैं। [12][14] फ़िल्टर सामान्यतः रैपर्स की तुलना में कम कम्प्यूटेशनल रूप से गहन होते हैं, किन्तु वह फीचर समुच्चय का उत्पादन करते हैं जो विशिष्ट प्रकार के पूर्वानुमानित मॉडल के अनुरूप नहीं होता है। [15] ट्यूनिंग की इस कमी का अर्थ है कि फ़िल्टर से समुच्चय किया गया फीचर रैपर से समुच्चय की तुलना में अधिक सामान्य है, सामान्यतः रैपर की तुलना में कम पूर्वानुमान प्रदर्शन देता है। चूँकि फीचर समुच्चय में पूर्वानुमान मॉडल की धारणाएँ सम्मिलित नहीं हैं, और इसलिए यह सुविधाओं के मध्य संबंधों को प्रदर्शित करने के लिए अधिक उपयोगी है। अनेक फ़िल्टर स्पष्ट सर्वोत्तम फीचर उपसमुच्चय के अतिरिक्त फीचर रैंकिंग प्रदान करते हैं, और रैंकिंग में कट-ऑफ पॉइंट क्रॉस-वैलिडेशन (सांख्यिकी)|क्रॉस-वैलिडेशन के माध्यम से चुना जाता है। फ़िल्टर विधियों का उपयोग रैपर विधियों के लिए प्रीप्रोसेसिंग चरण के रूप में भी किया गया है, जिससे बड़ी समस्याओं पर रैपर का उपयोग किया जा सकता है। अन्य लोकप्रिय दृष्टिकोण रिकर्सिव फीचर एलिमिनेशन एल्गोरिदम है, [16] सामान्यतः मॉडल का निरंतर निर्माण करने और कम वजन वाले फीचर्स को हटाने के लिए समर्थन सदिश मशीन के साथ उपयोग किया जाता है।
  • एंबेडेड विधियां तकनीकों का समूह होती है जो मॉडल निर्माण प्रक्रिया के भागों के रूप में फीचर चयन करती है। इस दृष्टिकोण का उदाहरण रेखीय मॉडल के निर्माण के लिए लासो (सांख्यिकी) विधि होती है, जो प्रतिगमन गुणांक को L1 दंड के साथ दंडित करता है, उनमें से अनेक को शून्य तक संकुचित कर देता है। कोई भी विशेषता जिसमें गैर-शून्य प्रतिगमन गुणांक है, उसे लैस्सो एल्गोरिथ्म द्वारा 'चयनित' किया जाता है। लैस्सो में सुधारों में बोलासो सम्मिलित है जो प्रतिरूपों को बूटस्ट्रैप करता है | [17] इलास्टिक नेट नियमितीकरण, जो लैस्सो के L1 दंड को रिज रिग्रेशन के L2 दंड के साथ जोड़ता है | और फ़ीआलेक्ट जो प्रतिगमन गुणांक के संयुक्त विश्लेषण के आधार पर सभी विशेषताओं को स्कोर करता है। [18] एईएफएस आगे लैस्सो को ऑटोएन्कोडर्स के साथ नॉनलाइनियर परिदृश्य तक विस्तारित करता है। [19] कम्प्यूटेशनल सम्मिश्रता के संदर्भ में यह दृष्टिकोण फिल्टर और रैपर के मध्य होते हैं।

पारंपरिक प्रतिगमन विश्लेषण में, फीचर चयन का सबसे लोकप्रिय रूप वेरिएबल चरणबद्ध प्रतिगमन है, जो रैपर तकनीक होती है। यह ग्रीडी एल्गोरिदम है जो प्रत्येक समय में सबसे अच्छी सुविधा जोड़ता है | और (सबसे व्यर्थ सुविधा को हटा देता है)। मुख्य नियंत्रण उद्देश्य यह तय करना है कि एल्गोरिदम को कब रोकना है। मशीन लर्निंग में, यह सामान्यतः क्रॉस-वैलिडेशन (सांख्यिकी)|क्रॉस-वैलिडेशन द्वारा किया जाता है। आँकड़ों में, कुछ मानदंड अनुकूलित किए गए हैं। इससे श्रंखला बनाने की अंतर्निहित समस्या उत्पन्न होती है। इससे अधिक शक्तिशाली विधियों का अनुमान लगाया गया है, जैसे शाखा में बाउंड और पीसवाइस लीनियर नेटवर्क होते हैं।

उपसमुच्चय चयन

उपसमुच्चय चयन उपयुक्तता के लिए समूह के रूप में सुविधाओं के उपसमुच्चय का मूल्यांकन करता है। उपसमुच्चय खोज एल्गोरिथ्म को रैपर, फिल्टर और एम्बेडेड विधियों में विभाजित किया जा सकता है। रैपर्स संभावित सुविधाओं के स्थान के माध्यम से खोज करने के लिए खोज एल्गोरिदम का उपयोग करते हैं और उपसमुच्चय पर मॉडल चलाकर प्रत्येक उपसमुच्चय का मूल्यांकन करते हैं। रैपर कम्प्यूटेशनल रूप से मूल्यवान हो सकते हैं और मॉडल में अधिक फिट होने पर कठिन परिस्थिति हो सकती है। खोज दृष्टिकोण में फ़िल्टर रैपर के समान होते हैं, किन्तु यह किसी मॉडल के विरुद्ध मूल्यांकन करने के अतिरिक्त, सरल फ़िल्टर का मूल्यांकन किया जाता है। एंबेडेड तकनीकें मॉडल में अंतर्निहित और विशिष्ट होती हैं।

अनेक लोकप्रिय खोज दृष्टिकोण ग्रीडी एल्गोरिदम हिल क्लिंबिंग का उपयोग करते हैं, जो सुविधाओं के उम्मीदवार उपसमूह का पुनरावृत्तीय मूल्यांकन करता है, फिर उपसमूह को संशोधित करता है और मूल्यांकन करता है कि क्या नया उपसमूह पुराने की तुलना में सही है। उपसमुच्चय के मूल्यांकन के लिए स्कोरिंग मीट्रिक (गणित) की आवश्यकता होती है जो सुविधाओं के उपसमूह को ग्रेड करती है। व्यापक खोज सामान्यतः अव्यावहारिक होती है, इसलिए कुछ कार्यान्वयनकर्ता (या ऑपरेटर) परिभाषित स्टॉपिंग बिंदु पर होते हैं, उस बिंदु तक खोजे गए उच्चतम स्कोर वाले सुविधाओं के उपसमुच्चय को संतबषजनक सुविधा उपसमुच्चय के रूप में चुना जाता है। इसको रोकने का मानदंड एल्गोरिथम के अनुसार भिन्न होता है |इस प्रकार यह संभावित मानदंडों में सम्मिलित हैं | उपसमुच्चय स्कोर सीमा से अधिक होता है | कार्य का अधिकतम अनुमत रन टाइम सरपास्ड हो गया है |

वैकल्पिक खोज-आधारित तकनीकें लक्षित प्रक्षेपण खोज पर आधारित होती हैं जो उच्च स्कोर वाले डेटा के निम्न-आयामी अनुमानों का पता लगाती हैं | फिर उन विशेषताओं का चयन किया जाता है जिनके निचले-आयामी स्थान में सबसे बड़े प्रक्षेपण होते हैं।

खोज दृष्टिकोण में सम्मिलित हैं |

वर्गीकरण समस्याओं के लिए दो लोकप्रिय फ़िल्टर मेट्रिक्स सहसंबंध और पारस्परिक सूचना हैं,चूंकि गणितीय अर्थ में कोई भी वास्तविक मीट्रिक (गणित) या 'दूरी माप' नहीं है, क्योंकि वह त्रिकोण असमानता का पालन करने में विफल रहते हैं और इस प्रकार किसी भी वास्तविक 'दूरी' की गणना नहीं करते हैं - उन्हें 'स्कोर' के रूप में माना जाना चाहिए। इन अंकों की गणना उम्मीदवार सुविधा (या सुविधाओं के समुच्चय) और वांछित आउटपुट श्रेणी के मध्य की जाती है। चूँकि, यह ऐसे सत्य मेट्रिक्स होते हैं जो पारस्परिक सूचना का सरल कार्य करते हैं [30] तथा आपसी सूचना या मीट्रिक देखें।

अन्य उपलब्ध फ़िल्टर मेट्रिक्स में सम्मिलित हैं |

  • वर्ग पृथक्करण
  • संगति-आधारित सुविधा चयन
  • सहसंबंध-आधारित सुविधा चयन

अधिकतम मानदंड

अधिकतमत मानदंड का चुनाव कठिन होता है क्योंकि सुविधा चयन कार्य में अनेक उद्देश्य होते हैं। अनेक सामान्य मानदंडों में स्पष्टता की माप सम्मिलित होता है, जिसे चयनित सुविधाओं की संख्या द्वारा दंडित किया जाता है। उदाहरणों में अकाइक सूचना मानदंड (एआईसी) और मैलोज़ Cp सम्मिलित हैं | जिनमें प्रत्येक अतिरिक्त सुविधा के लिए 2 का दंड है। यह एआईसी सूचना सिद्धांत पर आधारित है, और प्रभावी रूप से अधिकतम एन्ट्रापी सिद्धांत के माध्यम से प्राप्त होता है। [31][32]

अन्य मानदंड बायेसियन सूचना मानदंड (बीआईसी) हैं, जो प्रत्येक जोड़े गए फीचर के लिए के दंड का उपयोग करता है, न्यूनतम विवरण लंबाई (एमडीएल) जो असम्बद्ध रूप से का उपयोग करता है, बोनफेरोनी सुधार / आरआईसी जो का उपयोग करता है, अधिकतम निर्भरता सुविधा चयन, और विभिन्न प्रकार के नए मानदंड जो फाल्स डिस्कवर रेट (एफडीआर) से प्रेरित हैं, जो के समीप कुछ का उपयोग करते हैं। सुविधाओं के सबसे प्रासंगिक उपसमूह का चयन करने के लिए अधिकतम एन्ट्रापी दर मानदंड का भी उपयोग किया जा सकता है। [33]


संरचना सीखना

फ़िल्टर सुविधा चयन अधिक सामान्य प्रतिमान का विशिष्ट स्थिति है जिसे संरचित पूर्वानुमान कहा जाता है। फीचर चयन विशिष्ट लक्ष्य वेरिएबल के लिए प्रासंगिक फीचर समुच्चय ढूंढता है जबकि संरचना शिक्षण सभी वेरिएबल के मध्य संबंधों को ढूंढता है, सामान्यतः इन सम्बन्धो को ग्राफ के रूप में व्यक्त करता हैं। यह सबसे सामान्य संरचना सीखने वाले एल्गोरिदम मानते हैं कि डेटा बायेसियन नेटवर्क द्वारा उत्पन्न होता है, और इसलिए संरचना निर्देशित ग्राफ चित्रमय मॉडल है। फ़िल्टर सुविधा चयन समस्या का अधिकतम समाधान लक्ष्य नोड का मार्कोव ब्लंकेट है, और बायेसियन नेटवर्क में, प्रत्येक नोड के लिए अद्वितीय मार्कोव ब्लंकेट है। [34]


सूचना सिद्धांत आधारित फीचर चयन तंत्र

चारों ओर विभिन्न फीचर चयन तंत्र हैं जो विभिन्न सुविधाओं को स्कोर करने के लिए पारस्परिक सूचना का उपयोग करते हैं। वह सामान्यतः सभी समान एल्गोरिदम का उपयोग करते हैं |

  1. सभी सुविधाओं () और लक्ष्य वर्ग (c ) के मध्य स्कोर के रूप में पारस्परिक सूचना की गणना करें
  2. सबसे बड़े स्कोर वाली सुविधा का चयन करें (उदाहरण के लिए . ) और इसे चयनित सुविधाओं (S ) के समुच्चय में जोड़ें
  3. उस स्कोर की गणना करें जो पारस्परिक सूचना से प्राप्त किया जा सकता है
  4. सबसे बड़े स्कोर वाली सुविधा का चयन करें और इसे चुनिंदा सुविधाओं के समुच्चय में जोड़ें (उदाहरण के लिए) )
  5. 3. और 4. को तब तक दोहराएँ जब तक कि निश्चित संख्या में सुविधाओं का चयन न हो जाए (उदाहरण के लिए) )

सबसे सरल दृष्टिकोण आपसी सूचना को व्युत्पन्न स्कोर के रूप में उपयोग करता है।[35]

चूँकि, भिन्न-भिन्न दृष्टिकोण हैं, जो सुविधाओं के मध्य अतिरेक को कम करने का प्रयास करते हैं।

न्यूनतम-अतिरेक-अधिकतम-प्रासंगिकता (एमआरएमआर) सुविधा चयन

पेंग एट अल.[36] सुविधा चयन विधि प्रस्तावित की गई जो सुविधाओं का चयन करने के लिए पारस्परिक सूचना , सहसंबंध, या दूरी/समानता स्कोर का उपयोग कर सकती है। इसका उद्देश्य अन्य चयनित सुविधाओं की उपस्थिति में किसी सुविधा की प्रासंगिकता को उसके अतिरेक द्वारा दंडित करना है। क्लास c के लिए फीचर सम्मुचय S की प्रासंगिकता को व्यक्तिगत फीचर fi और क्लास c के मध्य सभी पारस्परिक सूचना मानों के औसत मान से द्वारा परिभाषित किया गया है |

.

समुच्चय में सभी सुविधाओं का अतिरेक S सुविधा के मध्य सभी पारस्परिक सूचना मानों का औसत मान fi और सुविधा fj है |

एमआरएमआर मानदंड ऊपर दिए गए दो उपायों का संयोजन है और इसे निम्नानुसार परिभाषित किया गया है:

मान लीजिए कि n पूर्ण-समुच्चय सुविधाएँ हैं। मान लीजिए xi फीचर fi के लिए समुच्चय सदस्यता संकेतक फलन है, जिससे xi=1 उपस्थिति को संकेत करे और xi=0 वैश्विक स्तर पर अधिकतम फीचर समुच्चय में फीचर fi की अनुपस्थिति को संकेत करे। मान लीजिए और हैं। फिर उपरोक्त को अनुकूलन समस्या के रूप में लिखा जा सकता है

एमआरएमआर एल्गोरिदम सैद्धांतिक रूप से अधिकतम-निर्भरता सुविधा चयन एल्गोरिदम का अनुमान होता है जो चयनित सुविधाओं के संयुक्त वितरण और वर्गीकरण वेरिएबल के मध्य पारस्परिक सूचना को अधिकतम करता है। चूंकि एमआरएमआर बहुत लघु समस्याओं की श्रृंखला के साथ संयोजन अनुमान समस्या का अनुमान लगाता है, जिनमें से प्रत्येक में केवल दो वेरिएबल सम्मिलित होते हैं, इस प्रकार यह जोड़ीदार संयुक्त संभावनाओं का उपयोग करता है जो अधिक शक्तिशाली होते हैं। कुछ स्थितियों में एल्गोरिदम सुविधाओं की उपयोगिता को कम समझ सकता है क्योंकि इसमें उन सुविधाओं के मध्य इंटरैक्शन को मापने की कोई विधि नहीं है जो इसकी प्रासंगिकता को बढ़ा सकते हैं। इससे व्यर्थ प्रदर्शन हो सकता है [35] जब विशेषताएँ व्यक्तिगत रूप से व्यर्थ होती हैं, किन्तु संयुक्त होने पर यह उपयोगी होती हैं ( पैथोलॉजिकल स्थिति तब पायी जाती है जब वर्ग सुविधाओं का समता कार्य होता है)। सामान्यतः एल्गोरिथ्म सैद्धांतिक रूप से अधिकतम-निर्भरता चयन की तुलना में अधिक कुशल (आवश्यक डेटा की मात्रा के संदर्भ में) होता है, फिर भी कम जोड़ीदार अतिरेक के साथ फीचर समुच्चय तैयार करता है।

एमआरएमआर फ़िल्टर विधियों के बड़े वर्ग का उदाहरण है जो विभिन्न विधियों से प्रासंगिकता और अतिरेक के मध्य व्यापार करता है।[35][37]


द्विघात प्रोग्रामिंग सुविधा चयन

एमआरएमआर सुविधा चयन के लिए वृद्धिशील ग्रीडी रणनीति का विशिष्ट उदाहरण है | इसमें सुविधा का चयन हो जाने के पश्चात् होते हैं, इसके पश्चात् चरण में अचयनित नहीं किया जा सकता है। जबकि एमआरएमआर को कुछ सुविधाओं को कम करने के लिए फ्लोटिंग सर्च का उपयोग करके अनुकूलित किया जा सकता है, इसे वैश्विक द्विघात प्रोग्रामिंग अनुकूलन समस्या के रूप में निम्नानुसार पुन: तैयार किया जा सकता है | [38]

जहां फीचर प्रासंगिकता का सदिश है, यह मानते हुए कि कुल मिलाकर n फीचर हैं, तथा फीचर जोड़ीदार अतिरेक का आव्युह है, और सापेक्ष फीचर भार का प्रतिनिधित्व करता है। क्यूएफपीएस को द्विघात प्रोग्रामिंग के माध्यम से समाधान किया जाता है। वर्तमान में यह दिखाया गया है कि क्यूएफपीएस लघु एन्ट्रापी वाले फीचर्स के प्रति पक्षपाती है, [39] इसकी लिए इसे फीचर सेल्फ रिडंडेंसी टर्म को H के विकर्ण पर रखा गया है।

सशर्त पारस्परिक सूचना

पारस्परिक सूचना के लिए प्राप्त अन्य स्कोर सशर्त प्रासंगिकता पर आधारित है [39]

जहाँ और .

SPECCMI का लाभ यह है कि इसे केवल Q के प्रमुख आइजनवेक्टर को ढूंढकर समाधान किया जा सकता है, इस प्रकार यह बहुत स्केलेबल है। SPECCMI दूसरे क्रम के फीचर इंटरैक्शन को भी संभालता है।

संयुक्त पारस्परिक सूचना

विभिन्न अंकों के अध्ययन में ब्राउन एट अल और अन्य ने [35] संयुक्त पारस्परिक सूचना की अनुशंसा की हैं | [40] यह फीचर चयन के लिए अच्छे स्कोर के रूप में होता हैं। स्कोर उस सुविधा को ढूंढने का प्रयास करता है, जो अतिरेक से बचने के लिए पहले से चयनित सुविधाओं में सबसे नई सूचना को जोड़ता है। यह स्कोर इस प्रकार तैयार किया गया है

स्कोर पहले से चयनित सुविधाओं () और जांच के अनुसार सुविधा () के मध्य अतिरेक का अनुमान लगाने के लिए सशर्त पारस्परिक सूचना और पारस्परिक सूचना का उपयोग करता है।

हिल्बर्ट-श्मिट स्वतंत्रता मानदंड लैस्सो आधारित सुविधा चयन

उच्च-आयामी और लघु प्रतिरूप डेटा के लिए (उदाहरण के लिए, आयामीता > 105 और प्रतिरूपों की संख्या < 103) हैं, हिल्बर्ट-श्मिट इंडिपेंडेंस क्राइटेरियन लासो (एचएसआईसी लासो) उपयोगी है। [41] एचएसआईसी लासो अनुकूलन समस्या इस प्रकार दी गई है

जहाँ कर्नेल-आधारित स्वतंत्रता माप है जिसे (अनुभवजन्य) हिल्बर्ट-श्मिट स्वतंत्रता मानदंड (एचएसआईसी) कहा जाता है,

ट्रेस (रैखिक बीजगणित) को दर्शाता है, नियमितीकरण पैरामीटर है, और इनपुट और आउटपुट केंद्रित ग्राम आव्युह हैं, यह

और ग्राम आव्युह होता हैं, यह और कर्नेल फलन हैं,और केन्द्रित आव्युह होता है, यह m-आयामी पहचान आव्युह (m: प्रतिरूपों की संख्या), है और m-सभी के साथ आयामी सदिश, और -मानदंड है। एचएसआईसी सदैव गैर-ऋणात्मक मान लेता है, और यदि शून्य है और केवल तभी जब दो यादृच्छिक वेरिएबल सांख्यिकीय रूप से स्वतंत्र होते हैं जब गाऊसी कर्नेल जैसे सार्वभौमिक पुनरुत्पादन कर्नेल का उपयोग किया जाता है।

एचएसआईसी लैस्सो को इस प्रकार लिखा जा सकता है

जहाँ फ्रोबेनियस मानदंड है इसकी अनुकूलन समस्या लैस्सो समस्या है, और इस प्रकार इसे दोहरी संवर्धित लैग्रेंजियन विधि जैसे अत्याधुनिक लैस्सो सॉल्वर के साथ कुशलतापूर्वक समाधान किया जा सकता है।

सहसंबंध सुविधा चयन

सहसंबंध सुविधा चयन (सीएफएस) माप निम्नलिखित परिकल्पना के आधार पर सुविधाओं के उपसमुच्चय का मूल्यांकन करता है | और अच्छे फीचर उपसमुच्चय में वर्गीकरण के साथ अत्यधिक सहसंबद्ध विशेषताएं होती हैं, फिर भी दूसरे से असंबद्ध होती हैं। [42][43] निम्नलिखित समीकरण k विशेषताओं से युक्त सुविधा उपसमुच्चय S की योग्यता देता है |

यहाँ, सभी फीचर -वर्गीकरण सहसंबंधों का औसत मान है, और सभी फीचर -फीचर सहसंबंधों का औसत मान है। सीएफएस मानदंड को इस प्रकार परिभाषित किया गया है |

और  वेरिएबल को सहसंबंध के रूप में संदर्भित किया जाता है, किन्तु आवश्यक नहीं कि यह पियर्सन सहसंबंध गुणांक या स्पीयरमैन के ρ होते हैं। हॉल का शोध प्रबंध इनमें से किसी का भी उपयोग नहीं करता है,किंतु संबंधितता के तीन भिन्न-भिन्न मापों में हैं, उपायों, न्यूनतम विवरण लंबाई (एमडीएल), सममित अनिश्चितता का उपयोग करता है और यह रिलीफ (सुविधा चयन) का भी उपयोग करता है।

चलो xi फीचर fi के लिए समुच्चय सदस्यता संकेतक फलन होता हैं तब उपरोक्त को अनुकूलन समस्या के रूप में फिर से लिखा जा सकता है

उपरोक्त संयोजनात्मक समस्याएं, वास्तव में, मिश्रित 0-1 रैखिक प्रोग्रामिंग समस्याएं हैं | जिन्हें शाखा-और-बाउंड एल्गोरिदम का उपयोग करके समाधान किया जा सकता है। [44]


डिसिजन ट्री

डिसिजन ट्री या ट्री सामूहिक शिक्षा की विशेषताओं को निरर्थक दिखाया गया है। वर्तमान विधि जिसे नियमितीकृत ट्री कहा जाता है [45] फीचर उपसमुच्चय चयन के लिए उपयोग किया जा सकता है। नियमितीकृत ट्री वर्तमान नोड को विभाजित करने के लिए पूर्व ट्री नोड्स पर चयनित वेरिएबल के समान वेरिएबल का उपयोग करके दंडित करते हैं। नियमितीकृत ट्री को केवल ट्री मॉडल (या ट्री संयोजन मॉडल) बनाने की आवश्यकता होती है और इस प्रकार वह कम्प्यूटेशनल रूप से कुशल होते हैं।

नियमितीकृत ट्री स्वाभाविक रूप से संख्यात्मक और श्रेणीगत विशेषताओं, अंतःक्रियाओं और गैर-रैखिकताओं को संभालते हैं। वह विशेषता मापदंडो (इकाइयों) के लिए अपरिवर्तनीय हैं और यह आउटलेर्स के प्रति असंवेदनशील हैं, और इस प्रकार, सामान्यीकरण (सांख्यिकी) जैसे कम डेटा प्रीप्रोसेसिंग की आवश्यकता होती है। नियमित यादृच्छिक फॉरेस्ट (आरआरएफ)[46] प्रकार का डिसिजन ट्री है। निर्देशित आरआरएफ उन्नत आरआरएफ होता है जो सामान्य यादृच्छिक फॉरेस्ट से महत्व स्कोर द्वारा निर्देशित होता है।

मेटाहेयुरिस्टिक्स विधियों पर अवलोकन

मेटाह्यूरिस्टिक कठिन (सामान्यतः एनपी-कठोरता एनपी-हार्ड समस्या) अनुकूलन समस्याओं को समाधान करने के लिए समर्पित एल्गोरिदम का सामान्य विवरण है जिसके लिए कोई मौलिक समाधान विधियां नहीं हैं। सामान्यतः, मेटाह्यूरिस्टिक स्टोकेस्टिक एल्गोरिदम है जो वैश्विक अधिकतम तक पहुंचने की प्रवृत्ति रखता है। सरल स्थानीय खोज से लेकर सम्मिश्र वैश्विक खोज एल्गोरिदम तक अनेक मेटाह्यूरिस्टिक्स हैं।

मुख्य सिद्धांत

फीचर चयन विधियों को सामान्यतः तीन वर्गों में प्रस्तुत किया जाता है, जो इस पर आधारित होता है कि वह चयन एल्गोरिदम और मॉडल बिल्डिंग को कैसे जोड़ते हैं।

फ़िल्टर विधि

सुविधा चयन के लिए फ़िल्टर विधि

फ़िल्टर प्रकार के विधियों मॉडल की चिंता किए बिना वेरिएबल का चयन करते हैं। वह केवल पूर्वानुमान करने के लिए वेरिएबल के साथ सहसंबंध जैसी सामान्य विशेषताओं पर आधारित होते हैं। फ़िल्टर विधियाँ कम से कम आकर्षक वेरिएबल को दबा देती हैं। अन्य वेरिएबल वर्गीकरण या डेटा को वर्गीकृत करने या पूर्वानुमान करने के लिए उपयोग किए जाने वाले प्रतिगमन मॉडल का भाग होते हैं। यह विधियां समय की गणना करने में विशेष रूप से प्रभावी होती हैं और ओवरफिटिंग के लिए शक्तिशाली हैं। [47]

फ़िल्टर विधियाँ निरर्थक वेरिएबल का चयन करती हैं जब वह वेरिएबल के मध्य संबंधों पर विचार नहीं करते हैं। चूँकि, अधिक विस्तृत सुविधाएँ एक-दूसरे से अत्यधिक सहसंबंधित वेरिएबल को हटाकर इस समस्या को कम करने का प्रयास करती हैं, जैसे कि फास्ट सहसंबंध आधारित फ़िल्टर (एफसीबीएफ) एल्गोरिथ्म हैं। [48]


रैपर विधि

फीचर चयन के लिए रैपर विधि

रैपर विधियां वेरिएबल्स के उपसमुच्चय का मूल्यांकन करती हैं जो फ़िल्टर दृष्टिकोण के विपरीत हैं, यह वेरिएबल्स के मध्य संभावित इंटरैक्शन का अनुमान लगाने की अनुमति देती हैं। [49] इन विधियों की दो मुख्य हानि हैं

  • अवलोकनों की संख्या अपर्याप्त होने पर ओवरफिटिंग का विपत्ति बढ़ जाती है।
  • जब महत्वपूर्ण गणना समय में वेरिएबलों की संख्या बड़ी होती हैं।

एम्बेडेड विधि

फीचर चयन के लिए एंबेडेड विधि

एंबेडेड विधियों वर्तमान में प्रस्तावित किए गए हैं जो पूर्व दोनों विधियों के लाभों को संयोजित करने का प्रयास करते हैं। शिक्षण एल्गोरिदम अपनी स्वयं की परिवर्तनीय चयन प्रक्रिया का लाभ उठाता है और फीचर चयन और वर्गीकरण के साथ करता है, जैसे एफआरएमटी एल्गोरिदम हैं। [50]


फीचर चयन मेटाह्यूरिस्टिक्स का अनुप्रयोग

यह साहित्य में वर्तमान में उपयोग किए गए फीचर चयन मेटाह्यूरिस्टिक्स के अनुप्रयोग का सर्वेक्षण है। इस सर्वेक्षण को जे. हैमन ने अपनी 2013 की थीसिस में साकार किया था। [47]

Application एल्गोरिदम दृष्टिकोण वर्गीकरणकर्ता मूल्यांकन कार्य संदर्भ
एसएनपीएस फीचर समानता का उपयोग करके फीचर चयन फ़िल्टर r2 फुओंग 2005[49]
एसएनपीएस जेनेटिक एल्गोरिदम डब्ल्यूरैपर डिसिजन ट्री वर्गीकरण स्पष्टता (10 गुना) शाह 2004[51]
एसएनपीएस हिल क्लिंबिंग फ़िल्टर + डब्ल्यूरैपर नाइव बायेसियन वर्गों का पूर्वानुमानित अवशिष्ट योग लांग 2007[52]
एसएनपीएस सिम्युलेटेड एनीलिंग नाइव बायेसियन वर्गीकरण स्पष्टता (5 गुना) उस्तुंकर 2011[53]
सेगमेंट पैरोल अंट कॉलोनी डब्ल्यूरैपर कृत्रिम नेचुरल नेटवर्क एमएसई अल-अनी 2005
मार्केटिंग सिम्युलेटेड एनीलिंग डब्ल्यूरैपर प्रतिगमन एआईसी,, r2 मेरि 2006[54]
इकॉनॉमिक्स सिम्युलेटेड एनीलिंग, जेनेटिक एल्गोरिदम डब्ल्यूरैपर प्रतिगमन बीआईसी कपेतनियोस 2007[55]
वर्णक्रमीय द्रव्यमान जेनेटिक एल्गोरिदम डब्ल्यूरैपर बहुरेखीय प्रतिगमन, आंशिक न्यूनतम वर्ग मूल-माध्य-वर्ग त्रुटि पूर्वानुमान का ब्रॉडहर्स्ट एट अल. 1997[56]
स्पैम बाइनरी पीएसओ + म्यूटेशन डब्ल्यूरैपर डिसिजन ट्री भारांकित निवेश झांग 2014[25]
माइक्रोएरे ताबू सर्च + पीएसओ डब्ल्यूरैपर सपोर्ट सदिश मशीन,, K निकटतम नेबर यूक्लिडियन दूरी चुआंग 2009[57]
माइक्रोएरे पीएसओ + जेनेटिक एल्गोरिदम डब्ल्यूरैपर सपोर्ट सदिश मशीन वर्गीकरण स्पष्टता (10 गुना) अल्बा 2007[58]
माइक्रोएरे जेनेटिक एल्गोरिदम + पुनरावर्ती स्थानीय खोज एम्बेडेड सपोर्ट सदिश मशीन वर्गीकरण स्पष्टता (10 गुना) डुवाल 2009[59]
माइक्रोएरे पुनरावर्ती स्थानीय खोज डब्ल्यूरैपर प्रतिगमन पश्च संभाव्यता हंस 2007[60]
माइक्रोएरे जेनेटिक एल्गोरिदम डब्ल्यूरैपर K निकटतम नेबर वर्गीकरण स्पष्टता (लीव-वन-आउट क्रॉस-वैलिडेशन) जिरापेच-उम्पई 2005[61]
माइक्रोएरे हाइब्रिड जेनेटिक एल्गोरिदम डब्ल्यूरैपर K निकटतम नेबर वर्गीकरण स्पष्टता (लीव-वन-आउट क्रॉस-वैलिडेशन) ओह 2004[62]
माइक्रोएरे जेनेटिक एल्गोरिदम डब्ल्यूरैपर सपोर्ट सदिश मशीन सेंसिटिविटी और विशिष्टता ज़ुआन 2011[63]
माइक्रोएरे जेनेटिक एल्गोरिदम डब्ल्यूरैपर सभी युग्मित सपोर्ट सदिश मशीन वर्गीकरण स्पष्टता (लीव-वन-आउट क्रॉस-वैलिडेशन) पेंग 2003[64]
माइक्रोएरे जेनेटिक एल्गोरिदम एम्बेडेड सपोर्ट सदिश मशीन वर्गीकरण स्पष्टता (10 गुना) हर्नांडेज़ 2007[65]
माइक्रोएरे जेनेटिक एल्गोरिदम हाइब्रिड सपोर्ट सदिश मशीन वर्गीकरण स्पष्टता (लीव-वन-आउट क्रॉस-वैलिडेशन) ह्यूर्टा 2006[66]
माइक्रोएरे जेनेटिक एल्गोरिदम सपोर्ट सदिश मशीन वर्गीकरण स्पष्टता (10 गुना) मुनि 2006[67]
माइक्रोएरे जेनेटिक एल्गोरिदम डब्ल्यूरैपर सपोर्ट सदिश मशीन एह-डायल, क्लंप जॉर्डन 2005[68]
अल्जाइमर रोग वेल्च का टी-टेस्ट फ़िल्टर सपोर्ट सदिश मशीन वर्गीकरण स्पष्टता (10 गुना) झांग 2015[69]
कंप्यूटर विजन अनंत सुविधा चयन फ़िल्टर स्वतंत्र औसत परिशुद्धता, आरओसी एयूसी रोफ़ो 2015[70]
माइक्रोएरेs आइजेनसदिशसेंट्रलिटी एफएस फ़िल्टर स्वतंत्र औसत परिशुद्धता, स्पष्टता, आरओसी एयूसी रोफ़ो और मेल्ज़ी 2016[71]
एक्सएमएल सममितीय टाऊ (एसटी) फ़िल्टर संरचनात्मक सहयोगी वर्गीकरण स्पष्टता, कवरेज शाहरानी और हैडज़िक 2014


लर्निंग एल्गोरिदम में अंतर्निहित सुविधा चयन

कुछ शिक्षण एल्गोरिदम अपने समग्र संचालन के भागों के रूप में फीचर चयन करते हैं। इसमे सम्मिलित है:

  • -नियमितीकरण तकनीकें, जैसे विरल प्रतिगमन, लैस्सो, और -एसवीएम
  • डिसिजन ट्री,[45] जैसे आरआरएफ पैकेज में नियमित यादृच्छिक फॉरेस्ट प्रयुक्त किया गया [46]*
  • डिसिजन ट्री [72]
  • मेमेटिक एल्गोरिदम
  • रैंडम मल्टीनोमियल लॉगिट (आरएमएनएल)
  • ऑटोएनकोडर बॉटनेक-लेयर के साथ ऑटो-एनकोडिंग नेटवर्क
  • सबमॉड्यूलर समुच्चय फलन सुविधा चयन [73][74][75]
  • स्थानीय शिक्षण आधारित सुविधा चयन हैं [76] पारंपरिक विधियों की तुलना में, इसमें कोई अनुमानी खोज सम्मिलित नहीं है, यह सरलता से बहु-वर्ग की समस्याओं को संभाल सकता है, यह रैखिक और गैर-रेखीय दोनों समस्याओं के लिए काम करता है। यह शक्तिशाली सैद्धांतिक आधार द्वारा भी समर्थित है। संख्यात्मक प्रयोगों से पता चला है कि यह विधि के समीप-से-अधिकतम समाधान प्राप्त कर सकती है, तथापि डेटा में >1M अप्रासंगिक विशेषताएं होती हैं।
  • फीचर चयन के आधार पर अनुशंसा प्रणाली और [77] फीचर चयन विधियों को अनुशंसाकर्ता सिस्टम अनुसंधान में प्रस्तुत किया गया है।

यह भी देखें

संदर्भ

  1. Gareth James; Daniela Witten; Trevor Hastie; Robert Tibshirani (2013). सांख्यिकीय शिक्षा का एक परिचय. Springer. p. 204.
  2. Brank, Janez; Mladenić, Dunja; Grobelnik, Marko; Liu, Huan; Mladenić, Dunja; Flach, Peter A.; Garriga, Gemma C.; Toivonen, Hannu; Toivonen, Hannu (2011), "Feature Selection", in Sammut, Claude; Webb, Geoffrey I. (eds.), Encyclopedia of Machine Learning (in English), Boston, MA: Springer US, pp. 402–406, doi:10.1007/978-0-387-30164-8_306, ISBN 978-0-387-30768-8, retrieved 2021-07-13
  3. Kramer, Mark A. (1991). "ऑटोएसोसिएटिव न्यूरल नेटवर्क का उपयोग करके नॉनलाइनियर प्रमुख घटक विश्लेषण". AIChE Journal (in English). 37 (2): 233–243. doi:10.1002/aic.690370209. ISSN 1547-5905.
  4. Kratsios, Anastasis; Hyndman, Cody (2021). "NEU: A Meta-Algorithm for Universal UAP-Invariant Feature Representation". Journal of Machine Learning Research. 22 (92): 1–51. ISSN 1533-7928.
  5. Persello, Claudio; Bruzzone, Lorenzo (July 2014). "Relevant and invariant feature selection of hyperspectral images for domain generalization". 2014 IEEE Geoscience and Remote Sensing Symposium (PDF). IEEE. pp. 3562–3565. doi:10.1109/igarss.2014.6947252. ISBN 978-1-4799-5775-0. S2CID 8368258.
  6. Hinkle, Jacob; Muralidharan, Prasanna; Fletcher, P. Thomas; Joshi, Sarang (2012). Fitzgibbon, Andrew; Lazebnik, Svetlana; Perona, Pietro; Sato, Yoichi; Schmid, Cordelia (eds.). "रीमैनियन मैनिफोल्ड्स पर बहुपद प्रतिगमन". Computer Vision – ECCV 2012. Lecture Notes in Computer Science (in English). Berlin, Heidelberg: Springer. 7574: 1–14. arXiv:1201.2395. doi:10.1007/978-3-642-33712-3_1. ISBN 978-3-642-33712-3. S2CID 8849753.
  7. Yarotsky, Dmitry (2021-04-30). "तंत्रिका नेटवर्क द्वारा अपरिवर्तनीय मानचित्रों का सार्वभौमिक अनुमान". Constructive Approximation (in English). 55: 407–474. arXiv:1804.10306. doi:10.1007/s00365-021-09546-1. ISSN 1432-0940. S2CID 13745401.
  8. Hauberg, Søren; Lauze, François; Pedersen, Kim Steenstrup (2013-05-01). "रीमैनियन मैनिफ़ोल्ड्स पर असुगंधित कल्मन फ़िल्टरिंग". Journal of Mathematical Imaging and Vision (in English). 46 (1): 103–120. doi:10.1007/s10851-012-0372-9. ISSN 1573-7683. S2CID 8501814.
  9. Kratsios, Anastasis; Hyndman, Cody (June 8, 2021). "NEU: A Meta-Algorithm for Universal UAP-Invariant Feature Representation". Journal of Machine Learning Research. 22: 10312. Bibcode:2015NatSR...510312B. doi:10.1038/srep10312. PMC 4437376. PMID 25988841.
  10. 10.0 10.1 10.2 Guyon, Isabelle; Elisseeff, André (2003). "वेरिएबल और फ़ीचर चयन का एक परिचय". JMLR. 3.
  11. Sarangi, Susanta; Sahidullah, Md; Saha, Goutam (September 2020). "Optimization of data-driven filterbank for automatic speaker verification". Digital Signal Processing. 104: 102795. arXiv:2007.10729. doi:10.1016/j.dsp.2020.102795. S2CID 220665533.
  12. 12.0 12.1 Yang, Yiming; Pedersen, Jan O. (1997). पाठ वर्गीकरण में फीचर चयन पर एक तुलनात्मक अध्ययन (PDF). ICML.
  13. Urbanowicz, Ryan J.; Meeker, Melissa; LaCava, William; Olson, Randal S.; Moore, Jason H. (2018). "Relief-Based Feature Selection: Introduction and Review". Journal of Biomedical Informatics. 85: 189–203. arXiv:1711.08421. doi:10.1016/j.jbi.2018.07.014. PMC 6299836. PMID 30031057.
  14. Forman, George (2003). "पाठ वर्गीकरण के लिए फीचर चयन मेट्रिक्स का एक व्यापक अनुभवजन्य अध्ययन" (PDF). Journal of Machine Learning Research. 3: 1289–1305.
  15. Yishi Zhang; Shujuan Li; Teng Wang; Zigang Zhang (2013). "अलग-अलग वर्गों के लिए विचलन-आधारित सुविधा चयन". Neurocomputing. 101 (4): 32–42. doi:10.1016/j.neucom.2012.06.036.
  16. Guyon I.; Weston J.; Barnhill S.; Vapnik V. (2002). "सपोर्ट वेक्टर मशीनों का उपयोग करके कैंसर वर्गीकरण के लिए जीन चयन". Machine Learning. 46 (1–3): 389–422. doi:10.1023/A:1012487302797.
  17. Bach, Francis R (2008). Bolasso: model consistent lasso estimation through the bootstrap. pp. 33–40. doi:10.1145/1390156.1390161. ISBN 9781605582054. S2CID 609778. {{cite book}}: |journal= ignored (help)
  18. Zare, Habil (2013). "लिंफोमा निदान के अनुप्रयोग के साथ लैस्सो के संयुक्त विश्लेषण के आधार पर सुविधाओं की प्रासंगिकता का स्कोरिंग". BMC Genomics. 14 (Suppl 1): S14. doi:10.1186/1471-2164-14-S1-S14. PMC 3549810. PMID 23369194.
  19. Kai Han; Yunhe Wang; Chao Zhang; Chao Li; Chao Xu (2018). ऑटोएन्कोडर ने बिना पर्यवेक्षित सुविधा चयन को प्रेरित किया. IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP).
  20. Hazimeh, Hussein; Mazumder, Rahul; Saab, Ali (2020). "Sparse Regression at Scale: Branch-and-Bound rooted in First-Order Optimization". arXiv:2004.06152 [stat.CO].
  21. Soufan, Othman; Kleftogiannis, Dimitrios; Kalnis, Panos; Bajic, Vladimir B. (2015-02-26). "DWFS: A Wrapper Feature Selection Tool Based on a Parallel Genetic Algorithm". PLOS ONE (in English). 10 (2): e0117988. Bibcode:2015PLoSO..1017988S. doi:10.1371/journal.pone.0117988. ISSN 1932-6203. PMC 4342225. PMID 25719748.
  22. Figueroa, Alejandro (2015). "वेब क्वेरी के पीछे उपयोगकर्ता के इरादे को पहचानने के लिए प्रभावी सुविधाओं की खोज करना". Computers in Industry. 68: 162–169. doi:10.1016/j.compind.2015.01.005.
  23. Figueroa, Alejandro; Guenter Neumann (2013). सामुदायिक प्रश्न उत्तर के लिए क्वेरी लॉग से प्रभावी पैराफ्रेज़ को रैंक करना सीखना. AAAI.
  24. Figueroa, Alejandro; Guenter Neumann (2014). "सामुदायिक प्रश्न उत्तर में प्रभावी पैराग्राफों की रैंकिंग के लिए श्रेणी-विशिष्ट मॉडल". Expert Systems with Applications. 41 (10): 4730–4742. doi:10.1016/j.eswa.2014.02.004. hdl:10533/196878.
  25. 25.0 25.1 Zhang, Y.; Wang, S.; Phillips, P. (2014). "स्पैम डिटेक्शन पर लागू डिसीजन ट्री का उपयोग करके फ़ीचर चयन के लिए म्यूटेशन ऑपरेटर के साथ बाइनरी पीएसओ". Knowledge-Based Systems. 64: 22–31. doi:10.1016/j.knosys.2014.03.015.
  26. F.C. Garcia-Lopez, M. Garcia-Torres, B. Melian, J.A. Moreno-Perez, J.M. Moreno-Vega. Solving feature subset selection problem by a Parallel Scatter Search, European Journal of Operational Research, vol. 169, no. 2, pp. 477–489, 2006.
  27. García-Torres, Miguel; Gómez-Vela, Francisco; Divina, Federico; Pinto-Roa, Diego P.; Noguera, José Luis Vázquez; Román, Julio C. Mello (2021). "Scatter search for high-dimensional feature selection using feature grouping". आनुवंशिक और विकासवादी संगणना सम्मेलन साथी की कार्यवाही. pp. 149–150. doi:10.1145/3449726.3459481. ISBN 9781450383516. S2CID 235770316.
  28. F.C. Garcia-Lopez, M. Garcia-Torres, B. Melian, J.A. Moreno-Perez, J.M. Moreno-Vega. Solving Feature Subset Selection Problem by a Hybrid Metaheuristic. In First International Workshop on Hybrid Metaheuristics, pp. 59–68, 2004.
  29. M. Garcia-Torres, F. Gomez-Vela, B. Melian, J.M. Moreno-Vega. High-dimensional feature selection via feature grouping: A Variable Neighborhood Search approach, Information Sciences, vol. 326, pp. 102-118, 2016.
  30. Kraskov, Alexander; Stögbauer, Harald; Andrzejak, Ralph G; Grassberger, Peter (2003). "पारस्परिक सूचना पर आधारित पदानुक्रमित क्लस्टरिंग". arXiv:q-bio/0311039. Bibcode:2003q.bio....11039K. {{cite journal}}: Cite journal requires |journal= (help)
  31. Akaike, H. (1985), "Prediction and entropy", in Atkinson, A. C.; Fienberg, S. E. (eds.), A Celebration of Statistics (PDF), Springer, pp. 1–24, archived (PDF) from the original on August 30, 2019.
  32. Burnham, K. P.; Anderson, D. R. (2002), Model Selection and Multimodel Inference: A practical information-theoretic approach (2nd ed.), Springer-Verlag, ISBN 9780387953649.
  33. Einicke, G. A. (2018). "दौड़ने के दौरान घुटने और टखने की गतिशीलता में परिवर्तन को वर्गीकृत करने के लिए सुविधाओं का अधिकतम-एंट्रॉपी दर चयन". IEEE Journal of Biomedical and Health Informatics. 28 (4): 1097–1103. doi:10.1109/JBHI.2017.2711487. PMID 29969403. S2CID 49555941.
  34. Aliferis, Constantin (2010). "Local causal and markov blanket induction for causal discovery and feature selection for classification part I: Algorithms and empirical evaluation" (PDF). Journal of Machine Learning Research. 11: 171–234.
  35. 35.0 35.1 35.2 35.3 Brown, Gavin; Pocock, Adam; Zhao, Ming-Jie; Luján, Mikel (2012). "Conditional Likelihood Maximisation: A Unifying Framework for Information Theoretic Feature Selection". Journal of Machine Learning Research. 13: 27–66.[1]
  36. Peng, H. C.; Long, F.; Ding, C. (2005). "Feature selection based on mutual information: criteria of max-dependency, max-relevance, and min-redundancy". IEEE Transactions on Pattern Analysis and Machine Intelligence. 27 (8): 1226–1238. CiteSeerX 10.1.1.63.5765. doi:10.1109/TPAMI.2005.159. PMID 16119262. S2CID 206764015. Program
  37. Nguyen, H., Franke, K., Petrovic, S. (2010). "Towards a Generic Feature-Selection Measure for Intrusion Detection", In Proc. International Conference on Pattern Recognition (ICPR), Istanbul, Turkey. [2]
  38. Rodriguez-Lujan, I.; Huerta, R.; Elkan, C.; Santa Cruz, C. (2010). "द्विघात प्रोग्रामिंग सुविधा चयन" (PDF). JMLR. 11: 1491–1516.
  39. 39.0 39.1 Nguyen X. Vinh, Jeffrey Chan, Simone Romano and James Bailey, "Effective Global Approaches for Mutual Information based Feature Selection". Proceedings of the 20th ACM SIGKDD Conference on Knowledge Discovery and Data Mining (KDD'14), August 24–27, New York City, 2014. "[3]"
  40. Yang, Howard Hua; Moody, John (2000). "Data visualization and feature selection: New algorithms for nongaussian data" (PDF). Advances in Neural Information Processing Systems: 687–693.
  41. Yamada, M.; Jitkrittum, W.; Sigal, L.; Xing, E. P.; Sugiyama, M. (2014). "फ़ीचर-वार नॉन-लीनियर लैस्सो द्वारा उच्च-आयामी फ़ीचर चयन". Neural Computation. 26 (1): 185–207. arXiv:1202.0515. doi:10.1162/NECO_a_00537. PMID 24102126. S2CID 2742785.
  42. Hall, M. (1999). मशीन लर्निंग के लिए सहसंबंध-आधारित फ़ीचर चयन (PDF) (PhD thesis). University of Waikato.
  43. Senliol, Baris; et al. (2008). "Fast Correlation Based Filter (FCBF) with a different search strategy". 2008 23rd International Symposium on Computer and Information Sciences. pp. 1–4. doi:10.1109/ISCIS.2008.4717949. ISBN 978-1-4244-2880-9. S2CID 8398495.
  44. Nguyen, Hai; Franke, Katrin; Petrovic, Slobodan (December 2009). "सुविधा चयन उपायों के एक वर्ग का अनुकूलन". Proceedings of the NIPS 2009 Workshop on Discrete Optimization in Machine Learning: Submodularity, Sparsity & Polyhedra (DISCML). Vancouver, Canada.
  45. 45.0 45.1 H. Deng, G. Runger, "Feature Selection via Regularized Trees", Proceedings of the 2012 International Joint Conference on Neural Networks (IJCNN), IEEE, 2012
  46. 46.0 46.1 RRF: Regularized Random Forest, R package on CRAN
  47. 47.0 47.1 Hamon, Julie (November 2013). Optimisation combinatoire pour la sélection de variables en régression en grande dimension: Application en génétique animale (Thesis) (in français). Lille University of Science and Technology.
  48. Yu, Lei; Liu, Huan (August 2003). "Feature selection for high-dimensional data: a fast correlation-based filter solution" (PDF). ICML'03: Proceedings of the Twentieth International Conference on International Conference on Machine Learning: 856–863.
  49. 49.0 49.1 T. M. Phuong, Z. Lin et R. B. Altman. Choosing SNPs using feature selection. Archived 2016-09-13 at the Wayback Machine Proceedings / IEEE Computational Systems Bioinformatics Conference, CSB. IEEE Computational Systems Bioinformatics Conference, pages 301-309, 2005. PMID 16447987.
  50. Saghapour, E.; Kermani, S.; Sehhati, M. (2017). "प्रोटिओमिक्स डेटा का उपयोग करके कैंसर के चरणों की भविष्यवाणी के लिए एक नवीन फीचर रैंकिंग पद्धति". PLOS ONE. 12 (9): e0184203. Bibcode:2017PLoSO..1284203S. doi:10.1371/journal.pone.0184203. PMC 5608217. PMID 28934234.
  51. Shah, S. C.; Kusiak, A. (2004). "Data mining and genetic algorithm based gene/SNP selection". Artificial Intelligence in Medicine. 31 (3): 183–196. doi:10.1016/j.artmed.2004.04.002. PMID 15302085.
  52. Long, N.; Gianola, D.; Weigel, K. A (2011). "Dimension reduction and variable selection for genomic selection: application to predicting milk yield in Holsteins". Journal of Animal Breeding and Genetics. 128 (4): 247–257. doi:10.1111/j.1439-0388.2011.00917.x. PMID 21749471.
  53. Üstünkar, Gürkan; Özöğür-Akyüz, Süreyya; Weber, Gerhard W.; Friedrich, Christoph M.; Aydın Son, Yeşim (2012). "Selection of representative SNP sets for genome-wide association studies: A metaheuristic approach". Optimization Letters. 6 (6): 1207–1218. doi:10.1007/s11590-011-0419-7. S2CID 8075318.
  54. Meiri, R.; Zahavi, J. (2006). "Using simulated annealing to optimize the feature selection problem in marketing applications". European Journal of Operational Research. 171 (3): 842–858. doi:10.1016/j.ejor.2004.09.010.
  55. Kapetanios, G. (2007). "Variable Selection in Regression Models using Nonstandard Optimisation of Information Criteria". Computational Statistics & Data Analysis. 52 (1): 4–15. doi:10.1016/j.csda.2007.04.006.
  56. Broadhurst, D.; Goodacre, R.; Jones, A.; Rowland, J. J.; Kell, D. B. (1997). "Genetic algorithms as a method for variable selection in multiple linear regression and partial least squares regression, with applications to pyrolysis mass spectrometry". Analytica Chimica Acta. 348 (1–3): 71–86. doi:10.1016/S0003-2670(97)00065-2.
  57. Chuang, L.-Y.; Yang, C.-H. (2009). "Tabu search and binary particle swarm optimization for feature selection using microarray data". Journal of Computational Biology. 16 (12): 1689–1703. doi:10.1089/cmb.2007.0211. PMID 20047491.
  58. E. Alba, J. Garia-Nieto, L. Jourdan et E.-G. Talbi. Gene Selection in Cancer Classification using PSO-SVM and GA-SVM Hybrid Algorithms. Congress on Evolutionary Computation, Singapor: Singapore (2007), 2007
  59. B. Duval, J.-K. Hao et J. C. Hernandez Hernandez. A memetic algorithm for gene selection and molecular classification of an cancer. In Proceedings of the 11th Annual conference on Genetic and evolutionary computation, GECCO '09, pages 201-208, New York, NY, USA, 2009. ACM.
  60. C. Hans, A. Dobra et M. West. Shotgun stochastic search for 'large p' regression. Journal of the American Statistical Association, 2007.
  61. Aitken, S. (2005). "Feature selection and classification for microarray data analysis: Evolutionary methods for identifying predictive genes". BMC Bioinformatics. 6 (1): 148. doi:10.1186/1471-2105-6-148. PMC 1181625. PMID 15958165.
  62. Oh, I. S.; Moon, B. R. (2004). "Hybrid genetic algorithms for feature selection". IEEE Transactions on Pattern Analysis and Machine Intelligence. 26 (11): 1424–1437. CiteSeerX 10.1.1.467.4179. doi:10.1109/tpami.2004.105. PMID 15521491.
  63. Xuan, P.; Guo, M. Z.; Wang, J.; Liu, X. Y.; Liu, Y. (2011). "Genetic algorithm-based efficient feature selection for classification of pre-miRNAs". Genetics and Molecular Research. 10 (2): 588–603. doi:10.4238/vol10-2gmr969. PMID 21491369.
  64. Peng, S. (2003). "Molecular classification of cancer types from microarray data using the combination of genetic algorithms and support vector machines". FEBS Letters. 555 (2): 358–362. doi:10.1016/s0014-5793(03)01275-4. PMID 14644442.
  65. Hernandez, J. C. H.; Duval, B.; Hao, J.-K. (2007). "A Genetic Embedded Approach for Gene Selection and Classification of Microarray Data". Evolutionary Computation,Machine Learning and Data Mining in Bioinformatics. EvoBIO 2007. Lecture Notes in Computer Science. Vol. 4447. Berlin: Springer Verlag. pp. 90–101. doi:10.1007/978-3-540-71783-6_9. ISBN 978-3-540-71782-9.
  66. Huerta, E. B.; Duval, B.; Hao, J.-K. (2006). "A Hybrid GA/SVM Approach for Gene Selection and Classification of Microarray Data". Applications of Evolutionary Computing. EvoWorkshops 2006. Lecture Notes in Computer Science. Vol. 3907. pp. 34–44. doi:10.1007/11732242_4. ISBN 978-3-540-33237-4.
  67. Muni, D. P.; Pal, N. R.; Das, J. (2006). "Genetic programming for simultaneous feature selection and classifier design". IEEE Transactions on Systems, Man, and Cybernetics - Part B: Cybernetics. 36 (1): 106–117. doi:10.1109/TSMCB.2005.854499. PMID 16468570. S2CID 2073035.
  68. Jourdan, L.; Dhaenens, C.; Talbi, E.-G. (2005). "Linkage disequilibrium study with a parallel adaptive GA". International Journal of Foundations of Computer Science. 16 (2): 241–260. doi:10.1142/S0129054105002978.
  69. Zhang, Y.; Dong, Z.; Phillips, P.; Wang, S. (2015). "Detection of subjects and brain regions related to Alzheimer's disease using 3D MRI scans based on eigenbrain and machine learning". Frontiers in Computational Neuroscience. 9: 66. doi:10.3389/fncom.2015.00066. PMC 4451357. PMID 26082713.
  70. Roffo, G.; Melzi, S.; Cristani, M. (2015-12-01). "Infinite Feature Selection". 2015 IEEE International Conference on Computer Vision (ICCV). pp. 4202–4210. doi:10.1109/ICCV.2015.478. ISBN 978-1-4673-8391-2. S2CID 3223980.
  71. Roffo, Giorgio; Melzi, Simone (September 2016). "Features Selection via Eigenvector Centrality" (PDF). NFmcp2016. Retrieved 12 November 2016.
  72. R. Kohavi and G. John, "Wrappers for feature subset selection", Artificial intelligence 97.1-2 (1997): 273-324
  73. Das, Abhimanyu; Kempe, David (2011). "Submodular meets Spectral: Greedy Algorithms for Subset Selection, Sparse Approximation and Dictionary Selection". arXiv:1102.3975 [stat.ML].
  74. Liu et al., Submodular feature selection for high-dimensional acoustic score spaces Archived 2015-10-17 at the Wayback Machine
  75. Zheng et al., Submodular Attribute Selection for Action Recognition in Video Archived 2015-11-18 at the Wayback Machine
  76. Sun, Y.; Todorovic, S.; Goodison, S. (2010). "उच्च-आयामी डेटा विश्लेषण के लिए स्थानीय-शिक्षण-आधारित सुविधा चयन". IEEE Transactions on Pattern Analysis and Machine Intelligence. 32 (9): 1610–1626. doi:10.1109/tpami.2009.190. PMC 3445441. PMID 20634556.
  77. D.H. Wang, Y.C. Liang, D.Xu, X.Y. Feng, R.C. Guan(2018), "A content-based recommender system for computer science publications", Knowledge-Based Systems, 157: 1-9


अग्रिम पठन


बाहरी संबंध