फ़ीचर (मशीन लर्निंग): Difference between revisions

From Vigyanwiki
No edit summary
No edit summary
Tag: Manual revert
 
(6 intermediate revisions by 4 users not shown)
Line 1: Line 1:
{{Refimprove|date=December 2014}}
मशीन सीखने और नमूना पहचान में, एक विशेषता यह है कि यह एक व्यक्तिगत औसत दर्जे की संपत्ति या घटना की विशेषता है।<ref name="ml">{{cite book |author=Bishop, Christopher |title=पैटर्न मान्यता और मशीन प्रवीणता|publisher=Springer |location=Berlin |year=2006 |isbn=0-387-31073-8 }}</ref> नमूना पहचान, [[वर्गीकरण (मशीन लर्निंग)|वर्गीकरण (यंत्र अधिगम)]] और [[प्रतिगमन विश्लेषण]] में प्रभावी एल्गोरिदम का सूचनात्मक, विवेकपूर्ण और स्वतंत्र विशेषताओं का चयन करना एक महत्वपूर्ण तत्व है। विशेषताएं प्रायः पर संख्यात्मक होती हैं, लेकिन संरचनात्मक विशेषताएं जैसे कि [[स्ट्रिंग (कंप्यूटर विज्ञान)]] और [[ग्राफ (असतत गणित)]] का उपयोग सिंटैक्टिक नमूना मान्यता में किया जाता है। सुविधा की अवधारणा सांख्यिकी यांत्रिकीयों जैसे [[रेखीय प्रतिगमन]] में उपयोग किए जाने वाले व्याख्यात्मक चर से संबंधित है।
{{distinguish|Feature (computer vision)}}
 
मशीन सीखने और पैटर्न की पहचान में, एक विशेषता एक व्यक्तिगत औसत दर्जे की संपत्ति या घटना की विशेषता है।<ref name="ml">{{cite book |author=Bishop, Christopher |title=पैटर्न मान्यता और मशीन प्रवीणता|publisher=Springer |location=Berlin |year=2006 |isbn=0-387-31073-8 }}</ref> पैटर्न पहचान, [[वर्गीकरण (मशीन लर्निंग)]] और [[प्रतिगमन विश्लेषण]] में प्रभावी एल्गोरिदम का सूचनात्मक, विवेकपूर्ण और स्वतंत्र विशेषताओं का चयन करना एक महत्वपूर्ण तत्व है। विशेषताएं प्रायः पर संख्यात्मक होती हैं, लेकिन संरचनात्मक विशेषताएं जैसे कि [[स्ट्रिंग (कंप्यूटर विज्ञान)]] और [[ग्राफ (असतत गणित)]] का उपयोग सिंटैक्टिक पैटर्न मान्यता में किया जाता है। सुविधा की अवधारणा सांख्यिकी तकनीकों जैसे [[रेखीय प्रतिगमन]] में उपयोग किए जाने वाले व्याख्यात्मक चर से संबंधित है।


== वर्गीकरण ==
== वर्गीकरण ==


फीचर वेक्टर द्वारा एक न्यूमेरिक फीचर को आसानी से वर्णित किया जा सकता है। बाइनरी वर्गीकरण प्राप्त करने का एक तरीका इनपुट के रूप में एक फीचर वेक्टर के साथ एक रैखिक भविष्यवक्ता फ़ंक्शन ([[परसेप्ट्रॉन]] से संबंधित) का उपयोग कर रहा है। विधि में फीचर वेक्टर और वज़न के वेक्टर के बीच [[डॉट उत्पाद]] की गणना करना सम्मिलित है, उन अवलोकनों को अर्हता प्राप्त करना जिनके परिणाम सीमा से अधिक हैं।
फीचर वेक्टर द्वारा एक न्यूमेरिक फीचर को आसानी से वर्णित किया जा सकता है। बाइनरी वर्गीकरण प्राप्त करने का एक तरीका इनपुट के रूप में एक फीचर वेक्टर के साथ एक रैखिक भविष्यवक्ता फ़ंक्शन ([[परसेप्ट्रॉन]] से संबंधित) का उपयोग कर रहा है। विधि में फीचर वेक्टर और वज़न के वेक्टर के बीच [[डॉट उत्पाद]] की गणना करना सम्मिलित है, उन अवलोकनों को अर्हता प्राप्त करना जिनके परिणाम सीमा से अधिक हैं।
   
   
फीचर वेक्टर से वर्गीकरण के लिए एल्गोरिदम में के-निकटतम पड़ोसी एल्गोरिदम, तंत्रिका नेटवर्क और [[सांख्यिकीय वर्गीकरण]] जैसे बायेसियन अनुमान सम्मिलित हैं।
फीचर वेक्टर से वर्गीकरण के लिए एल्गोरिदम में के-निकटतम पड़ोसी एल्गोरिदम, तंत्रिका नेटवर्क और [[सांख्यिकीय वर्गीकरण]] जैसे बायेसियन अनुमान सम्मिलित हैं।


== उदाहरण ==
== उदाहरण ==
{{also|फ़ीचर (कंप्यूटर दृष्टि)}}
{{also|फ़ीचर (कंप्यूटर दृष्टि)}}
[[चरित्र पहचान]] में, सुविधाओं में क्षैतिज और ऊर्ध्वाधर दिशाओं के साथ काले पिक्सेल की संख्या, आंतरिक छिद्रों की संख्या, स्ट्रोक का पता लगाने और कई अन्य लोगों की संख्या की गणना करने वाले [[हिस्टोग्राम]] सम्मिलित हो सकते हैं।
[[चरित्र पहचान|करैक्टर पहचान]] में, सुविधाओं में क्षैतिज और ऊर्ध्वाधर दिशाओं के साथ काले पिक्सेल की संख्या, आंतरिक छिद्रों की संख्या, स्ट्रोक का पता लगाने और कई अन्य लोगों की संख्या की गणना करने वाले [[हिस्टोग्राम]] सम्मिलित हो सकते हैं।


[[वाक् पहचान]] में, स्वरों को पहचानने की सुविधाओं में शोर अनुपात, ध्वनि की लंबाई, सापेक्ष शक्ति, फ़िल्टर मिलान और कई अन्य सम्मिलित हो सकते हैं।
[[वाक् पहचान]] में, स्वरों को पहचानने की सुविधाओं में शोर अनुपात, ध्वनि की लंबाई, सापेक्ष शक्ति, फ़िल्टर मिलान और कई अन्य सम्मिलित हो सकते हैं।


[[स्पैम (इलेक्ट्रॉनिक)]] डिटेक्शन एल्गोरिदम में, सुविधाओं में कुछ ईमेल हेडर, ईमेल संरचना, भाषा, विशिष्ट शब्दों की आवृत्ति, पाठ की व्याकरणिक शुद्धता की उपस्थिति या अनुपस्थिति सम्मिलित हो सकती है।
[[स्पैम (इलेक्ट्रॉनिक)]] डिटेक्शन एल्गोरिदम में, सुविधाओं में कुछ ईमेल हेडर, ईमेल संरचना, भाषा, विशिष्ट शब्दों की आवृत्ति, पाठ की व्याकरणिक शुद्धता की उपस्थिति या अनुपस्थिति सम्मिलित हो सकती है।


[[कंप्यूटर दृष्टि]] में बड़ी संख्या में संभावित विशेषताएँ (कंप्यूटर विज़न) होती हैं, जैसे कि किनारे और वस्तुएँ।
[[कंप्यूटर दृष्टि]] में बड़ी संख्या में संभावित विशेषताएँ (कंप्यूटर विज़न) होती हैं, जैसे कि किनारे और वस्तुएँ।
Line 22: Line 19:
== एक्सटेंशन ==
== एक्सटेंशन ==
{{Redirect|फ़ीचर स्पेस|कर्नेल मशीनों में सुविधा स्थान|कर्नेल विधि}}
{{Redirect|फ़ीचर स्पेस|कर्नेल मशीनों में सुविधा स्थान|कर्नेल विधि}}
पैटर्न की पहचान और मशीन सीखने में, एक फीचर वेक्टर संख्यात्मक विशेषताओं का एक एन-आयामी [[वेक्टर (ज्यामितीय)]] है जो किसी वस्तु का प्रतिनिधित्व करता है। मशीन लर्निंग में कई [[कलन विधि]] को वस्तुओं के संख्यात्मक प्रतिनिधित्व की आवश्यकता होती है, क्योंकि ऐसे प्रतिनिधित्व प्रसंस्करण और सांख्यिकीय विश्लेषण की सुविधा प्रदान करते हैं। छवियों का प्रतिनिधित्व करते समय, फीचर मान एक छवि के पिक्सेल के अनुरूप हो सकते हैं, जबकि ग्रंथों का प्रतिनिधित्व करते समय फीचर पाठ्य शब्दों की घटना की आवृत्ति हो सकती है। फीचर वैक्टर रैखिक प्रतिगमन जैसे सांख्यिकी प्रक्रियाओं में उपयोग किए जाने वाले व्याख्यात्मक चर के वैक्टर के बराबर हैं। फ़ीचर वैक्टर को अक्सर एक डॉट उत्पाद का उपयोग करके वज़न के साथ जोड़ा जाता है ताकि एक रेखीय भविष्यवक्ता फ़ंक्शन का निर्माण किया जा सके जिसका उपयोग भविष्यवाणी करने के लिए स्कोर निर्धारित करने के लिए किया जाता है।
नमूना की पहचान और मशीन सीखने में, एक फीचर वेक्टर संख्यात्मक विशेषताओं का एक एन-आयामी [[वेक्टर (ज्यामितीय)]] है जो किसी वस्तु का प्रतिनिधित्व करता है। यंत्र अधिगम में कई [[कलन विधि]] को वस्तुओं के संख्यात्मक प्रतिनिधित्व की आवश्यकता होती है, क्योंकि ऐसे प्रतिनिधित्व प्रसंस्करण और सांख्यिकीय विश्लेषण की सुविधा प्रदान करते हैं। छवियों का प्रतिनिधित्व करते समय, फीचर मान एक छवि के पिक्सेल के अनुरूप हो सकते हैं, जबकि ग्रंथों का प्रतिनिधित्व करते समय फीचर पाठ्य शब्दों की घटना की आवृत्ति हो सकती है। फीचर वैक्टर रैखिक प्रतिगमन जैसे सांख्यिकी प्रक्रियाओं में उपयोग किए जाने वाले व्याख्यात्मक चर के वैक्टर के बराबर हैं। फ़ीचर वैक्टर को अक्सर एक डॉट उत्पाद का उपयोग करके वज़न के साथ जोड़ा जाता है ताकि एक रेखीय भविष्यवक्ता फ़ंक्शन का निर्माण किया जा सके जिसका उपयोग भविष्यवाणी करने के लिए स्कोर निर्धारित करने के लिए किया जाता है।


इन वैक्टरों से जुड़े [[ सदिश स्थल ]] को अक्सर फीचर स्पेस कहा जाता है। फीचर स्पेस की आयामीिटी को कम करने के लिए, कई [[आयामीता में कमी]] तकनीकों को नियोजित किया जा सकता है।
इन वैक्टरों से जुड़े [[ सदिश स्थल |सदिश स्थल]] को अक्सर फीचर स्पेस कहा जाता है। फीचर स्पेस की आयामीिटी को कम करने के लिए, कई [[आयामीता में कमी]] यांत्रिकीयों को नियोजित किया जा सकता है।


उच्च-स्तरीय सुविधाएँ पहले से उपलब्ध सुविधाओं से प्राप्त की जा सकती हैं और फीचर वेक्टर में जोड़ी जा सकती हैं; उदाहरण के लिए, रोगों के अध्ययन के लिए 'आयु' सुविधा उपयोगी है और इसे 'आयु = 'मृत्यु का वर्ष' माइनस 'जन्म का वर्ष'' के रूप में परिभाषित किया गया है। इस प्रक्रिया को फीचर निर्माण के रूप में जाना जाता है।<ref name=Liu1998>Liu, H., Motoda H. (1998) ''[https://books.google.com/books?id=aaDbBwAAQBAJ&printsec=frontcover#v=onepage&q&f=false Feature Selection for Knowledge Discovery and Data Mining].'', Kluwer Academic Publishers. Norwell, MA, USA. 1998.</ref><ref name=Piramithu2009>Piramuthu, S., Sikora R. T. [https://www.sciencedirect.com/science/article/pii/S0957417408001309 Iterative feature construction for improving inductive learning algorithms]. In Journal of Expert Systems with Applications. Vol. 36 , Iss. 2 (March 2009), pp. 3401-3406, 2009</ref> फ़ीचर निर्माण रचनात्मक ऑपरेटरों के एक सेट का मौजूदा सुविधाओं के एक सेट पर अनुप्रयोग है जिसके परिणामस्वरूप नई सुविधाओं का निर्माण होता है। ऐसे रचनात्मक ऑपरेटरों के उदाहरणों में समानता की स्थिति {=, ≠}, अंकगणितीय ऑपरेटर {+,−,×, /}, सरणी ऑपरेटर {max(S), min(S), औसत(S)} के रूप में जाँच करना सम्मिलित है साथ ही अन्य अधिक परिष्कृत ऑपरेटर, उदाहरण के लिए गिनती (एस, सी)<ref name=bloedorn1998>Bloedorn, E., Michalski, R. Data-driven constructive induction: a methodology and its applications. IEEE Intelligent Systems, Special issue on Feature Transformation and Subset Selection, pp. 30-37, March/April, 1998</ref> यह फीचर वेक्टर एस में सुविधाओं की संख्या की गणना करता है जो कुछ शर्त सी को संतुष्ट करता है या, उदाहरण के लिए, कुछ स्वीकार्य डिवाइस द्वारा सामान्यीकृत अन्य मान्यता वर्गों की दूरी। विशेष रूप से उच्च-आयामी समस्याओं में संरचना की सटीकता और समझ दोनों को बढ़ाने के लिए फीचर निर्माण को लंबे समय से एक शक्तिशाली उपकरण माना जाता है।<ref name=breinman1984>Breiman, L. Friedman, T., Olshen, R., Stone, C. (1984) ''Classification and regression trees'', Wadsworth</ref> अनुप्रयोगों में भाषण से रोग और भावनाओं की पहचान का अध्ययन सम्मिलित है।<ref name=Sidorova2009>Sidorova, J., Badia T. [https://ieeexplore.ieee.org/abstract/document/5402574/ Syntactic learning for ESEDA.1, tool for enhanced speech emotion detection and analysis]. Internet Technology and Secured Transactions Conference 2009 (ICITST-2009), London, November 9–12. IEEE</ref>''
उच्च-स्तरीय सुविधाएँ पहले से उपलब्ध सुविधाओं से प्राप्त की जा सकती हैं और फीचर वेक्टर में जोड़ी जा सकती हैं; उदाहरण के लिए, रोगों के अध्ययन के लिए 'आयु' सुविधा उपयोगी है और इसे 'आयु = 'मृत्यु का वर्ष' माइनस 'जन्म का वर्ष'' के रूप में परिभाषित किया गया है। इस प्रक्रिया को फीचर निर्माण के रूप में जाना जाता है।<ref name=Liu1998>Liu, H., Motoda H. (1998) ''[https://books.google.com/books?id=aaDbBwAAQBAJ&printsec=frontcover#v=onepage&q&f=false Feature Selection for Knowledge Discovery and Data Mining].'', Kluwer Academic Publishers. Norwell, MA, USA. 1998.</ref><ref name=Piramithu2009>Piramuthu, S., Sikora R. T. [https://www.sciencedirect.com/science/article/pii/S0957417408001309 Iterative feature construction for improving inductive learning algorithms]. In Journal of Expert Systems with Applications. Vol. 36 , Iss. 2 (March 2009), pp. 3401-3406, 2009</ref> फ़ीचर निर्माण रचनात्मक ऑपरेटरों के एक सेट का मौजूदा सुविधाओं के एक सेट पर अनुप्रयोग है जिसके परिणामस्वरूप नई सुविधाओं का निर्माण होता है। ऐसे रचनात्मक ऑपरेटरों के उदाहरणों में समानता की स्थिति {=, ≠}, अंकगणितीय ऑपरेटर {+,−,×, /}, सरणी ऑपरेटर {max(S), min(S), औसत(S)} के रूप में जाँच करना सम्मिलित है साथ ही अन्य अधिक परिष्कृत ऑपरेटर, उदाहरण के लिए गिनती (एस, सी)<ref name=bloedorn1998>Bloedorn, E., Michalski, R. Data-driven constructive induction: a methodology and its applications. IEEE Intelligent Systems, Special issue on Feature Transformation and Subset Selection, pp. 30-37, March/April, 1998</ref> यह फीचर वेक्टर एस में सुविधाओं की संख्या की गणना करता है जो कुछ स्थिति C को संतुष्ट करता है या, उदाहरण के लिए, कुछ स्वीकार्य डिवाइस द्वारा सामान्यीकृत अन्य मान्यता वर्गों की दूरी। विशेष रूप से उच्च-आयामी समस्याओं में संरचना की सटीकता और समझ दोनों को बढ़ाने के लिए फीचर निर्माण को लंबे समय से एक शक्तिशाली उपकरण माना जाता है।<ref name=breinman1984>Breiman, L. Friedman, T., Olshen, R., Stone, C. (1984) ''Classification and regression trees'', Wadsworth</ref> अनुप्रयोगों में भाषण से रोग और भावनाओं की पहचान का अध्ययन सम्मिलित है।<ref name=Sidorova2009>Sidorova, J., Badia T. [https://ieeexplore.ieee.org/abstract/document/5402574/ Syntactic learning for ESEDA.1, tool for enhanced speech emotion detection and analysis]. Internet Technology and Secured Transactions Conference 2009 (ICITST-2009), London, November 9–12. IEEE</ref>''


== चयन और निष्कर्षण ==
== चयन और निष्कर्षण ==
{{main|फीचर चयन|सुविधा निकालना}}
{{main|फीचर चयन|सुविधा निकालना}}


कच्ची सुविधाओं का प्रारंभिक सेट बेमानी हो सकता है और प्रबंधित करने के लिए बहुत बड़ा हो सकता है। इसलिए, मशीन लर्निंग और पैटर्न पहचान के कई अनुप्रयोगों में एक प्रारंभिक चरण में [[फीचर चयन]], सुविधाओं का एक सबसेट, या [[ सुविधा निकालना ]], सीखने की सुविधा के लिए सुविधाओं का एक नया और कम सेट, और सामान्यीकरण और व्याख्यात्मकता में सुधार करना सम्मिलित है।{{Citation needed|date=October 2017}}.
कच्ची सुविधाओं का प्रारंभिक सेट बेमानी हो सकता है और प्रबंधित करने के लिए बहुत बड़ा हो सकता है। इसलिए, यंत्र अधिगम और नमूना पहचान के कई अनुप्रयोगों में एक प्रारंभिक चरण में [[फीचर चयन]], सुविधाओं का एक सबसेट, या [[ सुविधा निकालना |सुविधा निकालना]], सीखने की सुविधा के लिए सुविधाओं का एक नया और कम सेट, और सामान्यीकरण और व्याख्यात्मकता में सुधार करना सम्मिलित है।{{Citation needed|date=October 2017}}.


सुविधाओं को निकालना या चुनना कला और विज्ञान का संयोजन है; ऐसा करने के लिए विकासशील सिस्टम को [[फीचर इंजीनियरिंग]] के रूप में जाना जाता है। इसके लिए [[डोमेन विशेषज्ञ]] के अंतर्ज्ञान और ज्ञान के साथ कई संभावनाओं के प्रयोग और स्वचालित तकनीकों के संयोजन की आवश्यकता होती है। इस प्रक्रिया को स्वचालित करना [[फीचर लर्निंग]] है, जहाँ एक मशीन न केवल सीखने के लिए सुविधाओं का उपयोग करती है, बल्कि स्वयं सुविधाओं को सीखती है।
सुविधाओं को निकालना या चुनना कला और विज्ञान का संयोजन है; ऐसा करने के लिए विकासशील सिस्टम को [[फीचर इंजीनियरिंग]] के रूप में जाना जाता है। इसके लिए [[डोमेन विशेषज्ञ]] के अंतर्ज्ञान और ज्ञान के साथ कई संभावनाओं के प्रयोग और स्वचालित यांत्रिकीयों के संयोजन की आवश्यकता होती है। इस प्रक्रिया को स्वचालित करना [[फीचर लर्निंग]] है, जहाँ एक मशीन न केवल सीखने के लिए सुविधाओं का उपयोग करती है, बल्कि स्वयं सुविधाओं को सीखती है।


== यह भी देखें ==
== यह भी देखें ==
Line 45: Line 42:
==संदर्भ==
==संदर्भ==
{{Reflist}}
{{Reflist}}
[[Category: डेटा खनन]] [[Category: यंत्र अधिगम]] [[Category: पैटर्न मान्यता]]


[[Category: Machine Translated Page]]
[[Category:All articles with unsourced statements]]
[[Category:Articles with hatnote templates targeting a nonexistent page]]
[[Category:Articles with invalid date parameter in template]]
[[Category:Articles with unsourced statements from October 2017]]
[[Category:Created On 02/03/2023]]
[[Category:Created On 02/03/2023]]
[[Category:Machine Translated Page]]
[[Category:Missing redirects]]
[[Category:Pages with script errors]]
[[Category:Templates Vigyan Ready]]
[[Category:डेटा खनन]]

Latest revision as of 07:15, 19 March 2023

मशीन सीखने और नमूना पहचान में, एक विशेषता यह है कि यह एक व्यक्तिगत औसत दर्जे की संपत्ति या घटना की विशेषता है।[1] नमूना पहचान, वर्गीकरण (यंत्र अधिगम) और प्रतिगमन विश्लेषण में प्रभावी एल्गोरिदम का सूचनात्मक, विवेकपूर्ण और स्वतंत्र विशेषताओं का चयन करना एक महत्वपूर्ण तत्व है। विशेषताएं प्रायः पर संख्यात्मक होती हैं, लेकिन संरचनात्मक विशेषताएं जैसे कि स्ट्रिंग (कंप्यूटर विज्ञान) और ग्राफ (असतत गणित) का उपयोग सिंटैक्टिक नमूना मान्यता में किया जाता है। सुविधा की अवधारणा सांख्यिकी यांत्रिकीयों जैसे रेखीय प्रतिगमन में उपयोग किए जाने वाले व्याख्यात्मक चर से संबंधित है।

वर्गीकरण

फीचर वेक्टर द्वारा एक न्यूमेरिक फीचर को आसानी से वर्णित किया जा सकता है। बाइनरी वर्गीकरण प्राप्त करने का एक तरीका इनपुट के रूप में एक फीचर वेक्टर के साथ एक रैखिक भविष्यवक्ता फ़ंक्शन (परसेप्ट्रॉन से संबंधित) का उपयोग कर रहा है। विधि में फीचर वेक्टर और वज़न के वेक्टर के बीच डॉट उत्पाद की गणना करना सम्मिलित है, उन अवलोकनों को अर्हता प्राप्त करना जिनके परिणाम सीमा से अधिक हैं।

फीचर वेक्टर से वर्गीकरण के लिए एल्गोरिदम में के-निकटतम पड़ोसी एल्गोरिदम, तंत्रिका नेटवर्क और सांख्यिकीय वर्गीकरण जैसे बायेसियन अनुमान सम्मिलित हैं।

उदाहरण

करैक्टर पहचान में, सुविधाओं में क्षैतिज और ऊर्ध्वाधर दिशाओं के साथ काले पिक्सेल की संख्या, आंतरिक छिद्रों की संख्या, स्ट्रोक का पता लगाने और कई अन्य लोगों की संख्या की गणना करने वाले हिस्टोग्राम सम्मिलित हो सकते हैं।

वाक् पहचान में, स्वरों को पहचानने की सुविधाओं में शोर अनुपात, ध्वनि की लंबाई, सापेक्ष शक्ति, फ़िल्टर मिलान और कई अन्य सम्मिलित हो सकते हैं।

स्पैम (इलेक्ट्रॉनिक) डिटेक्शन एल्गोरिदम में, सुविधाओं में कुछ ईमेल हेडर, ईमेल संरचना, भाषा, विशिष्ट शब्दों की आवृत्ति, पाठ की व्याकरणिक शुद्धता की उपस्थिति या अनुपस्थिति सम्मिलित हो सकती है।

कंप्यूटर दृष्टि में बड़ी संख्या में संभावित विशेषताएँ (कंप्यूटर विज़न) होती हैं, जैसे कि किनारे और वस्तुएँ।

एक्सटेंशन

नमूना की पहचान और मशीन सीखने में, एक फीचर वेक्टर संख्यात्मक विशेषताओं का एक एन-आयामी वेक्टर (ज्यामितीय) है जो किसी वस्तु का प्रतिनिधित्व करता है। यंत्र अधिगम में कई कलन विधि को वस्तुओं के संख्यात्मक प्रतिनिधित्व की आवश्यकता होती है, क्योंकि ऐसे प्रतिनिधित्व प्रसंस्करण और सांख्यिकीय विश्लेषण की सुविधा प्रदान करते हैं। छवियों का प्रतिनिधित्व करते समय, फीचर मान एक छवि के पिक्सेल के अनुरूप हो सकते हैं, जबकि ग्रंथों का प्रतिनिधित्व करते समय फीचर पाठ्य शब्दों की घटना की आवृत्ति हो सकती है। फीचर वैक्टर रैखिक प्रतिगमन जैसे सांख्यिकी प्रक्रियाओं में उपयोग किए जाने वाले व्याख्यात्मक चर के वैक्टर के बराबर हैं। फ़ीचर वैक्टर को अक्सर एक डॉट उत्पाद का उपयोग करके वज़न के साथ जोड़ा जाता है ताकि एक रेखीय भविष्यवक्ता फ़ंक्शन का निर्माण किया जा सके जिसका उपयोग भविष्यवाणी करने के लिए स्कोर निर्धारित करने के लिए किया जाता है।

इन वैक्टरों से जुड़े सदिश स्थल को अक्सर फीचर स्पेस कहा जाता है। फीचर स्पेस की आयामीिटी को कम करने के लिए, कई आयामीता में कमी यांत्रिकीयों को नियोजित किया जा सकता है।

उच्च-स्तरीय सुविधाएँ पहले से उपलब्ध सुविधाओं से प्राप्त की जा सकती हैं और फीचर वेक्टर में जोड़ी जा सकती हैं; उदाहरण के लिए, रोगों के अध्ययन के लिए 'आयु' सुविधा उपयोगी है और इसे 'आयु = 'मृत्यु का वर्ष' माइनस 'जन्म का वर्ष के रूप में परिभाषित किया गया है। इस प्रक्रिया को फीचर निर्माण के रूप में जाना जाता है।[2][3] फ़ीचर निर्माण रचनात्मक ऑपरेटरों के एक सेट का मौजूदा सुविधाओं के एक सेट पर अनुप्रयोग है जिसके परिणामस्वरूप नई सुविधाओं का निर्माण होता है। ऐसे रचनात्मक ऑपरेटरों के उदाहरणों में समानता की स्थिति {=, ≠}, अंकगणितीय ऑपरेटर {+,−,×, /}, सरणी ऑपरेटर {max(S), min(S), औसत(S)} के रूप में जाँच करना सम्मिलित है साथ ही अन्य अधिक परिष्कृत ऑपरेटर, उदाहरण के लिए गिनती (एस, सी)[4] यह फीचर वेक्टर एस में सुविधाओं की संख्या की गणना करता है जो कुछ स्थिति C को संतुष्ट करता है या, उदाहरण के लिए, कुछ स्वीकार्य डिवाइस द्वारा सामान्यीकृत अन्य मान्यता वर्गों की दूरी। विशेष रूप से उच्च-आयामी समस्याओं में संरचना की सटीकता और समझ दोनों को बढ़ाने के लिए फीचर निर्माण को लंबे समय से एक शक्तिशाली उपकरण माना जाता है।[5] अनुप्रयोगों में भाषण से रोग और भावनाओं की पहचान का अध्ययन सम्मिलित है।[6]

चयन और निष्कर्षण

कच्ची सुविधाओं का प्रारंभिक सेट बेमानी हो सकता है और प्रबंधित करने के लिए बहुत बड़ा हो सकता है। इसलिए, यंत्र अधिगम और नमूना पहचान के कई अनुप्रयोगों में एक प्रारंभिक चरण में फीचर चयन, सुविधाओं का एक सबसेट, या सुविधा निकालना, सीखने की सुविधा के लिए सुविधाओं का एक नया और कम सेट, और सामान्यीकरण और व्याख्यात्मकता में सुधार करना सम्मिलित है।[citation needed].

सुविधाओं को निकालना या चुनना कला और विज्ञान का संयोजन है; ऐसा करने के लिए विकासशील सिस्टम को फीचर इंजीनियरिंग के रूप में जाना जाता है। इसके लिए डोमेन विशेषज्ञ के अंतर्ज्ञान और ज्ञान के साथ कई संभावनाओं के प्रयोग और स्वचालित यांत्रिकीयों के संयोजन की आवश्यकता होती है। इस प्रक्रिया को स्वचालित करना फीचर लर्निंग है, जहाँ एक मशीन न केवल सीखने के लिए सुविधाओं का उपयोग करती है, बल्कि स्वयं सुविधाओं को सीखती है।

यह भी देखें

संदर्भ

  1. Bishop, Christopher (2006). पैटर्न मान्यता और मशीन प्रवीणता. Berlin: Springer. ISBN 0-387-31073-8.
  2. Liu, H., Motoda H. (1998) Feature Selection for Knowledge Discovery and Data Mining., Kluwer Academic Publishers. Norwell, MA, USA. 1998.
  3. Piramuthu, S., Sikora R. T. Iterative feature construction for improving inductive learning algorithms. In Journal of Expert Systems with Applications. Vol. 36 , Iss. 2 (March 2009), pp. 3401-3406, 2009
  4. Bloedorn, E., Michalski, R. Data-driven constructive induction: a methodology and its applications. IEEE Intelligent Systems, Special issue on Feature Transformation and Subset Selection, pp. 30-37, March/April, 1998
  5. Breiman, L. Friedman, T., Olshen, R., Stone, C. (1984) Classification and regression trees, Wadsworth
  6. Sidorova, J., Badia T. Syntactic learning for ESEDA.1, tool for enhanced speech emotion detection and analysis. Internet Technology and Secured Transactions Conference 2009 (ICITST-2009), London, November 9–12. IEEE