फ़ीचर (मशीन लर्निंग): Difference between revisions

From Vigyanwiki
No edit summary
No edit summary
Line 9: Line 9:
== उदाहरण ==
== उदाहरण ==
{{also|फ़ीचर (कंप्यूटर दृष्टि)}}
{{also|फ़ीचर (कंप्यूटर दृष्टि)}}
[[चरित्र पहचान]] में, सुविधाओं में क्षैतिज और ऊर्ध्वाधर दिशाओं के साथ काले पिक्सेल की संख्या, आंतरिक छिद्रों की संख्या, स्ट्रोक का पता लगाने और कई अन्य लोगों की संख्या की गणना करने वाले [[हिस्टोग्राम]] सम्मिलित हो सकते हैं।
[[चरित्र पहचान|करैक्टर पहचान]] में, सुविधाओं में क्षैतिज और ऊर्ध्वाधर दिशाओं के साथ काले पिक्सेल की संख्या, आंतरिक छिद्रों की संख्या, स्ट्रोक का पता लगाने और कई अन्य लोगों की संख्या की गणना करने वाले [[हिस्टोग्राम]] सम्मिलित हो सकते हैं।


[[वाक् पहचान]] में, स्वरों को पहचानने की सुविधाओं में शोर अनुपात, ध्वनि की लंबाई, सापेक्ष शक्ति, फ़िल्टर मिलान और कई अन्य सम्मिलित हो सकते हैं।
[[वाक् पहचान]] में, स्वरों को पहचानने की सुविधाओं में शोर अनुपात, ध्वनि की लंबाई, सापेक्ष शक्ति, फ़िल्टर मिलान और कई अन्य सम्मिलित हो सकते हैं।
Line 21: Line 21:
नमूना की पहचान और मशीन सीखने में, एक फीचर वेक्टर संख्यात्मक विशेषताओं का एक एन-आयामी [[वेक्टर (ज्यामितीय)]] है जो किसी वस्तु का प्रतिनिधित्व करता है। यंत्र अधिगम में कई [[कलन विधि]] को वस्तुओं के संख्यात्मक प्रतिनिधित्व की आवश्यकता होती है, क्योंकि ऐसे प्रतिनिधित्व प्रसंस्करण और सांख्यिकीय विश्लेषण की सुविधा प्रदान करते हैं। छवियों का प्रतिनिधित्व करते समय, फीचर मान एक छवि के पिक्सेल के अनुरूप हो सकते हैं, जबकि ग्रंथों का प्रतिनिधित्व करते समय फीचर पाठ्य शब्दों की घटना की आवृत्ति हो सकती है। फीचर वैक्टर रैखिक प्रतिगमन जैसे सांख्यिकी प्रक्रियाओं में उपयोग किए जाने वाले व्याख्यात्मक चर के वैक्टर के बराबर हैं। फ़ीचर वैक्टर को अक्सर एक डॉट उत्पाद का उपयोग करके वज़न के साथ जोड़ा जाता है ताकि एक रेखीय भविष्यवक्ता फ़ंक्शन का निर्माण किया जा सके जिसका उपयोग भविष्यवाणी करने के लिए स्कोर निर्धारित करने के लिए किया जाता है।
नमूना की पहचान और मशीन सीखने में, एक फीचर वेक्टर संख्यात्मक विशेषताओं का एक एन-आयामी [[वेक्टर (ज्यामितीय)]] है जो किसी वस्तु का प्रतिनिधित्व करता है। यंत्र अधिगम में कई [[कलन विधि]] को वस्तुओं के संख्यात्मक प्रतिनिधित्व की आवश्यकता होती है, क्योंकि ऐसे प्रतिनिधित्व प्रसंस्करण और सांख्यिकीय विश्लेषण की सुविधा प्रदान करते हैं। छवियों का प्रतिनिधित्व करते समय, फीचर मान एक छवि के पिक्सेल के अनुरूप हो सकते हैं, जबकि ग्रंथों का प्रतिनिधित्व करते समय फीचर पाठ्य शब्दों की घटना की आवृत्ति हो सकती है। फीचर वैक्टर रैखिक प्रतिगमन जैसे सांख्यिकी प्रक्रियाओं में उपयोग किए जाने वाले व्याख्यात्मक चर के वैक्टर के बराबर हैं। फ़ीचर वैक्टर को अक्सर एक डॉट उत्पाद का उपयोग करके वज़न के साथ जोड़ा जाता है ताकि एक रेखीय भविष्यवक्ता फ़ंक्शन का निर्माण किया जा सके जिसका उपयोग भविष्यवाणी करने के लिए स्कोर निर्धारित करने के लिए किया जाता है।


इन वैक्टरों से जुड़े [[ सदिश स्थल |सदिश स्थल]] को अक्सर फीचर स्पेस कहा जाता है। फीचर स्पेस की आयामीिटी को कम करने के लिए, कई [[आयामीता में कमी]] यांत्रिकीयों को नियोजित किया जा सकता है।
इन वैक्टरों से जुड़े [[ सदिश स्थल |सदिश स्थल]] को अक्सर फीचर स्पेस कहा जाता है। फीचर स्पेस की आयामीिटी को कम करने के लिए, कई [[आयामीता में कमी]] यांत्रिकीयों को नियोजित किया जा सकता है।


उच्च-स्तरीय सुविधाएँ पहले से उपलब्ध सुविधाओं से प्राप्त की जा सकती हैं और फीचर वेक्टर में जोड़ी जा सकती हैं; उदाहरण के लिए, रोगों के अध्ययन के लिए 'आयु' सुविधा उपयोगी है और इसे 'आयु = 'मृत्यु का वर्ष' माइनस 'जन्म का वर्ष'' के रूप में परिभाषित किया गया है। इस प्रक्रिया को फीचर निर्माण के रूप में जाना जाता है।<ref name=Liu1998>Liu, H., Motoda H. (1998) ''[https://books.google.com/books?id=aaDbBwAAQBAJ&printsec=frontcover#v=onepage&q&f=false Feature Selection for Knowledge Discovery and Data Mining].'', Kluwer Academic Publishers. Norwell, MA, USA. 1998.</ref><ref name=Piramithu2009>Piramuthu, S., Sikora R. T. [https://www.sciencedirect.com/science/article/pii/S0957417408001309 Iterative feature construction for improving inductive learning algorithms]. In Journal of Expert Systems with Applications. Vol. 36 , Iss. 2 (March 2009), pp. 3401-3406, 2009</ref> फ़ीचर निर्माण रचनात्मक ऑपरेटरों के एक सेट का मौजूदा सुविधाओं के एक सेट पर अनुप्रयोग है जिसके परिणामस्वरूप नई सुविधाओं का निर्माण होता है। ऐसे रचनात्मक ऑपरेटरों के उदाहरणों में समानता की स्थिति {=, ≠}, अंकगणितीय ऑपरेटर {+,−,×, /}, सरणी ऑपरेटर {max(S), min(S), औसत(S)} के रूप में जाँच करना सम्मिलित है साथ ही अन्य अधिक परिष्कृत ऑपरेटर, उदाहरण के लिए गिनती (एस, सी)<ref name=bloedorn1998>Bloedorn, E., Michalski, R. Data-driven constructive induction: a methodology and its applications. IEEE Intelligent Systems, Special issue on Feature Transformation and Subset Selection, pp. 30-37, March/April, 1998</ref> यह फीचर वेक्टर एस में सुविधाओं की संख्या की गणना करता है जो कुछ स्थिति C को संतुष्ट करता है या, उदाहरण के लिए, कुछ स्वीकार्य डिवाइस द्वारा सामान्यीकृत अन्य मान्यता वर्गों की दूरी। विशेष रूप से उच्च-आयामी समस्याओं में संरचना की सटीकता और समझ दोनों को बढ़ाने के लिए फीचर निर्माण को लंबे समय से एक शक्तिशाली उपकरण माना जाता है।<ref name=breinman1984>Breiman, L. Friedman, T., Olshen, R., Stone, C. (1984) ''Classification and regression trees'', Wadsworth</ref> अनुप्रयोगों में भाषण से रोग और भावनाओं की पहचान का अध्ययन सम्मिलित है।<ref name=Sidorova2009>Sidorova, J., Badia T. [https://ieeexplore.ieee.org/abstract/document/5402574/ Syntactic learning for ESEDA.1, tool for enhanced speech emotion detection and analysis]. Internet Technology and Secured Transactions Conference 2009 (ICITST-2009), London, November 9–12. IEEE</ref>''
उच्च-स्तरीय सुविधाएँ पहले से उपलब्ध सुविधाओं से प्राप्त की जा सकती हैं और फीचर वेक्टर में जोड़ी जा सकती हैं; उदाहरण के लिए, रोगों के अध्ययन के लिए 'आयु' सुविधा उपयोगी है और इसे 'आयु = 'मृत्यु का वर्ष' माइनस 'जन्म का वर्ष'' के रूप में परिभाषित किया गया है। इस प्रक्रिया को फीचर निर्माण के रूप में जाना जाता है।<ref name=Liu1998>Liu, H., Motoda H. (1998) ''[https://books.google.com/books?id=aaDbBwAAQBAJ&printsec=frontcover#v=onepage&q&f=false Feature Selection for Knowledge Discovery and Data Mining].'', Kluwer Academic Publishers. Norwell, MA, USA. 1998.</ref><ref name=Piramithu2009>Piramuthu, S., Sikora R. T. [https://www.sciencedirect.com/science/article/pii/S0957417408001309 Iterative feature construction for improving inductive learning algorithms]. In Journal of Expert Systems with Applications. Vol. 36 , Iss. 2 (March 2009), pp. 3401-3406, 2009</ref> फ़ीचर निर्माण रचनात्मक ऑपरेटरों के एक सेट का मौजूदा सुविधाओं के एक सेट पर अनुप्रयोग है जिसके परिणामस्वरूप नई सुविधाओं का निर्माण होता है। ऐसे रचनात्मक ऑपरेटरों के उदाहरणों में समानता की स्थिति {=, ≠}, अंकगणितीय ऑपरेटर {+,−,×, /}, सरणी ऑपरेटर {max(S), min(S), औसत(S)} के रूप में जाँच करना सम्मिलित है साथ ही अन्य अधिक परिष्कृत ऑपरेटर, उदाहरण के लिए गिनती (एस, सी)<ref name=bloedorn1998>Bloedorn, E., Michalski, R. Data-driven constructive induction: a methodology and its applications. IEEE Intelligent Systems, Special issue on Feature Transformation and Subset Selection, pp. 30-37, March/April, 1998</ref> यह फीचर वेक्टर एस में सुविधाओं की संख्या की गणना करता है जो कुछ स्थिति C को संतुष्ट करता है या, उदाहरण के लिए, कुछ स्वीकार्य डिवाइस द्वारा सामान्यीकृत अन्य मान्यता वर्गों की दूरी। विशेष रूप से उच्च-आयामी समस्याओं में संरचना की सटीकता और समझ दोनों को बढ़ाने के लिए फीचर निर्माण को लंबे समय से एक शक्तिशाली उपकरण माना जाता है।<ref name=breinman1984>Breiman, L. Friedman, T., Olshen, R., Stone, C. (1984) ''Classification and regression trees'', Wadsworth</ref> अनुप्रयोगों में भाषण से रोग और भावनाओं की पहचान का अध्ययन सम्मिलित है।<ref name=Sidorova2009>Sidorova, J., Badia T. [https://ieeexplore.ieee.org/abstract/document/5402574/ Syntactic learning for ESEDA.1, tool for enhanced speech emotion detection and analysis]. Internet Technology and Secured Transactions Conference 2009 (ICITST-2009), London, November 9–12. IEEE</ref>''
Line 30: Line 30:
कच्ची सुविधाओं का प्रारंभिक सेट बेमानी हो सकता है और प्रबंधित करने के लिए बहुत बड़ा हो सकता है। इसलिए, यंत्र अधिगम और नमूना पहचान के कई अनुप्रयोगों में एक प्रारंभिक चरण में [[फीचर चयन]], सुविधाओं का एक सबसेट, या [[ सुविधा निकालना |सुविधा निकालना]], सीखने की सुविधा के लिए सुविधाओं का एक नया और कम सेट, और सामान्यीकरण और व्याख्यात्मकता में सुधार करना सम्मिलित है।{{Citation needed|date=October 2017}}.
कच्ची सुविधाओं का प्रारंभिक सेट बेमानी हो सकता है और प्रबंधित करने के लिए बहुत बड़ा हो सकता है। इसलिए, यंत्र अधिगम और नमूना पहचान के कई अनुप्रयोगों में एक प्रारंभिक चरण में [[फीचर चयन]], सुविधाओं का एक सबसेट, या [[ सुविधा निकालना |सुविधा निकालना]], सीखने की सुविधा के लिए सुविधाओं का एक नया और कम सेट, और सामान्यीकरण और व्याख्यात्मकता में सुधार करना सम्मिलित है।{{Citation needed|date=October 2017}}.


सुविधाओं को निकालना या चुनना कला और विज्ञान का संयोजन है; ऐसा करने के लिए विकासशील सिस्टम को [[फीचर इंजीनियरिंग]] के रूप में जाना जाता है। इसके लिए [[डोमेन विशेषज्ञ]] के अंतर्ज्ञान और ज्ञान के साथ कई संभावनाओं के प्रयोग और स्वचालित यांत्रिकीयों के संयोजन की आवश्यकता होती है। इस प्रक्रिया को स्वचालित करना [[फीचर लर्निंग]] है, जहाँ एक मशीन न केवल सीखने के लिए सुविधाओं का उपयोग करती है, बल्कि स्वयं सुविधाओं को सीखती है।
सुविधाओं को निकालना या चुनना कला और विज्ञान का संयोजन है; ऐसा करने के लिए विकासशील सिस्टम को [[फीचर इंजीनियरिंग]] के रूप में जाना जाता है। इसके लिए [[डोमेन विशेषज्ञ]] के अंतर्ज्ञान और ज्ञान के साथ कई संभावनाओं के प्रयोग और स्वचालित यांत्रिकीयों के संयोजन की आवश्यकता होती है। इस प्रक्रिया को स्वचालित करना [[फीचर लर्निंग]] है, जहाँ एक मशीन न केवल सीखने के लिए सुविधाओं का उपयोग करती है, बल्कि स्वयं सुविधाओं को सीखती है।


== यह भी देखें ==
== यह भी देखें ==

Revision as of 12:45, 15 March 2023

मशीन सीखने और नमूना पहचान में, एक विशेषता यह है कि यह एक व्यक्तिगत औसत दर्जे की संपत्ति या घटना की विशेषता है।[1] नमूना पहचान, वर्गीकरण (यंत्र अधिगम) और प्रतिगमन विश्लेषण में प्रभावी एल्गोरिदम का सूचनात्मक, विवेकपूर्ण और स्वतंत्र विशेषताओं का चयन करना एक महत्वपूर्ण तत्व है। विशेषताएं प्रायः पर संख्यात्मक होती हैं, लेकिन संरचनात्मक विशेषताएं जैसे कि स्ट्रिंग (कंप्यूटर विज्ञान) और ग्राफ (असतत गणित) का उपयोग सिंटैक्टिक नमूना मान्यता में किया जाता है। सुविधा की अवधारणा सांख्यिकी यांत्रिकीयों जैसे रेखीय प्रतिगमन में उपयोग किए जाने वाले व्याख्यात्मक चर से संबंधित है।

वर्गीकरण

फीचर वेक्टर द्वारा एक न्यूमेरिक फीचर को आसानी से वर्णित किया जा सकता है। बाइनरी वर्गीकरण प्राप्त करने का एक तरीका इनपुट के रूप में एक फीचर वेक्टर के साथ एक रैखिक भविष्यवक्ता फ़ंक्शन (परसेप्ट्रॉन से संबंधित) का उपयोग कर रहा है। विधि में फीचर वेक्टर और वज़न के वेक्टर के बीच डॉट उत्पाद की गणना करना सम्मिलित है, उन अवलोकनों को अर्हता प्राप्त करना जिनके परिणाम सीमा से अधिक हैं।

फीचर वेक्टर से वर्गीकरण के लिए एल्गोरिदम में के-निकटतम पड़ोसी एल्गोरिदम, तंत्रिका नेटवर्क और सांख्यिकीय वर्गीकरण जैसे बायेसियन अनुमान सम्मिलित हैं।

उदाहरण

करैक्टर पहचान में, सुविधाओं में क्षैतिज और ऊर्ध्वाधर दिशाओं के साथ काले पिक्सेल की संख्या, आंतरिक छिद्रों की संख्या, स्ट्रोक का पता लगाने और कई अन्य लोगों की संख्या की गणना करने वाले हिस्टोग्राम सम्मिलित हो सकते हैं।

वाक् पहचान में, स्वरों को पहचानने की सुविधाओं में शोर अनुपात, ध्वनि की लंबाई, सापेक्ष शक्ति, फ़िल्टर मिलान और कई अन्य सम्मिलित हो सकते हैं।

स्पैम (इलेक्ट्रॉनिक) डिटेक्शन एल्गोरिदम में, सुविधाओं में कुछ ईमेल हेडर, ईमेल संरचना, भाषा, विशिष्ट शब्दों की आवृत्ति, पाठ की व्याकरणिक शुद्धता की उपस्थिति या अनुपस्थिति सम्मिलित हो सकती है।

कंप्यूटर दृष्टि में बड़ी संख्या में संभावित विशेषताएँ (कंप्यूटर विज़न) होती हैं, जैसे कि किनारे और वस्तुएँ।

एक्सटेंशन

नमूना की पहचान और मशीन सीखने में, एक फीचर वेक्टर संख्यात्मक विशेषताओं का एक एन-आयामी वेक्टर (ज्यामितीय) है जो किसी वस्तु का प्रतिनिधित्व करता है। यंत्र अधिगम में कई कलन विधि को वस्तुओं के संख्यात्मक प्रतिनिधित्व की आवश्यकता होती है, क्योंकि ऐसे प्रतिनिधित्व प्रसंस्करण और सांख्यिकीय विश्लेषण की सुविधा प्रदान करते हैं। छवियों का प्रतिनिधित्व करते समय, फीचर मान एक छवि के पिक्सेल के अनुरूप हो सकते हैं, जबकि ग्रंथों का प्रतिनिधित्व करते समय फीचर पाठ्य शब्दों की घटना की आवृत्ति हो सकती है। फीचर वैक्टर रैखिक प्रतिगमन जैसे सांख्यिकी प्रक्रियाओं में उपयोग किए जाने वाले व्याख्यात्मक चर के वैक्टर के बराबर हैं। फ़ीचर वैक्टर को अक्सर एक डॉट उत्पाद का उपयोग करके वज़न के साथ जोड़ा जाता है ताकि एक रेखीय भविष्यवक्ता फ़ंक्शन का निर्माण किया जा सके जिसका उपयोग भविष्यवाणी करने के लिए स्कोर निर्धारित करने के लिए किया जाता है।

इन वैक्टरों से जुड़े सदिश स्थल को अक्सर फीचर स्पेस कहा जाता है। फीचर स्पेस की आयामीिटी को कम करने के लिए, कई आयामीता में कमी यांत्रिकीयों को नियोजित किया जा सकता है।

उच्च-स्तरीय सुविधाएँ पहले से उपलब्ध सुविधाओं से प्राप्त की जा सकती हैं और फीचर वेक्टर में जोड़ी जा सकती हैं; उदाहरण के लिए, रोगों के अध्ययन के लिए 'आयु' सुविधा उपयोगी है और इसे 'आयु = 'मृत्यु का वर्ष' माइनस 'जन्म का वर्ष के रूप में परिभाषित किया गया है। इस प्रक्रिया को फीचर निर्माण के रूप में जाना जाता है।[2][3] फ़ीचर निर्माण रचनात्मक ऑपरेटरों के एक सेट का मौजूदा सुविधाओं के एक सेट पर अनुप्रयोग है जिसके परिणामस्वरूप नई सुविधाओं का निर्माण होता है। ऐसे रचनात्मक ऑपरेटरों के उदाहरणों में समानता की स्थिति {=, ≠}, अंकगणितीय ऑपरेटर {+,−,×, /}, सरणी ऑपरेटर {max(S), min(S), औसत(S)} के रूप में जाँच करना सम्मिलित है साथ ही अन्य अधिक परिष्कृत ऑपरेटर, उदाहरण के लिए गिनती (एस, सी)[4] यह फीचर वेक्टर एस में सुविधाओं की संख्या की गणना करता है जो कुछ स्थिति C को संतुष्ट करता है या, उदाहरण के लिए, कुछ स्वीकार्य डिवाइस द्वारा सामान्यीकृत अन्य मान्यता वर्गों की दूरी। विशेष रूप से उच्च-आयामी समस्याओं में संरचना की सटीकता और समझ दोनों को बढ़ाने के लिए फीचर निर्माण को लंबे समय से एक शक्तिशाली उपकरण माना जाता है।[5] अनुप्रयोगों में भाषण से रोग और भावनाओं की पहचान का अध्ययन सम्मिलित है।[6]

चयन और निष्कर्षण

कच्ची सुविधाओं का प्रारंभिक सेट बेमानी हो सकता है और प्रबंधित करने के लिए बहुत बड़ा हो सकता है। इसलिए, यंत्र अधिगम और नमूना पहचान के कई अनुप्रयोगों में एक प्रारंभिक चरण में फीचर चयन, सुविधाओं का एक सबसेट, या सुविधा निकालना, सीखने की सुविधा के लिए सुविधाओं का एक नया और कम सेट, और सामान्यीकरण और व्याख्यात्मकता में सुधार करना सम्मिलित है।[citation needed].

सुविधाओं को निकालना या चुनना कला और विज्ञान का संयोजन है; ऐसा करने के लिए विकासशील सिस्टम को फीचर इंजीनियरिंग के रूप में जाना जाता है। इसके लिए डोमेन विशेषज्ञ के अंतर्ज्ञान और ज्ञान के साथ कई संभावनाओं के प्रयोग और स्वचालित यांत्रिकीयों के संयोजन की आवश्यकता होती है। इस प्रक्रिया को स्वचालित करना फीचर लर्निंग है, जहाँ एक मशीन न केवल सीखने के लिए सुविधाओं का उपयोग करती है, बल्कि स्वयं सुविधाओं को सीखती है।

यह भी देखें

संदर्भ

  1. Bishop, Christopher (2006). पैटर्न मान्यता और मशीन प्रवीणता. Berlin: Springer. ISBN 0-387-31073-8.
  2. Liu, H., Motoda H. (1998) Feature Selection for Knowledge Discovery and Data Mining., Kluwer Academic Publishers. Norwell, MA, USA. 1998.
  3. Piramuthu, S., Sikora R. T. Iterative feature construction for improving inductive learning algorithms. In Journal of Expert Systems with Applications. Vol. 36 , Iss. 2 (March 2009), pp. 3401-3406, 2009
  4. Bloedorn, E., Michalski, R. Data-driven constructive induction: a methodology and its applications. IEEE Intelligent Systems, Special issue on Feature Transformation and Subset Selection, pp. 30-37, March/April, 1998
  5. Breiman, L. Friedman, T., Olshen, R., Stone, C. (1984) Classification and regression trees, Wadsworth
  6. Sidorova, J., Badia T. Syntactic learning for ESEDA.1, tool for enhanced speech emotion detection and analysis. Internet Technology and Secured Transactions Conference 2009 (ICITST-2009), London, November 9–12. IEEE