निकटवर्ती घटकों का विश्लेषण: Difference between revisions
No edit summary |
No edit summary |
||
Line 1: | Line 1: | ||
{{Machine learning bar}} | {{Machine learning bar}} | ||
निकटवर्ती घटकों का विश्लेषण [[सांख्यिकीय वर्गीकरण]] के लिए पर्यवेक्षित सीखने की विधि है जो डेटा पर दिए गए [[मीट्रिक (गणित)|मापन (गणित)]] के अनुसार अलग-अलग वर्गों में बहुभिन्नरूपी सांख्यिकी डेटा को विभाजित करता है। कार्यात्मक रूप से, यह K-निकटतम निकटवर्तीयों एल्गोरिदम के समान उद्देश्यों को पूर्ण करता है, और ''प्रसंभाव्य निकटतम निकटवर्तीयों'' नामक संबंधित अवधारणा का प्रत्यक्ष उपयोग करता है। | |||
== परिभाषा == | == परिभाषा == | ||
निकटवर्ती के घटकों के विश्लेषण का उद्देश्य इनपुट डेटा के रैखिक परिवर्तन को ढूंढकर दूरी मापन सीखना है ताकि औसत लीव-वन-आउट (एलओओ) वर्गीकरण निष्पादन परिवर्तित स्थान में अधिकतम हो। एल्गोरिदम की मुख्य अंतर्दृष्टि मैट्रिक्स <math>A</math> है परिवर्तन के अनुरूप भिन्न उद्देश्य फलन को परिभाषित करके <math>A</math> पाया जा सकता है , इसके बाद कॉन्जुगेट ग्रेडिएंट विधि जैसे पुनरावृत्त सॉल्वर का उपयोग किया जाता है। इस एल्गोरिदम का लाभ यह है कि इसमें कक्षाओं की संख्या <math>k</math>होती है <math>A</math>के फलन के रूप में निर्धारित किया जा सकता है , अदिश स्थिरांक तक। इसलिए, एल्गोरिदम का यह उपयोग [[मॉडल चयन]] के मुद्दे को संबोधित करता है। | |||
== स्पष्टीकरण == | == स्पष्टीकरण == | ||
परिभाषित करने के लिए <math>A</math>, हम परिवर्तित स्थान में वर्गीकरण सटीकता का वर्णन करने वाले उद्देश्य | परिभाषित करने के लिए <math>A</math>, हम परिवर्तित स्थान में वर्गीकरण सटीकता का वर्णन करने वाले उद्देश्य फलन को परिभाषित करते हैं और निर्धारित करने का प्रयास करते हैं <math>A^*</math> ताकि यह उद्देश्य कार्य अधिकतम हो सके। | ||
<math>A^* = \mbox{argmax}_A f(A)</math> | <math>A^* = \mbox{argmax}_A f(A)</math> | ||
=== लीव-वन-आउट (एलओओ) वर्गीकरण === | === लीव-वन-आउट (एलओओ) वर्गीकरण === | ||
किसी एकल डेटा बिंदु के वर्ग लेबल की सर्वसम्मति से भविष्यवाणी करने पर विचार करें <math>k</math>- दी गई दूरी | किसी एकल डेटा बिंदु के वर्ग लेबल की सर्वसम्मति से भविष्यवाणी करने पर विचार करें <math>k</math>- दी गई दूरी मापन के साथ निकटतम निकटवर्ती। इसे लीव-वन-आउट वर्गीकरण के रूप में जाना जाता है। हालाँकि, निकटतम-निकटवर्तीयों का समूह <math>C_i</math> सभी बिंदुओं को रेखीय परिवर्तन से गुजारने के बाद काफी भिन्न हो सकता है। विशेष रूप से, किसी बिंदु के लिए निकटवर्तीयों का सेट तत्वों में सहज परिवर्तन के जवाब में अलग-अलग बदलावों से गुजर सकता है <math>A</math>, जिसका अर्थ है कि कोई भी वस्तुनिष्ठ कार्य <math>f(\cdot)</math> किसी बिंदु के निकटवर्तीयों के आधार पर टुकड़ावार-स्थिर होगा, और इसलिए भिन्न नहीं होगा। | ||
=== समाधान === | === समाधान === | ||
हम [[स्टोकेस्टिक ग्रेडिएंट डिसेंट]] से प्रेरित दृष्टिकोण का उपयोग करके इस कठिनाई को हल कर सकते हैं। पर विचार करने के बजाय <math>k</math>-एलओओ-वर्गीकरण में प्रत्येक परिवर्तित बिंदु पर निकटतम | हम [[स्टोकेस्टिक ग्रेडिएंट डिसेंट|प्रसंभाव्य ग्रेडिएंट डिसेंट]] से प्रेरित दृष्टिकोण का उपयोग करके इस कठिनाई को हल कर सकते हैं। पर विचार करने के बजाय <math>k</math>-एलओओ-वर्गीकरण में प्रत्येक परिवर्तित बिंदु पर निकटतम निकटवर्ती, हम संपूर्ण रूपांतरित डेटा सेट को प्रसंभाव्य निकटतम निकटवर्तीयों के रूप में मानेंगे। हम किसी दिए गए LOO-वर्गीकरण बिंदु और रूपांतरित स्थान में दूसरे बिंदु के बीच वर्गित [[यूक्लिडियन दूरी]] के [[सॉफ्टमैक्स सक्रियण फ़ंक्शन|सॉफ्टमैक्स सक्रियण फलन]] का उपयोग करके इन्हें परिभाषित करते हैं: | ||
<math>p_{ij} = | <math>p_{ij} = | ||
Line 21: | Line 21: | ||
\end{cases} | \end{cases} | ||
</math> | </math> | ||
डेटा बिंदु को सही ढंग से वर्गीकृत करने की संभावना <math>i</math> इसके प्रत्येक | डेटा बिंदु को सही ढंग से वर्गीकृत करने की संभावना <math>i</math> इसके प्रत्येक निकटवर्ती के बिंदुओं को ही वर्ग में वर्गीकृत करने की संभावना है <math>C_i</math>: | ||
<math>p_i = \sum_{j \in C_i} p_{ij} \quad </math> कहाँ <math>p_{ij}</math> | <math>p_i = \sum_{j \in C_i} p_{ij} \quad </math> कहाँ <math>p_{ij}</math> निकटवर्ती को वर्गीकृत करने की संभावना है <math>j</math> बिंदु का <math>i</math>. | ||
LOO वर्गीकरण का उपयोग करके उद्देश्य | LOO वर्गीकरण का उपयोग करके उद्देश्य फलन को परिभाषित करें, इस बार संपूर्ण डेटा सेट को प्रसंभाव्य निकटतम निकटवर्तीयों के रूप में उपयोग करें: | ||
<math>f(A) = \sum_i \sum_{j \in C_i} p_{ij} = \sum_i p_i</math> | <math>f(A) = \sum_i \sum_{j \in C_i} p_{ij} = \sum_i p_i</math> | ||
ध्यान दें कि | ध्यान दें कि प्रसंभाव्य निकटतम निकटवर्तीयों के तहत, बिंदु के लिए सर्वसम्मति वर्ग <math>i</math> अपने निकटवर्तीयों पर वितरण से खींचे गए नमूनों की अनंत संख्या की सीमा में बिंदु के वर्ग का अपेक्षित मूल्य है <math>j \in C_i</math> अर्थात: <math>P(Class(X_i) = Class(X_j)) = p_{ij}</math>. इस प्रकार अनुमानित वर्ग प्रत्येक दूसरे बिंदु के वर्गों का संयोजन है, प्रत्येक के लिए सॉफ्टमैक्स फलन द्वारा भारित होता है <math>j \in C_j</math> कहाँ <math>C_j</math> अब संपूर्ण परिवर्तित डेटा सेट है। | ||
वस्तुनिष्ठ फलन का यह विकल्प बेहतर है क्योंकि यह इसके संबंध में भिन्न है <math>A</math> (निरूपित करें <math>x_{ij} = x_i - x_j</math>): | वस्तुनिष्ठ फलन का यह विकल्प बेहतर है क्योंकि यह इसके संबंध में भिन्न है <math>A</math> (निरूपित करें <math>x_{ij} = x_i - x_j</math>): | ||
Line 43: | Line 43: | ||
=== वैकल्पिक सूत्रीकरण === | === वैकल्पिक सूत्रीकरण === | ||
अधिकतम <math>f(\cdot)</math> को कम करने के बराबर है <math>L_1</math>-अनुमानित वर्ग वितरण और वास्तविक वर्ग वितरण के बीच की दूरी (यानी: जहां <math>p_i</math> प्रेरक <math>A</math> सभी 1 के बराबर हैं)। प्राकृतिक विकल्प केएल-डाइवर्जेंस है, जो निम्नलिखित उद्देश्य | अधिकतम <math>f(\cdot)</math> को कम करने के बराबर है <math>L_1</math>-अनुमानित वर्ग वितरण और वास्तविक वर्ग वितरण के बीच की दूरी (यानी: जहां <math>p_i</math> प्रेरक <math>A</math> सभी 1 के बराबर हैं)। प्राकृतिक विकल्प केएल-डाइवर्जेंस है, जो निम्नलिखित उद्देश्य फलन और ग्रेडिएंट को प्रेरित करता है: (गोल्डबर्गर 2005) | ||
<math> | <math> | ||
Line 52: | Line 52: | ||
\frac{\partial g}{\partial A} = 2A \sum_i \left ( \sum_k p_{ik} x_{ik} x_{ik}^T - \frac{\sum_{j \in C_i} p_{ij} x_{ij} x_{ij}^T }{\sum_{j \in C_i} p_{ij}} \right ) | \frac{\partial g}{\partial A} = 2A \sum_i \left ( \sum_k p_{ik} x_{ik} x_{ik}^T - \frac{\sum_{j \in C_i} p_{ij} x_{ij} x_{ij}^T }{\sum_{j \in C_i} p_{ij}} \right ) | ||
</math> | </math> | ||
व्यवहार में, का अनुकूलन <math>A</math> इस | व्यवहार में, का अनुकूलन <math>A</math> इस फलन का उपयोग करने से मूल के समान निष्पादन परिणाम मिलते हैं। | ||
==इतिहास और पृष्ठभूमि== | ==इतिहास और पृष्ठभूमि== | ||
निकटवर्ती के घटकों का विश्लेषण 2004 में टोरंटो विश्वविद्यालय के कंप्यूटर विज्ञान विभाग में जैकब गोल्डबर्गर, सैम रोविस, रुस्लान सलाखुदिनोव और ज्योफ हिंटन द्वारा विकसित किया गया था। | |||
==यह भी देखें== | ==यह भी देखें== | ||
*[[ वर्णक्रमीय क्लस्टरिंग ]] | *[[ वर्णक्रमीय क्लस्टरिंग ]] | ||
*बड़ा अंतर निकटतम | *बड़ा अंतर निकटतम निकटवर्ती | ||
== संदर्भ == | == संदर्भ == | ||
Line 65: | Line 65: | ||
==बाहरी संबंध == | ==बाहरी संबंध == | ||
=== सॉफ्टवेयर === | === सॉफ्टवेयर === | ||
* [[ mlpack ]] में [[C++]] कार्यान्वयन शामिल है | * [[ mlpack | mlpack]] में [[C++]] कार्यान्वयन शामिल है | ||
* [https://github.com/vomjom/nca nca] (C++) | * [https://github.com/vomjom/nca nca] (C++) | ||
* [[स्किकिट-लर्न]] का [https://scikit-learn.org/stable/modules/generated/sklearn.neighbors.NeighborhoodComponentsAnaलिसिस.html NeighborhoodComponentsAnalyss] कार्यान्वयन ([[पायथन (प्रोग्रामिंग भाषा)]]) | * [[स्किकिट-लर्न]] का [https://scikit-learn.org/stable/modules/generated/sklearn.neighbors.NeighborhoodComponentsAnaलिसिस.html NeighborhoodComponentsAnalyss] कार्यान्वयन ([[पायथन (प्रोग्रामिंग भाषा)]]) |
Revision as of 22:04, 17 July 2023
Part of a series on |
Machine learning and data mining |
---|
निकटवर्ती घटकों का विश्लेषण सांख्यिकीय वर्गीकरण के लिए पर्यवेक्षित सीखने की विधि है जो डेटा पर दिए गए मापन (गणित) के अनुसार अलग-अलग वर्गों में बहुभिन्नरूपी सांख्यिकी डेटा को विभाजित करता है। कार्यात्मक रूप से, यह K-निकटतम निकटवर्तीयों एल्गोरिदम के समान उद्देश्यों को पूर्ण करता है, और प्रसंभाव्य निकटतम निकटवर्तीयों नामक संबंधित अवधारणा का प्रत्यक्ष उपयोग करता है।
परिभाषा
निकटवर्ती के घटकों के विश्लेषण का उद्देश्य इनपुट डेटा के रैखिक परिवर्तन को ढूंढकर दूरी मापन सीखना है ताकि औसत लीव-वन-आउट (एलओओ) वर्गीकरण निष्पादन परिवर्तित स्थान में अधिकतम हो। एल्गोरिदम की मुख्य अंतर्दृष्टि मैट्रिक्स है परिवर्तन के अनुरूप भिन्न उद्देश्य फलन को परिभाषित करके पाया जा सकता है , इसके बाद कॉन्जुगेट ग्रेडिएंट विधि जैसे पुनरावृत्त सॉल्वर का उपयोग किया जाता है। इस एल्गोरिदम का लाभ यह है कि इसमें कक्षाओं की संख्या होती है के फलन के रूप में निर्धारित किया जा सकता है , अदिश स्थिरांक तक। इसलिए, एल्गोरिदम का यह उपयोग मॉडल चयन के मुद्दे को संबोधित करता है।
स्पष्टीकरण
परिभाषित करने के लिए , हम परिवर्तित स्थान में वर्गीकरण सटीकता का वर्णन करने वाले उद्देश्य फलन को परिभाषित करते हैं और निर्धारित करने का प्रयास करते हैं ताकि यह उद्देश्य कार्य अधिकतम हो सके।
लीव-वन-आउट (एलओओ) वर्गीकरण
किसी एकल डेटा बिंदु के वर्ग लेबल की सर्वसम्मति से भविष्यवाणी करने पर विचार करें - दी गई दूरी मापन के साथ निकटतम निकटवर्ती। इसे लीव-वन-आउट वर्गीकरण के रूप में जाना जाता है। हालाँकि, निकटतम-निकटवर्तीयों का समूह सभी बिंदुओं को रेखीय परिवर्तन से गुजारने के बाद काफी भिन्न हो सकता है। विशेष रूप से, किसी बिंदु के लिए निकटवर्तीयों का सेट तत्वों में सहज परिवर्तन के जवाब में अलग-अलग बदलावों से गुजर सकता है , जिसका अर्थ है कि कोई भी वस्तुनिष्ठ कार्य किसी बिंदु के निकटवर्तीयों के आधार पर टुकड़ावार-स्थिर होगा, और इसलिए भिन्न नहीं होगा।
समाधान
हम प्रसंभाव्य ग्रेडिएंट डिसेंट से प्रेरित दृष्टिकोण का उपयोग करके इस कठिनाई को हल कर सकते हैं। पर विचार करने के बजाय -एलओओ-वर्गीकरण में प्रत्येक परिवर्तित बिंदु पर निकटतम निकटवर्ती, हम संपूर्ण रूपांतरित डेटा सेट को प्रसंभाव्य निकटतम निकटवर्तीयों के रूप में मानेंगे। हम किसी दिए गए LOO-वर्गीकरण बिंदु और रूपांतरित स्थान में दूसरे बिंदु के बीच वर्गित यूक्लिडियन दूरी के सॉफ्टमैक्स सक्रियण फलन का उपयोग करके इन्हें परिभाषित करते हैं:
डेटा बिंदु को सही ढंग से वर्गीकृत करने की संभावना इसके प्रत्येक निकटवर्ती के बिंदुओं को ही वर्ग में वर्गीकृत करने की संभावना है :
कहाँ निकटवर्ती को वर्गीकृत करने की संभावना है बिंदु का .
LOO वर्गीकरण का उपयोग करके उद्देश्य फलन को परिभाषित करें, इस बार संपूर्ण डेटा सेट को प्रसंभाव्य निकटतम निकटवर्तीयों के रूप में उपयोग करें:
ध्यान दें कि प्रसंभाव्य निकटतम निकटवर्तीयों के तहत, बिंदु के लिए सर्वसम्मति वर्ग अपने निकटवर्तीयों पर वितरण से खींचे गए नमूनों की अनंत संख्या की सीमा में बिंदु के वर्ग का अपेक्षित मूल्य है अर्थात: . इस प्रकार अनुमानित वर्ग प्रत्येक दूसरे बिंदु के वर्गों का संयोजन है, प्रत्येक के लिए सॉफ्टमैक्स फलन द्वारा भारित होता है कहाँ अब संपूर्ण परिवर्तित डेटा सेट है।
वस्तुनिष्ठ फलन का यह विकल्प बेहतर है क्योंकि यह इसके संबंध में भिन्न है (निरूपित करें ):
के लिए ढाल प्राप्त करना इसका मतलब है कि इसे कॉन्जुगेट ग्रेडिएंट विधि जैसे पुनरावृत्त सॉल्वर के साथ पाया जा सकता है। ध्यान दें कि व्यवहार में, रुचि के बिंदु से दूर के बिंदुओं के तेजी से घटते योगदान के कारण ग्रेडिएंट के अधिकांश आंतरिक शब्द महत्वहीन योगदान का मूल्यांकन करते हैं। इसका मतलब यह है कि ग्रेडिएंट के आंतरिक योग को छोटा किया जा सकता है, जिसके परिणामस्वरूप बड़े डेटा सेट के लिए भी उचित गणना समय प्राप्त होता है।
वैकल्पिक सूत्रीकरण
अधिकतम को कम करने के बराबर है -अनुमानित वर्ग वितरण और वास्तविक वर्ग वितरण के बीच की दूरी (यानी: जहां प्रेरक सभी 1 के बराबर हैं)। प्राकृतिक विकल्प केएल-डाइवर्जेंस है, जो निम्नलिखित उद्देश्य फलन और ग्रेडिएंट को प्रेरित करता है: (गोल्डबर्गर 2005)
व्यवहार में, का अनुकूलन इस फलन का उपयोग करने से मूल के समान निष्पादन परिणाम मिलते हैं।
इतिहास और पृष्ठभूमि
निकटवर्ती के घटकों का विश्लेषण 2004 में टोरंटो विश्वविद्यालय के कंप्यूटर विज्ञान विभाग में जैकब गोल्डबर्गर, सैम रोविस, रुस्लान सलाखुदिनोव और ज्योफ हिंटन द्वारा विकसित किया गया था।
यह भी देखें
- वर्णक्रमीय क्लस्टरिंग
- बड़ा अंतर निकटतम निकटवर्ती
संदर्भ
- J. Goldberger, G. Hinton, S. Roweis, R. Salakhutdinov. (2005) Neighbourhood Components Analysis. Advances in Neural Information Processing Systems. 17, 513–520, 2005.
बाहरी संबंध
सॉफ्टवेयर
- mlpack में C++ कार्यान्वयन शामिल है
- nca (C++)
- स्किकिट-लर्न का NeighborhoodComponentsAnalyss कार्यान्वयन (पायथन (प्रोग्रामिंग भाषा))
श्रेणी:सांख्यिकीय वर्गीकरण