निकटवर्ती घटकों का विश्लेषण: Difference between revisions

From Vigyanwiki
No edit summary
No edit summary
Line 1: Line 1:
{{Machine learning bar}}
{{Machine learning bar}}
पड़ोस घटकों का विश्लेषण [[सांख्यिकीय वर्गीकरण]] के लिए पर्यवेक्षित सीखने की विधि है जो डेटा पर दिए गए [[मीट्रिक (गणित)]] के अनुसार अलग-अलग वर्गों में बहुभिन्नरूपी सांख्यिकी डेटा को विभाजित करता है। कार्यात्मक रूप से, यह K-निकटतम पड़ोसियों एल्गोरिथ्म के समान उद्देश्यों को पूरा करता है, और ''स्टोकेस्टिक निकटतम पड़ोसियों'' नामक संबंधित अवधारणा का प्रत्यक्ष उपयोग करता है।
निकटवर्ती घटकों का विश्लेषण [[सांख्यिकीय वर्गीकरण]] के लिए पर्यवेक्षित सीखने की विधि है जो डेटा पर दिए गए [[मीट्रिक (गणित)|मापन (गणित)]] के अनुसार अलग-अलग वर्गों में बहुभिन्नरूपी सांख्यिकी डेटा को विभाजित करता है। कार्यात्मक रूप से, यह K-निकटतम निकटवर्तीयों एल्गोरिदम के समान उद्देश्यों को पूर्ण करता है, और ''प्रसंभाव्य निकटतम निकटवर्तीयों'' नामक संबंधित अवधारणा का प्रत्यक्ष उपयोग करता है।


== परिभाषा ==
== परिभाषा ==
पड़ोस के घटकों के विश्लेषण का उद्देश्य इनपुट डेटा के रैखिक परिवर्तन को ढूंढकर दूरी मीट्रिक सीखना है ताकि औसत लीव-वन-आउट (एलओओ) वर्गीकरण प्रदर्शन परिवर्तित स्थान में अधिकतम हो। एल्गोरिथम की मुख्य अंतर्दृष्टि मैट्रिक्स है <math>A</math> परिवर्तन के अनुरूप भिन्न उद्देश्य फ़ंक्शन को परिभाषित करके पाया जा सकता है <math>A</math>, इसके बाद कॉन्जुगेट ग्रेडिएंट विधि जैसे पुनरावृत्त सॉल्वर का उपयोग किया जाता है। इस एल्गोरिथम का लाभ यह है कि इसमें कक्षाओं की संख्या होती है <math>k</math> के फलन के रूप में निर्धारित किया जा सकता है <math>A</math>, अदिश स्थिरांक तक। इसलिए, एल्गोरिदम का यह उपयोग [[मॉडल चयन]] के मुद्दे को संबोधित करता है।
निकटवर्ती के घटकों के विश्लेषण का उद्देश्य इनपुट डेटा के रैखिक परिवर्तन को ढूंढकर दूरी मापन सीखना है ताकि औसत लीव-वन-आउट (एलओओ) वर्गीकरण निष्पादन परिवर्तित स्थान में अधिकतम हो। एल्गोरिदम की मुख्य अंतर्दृष्टि मैट्रिक्स <math>A</math> है परिवर्तन के अनुरूप भिन्न उद्देश्य फलन को परिभाषित करके <math>A</math> पाया जा सकता है , इसके बाद कॉन्जुगेट ग्रेडिएंट विधि जैसे पुनरावृत्त सॉल्वर का उपयोग किया जाता है। इस एल्गोरिदम का लाभ यह है कि इसमें कक्षाओं की संख्या <math>k</math>होती है <math>A</math>के फलन के रूप में निर्धारित किया जा सकता है , अदिश स्थिरांक तक। इसलिए, एल्गोरिदम का यह उपयोग [[मॉडल चयन]] के मुद्दे को संबोधित करता है।


== स्पष्टीकरण ==
== स्पष्टीकरण ==
परिभाषित करने के लिए <math>A</math>, हम परिवर्तित स्थान में वर्गीकरण सटीकता का वर्णन करने वाले उद्देश्य फ़ंक्शन को परिभाषित करते हैं और निर्धारित करने का प्रयास करते हैं <math>A^*</math> ताकि यह उद्देश्य कार्य अधिकतम हो सके।
परिभाषित करने के लिए <math>A</math>, हम परिवर्तित स्थान में वर्गीकरण सटीकता का वर्णन करने वाले उद्देश्य फलन को परिभाषित करते हैं और निर्धारित करने का प्रयास करते हैं <math>A^*</math> ताकि यह उद्देश्य कार्य अधिकतम हो सके।


<math>A^* = \mbox{argmax}_A f(A)</math>
<math>A^* = \mbox{argmax}_A f(A)</math>
=== लीव-वन-आउट (एलओओ) वर्गीकरण ===
=== लीव-वन-आउट (एलओओ) वर्गीकरण ===
किसी एकल डेटा बिंदु के वर्ग लेबल की सर्वसम्मति से भविष्यवाणी करने पर विचार करें <math>k</math>- दी गई दूरी मीट्रिक के साथ निकटतम पड़ोसी। इसे लीव-वन-आउट वर्गीकरण के रूप में जाना जाता है। हालाँकि, निकटतम-पड़ोसियों का समूह <math>C_i</math> सभी बिंदुओं को रेखीय परिवर्तन से गुजारने के बाद काफी भिन्न हो सकता है। विशेष रूप से, किसी बिंदु के लिए पड़ोसियों का सेट तत्वों में सहज परिवर्तन के जवाब में अलग-अलग बदलावों से गुजर सकता है <math>A</math>, जिसका अर्थ है कि कोई भी वस्तुनिष्ठ कार्य <math>f(\cdot)</math> किसी बिंदु के पड़ोसियों के आधार पर टुकड़ावार-स्थिर होगा, और इसलिए भिन्न नहीं होगा।
किसी एकल डेटा बिंदु के वर्ग लेबल की सर्वसम्मति से भविष्यवाणी करने पर विचार करें <math>k</math>- दी गई दूरी मापन के साथ निकटतम निकटवर्ती। इसे लीव-वन-आउट वर्गीकरण के रूप में जाना जाता है। हालाँकि, निकटतम-निकटवर्तीयों का समूह <math>C_i</math> सभी बिंदुओं को रेखीय परिवर्तन से गुजारने के बाद काफी भिन्न हो सकता है। विशेष रूप से, किसी बिंदु के लिए निकटवर्तीयों का सेट तत्वों में सहज परिवर्तन के जवाब में अलग-अलग बदलावों से गुजर सकता है <math>A</math>, जिसका अर्थ है कि कोई भी वस्तुनिष्ठ कार्य <math>f(\cdot)</math> किसी बिंदु के निकटवर्तीयों के आधार पर टुकड़ावार-स्थिर होगा, और इसलिए भिन्न नहीं होगा।


=== समाधान ===
=== समाधान ===
हम [[स्टोकेस्टिक ग्रेडिएंट डिसेंट]] से प्रेरित दृष्टिकोण का उपयोग करके इस कठिनाई को हल कर सकते हैं। पर विचार करने के बजाय <math>k</math>-एलओओ-वर्गीकरण में प्रत्येक परिवर्तित बिंदु पर निकटतम पड़ोसी, हम संपूर्ण रूपांतरित डेटा सेट को स्टोकेस्टिक निकटतम पड़ोसियों के रूप में मानेंगे। हम किसी दिए गए LOO-वर्गीकरण बिंदु और रूपांतरित स्थान में दूसरे बिंदु के बीच वर्गित [[यूक्लिडियन दूरी]] के [[सॉफ्टमैक्स सक्रियण फ़ंक्शन]] का उपयोग करके इन्हें परिभाषित करते हैं:
हम [[स्टोकेस्टिक ग्रेडिएंट डिसेंट|प्रसंभाव्य ग्रेडिएंट डिसेंट]] से प्रेरित दृष्टिकोण का उपयोग करके इस कठिनाई को हल कर सकते हैं। पर विचार करने के बजाय <math>k</math>-एलओओ-वर्गीकरण में प्रत्येक परिवर्तित बिंदु पर निकटतम निकटवर्ती, हम संपूर्ण रूपांतरित डेटा सेट को प्रसंभाव्य निकटतम निकटवर्तीयों के रूप में मानेंगे। हम किसी दिए गए LOO-वर्गीकरण बिंदु और रूपांतरित स्थान में दूसरे बिंदु के बीच वर्गित [[यूक्लिडियन दूरी]] के [[सॉफ्टमैक्स सक्रियण फ़ंक्शन|सॉफ्टमैक्स सक्रियण फलन]] का उपयोग करके इन्हें परिभाषित करते हैं:


<math>p_{ij} =
<math>p_{ij} =
Line 21: Line 21:
\end{cases}
\end{cases}
</math>
</math>
डेटा बिंदु को सही ढंग से वर्गीकृत करने की संभावना <math>i</math> इसके प्रत्येक पड़ोसी के बिंदुओं को ही वर्ग में वर्गीकृत करने की संभावना है <math>C_i</math>:
डेटा बिंदु को सही ढंग से वर्गीकृत करने की संभावना <math>i</math> इसके प्रत्येक निकटवर्ती के बिंदुओं को ही वर्ग में वर्गीकृत करने की संभावना है <math>C_i</math>:


<math>p_i = \sum_{j \in C_i} p_{ij} \quad </math> कहाँ <math>p_{ij}</math> पड़ोसी को वर्गीकृत करने की संभावना है <math>j</math> बिंदु का <math>i</math>.
<math>p_i = \sum_{j \in C_i} p_{ij} \quad </math> कहाँ <math>p_{ij}</math> निकटवर्ती को वर्गीकृत करने की संभावना है <math>j</math> बिंदु का <math>i</math>.


LOO वर्गीकरण का उपयोग करके उद्देश्य फ़ंक्शन को परिभाषित करें, इस बार संपूर्ण डेटा सेट को स्टोकेस्टिक निकटतम पड़ोसियों के रूप में उपयोग करें:
LOO वर्गीकरण का उपयोग करके उद्देश्य फलन को परिभाषित करें, इस बार संपूर्ण डेटा सेट को प्रसंभाव्य निकटतम निकटवर्तीयों के रूप में उपयोग करें:


<math>f(A) = \sum_i \sum_{j \in C_i} p_{ij} = \sum_i p_i</math>
<math>f(A) = \sum_i \sum_{j \in C_i} p_{ij} = \sum_i p_i</math>
ध्यान दें कि स्टोकेस्टिक निकटतम पड़ोसियों के तहत, बिंदु के लिए सर्वसम्मति वर्ग <math>i</math> अपने पड़ोसियों पर वितरण से खींचे गए नमूनों की अनंत संख्या की सीमा में बिंदु के वर्ग का अपेक्षित मूल्य है <math>j \in C_i</math> अर्थात: <math>P(Class(X_i) = Class(X_j)) = p_{ij}</math>. इस प्रकार अनुमानित वर्ग प्रत्येक दूसरे बिंदु के वर्गों का संयोजन है, प्रत्येक के लिए सॉफ्टमैक्स फ़ंक्शन द्वारा भारित होता है <math>j \in C_j</math> कहाँ <math>C_j</math> अब संपूर्ण परिवर्तित डेटा सेट है।
ध्यान दें कि प्रसंभाव्य निकटतम निकटवर्तीयों के तहत, बिंदु के लिए सर्वसम्मति वर्ग <math>i</math> अपने निकटवर्तीयों पर वितरण से खींचे गए नमूनों की अनंत संख्या की सीमा में बिंदु के वर्ग का अपेक्षित मूल्य है <math>j \in C_i</math> अर्थात: <math>P(Class(X_i) = Class(X_j)) = p_{ij}</math>. इस प्रकार अनुमानित वर्ग प्रत्येक दूसरे बिंदु के वर्गों का संयोजन है, प्रत्येक के लिए सॉफ्टमैक्स फलन द्वारा भारित होता है <math>j \in C_j</math> कहाँ <math>C_j</math> अब संपूर्ण परिवर्तित डेटा सेट है।


वस्तुनिष्ठ फलन का यह विकल्प बेहतर है क्योंकि यह इसके संबंध में भिन्न है <math>A</math> (निरूपित करें <math>x_{ij} = x_i - x_j</math>):
वस्तुनिष्ठ फलन का यह विकल्प बेहतर है क्योंकि यह इसके संबंध में भिन्न है <math>A</math> (निरूपित करें <math>x_{ij} = x_i - x_j</math>):
Line 43: Line 43:
=== वैकल्पिक सूत्रीकरण ===
=== वैकल्पिक सूत्रीकरण ===


  अधिकतम <math>f(\cdot)</math> को कम करने के बराबर है <math>L_1</math>-अनुमानित वर्ग वितरण और वास्तविक वर्ग वितरण के बीच की दूरी (यानी: जहां <math>p_i</math> प्रेरक <math>A</math> सभी 1 के बराबर हैं)। प्राकृतिक विकल्प केएल-डाइवर्जेंस है, जो निम्नलिखित उद्देश्य फ़ंक्शन और ग्रेडिएंट को प्रेरित करता है: (गोल्डबर्गर 2005)
  अधिकतम <math>f(\cdot)</math> को कम करने के बराबर है <math>L_1</math>-अनुमानित वर्ग वितरण और वास्तविक वर्ग वितरण के बीच की दूरी (यानी: जहां <math>p_i</math> प्रेरक <math>A</math> सभी 1 के बराबर हैं)। प्राकृतिक विकल्प केएल-डाइवर्जेंस है, जो निम्नलिखित उद्देश्य फलन और ग्रेडिएंट को प्रेरित करता है: (गोल्डबर्गर 2005)


<math>
<math>
Line 52: Line 52:
\frac{\partial g}{\partial A} = 2A \sum_i \left ( \sum_k p_{ik} x_{ik} x_{ik}^T - \frac{\sum_{j \in C_i} p_{ij} x_{ij} x_{ij}^T }{\sum_{j \in C_i} p_{ij}} \right )
\frac{\partial g}{\partial A} = 2A \sum_i \left ( \sum_k p_{ik} x_{ik} x_{ik}^T - \frac{\sum_{j \in C_i} p_{ij} x_{ij} x_{ij}^T }{\sum_{j \in C_i} p_{ij}} \right )
</math>
</math>
व्यवहार में, का अनुकूलन <math>A</math> इस फ़ंक्शन का उपयोग करने से मूल के समान प्रदर्शन परिणाम मिलते हैं।
व्यवहार में, का अनुकूलन <math>A</math> इस फलन का उपयोग करने से मूल के समान निष्पादन परिणाम मिलते हैं।


==इतिहास और पृष्ठभूमि==
==इतिहास और पृष्ठभूमि==
पड़ोस के घटकों का विश्लेषण 2004 में टोरंटो विश्वविद्यालय के कंप्यूटर विज्ञान विभाग में जैकब गोल्डबर्गर, सैम रोविस, रुस्लान सलाखुदिनोव और ज्योफ हिंटन द्वारा विकसित किया गया था।
निकटवर्ती के घटकों का विश्लेषण 2004 में टोरंटो विश्वविद्यालय के कंप्यूटर विज्ञान विभाग में जैकब गोल्डबर्गर, सैम रोविस, रुस्लान सलाखुदिनोव और ज्योफ हिंटन द्वारा विकसित किया गया था।


==यह भी देखें==
==यह भी देखें==
*[[ वर्णक्रमीय क्लस्टरिंग ]]
*[[ वर्णक्रमीय क्लस्टरिंग ]]
*बड़ा अंतर निकटतम पड़ोसी
*बड़ा अंतर निकटतम निकटवर्ती


== संदर्भ ==
== संदर्भ ==
Line 65: Line 65:
==बाहरी संबंध ==
==बाहरी संबंध ==
=== सॉफ्टवेयर ===
=== सॉफ्टवेयर ===
* [[ mlpack ]] में [[C++]] कार्यान्वयन शामिल है
* [[ mlpack | mlpack]] में [[C++]] कार्यान्वयन शामिल है
* [https://github.com/vomjom/nca nca] (C++)
* [https://github.com/vomjom/nca nca] (C++)
* [[स्किकिट-लर्न]] का [https://scikit-learn.org/stable/modules/generated/sklearn.neighbors.NeighborhoodComponentsAnaलिसिस.html NeighborhoodComponentsAnalyss] कार्यान्वयन ([[पायथन (प्रोग्रामिंग भाषा)]])
* [[स्किकिट-लर्न]] का [https://scikit-learn.org/stable/modules/generated/sklearn.neighbors.NeighborhoodComponentsAnaलिसिस.html NeighborhoodComponentsAnalyss] कार्यान्वयन ([[पायथन (प्रोग्रामिंग भाषा)]])

Revision as of 22:04, 17 July 2023

निकटवर्ती घटकों का विश्लेषण सांख्यिकीय वर्गीकरण के लिए पर्यवेक्षित सीखने की विधि है जो डेटा पर दिए गए मापन (गणित) के अनुसार अलग-अलग वर्गों में बहुभिन्नरूपी सांख्यिकी डेटा को विभाजित करता है। कार्यात्मक रूप से, यह K-निकटतम निकटवर्तीयों एल्गोरिदम के समान उद्देश्यों को पूर्ण करता है, और प्रसंभाव्य निकटतम निकटवर्तीयों नामक संबंधित अवधारणा का प्रत्यक्ष उपयोग करता है।

परिभाषा

निकटवर्ती के घटकों के विश्लेषण का उद्देश्य इनपुट डेटा के रैखिक परिवर्तन को ढूंढकर दूरी मापन सीखना है ताकि औसत लीव-वन-आउट (एलओओ) वर्गीकरण निष्पादन परिवर्तित स्थान में अधिकतम हो। एल्गोरिदम की मुख्य अंतर्दृष्टि मैट्रिक्स है परिवर्तन के अनुरूप भिन्न उद्देश्य फलन को परिभाषित करके पाया जा सकता है , इसके बाद कॉन्जुगेट ग्रेडिएंट विधि जैसे पुनरावृत्त सॉल्वर का उपयोग किया जाता है। इस एल्गोरिदम का लाभ यह है कि इसमें कक्षाओं की संख्या होती है के फलन के रूप में निर्धारित किया जा सकता है , अदिश स्थिरांक तक। इसलिए, एल्गोरिदम का यह उपयोग मॉडल चयन के मुद्दे को संबोधित करता है।

स्पष्टीकरण

परिभाषित करने के लिए , हम परिवर्तित स्थान में वर्गीकरण सटीकता का वर्णन करने वाले उद्देश्य फलन को परिभाषित करते हैं और निर्धारित करने का प्रयास करते हैं ताकि यह उद्देश्य कार्य अधिकतम हो सके।

लीव-वन-आउट (एलओओ) वर्गीकरण

किसी एकल डेटा बिंदु के वर्ग लेबल की सर्वसम्मति से भविष्यवाणी करने पर विचार करें - दी गई दूरी मापन के साथ निकटतम निकटवर्ती। इसे लीव-वन-आउट वर्गीकरण के रूप में जाना जाता है। हालाँकि, निकटतम-निकटवर्तीयों का समूह सभी बिंदुओं को रेखीय परिवर्तन से गुजारने के बाद काफी भिन्न हो सकता है। विशेष रूप से, किसी बिंदु के लिए निकटवर्तीयों का सेट तत्वों में सहज परिवर्तन के जवाब में अलग-अलग बदलावों से गुजर सकता है , जिसका अर्थ है कि कोई भी वस्तुनिष्ठ कार्य किसी बिंदु के निकटवर्तीयों के आधार पर टुकड़ावार-स्थिर होगा, और इसलिए भिन्न नहीं होगा।

समाधान

हम प्रसंभाव्य ग्रेडिएंट डिसेंट से प्रेरित दृष्टिकोण का उपयोग करके इस कठिनाई को हल कर सकते हैं। पर विचार करने के बजाय -एलओओ-वर्गीकरण में प्रत्येक परिवर्तित बिंदु पर निकटतम निकटवर्ती, हम संपूर्ण रूपांतरित डेटा सेट को प्रसंभाव्य निकटतम निकटवर्तीयों के रूप में मानेंगे। हम किसी दिए गए LOO-वर्गीकरण बिंदु और रूपांतरित स्थान में दूसरे बिंदु के बीच वर्गित यूक्लिडियन दूरी के सॉफ्टमैक्स सक्रियण फलन का उपयोग करके इन्हें परिभाषित करते हैं:

डेटा बिंदु को सही ढंग से वर्गीकृत करने की संभावना इसके प्रत्येक निकटवर्ती के बिंदुओं को ही वर्ग में वर्गीकृत करने की संभावना है :

कहाँ निकटवर्ती को वर्गीकृत करने की संभावना है बिंदु का .

LOO वर्गीकरण का उपयोग करके उद्देश्य फलन को परिभाषित करें, इस बार संपूर्ण डेटा सेट को प्रसंभाव्य निकटतम निकटवर्तीयों के रूप में उपयोग करें:

ध्यान दें कि प्रसंभाव्य निकटतम निकटवर्तीयों के तहत, बिंदु के लिए सर्वसम्मति वर्ग अपने निकटवर्तीयों पर वितरण से खींचे गए नमूनों की अनंत संख्या की सीमा में बिंदु के वर्ग का अपेक्षित मूल्य है अर्थात: . इस प्रकार अनुमानित वर्ग प्रत्येक दूसरे बिंदु के वर्गों का संयोजन है, प्रत्येक के लिए सॉफ्टमैक्स फलन द्वारा भारित होता है कहाँ अब संपूर्ण परिवर्तित डेटा सेट है।

वस्तुनिष्ठ फलन का यह विकल्प बेहतर है क्योंकि यह इसके संबंध में भिन्न है (निरूपित करें ):

के लिए ढाल प्राप्त करना इसका मतलब है कि इसे कॉन्जुगेट ग्रेडिएंट विधि जैसे पुनरावृत्त सॉल्वर के साथ पाया जा सकता है। ध्यान दें कि व्यवहार में, रुचि के बिंदु से दूर के बिंदुओं के तेजी से घटते योगदान के कारण ग्रेडिएंट के अधिकांश आंतरिक शब्द महत्वहीन योगदान का मूल्यांकन करते हैं। इसका मतलब यह है कि ग्रेडिएंट के आंतरिक योग को छोटा किया जा सकता है, जिसके परिणामस्वरूप बड़े डेटा सेट के लिए भी उचित गणना समय प्राप्त होता है।

वैकल्पिक सूत्रीकरण

अधिकतम  को कम करने के बराबर है -अनुमानित वर्ग वितरण और वास्तविक वर्ग वितरण के बीच की दूरी (यानी: जहां  प्रेरक  सभी 1 के बराबर हैं)। प्राकृतिक विकल्प केएल-डाइवर्जेंस है, जो निम्नलिखित उद्देश्य फलन और ग्रेडिएंट को प्रेरित करता है: (गोल्डबर्गर 2005)

व्यवहार में, का अनुकूलन इस फलन का उपयोग करने से मूल के समान निष्पादन परिणाम मिलते हैं।

इतिहास और पृष्ठभूमि

निकटवर्ती के घटकों का विश्लेषण 2004 में टोरंटो विश्वविद्यालय के कंप्यूटर विज्ञान विभाग में जैकब गोल्डबर्गर, सैम रोविस, रुस्लान सलाखुदिनोव और ज्योफ हिंटन द्वारा विकसित किया गया था।

यह भी देखें

संदर्भ

  • J. Goldberger, G. Hinton, S. Roweis, R. Salakhutdinov. (2005) Neighbourhood Components Analysis. Advances in Neural Information Processing Systems. 17, 513–520, 2005.

बाहरी संबंध

सॉफ्टवेयर

श्रेणी:सांख्यिकीय वर्गीकरण