अर्ध निश्चित एम्बेडिंग: Difference between revisions
(Created page with "मैक्सिमम वेरिएंस अनफोल्डिंग (एमवीयू), जिसे सेमिडेफिनिट एंबेडिंग (...") |
(text) |
||
Line 1: | Line 1: | ||
अधिकतम भिन्नता विकास (एमवीयू), जिसे अर्धनिश्चित अंत: स्थापन (एसडीई) के रूप में भी जाना जाता है, [[कंप्यूटर विज्ञान]] में एक [[कलन विधि]] है जो उच्च-आयामी समन्वित सदिश निविष्ट आँकड़े की गैर-रैखिक आयामीता में कमी करने के लिए [[अर्ध निश्चित प्रोग्रामिंग|अर्ध निश्चित क्रमादेशन]] का उपयोग करता है। <ref>{{Harvnb|Weinberger, Sha and Saul|2004a}}</ref><ref>{{Harvnb|Weinberger and Saul|2004b}}</ref><ref>{{Harvnb|Weinberger and Saul|2006}}</ref> | |||
यह अवलोकन से प्रेरित है कि [[कर्नेल प्रमुख घटक विश्लेषण]] (kPCA) आंकड़ा विमीयता को कम नहीं करता है,<ref>{{Harvnb|Lawrence|2012|loc=page 1612}}</ref> क्योंकि यह मूल आंकड़े को [[आंतरिक-उत्पाद स्थान]] में गैर-रैखिक रूप से मानचित्र करने के लिए [[कर्नेल चाल]] का लाभ उठाता है। | |||
== कलन विधि == | |||
एमवीयू निम्न चरणों में उच्च आयामी निविष्ट सदिश से कुछ निम्न आयामी यूक्लिडियन सदिश समष्टि में प्रतिचित्रण बनाता है:<ref>{{Harvnb|Weinberger, Sha and Saul|2004a|loc=page 7.}}</ref> | |||
# एक [[पड़ोस (टोपोलॉजी)|प्रतिवैस (सांस्थिति)]] लेखाचित्र बनाया गया है। प्रत्येक निविष्ट अपने k-निकटतम निविष्ट सदिश (यूक्लिडियन दूरी मापीय के अनुसार) से जुड़ा होता है और सभी k-निकटतम प्रतिवैस एक दूसरे से जुड़े होते हैं। यदि आंकड़े को पर्याप्त रूप से प्रतिदर्श लिया गया है, तो परिणामी लेखाचित्र अंतर्निहित कई गुना का असतत सन्निकटन है। | |||
# प्रतिवैस का लेखाचित्र अर्ध-निश्चित क्रमादेशन की मदद से सामने आया है। निष्पाद सदिश को सीधे सीखने के स्थान पर, अर्ध-निश्चित क्रमादेशन का उद्देश्य एक आंतरिक उत्पाद आव्यूह को खोजना है जो निकटतम प्रतिवैस की दूरी को संरक्षित करते हुए प्रतिवैस के लेखाचित्र में जुड़े हुए किसी भी दो निविष्ट के बीच प्रतिवैस दूरी को अधिकतम करता है। | |||
# निम्न-आयामी अंत: स्थापन अंततः सीखे हुए आंतरिक उत्पाद आव्यूह पर [[बहुआयामी स्केलिंग|बहुआयामी प्रवर्धन]] के अनुप्रयोग द्वारा प्राप्त की जाती है। | |||
यूक्लिडियन समष्टि में एक कम-आयामी अंत: स्थापन को पुनर्प्राप्त करने के लिए एक रैखिक आयामी अवकरण कदम के बाद अर्ध-निश्चित क्रमादेशन को लागू करने के कदम पहले [[नाथन रैखिक]], लंदन और राबिनोविच द्वारा प्रस्तावित किए गए थे।<ref>{{harvnb|Linial, London and Rabinovich|1995}}</ref> | |||
== अनुकूलन सूत्रीकरण == | |||
मान लीजिये <math>X \,\!</math> मूल निविष्ट है और <math>Y\,\!</math> अंत: स्थापन है। यदि <math>i,j\,\!</math> दो प्रतिवैस हैं, तो स्थानीय आइसोमेट्री बाधा जिसे संतुष्ट करने की आवश्यकता है, वह निम्न है: <ref>{{Harvnb|Weinberger, Sha and Saul|2004a|loc=page 3, equation 8}}</ref><ref>{{Harvnb|Weinberger and Saul|2004b|loc=page 3, equation 2}}</ref><ref>{{Harvnb|Weinberger and Saul|2006|loc=page 4, equation 2}}</ref> | |||
:<math>|X_{i}-X_{j}|^{2}=|Y_{i}-Y_{j}|^{2}\,\!</math> | :<math>|X_{i}-X_{j}|^{2}=|Y_{i}-Y_{j}|^{2}\,\!</math> | ||
मान लीजिये <math>G, K\,\!</math> का [[ग्रामियन मैट्रिक्स|ग्रामियन आव्यूह]] <math> X \,\!</math> और <math> Y \,\!</math> (अर्थात: <math>G_{ij}=X_i \cdot X_j,K_{ij}=Y_i \cdot Y_j \,\!</math>) है। उपरोक्त बाधा को हम प्रत्येक प्रतिवैस बिंदु <math>i,j\,\!</math> की अवधि में <math>G, K\,\!</math> के लिए व्यक्त कर सकते हैं: <ref>{{Harvnb|Weinberger, Sha and Saul|2004a|loc=page 3, equation 9}}</ref><ref>{{Harvnb|Weinberger and Saul|2004b|loc=page 3, equation 3}}</ref> | |||
:<math>G_{ii}+G_{jj}-G_{ij}-G_{ji}=K_{ii}+K_{jj}-K_{ij}-K_{ji}\,\!</math> | :<math>G_{ii}+G_{jj}-G_{ij}-G_{ji}=K_{ii}+K_{jj}-K_{ij}-K_{ji}\,\!</math> | ||
इसके | इसके अतिरिक्त, हम <math> Y \,\!</math> मूल पर केन्द्रित करने के लिए अंत: स्थापन को भी बाधित करना चाहते हैं: <ref>{{Harvnb|Weinberger, Sha and Saul|2004a|loc=page 3, equation 6}}</ref><ref>{{Harvnb|Weinberger and Saul|2004b|loc=page 3, equation 5}}</ref><ref>{{Harvnb|Weinberger and Saul|2006|loc=page 5, equation 8}}</ref> | ||
<math>0 = |\sum_{i}Y_{i}|^2\Leftrightarrow(\sum_{i}Y_{i}) \cdot (\sum_{i}Y_{i})\Leftrightarrow\sum_{i,j}Y_{i} \cdot Y_{j}\Leftrightarrow\sum_{i,j}K_{ij}</math> | <math>0 = |\sum_{i}Y_{i}|^2\Leftrightarrow(\sum_{i}Y_{i}) \cdot (\sum_{i}Y_{i})\Leftrightarrow\sum_{i,j}Y_{i} \cdot Y_{j}\Leftrightarrow\sum_{i,j}K_{ij}</math> | ||
जैसा कि ऊपर वर्णित है, | |||
जैसा कि ऊपर वर्णित है, प्रतिवैस बिंदुओं की दूरियों को संरक्षित करने के अतिरिक्त, कलन विधि का उद्देश्य प्रत्येक जोड़ी बिंदुओं की प्रतिवैस दूरी को अधिकतम करना है। अधिकतम किया जाने वाला उद्देश्य कार्य निम्न है: <ref>{{Harvnb|Weinberger, Sha and Saul|2004a|loc=page 4, equation 10}}</ref><ref>{{Harvnb|Weinberger and Saul|2004b|loc=page 4, equation 6}}</ref><ref>{{Harvnb|Weinberger and Saul|2006|loc=page 5, equation 4}}</ref> | |||
<math>T(Y)=\dfrac{1}{2N}\sum_{i,j}|Y_{i}-Y_{j}|^{2}</math> | <math>T(Y)=\dfrac{1}{2N}\sum_{i,j}|Y_{i}-Y_{j}|^{2}</math> | ||
सहजता से, ऊपर दिए गए | |||
सहजता से, ऊपर दिए गए फलन को अधिकतम करना बिंदुओं को एक दूसरे से जितना संभव हो उतना दूर खींचने के बराबर है और इसलिए बहुविध प्रकट होता है। मान लीजिये स्थानीय आइसोमेट्री बाधा निम्न है <ref>{{Harvnb|Weinberger and Saul|2004b|loc=page 4, equation 7}}</ref> | |||
<math>\tau = max \{\eta_{ij}|Y_{i}-Y_{j}|^2\} \,\!</math> जहाँ | |||
<math>\eta_{ij} := \begin{cases} | <math>\eta_{ij} := \begin{cases} | ||
1 & \mbox{if}\ i \mbox{ is a neighbour of } j \\ | |||
0 & \mbox{otherwise} . | |||
\end{cases}</math> | \end{cases}</math> | ||
उद्देश्य फलन को अपसरण (अनंत में जाने) से रोकता है। | उद्देश्य फलन को अपसरण (अनंत में जाने) से रोकता है। | ||
चूँकि | चूँकि लेखाचित्र में N बिंदु हैं, किन्हीं दो बिंदुओं के बीच की दूरी <math>|Y_{i}-Y_{j}|^2 \leq N \tau \,\!</math>. है। इसके बाद हम उद्देश्य फलन को निम्नानुसार बाध्य कर सकते हैं: <ref>{{Harvnb|Weinberger and Saul|2004b|loc=page 4, equation 8}}</ref><ref>{{Harvnb|Weinberger and Saul|2006|loc=page 5, equation 6}}</ref> | ||
:<math>T(Y)=\dfrac{1}{2N}\sum_{i,j}|Y_{i}-Y_{j}|^{2} \leq \dfrac{1}{2N}\sum_{i,j}(N\tau)^2 = \dfrac{N^3\tau^2}{2} \,\!</math> | :<math>T(Y)=\dfrac{1}{2N}\sum_{i,j}|Y_{i}-Y_{j}|^{2} \leq \dfrac{1}{2N}\sum_{i,j}(N\tau)^2 = \dfrac{N^3\tau^2}{2} \,\!</math> | ||
उद्देश्य | उद्देश्य फलन को ग्राम आव्यूह के रूप में विशुद्ध रूप से फिर से लिखा जा सकता है:<ref>{{Harvnb|Weinberger, Sha and Saul|2004a|loc=page 4, equation 11}}</ref><ref>{{Harvnb|Weinberger and Saul|2004b|loc=page 4, equation 9}}</ref><ref>{{Harvnb|Weinberger and Saul|2006|loc=page 6, equations 10 to 13}}</ref> | ||
:<math> | :<math> | ||
\begin{align} | \begin{align} | ||
Line 52: | Line 57: | ||
\end{align} | \end{align} | ||
</math> | </math> | ||
विशेष रूप से, ग्राम | ग्राम आव्यूह के बाद <math>K \,\!</math> सेमीडिफिनिट क्रमादेशन द्वारा सीखा जाता है, प्रक्षेपण <math>Y \,\!</math> चोल्स्की अपघटन के माध्यम से प्राप्त किया जा सकता है। | ||
इससे यह पता चलता है कि <math> | |||
विशेष रूप से, ग्राम आव्यूह को <math> K_{ij}=\sum_{\alpha = 1}^{N}(\lambda_{\alpha } V_{\alpha i} V_{\alpha j}) \,\!</math> रूप में लिखा जा सकता है, जहाँ <math> \lambda_{\alpha } \,\!</math> की आइगेनवैल्यू <math> V_{\alpha i} \,\!</math> ईजेनसदिश <math> V_{\alpha} \,\!</math> का i-वाँ तत्व है। <ref>{{Harvnb|Weinberger and Saul|2004b|loc=page 4, equation 10}}</ref><ref>{{Harvnb|Weinberger and Saul|2006|loc=page 7, equations 14}}</ref> | |||
इससे यह पता चलता है कि निष्पाद <math> Y_i \,\!</math> का <math> \alpha \,\!</math>-वाँ तत्व <math> \sqrt{\lambda_{\alpha }} V_{\alpha i} \,\!</math>है। <ref>{{Harvnb|Weinberger and Saul|2004b|loc=page 4, equation 11}}</ref><ref>{{Harvnb|Weinberger and Saul|2006|loc=page 7, equations 15}}</ref> | |||
== यह भी देखें == | == यह भी देखें == | ||
* [[स्थानीय रूप से रैखिक एम्बेडिंग]] | * [[स्थानीय रूप से रैखिक एम्बेडिंग|स्थानीय रूप से रैखिक अंत: स्थापन]] | ||
* [[आइसोमेट्री (गणित) (बहुविकल्पी) | * [[आइसोमेट्री (गणित) (बहुविकल्पी)|समदूरीकता (गणित) (बहुविकल्पी)]] | ||
* [[स्थानीय स्पर्शरेखा अंतरिक्ष संरेखण]] | * [[स्थानीय स्पर्शरेखा अंतरिक्ष संरेखण|स्थानीय स्पर्शरेखा समष्टि संरेखण]] | ||
* [[रीमैनियन कई गुना]] | * [[रीमैनियन कई गुना|रीमैनियन बहुविध]] | ||
* [[ऊर्जा न्यूनीकरण]] | *[[ऊर्जा न्यूनीकरण]] | ||
==टिप्पणियाँ== | ==टिप्पणियाँ== |
Revision as of 09:36, 27 May 2023
अधिकतम भिन्नता विकास (एमवीयू), जिसे अर्धनिश्चित अंत: स्थापन (एसडीई) के रूप में भी जाना जाता है, कंप्यूटर विज्ञान में एक कलन विधि है जो उच्च-आयामी समन्वित सदिश निविष्ट आँकड़े की गैर-रैखिक आयामीता में कमी करने के लिए अर्ध निश्चित क्रमादेशन का उपयोग करता है। [1][2][3]
यह अवलोकन से प्रेरित है कि कर्नेल प्रमुख घटक विश्लेषण (kPCA) आंकड़ा विमीयता को कम नहीं करता है,[4] क्योंकि यह मूल आंकड़े को आंतरिक-उत्पाद स्थान में गैर-रैखिक रूप से मानचित्र करने के लिए कर्नेल चाल का लाभ उठाता है।
कलन विधि
एमवीयू निम्न चरणों में उच्च आयामी निविष्ट सदिश से कुछ निम्न आयामी यूक्लिडियन सदिश समष्टि में प्रतिचित्रण बनाता है:[5]
- एक प्रतिवैस (सांस्थिति) लेखाचित्र बनाया गया है। प्रत्येक निविष्ट अपने k-निकटतम निविष्ट सदिश (यूक्लिडियन दूरी मापीय के अनुसार) से जुड़ा होता है और सभी k-निकटतम प्रतिवैस एक दूसरे से जुड़े होते हैं। यदि आंकड़े को पर्याप्त रूप से प्रतिदर्श लिया गया है, तो परिणामी लेखाचित्र अंतर्निहित कई गुना का असतत सन्निकटन है।
- प्रतिवैस का लेखाचित्र अर्ध-निश्चित क्रमादेशन की मदद से सामने आया है। निष्पाद सदिश को सीधे सीखने के स्थान पर, अर्ध-निश्चित क्रमादेशन का उद्देश्य एक आंतरिक उत्पाद आव्यूह को खोजना है जो निकटतम प्रतिवैस की दूरी को संरक्षित करते हुए प्रतिवैस के लेखाचित्र में जुड़े हुए किसी भी दो निविष्ट के बीच प्रतिवैस दूरी को अधिकतम करता है।
- निम्न-आयामी अंत: स्थापन अंततः सीखे हुए आंतरिक उत्पाद आव्यूह पर बहुआयामी प्रवर्धन के अनुप्रयोग द्वारा प्राप्त की जाती है।
यूक्लिडियन समष्टि में एक कम-आयामी अंत: स्थापन को पुनर्प्राप्त करने के लिए एक रैखिक आयामी अवकरण कदम के बाद अर्ध-निश्चित क्रमादेशन को लागू करने के कदम पहले नाथन रैखिक, लंदन और राबिनोविच द्वारा प्रस्तावित किए गए थे।[6]
अनुकूलन सूत्रीकरण
मान लीजिये मूल निविष्ट है और अंत: स्थापन है। यदि दो प्रतिवैस हैं, तो स्थानीय आइसोमेट्री बाधा जिसे संतुष्ट करने की आवश्यकता है, वह निम्न है: [7][8][9]
मान लीजिये का ग्रामियन आव्यूह और (अर्थात: ) है। उपरोक्त बाधा को हम प्रत्येक प्रतिवैस बिंदु की अवधि में के लिए व्यक्त कर सकते हैं: [10][11]
इसके अतिरिक्त, हम मूल पर केन्द्रित करने के लिए अंत: स्थापन को भी बाधित करना चाहते हैं: [12][13][14]
जैसा कि ऊपर वर्णित है, प्रतिवैस बिंदुओं की दूरियों को संरक्षित करने के अतिरिक्त, कलन विधि का उद्देश्य प्रत्येक जोड़ी बिंदुओं की प्रतिवैस दूरी को अधिकतम करना है। अधिकतम किया जाने वाला उद्देश्य कार्य निम्न है: [15][16][17]
सहजता से, ऊपर दिए गए फलन को अधिकतम करना बिंदुओं को एक दूसरे से जितना संभव हो उतना दूर खींचने के बराबर है और इसलिए बहुविध प्रकट होता है। मान लीजिये स्थानीय आइसोमेट्री बाधा निम्न है [18]
जहाँ
उद्देश्य फलन को अपसरण (अनंत में जाने) से रोकता है।
चूँकि लेखाचित्र में N बिंदु हैं, किन्हीं दो बिंदुओं के बीच की दूरी . है। इसके बाद हम उद्देश्य फलन को निम्नानुसार बाध्य कर सकते हैं: [19][20]
उद्देश्य फलन को ग्राम आव्यूह के रूप में विशुद्ध रूप से फिर से लिखा जा सकता है:[21][22][23]
अंत में, अनुकूलन को इस प्रकार तैयार किया जा सकता है:[24][25][26]
ग्राम आव्यूह के बाद सेमीडिफिनिट क्रमादेशन द्वारा सीखा जाता है, प्रक्षेपण चोल्स्की अपघटन के माध्यम से प्राप्त किया जा सकता है।
विशेष रूप से, ग्राम आव्यूह को रूप में लिखा जा सकता है, जहाँ की आइगेनवैल्यू ईजेनसदिश का i-वाँ तत्व है। [27][28]
इससे यह पता चलता है कि निष्पाद का -वाँ तत्व है। [29][30]
यह भी देखें
- स्थानीय रूप से रैखिक अंत: स्थापन
- समदूरीकता (गणित) (बहुविकल्पी)
- स्थानीय स्पर्शरेखा समष्टि संरेखण
- रीमैनियन बहुविध
- ऊर्जा न्यूनीकरण
टिप्पणियाँ
- ↑ Weinberger, Sha and Saul 2004a
- ↑ Weinberger and Saul 2004b
- ↑ Weinberger and Saul 2006
- ↑ Lawrence 2012, page 1612
- ↑ Weinberger, Sha and Saul 2004a, page 7.
- ↑ Linial, London and Rabinovich 1995
- ↑ Weinberger, Sha and Saul 2004a, page 3, equation 8
- ↑ Weinberger and Saul 2004b, page 3, equation 2
- ↑ Weinberger and Saul 2006, page 4, equation 2
- ↑ Weinberger, Sha and Saul 2004a, page 3, equation 9
- ↑ Weinberger and Saul 2004b, page 3, equation 3
- ↑ Weinberger, Sha and Saul 2004a, page 3, equation 6
- ↑ Weinberger and Saul 2004b, page 3, equation 5
- ↑ Weinberger and Saul 2006, page 5, equation 8
- ↑ Weinberger, Sha and Saul 2004a, page 4, equation 10
- ↑ Weinberger and Saul 2004b, page 4, equation 6
- ↑ Weinberger and Saul 2006, page 5, equation 4
- ↑ Weinberger and Saul 2004b, page 4, equation 7
- ↑ Weinberger and Saul 2004b, page 4, equation 8
- ↑ Weinberger and Saul 2006, page 5, equation 6
- ↑ Weinberger, Sha and Saul 2004a, page 4, equation 11
- ↑ Weinberger and Saul 2004b, page 4, equation 9
- ↑ Weinberger and Saul 2006, page 6, equations 10 to 13
- ↑ Weinberger, Sha and Saul 2004a, page 4, section 3.3
- ↑ Weinberger and Saul 2004b, page 4, equation 9
- ↑ Weinberger and Saul 2006, page 6, equations 10 to 13
- ↑ Weinberger and Saul 2004b, page 4, equation 10
- ↑ Weinberger and Saul 2006, page 7, equations 14
- ↑ Weinberger and Saul 2004b, page 4, equation 11
- ↑ Weinberger and Saul 2006, page 7, equations 15
संदर्भ
- Linial, London and Rabinovich, Nathan, Eran and Yuri (1995). "The geometry of graphs and some of its algorithmic applications". Combinatorica. 15 (2): 215–245. doi:10.1007/BF01200757. S2CID 5071936.
{{cite journal}}
: CS1 maint: multiple names: authors list (link) - Weinberger, Sha and Saul, Kilian Q., Fei and Lawrence K. (4 July 2004a). Learning a kernel matrix for nonlinear dimensionality reduction. Proceedings of the Twenty First International Conference on Machine Learning (ICML 2004). Banff, Alberta, Canada.
{{cite conference}}
: CS1 maint: multiple names: authors list (link) - Weinberger and Saul, Kilian Q. and Lawrence K. (27 June 2004b). Unsupervised learning of image manifolds by semidefinite programming. 2004 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Vol. 2.
- Weinberger and Saul, Kilian Q. and Lawrence K. (1 May 2006). "Unsupervised learning of image manifolds by semidefinite programming" (PDF). International Journal of Computer Vision. 70: 77–90. doi:10.1007/s11263-005-4939-z. S2CID 291166.
- Lawrence, Neil D (2012). "A unifying probabilistic perspective for spectral dimensionality reduction: insights and new models". Journal of Machine Learning Research. 13 (May): 1612. arXiv:1010.4830. Bibcode:2010arXiv1010.4830L.
अतिरिक्त सामग्री
श्रेणी:कम्प्यूटेशनल सांख्यिकी श्रेणी:आयाम में कमी श्रेणी:अनुकूलन एल्गोरिद्म और विधियां