अर्ध निश्चित एम्बेडिंग: Difference between revisions
m (3 revisions imported from alpha:अर्ध_निश्चित_एम्बेडिंग) |
No edit summary |
||
Line 92: | Line 92: | ||
श्रेणी:अनुकूलन एल्गोरिद्म और विधियां | श्रेणी:अनुकूलन एल्गोरिद्म और विधियां | ||
[[Category:Created On 24/05/2023]] | [[Category:Created On 24/05/2023]] | ||
[[Category:Vigyan Ready]] | [[Category:Machine Translated Page]] | ||
[[Category:Pages with script errors]] | |||
[[Category:Templates Vigyan Ready]] |
Revision as of 14:58, 6 June 2023
अधिकतम भिन्नता विकास (एमवीयू), जिसे अर्धनिश्चित अंत: स्थापन (एसडीई) के रूप में भी जाना जाता है, कंप्यूटर विज्ञान में एक कलन विधि है जो उच्च-आयामी समन्वित सदिश निविष्ट आँकड़े की गैर-रैखिक आयामीता में कमी करने के लिए अर्ध निश्चित क्रमादेशन का उपयोग करता है। [1][2][3]
यह अवलोकन से प्रेरित है कि कर्नेल प्रमुख घटक विश्लेषण (kPCA) आंकड़ा विमीयता को कम नहीं करता है,[4] क्योंकि यह मूल आंकड़े को आंतरिक-उत्पाद स्थान में गैर-रैखिक रूप से मानचित्र करने के लिए कर्नेल चाल का लाभ उठाता है।
कलन विधि
एमवीयू निम्न चरणों में उच्च आयामी निविष्ट सदिश से कुछ निम्न आयामी यूक्लिडियन सदिश समष्टि में प्रतिचित्रण बनाता है:[5]
- एक प्रतिवैस (सांस्थिति) लेखाचित्र बनाया गया है। प्रत्येक निविष्ट अपने k-निकटतम निविष्ट सदिश (यूक्लिडियन दूरी मापीय के अनुसार) से जुड़ा होता है और सभी k-निकटतम प्रतिवैस एक दूसरे से जुड़े होते हैं। यदि आंकड़े को पर्याप्त रूप से प्रतिदर्श लिया गया है, तो परिणामी लेखाचित्र अंतर्निहित कई गुना का असतत सन्निकटन है।
- प्रतिवैस का लेखाचित्र अर्ध-निश्चित क्रमादेशन की मदद से सामने आया है। निष्पाद सदिश को सीधे सीखने के स्थान पर, अर्ध-निश्चित क्रमादेशन का उद्देश्य एक आंतरिक उत्पाद आव्यूह को खोजना है जो निकटतम प्रतिवैस की दूरी को संरक्षित करते हुए प्रतिवैस के लेखाचित्र में जुड़े हुए किसी भी दो निविष्ट के बीच प्रतिवैस दूरी को अधिकतम करता है।
- निम्न-आयामी अंत: स्थापन अंततः सीखे हुए आंतरिक उत्पाद आव्यूह पर बहुआयामी प्रवर्धन के अनुप्रयोग द्वारा प्राप्त की जाती है।
यूक्लिडियन समष्टि में एक कम-आयामी अंत: स्थापन को पुनर्प्राप्त करने के लिए एक रैखिक आयामी अवकरण कदम के बाद अर्ध-निश्चित क्रमादेशन को लागू करने के कदम पहले नाथन रैखिक, लंदन और राबिनोविच द्वारा प्रस्तावित किए गए थे।[6]
अनुकूलन सूत्रीकरण
मान लीजिये मूल निविष्ट है और अंत: स्थापन है। यदि दो प्रतिवैस हैं, तो स्थानीय आइसोमेट्री बाधा जिसे संतुष्ट करने की आवश्यकता है, वह निम्न है: [7][8][9]
मान लीजिये का ग्रामियन आव्यूह और (अर्थात: ) है। उपरोक्त बाधा को हम प्रत्येक प्रतिवैस बिंदु की अवधि में के लिए व्यक्त कर सकते हैं: [10][11]
इसके अतिरिक्त, हम मूल पर केन्द्रित करने के लिए अंत: स्थापन को भी बाधित करना चाहते हैं: [12][13][14]
जैसा कि ऊपर वर्णित है, प्रतिवैस बिंदुओं की दूरियों को संरक्षित करने के अतिरिक्त, कलन विधि का उद्देश्य प्रत्येक जोड़ी बिंदुओं की प्रतिवैस दूरी को अधिकतम करना है। अधिकतम किया जाने वाला उद्देश्य कार्य निम्न है: [15][16][17]
सहजता से, ऊपर दिए गए फलन को अधिकतम करना बिंदुओं को एक दूसरे से जितना संभव हो उतना दूर खींचने के बराबर है और इसलिए बहुविध प्रकट होता है। मान लीजिये स्थानीय आइसोमेट्री बाधा निम्न है [18]
जहाँ
उद्देश्य फलन को अपसरण (अनंत में जाने) से रोकता है।
चूँकि लेखाचित्र में N बिंदु हैं, किन्हीं दो बिंदुओं के बीच की दूरी . है। इसके बाद हम उद्देश्य फलन को निम्नानुसार बाध्य कर सकते हैं: [19][20]
उद्देश्य फलन को ग्राम आव्यूह के रूप में विशुद्ध रूप से फिर से लिखा जा सकता है:[21][22][23]
अंत में, अनुकूलन को इस प्रकार तैयार किया जा सकता है:[24][25][26]
ग्राम आव्यूह के बाद सेमीडिफिनिट क्रमादेशन द्वारा सीखा जाता है, प्रक्षेपण चोल्स्की अपघटन के माध्यम से प्राप्त किया जा सकता है।
विशेष रूप से, ग्राम आव्यूह को रूप में लिखा जा सकता है, जहाँ की आइगेनवैल्यू ईजेनसदिश का i-वाँ तत्व है। [27][28]
इससे यह पता चलता है कि निष्पाद का -वाँ तत्व है। [29][30]
यह भी देखें
- स्थानीय रूप से रैखिक अंत: स्थापन
- समदूरीकता (गणित) (बहुविकल्पी)
- स्थानीय स्पर्शरेखा समष्टि संरेखण
- रीमैनियन बहुविध
- ऊर्जा न्यूनीकरण
टिप्पणियाँ
- ↑ Weinberger, Sha and Saul 2004a
- ↑ Weinberger and Saul 2004b
- ↑ Weinberger and Saul 2006
- ↑ Lawrence 2012, page 1612
- ↑ Weinberger, Sha and Saul 2004a, page 7.
- ↑ Linial, London and Rabinovich 1995
- ↑ Weinberger, Sha and Saul 2004a, page 3, equation 8
- ↑ Weinberger and Saul 2004b, page 3, equation 2
- ↑ Weinberger and Saul 2006, page 4, equation 2
- ↑ Weinberger, Sha and Saul 2004a, page 3, equation 9
- ↑ Weinberger and Saul 2004b, page 3, equation 3
- ↑ Weinberger, Sha and Saul 2004a, page 3, equation 6
- ↑ Weinberger and Saul 2004b, page 3, equation 5
- ↑ Weinberger and Saul 2006, page 5, equation 8
- ↑ Weinberger, Sha and Saul 2004a, page 4, equation 10
- ↑ Weinberger and Saul 2004b, page 4, equation 6
- ↑ Weinberger and Saul 2006, page 5, equation 4
- ↑ Weinberger and Saul 2004b, page 4, equation 7
- ↑ Weinberger and Saul 2004b, page 4, equation 8
- ↑ Weinberger and Saul 2006, page 5, equation 6
- ↑ Weinberger, Sha and Saul 2004a, page 4, equation 11
- ↑ Weinberger and Saul 2004b, page 4, equation 9
- ↑ Weinberger and Saul 2006, page 6, equations 10 to 13
- ↑ Weinberger, Sha and Saul 2004a, page 4, section 3.3
- ↑ Weinberger and Saul 2004b, page 4, equation 9
- ↑ Weinberger and Saul 2006, page 6, equations 10 to 13
- ↑ Weinberger and Saul 2004b, page 4, equation 10
- ↑ Weinberger and Saul 2006, page 7, equations 14
- ↑ Weinberger and Saul 2004b, page 4, equation 11
- ↑ Weinberger and Saul 2006, page 7, equations 15
संदर्भ
- Linial, London and Rabinovich, Nathan, Eran and Yuri (1995). "The geometry of graphs and some of its algorithmic applications". Combinatorica. 15 (2): 215–245. doi:10.1007/BF01200757. S2CID 5071936.
{{cite journal}}
: CS1 maint: multiple names: authors list (link) - Weinberger, Sha and Saul, Kilian Q., Fei and Lawrence K. (4 July 2004a). Learning a kernel matrix for nonlinear dimensionality reduction. Proceedings of the Twenty First International Conference on Machine Learning (ICML 2004). Banff, Alberta, Canada.
{{cite conference}}
: CS1 maint: multiple names: authors list (link) - Weinberger and Saul, Kilian Q. and Lawrence K. (27 June 2004b). Unsupervised learning of image manifolds by semidefinite programming. 2004 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Vol. 2.
- Weinberger and Saul, Kilian Q. and Lawrence K. (1 May 2006). "Unsupervised learning of image manifolds by semidefinite programming" (PDF). International Journal of Computer Vision. 70: 77–90. doi:10.1007/s11263-005-4939-z. S2CID 291166.
- Lawrence, Neil D (2012). "A unifying probabilistic perspective for spectral dimensionality reduction: insights and new models". Journal of Machine Learning Research. 13 (May): 1612. arXiv:1010.4830. Bibcode:2010arXiv1010.4830L.
अतिरिक्त सामग्री
श्रेणी:कम्प्यूटेशनल सांख्यिकी श्रेणी:आयाम में कमी श्रेणी:अनुकूलन एल्गोरिद्म और विधियां