अर्ध निश्चित एम्बेडिंग

From Vigyanwiki
Revision as of 09:36, 27 May 2023 by alpha>Jyotimehta (text)

अधिकतम भिन्नता विकास (एमवीयू), जिसे अर्धनिश्चित अंत: स्थापन (एसडीई) के रूप में भी जाना जाता है, कंप्यूटर विज्ञान में एक कलन विधि है जो उच्च-आयामी समन्वित सदिश निविष्ट आँकड़े की गैर-रैखिक आयामीता में कमी करने के लिए अर्ध निश्चित क्रमादेशन का उपयोग करता है। [1][2][3]

यह अवलोकन से प्रेरित है कि कर्नेल प्रमुख घटक विश्लेषण (kPCA) आंकड़ा विमीयता को कम नहीं करता है,[4] क्योंकि यह मूल आंकड़े को आंतरिक-उत्पाद स्थान में गैर-रैखिक रूप से मानचित्र करने के लिए कर्नेल चाल का लाभ उठाता है।

कलन विधि

एमवीयू निम्न चरणों में उच्च आयामी निविष्ट सदिश से कुछ निम्न आयामी यूक्लिडियन सदिश समष्टि में प्रतिचित्रण बनाता है:[5]

  1. एक प्रतिवैस (सांस्थिति) लेखाचित्र बनाया गया है। प्रत्येक निविष्ट अपने k-निकटतम निविष्ट सदिश (यूक्लिडियन दूरी मापीय के अनुसार) से जुड़ा होता है और सभी k-निकटतम प्रतिवैस एक दूसरे से जुड़े होते हैं। यदि आंकड़े को पर्याप्त रूप से प्रतिदर्श लिया गया है, तो परिणामी लेखाचित्र अंतर्निहित कई गुना का असतत सन्निकटन है।
  2. प्रतिवैस का लेखाचित्र अर्ध-निश्चित क्रमादेशन की मदद से सामने आया है। निष्पाद सदिश को सीधे सीखने के स्थान पर, अर्ध-निश्चित क्रमादेशन का उद्देश्य एक आंतरिक उत्पाद आव्यूह को खोजना है जो निकटतम प्रतिवैस की दूरी को संरक्षित करते हुए प्रतिवैस के लेखाचित्र में जुड़े हुए किसी भी दो निविष्ट के बीच प्रतिवैस दूरी को अधिकतम करता है।
  3. निम्न-आयामी अंत: स्थापन अंततः सीखे हुए आंतरिक उत्पाद आव्यूह पर बहुआयामी प्रवर्धन के अनुप्रयोग द्वारा प्राप्त की जाती है।

यूक्लिडियन समष्टि में एक कम-आयामी अंत: स्थापन को पुनर्प्राप्त करने के लिए एक रैखिक आयामी अवकरण कदम के बाद अर्ध-निश्चित क्रमादेशन को लागू करने के कदम पहले नाथन रैखिक, लंदन और राबिनोविच द्वारा प्रस्तावित किए गए थे।[6]


अनुकूलन सूत्रीकरण

मान लीजिये मूल निविष्ट है और अंत: स्थापन है। यदि दो प्रतिवैस हैं, तो स्थानीय आइसोमेट्री बाधा जिसे संतुष्ट करने की आवश्यकता है, वह निम्न है: [7][8][9]

मान लीजिये का ग्रामियन आव्यूह और (अर्थात: ) है। उपरोक्त बाधा को हम प्रत्येक प्रतिवैस बिंदु की अवधि में के लिए व्यक्त कर सकते हैं: [10][11]

इसके अतिरिक्त, हम मूल पर केन्द्रित करने के लिए अंत: स्थापन को भी बाधित करना चाहते हैं: [12][13][14]

जैसा कि ऊपर वर्णित है, प्रतिवैस बिंदुओं की दूरियों को संरक्षित करने के अतिरिक्त, कलन विधि का उद्देश्य प्रत्येक जोड़ी बिंदुओं की प्रतिवैस दूरी को अधिकतम करना है। अधिकतम किया जाने वाला उद्देश्य कार्य निम्न है: [15][16][17]

सहजता से, ऊपर दिए गए फलन को अधिकतम करना बिंदुओं को एक दूसरे से जितना संभव हो उतना दूर खींचने के बराबर है और इसलिए बहुविध प्रकट होता है। मान लीजिये स्थानीय आइसोमेट्री बाधा निम्न है [18]

जहाँ


उद्देश्य फलन को अपसरण (अनंत में जाने) से रोकता है।

चूँकि लेखाचित्र में N बिंदु हैं, किन्हीं दो बिंदुओं के बीच की दूरी . है। इसके बाद हम उद्देश्य फलन को निम्नानुसार बाध्य कर सकते हैं: [19][20]

उद्देश्य फलन को ग्राम आव्यूह के रूप में विशुद्ध रूप से फिर से लिखा जा सकता है:[21][22][23]

अंत में, अनुकूलन को इस प्रकार तैयार किया जा सकता है:[24][25][26]

ग्राम आव्यूह के बाद सेमीडिफिनिट क्रमादेशन द्वारा सीखा जाता है, प्रक्षेपण चोल्स्की अपघटन के माध्यम से प्राप्त किया जा सकता है।

विशेष रूप से, ग्राम आव्यूह को रूप में लिखा जा सकता है, जहाँ की आइगेनवैल्यू ईजेनसदिश का i-वाँ तत्व है। [27][28]

इससे यह पता चलता है कि निष्पाद का -वाँ तत्व है। [29][30]


यह भी देखें

टिप्पणियाँ

  1. Weinberger, Sha and Saul 2004a
  2. Weinberger and Saul 2004b
  3. Weinberger and Saul 2006
  4. Lawrence 2012, page 1612
  5. Weinberger, Sha and Saul 2004a, page 7.
  6. Linial, London and Rabinovich 1995
  7. Weinberger, Sha and Saul 2004a, page 3, equation 8
  8. Weinberger and Saul 2004b, page 3, equation 2
  9. Weinberger and Saul 2006, page 4, equation 2
  10. Weinberger, Sha and Saul 2004a, page 3, equation 9
  11. Weinberger and Saul 2004b, page 3, equation 3
  12. Weinberger, Sha and Saul 2004a, page 3, equation 6
  13. Weinberger and Saul 2004b, page 3, equation 5
  14. Weinberger and Saul 2006, page 5, equation 8
  15. Weinberger, Sha and Saul 2004a, page 4, equation 10
  16. Weinberger and Saul 2004b, page 4, equation 6
  17. Weinberger and Saul 2006, page 5, equation 4
  18. Weinberger and Saul 2004b, page 4, equation 7
  19. Weinberger and Saul 2004b, page 4, equation 8
  20. Weinberger and Saul 2006, page 5, equation 6
  21. Weinberger, Sha and Saul 2004a, page 4, equation 11
  22. Weinberger and Saul 2004b, page 4, equation 9
  23. Weinberger and Saul 2006, page 6, equations 10 to 13
  24. Weinberger, Sha and Saul 2004a, page 4, section 3.3
  25. Weinberger and Saul 2004b, page 4, equation 9
  26. Weinberger and Saul 2006, page 6, equations 10 to 13
  27. Weinberger and Saul 2004b, page 4, equation 10
  28. Weinberger and Saul 2006, page 7, equations 14
  29. Weinberger and Saul 2004b, page 4, equation 11
  30. Weinberger and Saul 2006, page 7, equations 15


संदर्भ

  • Linial, London and Rabinovich, Nathan, Eran and Yuri (1995). "The geometry of graphs and some of its algorithmic applications". Combinatorica. 15 (2): 215–245. doi:10.1007/BF01200757. S2CID 5071936.{{cite journal}}: CS1 maint: multiple names: authors list (link)
  • Weinberger, Sha and Saul, Kilian Q., Fei and Lawrence K. (4 July 2004a). Learning a kernel matrix for nonlinear dimensionality reduction. Proceedings of the Twenty First International Conference on Machine Learning (ICML 2004). Banff, Alberta, Canada.{{cite conference}}: CS1 maint: multiple names: authors list (link)
  • Weinberger and Saul, Kilian Q. and Lawrence K. (27 June 2004b). Unsupervised learning of image manifolds by semidefinite programming. 2004 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Vol. 2.
  • Weinberger and Saul, Kilian Q. and Lawrence K. (1 May 2006). "Unsupervised learning of image manifolds by semidefinite programming" (PDF). International Journal of Computer Vision. 70: 77–90. doi:10.1007/s11263-005-4939-z. S2CID 291166.
  • Lawrence, Neil D (2012). "A unifying probabilistic perspective for spectral dimensionality reduction: insights and new models". Journal of Machine Learning Research. 13 (May): 1612. arXiv:1010.4830. Bibcode:2010arXiv1010.4830L.


अतिरिक्त सामग्री

श्रेणी:कम्प्यूटेशनल सांख्यिकी श्रेणी:आयाम में कमी श्रेणी:अनुकूलन एल्गोरिद्म और विधियां