अर्ध निश्चित एम्बेडिंग: Difference between revisions

From Vigyanwiki
No edit summary
No edit summary
 
Line 1: Line 1:
अधिकतम भिन्नता विकास (एमवीयू), जिसे अर्धनिश्चित अंत: स्थापन (एसडीई) के रूप में भी जाना जाता है, [[कंप्यूटर विज्ञान]] में एक [[कलन विधि]] है जो उच्च-आयामी समन्वित सदिश निविष्ट आँकड़े की गैर-रैखिक आयामीता में कमी करने के लिए [[अर्ध निश्चित प्रोग्रामिंग|अर्ध निश्चित क्रमादेशन]] का उपयोग करता है। <ref>{{Harvnb|Weinberger, Sha and Saul|2004a}}</ref><ref>{{Harvnb|Weinberger and Saul|2004b}}</ref><ref>{{Harvnb|Weinberger and Saul|2006}}</ref>
'''अधिकतम भिन्नता विकास''' ('''एमवीयू'''), जिसे '''अर्धनिश्चित एम्बेडिंग''' ('''एसडीई''') के रूप में भी जाना जाता है, [[कंप्यूटर विज्ञान]] में एक [[कलन विधि]] है जो उच्च-आयामी समन्वित सदिश निविष्ट आँकड़े की गैर-रैखिक आयामीता में कमी करने के लिए [[अर्ध निश्चित प्रोग्रामिंग|अर्ध निश्चित क्रमादेशन]] का उपयोग करता है। <ref>{{Harvnb|Weinberger, Sha and Saul|2004a}}</ref><ref>{{Harvnb|Weinberger and Saul|2004b}}</ref><ref>{{Harvnb|Weinberger and Saul|2006}}</ref>


यह अवलोकन से प्रेरित है कि [[कर्नेल प्रमुख घटक विश्लेषण]] (kPCA) आंकड़ा विमीयता को कम नहीं करता है,<ref>{{Harvnb|Lawrence|2012|loc=page 1612}}</ref> क्योंकि यह मूल आंकड़े को [[आंतरिक-उत्पाद स्थान]] में गैर-रैखिक रूप से मानचित्र करने के लिए [[कर्नेल चाल]] का लाभ उठाता है।
यह अवलोकन से प्रेरित है कि [[कर्नेल प्रमुख घटक विश्लेषण]] (kPCA) आंकड़ा विमीयता को कम नहीं करता है,<ref>{{Harvnb|Lawrence|2012|loc=page 1612}}</ref> क्योंकि यह मूल आंकड़े को [[आंतरिक-उत्पाद स्थान]] में गैर-रैखिक रूप से मानचित्र करने के लिए [[कर्नेल चाल]] का लाभ उठाता है।
Line 7: Line 7:
# एक [[पड़ोस (टोपोलॉजी)|प्रतिवैस (सांस्थिति)]] लेखाचित्र बनाया गया है। प्रत्येक निविष्ट अपने k-निकटतम निविष्ट सदिश (यूक्लिडियन दूरी मापीय के अनुसार) से जुड़ा होता है और सभी k-निकटतम प्रतिवैस एक दूसरे से जुड़े होते हैं। यदि आंकड़े को पर्याप्त रूप से प्रतिदर्श लिया गया है, तो परिणामी लेखाचित्र अंतर्निहित कई गुना का असतत सन्निकटन है।
# एक [[पड़ोस (टोपोलॉजी)|प्रतिवैस (सांस्थिति)]] लेखाचित्र बनाया गया है। प्रत्येक निविष्ट अपने k-निकटतम निविष्ट सदिश (यूक्लिडियन दूरी मापीय के अनुसार) से जुड़ा होता है और सभी k-निकटतम प्रतिवैस एक दूसरे से जुड़े होते हैं। यदि आंकड़े को पर्याप्त रूप से प्रतिदर्श लिया गया है, तो परिणामी लेखाचित्र अंतर्निहित कई गुना का असतत सन्निकटन है।
# प्रतिवैस का लेखाचित्र अर्ध-निश्चित क्रमादेशन की मदद से सामने आया है। निष्पाद सदिश को सीधे सीखने के स्थान पर, अर्ध-निश्चित क्रमादेशन का उद्देश्य एक आंतरिक उत्पाद आव्यूह को खोजना है जो निकटतम प्रतिवैस की दूरी को संरक्षित करते हुए प्रतिवैस के लेखाचित्र में जुड़े हुए किसी भी दो निविष्ट के बीच प्रतिवैस दूरी को अधिकतम करता है।
# प्रतिवैस का लेखाचित्र अर्ध-निश्चित क्रमादेशन की मदद से सामने आया है। निष्पाद सदिश को सीधे सीखने के स्थान पर, अर्ध-निश्चित क्रमादेशन का उद्देश्य एक आंतरिक उत्पाद आव्यूह को खोजना है जो निकटतम प्रतिवैस की दूरी को संरक्षित करते हुए प्रतिवैस के लेखाचित्र में जुड़े हुए किसी भी दो निविष्ट के बीच प्रतिवैस दूरी को अधिकतम करता है।
# निम्न-आयामी अंत: स्थापन अंततः सीखे हुए आंतरिक उत्पाद आव्यूह पर [[बहुआयामी स्केलिंग|बहुआयामी प्रवर्धन]] के अनुप्रयोग द्वारा प्राप्त की जाती है।
# निम्न-आयामी एम्बेडिंग अंततः सीखे हुए आंतरिक उत्पाद आव्यूह पर [[बहुआयामी स्केलिंग|बहुआयामी प्रवर्धन]] के अनुप्रयोग द्वारा प्राप्त की जाती है।


यूक्लिडियन समष्टि में एक कम-आयामी अंत: स्थापन को पुनर्प्राप्त करने के लिए एक रैखिक आयामी अवकरण कदम के बाद अर्ध-निश्चित क्रमादेशन को लागू करने के कदम पहले [[नाथन रैखिक]], लंदन और राबिनोविच द्वारा प्रस्तावित किए गए थे।<ref>{{harvnb|Linial, London and Rabinovich|1995}}</ref>
यूक्लिडियन समष्टि में एक कम-आयामी एम्बेडिंग को पुनर्प्राप्त करने के लिए एक रैखिक आयामी अवकरण कदम के बाद अर्ध-निश्चित क्रमादेशन को लागू करने के कदम पहले [[नाथन रैखिक]], लंदन और राबिनोविच द्वारा प्रस्तावित किए गए थे।<ref>{{harvnb|Linial, London and Rabinovich|1995}}</ref>




Line 15: Line 15:
== अनुकूलन सूत्रीकरण ==
== अनुकूलन सूत्रीकरण ==


मान लीजिये <math>X \,\!</math> मूल निविष्ट है और <math>Y\,\!</math> अंत: स्थापन है। यदि <math>i,j\,\!</math> दो प्रतिवैस हैं, तो स्थानीय आइसोमेट्री बाधा जिसे संतुष्ट करने की आवश्यकता है, वह निम्न है: <ref>{{Harvnb|Weinberger, Sha and Saul|2004a|loc=page 3, equation 8}}</ref><ref>{{Harvnb|Weinberger and Saul|2004b|loc=page 3, equation 2}}</ref><ref>{{Harvnb|Weinberger and Saul|2006|loc=page 4, equation 2}}</ref>
मान लीजिये <math>X \,\!</math> मूल निविष्ट है और <math>Y\,\!</math> एम्बेडिंग है। यदि <math>i,j\,\!</math> दो प्रतिवैस हैं, तो स्थानीय आइसोमेट्री बाधा जिसे संतुष्ट करने की आवश्यकता है, वह निम्न है: <ref>{{Harvnb|Weinberger, Sha and Saul|2004a|loc=page 3, equation 8}}</ref><ref>{{Harvnb|Weinberger and Saul|2004b|loc=page 3, equation 2}}</ref><ref>{{Harvnb|Weinberger and Saul|2006|loc=page 4, equation 2}}</ref>
:<math>|X_{i}-X_{j}|^{2}=|Y_{i}-Y_{j}|^{2}\,\!</math>
:<math>|X_{i}-X_{j}|^{2}=|Y_{i}-Y_{j}|^{2}\,\!</math>
मान लीजिये <math>G, K\,\!</math> का [[ग्रामियन मैट्रिक्स|ग्रामियन आव्यूह]] <math> X \,\!</math> और <math> Y \,\!</math> (अर्थात: <math>G_{ij}=X_i \cdot X_j,K_{ij}=Y_i \cdot Y_j \,\!</math>) है। उपरोक्त बाधा को हम प्रत्येक प्रतिवैस बिंदु  <math>i,j\,\!</math> की अवधि में <math>G, K\,\!</math> के लिए व्यक्त कर सकते हैं: <ref>{{Harvnb|Weinberger, Sha and Saul|2004a|loc=page 3, equation 9}}</ref><ref>{{Harvnb|Weinberger and Saul|2004b|loc=page 3, equation 3}}</ref>
मान लीजिये <math>G, K\,\!</math> का [[ग्रामियन मैट्रिक्स|ग्रामियन आव्यूह]] <math> X \,\!</math> और <math> Y \,\!</math> (अर्थात: <math>G_{ij}=X_i \cdot X_j,K_{ij}=Y_i \cdot Y_j \,\!</math>) है। उपरोक्त बाधा को हम प्रत्येक प्रतिवैस बिंदु  <math>i,j\,\!</math> की अवधि में <math>G, K\,\!</math> के लिए व्यक्त कर सकते हैं: <ref>{{Harvnb|Weinberger, Sha and Saul|2004a|loc=page 3, equation 9}}</ref><ref>{{Harvnb|Weinberger and Saul|2004b|loc=page 3, equation 3}}</ref>
:<math>G_{ii}+G_{jj}-G_{ij}-G_{ji}=K_{ii}+K_{jj}-K_{ij}-K_{ji}\,\!</math>
:<math>G_{ii}+G_{jj}-G_{ij}-G_{ji}=K_{ii}+K_{jj}-K_{ij}-K_{ji}\,\!</math>
इसके अतिरिक्त, हम <math> Y \,\!</math> मूल पर केन्द्रित करने के लिए अंत: स्थापन को भी बाधित करना चाहते हैं: <ref>{{Harvnb|Weinberger, Sha and Saul|2004a|loc=page 3, equation 6}}</ref><ref>{{Harvnb|Weinberger and Saul|2004b|loc=page 3, equation 5}}</ref><ref>{{Harvnb|Weinberger and Saul|2006|loc=page 5, equation 8}}</ref>
इसके अतिरिक्त, हम <math> Y \,\!</math> मूल पर केन्द्रित करने के लिए एम्बेडिंग को भी बाधित करना चाहते हैं: <ref>{{Harvnb|Weinberger, Sha and Saul|2004a|loc=page 3, equation 6}}</ref><ref>{{Harvnb|Weinberger and Saul|2004b|loc=page 3, equation 5}}</ref><ref>{{Harvnb|Weinberger and Saul|2006|loc=page 5, equation 8}}</ref>


<math>0 = |\sum_{i}Y_{i}|^2\Leftrightarrow(\sum_{i}Y_{i}) \cdot (\sum_{i}Y_{i})\Leftrightarrow\sum_{i,j}Y_{i} \cdot Y_{j}\Leftrightarrow\sum_{i,j}K_{ij}</math>
<math>0 = |\sum_{i}Y_{i}|^2\Leftrightarrow(\sum_{i}Y_{i}) \cdot (\sum_{i}Y_{i})\Leftrightarrow\sum_{i,j}Y_{i} \cdot Y_{j}\Leftrightarrow\sum_{i,j}K_{ij}</math>
Line 67: Line 67:


== यह भी देखें ==
== यह भी देखें ==
* [[स्थानीय रूप से रैखिक एम्बेडिंग|स्थानीय रूप से रैखिक अंत: स्थापन]]
* [[स्थानीय रूप से रैखिक एम्बेडिंग]]
* [[आइसोमेट्री (गणित) (बहुविकल्पी)|समदूरीकता (गणित) (बहुविकल्पी)]]  
* [[आइसोमेट्री (गणित) (बहुविकल्पी)|समदूरीकता (गणित) (बहुविकल्पी)]]  
* [[स्थानीय स्पर्शरेखा अंतरिक्ष संरेखण|स्थानीय स्पर्शरेखा समष्टि संरेखण]]
* [[स्थानीय स्पर्शरेखा अंतरिक्ष संरेखण|स्थानीय स्पर्शरेखा समष्टि संरेखण]]

Latest revision as of 15:18, 7 November 2023

अधिकतम भिन्नता विकास (एमवीयू), जिसे अर्धनिश्चित एम्बेडिंग (एसडीई) के रूप में भी जाना जाता है, कंप्यूटर विज्ञान में एक कलन विधि है जो उच्च-आयामी समन्वित सदिश निविष्ट आँकड़े की गैर-रैखिक आयामीता में कमी करने के लिए अर्ध निश्चित क्रमादेशन का उपयोग करता है। [1][2][3]

यह अवलोकन से प्रेरित है कि कर्नेल प्रमुख घटक विश्लेषण (kPCA) आंकड़ा विमीयता को कम नहीं करता है,[4] क्योंकि यह मूल आंकड़े को आंतरिक-उत्पाद स्थान में गैर-रैखिक रूप से मानचित्र करने के लिए कर्नेल चाल का लाभ उठाता है।

कलन विधि

एमवीयू निम्न चरणों में उच्च आयामी निविष्ट सदिश से कुछ निम्न आयामी यूक्लिडियन सदिश समष्टि में प्रतिचित्रण बनाता है:[5]

  1. एक प्रतिवैस (सांस्थिति) लेखाचित्र बनाया गया है। प्रत्येक निविष्ट अपने k-निकटतम निविष्ट सदिश (यूक्लिडियन दूरी मापीय के अनुसार) से जुड़ा होता है और सभी k-निकटतम प्रतिवैस एक दूसरे से जुड़े होते हैं। यदि आंकड़े को पर्याप्त रूप से प्रतिदर्श लिया गया है, तो परिणामी लेखाचित्र अंतर्निहित कई गुना का असतत सन्निकटन है।
  2. प्रतिवैस का लेखाचित्र अर्ध-निश्चित क्रमादेशन की मदद से सामने आया है। निष्पाद सदिश को सीधे सीखने के स्थान पर, अर्ध-निश्चित क्रमादेशन का उद्देश्य एक आंतरिक उत्पाद आव्यूह को खोजना है जो निकटतम प्रतिवैस की दूरी को संरक्षित करते हुए प्रतिवैस के लेखाचित्र में जुड़े हुए किसी भी दो निविष्ट के बीच प्रतिवैस दूरी को अधिकतम करता है।
  3. निम्न-आयामी एम्बेडिंग अंततः सीखे हुए आंतरिक उत्पाद आव्यूह पर बहुआयामी प्रवर्धन के अनुप्रयोग द्वारा प्राप्त की जाती है।

यूक्लिडियन समष्टि में एक कम-आयामी एम्बेडिंग को पुनर्प्राप्त करने के लिए एक रैखिक आयामी अवकरण कदम के बाद अर्ध-निश्चित क्रमादेशन को लागू करने के कदम पहले नाथन रैखिक, लंदन और राबिनोविच द्वारा प्रस्तावित किए गए थे।[6]


अनुकूलन सूत्रीकरण

मान लीजिये मूल निविष्ट है और एम्बेडिंग है। यदि दो प्रतिवैस हैं, तो स्थानीय आइसोमेट्री बाधा जिसे संतुष्ट करने की आवश्यकता है, वह निम्न है: [7][8][9]

मान लीजिये का ग्रामियन आव्यूह और (अर्थात: ) है। उपरोक्त बाधा को हम प्रत्येक प्रतिवैस बिंदु की अवधि में के लिए व्यक्त कर सकते हैं: [10][11]

इसके अतिरिक्त, हम मूल पर केन्द्रित करने के लिए एम्बेडिंग को भी बाधित करना चाहते हैं: [12][13][14]

जैसा कि ऊपर वर्णित है, प्रतिवैस बिंदुओं की दूरियों को संरक्षित करने के अतिरिक्त, कलन विधि का उद्देश्य प्रत्येक जोड़ी बिंदुओं की प्रतिवैस दूरी को अधिकतम करना है। अधिकतम किया जाने वाला उद्देश्य कार्य निम्न है: [15][16][17]

सहजता से, ऊपर दिए गए फलन को अधिकतम करना बिंदुओं को एक दूसरे से जितना संभव हो उतना दूर खींचने के बराबर है और इसलिए बहुविध प्रकट होता है। मान लीजिये स्थानीय आइसोमेट्री बाधा निम्न है [18]

जहाँ


उद्देश्य फलन को अपसरण (अनंत में जाने) से रोकता है।

चूँकि लेखाचित्र में N बिंदु हैं, किन्हीं दो बिंदुओं के बीच की दूरी . है। इसके बाद हम उद्देश्य फलन को निम्नानुसार बाध्य कर सकते हैं: [19][20]

उद्देश्य फलन को ग्राम आव्यूह के रूप में विशुद्ध रूप से फिर से लिखा जा सकता है:[21][22][23]

अंत में, अनुकूलन को इस प्रकार तैयार किया जा सकता है:[24][25][26]

ग्राम आव्यूह के बाद सेमीडिफिनिट क्रमादेशन द्वारा सीखा जाता है, प्रक्षेपण चोल्स्की अपघटन के माध्यम से प्राप्त किया जा सकता है।

विशेष रूप से, ग्राम आव्यूह को रूप में लिखा जा सकता है, जहाँ की आइगेनवैल्यू ईजेनसदिश का i-वाँ तत्व है। [27][28]

इससे यह पता चलता है कि निष्पाद का -वाँ तत्व है। [29][30]


यह भी देखें

टिप्पणियाँ

  1. Weinberger, Sha and Saul 2004a
  2. Weinberger and Saul 2004b
  3. Weinberger and Saul 2006
  4. Lawrence 2012, page 1612
  5. Weinberger, Sha and Saul 2004a, page 7.
  6. Linial, London and Rabinovich 1995
  7. Weinberger, Sha and Saul 2004a, page 3, equation 8
  8. Weinberger and Saul 2004b, page 3, equation 2
  9. Weinberger and Saul 2006, page 4, equation 2
  10. Weinberger, Sha and Saul 2004a, page 3, equation 9
  11. Weinberger and Saul 2004b, page 3, equation 3
  12. Weinberger, Sha and Saul 2004a, page 3, equation 6
  13. Weinberger and Saul 2004b, page 3, equation 5
  14. Weinberger and Saul 2006, page 5, equation 8
  15. Weinberger, Sha and Saul 2004a, page 4, equation 10
  16. Weinberger and Saul 2004b, page 4, equation 6
  17. Weinberger and Saul 2006, page 5, equation 4
  18. Weinberger and Saul 2004b, page 4, equation 7
  19. Weinberger and Saul 2004b, page 4, equation 8
  20. Weinberger and Saul 2006, page 5, equation 6
  21. Weinberger, Sha and Saul 2004a, page 4, equation 11
  22. Weinberger and Saul 2004b, page 4, equation 9
  23. Weinberger and Saul 2006, page 6, equations 10 to 13
  24. Weinberger, Sha and Saul 2004a, page 4, section 3.3
  25. Weinberger and Saul 2004b, page 4, equation 9
  26. Weinberger and Saul 2006, page 6, equations 10 to 13
  27. Weinberger and Saul 2004b, page 4, equation 10
  28. Weinberger and Saul 2006, page 7, equations 14
  29. Weinberger and Saul 2004b, page 4, equation 11
  30. Weinberger and Saul 2006, page 7, equations 15


संदर्भ

  • Linial, London and Rabinovich, Nathan, Eran and Yuri (1995). "The geometry of graphs and some of its algorithmic applications". Combinatorica. 15 (2): 215–245. doi:10.1007/BF01200757. S2CID 5071936.{{cite journal}}: CS1 maint: multiple names: authors list (link)
  • Weinberger, Sha and Saul, Kilian Q., Fei and Lawrence K. (4 July 2004a). Learning a kernel matrix for nonlinear dimensionality reduction. Proceedings of the Twenty First International Conference on Machine Learning (ICML 2004). Banff, Alberta, Canada.{{cite conference}}: CS1 maint: multiple names: authors list (link)
  • Weinberger and Saul, Kilian Q. and Lawrence K. (27 June 2004b). Unsupervised learning of image manifolds by semidefinite programming. 2004 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Vol. 2.
  • Weinberger and Saul, Kilian Q. and Lawrence K. (1 May 2006). "Unsupervised learning of image manifolds by semidefinite programming" (PDF). International Journal of Computer Vision. 70: 77–90. doi:10.1007/s11263-005-4939-z. S2CID 291166.
  • Lawrence, Neil D (2012). "A unifying probabilistic perspective for spectral dimensionality reduction: insights and new models". Journal of Machine Learning Research. 13 (May): 1612. arXiv:1010.4830. Bibcode:2010arXiv1010.4830L.


अतिरिक्त सामग्री

श्रेणी:कम्प्यूटेशनल सांख्यिकी श्रेणी:आयाम में कमी श्रेणी:अनुकूलन एल्गोरिद्म और विधियां