बहुरेखीय उपस्थान लर्निंग: Difference between revisions

From Vigyanwiki
No edit summary
No edit summary
Line 10: Line 10:
  |isbn=978-1-4398572-4-3
  |isbn=978-1-4398572-4-3
  |year=2013
  |year=2013
}}</ref> आयाम में कमी एक डेटा [[ टेन्सर ]] पर की जा सकती है जिसमें वेक्टरकृत अवलोकनों का संग्रह सम्मिलित है<ref name="Vasilescu2003"/>या वे अवलोकन जिन्हें आव्युह के रूप में माना जाता है और डेटा टेंसर में संयोजित किया जाता है।<ref name="MSLsurvey">{{cite journal
}}</ref> आयाम में कमी एक डेटा [[ टेन्सर |टेन्सर]] पर की जा सकती है जिसमें वेक्टरकृत अवलोकनों का संग्रह सम्मिलित है<ref name="Vasilescu2003"/>या वे अवलोकन जिन्हें आव्युह के रूप में माना जाता है और डेटा टेंसर में संयोजित किया जाता है।<ref name="MSLsurvey">{{cite journal
  |first1=Haiping |last1=Lu
  |first1=Haiping |last1=Lu
  |first2=K.N. |last2=Plataniotis
  |first2=K.N. |last2=Plataniotis
Line 22: Line 22:
  }}</ref><ref name="TSAnips">X. He, D. Cai, P. Niyogi, [http://books.nips.cc/papers/files/nips18/NIPS2005_0249.pdf Tensor subspace analysis], in: [[Advances in Neural Information Processing Systems]]c 18 (NIPS), 2005.</ref> यहां डेटा टेंसर के कुछ उदाहरण दिए गए हैं जिनके अवलोकन वेक्टरकृत हैं या जिनके अवलोकन डेटा टेंसर [[छवि]]यों (2डी/3डी), [[वीडियो]] अनुक्रम (3डी/4डी), और [[हाइपरस्पेक्ट्रल इमेजिंग]] (3डी/4डी) में संयोजित आव्युह हैं।
  }}</ref><ref name="TSAnips">X. He, D. Cai, P. Niyogi, [http://books.nips.cc/papers/files/nips18/NIPS2005_0249.pdf Tensor subspace analysis], in: [[Advances in Neural Information Processing Systems]]c 18 (NIPS), 2005.</ref> यहां डेटा टेंसर के कुछ उदाहरण दिए गए हैं जिनके अवलोकन वेक्टरकृत हैं या जिनके अवलोकन डेटा टेंसर [[छवि]]यों (2डी/3डी), [[वीडियो]] अनुक्रम (3डी/4डी), और [[हाइपरस्पेक्ट्रल इमेजिंग]] (3डी/4डी) में संयोजित आव्युह हैं।


उच्च-आयामी [[ सदिश स्थल ]] से निचले आयामी सदिश स्पेस के समूह तक मैपिंग एक बहुरेखीय प्रक्षेपण है।<ref name="Vasilescu2007">{{cite conference
उच्च-आयामी [[ सदिश स्थल |सदिश स्थल]] से निचले आयामी सदिश स्पेस के समूह तक मैपिंग एक बहुरेखीय प्रक्षेपण है।<ref name="Vasilescu2007">{{cite conference
  |first1=M.A.O. |last1=Vasilescu
  |first1=M.A.O. |last1=Vasilescu
  |first2=D. |last2=Terzopoulos
  |first2=D. |last2=Terzopoulos
Line 30: Line 30:
  |doi=10.1109/ICCV.2007.4409067
  |doi=10.1109/ICCV.2007.4409067
}}.   
}}.   
</ref> जब अवलोकनों को आव्युह या उच्च क्रम के टेंसर के समान संगठनात्मक संरचना में बनाए रखा जाता है तब उनके प्रतिनिधित्व की गणना स्तंभ स्पेस, पंक्ति स्पेस और फाइबर स्पेस में रैखिक अनुमानों को निष्पादित करके की जाती है।<ref name="MSLsurvey"/>
</ref> जब अवलोकनों को आव्युह या उच्च क्रम के टेंसर के समान संगठनात्मक संरचना में बनाए रखा जाता है तब उनके प्रतिनिधित्व की गणना स्तंभ स्पेस, पंक्ति स्पेस और फाइबर स्पेस में रैखिक अनुमानों को निष्पादित करके की जाती है।<ref name="MSLsurvey"/>


#एल्गोरिदम प्रमुख घटक विश्लेषण (पीसीए), [[स्वतंत्र घटक विश्लेषण]] (आईसीए), [[रैखिक विभेदक विश्लेषण]] (एलडीए) और [[विहित सहसंबंध]] (सीसीए) जैसे रैखिक उप-स्थान सीखने के विधि के उच्च-क्रम के सामान्यीकरण हैं।
#एल्गोरिदम प्रमुख घटक विश्लेषण (पीसीए), [[स्वतंत्र घटक विश्लेषण]] (आईसीए), [[रैखिक विभेदक विश्लेषण]] (एलडीए) और [[विहित सहसंबंध]] (सीसीए) जैसे रैखिक उप-स्थान सीखने के विधि के उच्च-क्रम के सामान्यीकरण हैं।
Line 37: Line 37:
बहुरेखीय विधियाँ प्रकृति में कारणात्मक हो सकती हैं और कारणात्मक अनुमान लगा सकती हैं, या वे सरल प्रतिगमन विधियाँ हो सकती हैं जिनसे कोई कारणात्मक निष्कर्ष नहीं निकाला जाता है।
बहुरेखीय विधियाँ प्रकृति में कारणात्मक हो सकती हैं और कारणात्मक अनुमान लगा सकती हैं, या वे सरल प्रतिगमन विधियाँ हो सकती हैं जिनसे कोई कारणात्मक निष्कर्ष नहीं निकाला जाता है।


रैखिक उप-स्थान शिक्षण एल्गोरिदम पारंपरिक आयामी कमी तकनीकें हैं जो डेटासेट के लिए उपयुक्त हैं जो एकल कारण कारक को बदलने का परिणाम हैं। दुर्भाग्य से, वे अधिकांशतः उन डेटासेट से निपटने में अपर्याप्त हो जाते हैं जो अनेक कारण कारकों का परिणाम होते हैं। .
रैखिक उप-स्थान शिक्षण एल्गोरिदम पारंपरिक आयामी कमी तकनीकें हैं जो डेटासेट के लिए उपयुक्त हैं जो एकल कारण कारक को बदलने का परिणाम हैं। दुर्भाग्य से, वे अधिकांशतः उन डेटासेट से निपटने में अपर्याप्त हो जाते हैं जो अनेक कारण कारकों का परिणाम होते हैं। .


मल्टीलिनियर सबस्पेस लर्निंग को उन अवलोकनों पर क्रियान्वित किया जा सकता है जिनके माप को कारणात्मक रूप से जागरूक आयामी कमी के लिए डेटा टेंसर में वेक्टरकृत और व्यवस्थित किया गया था,<ref name="Vasilescu2003"/> जब अवलोकनों को एक आव्युह (यानी स्वतंत्र स्तंभ/पंक्ति अवलोकनों का संग्रह) के रूप में माना जाता है और एक टेंसर में संयोजित किया जाता है, तब कारण कारकों की परवाह किए बिना क्षैतिज और ऊर्ध्वाधर अतिरेक को कम करने के लिए भी इन विधि को नियोजित किया जा सकता है।<ref>{{cite web |title=टेन्सर-आधारित संगणना और मॉडलिंग में भविष्य की दिशाएँ|date=May 2009|url=http://www.cs.cornell.edu/cv/tenwork/finalreport.pdf}}</ref><ref name="DATER">S. Yan, D. Xu, Q. Yang, L. Zhang, X. Tang, and H.-J. Zhang, "[http://portal.acm.org/citation.cfm?id=1068959 Discriminant analysis with tensor representation]," in Proc. [[IEEE Conference on Computer Vision and Pattern Recognition]], vol. I, June 2005, pp. 526–532.</ref>
मल्टीलिनियर सबस्पेस लर्निंग को उन अवलोकनों पर क्रियान्वित किया जा सकता है जिनके माप को कारणात्मक रूप से जागरूक आयामी कमी के लिए डेटा टेंसर में वेक्टरकृत और व्यवस्थित किया गया था,<ref name="Vasilescu2003"/> जब अवलोकनों को एक आव्युह (यानी स्वतंत्र स्तंभ/पंक्ति अवलोकनों का संग्रह) के रूप में माना जाता है और एक टेंसर में संयोजित किया जाता है, तब कारण कारकों की परवाह किए बिना क्षैतिज और ऊर्ध्वाधर अतिरेक को कम करने के लिए भी इन विधि को नियोजित किया जा सकता है।<ref>{{cite web |title=टेन्सर-आधारित संगणना और मॉडलिंग में भविष्य की दिशाएँ|date=May 2009|url=http://www.cs.cornell.edu/cv/tenwork/finalreport.pdf}}</ref><ref name="DATER">S. Yan, D. Xu, Q. Yang, L. Zhang, X. Tang, and H.-J. Zhang, "[http://portal.acm.org/citation.cfm?id=1068959 Discriminant analysis with tensor representation]," in Proc. [[IEEE Conference on Computer Vision and Pattern Recognition]], vol. I, June 2005, pp. 526–532.</ref>




Line 45: Line 45:


=== [[बहुरेखीय प्रमुख घटक विश्लेषण]] ===
=== [[बहुरेखीय प्रमुख घटक विश्लेषण]] ===
ऐतिहासिक रूप से, बहुरेखीय प्रमुख घटक विश्लेषण को एम-मोड पीसीए के रूप में संदर्भित किया गया है, एक शब्दावली जिसे पीटर क्रूनबर्ग द्वारा गढ़ा गया था।<ref name="Kroonenberg1980">P. M. Kroonenberg and J. de Leeuw, [https://doi.org/10.1007%2FBF02293599 Principal component analysis of three-mode data by means of alternating least squares algorithms], Psychometrika, 45 (1980), pp. 69–97.</ref> 2005 में, वासिलेस्कु और [[दिमित्रिस टेरज़ोपोलोस]] ने मल्टीलिनियर पीसीए पेश किया<ref name="MPCA-MICA2005">M. A. O. Vasilescu, D. Terzopoulos (2005) [http://www.media.mit.edu/~maov/mica/mica05.pdf "Multilinear Independent Component Analysis"], "Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR’05), San Diego, CA, June 2005, vol.1, 547–553."</ref> बहुरेखीय टेंसर अपघटनों के मध्य बेहतर अंतर करने के एक विधि के रूप में शब्दावली जो प्रत्येक डेटा टेंसर मोड से जुड़े दूसरे क्रम के आँकड़ों की गणना करती है,<ref name="Vasilescu2003"/><ref name="Vasilescu2002tensorfaces"/><ref name="Vasilescu2002hms"/><ref name="Vasilescu2004">M.A.O. Vasilescu, D. Terzopoulos (2004) [http://www.media.mit.edu/~maov/tensortextures/Vasilescu_siggraph04.pdf "TensorTextures: Multilinear Image-Based Rendering", M. A. O. Vasilescu and D. Terzopoulos, Proc. ACM SIGGRAPH 2004 Conference Los Angeles, CA, August, 2004, in Computer Graphics Proceedings, Annual Conference Series, 2004, 336–342. ]</ref><ref name="MPCA-Lu2008">H. Lu, K. N. Plataniotis, and A. N. Venetsanopoulos, "[https://dx.doi.org/10.1109/TNN.2007.901277 MPCA: Multilinear principal component analysis of tensor objects]," IEEE Trans. Neural Netw., vol. 19, no. 1, pp. 18–39, January  2008.</ref>और उसके पश्चात् मल्टीलीनियर इंडिपेंडेंट कंपोनेंट एनालिसिस पर काम किया<ref name="MPCA-MICA2005"/>जो प्रत्येक टेंसर मोड के लिए उच्च क्रम के आँकड़ों की गणना करता है। एमपीसीए प्रमुख घटक विश्लेषण का विस्तार है।
ऐतिहासिक रूप से, बहुरेखीय प्रमुख घटक विश्लेषण को एम-मोड पीसीए के रूप में संदर्भित किया गया है, एक शब्दावली जिसे पीटर क्रूनबर्ग द्वारा गढ़ा गया था।<ref name="Kroonenberg1980">P. M. Kroonenberg and J. de Leeuw, [https://doi.org/10.1007%2FBF02293599 Principal component analysis of three-mode data by means of alternating least squares algorithms], Psychometrika, 45 (1980), pp. 69–97.</ref> 2005 में, वासिलेस्कु और [[दिमित्रिस टेरज़ोपोलोस]] ने मल्टीलिनियर पीसीए पेश किया<ref name="MPCA-MICA2005">M. A. O. Vasilescu, D. Terzopoulos (2005) [http://www.media.mit.edu/~maov/mica/mica05.pdf "Multilinear Independent Component Analysis"], "Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR’05), San Diego, CA, June 2005, vol.1, 547–553."</ref> बहुरेखीय टेंसर अपघटनों के मध्य बेहतर अंतर करने के एक विधि के रूप में शब्दावली जो प्रत्येक डेटा टेंसर मोड से जुड़े दूसरे क्रम के आँकड़ों की गणना करती है,<ref name="Vasilescu2003"/><ref name="Vasilescu2002tensorfaces"/><ref name="Vasilescu2002hms"/><ref name="Vasilescu2004">M.A.O. Vasilescu, D. Terzopoulos (2004) [http://www.media.mit.edu/~maov/tensortextures/Vasilescu_siggraph04.pdf "TensorTextures: Multilinear Image-Based Rendering", M. A. O. Vasilescu and D. Terzopoulos, Proc. ACM SIGGRAPH 2004 Conference Los Angeles, CA, August, 2004, in Computer Graphics Proceedings, Annual Conference Series, 2004, 336–342. ]</ref><ref name="MPCA-Lu2008">H. Lu, K. N. Plataniotis, and A. N. Venetsanopoulos, "[https://dx.doi.org/10.1109/TNN.2007.901277 MPCA: Multilinear principal component analysis of tensor objects]," IEEE Trans. Neural Netw., vol. 19, no. 1, pp. 18–39, January  2008.</ref>और उसके पश्चात् मल्टीलीनियर इंडिपेंडेंट कंपोनेंट एनालिसिस पर काम किया<ref name="MPCA-MICA2005"/>जो प्रत्येक टेंसर मोड के लिए उच्च क्रम के आँकड़ों की गणना करता है। एमपीसीए प्रमुख घटक विश्लेषण का विस्तार है।


=== [[बहुरेखीय स्वतंत्र घटक विश्लेषण]] ===
=== [[बहुरेखीय स्वतंत्र घटक विश्लेषण]] ===
Line 76: Line 76:
  }}</ref> 1960 के दशक में.
  }}</ref> 1960 के दशक में.


*टीवीपी एक उच्च-आयामी टेंसर का निम्न-आयामी सदिश पर सीधा प्रक्षेपण है, जिसे रैंक-वन अनुमान भी कहा जाता है। चूंकि टीवीपी एक टेन्सर को एक सदिश में प्रोजेक्ट करता है इसे एक टेन्सर से अदिश तक अनेक प्रक्षेपणों के रूप में देखा जा सकता है। इस प्रकार पी-आयामी सदिश के लिए एक टेंसर के टीवीपी में टेंसर से अदिश तक पी प्रक्षेपण सम्मिलित होते हैं। टेंसर से अदिश तक प्रक्षेपण एक प्राथमिक बहुरेखीय प्रक्षेपण (ईएमपी) है। ईएमपी में, एक टेंसर को एन यूनिट प्रोजेक्शन वैक्टर के माध्यम से एक बिंदु पर प्रक्षेपित किया जाता है। यह एक एकल रेखा पर एक टेंसर का प्रक्षेपण है (जिसके परिणामस्वरूप एक अदिश राशि होती है), प्रत्येक मोड में एक प्रक्षेपण सदिश होता है। इस प्रकार, पी-आयामी सदिश स्पेस में एक सदिश के लिए एक टेंसर ऑब्जेक्ट के टीवीपी में पी ईएमपी होते हैं। यह प्रक्षेपण [[सीपी अपघटन]] का विस्तार है,<ref>{{Cite journal
*टीवीपी एक उच्च-आयामी टेंसर का निम्न-आयामी सदिश पर सीधा प्रक्षेपण है, जिसे रैंक-वन अनुमान भी कहा जाता है। चूंकि टीवीपी एक टेन्सर को एक सदिश में प्रोजेक्ट करता है इसे एक टेन्सर से अदिश तक अनेक प्रक्षेपणों के रूप में देखा जा सकता है। इस प्रकार पी-आयामी सदिश के लिए एक टेंसर के टीवीपी में टेंसर से अदिश तक पी प्रक्षेपण सम्मिलित होते हैं। टेंसर से अदिश तक प्रक्षेपण एक प्राथमिक बहुरेखीय प्रक्षेपण (ईएमपी) है। ईएमपी में, एक टेंसर को एन यूनिट प्रोजेक्शन वैक्टर के माध्यम से एक बिंदु पर प्रक्षेपित किया जाता है। यह एक एकल रेखा पर एक टेंसर का प्रक्षेपण है (जिसके परिणामस्वरूप एक अदिश राशि होती है), प्रत्येक मोड में एक प्रक्षेपण सदिश होता है। इस प्रकार, पी-आयामी सदिश स्पेस में एक सदिश के लिए एक टेंसर ऑब्जेक्ट के टीवीपी में पी ईएमपी होते हैं। यह प्रक्षेपण [[सीपी अपघटन]] का विस्तार है,<ref>{{Cite journal
  | author = J. D. Carroll & J. Chang
  | author = J. D. Carroll & J. Chang
  | title = Analysis of individual differences in multidimensional scaling via an ''n''-way generalization of 'Eckart–Young' decomposition
  | title = Analysis of individual differences in multidimensional scaling via an ''n''-way generalization of 'Eckart–Young' decomposition
Line 88: Line 88:
  }}</ref> इसे [[पैराफैक]] (पीएआरएएफएसी) अपघटन के रूप में भी जाना जाता है।<ref>R. A. Harshman, [http://publish.uwo.ca/~harshman/wpppfac0.pdf Foundations of the PARAFAC procedure: Models and conditions for an "explanatory" multi-modal factor analysis] {{webarchive|url=https://web.archive.org/web/20041010092429/http://publish.uwo.ca/~harshman/wpppfac0.pdf |date=2004-10-10 }}. UCLA Working Papers in Phonetics, 16, pp. 1–84, 1970.</ref>
  }}</ref> इसे [[पैराफैक]] (पीएआरएएफएसी) अपघटन के रूप में भी जाना जाता है।<ref>R. A. Harshman, [http://publish.uwo.ca/~harshman/wpppfac0.pdf Foundations of the PARAFAC procedure: Models and conditions for an "explanatory" multi-modal factor analysis] {{webarchive|url=https://web.archive.org/web/20041010092429/http://publish.uwo.ca/~harshman/wpppfac0.pdf |date=2004-10-10 }}. UCLA Working Papers in Phonetics, 16, pp. 1–84, 1970.</ref>
=== एमएसएल में विशिष्ट दृष्टिकोण ===
=== एमएसएल में विशिष्ट दृष्टिकोण ===
हल करने के लिए मापदंडों के एन समूह हैं प्रत्येक मोड में एक। एक समूह का समाधान अधिकांशतः दूसरे समूह पर निर्भर करता है (सिवाय जब N=1, रैखिक स्थितिया )। इसलिए उप-इष्टतम पुनरावृत्तीय प्रक्रिया<ref>L.  D.  Lathauwer,  B.  D.  Moor,  J.  Vandewalle,  [http://portal.acm.org/citation.cfm?id=354405 On  the  best  rank-1  and rank-(R1, R2, ..., RN ) approximation of higher-order tensors], SIAM Journal of Matrix Analysis and Applications 21 (4) (2000) 1324–1342.</ref> पीछा किया जाता है।
हल करने के लिए मापदंडों के एन समूह हैं प्रत्येक मोड में एक। एक समूह का समाधान अधिकांशतः दूसरे समूह पर निर्भर करता है (सिवाय जब N=1, रैखिक स्थितिया )। इसलिए उप-इष्टतम पुनरावृत्तीय प्रक्रिया<ref>L.  D.  Lathauwer,  B.  D.  Moor,  J.  Vandewalle,  [http://portal.acm.org/citation.cfm?id=354405 On  the  best  rank-1  and rank-(R1, R2, ..., RN ) approximation of higher-order tensors], SIAM Journal of Matrix Analysis and Applications 21 (4) (2000) 1324–1342.</ref> पीछा किया जाता है।


#प्रत्येक मोड में अनुमानों का आरंभीकरण
#प्रत्येक मोड में अनुमानों का आरंभीकरण

Revision as of 19:42, 12 July 2023

मल्टीलीनियर सबस्पेस लर्निंग के लिए स्तंभ x पंक्ति x समय के तीसरे क्रम के टेंसर के रूप में दर्शाया गया एक वीडियो या छवि अनुक्रम।

मल्टीलिनियर सबस्पेस लर्निंग डेटा निर्माण के कारण कारक को सुलझाने और आयामीता में कमी करने के लिए एक दृष्टिकोण है।[1][2][3][4][5] आयाम में कमी एक डेटा टेन्सर पर की जा सकती है जिसमें वेक्टरकृत अवलोकनों का संग्रह सम्मिलित है[1]या वे अवलोकन जिन्हें आव्युह के रूप में माना जाता है और डेटा टेंसर में संयोजित किया जाता है।[6][7] यहां डेटा टेंसर के कुछ उदाहरण दिए गए हैं जिनके अवलोकन वेक्टरकृत हैं या जिनके अवलोकन डेटा टेंसर छवियों (2डी/3डी), वीडियो अनुक्रम (3डी/4डी), और हाइपरस्पेक्ट्रल इमेजिंग (3डी/4डी) में संयोजित आव्युह हैं।

उच्च-आयामी सदिश स्थल से निचले आयामी सदिश स्पेस के समूह तक मैपिंग एक बहुरेखीय प्रक्षेपण है।[4] जब अवलोकनों को आव्युह या उच्च क्रम के टेंसर के समान संगठनात्मक संरचना में बनाए रखा जाता है तब उनके प्रतिनिधित्व की गणना स्तंभ स्पेस, पंक्ति स्पेस और फाइबर स्पेस में रैखिक अनुमानों को निष्पादित करके की जाती है।[6]

  1. एल्गोरिदम प्रमुख घटक विश्लेषण (पीसीए), स्वतंत्र घटक विश्लेषण (आईसीए), रैखिक विभेदक विश्लेषण (एलडीए) और विहित सहसंबंध (सीसीए) जैसे रैखिक उप-स्थान सीखने के विधि के उच्च-क्रम के सामान्यीकरण हैं।

पृष्ठभूमि

बहुरेखीय विधियाँ प्रकृति में कारणात्मक हो सकती हैं और कारणात्मक अनुमान लगा सकती हैं, या वे सरल प्रतिगमन विधियाँ हो सकती हैं जिनसे कोई कारणात्मक निष्कर्ष नहीं निकाला जाता है।

रैखिक उप-स्थान शिक्षण एल्गोरिदम पारंपरिक आयामी कमी तकनीकें हैं जो डेटासेट के लिए उपयुक्त हैं जो एकल कारण कारक को बदलने का परिणाम हैं। दुर्भाग्य से, वे अधिकांशतः उन डेटासेट से निपटने में अपर्याप्त हो जाते हैं जो अनेक कारण कारकों का परिणाम होते हैं। .

मल्टीलिनियर सबस्पेस लर्निंग को उन अवलोकनों पर क्रियान्वित किया जा सकता है जिनके माप को कारणात्मक रूप से जागरूक आयामी कमी के लिए डेटा टेंसर में वेक्टरकृत और व्यवस्थित किया गया था,[1] जब अवलोकनों को एक आव्युह (यानी स्वतंत्र स्तंभ/पंक्ति अवलोकनों का संग्रह) के रूप में माना जाता है और एक टेंसर में संयोजित किया जाता है, तब कारण कारकों की परवाह किए बिना क्षैतिज और ऊर्ध्वाधर अतिरेक को कम करने के लिए भी इन विधि को नियोजित किया जा सकता है।[8][9]


एल्गोरिदम

बहुरेखीय प्रमुख घटक विश्लेषण

ऐतिहासिक रूप से, बहुरेखीय प्रमुख घटक विश्लेषण को एम-मोड पीसीए के रूप में संदर्भित किया गया है, एक शब्दावली जिसे पीटर क्रूनबर्ग द्वारा गढ़ा गया था।[10] 2005 में, वासिलेस्कु और दिमित्रिस टेरज़ोपोलोस ने मल्टीलिनियर पीसीए पेश किया[11] बहुरेखीय टेंसर अपघटनों के मध्य बेहतर अंतर करने के एक विधि के रूप में शब्दावली जो प्रत्येक डेटा टेंसर मोड से जुड़े दूसरे क्रम के आँकड़ों की गणना करती है,[1][2][3][12][13]और उसके पश्चात् मल्टीलीनियर इंडिपेंडेंट कंपोनेंट एनालिसिस पर काम किया[11]जो प्रत्येक टेंसर मोड के लिए उच्च क्रम के आँकड़ों की गणना करता है। एमपीसीए प्रमुख घटक विश्लेषण का विस्तार है।

बहुरेखीय स्वतंत्र घटक विश्लेषण

बहुरेखीय स्वतंत्र घटक विश्लेषण[11]स्वतंत्र घटक विश्लेषण का विस्तार है।

बहुरेखीय रैखिक विभेदक विश्लेषण

  • रैखिक विभेदक विश्लेषण का बहुरेखीय विस्तार
    • टीटीपी-आधारित: टेन्सर प्रतिनिधित्व के साथ विभेदक विश्लेषण (डेटर)[9]**टीटीपी-आधारित: सामान्य टेंसर विभेदक विश्लेषण (जीटीडीए)[14]
    • टीवीपी-आधारित: असंबद्ध बहुरेखीय विभेदक विश्लेषण (यूएमएलडीए)[15]


बहुरेखीय विहित सहसंबंध विश्लेषण

  • विहित सहसंबंध विश्लेषण का बहुरेखीय विस्तार
    • टीटीपी-आधारित: टेन्सर कैनोनिकल सहसंबंध विश्लेषण (टीसीसीए)[16]
    • टीवीपी-आधारित: मल्टीलिनियर कैनोनिकल सहसंबंध विश्लेषण (एमसीसीए)[17]
    • टीवीपी-आधारित: बायेसियन मल्टीलिनियर कैनोनिकल सहसंबंध विश्लेषण (बीएमटीएफ)[18]
  • टीटीपी एक उच्च-आयामी टेंसर का उसी क्रम के निम्न-आयामी टेंसर पर सीधा प्रक्षेपण है, जो एनवें-ऑर्डर टेंसर के लिए एन प्रक्षेपण आव्युह का उपयोग करता है। इसे एन चरणों में निष्पादित किया जा सकता है, प्रत्येक चरण में टेंसर-आव्युह गुणन (उत्पाद) निष्पादित किया जा सकता है। एन चरण विनिमय योग्य हैं।[19] यह प्रक्षेपण उच्च-क्रम एकवचन मूल्य अपघटन का विस्तार है[19](एचओएसवीडी) उप-स्थान सीखने के लिए।[13]इसलिए, इसकी उत्पत्ति का पता टकर अपघटन से लगाया जाता है[20] 1960 के दशक में.
  • टीवीपी एक उच्च-आयामी टेंसर का निम्न-आयामी सदिश पर सीधा प्रक्षेपण है, जिसे रैंक-वन अनुमान भी कहा जाता है। चूंकि टीवीपी एक टेन्सर को एक सदिश में प्रोजेक्ट करता है इसे एक टेन्सर से अदिश तक अनेक प्रक्षेपणों के रूप में देखा जा सकता है। इस प्रकार पी-आयामी सदिश के लिए एक टेंसर के टीवीपी में टेंसर से अदिश तक पी प्रक्षेपण सम्मिलित होते हैं। टेंसर से अदिश तक प्रक्षेपण एक प्राथमिक बहुरेखीय प्रक्षेपण (ईएमपी) है। ईएमपी में, एक टेंसर को एन यूनिट प्रोजेक्शन वैक्टर के माध्यम से एक बिंदु पर प्रक्षेपित किया जाता है। यह एक एकल रेखा पर एक टेंसर का प्रक्षेपण है (जिसके परिणामस्वरूप एक अदिश राशि होती है), प्रत्येक मोड में एक प्रक्षेपण सदिश होता है। इस प्रकार, पी-आयामी सदिश स्पेस में एक सदिश के लिए एक टेंसर ऑब्जेक्ट के टीवीपी में पी ईएमपी होते हैं। यह प्रक्षेपण सीपी अपघटन का विस्तार है,[21] इसे पैराफैक (पीएआरएएफएसी) अपघटन के रूप में भी जाना जाता है।[22]

एमएसएल में विशिष्ट दृष्टिकोण

हल करने के लिए मापदंडों के एन समूह हैं प्रत्येक मोड में एक। एक समूह का समाधान अधिकांशतः दूसरे समूह पर निर्भर करता है (सिवाय जब N=1, रैखिक स्थितिया )। इसलिए उप-इष्टतम पुनरावृत्तीय प्रक्रिया[23] पीछा किया जाता है।

  1. प्रत्येक मोड में अनुमानों का आरंभीकरण
  2. प्रत्येक मोड के लिए अन्य सभी मोड में प्रक्षेपण को ठीक करें और वर्तमान मोड में प्रक्षेपण के लिए समाधान करें।
  3. कुछ पुनरावृत्तियों के लिए या अभिसरण तक मोड-वार अनुकूलन करें।

यह मल्टी-वे डेटा विश्लेषण के लिए वैकल्पिक न्यूनतम वर्ग विधि से उत्पन्न हुआ है।[10]


कोड

टेंसर डेटा समूह

यह भी देखें

संदर्भ

  1. 1.0 1.1 1.2 1.3 M. A. O. Vasilescu, D. Terzopoulos (2003) "Multilinear Subspace Analysis of Image Ensembles", "Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR’03), Madison, WI, June, 2003"
  2. 2.0 2.1 M. A. O. Vasilescu, D. Terzopoulos (2002) "Multilinear Analysis of Image Ensembles: TensorFaces", Proc. 7th European Conference on Computer Vision (ECCV'02), Copenhagen, Denmark, May, 2002
  3. 3.0 3.1 M. A. O. Vasilescu,(2002) "Human Motion Signatures: Analysis, Synthesis, Recognition", "Proceedings of International Conference on Pattern Recognition (ICPR 2002), Vol. 3, Quebec City, Canada, Aug, 2002, 456–460."
  4. 4.0 4.1 Vasilescu, M.A.O.; Terzopoulos, D. (2007). Multilinear Projection for Appearance-Based Recognition in the Tensor Framework. IEEE 11th International Conference on Computer Vision. pp. 1–8. doi:10.1109/ICCV.2007.4409067..
  5. Lu, Haiping; Plataniotis, K.N.; Venetsanopoulos, A.N. (2013). Multilinear Subspace Learning: Dimensionality Reduction of Multidimensional Data. Chapman & Hall/CRC Press Machine Learning and Pattern Recognition Series. Taylor and Francis. ISBN 978-1-4398572-4-3.
  6. 6.0 6.1 Lu, Haiping; Plataniotis, K.N.; Venetsanopoulos, A.N. (2011). "A Survey of Multilinear Subspace Learning for Tensor Data" (PDF). Pattern Recognition. 44 (7): 1540–1551. Bibcode:2011PatRe..44.1540L. doi:10.1016/j.patcog.2011.01.004.
  7. X. He, D. Cai, P. Niyogi, Tensor subspace analysis, in: Advances in Neural Information Processing Systemsc 18 (NIPS), 2005.
  8. "टेन्सर-आधारित संगणना और मॉडलिंग में भविष्य की दिशाएँ" (PDF). May 2009.
  9. 9.0 9.1 S. Yan, D. Xu, Q. Yang, L. Zhang, X. Tang, and H.-J. Zhang, "Discriminant analysis with tensor representation," in Proc. IEEE Conference on Computer Vision and Pattern Recognition, vol. I, June 2005, pp. 526–532.
  10. 10.0 10.1 P. M. Kroonenberg and J. de Leeuw, Principal component analysis of three-mode data by means of alternating least squares algorithms, Psychometrika, 45 (1980), pp. 69–97.
  11. 11.0 11.1 11.2 M. A. O. Vasilescu, D. Terzopoulos (2005) "Multilinear Independent Component Analysis", "Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR’05), San Diego, CA, June 2005, vol.1, 547–553."
  12. M.A.O. Vasilescu, D. Terzopoulos (2004) "TensorTextures: Multilinear Image-Based Rendering", M. A. O. Vasilescu and D. Terzopoulos, Proc. ACM SIGGRAPH 2004 Conference Los Angeles, CA, August, 2004, in Computer Graphics Proceedings, Annual Conference Series, 2004, 336–342.
  13. 13.0 13.1 H. Lu, K. N. Plataniotis, and A. N. Venetsanopoulos, "MPCA: Multilinear principal component analysis of tensor objects," IEEE Trans. Neural Netw., vol. 19, no. 1, pp. 18–39, January 2008.
  14. D. Tao, X. Li, X. Wu, and S. J. Maybank, "General tensor discriminant analysis and gabor features for gait recognition," IEEE Trans. Pattern Anal. Mach. Intell., vol. 29, no. 10, pp. 1700–1715, October 2007.
  15. H. Lu, K. N. Plataniotis, and A. N. Venetsanopoulos, "Uncorrelated multilinear discriminant analysis with regularization and aggregation for tensor object recognition," IEEE Trans. Neural Netw., vol. 20, no. 1, pp. 103–123, January 2009.
  16. T.-K. Kim and R. Cipolla. "Canonical correlation analysis of video volume tensors for action categorization and detection," IEEE Trans. Pattern Anal. Mach. Intell., vol. 31, no. 8, pp. 1415–1428, 2009.
  17. H. Lu, "Learning Canonical Correlations of Paired Tensor Sets via Tensor-to-Vector Projection," Proceedings of the 23rd International Joint Conference on Artificial Intelligence (IJCAI 2013), Beijing, China, August 3–9, 2013.
  18. Khan, Suleiman A.; Kaski, Samuel (2014-09-15). Calders, Toon; Esposito, Floriana; Hüllermeier, Eyke; Meo, Rosa (eds.). डेटाबेस में मशीन लर्निंग और ज्ञान की खोज. Lecture Notes in Computer Science (in English). Springer Berlin Heidelberg. pp. 656–671. doi:10.1007/978-3-662-44848-9_42. ISBN 9783662448472.
  19. 19.0 19.1 L.D. Lathauwer, B.D. Moor, J. Vandewalle, A multilinear singular value decomposition, SIAM Journal of Matrix Analysis and Applications vol. 21, no. 4, pp. 1253–1278, 2000
  20. Ledyard R Tucker (September 1966). "Some mathematical notes on three-mode factor analysis". Psychometrika. 31 (3): 279–311. doi:10.1007/BF02289464. PMID 5221127. S2CID 44301099.
  21. J. D. Carroll & J. Chang (1970). "Analysis of individual differences in multidimensional scaling via an n-way generalization of 'Eckart–Young' decomposition". Psychometrika. 35 (3): 283–319. doi:10.1007/BF02310791. S2CID 50364581.
  22. R. A. Harshman, Foundations of the PARAFAC procedure: Models and conditions for an "explanatory" multi-modal factor analysis Archived 2004-10-10 at the Wayback Machine. UCLA Working Papers in Phonetics, 16, pp. 1–84, 1970.
  23. L. D. Lathauwer, B. D. Moor, J. Vandewalle, On the best rank-1 and rank-(R1, R2, ..., RN ) approximation of higher-order tensors, SIAM Journal of Matrix Analysis and Applications 21 (4) (2000) 1324–1342.