बहुरेखीय उपस्थान लर्निंग: Difference between revisions
No edit summary |
No edit summary |
||
Line 1: | Line 1: | ||
{{short description|Approach to dimensionality reduction}} | {{short description|Approach to dimensionality reduction}} | ||
[[File:Video represented as a third-order tensor.jpg|right|thumb|300px|मल्टीलीनियर | [[File:Video represented as a third-order tensor.jpg|right|thumb|300px|मल्टीलीनियर उपस्थान लर्निंग के लिए कॉलम x पंक्ति x समय के तीसरे क्रम के टेंसर के रूप में दर्शाया गया एक वीडियो या छवि अनुक्रम।]] | ||
मल्टीलिनियर उपस्थान लर्निंग डेटा निर्माण के कारण कारक को सुलझाने और आयामीता में कमी करने के लिए एक दृष्टिकोण है।<ref name="Vasilescu2003">M. A. O. Vasilescu, D. Terzopoulos (2003) [http://www.cs.toronto.edu/~maov/tensorfaces/cvpr03.pdf "Multilinear Subspace Analysis of Image Ensembles"], "Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR’03), Madison, WI, June, 2003"</ref><ref name="Vasilescu2002tensorfaces">M. A. O. Vasilescu, D. Terzopoulos (2002) [http://www.cs.toronto.edu/~maov/tensorfaces/Springer%20ECCV%202002_files/eccv02proceeding_23500447.pdf "Multilinear Analysis of Image Ensembles: TensorFaces"], Proc. 7th European Conference on Computer Vision (ECCV'02), Copenhagen, Denmark, May, 2002</ref><ref name="Vasilescu2002hms">M. A. O. Vasilescu,(2002) [http://www.media.mit.edu/~maov/motionsignatures/hms_icpr02_corrected.pdf "Human Motion Signatures: Analysis, Synthesis, Recognition"], "Proceedings of International Conference on Pattern Recognition (ICPR 2002), Vol. 3, Quebec City, Canada, Aug, 2002, 456–460."</ref><ref name="Vasilescu2007">{{cite conference | |||
|first1=M.A.O. |last1=Vasilescu | |||
|first2=D. |last2=Terzopoulos | |||
|title=Multilinear Projection for Appearance-Based Recognition in the Tensor Framework | |||
|conference=IEEE 11th [[International Conference on Computer Vision]] | |||
|pages=1–8 |year=2007 | |||
|doi=10.1109/ICCV.2007.4409067 | |||
}}. | |||
</ref><ref name="MSLbook">{{cite book | |||
|first1=Haiping |last1=Lu | |first1=Haiping |last1=Lu | ||
|first2=K.N. |last2=Plataniotis | |first2=K.N. |last2=Plataniotis | ||
Line 10: | Line 21: | ||
|isbn=978-1-4398572-4-3 | |isbn=978-1-4398572-4-3 | ||
|year=2013 | |year=2013 | ||
}}</ref> | }}</ref> आयामीता में कमी एक डेटा टेंसर पर की जा सकती है जिसमें उन अवलोकनों का संग्रह होता है जिन्हें वेक्टरकृत किया गया है<ref name="Vasilescu2003" /> या वे अवलोकन जिन्हें आव्यूह के रूप में माना जाता है और डेटा टेंसर में संयोजित किया जाता है।<ref name="MSLsurvey">{{cite journal | ||
|first1=Haiping |last1=Lu | |first1=Haiping |last1=Lu | ||
|first2=K.N. |last2=Plataniotis | |first2=K.N. |last2=Plataniotis | ||
Line 20: | Line 31: | ||
|doi=10.1016/j.patcog.2011.01.004 | |doi=10.1016/j.patcog.2011.01.004 | ||
|bibcode=2011PatRe..44.1540L | |bibcode=2011PatRe..44.1540L | ||
}}</ref><ref name="TSAnips">X. He, D. Cai, P. Niyogi, [http://books.nips.cc/papers/files/nips18/NIPS2005_0249.pdf Tensor subspace analysis], in: [[Advances in Neural Information Processing Systems]]c 18 (NIPS), 2005.</ref> यहां डेटा टेंसर के कुछ उदाहरण दिए गए हैं जिनके अवलोकन वेक्टरकृत हैं या जिनके अवलोकन डेटा टेंसर | }}</ref><ref name="TSAnips">X. He, D. Cai, P. Niyogi, [http://books.nips.cc/papers/files/nips18/NIPS2005_0249.pdf Tensor subspace analysis], in: [[Advances in Neural Information Processing Systems]]c 18 (NIPS), 2005.</ref> यहां डेटा टेंसर के कुछ उदाहरण दिए गए हैं जिनके अवलोकन वेक्टरकृत हैं या जिनके अवलोकन डेटा टेंसर छवियों (2D/3D), वीडियो अनुक्रम (3D/4D), और हाइपरस्पेक्ट्रल क्यूब्स (3D/4D) में संयोजित आव्यूह हैं। | ||
उच्च-आयामी | उच्च-आयामी सदिश समिष्ट से निम्न-आयामी सदिश समिष्ट के सेट तक मैपिंग एक बहुरेखीय प्रक्षेपण है।<ref name="Vasilescu2007" /> जब अवलोकनों को आव्यूह या उच्च क्रम के टेंसर के समान संगठनात्मक संरचना में बनाए रखा जाता है, तो उनके प्रतिनिधित्व की गणना स्तम्भ स्थान पंक्ति स्थान और फाइबर समिष्ट में रैखिक अनुमानों का प्रदर्शन करके की जाती है।<ref name="MSLsurvey" /> | ||
मल्टीलिनियर उपस्थान लर्निंग एल्गोरिदम, प्रमुख घटक विश्लेषण (पीसीए), स्वतंत्र घटक विश्लेषण (आईसीए), रैखिक विभेदक विश्लेषण (एलडीए) और कैनोनिकल सहसंबंध विश्लेषण (सीसीए) जैसे रैखिक उपस्थान सीखने के विधि के उच्च-क्रम के सामान्यीकरण हैं। | |||
== पृष्ठभूमि == | == पृष्ठभूमि == | ||
बहुरेखीय विधियाँ प्रकृति में कारणात्मक हो सकती हैं और कारणात्मक अनुमान लगा सकती हैं, या वे सरल प्रतिगमन विधियाँ हो सकती हैं जिनसे कोई कारणात्मक निष्कर्ष नहीं निकाला जाता है। | बहुरेखीय विधियाँ प्रकृति में कारणात्मक हो सकती हैं और कारणात्मक अनुमान लगा सकती हैं, या वे सरल प्रतिगमन विधियाँ हो सकती हैं जिनसे कोई कारणात्मक निष्कर्ष नहीं निकाला जाता है। | ||
रैखिक उप-स्थान शिक्षण एल्गोरिदम पारंपरिक आयामी कमी तकनीकें हैं जो डेटासेट के लिए उपयुक्त हैं जो एकल कारण कारक को बदलने का परिणाम हैं। दुर्भाग्य से | रैखिक उप-स्थान शिक्षण एल्गोरिदम पारंपरिक आयामी कमी तकनीकें हैं जो डेटासेट के लिए उपयुक्त हैं जो एकल कारण कारक को बदलने का परिणाम हैं। दुर्भाग्य से वे अधिकांशतः उन डेटासेट से निपटने में अपर्याप्त हो जाते हैं जो अनेक कारण कारकों का परिणाम होते हैं। . | ||
मल्टीलिनियर उपस्थान लर्निंग को उन अवलोकनों पर क्रियान्वित किया जा सकता है जिनके माप को कारणात्मक रूप से जागरूक आयामी कमी के लिए डेटा टेंसर में वेक्टरकृत और व्यवस्थित किया गया था,<ref name="Vasilescu2003"/> जब अवलोकनों को एक आव्युह (अथार्त स्वतंत्र स्तंभ/पंक्ति अवलोकनों का संग्रह) के रूप में माना जाता है और एक टेंसर में संयोजित किया जाता है, तब कारण कारकों की परवाह किए बिना क्षैतिज और ऊर्ध्वाधर अतिरेक को कम करने के लिए भी इन विधि को नियोजित किया जा सकता है।<ref>{{cite web |title=टेन्सर-आधारित संगणना और मॉडलिंग में भविष्य की दिशाएँ|date=May 2009|url=http://www.cs.cornell.edu/cv/tenwork/finalreport.pdf}}</ref><ref name="DATER">S. Yan, D. Xu, Q. Yang, L. Zhang, X. Tang, and H.-J. Zhang, "[http://portal.acm.org/citation.cfm?id=1068959 Discriminant analysis with tensor representation]," in Proc. [[IEEE Conference on Computer Vision and Pattern Recognition]], vol. I, June 2005, pp. 526–532.</ref> | |||
== एल्गोरिदम == | == एल्गोरिदम == | ||
=== [[बहुरेखीय प्रमुख घटक विश्लेषण]] === | === [[बहुरेखीय प्रमुख घटक विश्लेषण]] === | ||
ऐतिहासिक रूप से, बहुरेखीय प्रमुख घटक विश्लेषण को एम-मोड पीसीए के रूप में संदर्भित किया गया है, एक शब्दावली जिसे पीटर क्रूनबर्ग द्वारा गढ़ा गया था।<ref name="Kroonenberg1980">P. M. Kroonenberg and J. de Leeuw, [https://doi.org/10.1007%2FBF02293599 Principal component analysis of three-mode data by means of alternating least squares algorithms], Psychometrika, 45 (1980), pp. 69–97.</ref> 2005 में, वासिलेस्कु और [[ | ऐतिहासिक रूप से, बहुरेखीय प्रमुख घटक विश्लेषण को "एम-मोड पीसीए" के रूप में संदर्भित किया गया है, एक शब्दावली जिसे पीटर क्रूनबर्ग द्वारा गढ़ा गया था।<ref name="Kroonenberg1980">P. M. Kroonenberg and J. de Leeuw, [https://doi.org/10.1007%2FBF02293599 Principal component analysis of three-mode data by means of alternating least squares algorithms], Psychometrika, 45 (1980), pp. 69–97.</ref> 2005 में, वासिलेस्कु और टेरज़ोपोलोस ने मल्टीलिनियर पीसीए शब्दावली को मल्टीलाइनियर टेन्सर डीकंपोज़िशन के बीच उत्तम अंतर करने के विधि के रूप में प्रस्तुत किया गया था जो प्रत्येक डेटा टेन्सर मोड से जुड़े दूसरे क्रम के आँकड़ों की गणना करता है, [1] [2] [3] [12] [13 ] और मल्टीलिनियर इंडिपेंडेंट कंपोनेंट एनालिसिस पर बाद का काम था<ref name="MPCA-MICA2005">M. A. O. Vasilescu, D. Terzopoulos (2005) [http://www.media.mit.edu/~maov/mica/mica05.pdf "Multilinear Independent Component Analysis"], "Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR’05), San Diego, CA, June 2005, vol.1, 547–553."</ref> जिसमें प्रत्येक टेंसर मोड के लिए उच्च क्रम के आंकड़ों की गणना की गई। एमपीसीए पीसीए का विस्तार है। | ||
=== [[बहुरेखीय स्वतंत्र घटक विश्लेषण]] === | === [[बहुरेखीय स्वतंत्र घटक विश्लेषण]] === | ||
Line 52: | Line 53: | ||
=== बहुरेखीय रैखिक विभेदक विश्लेषण === | === बहुरेखीय रैखिक विभेदक विश्लेषण === | ||
*रैखिक विभेदक विश्लेषण का बहुरेखीय विस्तार | *रैखिक विभेदक विश्लेषण का बहुरेखीय विस्तार | ||
**टीटीपी-आधारित: टेन्सर प्रतिनिधित्व के साथ विभेदक विश्लेषण (डेटर)<ref name="DATER"/>**टीटीपी-आधारित: सामान्य टेंसर विभेदक विश्लेषण (जीटीडीए)<ref>D. Tao, X. Li, X. Wu, and S. J. Maybank, "[https://dx.doi.org/10.1109/TPAMI.2007.1096 | **टीटीपी-आधारित: टेन्सर प्रतिनिधित्व के साथ विभेदक विश्लेषण (डेटर)<ref name="DATER"/> | ||
**टीटीपी-आधारित: सामान्य टेंसर विभेदक विश्लेषण (जीटीडीए)<ref>D. Tao, X. Li, X. Wu, and S. J. Maybank, "[https://dx.doi.org/10.1109/TPAMI.2007.1096 General tensor discriminant analysis and gabor features for gait recognition]," IEEE Trans. Pattern Anal. Mach. Intell., vol. 29, no. 10, pp. 1700–1715, October 2007.</ref> | |||
**टीवीपी-आधारित: असंबद्ध बहुरेखीय विभेदक विश्लेषण (यूएमएलडीए)<ref>H. Lu, K. N. Plataniotis, and A. N. Venetsanopoulos, "[https://dx.doi.org/10.1109/TNN.2008.2004625 Uncorrelated multilinear discriminant analysis with regularization and aggregation for tensor object recognition]," IEEE Trans. Neural Netw., vol. 20, no. 1, pp. 103–123, January 2009.</ref> | **टीवीपी-आधारित: असंबद्ध बहुरेखीय विभेदक विश्लेषण (यूएमएलडीए)<ref>H. Lu, K. N. Plataniotis, and A. N. Venetsanopoulos, "[https://dx.doi.org/10.1109/TNN.2008.2004625 Uncorrelated multilinear discriminant analysis with regularization and aggregation for tensor object recognition]," IEEE Trans. Neural Netw., vol. 20, no. 1, pp. 103–123, January 2009.</ref> | ||
=== बहुरेखीय [[विहित सहसंबंध विश्लेषण]] === | === बहुरेखीय [[विहित सहसंबंध विश्लेषण]] === | ||
*विहित सहसंबंध विश्लेषण का बहुरेखीय विस्तार | *विहित सहसंबंध विश्लेषण का बहुरेखीय विस्तार | ||
Line 62: | Line 62: | ||
**टीवीपी-आधारित: मल्टीलिनियर कैनोनिकल सहसंबंध विश्लेषण (एमसीसीए)<ref>H. Lu, "[http://www.dsp.utoronto.ca/~haiping/Publication/MCCA_IJCAI2013.pdf Learning Canonical Correlations of Paired Tensor Sets via Tensor-to-Vector Projection]," Proceedings of the 23rd International Joint Conference on Artificial Intelligence (IJCAI 2013), Beijing, China, August 3–9, 2013.</ref> | **टीवीपी-आधारित: मल्टीलिनियर कैनोनिकल सहसंबंध विश्लेषण (एमसीसीए)<ref>H. Lu, "[http://www.dsp.utoronto.ca/~haiping/Publication/MCCA_IJCAI2013.pdf Learning Canonical Correlations of Paired Tensor Sets via Tensor-to-Vector Projection]," Proceedings of the 23rd International Joint Conference on Artificial Intelligence (IJCAI 2013), Beijing, China, August 3–9, 2013.</ref> | ||
**टीवीपी-आधारित: बायेसियन मल्टीलिनियर कैनोनिकल सहसंबंध विश्लेषण (बीएमटीएफ)<ref>{{Cite book|title=डेटाबेस में मशीन लर्निंग और ज्ञान की खोज|last1=Khan|first1=Suleiman A.|last2=Kaski|first2=Samuel|date=2014-09-15|publisher=Springer Berlin Heidelberg|isbn=9783662448472|editor-last=Calders|editor-first=Toon|series=Lecture Notes in Computer Science|pages=656–671|language=en|doi=10.1007/978-3-662-44848-9_42|editor-last2=Esposito|editor-first2=Floriana|editor-last3=Hüllermeier|editor-first3=Eyke|editor-last4=Meo|editor-first4=Rosa}}</ref> | **टीवीपी-आधारित: बायेसियन मल्टीलिनियर कैनोनिकल सहसंबंध विश्लेषण (बीएमटीएफ)<ref>{{Cite book|title=डेटाबेस में मशीन लर्निंग और ज्ञान की खोज|last1=Khan|first1=Suleiman A.|last2=Kaski|first2=Samuel|date=2014-09-15|publisher=Springer Berlin Heidelberg|isbn=9783662448472|editor-last=Calders|editor-first=Toon|series=Lecture Notes in Computer Science|pages=656–671|language=en|doi=10.1007/978-3-662-44848-9_42|editor-last2=Esposito|editor-first2=Floriana|editor-last3=Hüllermeier|editor-first3=Eyke|editor-last4=Meo|editor-first4=Rosa}}</ref> | ||
*टीटीपी एक उच्च-आयामी टेंसर का उसी क्रम के निम्न-आयामी टेंसर पर सीधा प्रक्षेपण है, जो | *टीटीपी एक उच्च-आयामी टेंसर का उसी क्रम के निम्न-आयामी टेंसर पर सीधा प्रक्षेपण है, जो एन-ऑर्डर टेंसर के लिए n प्रक्षेपण आव्यूह का उपयोग करता है। इसे n चरणों में निष्पादित किया जा सकता है, प्रत्येक चरण में टेंसर-आव्यूह गुणन (उत्पाद) निष्पादित किया जा सकता है। n चरण विनिमय योग्य हैं।<ref name="HOSVD">L.D. Lathauwer, B.D. Moor, J. Vandewalle, [http://portal.acm.org/citation.cfm?id=354398 A multilinear singular value decomposition], SIAM Journal of Matrix Analysis and Applications vol. 21, no. 4, pp. 1253–1278, 2000</ref> यह प्रक्षेपण उप-स्थानीय सीखने के लिए उच्च-क्रम एकवचन मूल्य अपघटन <ref name="HOSVD" /> (एचओएसवीडी) का विस्तार है।<ref name="MPCA-Lu2008">H. Lu, K. N. Plataniotis, and A. N. Venetsanopoulos, "[https://dx.doi.org/10.1109/TNN.2007.901277 MPCA: Multilinear principal component analysis of tensor objects]," IEEE Trans. Neural Netw., vol. 19, no. 1, pp. 18–39, January 2008.</ref> इसलिए, इसकी उत्पत्ति 1960 के दशक में टकर अपघटन<ref>{{Cite journal | ||
| author = Ledyard R Tucker | | author = Ledyard R Tucker | ||
| title = Some mathematical notes on three-mode factor analysis | | title = Some mathematical notes on three-mode factor analysis | ||
Line 74: | Line 74: | ||
| s2cid = 44301099 | | s2cid = 44301099 | ||
| author-link = Ledyard R Tucker | | author-link = Ledyard R Tucker | ||
}}</ref> | }}</ref> से मानी जाती है। | ||
*टीवीपी एक उच्च-आयामी टेंसर का निम्न-आयामी सदिश पर सीधा प्रक्षेपण है, जिसे रैंक-वन अनुमान भी कहा जाता है। चूंकि टीवीपी एक टेन्सर को एक सदिश में प्रोजेक्ट करता है इसे एक टेन्सर से अदिश तक अनेक प्रक्षेपणों के रूप में देखा जा सकता है। इस प्रकार | *टीवीपी एक उच्च-आयामी टेंसर का निम्न-आयामी सदिश पर सीधा प्रक्षेपण है, जिसे रैंक-वन अनुमान भी कहा जाता है। चूंकि टीवीपी एक टेन्सर को एक सदिश में प्रोजेक्ट करता है इसे एक टेन्सर से अदिश तक अनेक प्रक्षेपणों के रूप में देखा जा सकता है। इस प्रकार p-आयामी सदिश के लिए एक टेंसर के टीवीपी में टेंसर से अदिश तक p प्रक्षेपण सम्मिलित होते हैं। टेंसर से अदिश तक प्रक्षेपण एक प्राथमिक बहुरेखीय प्रक्षेपण (ईएमपी) है। ईएमपी में, एक टेंसर को n यूनिट प्रोजेक्शन सदिश के माध्यम से एक बिंदु पर प्रक्षेपित किया जाता है। यह एक एकल रेखा पर एक टेंसर का प्रक्षेपण है (जिसके परिणामस्वरूप एक अदिश राशि होती है), प्रत्येक मोड में एक प्रक्षेपण सदिश होता है। इस प्रकार, p-आयामी सदिश समिष्ट में एक सदिश के लिए एक टेंसर ऑब्जेक्ट के टीवीपी में p ईएमपी होते हैं। यह प्रक्षेपण [[सीपी अपघटन]] का विस्तार है,<ref>{{Cite journal | ||
| author = J. D. Carroll & J. Chang | | author = J. D. Carroll & J. Chang | ||
| title = Analysis of individual differences in multidimensional scaling via an ''n''-way generalization of 'Eckart–Young' decomposition | | title = Analysis of individual differences in multidimensional scaling via an ''n''-way generalization of 'Eckart–Young' decomposition | ||
Line 88: | Line 88: | ||
}}</ref> इसे [[पैराफैक]] (पीएआरएएफएसी) अपघटन के रूप में भी जाना जाता है।<ref>R. A. Harshman, [http://publish.uwo.ca/~harshman/wpppfac0.pdf Foundations of the PARAFAC procedure: Models and conditions for an "explanatory" multi-modal factor analysis] {{webarchive|url=https://web.archive.org/web/20041010092429/http://publish.uwo.ca/~harshman/wpppfac0.pdf |date=2004-10-10 }}. UCLA Working Papers in Phonetics, 16, pp. 1–84, 1970.</ref> | }}</ref> इसे [[पैराफैक]] (पीएआरएएफएसी) अपघटन के रूप में भी जाना जाता है।<ref>R. A. Harshman, [http://publish.uwo.ca/~harshman/wpppfac0.pdf Foundations of the PARAFAC procedure: Models and conditions for an "explanatory" multi-modal factor analysis] {{webarchive|url=https://web.archive.org/web/20041010092429/http://publish.uwo.ca/~harshman/wpppfac0.pdf |date=2004-10-10 }}. UCLA Working Papers in Phonetics, 16, pp. 1–84, 1970.</ref> | ||
=== एमएसएल में विशिष्ट दृष्टिकोण === | === एमएसएल में विशिष्ट दृष्टिकोण === | ||
हल करने के लिए मापदंडों के | हल करने के लिए मापदंडों के n समूह हैं प्रत्येक मोड में एक। एक समूह का समाधान अधिकांशतः दूसरे समूह पर निर्भर करता है (सिवाय जब N=1, रैखिक स्थितिया )। इसलिए उप-इष्टतम पुनरावृत्तीय प्रक्रिया<ref>L. D. Lathauwer, B. D. Moor, J. Vandewalle, [http://portal.acm.org/citation.cfm?id=354405 On the best rank-1 and rank-(R1, R2, ..., RN ) approximation of higher-order tensors], SIAM Journal of Matrix Analysis and Applications 21 (4) (2000) 1324–1342.</ref> पीछा किया जाता है। | ||
#प्रत्येक मोड में अनुमानों का आरंभीकरण | #प्रत्येक मोड में अनुमानों का आरंभीकरण | ||
#प्रत्येक मोड के लिए अन्य सभी मोड में प्रक्षेपण को ठीक करें और वर्तमान मोड में प्रक्षेपण के लिए समाधान | #प्रत्येक मोड के लिए अन्य सभी मोड में प्रक्षेपण को ठीक करें और वर्तमान मोड में प्रक्षेपण के लिए समाधान करता है । | ||
#कुछ पुनरावृत्तियों के लिए या अभिसरण तक मोड-वार अनुकूलन | #कुछ पुनरावृत्तियों के लिए या अभिसरण तक मोड-वार अनुकूलन करता है । | ||
यह मल्टी-वे डेटा विश्लेषण के लिए वैकल्पिक न्यूनतम वर्ग विधि से उत्पन्न हुआ है।<ref name="Kroonenberg1980"/> | यह मल्टी-वे डेटा विश्लेषण के लिए वैकल्पिक न्यूनतम वर्ग विधि से उत्पन्न हुआ है।<ref name="Kroonenberg1980"/> | ||
== कोड == | == कोड == | ||
* | * सैंडिया नेशनल लेबोरेटरीज द्वारा मैटलैब टेंसर टूलबॉक्स। | ||
* [http://www.mathworks.com/matlabcentral/fileexchange/26168 एमपीसीए एल्गोरिदम मैटलैब में लिखा गया है (एमपीसीए+एलडीए | * [http://www.mathworks.com/matlabcentral/fileexchange/26168 एमपीसीए एल्गोरिदम मैटलैब में लिखा गया है (एमपीसीए+एलडीए सम्मिलित )]। | ||
* [http://www.mathworks.com/matlabcentral/fileexchange/35432 | * [http://www.mathworks.com/matlabcentral/fileexchange/35432 यूएमपीसीए एल्गोरिथम मैटलैब में लिखा गया है (डेटा सम्मिलित )]। | ||
* [http://www.mathworks.fr/matlabcentral/fileexchange/35782 मैटलैब में लिखा गया यूएमएलडीए एल्गोरिदम (डेटा | * [http://www.mathworks.fr/matlabcentral/fileexchange/35782 मैटलैब में लिखा गया यूएमएलडीए एल्गोरिदम (डेटा सम्मिलित )]। | ||
== टेंसर डेटा समूह == | == टेंसर डेटा समूह == |
Revision as of 21:13, 12 July 2023
मल्टीलिनियर उपस्थान लर्निंग डेटा निर्माण के कारण कारक को सुलझाने और आयामीता में कमी करने के लिए एक दृष्टिकोण है।[1][2][3][4][5] आयामीता में कमी एक डेटा टेंसर पर की जा सकती है जिसमें उन अवलोकनों का संग्रह होता है जिन्हें वेक्टरकृत किया गया है[1] या वे अवलोकन जिन्हें आव्यूह के रूप में माना जाता है और डेटा टेंसर में संयोजित किया जाता है।[6][7] यहां डेटा टेंसर के कुछ उदाहरण दिए गए हैं जिनके अवलोकन वेक्टरकृत हैं या जिनके अवलोकन डेटा टेंसर छवियों (2D/3D), वीडियो अनुक्रम (3D/4D), और हाइपरस्पेक्ट्रल क्यूब्स (3D/4D) में संयोजित आव्यूह हैं।
उच्च-आयामी सदिश समिष्ट से निम्न-आयामी सदिश समिष्ट के सेट तक मैपिंग एक बहुरेखीय प्रक्षेपण है।[4] जब अवलोकनों को आव्यूह या उच्च क्रम के टेंसर के समान संगठनात्मक संरचना में बनाए रखा जाता है, तो उनके प्रतिनिधित्व की गणना स्तम्भ स्थान पंक्ति स्थान और फाइबर समिष्ट में रैखिक अनुमानों का प्रदर्शन करके की जाती है।[6]
मल्टीलिनियर उपस्थान लर्निंग एल्गोरिदम, प्रमुख घटक विश्लेषण (पीसीए), स्वतंत्र घटक विश्लेषण (आईसीए), रैखिक विभेदक विश्लेषण (एलडीए) और कैनोनिकल सहसंबंध विश्लेषण (सीसीए) जैसे रैखिक उपस्थान सीखने के विधि के उच्च-क्रम के सामान्यीकरण हैं।
पृष्ठभूमि
बहुरेखीय विधियाँ प्रकृति में कारणात्मक हो सकती हैं और कारणात्मक अनुमान लगा सकती हैं, या वे सरल प्रतिगमन विधियाँ हो सकती हैं जिनसे कोई कारणात्मक निष्कर्ष नहीं निकाला जाता है।
रैखिक उप-स्थान शिक्षण एल्गोरिदम पारंपरिक आयामी कमी तकनीकें हैं जो डेटासेट के लिए उपयुक्त हैं जो एकल कारण कारक को बदलने का परिणाम हैं। दुर्भाग्य से वे अधिकांशतः उन डेटासेट से निपटने में अपर्याप्त हो जाते हैं जो अनेक कारण कारकों का परिणाम होते हैं। .
मल्टीलिनियर उपस्थान लर्निंग को उन अवलोकनों पर क्रियान्वित किया जा सकता है जिनके माप को कारणात्मक रूप से जागरूक आयामी कमी के लिए डेटा टेंसर में वेक्टरकृत और व्यवस्थित किया गया था,[1] जब अवलोकनों को एक आव्युह (अथार्त स्वतंत्र स्तंभ/पंक्ति अवलोकनों का संग्रह) के रूप में माना जाता है और एक टेंसर में संयोजित किया जाता है, तब कारण कारकों की परवाह किए बिना क्षैतिज और ऊर्ध्वाधर अतिरेक को कम करने के लिए भी इन विधि को नियोजित किया जा सकता है।[8][9]
एल्गोरिदम
बहुरेखीय प्रमुख घटक विश्लेषण
ऐतिहासिक रूप से, बहुरेखीय प्रमुख घटक विश्लेषण को "एम-मोड पीसीए" के रूप में संदर्भित किया गया है, एक शब्दावली जिसे पीटर क्रूनबर्ग द्वारा गढ़ा गया था।[10] 2005 में, वासिलेस्कु और टेरज़ोपोलोस ने मल्टीलिनियर पीसीए शब्दावली को मल्टीलाइनियर टेन्सर डीकंपोज़िशन के बीच उत्तम अंतर करने के विधि के रूप में प्रस्तुत किया गया था जो प्रत्येक डेटा टेन्सर मोड से जुड़े दूसरे क्रम के आँकड़ों की गणना करता है, [1] [2] [3] [12] [13 ] और मल्टीलिनियर इंडिपेंडेंट कंपोनेंट एनालिसिस पर बाद का काम था[11] जिसमें प्रत्येक टेंसर मोड के लिए उच्च क्रम के आंकड़ों की गणना की गई। एमपीसीए पीसीए का विस्तार है।
बहुरेखीय स्वतंत्र घटक विश्लेषण
बहुरेखीय स्वतंत्र घटक विश्लेषण[11]स्वतंत्र घटक विश्लेषण का विस्तार है।
बहुरेखीय रैखिक विभेदक विश्लेषण
- रैखिक विभेदक विश्लेषण का बहुरेखीय विस्तार
बहुरेखीय विहित सहसंबंध विश्लेषण
- विहित सहसंबंध विश्लेषण का बहुरेखीय विस्तार
- टीटीपी एक उच्च-आयामी टेंसर का उसी क्रम के निम्न-आयामी टेंसर पर सीधा प्रक्षेपण है, जो एन-ऑर्डर टेंसर के लिए n प्रक्षेपण आव्यूह का उपयोग करता है। इसे n चरणों में निष्पादित किया जा सकता है, प्रत्येक चरण में टेंसर-आव्यूह गुणन (उत्पाद) निष्पादित किया जा सकता है। n चरण विनिमय योग्य हैं।[17] यह प्रक्षेपण उप-स्थानीय सीखने के लिए उच्च-क्रम एकवचन मूल्य अपघटन [17] (एचओएसवीडी) का विस्तार है।[18] इसलिए, इसकी उत्पत्ति 1960 के दशक में टकर अपघटन[19] से मानी जाती है।
- टीवीपी एक उच्च-आयामी टेंसर का निम्न-आयामी सदिश पर सीधा प्रक्षेपण है, जिसे रैंक-वन अनुमान भी कहा जाता है। चूंकि टीवीपी एक टेन्सर को एक सदिश में प्रोजेक्ट करता है इसे एक टेन्सर से अदिश तक अनेक प्रक्षेपणों के रूप में देखा जा सकता है। इस प्रकार p-आयामी सदिश के लिए एक टेंसर के टीवीपी में टेंसर से अदिश तक p प्रक्षेपण सम्मिलित होते हैं। टेंसर से अदिश तक प्रक्षेपण एक प्राथमिक बहुरेखीय प्रक्षेपण (ईएमपी) है। ईएमपी में, एक टेंसर को n यूनिट प्रोजेक्शन सदिश के माध्यम से एक बिंदु पर प्रक्षेपित किया जाता है। यह एक एकल रेखा पर एक टेंसर का प्रक्षेपण है (जिसके परिणामस्वरूप एक अदिश राशि होती है), प्रत्येक मोड में एक प्रक्षेपण सदिश होता है। इस प्रकार, p-आयामी सदिश समिष्ट में एक सदिश के लिए एक टेंसर ऑब्जेक्ट के टीवीपी में p ईएमपी होते हैं। यह प्रक्षेपण सीपी अपघटन का विस्तार है,[20] इसे पैराफैक (पीएआरएएफएसी) अपघटन के रूप में भी जाना जाता है।[21]
एमएसएल में विशिष्ट दृष्टिकोण
हल करने के लिए मापदंडों के n समूह हैं प्रत्येक मोड में एक। एक समूह का समाधान अधिकांशतः दूसरे समूह पर निर्भर करता है (सिवाय जब N=1, रैखिक स्थितिया )। इसलिए उप-इष्टतम पुनरावृत्तीय प्रक्रिया[22] पीछा किया जाता है।
- प्रत्येक मोड में अनुमानों का आरंभीकरण
- प्रत्येक मोड के लिए अन्य सभी मोड में प्रक्षेपण को ठीक करें और वर्तमान मोड में प्रक्षेपण के लिए समाधान करता है ।
- कुछ पुनरावृत्तियों के लिए या अभिसरण तक मोड-वार अनुकूलन करता है ।
यह मल्टी-वे डेटा विश्लेषण के लिए वैकल्पिक न्यूनतम वर्ग विधि से उत्पन्न हुआ है।[10]
कोड
- सैंडिया नेशनल लेबोरेटरीज द्वारा मैटलैब टेंसर टूलबॉक्स।
- एमपीसीए एल्गोरिदम मैटलैब में लिखा गया है (एमपीसीए+एलडीए सम्मिलित )।
- यूएमपीसीए एल्गोरिथम मैटलैब में लिखा गया है (डेटा सम्मिलित )।
- मैटलैब में लिखा गया यूएमएलडीए एल्गोरिदम (डेटा सम्मिलित )।
टेंसर डेटा समूह
- 3डी चाल डेटा (तीसरे क्रम के टेंसर): 128x88x20(21.2M); 64x44x20(9.9M); 32x22x10(3.2M);
यह भी देखें
- सीपी अपघटन
- आयाम में कमी
- बहुरेखीय बीजगणित
- बहुरेखीय पीसीए
- टेन्सर
- टेन्सर अपघटन
- टेंसर सॉफ्टवेयर
- टकर अपघटन
संदर्भ
- ↑ 1.0 1.1 1.2 M. A. O. Vasilescu, D. Terzopoulos (2003) "Multilinear Subspace Analysis of Image Ensembles", "Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR’03), Madison, WI, June, 2003"
- ↑ M. A. O. Vasilescu, D. Terzopoulos (2002) "Multilinear Analysis of Image Ensembles: TensorFaces", Proc. 7th European Conference on Computer Vision (ECCV'02), Copenhagen, Denmark, May, 2002
- ↑ M. A. O. Vasilescu,(2002) "Human Motion Signatures: Analysis, Synthesis, Recognition", "Proceedings of International Conference on Pattern Recognition (ICPR 2002), Vol. 3, Quebec City, Canada, Aug, 2002, 456–460."
- ↑ 4.0 4.1 Vasilescu, M.A.O.; Terzopoulos, D. (2007). Multilinear Projection for Appearance-Based Recognition in the Tensor Framework. IEEE 11th International Conference on Computer Vision. pp. 1–8. doi:10.1109/ICCV.2007.4409067..
- ↑ Lu, Haiping; Plataniotis, K.N.; Venetsanopoulos, A.N. (2013). Multilinear Subspace Learning: Dimensionality Reduction of Multidimensional Data. Chapman & Hall/CRC Press Machine Learning and Pattern Recognition Series. Taylor and Francis. ISBN 978-1-4398572-4-3.
- ↑ 6.0 6.1 Lu, Haiping; Plataniotis, K.N.; Venetsanopoulos, A.N. (2011). "A Survey of Multilinear Subspace Learning for Tensor Data" (PDF). Pattern Recognition. 44 (7): 1540–1551. Bibcode:2011PatRe..44.1540L. doi:10.1016/j.patcog.2011.01.004.
- ↑ X. He, D. Cai, P. Niyogi, Tensor subspace analysis, in: Advances in Neural Information Processing Systemsc 18 (NIPS), 2005.
- ↑ "टेन्सर-आधारित संगणना और मॉडलिंग में भविष्य की दिशाएँ" (PDF). May 2009.
- ↑ 9.0 9.1 S. Yan, D. Xu, Q. Yang, L. Zhang, X. Tang, and H.-J. Zhang, "Discriminant analysis with tensor representation," in Proc. IEEE Conference on Computer Vision and Pattern Recognition, vol. I, June 2005, pp. 526–532.
- ↑ 10.0 10.1 P. M. Kroonenberg and J. de Leeuw, Principal component analysis of three-mode data by means of alternating least squares algorithms, Psychometrika, 45 (1980), pp. 69–97.
- ↑ 11.0 11.1 M. A. O. Vasilescu, D. Terzopoulos (2005) "Multilinear Independent Component Analysis", "Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR’05), San Diego, CA, June 2005, vol.1, 547–553."
- ↑ D. Tao, X. Li, X. Wu, and S. J. Maybank, "General tensor discriminant analysis and gabor features for gait recognition," IEEE Trans. Pattern Anal. Mach. Intell., vol. 29, no. 10, pp. 1700–1715, October 2007.
- ↑ H. Lu, K. N. Plataniotis, and A. N. Venetsanopoulos, "Uncorrelated multilinear discriminant analysis with regularization and aggregation for tensor object recognition," IEEE Trans. Neural Netw., vol. 20, no. 1, pp. 103–123, January 2009.
- ↑ T.-K. Kim and R. Cipolla. "Canonical correlation analysis of video volume tensors for action categorization and detection," IEEE Trans. Pattern Anal. Mach. Intell., vol. 31, no. 8, pp. 1415–1428, 2009.
- ↑ H. Lu, "Learning Canonical Correlations of Paired Tensor Sets via Tensor-to-Vector Projection," Proceedings of the 23rd International Joint Conference on Artificial Intelligence (IJCAI 2013), Beijing, China, August 3–9, 2013.
- ↑ Khan, Suleiman A.; Kaski, Samuel (2014-09-15). Calders, Toon; Esposito, Floriana; Hüllermeier, Eyke; Meo, Rosa (eds.). डेटाबेस में मशीन लर्निंग और ज्ञान की खोज. Lecture Notes in Computer Science (in English). Springer Berlin Heidelberg. pp. 656–671. doi:10.1007/978-3-662-44848-9_42. ISBN 9783662448472.
- ↑ 17.0 17.1 L.D. Lathauwer, B.D. Moor, J. Vandewalle, A multilinear singular value decomposition, SIAM Journal of Matrix Analysis and Applications vol. 21, no. 4, pp. 1253–1278, 2000
- ↑ H. Lu, K. N. Plataniotis, and A. N. Venetsanopoulos, "MPCA: Multilinear principal component analysis of tensor objects," IEEE Trans. Neural Netw., vol. 19, no. 1, pp. 18–39, January 2008.
- ↑ Ledyard R Tucker (September 1966). "Some mathematical notes on three-mode factor analysis". Psychometrika. 31 (3): 279–311. doi:10.1007/BF02289464. PMID 5221127. S2CID 44301099.
- ↑ J. D. Carroll & J. Chang (1970). "Analysis of individual differences in multidimensional scaling via an n-way generalization of 'Eckart–Young' decomposition". Psychometrika. 35 (3): 283–319. doi:10.1007/BF02310791. S2CID 50364581.
- ↑ R. A. Harshman, Foundations of the PARAFAC procedure: Models and conditions for an "explanatory" multi-modal factor analysis Archived 2004-10-10 at the Wayback Machine. UCLA Working Papers in Phonetics, 16, pp. 1–84, 1970.
- ↑ L. D. Lathauwer, B. D. Moor, J. Vandewalle, On the best rank-1 and rank-(R1, R2, ..., RN ) approximation of higher-order tensors, SIAM Journal of Matrix Analysis and Applications 21 (4) (2000) 1324–1342.