कर्नेल हिल्बर्ट समष्टि पुनरुत्पादन: Difference between revisions

From Vigyanwiki
(Created page with "{{Short description|In functional analysis, a Hilbert space}} File:Different Views on RKHS.png|thumb|right|चित्र आरकेएचएस को देखने...")
 
No edit summary
 
(14 intermediate revisions by 5 users not shown)
Line 1: Line 1:
{{Short description|In functional analysis, a Hilbert space}}
{{Short description|In functional analysis, a Hilbert space}}
[[File:Different Views on RKHS.png|thumb|right|चित्र आरकेएचएस को देखने के लिए संबंधित लेकिन अलग-अलग दृष्टिकोण दिखाता है]][[कार्यात्मक विश्लेषण]] (गणित की एक शाखा) में, एक पुनरुत्पादन कर्नेल [[ हिल्बर्ट स्थान ]] (आरकेएचएस) कार्यों का एक हिल्बर्ट स्पेस है जिसमें बिंदु मूल्यांकन एक सतत रैखिक [[कार्यात्मक (गणित)]] है। मोटे तौर पर कहें तो इसका मतलब यह है कि यदि दो कार्य करते हैं <math>f</math> और <math>g</math> आरकेएचएस में मानक के करीब हैं, यानी, <math>\|f-g\|</math> तो फिर छोटा है <math>f</math> और <math>g</math> बिंदुवार भी करीब हैं, यानी, <math>|f(x)-g(x)|</math> सबके लिए छोटा है <math>x</math>. बातचीत का सत्य होना आवश्यक नहीं है। अनौपचारिक रूप से, इसे यूनिफ़ॉर्म मानदंड: कार्यों के अनुक्रम को देखकर दिखाया जा सकता है <math>\sin^n (x)</math> बिंदुवार अभिसरण करता है, लेकिन समान अभिसरण नहीं करता है यानी सर्वोच्च मानदंड के संबंध में अभिसरण नहीं करता है (यह एक प्रति उदाहरण नहीं है क्योंकि ध्रुवीकरण पहचान को संतुष्ट नहीं करने के कारण सर्वोच्च मानदंड किसी भी आंतरिक उत्पाद से उत्पन्न नहीं होता है)
[[File:Different Views on RKHS.png|thumb|right|चित्र आरकेएचएस को देखने के लिए संबंधित किन्तु अलग-अलग दृष्टिकोण दिखाता है]][[कार्यात्मक विश्लेषण]] (गणित की एक शाखा) में, एक पुनरुत्पादन '''कर्नेल [[ हिल्बर्ट स्थान | हिल्बर्ट समष्टि]]   (आरकेएचएस)''' फलनों का एक हिल्बर्ट समष्टि है जिसमें बिंदु मूल्यांकन एक सतत रैखिक [[कार्यात्मक (गणित)]] है। मोटे तौर पर कहें तो इसका मतलब यह है कि यदि दो कार्य करते हैं <math>f</math> और <math>g</math> आरकेएचएस में मानक के निकट हैं, अर्थात, <math>\|f-g\|</math> तो फिर छोटा है <math>f</math> और <math>g</math> बिंदुवार भी निकट हैं, अर्थात, <math>|f(x)-g(x)|</math> सबके लिए छोटा है <math>x</math>. बातचीत का सत्य होना आवश्यक नहीं है। इस प्रकार अनौपचारिक रूप से, इसे यूनिफ़ॉर्म मानदंड: फलनों के अनुक्रम को देखकर दिखाया जा सकता है <math>\sin^n (x)</math> बिंदुवार अभिसरण करता है, किन्तु समान अभिसरण नहीं करता है अर्थात सर्वोच्च मानदंड के संबंध में अभिसरण नहीं करता है (यह एक प्रति उदाहरण नहीं है क्योंकि समांतर चतुर्भुज नियम को संतुष्ट करने के कारण सर्वोच्च मानदंड किसी भी आंतरिक उत्पाद से उत्पन्न नहीं होता है।)


फ़ंक्शंस के हिल्बर्ट स्पेस का निर्माण करना पूरी तरह से सरल नहीं है जो आरकेएचएस नहीं है।<ref>Alpay, D., and T. M. Mills. "A family of Hilbert spaces which are not reproducing kernel Hilbert spaces." J. Anal. Appl. 1.2 (2003): 107–111.</ref> हालाँकि, कुछ उदाहरण मिले हैं।<ref> Z. Pasternak-Winiarski, "On weights which admit reproducing kernel of Bergman type", ''International Journal of Mathematics and Mathematical Sciences'', vol. 15, Issue 1, 1992. </ref><ref> T. Ł. Żynda, "On weights which admit reproducing kernel of Szeg¨o type", ''Journal of Contemporary Mathematical Analysis'' (Armenian Academy of Sciences), 55, 2020. </ref>
फलन के हिल्बर्ट समष्टि का निर्माण करना पूरी तरह से सरल नहीं है जो आर.के.एच.एस नहीं है।<ref>Alpay, D., and T. M. Mills. "A family of Hilbert spaces which are not reproducing kernel Hilbert spaces." J. Anal. Appl. 1.2 (2003): 107–111.</ref> चूँकि, कुछ उदाहरण मिले हैं।<ref> Z. Pasternak-Winiarski, "On weights which admit reproducing kernel of Bergman type", ''International Journal of Mathematics and Mathematical Sciences'', vol. 15, Issue 1, 1992. </ref><ref> T. Ł. Żynda, "On weights which admit reproducing kernel of Szeg¨o type", ''Journal of Contemporary Mathematical Analysis'' (Armenian Academy of Sciences), 55, 2020. </ref>
वर्ग-अभिन्न फलन|एल<sup>2</sup> रिक्त स्थान कार्यों के हिल्बर्ट स्थान नहीं हैं (और इसलिए आरकेएचएस नहीं हैं), बल्कि कार्यों के समतुल्य वर्गों के हिल्बर्ट स्थान हैं (उदाहरण के लिए, फ़ंक्शन <math>f</math> और <math>g</math> द्वारा परिभाषित <math>f(x)=0</math> और <math>g(x)=1_{\mathbb{Q}}</math> एल में समतुल्य हैं<sup>2</sup>). हालाँकि, ऐसे आरकेएचएस हैं जिनमें मानक एल है<sup>2</sup>-मानदंड, जैसे बैंड-सीमित कार्यों का स्थान (नीचे उदाहरण देखें)।


आरकेएचएस एक कर्नेल से जुड़ा है जो अंतरिक्ष में हर फ़ंक्शन को हर एक के अर्थ में पुन: पेश करता है <math>x</math> उस सेट में जिस पर फ़ंक्शन परिभाषित किए गए हैं, मूल्यांकन पर <math>x</math>कर्नेल द्वारा निर्धारित फ़ंक्शन के साथ एक आंतरिक उत्पाद लेकर प्रदर्शन किया जा सकता है। ऐसा पुनरुत्पादन कर्नेल तभी मौजूद होता है जब प्रत्येक मूल्यांकन कार्यात्मकता निरंतर होती है।
L2 रिक्त स्थान फलनों के हिल्बर्ट स्थान नहीं हैं (और इसलिए आरकेएचएस नहीं हैं), बल्कि फलनों के समतुल्य वर्गों के हिल्बर्ट स्थान हैं (उदाहरण के लिए, फलन <math>f</math> और <math>g</math> द्वारा परिभाषित <math>f(x)=0</math> और <math>g(x)=1_{\mathbb{Q}}</math> L2 में समतुल्य हैं)। चूँकि, ऐसे आरकेएचएस हैं जिनमें मानक L2-मानदंड है, जैसे बैंड-सीमित फलनों का स्थान (नीचे उदाहरण देखें)।


पुनरुत्पादन कर्नेल को पहली बार 1907 में स्टैनिस्लाव ज़रेम्बा (गणितज्ञ) के काम में पेश किया गया था, जो [[हार्मोनिक फ़ंक्शन]] और [[बिहारमोनिक समीकरण]] के लिए [[सीमा मूल्य समस्या]]ओं से संबंधित था। [[जेम्स मर्सर (गणितज्ञ)]] ने एक साथ [[सकारात्मक-निश्चित कर्नेल]] की जांच की जो [[अभिन्न समीकरण]]ों के सिद्धांत में पुनरुत्पादन संपत्ति को संतुष्ट करता है। पुनरुत्पादन कर्नेल का विचार लगभग बीस वर्षों तक अछूता रहा जब तक कि यह गैबोर सजेगो, स्टीफन बर्गमैन और [[सॉलोमन बोचनर]] के शोध प्रबंधों में सामने नहीं आया। इस विषय को अंततः 1950 के दशक की शुरुआत में नचमन एरोनज़जन और [[स्टीफ़न बर्गमैन]] द्वारा व्यवस्थित रूप से विकसित किया गया था।<ref>Okutmustur</ref>
आरकेएचएस एक कर्नेल से जुड़ा है जो अंतरिक्ष में हर फलन को हर एक के अर्थ में पुन: प्रस्तुत करता है <math>x</math> उस समुच्चय में जिस पर फलन परिभाषित किए गए हैं, "मूल्यांकन पर <math>x</math>" कर्नेल द्वारा निर्धारित फलन के साथ एक आंतरिक उत्पाद लेकर निष्पादित किया जा सकता है। इस प्रकार ऐसा पुनरुत्पादन कर्नेल तभी उपस्तिथ होता है जब प्रत्येक मूल्यांकन कार्यात्मकता निरंतर होती है।
इन स्थानों में व्यापक अनुप्रयोग हैं, जिनमें [[जटिल विश्लेषण]], [[हार्मोनिक विश्लेषण]] और [[क्वांटम यांत्रिकी]] शामिल हैं। प्रसिद्ध प्रतिनिधि प्रमेय के कारण [[सांख्यिकीय शिक्षण सिद्धांत]] के क्षेत्र में कर्नेल हिल्बर्ट रिक्त स्थान का पुनरुत्पादन विशेष रूप से महत्वपूर्ण है, जिसमें कहा गया है कि आरकेएचएस में प्रत्येक फ़ंक्शन जो एक अनुभवजन्य जोखिम कार्यात्मक को कम करता है, उसे प्रशिक्षण बिंदुओं पर मूल्यांकन किए गए कर्नेल फ़ंक्शन के [[रैखिक संयोजन]] के रूप में लिखा जा सकता है। . यह एक व्यावहारिक रूप से उपयोगी परिणाम है क्योंकि यह [[अनुभवजन्य जोखिम न्यूनीकरण]] समस्या को अनंत आयामी से सीमित आयामी अनुकूलन समस्या तक प्रभावी ढंग से सरल बनाता है।


समझने में आसानी के लिए, हम वास्तविक-मूल्यवान हिल्बर्ट स्थानों के लिए रूपरेखा प्रदान करते हैं। सिद्धांत को आसानी से जटिल-मूल्य वाले कार्यों के स्थानों तक बढ़ाया जा सकता है और इसलिए इसमें कर्नेल हिल्बर्ट रिक्त स्थान को पुन: प्रस्तुत करने के कई महत्वपूर्ण उदाहरण शामिल हैं जो [[विश्लेषणात्मक कार्य]]ों के स्थान हैं।<ref>Paulson</ref>
पुनरुत्पादन कर्नेल को पहली बार साल 1907 में [[हार्मोनिक फलन]] और [[बिहारमोनिक समीकरण|बिहार्मोनिक समीकरण]] के लिए [[सीमा मूल्य समस्या|सीमा मूल्य समस्याओं]] से संबंधित स्टैनिस्लाव ज़रेम्बा के काम में प्रस्तुत किया गया था, जेम्स मर्सर ने एक साथ उन फलनों की जांच की जो अभिन्न समीकरणों के सिद्धांत में पुनरुत्पादन संपत्ति को संतुष्ट करते हैं। इस प्रकार पुनरुत्पादन कर्नेल का विचार लगभग बीस वर्षों तक अछूता रहा जब तक कि यह गैबोर सजेगो, स्टीफन बर्गमैन और [[सॉलोमन बोचनर]] के शोध प्रबंधों में सामने नहीं आया। इस विषय को अंततः साल 1950 के दशक की शुरुआत में नचमन एरोनज़जन और [[स्टीफ़न बर्गमैन]] द्वारा व्यवस्थित रूप से विकसित किया गया था।<ref>Okutmustur</ref>


इन स्थानों में व्यापक अनुप्रयोग हैं, जिनमें [[सम्मिश्र विश्लेषण]], [[हार्मोनिक विश्लेषण]] और [[क्वांटम यांत्रिकी]] सम्मिलित हैं। प्रसिद्ध प्रतिनिधि प्रमेय के कारण [[सांख्यिकीय शिक्षण सिद्धांत]] के क्षेत्र में कर्नेल हिल्बर्ट रिक्त स्थान का पुनरुत्पादन विशेष रूप से महत्वपूर्ण है, जिसमें कहा गया है कि आरकेएचएस में प्रत्येक फलन जो एक अनुभवजन्य जोखिम कार्यात्मक को कम करता है, इस प्रकार उसे प्रशिक्षण बिंदुओं पर मूल्यांकन किए गए कर्नेल फलन के [[रैखिक संयोजन]] के रूप में लिखा जा सकता है। यह एक व्यावहारिक रूप से उपयोगी परिणाम है क्योंकि यह [[अनुभवजन्य जोखिम न्यूनीकरण]] समस्या को अनंत आयामी से सीमित आयामी अनुकूलन समस्या तक प्रभावी ढंग से सरल बनाता है।


समझने में आसानी के लिए, हम वास्तविक-मूल्यवान हिल्बर्ट स्थानों के लिए रूपरेखा प्रदान करते हैं। इस प्रकार सिद्धांत को आसानी से सम्मिश्र-मूल्य वाले फलनों के स्थानों तक बढ़ाया जा सकता है और इसलिए इसमें कर्नेल हिल्बर्ट रिक्त स्थान को पुन: प्रस्तुत करने के कई महत्वपूर्ण उदाहरण सम्मिलित हैं जो [[विश्लेषणात्मक कार्य]] के स्थान हैं।<ref>Paulson</ref>
==परिभाषा==
==परिभाषा==
होने देना <math>X</math> एक मनमाना [[सेट (गणित)]] बनें और <math>H</math> [[वास्तविक-मूल्यवान कार्य]]ों का एक हिल्बर्ट स्थान <math>X</math>, बिंदुवार जोड़ और बिंदुवार अदिश गुणन से सुसज्जित। कार्यों के हिल्बर्ट स्थान पर कार्टेशियन बंद श्रेणी#मूल्यांकन कार्यात्मक <math>H</math> एक रैखिक कार्यात्मकता है जो प्रत्येक फ़ंक्शन का एक बिंदु पर मूल्यांकन करती है <math>x</math>,
होने देना <math>X</math> एक मनमाना समुच्चय हो और <math>H</math> [[वास्तविक-मूल्यवान कार्य|वास्तविक-मूल्यवान फलनों]] का एक हिल्बर्ट स्थान <math>X</math>, बिंदुवार जोड़ और बिंदुवार अदिश गुणन से सुसज्जित फलनों के हिल्बर्ट स्थान पर कार्टेशियन बंद श्रेणी मूल्यांकन कार्यात्मक <math>H</math> एक रैखिक कार्यात्मक है जो प्रत्येक फलन का एक बिंदु पर मूल्यांकन करती है <math>x</math>,


:<math> L_{x} : f \mapsto f(x)  \text{  } \forall f \in H. </math>
:<math> L_{x} : f \mapsto f(x)  \text{  } \forall f \in H. </math>
हम कहते हैं कि यदि सभी के लिए H एक 'प्रजनन कर्नेल हिल्बर्ट स्पेस' है <math>x</math> में <math>X</math>, <math> L_x </math> प्रत्येक पर [[सतत कार्य (टोपोलॉजी)]] है <math>f</math> में <math>H</math> या, समकक्ष, यदि <math> L_x </math> पर एक [[परिबद्ध संचालिका]] है <math>H</math>, यानी कुछ मौजूद है <math>M_x>0</math> ऐसा है कि
हम कहते हैं कि यदि सभी के लिए H एक '''<nowiki/>'प्रजनन कर्नेल हिल्बर्ट समष्टि'''' है <math>x</math> में <math>X</math>, <math> L_x </math> प्रत्येक पर [[सतत कार्य (टोपोलॉजी)]] है <math>f</math> में <math>H</math> या, समकक्ष, यदि <math> L_x </math> पर एक [[परिबद्ध संचालिका]] है <math>H</math>, अर्थात कुछ उपस्तिथ है <math>M_x>0</math> ऐसा है कि


{{NumBlk|:|<math> |L_x(f)| := |f(x)| \le M_x\, \|f\|_H \qquad \forall f \in H. \,</math>|{{EquationRef|1}}}}
{{NumBlk|:|<math> |L_x(f)| := |f(x)| \le M_x\, \|f\|_H \qquad \forall f \in H. \,</math>|{{EquationRef|1}}}}
Line 23: Line 23:
यद्यपि <math>M_x<\infty</math> सभी के लिए मान लिया गया है <math>x\in X</math>, अभी भी ऐसा ही हो सकता है <math display="inline">\sup_x M_x = \infty</math>.
यद्यपि <math>M_x<\infty</math> सभी के लिए मान लिया गया है <math>x\in X</math>, अभी भी ऐसा ही हो सकता है <math display="inline">\sup_x M_x = \infty</math>.


जबकि संपत्ति ({{EquationNote|1}}) सबसे कमजोर स्थिति है जो आंतरिक उत्पाद के अस्तित्व और प्रत्येक फ़ंक्शन के मूल्यांकन दोनों को सुनिश्चित करती है <math>H</math> डोमेन के प्रत्येक बिंदु पर, यह व्यवहार में आसान अनुप्रयोग के लिए उपयुक्त नहीं है। आरकेएचएस की एक अधिक सहज परिभाषा यह देखकर प्राप्त की जा सकती है कि यह संपत्ति गारंटी देती है कि मूल्यांकन कार्यात्मकता का आंतरिक उत्पाद लेकर प्रतिनिधित्व किया जा सकता है <math> f </math> एक समारोह के साथ <math> K_x </math> में <math>H</math>. यह फ़ंक्शन तथाकथित पुनरुत्पादन कर्नेल है{{Citation needed|date=September 2022}} हिल्बर्ट स्थान के लिए <math>H</math> जिससे आरकेएचएस का नाम पड़ा। अधिक औपचारिक रूप से, [[रिज़्ज़ प्रतिनिधित्व प्रमेय]] का तात्पर्य सभी के लिए है <math>x</math> में <math>X</math> वहां एक अनोखा तत्व मौजूद है <math> K_x </math> का <math>H</math> पुनरुत्पादन संपत्ति के साथ,
जबकि संपत्ति ({{EquationNote|1}}) सबसे कमजोर स्थिति है जो आंतरिक उत्पाद के अस्तित्व और प्रत्येक फलन के मूल्यांकन दोनों को सुनिश्चित करती है <math>H</math> डोमेन के प्रत्येक बिंदु पर, यह व्यवहार में आसान अनुप्रयोग के लिए उपयुक्त नहीं है। आरकेएचएस की एक अधिक सहज परिभाषा यह देखकर प्राप्त की जा सकती है कि यह संपत्ति गारंटी देती है कि मूल्यांकन कार्यात्मकता का आंतरिक उत्पाद लेकर प्रतिनिधित्व किया जा सकता है <math> f </math> एक समारोह के साथ <math> K_x </math> में <math>H</math>. यह फलन तथाकथित '''पुनरुत्पादन कर्नेल''' है हिल्बर्ट स्थान के लिए <math>H</math> जिससे आरकेएचएस का नाम पड़ा एवं अधिक औपचारिक रूप से, [[रिज़्ज़ प्रतिनिधित्व प्रमेय]] का तात्पर्य सभी के लिए है <math>x</math> में <math>X</math> वहां एक अनोखा तत्व उपस्तिथ है <math> K_x </math> का <math>H</math> पुनरुत्पादन संपत्ति के साथ,


{{NumBlk|:|<math>  f(x) = L_x(f) = \langle f,\ K_x \rangle_H \quad \forall f \in H.</math>|{{EquationRef|2}}}}
{{NumBlk|:|<math>  f(x) = L_x(f) = \langle f,\ K_x \rangle_H \quad \forall f \in H.</math>|{{EquationRef|2}}}}


तब से <math> K_x </math> यह अपने आप में परिभाषित एक फ़ंक्शन है <math>X</math> क्षेत्र में मूल्यों के साथ <math>\mathbb{R}</math> (या <math>\mathbb{C}</math> जटिल हिल्बर्ट स्थानों के मामले में) और जैसे <math> K_x </math> में है <math>H</math> हमारे पास वह है
तब से <math> K_x </math> यह अपने आप में परिभाषित एक फलन है <math>X</math> क्षेत्र में मूल्यों के साथ <math>\mathbb{R}</math> (या <math>\mathbb{C}</math> सम्मिश्र हिल्बर्ट स्थानों के स्थितियों में) और जैसे <math> K_x </math> में है <math>H</math> हमारे पास वह है
:<math> K_x(y) = L_y(K_x)= \langle K_x,\ K_y \rangle_H, </math>
:<math> K_x(y) = L_y(K_x)= \langle K_x,\ K_y \rangle_H, </math>
कहाँ  <math>K_y\in H</math> में तत्व है <math>H</math> के लिए जुड़े <math>L_y</math>.
कहाँ  <math>K_y\in H</math> में तत्व है <math>H</math> के लिए जुड़े <math>L_y</math>.
Line 34: Line 34:


:<math> K(x,y) = \langle K_x,\ K_y \rangle_H. </math>
:<math> K(x,y) = \langle K_x,\ K_y \rangle_H. </math>
इस परिभाषा से यह देखना आसान है <math> K: X \times X \to \mathbb{R} </math> (या <math>\mathbb{C}</math> जटिल मामले में) सममित (सम्मान संयुग्म सममित) और सकारात्मक निश्चित दोनों है, अर्थात।
इस परिभाषा से यह देखना आसान है <math> K: X \times X \to \mathbb{R} </math> (या <math>\mathbb{C}</math> सम्मिश्र स्थितियों में) सममित (सम्मान संयुग्म सममित) और धनात्मक निश्चित दोनों है, अर्थात।


:<math> \sum_{i,j =1}^n c_i c_j K(x_i, x_j)=
:<math> \sum_{i,j =1}^n c_i c_j K(x_i, x_j)=
Line 40: Line 40:
  \left\langle \sum_{i=1}^n c_i K_{x_i} , \sum_{j=1}^n c_j K_{x_j} \right\rangle_{H} =
  \left\langle \sum_{i=1}^n c_i K_{x_i} , \sum_{j=1}^n c_j K_{x_j} \right\rangle_{H} =
\left\|\sum_{i=1}^nc_iK_{x_i}\right\|_H^2 \ge  0 </math>
\left\|\sum_{i=1}^nc_iK_{x_i}\right\|_H^2 \ge  0 </math>
हरएक के लिए <math> n \in \mathbb{N}, x_1, \dots, x_n \in X, \text{ and } c_1, \dots, c_n \in \mathbb{R}. </math><ref>Durrett</ref> मूर-एरोन्सज़जन प्रमेय (नीचे देखें) इसका एक प्रकार से विपरीत है: यदि कोई फ़ंक्शन <math>K</math> इन शर्तों को पूरा करता है तो कार्यों का एक हिल्बर्ट स्थान होता है <math>X</math> जिसके लिए यह एक पुनरुत्पादक कर्नेल है।
हरएक के लिए <math> n \in \mathbb{N}, x_1, \dots, x_n \in X, \text{ and } c_1, \dots, c_n \in \mathbb{R}. </math><ref>Durrett</ref> मूर-एरोन्सज़जन प्रमेय (नीचे देखें) इसका एक प्रकार से विपरीत है: यदि कोई फलन <math>K</math> इन शर्तों को पूरा करता है तो फलनों का एक हिल्बर्ट स्थान होता है <math>X</math> जिसके लिए यह एक पुनरुत्पादक कर्नेल है।


==उदाहरण==
==उदाहरण==
[[बैंडलिमिटिंग]] निरंतर कार्यों का स्थान <math>H</math> एक आरकेएचएस है, जैसा कि हम अब दिखाते हैं। औपचारिक रूप से, कुछ कटऑफ आवृत्ति तय करें <math> 0<a < \infty </math> और हिल्बर्ट स्थान को परिभाषित करें
[[बैंडलिमिटिंग]] निरंतर फलनों का स्थान <math>H</math> एक आरकेएचएस है, जैसा कि हम अब दिखाते हैं। औपचारिक रूप से, कुछ कटऑफ आवृत्ति तय करें <math> 0<a < \infty </math> और हिल्बर्ट स्थान को परिभाषित करें


:<math> H = \{ f \in C(\mathbb{R}) \mid \operatorname{supp}(F) \subset [-a,a] \} </math>
:<math> H = \{ f \in C(\mathbb{R}) \mid \operatorname{supp}(F) \subset [-a,a] \} </math>
कहाँ <math>C(\mathbb{R})</math> सतत वर्ग पूर्णांकीय फलनों का समुच्चय है, और <math display="inline"> F(\omega) = \int_{-\infty}^\infty f(t) e^{-i\omega t} \, dt </math> का [[फूरियर रूपांतरण]] है <math> f</math>. इस हिल्बर्ट स्पेस के आंतरिक उत्पाद के रूप में, हम उपयोग करते हैं
कहाँ <math>C(\mathbb{R})</math> सतत वर्ग पूर्णांकीय फलनों का समुच्चय है, और <math display="inline"> F(\omega) = \int_{-\infty}^\infty f(t) e^{-i\omega t} \, dt </math> का [[फूरियर रूपांतरण]] है <math> f</math>. इस हिल्बर्ट समष्टि के आंतरिक उत्पाद के रूप में, हम उपयोग करते हैं


: <math>\langle f, g\rangle_{L^2} = \int_{-\infty}^\infty f(x) \cdot \overline{g(x)} \, dx.</math>
: <math>\langle f, g\rangle_{L^2} = \int_{-\infty}^\infty f(x) \cdot \overline{g(x)} \, dx.</math>
Line 58: Line 58:
=\frac{1}{\pi}\sqrt{\frac{a}{2}\int_{-\infty}^\infty |F(\omega)|^2 \, d\omega}  
=\frac{1}{\pi}\sqrt{\frac{a}{2}\int_{-\infty}^\infty |F(\omega)|^2 \, d\omega}  
= \sqrt{\frac{a}{\pi}} \|f\|_{L^2}.  </math>
= \sqrt{\frac{a}{\pi}} \|f\|_{L^2}.  </math>
यह असमानता दर्शाती है कि मूल्यांकन कार्यात्मकता सीमित है, जिससे यह साबित होता है <math> H </math> वास्तव में एक आरकेएचएस है।
यह असमानता दर्शाती है कि मूल्यांकन कार्यात्मकता सीमित है, जिससे यह सिद्ध करना  होता है <math> H </math> वास्तव में एक आरकेएचएस है।


कर्नेल फ़ंक्शन <math>K_x</math> इस मामले में द्वारा दिया गया है
कर्नेल फलन <math>K_x</math> इस स्थितियों में द्वारा दिया गया है


:<math>K_x(y) = \frac{a}{\pi} \operatorname{sinc}\left ( \frac{a}{\pi} (y-x) \right )=\frac{\sin(a(y-x))}{\pi(y-x)}.</math>
:<math>K_x(y) = \frac{a}{\pi} \operatorname{sinc}\left ( \frac{a}{\pi} (y-x) \right )=\frac{\sin(a(y-x))}{\pi(y-x)}.</math>
Line 71: Line 71:
\end{cases}
\end{cases}
  </math>
  </math>
जो फूरियर ट्रांसफॉर्म#बेसिक प्रॉपर्टीज|फूरियर ट्रांसफॉर्म की टाइम-शिफ्टिंग प्रॉपर्टी का परिणाम है। नतीजतन, प्लैंचरेल के प्रमेय का उपयोग करते हुए, हमारे पास है
जो फूरियर ट्रांसफॉर्म#बेसिक प्रॉपर्टीज|फूरियर ट्रांसफॉर्म की टाइम-शिफ्टिंग प्रॉपर्टी का परिणाम है। परिणाम स्वरुप , प्लैंचरेल के प्रमेय का उपयोग करते हुए, हमारे पास है


:<math> \langle f, K_x\rangle_{L^2} = \int_{-\infty}^\infty f(y) \cdot \overline{K_x(y)} \, dy  
:<math> \langle f, K_x\rangle_{L^2} = \int_{-\infty}^\infty f(y) \cdot \overline{K_x(y)} \, dy  
Line 77: Line 77:
इस प्रकार हम कर्नेल की पुनरुत्पादन संपत्ति प्राप्त करते हैं।
इस प्रकार हम कर्नेल की पुनरुत्पादन संपत्ति प्राप्त करते हैं।


<math>K_x</math> इस मामले में [[डिराक डेल्टा फ़ंक्शन]] का बैंडलिमिटेड संस्करण है, और वह <math>K_x(y)</math> में एकत्रित हो जाता है <math>\delta(y-x)</math> कटऑफ आवृत्ति के रूप में कमजोर अर्थ में <math>a</math> अनन्त की ओर प्रवृत्त होता है।
<math>K_x</math> इस स्थितियों में [[डिराक डेल्टा फलन]] का बैंडलिमिटेड संस्करण है, और वह <math>K_x(y)</math> में एकत्रित हो जाता है <math>\delta(y-x)</math> कटऑफ आवृत्ति के रूप में कमजोर अर्थ में <math>a</math> अनन्त की ओर प्रवृत्त होता है।


== मूर-अरोनज़जन प्रमेय ==
== मूर-अरोनज़जन प्रमेय ==
हमने देखा है कि कैसे एक पुनरुत्पादक कर्नेल हिल्बर्ट स्पेस एक पुनरुत्पादक कर्नेल फ़ंक्शन को परिभाषित करता है जो सममित और [[सकारात्मक निश्चित कर्नेल]] दोनों है। मूर-अरोन्सज़जन प्रमेय दूसरी दिशा में जाता है; इसमें कहा गया है कि प्रत्येक सममित, सकारात्मक निश्चित कर्नेल एक अद्वितीय पुनरुत्पादन कर्नेल हिल्बर्ट स्पेस को परिभाषित करता है। प्रमेय पहली बार एरोनज़जन की थ्योरी ऑफ़ रिप्रोड्यूसिंग कर्नेल्स में दिखाई दिया, हालाँकि वह इसका श्रेय ई. एच. मूर को देते हैं।
हमने देखा है कि कैसे एक पुनरुत्पादक कर्नेल हिल्बर्ट समष्टि एक पुनरुत्पादक कर्नेल फलन को परिभाषित करता है जो सममित और [[धनात्मक निश्चित कर्नेल]] दोनों है। इस प्रकार मूर-अरोन्सज़जन प्रमेय दूसरी दिशा में जाता है; इसमें कहा गया है कि प्रत्येक सममित, धनात्मक निश्चित कर्नेल एक अद्वितीय पुनरुत्पादन कर्नेल हिल्बर्ट समष्टि को परिभाषित करता है। प्रमेय पहली बार एरोनज़जन की थ्योरी ऑफ़ रिप्रोड्यूसिंग कर्नेल्स में दिखाई दिया, चूँकि वह इसका श्रेय ई. एच. मूर को देते हैं।


:'प्रमेय'. मान लीजिए कि K एक सेट
:''''प्रमेय'''<nowiki/>'. मान लीजिए कि K एक समुच्चय


'सबूत'। एक्स में सभी एक्स के लिए, के को परिभाषित करें<sub>x</sub>= के(एक्स, ⋅ ). चलो एच<sub>0</sub> {K का रैखिक विस्तार हो<sub>x</sub>: एक्स ∈ एक्स}. H पर एक आंतरिक उत्पाद को परिभाषित करें<sub>0</sub> द्वारा
''''सबूत'''<nowiki/>'। एक्स में सभी एक्स के लिए, के को परिभाषित करें<sub>x</sub>= के(एक्स, ⋅ ). चलो एच<sub>0</sub> {K का रैखिक विस्तार हो<sub>x</sub>: एक्स ∈ एक्स}. H पर एक आंतरिक उत्पाद को परिभाषित करें<sub>0</sub> द्वारा


:<math> \left\langle \sum_{j=1}^n b_j K_{y_j}, \sum_{i=1}^m a_i K_{x_i} \right \rangle_{H_0} = \sum_{i=1}^m \sum_{j=1}^n {a_i} b_j K(y_j, x_i),</math>
:<math> \left\langle \sum_{j=1}^n b_j K_{y_j}, \sum_{i=1}^m a_i K_{x_i} \right \rangle_{H_0} = \sum_{i=1}^m \sum_{j=1}^n {a_i} b_j K(y_j, x_i),</math>
जो ये दर्शाता हे <math>K(x,y)=\left\langle K_{x}, K_{y} \right\rangle_{H_0}</math>.
जो ये दर्शाता हे <math>K(x,y)=\left\langle K_{x}, K_{y} \right\rangle_{H_0}</math>.
इस आंतरिक उत्पाद की समरूपता K की समरूपता से उत्पन्न होती है और गैर-अपघटन इस तथ्य से उत्पन्न होती है कि K सकारात्मक निश्चित है।


मान लीजिए H, H का समापन (मीट्रिक स्थान) है<sub>0</sub> इस आंतरिक उत्पाद के संबंध में. फिर H में फॉर्म के फ़ंक्शन शामिल हैं
इस आंतरिक उत्पाद की समरूपता K की समरूपता से उत्पन्न होती है और गैर-अपघटन इस तथ्य से उत्पन्न होती है कि K धनात्मक निश्चित है।
 
मान लीजिए H, H का समापन (मीट्रिक स्थान) है<sub>0</sub> इस आंतरिक उत्पाद के संबंध में. फिर H में फॉर्म के फलन सम्मिलित हैं


:<math> f(x) = \sum_{i=1}^\infty a_i K_{x_i} (x) \quad \text{where} \quad \lim_{n \to \infty}\sup_{p\geq0}\left\|\sum_{i=n}^{n+p} a_i K_{x_i}\right\|_{H_0} = 0.</math>
:<math> f(x) = \sum_{i=1}^\infty a_i K_{x_i} (x) \quad \text{where} \quad \lim_{n \to \infty}\sup_{p\geq0}\left\|\sum_{i=n}^{n+p} a_i K_{x_i}\right\|_{H_0} = 0.</math>
Line 96: Line 97:


:<math>\langle f, K_x \rangle_H = \sum_{i=1}^\infty a_i\left \langle K_{x_i}, K_x \right \rangle_{H_0}= \sum_{i=1}^\infty a_i K (x_i, x) = f(x).</math>
:<math>\langle f, K_x \rangle_H = \sum_{i=1}^\infty a_i\left \langle K_{x_i}, K_x \right \rangle_{H_0}= \sum_{i=1}^\infty a_i K (x_i, x) = f(x).</math>
विशिष्टता साबित करने के लिए, मान लीजिए कि G फ़ंक्शन का एक और हिल्बर्ट स्थान है जिसके लिए K एक पुनरुत्पादक कर्नेल है। X में प्रत्येक x और y के लिए, ({{EquationNote|2}}) इसका आशय है
विशिष्टता सिद्ध करना  करने के लिए, मान लीजिए कि G फलन का एक और हिल्बर्ट स्थान है जिसके लिए K एक पुनरुत्पादक कर्नेल है। X में प्रत्येक x और y के लिए, ({{EquationNote|2}}) इसका आशय है


:<math>\langle K_x, K_y \rangle_H = K(x, y) = \langle K_x, K_y \rangle_G.</math>
:<math>\langle K_x, K_y \rangle_H = K(x, y) = \langle K_x, K_y \rangle_G.</math>
रैखिकता से, <math>\langle \cdot, \cdot \rangle_H = \langle \cdot, \cdot \rangle_G</math> के विस्तार पर <math>\{K_x : x \in X\}</math>. तब <math>H \subset G</math> क्योंकि G पूर्ण है और इसमें H शामिल है<sub>0</sub> और इसलिए इसमें इसकी पूर्णता शामिल है।
रैखिकता से, <math>\langle \cdot, \cdot \rangle_H = \langle \cdot, \cdot \rangle_G</math> के विस्तार पर <math>\{K_x : x \in X\}</math>. तब <math>H \subset G</math> क्योंकि G पूर्ण है और इसमें H सम्मिलित है<sub>0</sub> और इसलिए इसमें इसकी पूर्णता सम्मिलित है।


अब हमें यह सिद्ध करना है कि G का प्रत्येक तत्व H में है <math> f </math> G का एक तत्व हो। चूँकि H, G का एक बंद उपस्थान है, इसलिए हम लिख सकते हैं <math> f=f_H + f_{H^\bot} </math> कहाँ <math> f_H \in H </math> और <math> f_{H^\bot} \in H^\bot </math>. अब अगर <math> x \in X </math> तब, चूँकि K, G और H का पुनरुत्पादक कर्नेल है:
अब हमें यह सिद्ध करना है कि G का प्रत्येक तत्व H में है <math> f </math> G का एक तत्व हो। चूँकि H, G का एक बंद उपस्थान है, इसलिए हम लिख सकते हैं <math> f=f_H + f_{H^\bot} </math> कहाँ <math> f_H \in H </math> और <math> f_{H^\bot} \in H^\bot </math>. अब यदि <math> x \in X </math> तब, चूँकि K, G और H का पुनरुत्पादक कर्नेल है:


:<math>f(x) = \langle K_x , f \rangle_G = \langle K_x, f_H \rangle_G + \langle K_x, f_{H^\bot} \rangle_G = \langle K_x , f_H \rangle_G =  \langle K_x , f_H \rangle_H = f_H(x),  </math>
:<math>f(x) = \langle K_x , f \rangle_G = \langle K_x, f_H \rangle_G + \langle K_x, f_{H^\bot} \rangle_G = \langle K_x , f_H \rangle_G =  \langle K_x , f_H \rangle_H = f_H(x),  </math>
जहाँ हमने इस तथ्य का प्रयोग किया है <math> K_x </math> H से संबंधित है ताकि इसका आंतरिक उत्पाद साथ हो <math> f_{H^\bot} </math> जी में शून्य है.
जहाँ हमने इस तथ्य का प्रयोग किया है <math> K_x </math> H से संबंधित है जिससे कि इसका आंतरिक उत्पाद साथ हो <math> f_{H^\bot} </math> जी में शून्य है.
इससे पता चलता है कि <math> f = f_H </math> जी में और प्रमाण समाप्त होता है।
इससे पता चलता है कि <math> f = f_H </math> जी में और प्रमाण समाप्त होता है।


==इंटीग्रल ऑपरेटर्स और मर्सर का प्रमेय==
==इंटीग्रल ऑपरेटर्स और मर्सर का प्रमेय==
हम एक सममित सकारात्मक निश्चित कर्नेल की विशेषता बता सकते हैं <math>K</math> मर्सर के प्रमेय का उपयोग करके इंटीग्रल ऑपरेटर के माध्यम से और आरकेएचएस का एक अतिरिक्त दृश्य प्राप्त करें। होने देना <math>X</math> सख्ती से सकारात्मक परिमित [[बोरेल माप]] से सुसज्जित एक कॉम्पैक्ट स्थान बनें <math>\mu</math> और <math>K: X \times X \to \R</math> एक सतत, सममित और सकारात्मक निश्चित कार्य। इंटीग्रल ऑपरेटर को परिभाषित करें <math>T_K: L_2(X) \to L_2(X)</math> जैसा
हम एक सममित धनात्मक निश्चित कर्नेल की विशेषता बता सकते हैं <math>K</math> मर्सर के प्रमेय का उपयोग करके इंटीग्रल ऑपरेटर के माध्यम से और आरकेएचएस का एक अतिरिक्त दृश्य प्राप्त करें। होने देना <math>X</math> सख्ती से धनात्मक परिमित [[बोरेल माप]] से सुसज्जित एक कॉम्पैक्ट स्थान बनें <math>\mu</math> और <math>K: X \times X \to \R</math> एक सतत, सममित और धनात्मक निश्चित कार्य। इंटीग्रल ऑपरेटर को परिभाषित करें <math>T_K: L_2(X) \to L_2(X)</math> जैसा


:<math> [T_K f](\cdot) =\int_X  K(\cdot,t) f(t)\, d\mu(t) </math>
:<math> [T_K f](\cdot) =\int_X  K(\cdot,t) f(t)\, d\mu(t) </math>
कहाँ <math>L_2(X)</math> के संबंध में वर्गाकार समाकलनीय फलनों का स्थान है <math> \mu </math>.
कहाँ <math>L_2(X)</math> के संबंध में वर्गाकार समाकलनीय फलनों का स्थान है <math> \mu </math>.


मर्सर के प्रमेय में कहा गया है कि अभिन्न ऑपरेटर का वर्णक्रमीय अपघटन <math>T_K</math> का <math>K</math> का एक श्रृंखला प्रतिनिधित्व प्राप्त होता है <math>K</math> के eigenvalues ​​​​और eigenfunctions के संदर्भ में <math> T_K </math>. इसका तात्पर्य यह है कि <math>K</math> एक पुनरुत्पादन कर्नेल है ताकि संबंधित आरकेएचएस को इन eigenvalues ​​​​और eigenfunctions के संदर्भ में परिभाषित किया जा सके। हम नीचे विवरण प्रदान करते हैं।
मर्सर के प्रमेय में कहा गया है कि अभिन्न ऑपरेटर का वर्णक्रमीय अपघटन <math>T_K</math> का <math>K</math> का एक श्रृंखला प्रतिनिधित्व प्राप्त होता है <math>K</math> के अभिलाक्षणिक मान  ​​​​और अभिलक्षणिक फलन के संदर्भ में <math> T_K </math>. इसका तात्पर्य यह है कि <math>K</math> एक पुनरुत्पादन कर्नेल है जिससे कि संबंधित आरकेएचएस को इन अभिलाक्षणिक मान ​​​​और अभिलक्षणिक फलन  के संदर्भ में परिभाषित किया जा सके। हम नीचे विवरण प्रदान करते हैं।


इन धारणाओं के तहत <math>T_K</math> एक सघन, सतत, स्व-सहायक और सकारात्मक संचालिका है। स्व-सहायक ऑपरेटरों के लिए [[वर्णक्रमीय प्रमेय]] का तात्पर्य है कि अधिकतम गणनीय घटता क्रम है <math>(\sigma_i)_i \geq 0 </math> ऐसा है कि <math display="inline">\lim_{i \to \infty}\sigma_i = 0</math> और
इन धारणाओं के अनुसार  <math>T_K</math> एक सघन, सतत, स्व-सहायक और धनात्मक संचालिका है। स्व-सहायक ऑपरेटरों के लिए [[वर्णक्रमीय प्रमेय]] का तात्पर्य है कि अधिकतम गणनीय घटता क्रम है <math>(\sigma_i)_i \geq 0 </math> ऐसा है कि <math display="inline">\lim_{i \to \infty}\sigma_i = 0</math> और
<math>T_K\varphi_i(x) = \sigma_i\varphi_i(x)</math>, जहां <math>\{\varphi_i\}</math> का असामान्य आधार बनाएं <math>L_2(X)</math>. की सकारात्मकता से <math>T_K, \sigma_i > 0</math> सभी के लिए <math>i.</math> वो भी कोई दिखा सकता है <math>T_K </math> सतत कार्यों के स्थान में निरंतर मानचित्रण करता है <math>C(X)</math> और इसलिए हम eigenvectors के रूप में निरंतर कार्यों को चुन सकते हैं, अर्थात, <math>\varphi_i \in C(X)</math> सभी के लिए <math>i.</math> फिर मर्सर के प्रमेय द्वारा  <math> K </math> eigenvalues ​​​​और निरंतर eigenfunctions के संदर्भ में लिखा जा सकता है
 
<math>T_K\varphi_i(x) = \sigma_i\varphi_i(x)</math>, जहां <math>\{\varphi_i\}</math> का असामान्य आधार बनाएं <math>L_2(X)</math>. की धनात्मकता से <math>T_K, \sigma_i > 0</math> सभी के लिए <math>i.</math> वो भी कोई दिखा सकता है <math>T_K </math> सतत फलनों के स्थान में निरंतर मानचित्रण करता है <math>C(X)</math> और इसलिए हम आइजन्वेक्टर के रूप में निरंतर फलनों को चुन सकते हैं, अर्थात, <math>\varphi_i \in C(X)</math> सभी के लिए <math>i.</math> फिर मर्सर के प्रमेय द्वारा  <math> K </math> अभिलाक्षणिक मान ​​​​और निरंतर अभिलक्षणिक फलन  के संदर्भ में लिखा जा सकता है


:<math> K(x,y) = \sum_{j=1}^\infty \sigma_j \, \varphi_j(x) \, \varphi_j(y) </math>
:<math> K(x,y) = \sum_{j=1}^\infty \sigma_j \, \varphi_j(x) \, \varphi_j(y) </math>
Line 124: Line 126:
इस उपरोक्त श्रृंखला प्रतिनिधित्व को मर्सर कर्नेल या मर्सर प्रतिनिधित्व के रूप में जाना जाता है <math> K </math>.
इस उपरोक्त श्रृंखला प्रतिनिधित्व को मर्सर कर्नेल या मर्सर प्रतिनिधित्व के रूप में जाना जाता है <math> K </math>.


इसके अलावा, यह दिखाया जा सकता है कि आरकेएचएस <math> H </math> का <math> K </math> द्वारा दिया गया है
इसके अतिरिक्त, यह दिखाया जा सकता है कि आरकेएचएस <math> H </math> का <math> K </math> द्वारा दिया गया है


:<math> H = \left \{ f \in L_2(X) \,\Bigg\vert\, \sum_{i=1}^\infty \frac{\left\langle f,\varphi_i \right \rangle^2_{L_2}}{\sigma_i} < \infty  \right\} </math>
:<math> H = \left \{ f \in L_2(X) \,\Bigg\vert\, \sum_{i=1}^\infty \frac{\left\langle f,\varphi_i \right \rangle^2_{L_2}}{\sigma_i} < \infty  \right\} </math>
Line 133: Line 135:


==फ़ीचर मानचित्र==
==फ़ीचर मानचित्र==
फ़ीचर मानचित्र एक मानचित्र है <math> \varphi\colon X \rightarrow F </math>, कहाँ <math> F </math> एक हिल्बर्ट स्पेस है जिसे हम फीचर स्पेस कहेंगे। पहले खंड में बंधे/निरंतर मूल्यांकन कार्यों, सकारात्मक निश्चित कार्यों और अभिन्न ऑपरेटरों के बीच संबंध प्रस्तुत किया गया है और इस खंड में हम फीचर मानचित्रों के संदर्भ में आरकेएचएस का एक और प्रतिनिधित्व प्रदान करते हैं।
'''फ़ीचर मानचित्र''' एक मानचित्र है <math> \varphi\colon X \rightarrow F </math>, कहाँ <math> F </math> एक हिल्बर्ट समष्टि है जिसे हम फीचर समष्टि कहेंगे। पहले खंड में बंधे/निरंतर मूल्यांकन फलनों, धनात्मक निश्चित फलनों और अभिन्न ऑपरेटरों के बीच संबंध प्रस्तुत किया गया है और इस खंड में हम फीचर मानचित्रों के संदर्भ में आरकेएचएस का एक और प्रतिनिधित्व प्रदान करते हैं।


प्रत्येक फीचर मैप एक कर्नेल को परिभाषित करता है
प्रत्येक फीचर मैप एक कर्नेल को परिभाषित करता है
Line 139: Line 141:
{{NumBlk|:|<math> K(x,y) = \langle \varphi(x), \varphi(y) \rangle_F. </math> |{{EquationRef|3}}}}
{{NumBlk|:|<math> K(x,y) = \langle \varphi(x), \varphi(y) \rangle_F. </math> |{{EquationRef|3}}}}


स्पष्ट रूप से <math> K </math> सममित है और सकारात्मक निश्चितता आंतरिक उत्पाद के गुणों से आती है <math> F </math>. इसके विपरीत, प्रत्येक सकारात्मक निश्चित फ़ंक्शन और संबंधित पुनरुत्पादन कर्नेल हिल्बर्ट स्पेस में असीमित रूप से कई संबद्ध फ़ीचर मानचित्र होते हैं जैसे कि ({{EquationNote|3}}) धारण करता है.
स्पष्ट रूप से <math> K </math> सममित है और धनात्मक निश्चितता आंतरिक उत्पाद के गुणों से आती है <math> F </math>. इसके विपरीत, प्रत्येक धनात्मक निश्चित फलन और संबंधित पुनरुत्पादन कर्नेल हिल्बर्ट समष्टि में असीमित रूप से कई संबद्ध फ़ीचर मानचित्र होते हैं जैसे कि ({{EquationNote|3}}) धारण करता है.


उदाहरण के लिए, हम तुच्छ रूप से ले सकते हैं <math> F = H </math> और <math> \varphi(x) = K_x </math> सभी के लिए <math> x \in X </math>. तब ({{EquationNote|3}}) पुनरुत्पादक संपत्ति से संतुष्ट है। फ़ीचर मैप का एक और शास्त्रीय उदाहरण इंटीग्रल ऑपरेटरों के संबंध में पिछले अनुभाग से संबंधित है <math> F = \ell^2 </math> और <math> \varphi(x) = (\sqrt{\sigma_i} \varphi_i(x))_i </math>.
उदाहरण के लिए, हम तुच्छ रूप से ले सकते हैं <math> F = H </math> और <math> \varphi(x) = K_x </math> सभी के लिए <math> x \in X </math>. तब ({{EquationNote|3}}) पुनरुत्पादक संपत्ति से संतुष्ट है। फ़ीचर मैप का एक और मौलिक  उदाहरण इंटीग्रल ऑपरेटरों के संबंध में पिछले अनुभाग से संबंधित है <math> F = \ell^2 </math> और <math> \varphi(x) = (\sqrt{\sigma_i} \varphi_i(x))_i </math>.


कर्नेल और फीचर मैप के बीच यह संबंध हमें सकारात्मक निश्चित कार्यों को समझने का एक नया तरीका प्रदान करता है और इसलिए कर्नेल को आंतरिक उत्पादों के रूप में पुन: प्रस्तुत करता है। <math> H </math>. इसके अलावा, प्रत्येक फीचर मैप एक सकारात्मक निश्चित फ़ंक्शन की परिभाषा के माध्यम से स्वाभाविक रूप से आरकेएचएस को परिभाषित कर सकता है।
कर्नेल और फीचर मैप के बीच यह संबंध हमें धनात्मक निश्चित फलनों को समझने का एक नया विधि प्रदान करता है और इसलिए कर्नेल को आंतरिक उत्पादों के रूप में पुन: प्रस्तुत करता है। <math> H </math>. इसके अतिरिक्त, प्रत्येक फीचर मैप एक धनात्मक निश्चित फलन की परिभाषा के माध्यम से स्वाभाविक रूप से आरकेएचएस को परिभाषित कर सकता है।


अंत में, फीचर मैप हमें फ़ंक्शन स्पेस बनाने की अनुमति देते हैं जो आरकेएचएस पर एक और परिप्रेक्ष्य प्रकट करते हैं। रैखिक स्थान पर विचार करें
अंत में, फीचर मैप हमें फलन समष्टि बनाने की अनुमति देते हैं जो आरकेएचएस पर एक और परिप्रेक्ष्य प्रकट करते हैं। रैखिक स्थान पर विचार करें


:<math> H_\varphi = \{ f: X \to \mathbb{R} \mid \exists w \in F, f(x) = \langle w, \varphi(x) \rangle_{F}, \forall \text{  } x \in X \} . </math>
:<math> H_\varphi = \{ f: X \to \mathbb{R} \mid \exists w \in F, f(x) = \langle w, \varphi(x) \rangle_{F}, \forall \text{  } x \in X \} . </math>
Line 151: Line 153:


:<math> \|f\|_\varphi = \inf \{\|w\|_F : w \in F, f(x) = \langle w, \varphi(x)\rangle_F, \forall \text{  } x \in X \} .</math>
:<math> \|f\|_\varphi = \inf \{\|w\|_F : w \in F, f(x) = \langle w, \varphi(x)\rangle_F, \forall \text{  } x \in X \} .</math>
ऐसा दिखाया जा सकता है <math> H_{\varphi} </math> कर्नेल द्वारा परिभाषित आरकेएचएस है <math> K(x,y) = \langle\varphi(x), \varphi(y)\rangle_F </math>. इस प्रतिनिधित्व का तात्पर्य है कि आरकेएचएस के तत्व फीचर स्पेस में तत्वों के आंतरिक उत्पाद हैं और तदनुसार हाइपरप्लेन के रूप में देखे जा सकते हैं। आरकेएचएस का यह दृश्य मशीन लर्निंग में [[कर्नेल चाल]] से संबंधित है।<ref>Rosasco</ref>
ऐसा दिखाया जा सकता है <math> H_{\varphi} </math> कर्नेल द्वारा परिभाषित आरकेएचएस है <math> K(x,y) = \langle\varphi(x), \varphi(y)\rangle_F </math>. इस प्रतिनिधित्व का तात्पर्य है कि आरकेएचएस के तत्व फीचर समष्टि में तत्वों के आंतरिक उत्पाद हैं और तदनुसार हाइपरप्लेन के रूप में देखे जा सकते हैं। आरकेएचएस का यह दृश्य मशीन लर्निंग में [[कर्नेल चाल]] से संबंधित है।<ref>Rosasco</ref>
 
 
==गुण==
==गुण==


आरकेएचएस के निम्नलिखित गुण पाठकों के लिए उपयोगी हो सकते हैं।
आरकेएचएस के निम्नलिखित गुण पाठकों के लिए उपयोगी हो सकते हैं।


* होने देना <math>(X_i)_{i=1}^p</math> सेटों का एक क्रम बनें और <math>(K_i)_{i=1}^p</math> संबंधित सकारात्मक निश्चित कार्यों का एक संग्रह बनें <math> (X_i)_{i=1}^p.</math> इसके बाद यह अनुसरण करता है
* होने देना <math>(X_i)_{i=1}^p</math> समुच्चयों का एक क्रम बनें और <math>(K_i)_{i=1}^p</math> संबंधित धनात्मक निश्चित फलनों का एक संग्रह बनें <math> (X_i)_{i=1}^p.</math> इसके बाद यह अनुसरण करता है
*::<math>K((x_1,\ldots ,x_p),(y_1,\ldots,y_p)) = K_1(x_1,y_1)\cdots K_p(x_p,y_p)</math>
*::<math>K((x_1,\ldots ,x_p),(y_1,\ldots,y_p)) = K_1(x_1,y_1)\cdots K_p(x_p,y_p)</math>
*:एक कर्नेल चालू है <math> X = X_1 \times \dots \times X_p.</math>
*:एक कर्नेल चालू है <math> X = X_1 \times \dots \times X_p.</math>
Line 166: Line 166:
*: कॉची-श्वार्ज़ असमानता द्वारा,
*: कॉची-श्वार्ज़ असमानता द्वारा,
*::<math> K(x,y)^2 \le K(x, x)K(y, y)=1 \qquad \forall x,y \in X.</math>
*::<math> K(x,y)^2 \le K(x, x)K(y, y)=1 \qquad \forall x,y \in X.</math>
*:यह असमानता हमें देखने की अनुमति देती है <math>K</math> इनपुट के बीच [[समानता माप]] के रूप में। अगर <math>x, y \in X</math> फिर समान हैं <math>K(x,y)</math> 1 के करीब होगा जबकि यदि <math>x,y \in X</math> फिर भिन्न हैं <math>K(x,y)</math> 0 के करीब होगा.
*:यह असमानता हमें देखने की अनुमति देती है <math>K</math> इनपुट के बीच [[समानता माप]] के रूप में। यदि <math>x, y \in X</math> फिर समान हैं <math>K(x,y)</math> 1 के निकट होगा जबकि यदि <math>x,y \in X</math> फिर भिन्न हैं <math>K(x,y)</math> 0 के निकट होगा.


*के स्पैन का बंद होना <math> \{ K_x \mid x \in X \} </math> के साथ मेल खाता है <math> H </math>.<ref>Rosasco</ref>
*के स्पैन का बंद होना <math> \{ K_x \mid x \in X \} </math> के साथ मेल खाता है <math> H </math>.<ref>Rosasco</ref>
== सामान्य उदाहरण ==
== सामान्य उदाहरण ==


===बिलिनियर गुठली===
===बिलिनियर कर्नेल===
:<math> K(x,y) = \langle x,y\rangle </math>
:<math> K(x,y) = \langle x,y\rangle </math>
आरकेएचएस <math>H</math> इस कर्नेल के अनुरूप दोहरा स्थान है, जिसमें फ़ंक्शंस शामिल हैं <math>f(x) = \langle x,\beta\rangle</math> संतुष्टि देने वाला <math>\|f\|_H^2=\|\beta\|^2</math>.
आरकेएचएस <math>H</math> इस कर्नेल के अनुरूप दोहरा स्थान है, जिसमें फलन सम्मिलित हैं <math>f(x) = \langle x,\beta\rangle</math> संतुष्टि देने वाला <math>\|f\|_H^2=\|\beta\|^2</math>.


===बहुपद गुठली===
===बहुपद कर्नेल===
:<math> K(x,y) = (\alpha\langle x,y \rangle + 1)^d, \qquad \alpha \in \R, d \in \N </math>
:<math> K(x,y) = (\alpha\langle x,y \rangle + 1)^d, \qquad \alpha \in \R, d \in \N </math>
===[[रेडियल आधार फलन कर्नेल]]===
ये गुठली का एक और सामान्य वर्ग है जो संतुष्ट करता है <math> K(x,y) = K(\|x - y\|)</math>. कुछ उदाहरणों में सम्मिलित हैं:


 
*'''गाऊशियन या वर्गाकार घातीय कर्नेल:'''
===[[रेडियल आधार फ़ंक्शन कर्नेल]]===
ये गुठली का एक और सामान्य वर्ग है जो संतुष्ट करता है <math> K(x,y) = K(\|x - y\|)</math>. कुछ उदाहरणों में शामिल हैं:
 
*गाऊशियन या वर्गाकार घातीय कर्नेल:
*::<math> K(x,y) = e^{-\frac{\|x - y\|^2}{2\sigma^2}},  \qquad \sigma > 0 </math>
*::<math> K(x,y) = e^{-\frac{\|x - y\|^2}{2\sigma^2}},  \qquad \sigma > 0 </math>
* लाप्लासियन कर्नेल:
* '''लाप्लासियन कर्नेल:'''
*::<math> K(x,y) = e^{-\frac{\|x - y\|}{\sigma}}, \qquad \sigma > 0 </math>
*::<math> K(x,y) = e^{-\frac{\|x - y\|}{\sigma}}, \qquad \sigma > 0 </math>
*:किसी फ़ंक्शन का वर्ग मानदंड <math>f</math> आरकेएचएस में <math>H</math> इस कर्नेल के साथ है:<ref>Berlinet, Alain and Thomas, Christine. ''[https://books.google.com/books?id=bX3TBwAAQBAJ&dq=%22Reproducing+kernel+Hilbert+spaces+in+Probability+and+Statistics%22&pg=PP11 Reproducing kernel Hilbert spaces in Probability and Statistics]'', Kluwer Academic Publishers, 2004</ref>
*:किसी फलन का वर्ग मानदंड <math>f</math> आरकेएचएस में <math>H</math> इस कर्नेल के साथ है:<ref>Berlinet, Alain and Thomas, Christine. ''[https://books.google.com/books?id=bX3TBwAAQBAJ&dq=%22Reproducing+kernel+Hilbert+spaces+in+Probability+and+Statistics%22&pg=PP11 Reproducing kernel Hilbert spaces in Probability and Statistics]'', Kluwer Academic Publishers, 2004</ref>
*::<math>\|f\|_H^2=\int_{\mathbb R}\Big( \frac1{\sigma} f(x)^2 + \sigma  f'(x)^2\Big) \mathrm d x.</math>
*::<math>\|f\|_H^2=\int_{\mathbb R}\Big( \frac1{\sigma} f(x)^2 + \sigma  f'(x)^2\Big) \mathrm d x.</math>


 
== [[बर्गमैन कर्नेल]] ==
===[[बर्गमैन कर्नेल]]===
हम बर्गमैन कर्नेल के उदाहरण भी प्रदान करते हैं। मान लीजिए कि यदि सामान्य आंतरिक उत्पाद का उपयोग किया जाता है, तो के<sub>x</sub>वह फलन है जिसका मान x पर 1 और अन्य सभी जगह 0 है, और <math>K(x,y)</math> तब से इसे एक पहचान मैट्रिक्स के रूप में सोचा जा सकता है
 
हम बर्गमैन कर्नेल के उदाहरण भी प्रदान करते हैं। मान लीजिए कि यदि सामान्य आंतरिक उत्पाद का उपयोग किया जाता है, तो के<sub>x</sub>वह फ़ंक्शन है जिसका मान x पर 1 और अन्य सभी जगह 0 है, और <math>K(x,y)</math> तब से इसे एक पहचान मैट्रिक्स के रूप में सोचा जा सकता है


:<math>K(x,y)=\begin{cases} 1 & x=y \\ 0 & x \neq y \end{cases}</math>
:<math>K(x,y)=\begin{cases} 1 & x=y \\ 0 & x \neq y \end{cases}</math>
इस मामले में, H समरूपी है <math>\Complex^n</math>.
इस स्थितियों में, H समरूपी है <math>\Complex^n</math>.


के मामले में <math>X= \mathbb{D}</math> (कहाँ <math>\mathbb{D}</math> [[यूनिट डिस्क]] को दर्शाता है) अधिक परिष्कृत है। यहां [[बर्गमैन स्पेस]] एच स्क्वायर|<math>H^2(\mathbb{D})</math>वर्ग-अभिन्न फलन का स्थान है|वर्ग-अभिन्न [[होलोमोर्फिक फ़ंक्शन]] पर <math>\mathbb{D}</math>. यह दिखाया जा सकता है कि पुनरुत्पादन कर्नेल के लिए <math>H^2(\mathbb{D})</math> है
के स्थितियों में <math>X= \mathbb{D}</math> (कहाँ <math>\mathbb{D}</math> [[यूनिट डिस्क]] को दर्शाता है) अधिक परिष्कृत है। यहां [[बर्गमैन समष्टि]] एच स्क्वायर|<math>H^2(\mathbb{D})</math>वर्ग-अभिन्न फलन का स्थान है|वर्ग-अभिन्न [[होलोमोर्फिक फलन]] पर <math>\mathbb{D}</math>. यह दिखाया जा सकता है कि पुनरुत्पादन कर्नेल के लिए <math>H^2(\mathbb{D})</math> है


:<math>K(x,y)=\frac{1}{\pi}\frac{1}{(1-x\overline{y})^2}.</math>
:<math>K(x,y)=\frac{1}{\pi}\frac{1}{(1-x\overline{y})^2}.</math>
Line 205: Line 199:


:<math>K(x,y)=\frac{\sin a (x - y)}{\pi (x-y)}.</math>
:<math>K(x,y)=\frac{\sin a (x - y)}{\pi (x-y)}.</math>
 
== वेक्टर-मूल्यवान फलन का विस्तार==
 
इस खंड में हम आरकेएचएस की परिभाषा को वेक्टर-मूल्यवान फलनों के स्थानों तक विस्तारित करते हैं क्योंकि यह विस्तार बहु-कार्य सीखने और [[कई गुना नियमितीकरण]] में विशेष रूप से महत्वपूर्ण है। इस प्रकार मुख्य अंतर यह है कि पुनरुत्पादन कर्नेल <math> \Gamma </math> एक सममित फलन है जो अब प्रत्येक के लिए एक धनात्मक अर्ध-निश्चित मैट्रिक्स है <math> x,y </math> में <math> X </math>. अधिक औपचारिक रूप से, हम एक वेक्टर-मूल्यवान आरकेएचएस (वीवीआरकेएचएस) को फलनों के हिल्बर्ट स्थान के रूप में परिभाषित करते हैं <math> f: X \to \mathbb{R}^T </math> ऐसा कि सभी के लिए <math> c \in \mathbb{R}^T </math> और <math> x \in X </math>
== वेक्टर-मूल्यवान फ़ंक्शंस का विस्तार==
इस खंड में हम आरकेएचएस की परिभाषा को वेक्टर-मूल्यवान कार्यों के स्थानों तक विस्तारित करते हैं क्योंकि यह विस्तार बहु-कार्य सीखने और [[कई गुना नियमितीकरण]] में विशेष रूप से महत्वपूर्ण है। मुख्य अंतर यह है कि पुनरुत्पादन कर्नेल <math> \Gamma </math> एक सममित फ़ंक्शन है जो अब प्रत्येक के लिए एक सकारात्मक अर्ध-निश्चित मैट्रिक्स है <math> x,y </math> में <math> X </math>. अधिक औपचारिक रूप से, हम एक वेक्टर-मूल्यवान आरकेएचएस (वीवीआरकेएचएस) को कार्यों के हिल्बर्ट स्थान के रूप में परिभाषित करते हैं <math> f: X \to \mathbb{R}^T </math> ऐसा कि सभी के लिए <math> c \in \mathbb{R}^T </math> और <math> x \in X </math>
:<math> \Gamma_xc(y) = \Gamma(x, y)c \in H  \text{ for } y \in X </math>
:<math> \Gamma_xc(y) = \Gamma(x, y)c \in H  \text{ for } y \in X </math>
और
और


:<math> \langle f, \Gamma_x c \rangle_H = f(x)^\intercal c.  </math>
:<math> \langle f, \Gamma_x c \rangle_H = f(x)^\intercal c.  </math>
यह दूसरी संपत्ति अदिश-मूल्य वाले मामले के लिए पुनरुत्पादन संपत्ति के समानांतर है। इस परिभाषा को इंटीग्रल ऑपरेटर्स, बाउंडेड इवैल्यूएशन फ़ंक्शंस और फ़ीचर मैप्स से भी जोड़ा जा सकता है, जैसा कि हमने स्केलर-वैल्यू आरकेएचएस के लिए देखा था। हम वीवीआरकेएचएस को एक सीमित मूल्यांकन कार्यात्मकता के साथ एक वेक्टर-मूल्यवान हिल्बर्ट स्पेस के रूप में परिभाषित कर सकते हैं और दिखा सकते हैं कि यह रिज़्ज़ प्रतिनिधित्व प्रमेय द्वारा एक अद्वितीय पुनरुत्पादन कर्नेल के अस्तित्व का तात्पर्य है। वेक्टर-मूल्य सेटिंग को संबोधित करने के लिए मर्सर के प्रमेय को भी बढ़ाया जा सकता है और इसलिए हम वीवीआरकेएचएस का एक फीचर मैप दृश्य प्राप्त कर सकते हैं। अंत में, यह भी दिखाया जा सकता है कि स्पैन का बंद होना <math> \{ \Gamma_xc : x \in X, c \in \mathbb{R}^T \} </math> के साथ मेल खाता है <math> H </math>, अदिश-मूल्यवान मामले के समान एक और संपत्ति।
यह दूसरी संपत्ति अदिश-मूल्य वाले स्थितियों के लिए पुनरुत्पादन संपत्ति के समानांतर है। इस परिभाषा को इंटीग्रल ऑपरेटर्स, बाउंडेड इवैल्यूएशन फलन और फ़ीचर मैप्स से भी जोड़ा जा सकता है, जैसा कि हमने स्केलर-वैल्यू आरकेएचएस के लिए देखा था। इस प्रकार हम वीवीआरकेएचएस को एक सीमित मूल्यांकन कार्यात्मकता के साथ एक वेक्टर-मूल्यवान हिल्बर्ट समष्टि के रूप में परिभाषित कर सकते हैं और दिखा सकते हैं कि यह रिज़्ज़ प्रतिनिधित्व प्रमेय द्वारा एक अद्वितीय पुनरुत्पादन कर्नेल के अस्तित्व का तात्पर्य है। वेक्टर-मूल्य समुच्चयिंग को संबोधित करने के लिए मर्सर के प्रमेय को भी बढ़ाया जा सकता है और इसलिए हम वीवीआरकेएचएस का एक फीचर मैप दृश्य प्राप्त कर सकते हैं। अंत में, यह भी दिखाया जा सकता है कि स्पैन का बंद होना <math> \{ \Gamma_xc : x \in X, c \in \mathbb{R}^T \} </math> के साथ मेल खाता है <math> H </math>, अदिश-मूल्यवान स्थितियों के समान एक और संपत्ति।


हम इन स्थानों पर घटक-वार परिप्रेक्ष्य लेकर वीवीआरकेएचएस के लिए अंतर्ज्ञान प्राप्त कर सकते हैं। विशेष रूप से, हम पाते हैं कि प्रत्येक वीवीआरकेएचएस एक विशेष इनपुट स्थान पर स्केलर-मूल्य वाले आरकेएचएस के लिए सममितीय रूप से [[ समरूपी ]] है। होने देना <math>\Lambda = \{1, \dots, T \} </math>. स्थान पर विचार करें <math> X \times \Lambda </math> और संबंधित पुनरुत्पादन कर्नेल
हम इन स्थानों पर घटक-वार परिप्रेक्ष्य लेकर वीवीआरकेएचएस के लिए अंतर्ज्ञान प्राप्त कर सकते हैं। विशेष रूप से, हम पाते हैं कि प्रत्येक वीवीआरकेएचएस एक विशेष इनपुट स्थान पर स्केलर-मूल्य वाले आरकेएचएस के लिए सममितीय रूप से [[ समरूपी ]] है। इस प्रकार होने देना <math>\Lambda = \{1, \dots, T \} </math>. स्थान पर विचार करें <math> X \times \Lambda </math> और संबंधित पुनरुत्पादन कर्नेल


{{NumBlk|:|<math> \gamma: X \times \Lambda \times X \times \Lambda \to \mathbb{R}. </math>|{{EquationRef|4}}}}
{{NumBlk|:|<math> \gamma: X \times \Lambda \times X \times \Lambda \to \mathbb{R}. </math>|{{EquationRef|4}}}}


जैसा कि ऊपर उल्लेख किया गया है, इस पुनरुत्पादन कर्नेल से जुड़ा आरकेएचएस स्पैन के बंद होने से दिया गया है <math>\{ \gamma_{(x,t)} : x \in X, t \in \Lambda \} </math> कहाँ
जैसा कि ऊपर उल्लेख किया गया है, इस पुनरुत्पादन कर्नेल से जुड़ा आरकेएचएस स्पैन के बंद होने से दिया गया है <math>\{ \gamma_{(x,t)} : x \in X, t \in \Lambda \} </math> कहाँ
  <math> \gamma_{(x,t)} (y,s)  = \gamma( (x,t), (y,s)) </math> जोड़ियों के प्रत्येक सेट के लिए {{nowrap|<math> (x,t), (y,s) \in  X \times \Lambda </math>.}}
  <math> \gamma_{(x,t)} (y,s)  = \gamma( (x,t), (y,s)) </math> जोड़ियों के प्रत्येक समुच्चय के लिए {{nowrap|<math> (x,t), (y,s) \in  X \times \Lambda </math>.}}


स्केलर-मूल्यवान आरकेएचएस से संबंध इस तथ्य से बनाया जा सकता है कि प्रत्येक मैट्रिक्स-मूल्यवान कर्नेल को फॉर्म के कर्नेल के साथ पहचाना जा सकता है ({{EquationNote|4}}) के जरिए
स्केलर-मूल्यवान आरकेएचएस से संबंध इस तथ्य से बनाया जा सकता है कि प्रत्येक मैट्रिक्स-मूल्यवान कर्नेल को फॉर्म के कर्नेल के साथ पहचाना जा सकता है ({{EquationNote|4}}) के जरिए


:<math> \Gamma(x,y)_{(t,s)} = \gamma((x,t), (y,s)). </math>
:<math> \Gamma(x,y)_{(t,s)} = \gamma((x,t), (y,s)). </math>
इसके अलावा, प्रत्येक कर्नेल ({{EquationNote|4}}) उपरोक्त अभिव्यक्ति के साथ एक मैट्रिक्स-मूल्यवान कर्नेल को परिभाषित करता है। अब नक्शा दे रहा हूँ <math> D: H_\Gamma \to H_\gamma </math> के रूप में परिभाषित किया जाए
इसके अतिरिक्त, प्रत्येक कर्नेल ({{EquationNote|4}}) उपरोक्त अभिव्यक्ति के साथ एक मैट्रिक्स-मूल्यवान कर्नेल को परिभाषित करता है। अब नक्शा दे रहा हूँ <math> D: H_\Gamma \to H_\gamma </math> के रूप में परिभाषित किया जाए


:<math> (Df)(x,t) = \langle f(x), e_t \rangle_{\mathbb{R}^T} </math>
:<math> (Df)(x,t) = \langle f(x), e_t \rangle_{\mathbb{R}^T} </math>
कहाँ <math> e_t </math> है <math> t^\text{th} </math> के लिए विहित आधार का घटक <math> \mathbb{R}^T </math>, कोई इसे दिखा सकता है <math> D </math> विशेषण है और बीच में एक आइसोमेट्री है <math> H_\Gamma </math> और <math> H_\gamma </math>.
कहाँ <math> e_t </math> है <math> t^\text{th} </math> के लिए विहित आधार का घटक <math> \mathbb{R}^T </math>, कोई इसे दिखा सकता है <math> D </math> विशेषण है और बीच में एक आइसोमेट्री है <math> H_\Gamma </math> और <math> H_\gamma </math>.


जबकि वीवीआरकेएचएस का यह दृश्य बहु-कार्य सीखने में उपयोगी हो सकता है, यह आइसोमेट्री वेक्टर-मूल्य वाले मामले के अध्ययन को स्केलर-मूल्यवान मामले के अध्ययन तक कम नहीं करता है। वास्तव में, यह आइसोमेट्री प्रक्रिया स्केलर-वैल्यू कर्नेल और इनपुट स्पेस दोनों को व्यवहार में काम करने के लिए बहुत कठिन बना सकती है क्योंकि मूल कर्नेल के गुण अक्सर खो जाते हैं।<ref>De Vito</ref><ref>Zhang</ref><ref>Alvarez</ref>
जबकि वीवीआरकेएचएस का यह दृश्य बहु-कार्य सीखने में उपयोगी हो सकता है, यह आइसोमेट्री वेक्टर-मूल्य वाले स्थितियों के अध्ययन को स्केलर-मूल्यवान स्थितियों के अध्ययन तक कम नहीं करता है। इस प्रकार वास्तव में, यह आइसोमेट्री प्रक्रिया स्केलर-वैल्यू कर्नेल और इनपुट समष्टि दोनों को व्यवहार में काम करने के लिए बहुत कठिन बना सकती है क्योंकि मूल कर्नेल के गुण अधिकांशतः खो जाते हैं।<ref>De Vito</ref><ref>Zhang</ref><ref>Alvarez</ref>
मैट्रिक्स-मूल्यवान पुनरुत्पादन कर्नेल का एक महत्वपूर्ण वर्ग अलग-अलग कर्नेल हैं जिन्हें स्केलर मूल्यवान कर्नेल के उत्पाद के रूप में फैक्टराइज़ किया जा सकता है और ए <math>T</math>-आयामी सममित सकारात्मक अर्ध-निश्चित मैट्रिक्स। हमारी पिछली चर्चा के आलोक में ये गुठलियाँ इस प्रकार हैं
 
मैट्रिक्स-मूल्यवान पुनरुत्पादन कर्नेल का एक महत्वपूर्ण वर्ग अलग-अलग कर्नेल हैं जिन्हें स्केलर मूल्यवान कर्नेल के उत्पाद के रूप में फैक्टराइज़ किया जा सकता है और ए <math>T</math>-आयामी सममित धनात्मक अर्ध-निश्चित मैट्रिक्स। हमारी पिछली चर्चा के आलोक में ये गुठलियाँ इस प्रकार हैं


:<math> \gamma((x,t),(y,s)) =  K(x,y) K_T(t,s) </math>
:<math> \gamma((x,t),(y,s)) =  K(x,y) K_T(t,s) </math>
सभी के लिए <math>x,y </math> में <math> X </math> और <math>t,s</math> में <math> T </math>. चूँकि स्केलर-मूल्यवान कर्नेल इनपुट के बीच निर्भरता को एनकोड करता है, हम देख सकते हैं कि मैट्रिक्स-मूल्यवान कर्नेल इनपुट और आउटपुट दोनों के बीच निर्भरता को एनकोड करता है।
सभी के लिए <math>x,y </math> में <math> X </math> और <math>t,s</math> में <math> T </math>. चूँकि स्केलर-मूल्यवान कर्नेल इनपुट के बीच निर्भरता को एनकोड करता है, हम देख सकते हैं कि मैट्रिक्स-मूल्यवान कर्नेल इनपुट और आउटपुट दोनों के बीच निर्भरता को एनकोड करता है।


हम अंत में टिप्पणी करते हैं कि उपरोक्त सिद्धांत को फ़ंक्शन स्थानों में मानों के साथ कार्यों के स्थानों तक बढ़ाया जा सकता है लेकिन इन स्थानों के लिए कर्नेल प्राप्त करना अधिक कठिन कार्य है।<ref>Rosasco</ref>
हम अंत में टिप्पणी करते हैं कि उपरोक्त सिद्धांत को फलन स्थानों में मानों के साथ फलनों के स्थानों तक बढ़ाया जा सकता है किन्तु इन स्थानों के लिए कर्नेल प्राप्त करना अधिक कठिन कार्य है।<ref>Rosasco</ref>
 
==ReLU फलन के साथ RKHS के बीच कनेक्शन ==
 
रेक्टिफायर (तंत्रिका नेटवर्क) को सामान्यतः इस प्रकार परिभाषित किया जाता है <math>f(x)=\max \{0, x\}</math> और यह तंत्रिका नेटवर्क की वास्तुकला में एक मुख्य आधार है जहां इसका उपयोग सक्रियण फलन के रूप में किया जाता है। कर्नेल हिल्बर्ट रिक्त स्थान को पुन: प्रस्तुत करने के सिद्धांत का उपयोग करके कोई ReLU-जैसे नॉनलाइनियर फलन का निर्माण कर सकता है। नीचे, हम इस निर्माण को प्राप्त करते हैं और दिखाते हैं कि यह ReLU सक्रियणों के साथ तंत्रिका नेटवर्क की प्रतिनिधित्व शक्ति को कैसे दर्शाता है।
==ReLU फ़ंक्शन के साथ RKHS के बीच कनेक्शन ==
रेक्टिफायर (तंत्रिका नेटवर्क) को आमतौर पर इस प्रकार परिभाषित किया जाता है <math>f(x)=\max \{0, x\}</math> और यह तंत्रिका नेटवर्क की वास्तुकला में एक मुख्य आधार है जहां इसका उपयोग सक्रियण फ़ंक्शन के रूप में किया जाता है। कर्नेल हिल्बर्ट रिक्त स्थान को पुन: प्रस्तुत करने के सिद्धांत का उपयोग करके कोई ReLU-जैसे नॉनलाइनियर फ़ंक्शन का निर्माण कर सकता है। नीचे, हम इस निर्माण को प्राप्त करते हैं और दिखाते हैं कि यह ReLU सक्रियणों के साथ तंत्रिका नेटवर्क की प्रतिनिधित्व शक्ति को कैसे दर्शाता है।


हम हिल्बर्ट क्षेत्र के साथ काम करेंगे <math> \mathcal{H}=L^1_2(0)[0, \infty) </math> के साथ बिल्कुल निरंतर कार्य करता है <math>f(0) = 0</math> और वर्ग पूर्णांक (अर्थात्) <math>L_2</math>) व्युत्पन्न। इसमें आंतरिक उत्पाद है
हम हिल्बर्ट क्षेत्र के साथ काम करेंगे <math> \mathcal{H}=L^1_2(0)[0, \infty) </math> के साथ बिल्कुल निरंतर कार्य करता है <math>f(0) = 0</math> और वर्ग पूर्णांक (अर्थात्) <math>L_2</math>) व्युत्पन्न। इसमें आंतरिक उत्पाद है
Line 263: Line 254:
यह संकेत करता है <math>K_y=K(\cdot, y)</math> पुनरुत्पादन करता है <math>f</math>.
यह संकेत करता है <math>K_y=K(\cdot, y)</math> पुनरुत्पादन करता है <math>f</math>.


इसके अलावा न्यूनतम फ़ंक्शन चालू है <math> X\times X = [0,\infty)\times [0,\infty) </math> ReLu फ़ंक्शन के साथ निम्नलिखित प्रस्तुतियाँ हैं:
इसके अतिरिक्त न्यूनतम फलन चालू है <math> X\times X = [0,\infty)\times [0,\infty) </math> ReLu फलन के साथ निम्नलिखित प्रस्तुतियाँ हैं:


: <math> \min(x,y) = x -\operatorname{ReLU}(x-y)  =  y - \operatorname{ReLU}(y-x). </math>
: <math> \min(x,y) = x -\operatorname{ReLU}(x-y)  =  y - \operatorname{ReLU}(y-x). </math>
इस फॉर्मूलेशन का उपयोग करके, हम प्रतिनिधि प्रमेय को आरकेएचएस पर लागू कर सकते हैं, जिससे तंत्रिका नेटवर्क सेटिंग्स में ReLU सक्रियणों का उपयोग करने की इष्टतमता साबित हो सकती है।{{Citation needed|date=January 2022|reason=Optimal in what sense?}}
इस फॉर्मूलेशन का उपयोग करके, हम प्रतिनिधि प्रमेय को आरकेएचएस पर लागू कर सकते हैं, जिससे तंत्रिका नेटवर्क समुच्चयिंग्स में ReLU सक्रियणों का उपयोग करने की इष्टतमता सिद्ध करना  हो सकती है।


== यह भी देखें ==
== यह भी देखें ==
*सकारात्मक निश्चित कर्नेल
*धनात्मक निश्चित कर्नेल
*मर्सर का प्रमेय
*मर्सर का प्रमेय
*कर्नेल ट्रिक
*कर्नेल ट्रिक
Line 277: Line 268:
==टिप्पणियाँ==
==टिप्पणियाँ==
{{Reflist}}
{{Reflist}}
==संदर्भ==
==संदर्भ==
*Alvarez, Mauricio, Rosasco, Lorenzo and Lawrence, Neil, “Kernels for Vector-Valued Functions: a Review,” https://arxiv.org/abs/1106.6251, June 2011.
*Alvarez, Mauricio, Rosasco, Lorenzo and Lawrence, Neil, “Kernels for Vector-Valued Functions: a Review,” https://arxiv.org/abs/1106.6251, June 2011.
Line 324: Line 313:
* [[Grace Wahba|Wahba, Grace]],  ''Spline Models for Observational Data'', [http://www.siam.org/books/ SIAM], 1990.
* [[Grace Wahba|Wahba, Grace]],  ''Spline Models for Observational Data'', [http://www.siam.org/books/ SIAM], 1990.
*{{cite journal | last1 = Zhang | first1 = Haizhang | last2 = Xu | first2 = Yuesheng | last3 = Zhang | first3 = Qinghui | year = 2012 | title = Refinement of Operator-valued Reproducing Kernels | journal = Journal of Machine Learning Research | volume = 13 | pages = 91–136 |url=http://www.jmlr.org/papers/volume13/zhang12a/zhang12a.pdf}}
*{{cite journal | last1 = Zhang | first1 = Haizhang | last2 = Xu | first2 = Yuesheng | last3 = Zhang | first3 = Qinghui | year = 2012 | title = Refinement of Operator-valued Reproducing Kernels | journal = Journal of Machine Learning Research | volume = 13 | pages = 91–136 |url=http://www.jmlr.org/papers/volume13/zhang12a/zhang12a.pdf}}
[[Category: हिल्बर्ट स्थान]]


[[Category: Machine Translated Page]]
[[Category:Created On 30/06/2023]]
[[Category:Created On 30/06/2023]]
[[Category:Lua-based templates]]
[[Category:Machine Translated Page]]
[[Category:Pages with script errors]]
[[Category:Short description with empty Wikidata description]]
[[Category:Templates Vigyan Ready]]
[[Category:Templates that add a tracking category]]
[[Category:Templates that generate short descriptions]]
[[Category:Templates using TemplateData]]
[[Category:हिल्बर्ट स्थान]]

Latest revision as of 14:16, 24 August 2023

चित्र आरकेएचएस को देखने के लिए संबंधित किन्तु अलग-अलग दृष्टिकोण दिखाता है

कार्यात्मक विश्लेषण (गणित की एक शाखा) में, एक पुनरुत्पादन कर्नेल हिल्बर्ट समष्टि (आरकेएचएस) फलनों का एक हिल्बर्ट समष्टि है जिसमें बिंदु मूल्यांकन एक सतत रैखिक कार्यात्मक (गणित) है। मोटे तौर पर कहें तो इसका मतलब यह है कि यदि दो कार्य करते हैं और आरकेएचएस में मानक के निकट हैं, अर्थात, तो फिर छोटा है और बिंदुवार भी निकट हैं, अर्थात, सबके लिए छोटा है . बातचीत का सत्य होना आवश्यक नहीं है। इस प्रकार अनौपचारिक रूप से, इसे यूनिफ़ॉर्म मानदंड: फलनों के अनुक्रम को देखकर दिखाया जा सकता है बिंदुवार अभिसरण करता है, किन्तु समान अभिसरण नहीं करता है अर्थात सर्वोच्च मानदंड के संबंध में अभिसरण नहीं करता है (यह एक प्रति उदाहरण नहीं है क्योंकि समांतर चतुर्भुज नियम को संतुष्ट न करने के कारण सर्वोच्च मानदंड किसी भी आंतरिक उत्पाद से उत्पन्न नहीं होता है।)

फलन के हिल्बर्ट समष्टि का निर्माण करना पूरी तरह से सरल नहीं है जो आर.के.एच.एस नहीं है।[1] चूँकि, कुछ उदाहरण मिले हैं।[2][3]

L2 रिक्त स्थान फलनों के हिल्बर्ट स्थान नहीं हैं (और इसलिए आरकेएचएस नहीं हैं), बल्कि फलनों के समतुल्य वर्गों के हिल्बर्ट स्थान हैं (उदाहरण के लिए, फलन और द्वारा परिभाषित और L2 में समतुल्य हैं)। चूँकि, ऐसे आरकेएचएस हैं जिनमें मानक L2-मानदंड है, जैसे बैंड-सीमित फलनों का स्थान (नीचे उदाहरण देखें)।

आरकेएचएस एक कर्नेल से जुड़ा है जो अंतरिक्ष में हर फलन को हर एक के अर्थ में पुन: प्रस्तुत करता है उस समुच्चय में जिस पर फलन परिभाषित किए गए हैं, "मूल्यांकन पर " कर्नेल द्वारा निर्धारित फलन के साथ एक आंतरिक उत्पाद लेकर निष्पादित किया जा सकता है। इस प्रकार ऐसा पुनरुत्पादन कर्नेल तभी उपस्तिथ होता है जब प्रत्येक मूल्यांकन कार्यात्मकता निरंतर होती है।

पुनरुत्पादन कर्नेल को पहली बार साल 1907 में हार्मोनिक फलन और बिहार्मोनिक समीकरण के लिए सीमा मूल्य समस्याओं से संबंधित स्टैनिस्लाव ज़रेम्बा के काम में प्रस्तुत किया गया था, जेम्स मर्सर ने एक साथ उन फलनों की जांच की जो अभिन्न समीकरणों के सिद्धांत में पुनरुत्पादन संपत्ति को संतुष्ट करते हैं। इस प्रकार पुनरुत्पादन कर्नेल का विचार लगभग बीस वर्षों तक अछूता रहा जब तक कि यह गैबोर सजेगो, स्टीफन बर्गमैन और सॉलोमन बोचनर के शोध प्रबंधों में सामने नहीं आया। इस विषय को अंततः साल 1950 के दशक की शुरुआत में नचमन एरोनज़जन और स्टीफ़न बर्गमैन द्वारा व्यवस्थित रूप से विकसित किया गया था।[4]

इन स्थानों में व्यापक अनुप्रयोग हैं, जिनमें सम्मिश्र विश्लेषण, हार्मोनिक विश्लेषण और क्वांटम यांत्रिकी सम्मिलित हैं। प्रसिद्ध प्रतिनिधि प्रमेय के कारण सांख्यिकीय शिक्षण सिद्धांत के क्षेत्र में कर्नेल हिल्बर्ट रिक्त स्थान का पुनरुत्पादन विशेष रूप से महत्वपूर्ण है, जिसमें कहा गया है कि आरकेएचएस में प्रत्येक फलन जो एक अनुभवजन्य जोखिम कार्यात्मक को कम करता है, इस प्रकार उसे प्रशिक्षण बिंदुओं पर मूल्यांकन किए गए कर्नेल फलन के रैखिक संयोजन के रूप में लिखा जा सकता है। यह एक व्यावहारिक रूप से उपयोगी परिणाम है क्योंकि यह अनुभवजन्य जोखिम न्यूनीकरण समस्या को अनंत आयामी से सीमित आयामी अनुकूलन समस्या तक प्रभावी ढंग से सरल बनाता है।

समझने में आसानी के लिए, हम वास्तविक-मूल्यवान हिल्बर्ट स्थानों के लिए रूपरेखा प्रदान करते हैं। इस प्रकार सिद्धांत को आसानी से सम्मिश्र-मूल्य वाले फलनों के स्थानों तक बढ़ाया जा सकता है और इसलिए इसमें कर्नेल हिल्बर्ट रिक्त स्थान को पुन: प्रस्तुत करने के कई महत्वपूर्ण उदाहरण सम्मिलित हैं जो विश्लेषणात्मक कार्य के स्थान हैं।[5]

परिभाषा

होने देना एक मनमाना समुच्चय हो और वास्तविक-मूल्यवान फलनों का एक हिल्बर्ट स्थान , बिंदुवार जोड़ और बिंदुवार अदिश गुणन से सुसज्जित फलनों के हिल्बर्ट स्थान पर कार्टेशियन बंद श्रेणी मूल्यांकन कार्यात्मक एक रैखिक कार्यात्मक है जो प्रत्येक फलन का एक बिंदु पर मूल्यांकन करती है ,

हम कहते हैं कि यदि सभी के लिए H एक 'प्रजनन कर्नेल हिल्बर्ट समष्टि' है में , प्रत्येक पर सतत कार्य (टोपोलॉजी) है में या, समकक्ष, यदि पर एक परिबद्ध संचालिका है , अर्थात कुछ उपस्तिथ है ऐसा है कि

 

 

 

 

(1)

यद्यपि सभी के लिए मान लिया गया है , अभी भी ऐसा ही हो सकता है .

जबकि संपत्ति (1) सबसे कमजोर स्थिति है जो आंतरिक उत्पाद के अस्तित्व और प्रत्येक फलन के मूल्यांकन दोनों को सुनिश्चित करती है डोमेन के प्रत्येक बिंदु पर, यह व्यवहार में आसान अनुप्रयोग के लिए उपयुक्त नहीं है। आरकेएचएस की एक अधिक सहज परिभाषा यह देखकर प्राप्त की जा सकती है कि यह संपत्ति गारंटी देती है कि मूल्यांकन कार्यात्मकता का आंतरिक उत्पाद लेकर प्रतिनिधित्व किया जा सकता है एक समारोह के साथ में . यह फलन तथाकथित पुनरुत्पादन कर्नेल है हिल्बर्ट स्थान के लिए जिससे आरकेएचएस का नाम पड़ा एवं अधिक औपचारिक रूप से, रिज़्ज़ प्रतिनिधित्व प्रमेय का तात्पर्य सभी के लिए है में वहां एक अनोखा तत्व उपस्तिथ है का पुनरुत्पादन संपत्ति के साथ,

 

 

 

 

(2)

तब से यह अपने आप में परिभाषित एक फलन है क्षेत्र में मूल्यों के साथ (या सम्मिश्र हिल्बर्ट स्थानों के स्थितियों में) और जैसे में है हमारे पास वह है

कहाँ में तत्व है के लिए जुड़े .

यह हमें पुनरुत्पादन कर्नेल को परिभाषित करने की अनुमति देता है एक समारोह के रूप में द्वारा

इस परिभाषा से यह देखना आसान है (या सम्मिश्र स्थितियों में) सममित (सम्मान संयुग्म सममित) और धनात्मक निश्चित दोनों है, अर्थात।

हरएक के लिए [6] मूर-एरोन्सज़जन प्रमेय (नीचे देखें) इसका एक प्रकार से विपरीत है: यदि कोई फलन इन शर्तों को पूरा करता है तो फलनों का एक हिल्बर्ट स्थान होता है जिसके लिए यह एक पुनरुत्पादक कर्नेल है।

उदाहरण

बैंडलिमिटिंग निरंतर फलनों का स्थान एक आरकेएचएस है, जैसा कि हम अब दिखाते हैं। औपचारिक रूप से, कुछ कटऑफ आवृत्ति तय करें और हिल्बर्ट स्थान को परिभाषित करें

कहाँ सतत वर्ग पूर्णांकीय फलनों का समुच्चय है, और का फूरियर रूपांतरण है . इस हिल्बर्ट समष्टि के आंतरिक उत्पाद के रूप में, हम उपयोग करते हैं

फूरियर व्युत्क्रम प्रमेय से, हमारे पास है

इसके बाद कॉची-श्वार्ज़ असमानता और प्लांचरेल के प्रमेय का पालन होता है, जो सभी के लिए है ,

यह असमानता दर्शाती है कि मूल्यांकन कार्यात्मकता सीमित है, जिससे यह सिद्ध करना होता है वास्तव में एक आरकेएचएस है।

कर्नेल फलन इस स्थितियों में द्वारा दिया गया है

का फूरियर रूपांतरण ऊपर परिभाषित द्वारा दिया गया है

जो फूरियर ट्रांसफॉर्म#बेसिक प्रॉपर्टीज|फूरियर ट्रांसफॉर्म की टाइम-शिफ्टिंग प्रॉपर्टी का परिणाम है। परिणाम स्वरुप , प्लैंचरेल के प्रमेय का उपयोग करते हुए, हमारे पास है

इस प्रकार हम कर्नेल की पुनरुत्पादन संपत्ति प्राप्त करते हैं।

इस स्थितियों में डिराक डेल्टा फलन का बैंडलिमिटेड संस्करण है, और वह में एकत्रित हो जाता है कटऑफ आवृत्ति के रूप में कमजोर अर्थ में अनन्त की ओर प्रवृत्त होता है।

मूर-अरोनज़जन प्रमेय

हमने देखा है कि कैसे एक पुनरुत्पादक कर्नेल हिल्बर्ट समष्टि एक पुनरुत्पादक कर्नेल फलन को परिभाषित करता है जो सममित और धनात्मक निश्चित कर्नेल दोनों है। इस प्रकार मूर-अरोन्सज़जन प्रमेय दूसरी दिशा में जाता है; इसमें कहा गया है कि प्रत्येक सममित, धनात्मक निश्चित कर्नेल एक अद्वितीय पुनरुत्पादन कर्नेल हिल्बर्ट समष्टि को परिभाषित करता है। प्रमेय पहली बार एरोनज़जन की थ्योरी ऑफ़ रिप्रोड्यूसिंग कर्नेल्स में दिखाई दिया, चूँकि वह इसका श्रेय ई. एच. मूर को देते हैं।

'प्रमेय'. मान लीजिए कि K एक समुच्चय

'सबूत'। एक्स में सभी एक्स के लिए, के को परिभाषित करेंx= के(एक्स, ⋅ ). चलो एच0 {K का रैखिक विस्तार होx: एक्स ∈ एक्स}. H पर एक आंतरिक उत्पाद को परिभाषित करें0 द्वारा

जो ये दर्शाता हे .

इस आंतरिक उत्पाद की समरूपता K की समरूपता से उत्पन्न होती है और गैर-अपघटन इस तथ्य से उत्पन्न होती है कि K धनात्मक निश्चित है।

मान लीजिए H, H का समापन (मीट्रिक स्थान) है0 इस आंतरिक उत्पाद के संबंध में. फिर H में फॉर्म के फलन सम्मिलित हैं

अब हम पुनरुत्पादन गुण की जांच कर सकते हैं (2):

विशिष्टता सिद्ध करना करने के लिए, मान लीजिए कि G फलन का एक और हिल्बर्ट स्थान है जिसके लिए K एक पुनरुत्पादक कर्नेल है। X में प्रत्येक x और y के लिए, (2) इसका आशय है

रैखिकता से, के विस्तार पर . तब क्योंकि G पूर्ण है और इसमें H सम्मिलित है0 और इसलिए इसमें इसकी पूर्णता सम्मिलित है।

अब हमें यह सिद्ध करना है कि G का प्रत्येक तत्व H में है G का एक तत्व हो। चूँकि H, G का एक बंद उपस्थान है, इसलिए हम लिख सकते हैं कहाँ और . अब यदि तब, चूँकि K, G और H का पुनरुत्पादक कर्नेल है:

जहाँ हमने इस तथ्य का प्रयोग किया है H से संबंधित है जिससे कि इसका आंतरिक उत्पाद साथ हो जी में शून्य है. इससे पता चलता है कि जी में और प्रमाण समाप्त होता है।

इंटीग्रल ऑपरेटर्स और मर्सर का प्रमेय

हम एक सममित धनात्मक निश्चित कर्नेल की विशेषता बता सकते हैं मर्सर के प्रमेय का उपयोग करके इंटीग्रल ऑपरेटर के माध्यम से और आरकेएचएस का एक अतिरिक्त दृश्य प्राप्त करें। होने देना सख्ती से धनात्मक परिमित बोरेल माप से सुसज्जित एक कॉम्पैक्ट स्थान बनें और एक सतत, सममित और धनात्मक निश्चित कार्य। इंटीग्रल ऑपरेटर को परिभाषित करें जैसा

कहाँ के संबंध में वर्गाकार समाकलनीय फलनों का स्थान है .

मर्सर के प्रमेय में कहा गया है कि अभिन्न ऑपरेटर का वर्णक्रमीय अपघटन का का एक श्रृंखला प्रतिनिधित्व प्राप्त होता है के अभिलाक्षणिक मान ​​​​और अभिलक्षणिक फलन के संदर्भ में . इसका तात्पर्य यह है कि एक पुनरुत्पादन कर्नेल है जिससे कि संबंधित आरकेएचएस को इन अभिलाक्षणिक मान ​​​​और अभिलक्षणिक फलन के संदर्भ में परिभाषित किया जा सके। हम नीचे विवरण प्रदान करते हैं।

इन धारणाओं के अनुसार एक सघन, सतत, स्व-सहायक और धनात्मक संचालिका है। स्व-सहायक ऑपरेटरों के लिए वर्णक्रमीय प्रमेय का तात्पर्य है कि अधिकतम गणनीय घटता क्रम है ऐसा है कि और

, जहां का असामान्य आधार बनाएं . की धनात्मकता से सभी के लिए वो भी कोई दिखा सकता है सतत फलनों के स्थान में निरंतर मानचित्रण करता है और इसलिए हम आइजन्वेक्टर के रूप में निरंतर फलनों को चुन सकते हैं, अर्थात, सभी के लिए फिर मर्सर के प्रमेय द्वारा अभिलाक्षणिक मान ​​​​और निरंतर अभिलक्षणिक फलन के संदर्भ में लिखा जा सकता है

सभी के लिए ऐसा है कि

इस उपरोक्त श्रृंखला प्रतिनिधित्व को मर्सर कर्नेल या मर्सर प्रतिनिधित्व के रूप में जाना जाता है .

इसके अतिरिक्त, यह दिखाया जा सकता है कि आरकेएचएस का द्वारा दिया गया है

जहां का आंतरिक उत्पाद द्वारा दिए गए

आरकेएचएस के इस प्रतिनिधित्व का संभाव्यता और सांख्यिकी में अनुप्रयोग है, उदाहरण के लिए स्टोकेस्टिक प्रक्रियाओं और कर्नेल पीसीए के लिए करहुनेन-लोवे प्रमेय | करहुनेन-लोवे प्रतिनिधित्व।

फ़ीचर मानचित्र

फ़ीचर मानचित्र एक मानचित्र है , कहाँ एक हिल्बर्ट समष्टि है जिसे हम फीचर समष्टि कहेंगे। पहले खंड में बंधे/निरंतर मूल्यांकन फलनों, धनात्मक निश्चित फलनों और अभिन्न ऑपरेटरों के बीच संबंध प्रस्तुत किया गया है और इस खंड में हम फीचर मानचित्रों के संदर्भ में आरकेएचएस का एक और प्रतिनिधित्व प्रदान करते हैं।

प्रत्येक फीचर मैप एक कर्नेल को परिभाषित करता है

 

 

 

 

(3)

स्पष्ट रूप से सममित है और धनात्मक निश्चितता आंतरिक उत्पाद के गुणों से आती है . इसके विपरीत, प्रत्येक धनात्मक निश्चित फलन और संबंधित पुनरुत्पादन कर्नेल हिल्बर्ट समष्टि में असीमित रूप से कई संबद्ध फ़ीचर मानचित्र होते हैं जैसे कि (3) धारण करता है.

उदाहरण के लिए, हम तुच्छ रूप से ले सकते हैं और सभी के लिए . तब (3) पुनरुत्पादक संपत्ति से संतुष्ट है। फ़ीचर मैप का एक और मौलिक उदाहरण इंटीग्रल ऑपरेटरों के संबंध में पिछले अनुभाग से संबंधित है और .

कर्नेल और फीचर मैप के बीच यह संबंध हमें धनात्मक निश्चित फलनों को समझने का एक नया विधि प्रदान करता है और इसलिए कर्नेल को आंतरिक उत्पादों के रूप में पुन: प्रस्तुत करता है। . इसके अतिरिक्त, प्रत्येक फीचर मैप एक धनात्मक निश्चित फलन की परिभाषा के माध्यम से स्वाभाविक रूप से आरकेएचएस को परिभाषित कर सकता है।

अंत में, फीचर मैप हमें फलन समष्टि बनाने की अनुमति देते हैं जो आरकेएचएस पर एक और परिप्रेक्ष्य प्रकट करते हैं। रैखिक स्थान पर विचार करें

हम एक मानदंड को परिभाषित कर सकते हैं द्वारा

ऐसा दिखाया जा सकता है कर्नेल द्वारा परिभाषित आरकेएचएस है . इस प्रतिनिधित्व का तात्पर्य है कि आरकेएचएस के तत्व फीचर समष्टि में तत्वों के आंतरिक उत्पाद हैं और तदनुसार हाइपरप्लेन के रूप में देखे जा सकते हैं। आरकेएचएस का यह दृश्य मशीन लर्निंग में कर्नेल चाल से संबंधित है।[7]

गुण

आरकेएचएस के निम्नलिखित गुण पाठकों के लिए उपयोगी हो सकते हैं।

  • होने देना समुच्चयों का एक क्रम बनें और संबंधित धनात्मक निश्चित फलनों का एक संग्रह बनें इसके बाद यह अनुसरण करता है
    एक कर्नेल चालू है
  • होने देना फिर का प्रतिबंध को एक पुनरुत्पादक कर्नेल भी है।
  • सामान्यीकृत कर्नेल पर विचार करें ऐसा है कि सभी के लिए . X पर छद्म-मीट्रिक को इस प्रकार परिभाषित करें
    कॉची-श्वार्ज़ असमानता द्वारा,
    यह असमानता हमें देखने की अनुमति देती है इनपुट के बीच समानता माप के रूप में। यदि फिर समान हैं 1 के निकट होगा जबकि यदि फिर भिन्न हैं 0 के निकट होगा.
  • के स्पैन का बंद होना के साथ मेल खाता है .[8]

सामान्य उदाहरण

बिलिनियर कर्नेल

आरकेएचएस इस कर्नेल के अनुरूप दोहरा स्थान है, जिसमें फलन सम्मिलित हैं संतुष्टि देने वाला .

बहुपद कर्नेल

रेडियल आधार फलन कर्नेल

ये गुठली का एक और सामान्य वर्ग है जो संतुष्ट करता है . कुछ उदाहरणों में सम्मिलित हैं:

  • गाऊशियन या वर्गाकार घातीय कर्नेल:
  • लाप्लासियन कर्नेल:
    किसी फलन का वर्ग मानदंड आरकेएचएस में इस कर्नेल के साथ है:[9]

बर्गमैन कर्नेल

हम बर्गमैन कर्नेल के उदाहरण भी प्रदान करते हैं। मान लीजिए कि यदि सामान्य आंतरिक उत्पाद का उपयोग किया जाता है, तो केxवह फलन है जिसका मान x पर 1 और अन्य सभी जगह 0 है, और तब से इसे एक पहचान मैट्रिक्स के रूप में सोचा जा सकता है

इस स्थितियों में, H समरूपी है .

के स्थितियों में (कहाँ यूनिट डिस्क को दर्शाता है) अधिक परिष्कृत है। यहां बर्गमैन समष्टि एच स्क्वायर|वर्ग-अभिन्न फलन का स्थान है|वर्ग-अभिन्न होलोमोर्फिक फलन पर . यह दिखाया जा सकता है कि पुनरुत्पादन कर्नेल के लिए है

अंत में, बैंड का स्थान सीमित कार्य करता है बैंडविड्थ के साथ पुनरुत्पादन कर्नेल वाला आरकेएचएस है

वेक्टर-मूल्यवान फलन का विस्तार

इस खंड में हम आरकेएचएस की परिभाषा को वेक्टर-मूल्यवान फलनों के स्थानों तक विस्तारित करते हैं क्योंकि यह विस्तार बहु-कार्य सीखने और कई गुना नियमितीकरण में विशेष रूप से महत्वपूर्ण है। इस प्रकार मुख्य अंतर यह है कि पुनरुत्पादन कर्नेल एक सममित फलन है जो अब प्रत्येक के लिए एक धनात्मक अर्ध-निश्चित मैट्रिक्स है में . अधिक औपचारिक रूप से, हम एक वेक्टर-मूल्यवान आरकेएचएस (वीवीआरकेएचएस) को फलनों के हिल्बर्ट स्थान के रूप में परिभाषित करते हैं ऐसा कि सभी के लिए और

और

यह दूसरी संपत्ति अदिश-मूल्य वाले स्थितियों के लिए पुनरुत्पादन संपत्ति के समानांतर है। इस परिभाषा को इंटीग्रल ऑपरेटर्स, बाउंडेड इवैल्यूएशन फलन और फ़ीचर मैप्स से भी जोड़ा जा सकता है, जैसा कि हमने स्केलर-वैल्यू आरकेएचएस के लिए देखा था। इस प्रकार हम वीवीआरकेएचएस को एक सीमित मूल्यांकन कार्यात्मकता के साथ एक वेक्टर-मूल्यवान हिल्बर्ट समष्टि के रूप में परिभाषित कर सकते हैं और दिखा सकते हैं कि यह रिज़्ज़ प्रतिनिधित्व प्रमेय द्वारा एक अद्वितीय पुनरुत्पादन कर्नेल के अस्तित्व का तात्पर्य है। वेक्टर-मूल्य समुच्चयिंग को संबोधित करने के लिए मर्सर के प्रमेय को भी बढ़ाया जा सकता है और इसलिए हम वीवीआरकेएचएस का एक फीचर मैप दृश्य प्राप्त कर सकते हैं। अंत में, यह भी दिखाया जा सकता है कि स्पैन का बंद होना के साथ मेल खाता है , अदिश-मूल्यवान स्थितियों के समान एक और संपत्ति।

हम इन स्थानों पर घटक-वार परिप्रेक्ष्य लेकर वीवीआरकेएचएस के लिए अंतर्ज्ञान प्राप्त कर सकते हैं। विशेष रूप से, हम पाते हैं कि प्रत्येक वीवीआरकेएचएस एक विशेष इनपुट स्थान पर स्केलर-मूल्य वाले आरकेएचएस के लिए सममितीय रूप से समरूपी है। इस प्रकार होने देना . स्थान पर विचार करें और संबंधित पुनरुत्पादन कर्नेल

 

 

 

 

(4)

जैसा कि ऊपर उल्लेख किया गया है, इस पुनरुत्पादन कर्नेल से जुड़ा आरकेएचएस स्पैन के बंद होने से दिया गया है कहाँ

 जोड़ियों के प्रत्येक समुच्चय के लिए .

स्केलर-मूल्यवान आरकेएचएस से संबंध इस तथ्य से बनाया जा सकता है कि प्रत्येक मैट्रिक्स-मूल्यवान कर्नेल को फॉर्म के कर्नेल के साथ पहचाना जा सकता है (4) के जरिए

इसके अतिरिक्त, प्रत्येक कर्नेल (4) उपरोक्त अभिव्यक्ति के साथ एक मैट्रिक्स-मूल्यवान कर्नेल को परिभाषित करता है। अब नक्शा दे रहा हूँ के रूप में परिभाषित किया जाए

कहाँ है के लिए विहित आधार का घटक , कोई इसे दिखा सकता है विशेषण है और बीच में एक आइसोमेट्री है और .

जबकि वीवीआरकेएचएस का यह दृश्य बहु-कार्य सीखने में उपयोगी हो सकता है, यह आइसोमेट्री वेक्टर-मूल्य वाले स्थितियों के अध्ययन को स्केलर-मूल्यवान स्थितियों के अध्ययन तक कम नहीं करता है। इस प्रकार वास्तव में, यह आइसोमेट्री प्रक्रिया स्केलर-वैल्यू कर्नेल और इनपुट समष्टि दोनों को व्यवहार में काम करने के लिए बहुत कठिन बना सकती है क्योंकि मूल कर्नेल के गुण अधिकांशतः खो जाते हैं।[10][11][12]

मैट्रिक्स-मूल्यवान पुनरुत्पादन कर्नेल का एक महत्वपूर्ण वर्ग अलग-अलग कर्नेल हैं जिन्हें स्केलर मूल्यवान कर्नेल के उत्पाद के रूप में फैक्टराइज़ किया जा सकता है और ए -आयामी सममित धनात्मक अर्ध-निश्चित मैट्रिक्स। हमारी पिछली चर्चा के आलोक में ये गुठलियाँ इस प्रकार हैं

सभी के लिए में और में . चूँकि स्केलर-मूल्यवान कर्नेल इनपुट के बीच निर्भरता को एनकोड करता है, हम देख सकते हैं कि मैट्रिक्स-मूल्यवान कर्नेल इनपुट और आउटपुट दोनों के बीच निर्भरता को एनकोड करता है।

हम अंत में टिप्पणी करते हैं कि उपरोक्त सिद्धांत को फलन स्थानों में मानों के साथ फलनों के स्थानों तक बढ़ाया जा सकता है किन्तु इन स्थानों के लिए कर्नेल प्राप्त करना अधिक कठिन कार्य है।[13]

ReLU फलन के साथ RKHS के बीच कनेक्शन

रेक्टिफायर (तंत्रिका नेटवर्क) को सामान्यतः इस प्रकार परिभाषित किया जाता है और यह तंत्रिका नेटवर्क की वास्तुकला में एक मुख्य आधार है जहां इसका उपयोग सक्रियण फलन के रूप में किया जाता है। कर्नेल हिल्बर्ट रिक्त स्थान को पुन: प्रस्तुत करने के सिद्धांत का उपयोग करके कोई ReLU-जैसे नॉनलाइनियर फलन का निर्माण कर सकता है। नीचे, हम इस निर्माण को प्राप्त करते हैं और दिखाते हैं कि यह ReLU सक्रियणों के साथ तंत्रिका नेटवर्क की प्रतिनिधित्व शक्ति को कैसे दर्शाता है।

हम हिल्बर्ट क्षेत्र के साथ काम करेंगे के साथ बिल्कुल निरंतर कार्य करता है और वर्ग पूर्णांक (अर्थात्) ) व्युत्पन्न। इसमें आंतरिक उत्पाद है

पुनरुत्पादक कर्नेल का निर्माण करने के लिए घने उपस्थान पर विचार करना पर्याप्त है, तो चलिए और . कैलकुलस का मौलिक प्रमेय तब देता है

कहाँ

और अर्थात।

यह संकेत करता है पुनरुत्पादन करता है .

इसके अतिरिक्त न्यूनतम फलन चालू है ReLu फलन के साथ निम्नलिखित प्रस्तुतियाँ हैं:

इस फॉर्मूलेशन का उपयोग करके, हम प्रतिनिधि प्रमेय को आरकेएचएस पर लागू कर सकते हैं, जिससे तंत्रिका नेटवर्क समुच्चयिंग्स में ReLU सक्रियणों का उपयोग करने की इष्टतमता सिद्ध करना हो सकती है।

यह भी देखें

टिप्पणियाँ

  1. Alpay, D., and T. M. Mills. "A family of Hilbert spaces which are not reproducing kernel Hilbert spaces." J. Anal. Appl. 1.2 (2003): 107–111.
  2. Z. Pasternak-Winiarski, "On weights which admit reproducing kernel of Bergman type", International Journal of Mathematics and Mathematical Sciences, vol. 15, Issue 1, 1992.
  3. T. Ł. Żynda, "On weights which admit reproducing kernel of Szeg¨o type", Journal of Contemporary Mathematical Analysis (Armenian Academy of Sciences), 55, 2020.
  4. Okutmustur
  5. Paulson
  6. Durrett
  7. Rosasco
  8. Rosasco
  9. Berlinet, Alain and Thomas, Christine. Reproducing kernel Hilbert spaces in Probability and Statistics, Kluwer Academic Publishers, 2004
  10. De Vito
  11. Zhang
  12. Alvarez
  13. Rosasco

संदर्भ

  • Alvarez, Mauricio, Rosasco, Lorenzo and Lawrence, Neil, “Kernels for Vector-Valued Functions: a Review,” https://arxiv.org/abs/1106.6251, June 2011.
  • Aronszajn, Nachman (1950). "Theory of Reproducing Kernels". Transactions of the American Mathematical Society. 68 (3): 337–404. doi:10.1090/S0002-9947-1950-0051437-7. JSTOR 1990404. MR 0051437.
  • Berlinet, Alain and Thomas, Christine. Reproducing kernel Hilbert spaces in Probability and Statistics, Kluwer Academic Publishers, 2004.
  • Cucker, Felipe; Smale, Steve (2002). "On the Mathematical Foundations of Learning". Bulletin of the American Mathematical Society. 39 (1): 1–49. doi:10.1090/S0273-0979-01-00923-5. MR 1864085.
  • De Vito, Ernest, Umanita, Veronica, and Villa, Silvia. "An extension of Mercer theorem to vector-valued measurable kernels," arXiv:1110.4017, June 2013.
  • Durrett, Greg. 9.520 Course Notes, Massachusetts Institute of Technology, https://www.mit.edu/~9.520/scribe-notes/class03_gdurett.pdf, February 2010.
  • Kimeldorf, George; Wahba, Grace (1971). "Some results on Tchebycheffian Spline Functions" (PDF). Journal of Mathematical Analysis and Applications. 33 (1): 82–95. doi:10.1016/0022-247X(71)90184-3. MR 0290013.
  • Okutmustur, Baver. “Reproducing Kernel Hilbert Spaces,” M.S. dissertation, Bilkent University, http://www.thesis.bilkent.edu.tr/0002953.pdf, August 2005.
  • Paulsen, Vern. “An introduction to the theory of reproducing kernel Hilbert spaces,” http://www.math.uh.edu/~vern/rkhs.pdf.
  • Steinwart, Ingo; Scovel, Clint (2012). "Mercer's theorem on general domains: On the interaction between measures, kernels, and RKHSs". Constr. Approx. 35 (3): 363–417. doi:10.1007/s00365-012-9153-3. MR 2914365.
  • Rosasco, Lorenzo and Poggio, Thomas. "A Regularization Tour of Machine Learning – MIT 9.520 Lecture Notes" Manuscript, Dec. 2014.
  • Wahba, Grace, Spline Models for Observational Data, SIAM, 1990.
  • Zhang, Haizhang; Xu, Yuesheng; Zhang, Qinghui (2012). "Refinement of Operator-valued Reproducing Kernels" (PDF). Journal of Machine Learning Research. 13: 91–136.