कर्नेल रिग्रेशन: Difference between revisions

From Vigyanwiki
(Created page with "{{Distinguish|text=Kernel principal component analysis or Kernel ridge regression}} {{short description|Technique in statistics}} आंकड़ों...")
 
No edit summary
Line 1: Line 1:
{{Distinguish|text=[[Kernel principal component analysis]] or [[Kernel method|Kernel ridge regression]]}}
{{Distinguish|text=[[Kernel principal component analysis]] or [[Kernel method|Kernel ridge regression]]}}
{{short description|Technique in statistics}}
{{short description|Technique in statistics}}
आंकड़ों में, कर्नेल प्रतिगमन एक यादृच्छिक चर की [[सशर्त अपेक्षा]] का अनुमान लगाने के लिए एक [[गैर पैरामीट्रिक]] तकनीक है। इसका उद्देश्य यादृच्छिक चर ''X'' और ''Y'' की एक जोड़ी के बीच एक गैर-रैखिक संबंध खोजना है।
आंकड़ों में, कर्नेल प्रतिगमन यादृच्छिक चर की [[सशर्त अपेक्षा]] का अनुमान लगाने के लिए [[गैर पैरामीट्रिक]] तकनीक है। इसका उद्देश्य यादृच्छिक चर ''X'' और ''Y'' की जोड़ी के बीच गैर-रैखिक संबंध खोजना है।


किसी भी [[गैरपैरामीट्रिक प्रतिगमन]] में, एक चर की सशर्त अपेक्षा <math>Y</math> एक चर के सापेक्ष <math>X</math> लिखा जा सकता है:
किसी भी [[गैरपैरामीट्रिक प्रतिगमन]] में, चर की सशर्त अपेक्षा <math>Y</math> चर के सापेक्ष <math>X</math> लिखा जा सकता है:


: <math>\operatorname{E}(Y \mid X) = m(X)</math>
: <math>\operatorname{E}(Y \mid X) = m(X)</math>
कहाँ <math>m</math> एक अज्ञात फ़ंक्शन है.
कहाँ <math>m</math> अज्ञात फ़ंक्शन है.


== नादारया-वाटसन कर्नेल प्रतिगमन ==
== नादारया-वाटसन कर्नेल प्रतिगमन ==
1964 में एलिज़बार नादारया और [[जेफ्री वॉटसन]] दोनों ने अनुमान लगाने का प्रस्ताव रखा <math>m</math> स्थानीय रूप से भारित औसत के रूप में, एक वेटिंग फ़ंक्शन के रूप में [[कर्नेल (सांख्यिकी)]] का उपयोग करना।<ref>{{cite journal
1964 में एलिज़बार नादारया और [[जेफ्री वॉटसन]] दोनों ने अनुमान लगाने का प्रस्ताव रखा <math>m</math> स्थानीय रूप से भारित औसत के रूप में, वेटिंग फ़ंक्शन के रूप में [[कर्नेल (सांख्यिकी)]] का उपयोग करना।<ref>{{cite journal
   | last = Nadaraya
   | last = Nadaraya
   | first = E. A.
   | first = E. A.
Line 23: Line 23:
:::::::::::::::::::: <math> \widehat{m}_h(x)=\frac{\sum_{i=1}^n K_h(x-x_i) y_i}{\sum_{i=1}^nK_h(x-x_i)}
:::::::::::::::::::: <math> \widehat{m}_h(x)=\frac{\sum_{i=1}^n K_h(x-x_i) y_i}{\sum_{i=1}^nK_h(x-x_i)}
</math>
</math>
कहाँ <math>K_h(t) = \frac{1}{h}K\left(\frac{t}{h}\right)</math> एक बैंडविड्थ वाला कर्नेल है <math>h</math> ऐसा है कि <math>K(\cdot)</math> कम से कम 1 क्रम का है, अर्थात् <math>\int_{-\infty}^{\infty}u K(u) du = 0</math>.
कहाँ <math>K_h(t) = \frac{1}{h}K\left(\frac{t}{h}\right)</math> बैंडविड्थ वाला कर्नेल है <math>h</math> ऐसा है कि <math>K(\cdot)</math> कम से कम 1 क्रम का है, अर्थात् <math>\int_{-\infty}^{\infty}u K(u) du = 0</math>.


=== व्युत्पत्ति ===
=== व्युत्पत्ति ===
Line 62: Line 62:


== उदाहरण ==
== उदाहरण ==
[[File:cps71 lc mean.png|thumb|right|250px|अनुमानित प्रतिगमन फ़ंक्शन।]]यह उदाहरण कनाडाई क्रॉस-सेक्शन वेतन डेटा पर आधारित है जिसमें सामान्य शिक्षा (ग्रेड 13) वाले पुरुष व्यक्तियों के लिए 1971 की कनाडाई जनगणना सार्वजनिक उपयोग टेप से लिया गया एक यादृच्छिक नमूना शामिल है। कुल 205 अवलोकन हैं।
[[File:cps71 lc mean.png|thumb|right|250px|अनुमानित प्रतिगमन फ़ंक्शन।]]यह उदाहरण कनाडाई क्रॉस-सेक्शन वेतन डेटा पर आधारित है जिसमें सामान्य शिक्षा (ग्रेड 13) वाले पुरुष व्यक्तियों के लिए 1971 की कनाडाई जनगणना सार्वजनिक उपयोग टेप से लिया गया यादृच्छिक नमूना शामिल है। कुल 205 अवलोकन हैं।


दाईं ओर का आंकड़ा स्पर्शोन्मुख परिवर्तनशीलता सीमा के साथ दूसरे क्रम के गॉसियन कर्नेल का उपयोग करके अनुमानित प्रतिगमन फ़ंक्शन को दर्शाता है।
दाईं ओर का आंकड़ा स्पर्शोन्मुख परिवर्तनशीलता सीमा के साथ दूसरे क्रम के गॉसियन कर्नेल का उपयोग करके अनुमानित प्रतिगमन फ़ंक्शन को दर्शाता है।
{{clear}}
=== उदाहरण के लिए स्क्रिप्ट ===
=== उदाहरण के लिए स्क्रिप्ट ===


Line 89: Line 87:


==संबंधित==
==संबंधित==
[[डेविड साल्सबर्ग]] के अनुसार, कर्नेल रिग्रेशन में उपयोग किए जाने वाले एल्गोरिदम स्वतंत्र रूप से विकसित किए गए थे और [[फजी सिस्टम]] में उपयोग किए गए थे: लगभग बिल्कुल समान कंप्यूटर एल्गोरिदम के साथ, फ़ज़ी सिस्टम और कर्नेल घनत्व-आधारित रिग्रेशन एक दूसरे से पूरी तरह से स्वतंत्र रूप से विकसित किए गए प्रतीत होते हैं।<ref>{{cite book |last=Salsburg |first=D. |title=[[The Lady Tasting Tea|The Lady Tasting Tea: How Statistics Revolutionized Science in the Twentieth Century]] |publisher=W.H. Freeman |year=2002 |isbn=0-8050-7134-2 |pages=290–91 }}</ref>
[[डेविड साल्सबर्ग]] के अनुसार, कर्नेल रिग्रेशन में उपयोग किए जाने वाले एल्गोरिदम स्वतंत्र रूप से विकसित किए गए थे और [[फजी सिस्टम]] में उपयोग किए गए थे: लगभग बिल्कुल समान कंप्यूटर एल्गोरिदम के साथ, फ़ज़ी सिस्टम और कर्नेल घनत्व-आधारित रिग्रेशन दूसरे से पूरी तरह से स्वतंत्र रूप से विकसित किए गए प्रतीत होते हैं।<ref>{{cite book |last=Salsburg |first=D. |title=[[The Lady Tasting Tea|The Lady Tasting Tea: How Statistics Revolutionized Science in the Twentieth Century]] |publisher=W.H. Freeman |year=2002 |isbn=0-8050-7134-2 |pages=290–91 }}</ref>




Line 95: Line 93:
* [[जीएनयू ऑक्टेव]] गणितीय कार्यक्रम पैकेज
* [[जीएनयू ऑक्टेव]] गणितीय कार्यक्रम पैकेज
* जूलिया_(प्रोग्रामिंग_भाषा): [https://github.com/panlanfeng/KernelEstimator.jl KernelEstimator.jl]
* जूलिया_(प्रोग्रामिंग_भाषा): [https://github.com/panlanfeng/KernelEstimator.jl KernelEstimator.jl]
* [[MATLAB]]: कर्नेल रिग्रेशन, कर्नेल घनत्व अनुमान, खतरे फ़ंक्शन के कर्नेल अनुमान और कई अन्य के कार्यान्वयन के साथ एक मुफ्त MATLAB टूलबॉक्स [https://www.math.muni.cz/english/science-and-research/development-software/232-matlab-toolbox.html इन पृष्ठों पर उपलब्ध है] (यह टूलबॉक्स पुस्तक का एक हिस्सा है) <ref name="HorKolZel">{{cite book|last1=Horová|first1=I.|last2=Koláček|first2=J.|last3=Zelinka|first3=J.|title=Kernel Smoothing in MATLAB: Theory and Practice of Kernel Smoothing|date=2012|publisher=World Scientific Publishing|location=Singapore|isbn=978-981-4405-48-5}}</ref>).
* [[MATLAB]]: कर्नेल रिग्रेशन, कर्नेल घनत्व अनुमान, खतरे फ़ंक्शन के कर्नेल अनुमान और कई अन्य के कार्यान्वयन के साथ मुफ्त MATLAB टूलबॉक्स [https://www.math.muni.cz/english/science-and-research/development-software/232-matlab-toolbox.html इन पृष्ठों पर उपलब्ध है] (यह टूलबॉक्स पुस्तक का हिस्सा है) <ref name="HorKolZel">{{cite book|last1=Horová|first1=I.|last2=Koláček|first2=J.|last3=Zelinka|first3=J.|title=Kernel Smoothing in MATLAB: Theory and Practice of Kernel Smoothing|date=2012|publisher=World Scientific Publishing|location=Singapore|isbn=978-981-4405-48-5}}</ref>).
* [[पायथन (प्रोग्रामिंग भाषा)]]: द <code>[http://www.statsmodels.org/stable/generated/statsmodels.nonparametric.kernel_regression.KernelReg.html KernelReg]</code> मिश्रित डेटा प्रकारों के लिए वर्ग <code>[http://www.statsmodels.org/stable/nonparametric.html statsmodels.nonparametric]</code> उप-पैकेज (अन्य कर्नेल घनत्व से संबंधित वर्ग शामिल हैं), पैकेज [https://github.com/jmetzen/kernel_regressionkernel_regression] [[स्किकिट-लर्न]] के विस्तार के रूप में (अक्षम मेमोरी-वार, केवल छोटे डेटासेट के लिए उपयोगी)
* [[पायथन (प्रोग्रामिंग भाषा)]]: द <code>[http://www.statsmodels.org/stable/generated/statsmodels.nonparametric.kernel_regression.KernelReg.html KernelReg]</code> मिश्रित डेटा प्रकारों के लिए वर्ग <code>[http://www.statsmodels.org/stable/nonparametric.html statsmodels.nonparametric]</code> उप-पैकेज (अन्य कर्नेल घनत्व से संबंधित वर्ग शामिल हैं), पैकेज [https://github.com/jmetzen/kernel_regressionkernel_regression] [[स्किकिट-लर्न]] के विस्तार के रूप में (अक्षम मेमोरी-वार, केवल छोटे डेटासेट के लिए उपयोगी)
* [[आर (प्रोग्रामिंग भाषा)]]: फ़ंक्शन <code>npreg</code> एनपी पैकेज कर्नेल रिग्रेशन निष्पादित कर सकता है।<ref>[https://cran.r-project.org/web/packages/np/index.html ''np'': Nonparametric kernel smoothing methods for mixed data types]</ref><ref>{{Cite book |first1=John |last1=Kloke |first2=Joseph W. |last2=McKean |title=आर का उपयोग करते हुए गैर-पैरामीट्रिक सांख्यिकीय तरीके|publisher=CRC Press |year=2014 |isbn=978-1-4398-7343-4 |pages=98–106 |url=https://books.google.com/books?id=b-msBAAAQBAJ&pg=PA98 }}</ref>
* [[आर (प्रोग्रामिंग भाषा)]]: फ़ंक्शन <code>npreg</code> एनपी पैकेज कर्नेल रिग्रेशन निष्पादित कर सकता है।<ref>[https://cran.r-project.org/web/packages/np/index.html ''np'': Nonparametric kernel smoothing methods for mixed data types]</ref><ref>{{Cite book |first1=John |last1=Kloke |first2=Joseph W. |last2=McKean |title=आर का उपयोग करते हुए गैर-पैरामीट्रिक सांख्यिकीय तरीके|publisher=CRC Press |year=2014 |isbn=978-1-4398-7343-4 |pages=98–106 |url=https://books.google.com/books?id=b-msBAAAQBAJ&pg=PA98 }}</ref>
Line 119: Line 117:
* [http://www.cs.tut.fi/~lasip Scale-adaptive kernel regression] (with Matlab software).
* [http://www.cs.tut.fi/~lasip Scale-adaptive kernel regression] (with Matlab software).
* [https://web.archive.org/web/20070927062200/http://people.revoledu.com/kardi/tutorial/Regression/KernelRegression/index.html Tutorial of Kernel regression using spreadsheet] (with [[Microsoft Excel]]).
* [https://web.archive.org/web/20070927062200/http://people.revoledu.com/kardi/tutorial/Regression/KernelRegression/index.html Tutorial of Kernel regression using spreadsheet] (with [[Microsoft Excel]]).
* [http://pcarvalho.com/things/kernelregressor/ An online kernel regression demonstration] Requires .NET 3.0 or later.
* [http://pcarvalho.com/things/kernelregressor/ An online kernel regression demonstration] Requires .NET 3.0 or later.
* [https://github.com/jmetzen/kernel_regression Kernel regression with automatic bandwidth selection] (with Python)
* [https://github.com/jmetzen/kernel_regression Kernel regression with automatic bandwidth selection] (with Python)
[[Category: गैरपैरामीट्रिक प्रतिगमन]] [[Category: उदाहरण आर कोड वाले लेख]]  
[[Category: गैरपैरामीट्रिक प्रतिगमन]] [[Category: उदाहरण आर कोड वाले लेख]]  

Revision as of 10:42, 4 August 2023

आंकड़ों में, कर्नेल प्रतिगमन यादृच्छिक चर की सशर्त अपेक्षा का अनुमान लगाने के लिए गैर पैरामीट्रिक तकनीक है। इसका उद्देश्य यादृच्छिक चर X और Y की जोड़ी के बीच गैर-रैखिक संबंध खोजना है।

किसी भी गैरपैरामीट्रिक प्रतिगमन में, चर की सशर्त अपेक्षा चर के सापेक्ष लिखा जा सकता है:

कहाँ अज्ञात फ़ंक्शन है.

नादारया-वाटसन कर्नेल प्रतिगमन

1964 में एलिज़बार नादारया और जेफ्री वॉटसन दोनों ने अनुमान लगाने का प्रस्ताव रखा स्थानीय रूप से भारित औसत के रूप में, वेटिंग फ़ंक्शन के रूप में कर्नेल (सांख्यिकी) का उपयोग करना।[1][2][3] नादारया-वाटसन अनुमानक है:

कहाँ बैंडविड्थ वाला कर्नेल है ऐसा है कि कम से कम 1 क्रम का है, अर्थात् .

व्युत्पत्ति

कर्नेल 'K' के साथ संयुक्त वितरण f(x,y) और f(x) के लिए कर्नेल घनत्व अनुमान का उपयोग करना,

हम पाते हैं

जो नादारया-वाटसन अनुमानक है।

प्रीस्टली-चाओ कर्नेल अनुमानक

कहाँ बैंडविड्थ (या स्मूथिंग पैरामीटर) है।

गैसर-मुलर कर्नेल अनुमानक[4]

कहाँ


उदाहरण

अनुमानित प्रतिगमन फ़ंक्शन।

यह उदाहरण कनाडाई क्रॉस-सेक्शन वेतन डेटा पर आधारित है जिसमें सामान्य शिक्षा (ग्रेड 13) वाले पुरुष व्यक्तियों के लिए 1971 की कनाडाई जनगणना सार्वजनिक उपयोग टेप से लिया गया यादृच्छिक नमूना शामिल है। कुल 205 अवलोकन हैं।

दाईं ओर का आंकड़ा स्पर्शोन्मुख परिवर्तनशीलता सीमा के साथ दूसरे क्रम के गॉसियन कर्नेल का उपयोग करके अनुमानित प्रतिगमन फ़ंक्शन को दर्शाता है।

उदाहरण के लिए स्क्रिप्ट

R प्रोग्रामिंग भाषा के निम्नलिखित कमांड का उपयोग करते हैं npreg() इष्टतम स्मूथिंग प्रदान करने और ऊपर दिए गए चित्र को बनाने का कार्य। इन कमांड को कमांड प्रॉम्प्ट पर कट और पेस्ट के माध्यम से दर्ज किया जा सकता है।

install.packages("np")
library(np) # non parametric library
data(cps71)
attach(cps71)

m <- npreg(logwage~age)

plot(m, plot.errors.method="asymptotic",
     plot.errors.style="band",
     ylim=c(11, 15.2))

points(age, logwage, cex=.25)
detach(cps71)


संबंधित

डेविड साल्सबर्ग के अनुसार, कर्नेल रिग्रेशन में उपयोग किए जाने वाले एल्गोरिदम स्वतंत्र रूप से विकसित किए गए थे और फजी सिस्टम में उपयोग किए गए थे: लगभग बिल्कुल समान कंप्यूटर एल्गोरिदम के साथ, फ़ज़ी सिस्टम और कर्नेल घनत्व-आधारित रिग्रेशन दूसरे से पूरी तरह से स्वतंत्र रूप से विकसित किए गए प्रतीत होते हैं।[5]


सांख्यिकीय कार्यान्वयन

यह भी देखें

संदर्भ

  1. Nadaraya, E. A. (1964). "On Estimating Regression". Theory of Probability and Its Applications. 9 (1): 141–2. doi:10.1137/1109020.
  2. Watson, G. S. (1964). "सहज प्रतिगमन विश्लेषण". Sankhyā: The Indian Journal of Statistics, Series A. 26 (4): 359–372. JSTOR 25049340.
  3. Bierens, Herman J. (1994). "The Nadaraya–Watson kernel regression function estimator". उन्नत अर्थमिति में विषय. New York: Cambridge University Press. pp. 212–247. ISBN 0-521-41900-X.
  4. Gasser, Theo; Müller, Hans-Georg (1979). "प्रतिगमन कार्यों का कर्नेल अनुमान". Springer: 23–68. {{cite journal}}: Cite journal requires |journal= (help)
  5. Salsburg, D. (2002). The Lady Tasting Tea: How Statistics Revolutionized Science in the Twentieth Century. W.H. Freeman. pp. 290–91. ISBN 0-8050-7134-2.
  6. Horová, I.; Koláček, J.; Zelinka, J. (2012). Kernel Smoothing in MATLAB: Theory and Practice of Kernel Smoothing. Singapore: World Scientific Publishing. ISBN 978-981-4405-48-5.
  7. np: Nonparametric kernel smoothing methods for mixed data types
  8. Kloke, John; McKean, Joseph W. (2014). आर का उपयोग करते हुए गैर-पैरामीट्रिक सांख्यिकीय तरीके. CRC Press. pp. 98–106. ISBN 978-1-4398-7343-4.


अग्रिम पठन


बाहरी संबंध