कर्नेल रिग्रेशन: Difference between revisions
(Created page with "{{Distinguish|text=Kernel principal component analysis or Kernel ridge regression}} {{short description|Technique in statistics}} आंकड़ों...") |
No edit summary |
||
Line 1: | Line 1: | ||
{{Distinguish|text=[[Kernel principal component analysis]] or [[Kernel method|Kernel ridge regression]]}} | {{Distinguish|text=[[Kernel principal component analysis]] or [[Kernel method|Kernel ridge regression]]}} | ||
{{short description|Technique in statistics}} | {{short description|Technique in statistics}} | ||
आंकड़ों में, कर्नेल प्रतिगमन | आंकड़ों में, कर्नेल प्रतिगमन यादृच्छिक चर की [[सशर्त अपेक्षा]] का अनुमान लगाने के लिए [[गैर पैरामीट्रिक]] तकनीक है। इसका उद्देश्य यादृच्छिक चर ''X'' और ''Y'' की जोड़ी के बीच गैर-रैखिक संबंध खोजना है। | ||
किसी भी [[गैरपैरामीट्रिक प्रतिगमन]] में, | किसी भी [[गैरपैरामीट्रिक प्रतिगमन]] में, चर की सशर्त अपेक्षा <math>Y</math> चर के सापेक्ष <math>X</math> लिखा जा सकता है: | ||
: <math>\operatorname{E}(Y \mid X) = m(X)</math> | : <math>\operatorname{E}(Y \mid X) = m(X)</math> | ||
कहाँ <math>m</math> | कहाँ <math>m</math> अज्ञात फ़ंक्शन है. | ||
== नादारया-वाटसन कर्नेल प्रतिगमन == | == नादारया-वाटसन कर्नेल प्रतिगमन == | ||
1964 में एलिज़बार नादारया और [[जेफ्री वॉटसन]] दोनों ने अनुमान लगाने का प्रस्ताव रखा <math>m</math> स्थानीय रूप से भारित औसत के रूप में, | 1964 में एलिज़बार नादारया और [[जेफ्री वॉटसन]] दोनों ने अनुमान लगाने का प्रस्ताव रखा <math>m</math> स्थानीय रूप से भारित औसत के रूप में, वेटिंग फ़ंक्शन के रूप में [[कर्नेल (सांख्यिकी)]] का उपयोग करना।<ref>{{cite journal | ||
| last = Nadaraya | | last = Nadaraya | ||
| first = E. A. | | first = E. A. | ||
Line 23: | Line 23: | ||
:::::::::::::::::::: <math> \widehat{m}_h(x)=\frac{\sum_{i=1}^n K_h(x-x_i) y_i}{\sum_{i=1}^nK_h(x-x_i)} | :::::::::::::::::::: <math> \widehat{m}_h(x)=\frac{\sum_{i=1}^n K_h(x-x_i) y_i}{\sum_{i=1}^nK_h(x-x_i)} | ||
</math> | </math> | ||
कहाँ <math>K_h(t) = \frac{1}{h}K\left(\frac{t}{h}\right)</math> | कहाँ <math>K_h(t) = \frac{1}{h}K\left(\frac{t}{h}\right)</math> बैंडविड्थ वाला कर्नेल है <math>h</math> ऐसा है कि <math>K(\cdot)</math> कम से कम 1 क्रम का है, अर्थात् <math>\int_{-\infty}^{\infty}u K(u) du = 0</math>. | ||
=== व्युत्पत्ति === | === व्युत्पत्ति === | ||
Line 62: | Line 62: | ||
== उदाहरण == | == उदाहरण == | ||
[[File:cps71 lc mean.png|thumb|right|250px|अनुमानित प्रतिगमन फ़ंक्शन।]]यह उदाहरण कनाडाई क्रॉस-सेक्शन वेतन डेटा पर आधारित है जिसमें सामान्य शिक्षा (ग्रेड 13) वाले पुरुष व्यक्तियों के लिए 1971 की कनाडाई जनगणना सार्वजनिक उपयोग टेप से लिया गया | [[File:cps71 lc mean.png|thumb|right|250px|अनुमानित प्रतिगमन फ़ंक्शन।]]यह उदाहरण कनाडाई क्रॉस-सेक्शन वेतन डेटा पर आधारित है जिसमें सामान्य शिक्षा (ग्रेड 13) वाले पुरुष व्यक्तियों के लिए 1971 की कनाडाई जनगणना सार्वजनिक उपयोग टेप से लिया गया यादृच्छिक नमूना शामिल है। कुल 205 अवलोकन हैं। | ||
दाईं ओर का आंकड़ा स्पर्शोन्मुख परिवर्तनशीलता सीमा के साथ दूसरे क्रम के गॉसियन कर्नेल का उपयोग करके अनुमानित प्रतिगमन फ़ंक्शन को दर्शाता है। | दाईं ओर का आंकड़ा स्पर्शोन्मुख परिवर्तनशीलता सीमा के साथ दूसरे क्रम के गॉसियन कर्नेल का उपयोग करके अनुमानित प्रतिगमन फ़ंक्शन को दर्शाता है। | ||
=== उदाहरण के लिए स्क्रिप्ट === | === उदाहरण के लिए स्क्रिप्ट === | ||
Line 89: | Line 87: | ||
==संबंधित== | ==संबंधित== | ||
[[डेविड साल्सबर्ग]] के अनुसार, कर्नेल रिग्रेशन में उपयोग किए जाने वाले एल्गोरिदम स्वतंत्र रूप से विकसित किए गए थे और [[फजी सिस्टम]] में उपयोग किए गए थे: लगभग बिल्कुल समान कंप्यूटर एल्गोरिदम के साथ, फ़ज़ी सिस्टम और कर्नेल घनत्व-आधारित रिग्रेशन | [[डेविड साल्सबर्ग]] के अनुसार, कर्नेल रिग्रेशन में उपयोग किए जाने वाले एल्गोरिदम स्वतंत्र रूप से विकसित किए गए थे और [[फजी सिस्टम]] में उपयोग किए गए थे: लगभग बिल्कुल समान कंप्यूटर एल्गोरिदम के साथ, फ़ज़ी सिस्टम और कर्नेल घनत्व-आधारित रिग्रेशन दूसरे से पूरी तरह से स्वतंत्र रूप से विकसित किए गए प्रतीत होते हैं।<ref>{{cite book |last=Salsburg |first=D. |title=[[The Lady Tasting Tea|The Lady Tasting Tea: How Statistics Revolutionized Science in the Twentieth Century]] |publisher=W.H. Freeman |year=2002 |isbn=0-8050-7134-2 |pages=290–91 }}</ref> | ||
Line 95: | Line 93: | ||
* [[जीएनयू ऑक्टेव]] गणितीय कार्यक्रम पैकेज | * [[जीएनयू ऑक्टेव]] गणितीय कार्यक्रम पैकेज | ||
* जूलिया_(प्रोग्रामिंग_भाषा): [https://github.com/panlanfeng/KernelEstimator.jl KernelEstimator.jl] | * जूलिया_(प्रोग्रामिंग_भाषा): [https://github.com/panlanfeng/KernelEstimator.jl KernelEstimator.jl] | ||
* [[MATLAB]]: कर्नेल रिग्रेशन, कर्नेल घनत्व अनुमान, खतरे फ़ंक्शन के कर्नेल अनुमान और कई अन्य के कार्यान्वयन के साथ | * [[MATLAB]]: कर्नेल रिग्रेशन, कर्नेल घनत्व अनुमान, खतरे फ़ंक्शन के कर्नेल अनुमान और कई अन्य के कार्यान्वयन के साथ मुफ्त MATLAB टूलबॉक्स [https://www.math.muni.cz/english/science-and-research/development-software/232-matlab-toolbox.html इन पृष्ठों पर उपलब्ध है] (यह टूलबॉक्स पुस्तक का हिस्सा है) <ref name="HorKolZel">{{cite book|last1=Horová|first1=I.|last2=Koláček|first2=J.|last3=Zelinka|first3=J.|title=Kernel Smoothing in MATLAB: Theory and Practice of Kernel Smoothing|date=2012|publisher=World Scientific Publishing|location=Singapore|isbn=978-981-4405-48-5}}</ref>). | ||
* [[पायथन (प्रोग्रामिंग भाषा)]]: द <code>[http://www.statsmodels.org/stable/generated/statsmodels.nonparametric.kernel_regression.KernelReg.html KernelReg]</code> मिश्रित डेटा प्रकारों के लिए वर्ग <code>[http://www.statsmodels.org/stable/nonparametric.html statsmodels.nonparametric]</code> उप-पैकेज (अन्य कर्नेल घनत्व से संबंधित वर्ग शामिल हैं), पैकेज [https://github.com/jmetzen/kernel_regressionkernel_regression] [[स्किकिट-लर्न]] के विस्तार के रूप में (अक्षम मेमोरी-वार, केवल छोटे डेटासेट के लिए उपयोगी) | * [[पायथन (प्रोग्रामिंग भाषा)]]: द <code>[http://www.statsmodels.org/stable/generated/statsmodels.nonparametric.kernel_regression.KernelReg.html KernelReg]</code> मिश्रित डेटा प्रकारों के लिए वर्ग <code>[http://www.statsmodels.org/stable/nonparametric.html statsmodels.nonparametric]</code> उप-पैकेज (अन्य कर्नेल घनत्व से संबंधित वर्ग शामिल हैं), पैकेज [https://github.com/jmetzen/kernel_regressionkernel_regression] [[स्किकिट-लर्न]] के विस्तार के रूप में (अक्षम मेमोरी-वार, केवल छोटे डेटासेट के लिए उपयोगी) | ||
* [[आर (प्रोग्रामिंग भाषा)]]: फ़ंक्शन <code>npreg</code> एनपी पैकेज कर्नेल रिग्रेशन निष्पादित कर सकता है।<ref>[https://cran.r-project.org/web/packages/np/index.html ''np'': Nonparametric kernel smoothing methods for mixed data types]</ref><ref>{{Cite book |first1=John |last1=Kloke |first2=Joseph W. |last2=McKean |title=आर का उपयोग करते हुए गैर-पैरामीट्रिक सांख्यिकीय तरीके|publisher=CRC Press |year=2014 |isbn=978-1-4398-7343-4 |pages=98–106 |url=https://books.google.com/books?id=b-msBAAAQBAJ&pg=PA98 }}</ref> | * [[आर (प्रोग्रामिंग भाषा)]]: फ़ंक्शन <code>npreg</code> एनपी पैकेज कर्नेल रिग्रेशन निष्पादित कर सकता है।<ref>[https://cran.r-project.org/web/packages/np/index.html ''np'': Nonparametric kernel smoothing methods for mixed data types]</ref><ref>{{Cite book |first1=John |last1=Kloke |first2=Joseph W. |last2=McKean |title=आर का उपयोग करते हुए गैर-पैरामीट्रिक सांख्यिकीय तरीके|publisher=CRC Press |year=2014 |isbn=978-1-4398-7343-4 |pages=98–106 |url=https://books.google.com/books?id=b-msBAAAQBAJ&pg=PA98 }}</ref> | ||
Line 119: | Line 117: | ||
* [http://www.cs.tut.fi/~lasip Scale-adaptive kernel regression] (with Matlab software). | * [http://www.cs.tut.fi/~lasip Scale-adaptive kernel regression] (with Matlab software). | ||
* [https://web.archive.org/web/20070927062200/http://people.revoledu.com/kardi/tutorial/Regression/KernelRegression/index.html Tutorial of Kernel regression using spreadsheet] (with [[Microsoft Excel]]). | * [https://web.archive.org/web/20070927062200/http://people.revoledu.com/kardi/tutorial/Regression/KernelRegression/index.html Tutorial of Kernel regression using spreadsheet] (with [[Microsoft Excel]]). | ||
* [http://pcarvalho.com/things/kernelregressor/ An online kernel regression demonstration] | * [http://pcarvalho.com/things/kernelregressor/ An online kernel regression demonstration] Requires .NET 3.0 or later. | ||
* [https://github.com/jmetzen/kernel_regression Kernel regression with automatic bandwidth selection] (with Python) | * [https://github.com/jmetzen/kernel_regression Kernel regression with automatic bandwidth selection] (with Python) | ||
[[Category: गैरपैरामीट्रिक प्रतिगमन]] [[Category: उदाहरण आर कोड वाले लेख]] | [[Category: गैरपैरामीट्रिक प्रतिगमन]] [[Category: उदाहरण आर कोड वाले लेख]] |
Revision as of 10:42, 4 August 2023
आंकड़ों में, कर्नेल प्रतिगमन यादृच्छिक चर की सशर्त अपेक्षा का अनुमान लगाने के लिए गैर पैरामीट्रिक तकनीक है। इसका उद्देश्य यादृच्छिक चर X और Y की जोड़ी के बीच गैर-रैखिक संबंध खोजना है।
किसी भी गैरपैरामीट्रिक प्रतिगमन में, चर की सशर्त अपेक्षा चर के सापेक्ष लिखा जा सकता है:
कहाँ अज्ञात फ़ंक्शन है.
नादारया-वाटसन कर्नेल प्रतिगमन
1964 में एलिज़बार नादारया और जेफ्री वॉटसन दोनों ने अनुमान लगाने का प्रस्ताव रखा स्थानीय रूप से भारित औसत के रूप में, वेटिंग फ़ंक्शन के रूप में कर्नेल (सांख्यिकी) का उपयोग करना।[1][2][3] नादारया-वाटसन अनुमानक है:
कहाँ बैंडविड्थ वाला कर्नेल है ऐसा है कि कम से कम 1 क्रम का है, अर्थात् .
व्युत्पत्ति
कर्नेल 'K' के साथ संयुक्त वितरण f(x,y) और f(x) के लिए कर्नेल घनत्व अनुमान का उपयोग करना,
हम पाते हैं
जो नादारया-वाटसन अनुमानक है।
प्रीस्टली-चाओ कर्नेल अनुमानक
कहाँ बैंडविड्थ (या स्मूथिंग पैरामीटर) है।
गैसर-मुलर कर्नेल अनुमानक[4]
कहाँ
उदाहरण
यह उदाहरण कनाडाई क्रॉस-सेक्शन वेतन डेटा पर आधारित है जिसमें सामान्य शिक्षा (ग्रेड 13) वाले पुरुष व्यक्तियों के लिए 1971 की कनाडाई जनगणना सार्वजनिक उपयोग टेप से लिया गया यादृच्छिक नमूना शामिल है। कुल 205 अवलोकन हैं।
दाईं ओर का आंकड़ा स्पर्शोन्मुख परिवर्तनशीलता सीमा के साथ दूसरे क्रम के गॉसियन कर्नेल का उपयोग करके अनुमानित प्रतिगमन फ़ंक्शन को दर्शाता है।
उदाहरण के लिए स्क्रिप्ट
R प्रोग्रामिंग भाषा के निम्नलिखित कमांड का उपयोग करते हैं npreg()
इष्टतम स्मूथिंग प्रदान करने और ऊपर दिए गए चित्र को बनाने का कार्य। इन कमांड को कमांड प्रॉम्प्ट पर कट और पेस्ट के माध्यम से दर्ज किया जा सकता है।
install.packages("np")
library(np) # non parametric library
data(cps71)
attach(cps71)
m <- npreg(logwage~age)
plot(m, plot.errors.method="asymptotic",
plot.errors.style="band",
ylim=c(11, 15.2))
points(age, logwage, cex=.25)
detach(cps71)
संबंधित
डेविड साल्सबर्ग के अनुसार, कर्नेल रिग्रेशन में उपयोग किए जाने वाले एल्गोरिदम स्वतंत्र रूप से विकसित किए गए थे और फजी सिस्टम में उपयोग किए गए थे: लगभग बिल्कुल समान कंप्यूटर एल्गोरिदम के साथ, फ़ज़ी सिस्टम और कर्नेल घनत्व-आधारित रिग्रेशन दूसरे से पूरी तरह से स्वतंत्र रूप से विकसित किए गए प्रतीत होते हैं।[5]
सांख्यिकीय कार्यान्वयन
- जीएनयू ऑक्टेव गणितीय कार्यक्रम पैकेज
- जूलिया_(प्रोग्रामिंग_भाषा): KernelEstimator.jl
- MATLAB: कर्नेल रिग्रेशन, कर्नेल घनत्व अनुमान, खतरे फ़ंक्शन के कर्नेल अनुमान और कई अन्य के कार्यान्वयन के साथ मुफ्त MATLAB टूलबॉक्स इन पृष्ठों पर उपलब्ध है (यह टूलबॉक्स पुस्तक का हिस्सा है) [6]).
- पायथन (प्रोग्रामिंग भाषा): द
KernelReg
मिश्रित डेटा प्रकारों के लिए वर्गstatsmodels.nonparametric
उप-पैकेज (अन्य कर्नेल घनत्व से संबंधित वर्ग शामिल हैं), पैकेज [1] स्किकिट-लर्न के विस्तार के रूप में (अक्षम मेमोरी-वार, केवल छोटे डेटासेट के लिए उपयोगी) - आर (प्रोग्रामिंग भाषा): फ़ंक्शन
npreg
एनपी पैकेज कर्नेल रिग्रेशन निष्पादित कर सकता है।[7][8] - था : npregress, kernreg2
यह भी देखें
संदर्भ
- ↑ Nadaraya, E. A. (1964). "On Estimating Regression". Theory of Probability and Its Applications. 9 (1): 141–2. doi:10.1137/1109020.
- ↑ Watson, G. S. (1964). "सहज प्रतिगमन विश्लेषण". Sankhyā: The Indian Journal of Statistics, Series A. 26 (4): 359–372. JSTOR 25049340.
- ↑ Bierens, Herman J. (1994). "The Nadaraya–Watson kernel regression function estimator". उन्नत अर्थमिति में विषय. New York: Cambridge University Press. pp. 212–247. ISBN 0-521-41900-X.
- ↑ Gasser, Theo; Müller, Hans-Georg (1979). "प्रतिगमन कार्यों का कर्नेल अनुमान". Springer: 23–68.
{{cite journal}}
: Cite journal requires|journal=
(help) - ↑ Salsburg, D. (2002). The Lady Tasting Tea: How Statistics Revolutionized Science in the Twentieth Century. W.H. Freeman. pp. 290–91. ISBN 0-8050-7134-2.
- ↑ Horová, I.; Koláček, J.; Zelinka, J. (2012). Kernel Smoothing in MATLAB: Theory and Practice of Kernel Smoothing. Singapore: World Scientific Publishing. ISBN 978-981-4405-48-5.
- ↑ np: Nonparametric kernel smoothing methods for mixed data types
- ↑ Kloke, John; McKean, Joseph W. (2014). आर का उपयोग करते हुए गैर-पैरामीट्रिक सांख्यिकीय तरीके. CRC Press. pp. 98–106. ISBN 978-1-4398-7343-4.
अग्रिम पठन
- Henderson, Daniel J.; Parmeter, Christopher F. (2015). Applied Nonparametric Econometrics. Cambridge University Press. ISBN 978-1-107-01025-3.
- Li, Qi; Racine, Jeffrey S. (2007). Nonparametric Econometrics: Theory and Practice. Princeton University Press. ISBN 978-0-691-12161-1.
- Pagan, A.; Ullah, A. (1999). Nonparametric Econometrics. Cambridge University Press. ISBN 0-521-35564-8.
- Racine, Jeffrey S. (2019). An Introduction to the Advanced Theory and Practice of Nonparametric Econometrics: A Replicable Approach Using R. Cambridge University Press. ISBN 9781108483407.
- Simonoff, Jeffrey S. (1996). Smoothing Methods in Statistics. Springer. ISBN 0-387-94716-7.
बाहरी संबंध
- Scale-adaptive kernel regression (with Matlab software).
- Tutorial of Kernel regression using spreadsheet (with Microsoft Excel).
- An online kernel regression demonstration Requires .NET 3.0 or later.
- Kernel regression with automatic bandwidth selection (with Python)