रिज प्रतिगमन
एक श्रृंखला का हिस्सा |
प्रतिगमन विश्लेषण |
---|
मॉडल |
अनुमान |
पार्श्वभूमि |
|
रिज प्रतिगमन उन परिदृश्यों में बहु-प्रतिगमन मॉडल के गुणांकों का आकलन करने की एक विधि है जहां स्वतंत्र चर अत्यधिक सहसंबद्ध होते हैं।[1] इसका उपयोग अर्थमिति, रसायन विज्ञान और इंजीनियरिंग सहित कई क्षेत्रों में किया गया है।[2]इसे तिखोनोव नियमितीकरण के रूप में भी जाना जाता है, जिसका नाम एंड्री निकोलाइविच तिखोनोव के नाम पर रखा गया है, यह निष्क्रिय समस्याओं के नियमितीकरण (गणित) की एक विधि है।[lower-alpha 1] यह रैखिक प्रतिगमन में बहुसंरेखता की समस्या को कम करने के लिए विशेष रूप से उपयोगी है, जो सामान्यतः बड़ी संख्या में मापदंडों वाले मॉडल में होता है।[3] सामान्यतः, विधि एक अनुमानक के पूर्वाग्रह की सहनीय राशि के बदले में मापदंड आकलन समस्याओं में बेहतर कुशल अनुमानक प्रदान करती है (पूर्वाग्रह-भिन्नता व्यापार देखें)।[4]
इस सिद्धांत को पहली बार होर्ल और केनार्ड ने 1970 में अपने टेक्नोमेट्रिक्स पेपर "रिज प्रतिगमन: बायस्ड एस्टीमेशन ऑफ नॉनऑर्थोगोनल प्रॉब्लम्स" और "रिज प्रतिगमन: एप्लिकेशन्स इन नॉनऑर्थोगोनल प्रॉब्लम्स" में पेश किया था।[5][6][1]यह रिज विश्लेषण के क्षेत्र में दस वर्षों के शोध का परिणाम था।[7]
रिज प्रतिगमन को कम से कम वर्ग अनुमानकों की अशुद्धि के संभावित समाधान के रूप में विकसित किया गया था जब रैखिक प्रतिगमन मॉडल में कुछ बहुसंरेखीय (अत्यधिक सहसंबद्ध) स्वतंत्र चर होते हैं - एक रिज प्रतिगमन अनुमानक (आरआर) बनाकर यह एक अधिक यथार्थ रिज मापदंड अनुमान प्रदान करता है, क्योंकि इसके विचरण और माध्य वर्ग अनुमानक प्रायः पहले से प्राप्त कम से कम वर्ग अनुमानक से छोटे होते हैं।[8][2]
अवलोकन
सबसे सरल प्रकरण में, एक विलक्षण मैट्रिसेस की समस्या निकट क्षण आव्यूह मुख्य विकर्ण में सकारात्मक तत्वों को जोड़कर कम किया जाता है, जिससे इसकी स्थिति संख्या कम हो जाती है। सामान्य न्यूनतम वर्ग अनुमानक के अनुरूप, सरल रिज अनुमानक तब द्वारा दिया जाता है
जहाँ प्रतिगामी है, डिजाइन आव्यूह है, पहचान आव्यूह और रिज मापदंड है और क्षण आव्यूह के विकर्णों को निरंतर स्थानांतरित करने के रूप में कार्य करता है।[9] यह रैखिक प्रतिगमन में बहुसंरेखता की समस्या को कम करने के लिए विशेष रूप से उपयोगी है, जो सामान्यतः बड़ी संख्या में मापदंडों वाले मॉडल में होता है। यह दिखाया जा सकता है कि यह अनुमानक बाधा (गणित) के अधीन कम से कम वर्गों की समस्या का समाधान है , जिसे लगरंगिआन के रूप में व्यक्त किया जा सकता है:
जो दर्शाता है बाधा के लैग्रेंज गुणक के अलावा और कुछ नहीं है। सामान्यतः, एक अनुमानी कसौटी के अनुसार चुना जाता है, ताकि बाधा पूरी तरह से संतुष्ट न हो। विशेष रूप से के प्रकरण में , जिसमें गैर-बाध्यकारी बाधा है, रिज अनुमानक कम से कम साधारण वर्ग तक कम हो जाता है। तिखोनोव नियमितीकरण के लिए एक अधिक सामान्य दृष्टिकोण की चर्चा नीचे की गई है।
इतिहास
कई अलग-अलग संदर्भों में स्वतंत्र रूप से तिखोनोव नियमितीकरण का आविष्कार किया गया है। एंड्री निकोलायेविच तिखोनोव और डेविड एल फिलिप्स के कार्य से अभिन्न समीकरणों के लिए इसके अनुप्रयोग से व्यापक रूप से जाना जाने लगा[10][11][12][13][14]।[15] कुछ लेखक तिखोनोव-फिलिप्स नियमितीकरण शब्द का उपयोग करते हैं। आर्थर ई. होर्ल ने परिमित-आयामी प्रकरण की व्याख्या की, जिन्होंने एक सांख्यिकीय दृष्टिकोण अपनाया,[16] और मानुस फोस्टर द्वारा, जिन्होंने इस विधि की व्याख्या क्रिगिंग वीनर-कोल्मोगोरोव (क्रिगिंग) फिल्टर के रूप में की।[17] होर्ल के बाद, पहचान आव्यूह के विकर्ण के साथ आकृति के नाम पर यह सांख्यिकीय साहित्य में रिज प्रतिगमन के रूप में जाना जाता है[18]। यह रैखिक प्रतिगमन में बहुसंरेखता की समस्या को कम करने के लिए विशेष रूप से उपयोगी है, जो सामान्यतः बड़ी संख्या में मापदंडों वाले मॉडल में होता है।
तिखोनोव नियमितीकरण
मान लीजिए कि एक ज्ञात आव्यूह के लिए और सदिश , हम एक सदिश खोजना चाहते हैं, ऐसा है कि[clarification needed]
मानक दृष्टिकोण साधारण न्यूनतम वर्ग रैखिक प्रतिगमन है।[clarification needed] हालांकि, अगर समीकरण या एक से अधिक को संतुष्ट नहीं करता है तो समाधान अद्वितीय नहीं है—समस्या को अच्छी तरह से प्रस्तुत समस्या कहा जाता है। ऐसे प्रकरणों में, सामान्य न्यूनतम वर्ग अनुमान एक अतिनिर्धारित प्रणाली की ओर जाता है, या अधिक बार समीकरणों की एक अनिर्धारित प्रणाली प्रणाली अधिकांश वास्तविक दुनिया की घटनाओं में लो-पास फिल्टर का प्रभाव होता है[clarification needed] आगे की दिशा में जहां एमएपीएस को व्युत्क्रम-समस्या को हल करने में, व्युत्क्रम मानचित्रण एक उच्च पास फिल्टर के रूप में कार्य करता है जिसमें शोर को बढ़ाने की अवांछनीय प्रवृत्ति होती है (लगरंगिआन / एकल मान रिवर्स मैपिंग में सबसे बड़े होते हैं जहां वे आगे की मैपिंग में सबसे छोटे थे)। इसके अलावा, सामान्य कम से कम वर्ग के पुनर्निर्मित संस्करण के प्रत्येक तत्व को स्पष्ट रूप से रद्द कर देता है, वह शून्य-स्थान में है, किसी मॉडल को पूर्व के रूप में उपयोग करने की अनुमति देने के बजाय साधारण न्यूनतम वर्ग अवशिष्ट (संख्यात्मक विश्लेषण) के योग को कम करने का प्रयास करता है, जिसे संक्षिप्त रूप से लिखा जा सकता है
जहाँ नॉर्म (गणित) यूक्लिडियन मानदंड है।
वांछित गुणों वाले किसी विशेष समाधान को वरीयता देने के लिए, इस न्यूनीकरण में एक नियमितीकरण शब्द सम्मिलित किया जा सकता है:
कुछ उपयुक्त रूप से चुने गए तिखोनोव आव्यूह के लिए कई प्रकरणों में, इस आव्यूह को आइडेंटिटी आव्यूह के स्केलर मल्टीपल के रूप में चुना जाता है (), छोटे नॉर्म (गणित) के साथ नियमितीकरण समाधानों को वरीयता देना; इसे इस रूप में L2 जाना जाता है।[19] अन्य प्रकरणों में, उच्च-पास संचालक (उदाहरण के लिए, एक अंतर संचालक या भारित असतत फूरियर रूपांतरण) का उपयोग समतल पृष्ठ को लागू करने के लिए किया जा सकता है यदि अंतर्निहित सदिश अधिकतर निरंतर माना जाता है।
यह नियमितीकरण समस्या की अनुकूलन में सुधार करता है, इस प्रकार प्रत्यक्ष संख्यात्मक समाधान को सक्षम करता है। एक स्पष्ट समाधान, द्वारा निरूपित , द्वारा दिया गया है
आव्यूह के पैमाने से नियमितीकरण का प्रभाव भिन्न हो सकता है, के लिए यह अनियमित न्यूनतम-वर्ग समाधान को कम करता है, बशर्ते कि (AtA)−1 उपस्थित है।
L2 रैखिक प्रतिगमन से अलग कई संदर्भों में नियमितीकरण का उपयोग किया जाता है, जैसे कि संभार तन्त्र परावर्तन या समर्थन सदिश यंत्र के साथ सांख्यिकीय वर्गीकरण,[20] और आव्यूह गुणनखंडन आदि।[21]
सामान्यीकृत तिखोनोव नियमितीकरण
सामान्य बहुभिन्नरूपी सामान्य वितरण के लिए और डेटा त्रुटि, उपरोक्त प्रकरण को कम करने के लिए चर के परिवर्तन को लागू कर सकते हैं। समान रूप से, कोई कम करने के लिए
जहां हमने प्रयोग किया है, भारित मानक के होने के लिए (महालनोबिस दूरी के साथ तुलना करें) बायेसियन व्याख्या में का व्युत्क्रम सहप्रसरण आव्यूह है, का अपेक्षित मूल्य है, और का व्युत्क्रम सहप्रसरण आव्यूह है, तिखोनोव आव्यूह को तब आव्यूह के गुणनखंड के रूप में दिया जाता है (उदाहरण के लिए चोलेस्की गुणनखंडन) और एक सापेक्ष परिवर्तन माना जाता है।
इस सामान्यीकृत समस्या का एक इष्टतम समाधान है, जिसे सूत्र द्वारा स्पष्ट रूप से लिखा जा सकता है
या समकक्ष
लावेरेंटयेव नियमितीकरण
कुछ स्थितियों में, ट्रांसपोज़ का उपयोग करने से बचा जा सकता है , जैसा कि प्रस्तावित किया गया मिखाइल लावेरेंटिव होगा।[22] उदाहरण के लिए, यदि सममित सकारात्मक निश्चित है, अर्थात , तो इसका उलटा है , जिसका उपयोग इस प्रकार भारित मानदंड चुकता करने के लिए किया जा सकता है सामान्यीकृत तिखोनोव नियमितीकरण में, कम से कम करने के लिए अग्रणी यह रैखिक प्रतिगमन में बहुसंरेखता की समस्या को कम करने के लिए विशेष रूप से उपयोगी है, जो सामान्यतः बड़ी संख्या में मापदंडों वाले मॉडल में होता है।
या, समान रूप से एक स्थिर अवधि तक,
- .
इस न्यूनीकरण समस्या का एक इष्टतम समाधान है जिसे सूत्र द्वारा स्पष्ट रूप से लिखा जा सकता है
- ,
जो और कुछ नहीं बल्कि सामान्यीकृत तिखोनोव समस्या का समाधान है,
लाव्रेंटएव नियमितीकरण, यदि लागू हो तो, मूल तिखोनोव नियमितीकरण के लिए फायदेमंद है, क्योंकि लाव्रेंटएव आव्यूह तिखोनोव आव्यूह की तुलना में बेहतर स्थिति में हो सकता है, अर्थात, एक छोटी स्थिति संख्या हो सकती है।
हिल्बर्ट समतल में नियमितीकरण
विशिष्ट रूप से असतत रेखीय निष्क्रिय-समस्याएं अभिन्न समीकरण के विवेक से उत्पन्न होती हैं, और मूल अनंत-आयामी संदर्भ में तिखोनोव नियमितीकरण तैयार कर सकते हैं। उपरोक्त में हम व्याख्या कर सकते हैं, हिल्बर्ट रिक्त स्थान पर एक सघन संचालक के रूप में, और और डोमेन और रेंज में तत्वों के रूप में परिचालक तब एक हर्मिटियन संलग्न स्व-संलग्न परिबद्ध व्युत्क्रमणीय संकारक है।
एकल-मूल्य अपघटन और वीनर फ़िल्टर से संबंध
, इस न्यूनतम-वर्ग समाधान का एकल-मूल्य अपघटन का उपयोग करके एक विशेष तरीके से विश्लेषण किया जा सकता है। एकल मूल्य अपघटन को देखते हुए
विलक्षण मूल्यों के साथ तिखोनोव नियमित समाधान के रूप में व्यक्त किया जा सकता है
जहाँ विकर्ण मान हैं
यह नियमित समस्या की स्थिति संख्या पर तिखोनोव मापदंड के प्रभाव को प्रदर्शित करता है। सामान्यीकृत प्रकरण के लिए, सामान्यीकृत एकल-मूल्य अपघटन का उपयोग करके एक समान प्रतिनिधित्व प्राप्त किया जा सकता है।[23]
अंत में, यह विनीज़ फ़िल्टर से संबंधित है:
जहां वीनर भार हैं और का कोटि (रैखिक बीजगणित) है।
तिखोनोव कारक का निर्धारण
इष्टतम नियमितीकरण मापदंड सामान्यतः अज्ञात होता है और प्रायः व्यावहारिक समस्याओं में एक तदर्थ विधि द्वारा निर्धारित किया जाता है। एक संभावित दृष्टिकोण नीचे वर्णित बायेसियन व्याख्या पर निर्भर करता है। अन्य दृष्टिकोणों में विसंगति सिद्धांत, क्रॉस-सत्यापन (सांख्यिकी), क्रॉस-सत्यापन, एल-वक्र विधि सम्मिलित हैं।[24] प्रतिबंधित अधिकतम संभावना और निष्पक्ष भविष्य कहने वाला जोखिम अनुमानक ग्रेस वाहबा ने प्रमाणित किया कि इष्टतम मापदंड, क्रॉस-वैलिडेशन (सांख्यिकी) के अर्थ में लीव-वन-आउट क्रॉस-वैलिडेशन लीव-वन-आउट क्रॉस-वैलिडेशन न्यूनतम निर्धारित करता है, यह रैखिक प्रतिगमन में बहुसंरेखता की समस्या को कम करने के लिए विशेष रूप से उपयोगी है, जो सामान्यतः बड़ी संख्या में मापदंडों वाले मॉडल में होता है।[25][26]
जहाँ वर्गों का अवशिष्ट योग है, और स्वतंत्रता की डिग्री की प्रभावी संख्या है।
पिछले SVD अपघटन का उपयोग करके, हम उपरोक्त अभिव्यक्ति को सरल बना सकते हैं:
और
संभाव्य सूत्रीकरण से संबंध
एक व्युत्क्रम समस्या का संभाव्य सूत्रीकरण एक सहप्रसरण आव्यूह का परिचय देता है (जब सभी अनिश्चितताएं गॉसियन हैं) मॉडल मापदंडों पर एक प्राथमिक अनिश्चितता और एक सहप्रसरण आव्यूह का प्रतिनिधित्व देखे गए मापदंडों पर अनिश्चितताओं का प्रतिनिधित्व करना[27] विशेष प्रकरण में जब ये दो आव्यूह विकर्ण और समदैशिक होते हैं, और , और, इस प्रकरण में व्युत्क्रम सिद्धांत के समीकरण ऊपर .के समीकरणों को कम करते हैं।
बायेसियन व्याख्या
हालाँकि पहली बार में इस नियमित समस्या के समाधान का विकल्प कृत्रिम और वास्तव में आव्यूह लग सकता है बल्कि मनमाना लगता है, इस प्रक्रिया को बायेसियन प्रायिकता से उचित ठहराया जा सकता है। ध्यान दें कि एक निष्क्रिय समस्या के लिए एक अद्वितीय समाधान प्राप्त करने के लिए कुछ अतिरिक्त मान्यताओं को अनिवार्य रूप से पेश करना चाहिए। सांख्यिकीय रूप से, का पूर्व संभाव्यता वितरण कभी-कभी बहुभिन्नरूपी सामान्य वितरण के रूप में लिया जाता है। यहाँ सरलता के लिए, निम्नलिखित धारणाएँ बनाई गई हैं: साधन शून्य हैं; उनके घटक स्वतंत्र हैं; घटकों में समान मानक विचलन होता है, डेटा भी त्रुटियों के अधीन हैं, और त्रुटियों में को शून्य माध्य और मानक विचलन के साथ सांख्यिकीय स्वतंत्रता भी माना जाता है, इन धारणाओं के तहत तिखोनोव-नियमित समाधान डेटा और प्राथमिकता वितरण को देखते हुए अधिकतम पश्च समाधान है।[28]
बेयस प्रमेय के अनुसार, यदि सामान्य वितरण की धारणा को आँकड़ों में त्रुटियों और अवशिष्टों की समरूपता और असंबद्धता की धारणाओं द्वारा प्रतिस्थापित किया जाता है, और यदि कोई अभी भी शून्य माध्य मानता है, तो गॉस-मार्कोव प्रमेय का अर्थ है कि समाधान एक अनुमानक का न्यूनतम पूर्वाग्रह है।[29]
यह भी देखें
- लस्सो (सांख्यिकी) आँकड़ों में एक और नियमितीकरण विधि है।
- लोचदार शुद्ध नियमितीकरण
- आव्यूह नियमितीकरण
टिप्पणियाँ
- ↑ In statistics, the method is known as ridge regression, in machine learning it and its modifications are known as weight decay, and with multiple independent discoveries, it is also variously known as the Tikhonov–Miller method, the Phillips–Twomey method, the constrained linear inversion method, L2 regularization, and the method of linear regularization. It is related to the Levenberg–Marquardt algorithm for non-linear least-squares problems.
संदर्भ
- ↑ 1.0 1.1 Hilt, Donald E.; Seegrist, Donald W. (1977). रिज, रिज प्रतिगमन अनुमानों की गणना के लिए एक कंप्यूटर प्रोग्राम. doi:10.5962/bhl.title.68934.[page needed]
- ↑ 2.0 2.1 Gruber, Marvin (1998). Improving Efficiency by Shrinkage: The James--Stein and Ridge Regression Estimators. CRC Press. p. 2. ISBN 978-0-8247-0156-7.
- ↑ Kennedy, Peter (2003). अर्थमिति के लिए एक गाइड (Fifth ed.). Cambridge: The MIT Press. pp. 205–206. ISBN 0-262-61183-X.
- ↑ Gruber, Marvin (1998). Improving Efficiency by Shrinkage: The James–Stein and Ridge Regression Estimators. Boca Raton: CRC Press. pp. 7–15. ISBN 0-8247-0156-9.
- ↑ Hoerl, Arthur E.; Kennard, Robert W. (1970). "Ridge Regression: Biased Estimation for Nonorthogonal Problems". Technometrics. 12 (1): 55–67. doi:10.2307/1267351. JSTOR 1267351.
- ↑ Hoerl, Arthur E.; Kennard, Robert W. (1970). "Ridge Regression: Applications to Nonorthogonal Problems". Technometrics. 12 (1): 69–82. doi:10.2307/1267352. JSTOR 1267352.
- ↑ Beck, James Vere; Arnold, Kenneth J. (1977). इंजीनियरिंग और विज्ञान में पैरामीटर अनुमान. James Beck. p. 287. ISBN 978-0-471-06118-2.
- ↑ Jolliffe, I. T. (2006). प्रमुख कंपोनेंट विश्लेषण. Springer Science & Business Media. p. 178. ISBN 978-0-387-22440-4.
- ↑ For the choice of in practice, see Khalaf, Ghadban; Shukur, Ghazi (2005). "Choosing Ridge Parameter for Regression Problems". Communications in Statistics – Theory and Methods. 34 (5): 1177–1182. doi:10.1081/STA-200056836. S2CID 122983724.
- ↑ Tikhonov, Andrey Nikolayevich (1943). "Об устойчивости обратных задач" [On the stability of inverse problems]. Doklady Akademii Nauk SSSR. 39 (5): 195–198. Archived from the original on 2005-02-27.
- ↑ Tikhonov, A. N. (1963). "О решении некорректно поставленных задач и методе регуляризации". Doklady Akademii Nauk SSSR. 151: 501–504.. Translated in "Solution of incorrectly formulated problems and the regularization method". Soviet Mathematics. 4: 1035–1038.
- ↑ Tikhonov, A. N.; V. Y. Arsenin (1977). अशुभ समस्याओं का समाधान. Washington: Winston & Sons. ISBN 0-470-99124-0.
- ↑ Tikhonov, Andrey Nikolayevich; Goncharsky, A.; Stepanov, V. V.; Yagola, Anatolij Grigorevic (30 June 1995). अशुभ समस्याओं के समाधान के लिए संख्यात्मक तरीके. Netherlands: Springer Netherlands. ISBN 079233583X. Retrieved 9 August 2018.
- ↑ Tikhonov, Andrey Nikolaevich; Leonov, Aleksandr S.; Yagola, Anatolij Grigorevic (1998). गैर-रैखिक बीमार-समस्याएं. London: Chapman & Hall. ISBN 0412786605. Retrieved 9 August 2018.
- ↑ Phillips, D. L. (1962). "पहली तरह के कुछ अभिन्न समीकरणों के संख्यात्मक समाधान के लिए एक तकनीक". Journal of the ACM. 9: 84–97. doi:10.1145/321105.321114. S2CID 35368397.
- ↑ Hoerl, Arthur E. (1962). "प्रतिगमन समस्याओं के लिए रिज विश्लेषण का अनुप्रयोग". Chemical Engineering Progress. 58 (3): 54–59.
- ↑ Foster, M. (1961). "मैट्रिक्स व्युत्क्रम के लिए वीनर-कोल्मोगोरोव स्मूथिंग थ्योरी का एक अनुप्रयोग". Journal of the Society for Industrial and Applied Mathematics. 9 (3): 387–392. doi:10.1137/0109031.
- ↑ Hoerl, A. E.; R. W. Kennard (1970). "Ridge regression: Biased estimation for nonorthogonal problems". Technometrics. 12 (1): 55–67. doi:10.1080/00401706.1970.10488634.
- ↑ Ng, Andrew Y. (2004). Feature selection, L1 vs. L2 regularization, and rotational invariance (PDF). Proc. ICML.
- ↑ R.-E. Fan; K.-W. Chang; C.-J. Hsieh; X.-R. Wang; C.-J. Lin (2008). "LIBLINEAR: A library for large linear classification". Journal of Machine Learning Research. 9: 1871–1874.
- ↑ Guan, Naiyang; Tao, Dacheng; Luo, Zhigang; Yuan, Bo (2012). "मजबूत स्टोचैस्टिक सन्निकटन के साथ ऑनलाइन गैर-नकारात्मक मैट्रिक्स गुणनखंडन". IEEE Transactions on Neural Networks and Learning Systems. 23 (7): 1087–1099. doi:10.1109/TNNLS.2012.2197827. PMID 24807135. S2CID 8755408.
- ↑ Lavrentiev, M. M. (1967). गणितीय भौतिकी की कुछ अनुचित रूप से उत्पन्न समस्याएं. New York: Springer.
- ↑ Hansen, Per Christian (Jan 1, 1998). रैंक-कमी और असतत बीमार समस्याएं: रैखिक उलटा के संख्यात्मक पहलू (1st ed.). Philadelphia, USA: SIAM. ISBN 9780898714036.
- ↑ P. C. Hansen, "The L-curve and its use in the numerical treatment of inverse problems", [1]
- ↑ Wahba, G. (1990). "अवलोकन डेटा के लिए तख़्ता मॉडल". CBMS-NSF Regional Conference Series in Applied Mathematics. Society for Industrial and Applied Mathematics. Bibcode:1990smod.conf.....W.
- ↑ Golub, G.; Heath, M.; Wahba, G. (1979). "एक अच्छा रिज पैरामीटर चुनने की विधि के रूप में सामान्यीकृत क्रॉस-सत्यापन" (PDF). Technometrics. 21 (2): 215–223. doi:10.1080/00401706.1979.10489751.
- ↑ Tarantola, Albert (2005). उलटा समस्या सिद्धांत और मॉडल पैरामीटर अनुमान के लिए तरीके (1st ed.). Philadelphia: Society for Industrial and Applied Mathematics (SIAM). ISBN 0898717922. Retrieved 9 August 2018.
- ↑ Vogel, Curtis R. (2002). व्युत्क्रम समस्याओं के लिए कम्प्यूटेशनल तरीके. Philadelphia: Society for Industrial and Applied Mathematics. ISBN 0-89871-550-4.
- ↑ Amemiya, Takeshi (1985). उन्नत अर्थमिति. Harvard University Press. pp. 60–61. ISBN 0-674-00560-0.
अग्रिम पठन
- Gruber, Marvin (1998). Improving Efficiency by Shrinkage: The James–Stein and Ridge Regression Estimators. Boca Raton: CRC Press. ISBN 0-8247-0156-9.
- Kress, Rainer (1998). "Tikhonov Regularization". Numerical Analysis. New York: Springer. pp. 86–90. ISBN 0-387-98408-9.
- Press, W. H.; Teukolsky, S. A.; Vetterling, W. T.; Flannery, B. P. (2007). "Section 19.5. Linear Regularization Methods". Numerical Recipes: The Art of Scientific Computing (3rd ed.). New York: Cambridge University Press. ISBN 978-0-521-88068-8.
- Saleh, A. K. Md. Ehsanes; Arashi, Mohammad; Kibria, B. M. Golam (2019). Theory of Ridge Regression Estimation with Applications. New York: John Wiley & Sons. ISBN 978-1-118-64461-4.
- Taddy, Matt (2019). "Regularization". Business Data Science: Combining Machine Learning and Economics to Optimize, Automate, and Accelerate Business Decisions. New York: McGraw-Hill. pp. 69–104. ISBN 978-1-260-45277-8.