रिज प्रतिगमन
एक श्रृंखला का हिस्सा |
प्रतिगमन विश्लेषण |
---|
मॉडल |
अनुमान |
पार्श्वभूमि |
|
रिज प्रतिगमन उन परिदृश्यों में बहु-प्रतिगमन मॉडल के गुणांकों का आकलन करने की एक विधि है जहां स्वतंत्र चर अत्यधिक सहसंबद्ध होते हैं।[1] इसका उपयोग अर्थमिति, रसायन विज्ञान और इंजीनियरिंग सहित कई क्षेत्रों में किया गया है।[2]इसे तिखोनोव नियमितीकरण के रूप में भी जाना जाता है, जिसका नाम एंड्री निकोलाइविच तिखोनोव के नाम पर रखा गया है, यह निष्क्रिय समस्याओं के नियमितीकरण (गणित) की एक विधि है।[lower-alpha 1] यह रैखिक प्रतिगमन में बहुसंरेखता की समस्या को कम करने के लिए विशेष रूप से उपयोगी है, जो सामान्यतः बड़ी संख्या में मापदंडों वाले मॉडल में होता है।[3] सामान्यतः, विधि एक अनुमानक के पूर्वाग्रह की सहनीय राशि के बदले में मापदंड आकलन समस्याओं में बेहतर कुशल अनुमानक प्रदान करती है (पूर्वाग्रह-भिन्नता व्यापार देखें)।[4]
इस सिद्धांत को पहली बार होर्ल और केनार्ड ने 1970 में अपने टेक्नोमेट्रिक्स पेपर "रिज प्रतिगमन: बायस्ड एस्टीमेशन ऑफ नॉनऑर्थोगोनल प्रॉब्लम्स" और "रिज प्रतिगमन: एप्लिकेशन्स इन नॉनऑर्थोगोनल प्रॉब्लम्स" में पेश किया था।[5][6][1]यह रिज विश्लेषण के क्षेत्र में दस वर्षों के शोध का परिणाम था।[7]
रिज प्रतिगमन को कम से कम वर्ग अनुमानकों की अशुद्धि के संभावित समाधान के रूप में विकसित किया गया था जब रैखिक प्रतिगमन मॉडल में कुछ बहुसंरेखीय (अत्यधिक सहसंबद्ध) स्वतंत्र चर होते हैं - एक रिज प्रतिगमन अनुमानक (आरआर) बनाकर यह एक अधिक यथार्थ रिज मापदंड अनुमान प्रदान करता है, क्योंकि इसके विचरण और माध्य वर्ग अनुमानक प्रायः पहले से प्राप्त कम से कम वर्ग अनुमानक से छोटे होते हैं।[8][2]
अवलोकन
सबसे सरल मामले में, एक विलक्षण मैट्रिसेस की समस्या | निकट-एकवचन क्षण मैट्रिक्स मुख्य विकर्ण में सकारात्मक तत्वों को जोड़कर कम किया जाता है, जिससे इसकी स्थिति संख्या कम हो जाती है। सामान्य न्यूनतम वर्ग अनुमानक के अनुरूप, सरल रिज अनुमानक तब द्वारा दिया जाता है
कहाँ प्रतिगामी है, डिजाइन मैट्रिक्स है, पहचान मैट्रिक्स और रिज मापदंड है क्षण मैट्रिक्स के विकर्णों को निरंतर स्थानांतरित करने के रूप में कार्य करता है।[9] यह दिखाया जा सकता है कि यह अनुमानक बाधा (गणित) के अधीन कम से कम वर्गों की समस्या का समाधान है , जिसे Lagrangian के रूप में व्यक्त किया जा सकता है:
जो दर्शाता है बाधा के लैग्रेंज गुणक के अलावा और कुछ नहीं है। सामान्यतः, एक अनुमानी कसौटी के अनुसार चुना जाता है, ताकि बाधा पूरी तरह से संतुष्ट न हो। विशेष रूप से के मामले में , जिसमें गैर-बाध्यकारी बाधा | बाधा गैर-बाध्यकारी है, रिज अनुमानक कम से कम साधारण वर्ग तक कम हो जाता है। तिखोनोव नियमितीकरण के लिए एक अधिक सामान्य दृष्टिकोण की चर्चा नीचे की गई है।
इतिहास
कई अलग-अलग संदर्भों में स्वतंत्र रूप से तिखोनोव नियमितीकरण का आविष्कार किया गया है। के कार्य से अभिन्न समीकरणों के लिए इसके अनुप्रयोग से व्यापक रूप से जाना जाने लगा एंड्री निकोलायेविच तिखोनोव[10][11][12][13][14] और डेविड एल फिलिप्स।[15] कुछ लेखक तिखोनोव-फिलिप्स नियमितीकरण शब्द का उपयोग करते हैं। आर्थर ई. होर्ल ने परिमित-आयामी मामले की व्याख्या की, जिन्होंने एक सांख्यिकीय दृष्टिकोण अपनाया,[16] और मानुस फोस्टर द्वारा, जिन्होंने इस विधि की व्याख्या क्रिगिंग | वीनर-कोल्मोगोरोव (क्रिगिंग) फिल्टर के रूप में की।[17] होर्ल के बाद, यह सांख्यिकीय साहित्य में रिज प्रतिगमन के रूप में जाना जाता है,[18] पहचान मैट्रिक्स के विकर्ण के साथ आकृति के नाम पर।
तिखोनोव नियमितीकरण
मान लीजिए कि एक ज्ञात मैट्रिक्स के लिए और वेक्टर , हम एक वेक्टर खोजना चाहते हैं ऐसा है कि[clarification needed]
मानक दृष्टिकोण साधारण न्यूनतम वर्ग रैखिक प्रतिगमन है।[clarification needed] हालांकि, अगर नहीं समीकरण या एक से अधिक को संतुष्ट करता है करता है—अर्थात, समाधान अद्वितीय नहीं है—समस्या को अच्छी तरह से प्रस्तुत समस्या कहा जाता है। ऐसे मामलों में, सामान्य न्यूनतम वर्ग अनुमान एक अतिनिर्धारित प्रणाली की ओर जाता है, या अधिक बार समीकरणों की एक अनिर्धारित प्रणाली प्रणाली। अधिकांश वास्तविक दुनिया की घटनाओं में लो-पास फिल्टर का प्रभाव होता है[clarification needed] आगे की दिशा में जहां एमएपीएस को . इसलिए, व्युत्क्रम-समस्या को हल करने में, व्युत्क्रम मानचित्रण एक उच्च पास फिल्टर के रूप में कार्य करता है जिसमें शोर को बढ़ाने की अवांछनीय प्रवृत्ति होती है (eigenvalues / एकवचन मान रिवर्स मैपिंग में सबसे बड़े होते हैं जहां वे आगे की मैपिंग में सबसे छोटे थे)। इसके अलावा, सामान्य कम से कम वर्ग के पुनर्निर्मित संस्करण के प्रत्येक तत्व को स्पष्ट रूप से रद्द कर देता है वह शून्य-स्थान में है , किसी मॉडल को पूर्व के रूप में उपयोग करने की अनुमति देने के बजाय . साधारण न्यूनतम वर्ग वर्ग अवशिष्ट (संख्यात्मक विश्लेषण) के योग को कम करने का प्रयास करता है, जिसे संक्षिप्त रूप से लिखा जा सकता है
कहाँ नॉर्म (गणित) #यूक्लिडियन मानदंड है।
वांछित गुणों वाले किसी विशेष समाधान को वरीयता देने के लिए, इस न्यूनीकरण में एक नियमितीकरण शब्द शामिल किया जा सकता है:
कुछ उपयुक्त रूप से चुने गए तिखोनोव मैट्रिक्स के लिए . कई मामलों में, इस मैट्रिक्स को आइडेंटिटी मैट्रिक्स के स्केलर मल्टीपल के रूप में चुना जाता है (), छोटे नॉर्म (गणित) के साथ समाधानों को वरीयता देना; इसे इस रूप में जाना जाता हैL2 नियमितीकरण।[19] अन्य मामलों में, उच्च-पास ऑपरेटर (उदाहरण के लिए, एक अंतर ऑपरेटर या भारित असतत फूरियर रूपांतरण) का उपयोग चिकनाई को लागू करने के लिए किया जा सकता है यदि अंतर्निहित वेक्टर अधिकतर निरंतर माना जाता है। यह नियमितीकरण समस्या की कंडीशनिंग में सुधार करता है, इस प्रकार प्रत्यक्ष संख्यात्मक समाधान को सक्षम करता है। एक स्पष्ट समाधान, द्वारा निरूपित , द्वारा दिया गया है
मैट्रिक्स के पैमाने से नियमितीकरण का प्रभाव भिन्न हो सकता है . के लिए यह अनियमित न्यूनतम-वर्ग समाधान को कम करता है, बशर्ते कि (एटीए)−1 मौजूद है।
L2 रैखिक प्रतिगमन से अलग कई संदर्भों में नियमितीकरण का उपयोग किया जाता है, जैसे कि संभार तन्त्र परावर्तन या समर्थन वेक्टर यंत्र के साथ सांख्यिकीय वर्गीकरण,[20] और मैट्रिक्स गुणनखंडन।[21]
सामान्यीकृत तिखोनोव नियमितीकरण
सामान्य बहुभिन्नरूपी सामान्य वितरण के लिए और डेटा त्रुटि, उपरोक्त मामले को कम करने के लिए चर के परिवर्तन को लागू कर सकते हैं। समान रूप से, कोई खोज सकता है कम से कम करने के लिए
जहां हमने प्रयोग किया है भारित मानक चुकता के लिए खड़े होने के लिए (महालनोबिस दूरी के साथ तुलना करें)। बायेसियन व्याख्या में का व्युत्क्रम सहप्रसरण मैट्रिक्स है , का अपेक्षित मूल्य है , और का व्युत्क्रम सहप्रसरण मैट्रिक्स है . Tikhonov मैट्रिक्स को तब मैट्रिक्स के गुणनखंड के रूप में दिया जाता है (उदाहरण के लिए Cholesky गुणनखंडन) और एक सफेद परिवर्तन माना जाता है।
इस सामान्यीकृत समस्या का एक इष्टतम समाधान है जिसे सूत्र द्वारा स्पष्ट रूप से लिखा जा सकता है
या समकक्ष
लावेरेंटयेव नियमितीकरण
कुछ स्थितियों में, ट्रांसपोज़ का उपयोग करने से बचा जा सकता है , जैसा कि प्रस्तावित किया गया था मिखाइल लावेरेंटिव होगा।[22] उदाहरण के लिए, यदि सममित सकारात्मक निश्चित है, अर्थात , तो इसका उलटा है , जिसका उपयोग इस प्रकार भारित मानदंड चुकता करने के लिए किया जा सकता है सामान्यीकृत तिखोनोव नियमितीकरण में, कम से कम करने के लिए अग्रणी
या, समान रूप से एक स्थिर अवधि तक,
- .
इस न्यूनीकरण समस्या का एक इष्टतम समाधान है जिसे सूत्र द्वारा स्पष्ट रूप से लिखा जा सकता है
- ,
जो और कुछ नहीं बल्कि सामान्यीकृत तिखोनोव समस्या का समाधान है Lavrentyev नियमितीकरण, यदि लागू हो, मूल Tikhonov नियमितीकरण के लिए फायदेमंद है, क्योंकि Lavrentyev मैट्रिक्स तिखोनोव मैट्रिक्स की तुलना में बेहतर स्थिति में हो सकता है, यानी, एक छोटी स्थिति संख्या हो सकती है
हिल्बर्ट अंतरिक्ष में नियमितीकरण
विशिष्ट रूप से असतत रेखीय निष्क्रिय-समस्याएं अभिन्न समीकरणों के विवेक से उत्पन्न होती हैं, और मूल अनंत-आयामी संदर्भ में तिखोनोव नियमितीकरण तैयार कर सकते हैं। उपरोक्त में हम व्याख्या कर सकते हैं हिल्बर्ट रिक्त स्थान पर एक कॉम्पैक्ट ऑपरेटर के रूप में, और और डोमेन और रेंज में तत्वों के रूप में . परिचालक तब एक हर्मिटियन संलग्न | स्व-संलग्न परिबद्ध व्युत्क्रमणीय संकारक है।
एकवचन-मूल्य अपघटन और वीनर फ़िल्टर से संबंध
साथ , इस न्यूनतम-वर्ग समाधान का एकवचन-मूल्य अपघटन का उपयोग करके एक विशेष तरीके से विश्लेषण किया जा सकता है। एकवचन मूल्य अपघटन को देखते हुए
विलक्षण मूल्यों के साथ तिखोनोव नियमित समाधान के रूप में व्यक्त किया जा सकता है
कहाँ विकर्ण मान हैं
और कहीं शून्य है। यह नियमित समस्या की स्थिति संख्या पर तिखोनोव मापदंड के प्रभाव को प्रदर्शित करता है। सामान्यीकृत मामले के लिए, सामान्यीकृत एकवचन-मूल्य अपघटन का उपयोग करके एक समान प्रतिनिधित्व प्राप्त किया जा सकता है।[23]
अंत में, यह विनीज़ फ़िल्टर से संबंधित है:
जहां वीनर भार हैं और का कोटि (रैखिक बीजगणित) है .
तिखोनोव कारक का निर्धारण
इष्टतम नियमितीकरण मापदंड सामान्यतः अज्ञात होता है और प्रायः व्यावहारिक समस्याओं में एक तदर्थ विधि द्वारा निर्धारित किया जाता है। एक संभावित दृष्टिकोण नीचे वर्णित बायेसियन व्याख्या पर निर्भर करता है। अन्य दृष्टिकोणों में विसंगति सिद्धांत, क्रॉस-सत्यापन (सांख्यिकी) | क्रॉस-सत्यापन, एल-वक्र विधि, शामिल हैं।[24] प्रतिबंधित अधिकतम संभावना और निष्पक्ष भविष्य कहनेवाला जोखिम अनुमानक। ग्रेस वाहबा ने साबित किया कि इष्टतम मापदंड, क्रॉस-वैलिडेशन (सांख्यिकी) के अर्थ में#लीव-वन-आउट क्रॉस-वैलिडेशन|लीव-वन-आउट क्रॉस-वैलिडेशन न्यूनतम करता है[25][26]
कहाँ वर्गों का अवशिष्ट योग है, और स्वतंत्रता की डिग्री की प्रभावी संख्या है।
पिछले SVD अपघटन का उपयोग करके, हम उपरोक्त अभिव्यक्ति को सरल बना सकते हैं:
और
संभाव्य सूत्रीकरण से संबंध
एक व्युत्क्रम समस्या का संभाव्य सूत्रीकरण एक सहप्रसरण मैट्रिक्स का परिचय देता है (जब सभी अनिश्चितताएं गॉसियन हैं) मॉडल मापदंडों पर एक प्राथमिक अनिश्चितता और एक सहप्रसरण मैट्रिक्स का प्रतिनिधित्व करना देखे गए मापदंडों पर अनिश्चितताओं का प्रतिनिधित्व करना।[27] विशेष मामले में जब ये दो आव्यूह विकर्ण और समदैशिक होते हैं, और , और, इस मामले में, व्युत्क्रम सिद्धांत के समीकरण ऊपर के समीकरणों को कम करते हैं, साथ .
बायेसियन व्याख्या
हालाँकि पहली बार में इस नियमित समस्या के समाधान का विकल्प कृत्रिम और वास्तव में मैट्रिक्स लग सकता है बल्कि मनमाना लगता है, इस प्रक्रिया को बायेसियन प्रायिकता से उचित ठहराया जा सकता है। ध्यान दें कि एक निष्क्रिय समस्या के लिए एक अद्वितीय समाधान प्राप्त करने के लिए कुछ अतिरिक्त मान्यताओं को अनिवार्य रूप से पेश करना चाहिए। सांख्यिकीय रूप से, का पूर्व संभाव्यता वितरण कभी-कभी बहुभिन्नरूपी सामान्य वितरण के रूप में लिया जाता है। यहाँ सरलता के लिए, निम्नलिखित धारणाएँ बनाई गई हैं: साधन शून्य हैं; उनके घटक स्वतंत्र हैं; घटकों में समान मानक विचलन होता है . डेटा भी त्रुटियों के अधीन हैं, और त्रुटियों में को शून्य माध्य और मानक विचलन के साथ सांख्यिकीय स्वतंत्रता भी माना जाता है . इन धारणाओं के तहत तिखोनोव-नियमित समाधान डेटा और प्राथमिकता वितरण को देखते हुए अधिकतम पश्च समाधान है , बेयस प्रमेय के अनुसार।[28] यदि सामान्य वितरण की धारणा को आँकड़ों में त्रुटियों और अवशिष्टों की समरूपता और असंबद्धता की धारणाओं द्वारा प्रतिस्थापित किया जाता है, और यदि कोई अभी भी शून्य माध्य मानता है, तो गॉस-मार्कोव प्रमेय का अर्थ है कि समाधान एक अनुमानक का न्यूनतम पूर्वाग्रह है।[29]
यह भी देखें
- Lasso (सांख्यिकी) आँकड़ों में एक और नियमितीकरण विधि है।
- लोचदार शुद्ध नियमितीकरण
- मैट्रिक्स नियमितीकरण
टिप्पणियाँ
- ↑ In statistics, the method is known as ridge regression, in machine learning it and its modifications are known as weight decay, and with multiple independent discoveries, it is also variously known as the Tikhonov–Miller method, the Phillips–Twomey method, the constrained linear inversion method, L2 regularization, and the method of linear regularization. It is related to the Levenberg–Marquardt algorithm for non-linear least-squares problems.
संदर्भ
- ↑ 1.0 1.1 Hilt, Donald E.; Seegrist, Donald W. (1977). रिज, रिज प्रतिगमन अनुमानों की गणना के लिए एक कंप्यूटर प्रोग्राम. doi:10.5962/bhl.title.68934.[page needed]
- ↑ 2.0 2.1 Gruber, Marvin (1998). Improving Efficiency by Shrinkage: The James--Stein and Ridge Regression Estimators. CRC Press. p. 2. ISBN 978-0-8247-0156-7.
- ↑ Kennedy, Peter (2003). अर्थमिति के लिए एक गाइड (Fifth ed.). Cambridge: The MIT Press. pp. 205–206. ISBN 0-262-61183-X.
- ↑ Gruber, Marvin (1998). Improving Efficiency by Shrinkage: The James–Stein and Ridge Regression Estimators. Boca Raton: CRC Press. pp. 7–15. ISBN 0-8247-0156-9.
- ↑ Hoerl, Arthur E.; Kennard, Robert W. (1970). "Ridge Regression: Biased Estimation for Nonorthogonal Problems". Technometrics. 12 (1): 55–67. doi:10.2307/1267351. JSTOR 1267351.
- ↑ Hoerl, Arthur E.; Kennard, Robert W. (1970). "Ridge Regression: Applications to Nonorthogonal Problems". Technometrics. 12 (1): 69–82. doi:10.2307/1267352. JSTOR 1267352.
- ↑ Beck, James Vere; Arnold, Kenneth J. (1977). इंजीनियरिंग और विज्ञान में पैरामीटर अनुमान. James Beck. p. 287. ISBN 978-0-471-06118-2.
- ↑ Jolliffe, I. T. (2006). प्रमुख कंपोनेंट विश्लेषण. Springer Science & Business Media. p. 178. ISBN 978-0-387-22440-4.
- ↑ For the choice of in practice, see Khalaf, Ghadban; Shukur, Ghazi (2005). "Choosing Ridge Parameter for Regression Problems". Communications in Statistics – Theory and Methods. 34 (5): 1177–1182. doi:10.1081/STA-200056836. S2CID 122983724.
- ↑ Tikhonov, Andrey Nikolayevich (1943). "Об устойчивости обратных задач" [On the stability of inverse problems]. Doklady Akademii Nauk SSSR. 39 (5): 195–198. Archived from the original on 2005-02-27.
- ↑ Tikhonov, A. N. (1963). "О решении некорректно поставленных задач и методе регуляризации". Doklady Akademii Nauk SSSR. 151: 501–504.. Translated in "Solution of incorrectly formulated problems and the regularization method". Soviet Mathematics. 4: 1035–1038.
- ↑ Tikhonov, A. N.; V. Y. Arsenin (1977). अशुभ समस्याओं का समाधान. Washington: Winston & Sons. ISBN 0-470-99124-0.
- ↑ Tikhonov, Andrey Nikolayevich; Goncharsky, A.; Stepanov, V. V.; Yagola, Anatolij Grigorevic (30 June 1995). अशुभ समस्याओं के समाधान के लिए संख्यात्मक तरीके. Netherlands: Springer Netherlands. ISBN 079233583X. Retrieved 9 August 2018.
- ↑ Tikhonov, Andrey Nikolaevich; Leonov, Aleksandr S.; Yagola, Anatolij Grigorevic (1998). गैर-रैखिक बीमार-समस्याएं. London: Chapman & Hall. ISBN 0412786605. Retrieved 9 August 2018.
- ↑ Phillips, D. L. (1962). "पहली तरह के कुछ अभिन्न समीकरणों के संख्यात्मक समाधान के लिए एक तकनीक". Journal of the ACM. 9: 84–97. doi:10.1145/321105.321114. S2CID 35368397.
- ↑ Hoerl, Arthur E. (1962). "प्रतिगमन समस्याओं के लिए रिज विश्लेषण का अनुप्रयोग". Chemical Engineering Progress. 58 (3): 54–59.
- ↑ Foster, M. (1961). "मैट्रिक्स व्युत्क्रम के लिए वीनर-कोल्मोगोरोव स्मूथिंग थ्योरी का एक अनुप्रयोग". Journal of the Society for Industrial and Applied Mathematics. 9 (3): 387–392. doi:10.1137/0109031.
- ↑ Hoerl, A. E.; R. W. Kennard (1970). "Ridge regression: Biased estimation for nonorthogonal problems". Technometrics. 12 (1): 55–67. doi:10.1080/00401706.1970.10488634.
- ↑ Ng, Andrew Y. (2004). Feature selection, L1 vs. L2 regularization, and rotational invariance (PDF). Proc. ICML.
- ↑ R.-E. Fan; K.-W. Chang; C.-J. Hsieh; X.-R. Wang; C.-J. Lin (2008). "LIBLINEAR: A library for large linear classification". Journal of Machine Learning Research. 9: 1871–1874.
- ↑ Guan, Naiyang; Tao, Dacheng; Luo, Zhigang; Yuan, Bo (2012). "मजबूत स्टोचैस्टिक सन्निकटन के साथ ऑनलाइन गैर-नकारात्मक मैट्रिक्स गुणनखंडन". IEEE Transactions on Neural Networks and Learning Systems. 23 (7): 1087–1099. doi:10.1109/TNNLS.2012.2197827. PMID 24807135. S2CID 8755408.
- ↑ Lavrentiev, M. M. (1967). गणितीय भौतिकी की कुछ अनुचित रूप से उत्पन्न समस्याएं. New York: Springer.
- ↑ Hansen, Per Christian (Jan 1, 1998). रैंक-कमी और असतत बीमार समस्याएं: रैखिक उलटा के संख्यात्मक पहलू (1st ed.). Philadelphia, USA: SIAM. ISBN 9780898714036.
- ↑ P. C. Hansen, "The L-curve and its use in the numerical treatment of inverse problems", [1]
- ↑ Wahba, G. (1990). "अवलोकन डेटा के लिए तख़्ता मॉडल". CBMS-NSF Regional Conference Series in Applied Mathematics. Society for Industrial and Applied Mathematics. Bibcode:1990smod.conf.....W.
- ↑ Golub, G.; Heath, M.; Wahba, G. (1979). "एक अच्छा रिज पैरामीटर चुनने की विधि के रूप में सामान्यीकृत क्रॉस-सत्यापन" (PDF). Technometrics. 21 (2): 215–223. doi:10.1080/00401706.1979.10489751.
- ↑ Tarantola, Albert (2005). उलटा समस्या सिद्धांत और मॉडल पैरामीटर अनुमान के लिए तरीके (1st ed.). Philadelphia: Society for Industrial and Applied Mathematics (SIAM). ISBN 0898717922. Retrieved 9 August 2018.
- ↑ Vogel, Curtis R. (2002). व्युत्क्रम समस्याओं के लिए कम्प्यूटेशनल तरीके. Philadelphia: Society for Industrial and Applied Mathematics. ISBN 0-89871-550-4.
- ↑ Amemiya, Takeshi (1985). उन्नत अर्थमिति. Harvard University Press. pp. 60–61. ISBN 0-674-00560-0.
अग्रिम पठन
- Gruber, Marvin (1998). Improving Efficiency by Shrinkage: The James–Stein and Ridge Regression Estimators. Boca Raton: CRC Press. ISBN 0-8247-0156-9.
- Kress, Rainer (1998). "Tikhonov Regularization". Numerical Analysis. New York: Springer. pp. 86–90. ISBN 0-387-98408-9.
- Press, W. H.; Teukolsky, S. A.; Vetterling, W. T.; Flannery, B. P. (2007). "Section 19.5. Linear Regularization Methods". Numerical Recipes: The Art of Scientific Computing (3rd ed.). New York: Cambridge University Press. ISBN 978-0-521-88068-8.
- Saleh, A. K. Md. Ehsanes; Arashi, Mohammad; Kibria, B. M. Golam (2019). Theory of Ridge Regression Estimation with Applications. New York: John Wiley & Sons. ISBN 978-1-118-64461-4.
- Taddy, Matt (2019). "Regularization". Business Data Science: Combining Machine Learning and Economics to Optimize, Automate, and Accelerate Business Decisions. New York: McGraw-Hill. pp. 69–104. ISBN 978-1-260-45277-8.