नियमितीकरण (गणित): Difference between revisions

From Vigyanwiki
mNo edit summary
mNo edit summary
Line 27: Line 27:
नियमितीकरण अधिगम की समस्या में कई उद्देश्यों को पूरा कर सकता है, जैसे सरल प्रतिरूपण अधिगम, प्रतिरूपण को विरल बनाने के लिए प्रेरित करना और समूह संरचना शुरू करना सम्मिलित है।   
नियमितीकरण अधिगम की समस्या में कई उद्देश्यों को पूरा कर सकता है, जैसे सरल प्रतिरूपण अधिगम, प्रतिरूपण को विरल बनाने के लिए प्रेरित करना और समूह संरचना शुरू करना सम्मिलित है।   


नियमितीकरण का यही विचार [[विज्ञान]] के अनेक क्षेत्रों में उत्पन्न हुआ था। [[अभिन्न समीकरण|समाकल समीकरणों]] (तिखोनोव नियमितीकरण) पर लागू नियमितीकरण का एक सरल रूप अनिवार्य रूप से डेटा को फिट करने और समाधान के एक मानक को कम करने के बीच एक समन्वयन है। हाल ही में, [[कुल भिन्नता नियमितीकरण]] सहित गैर-रेखीय नियमितीकरण विधियां लोकप्रिय हो गई हैं।
नियमितीकरण का यही विचार [[विज्ञान]] के अनेक क्षेत्रों में उत्पन्न हुआ था। [[अभिन्न समीकरण|समाकल समीकरणों]] (तिखोनोव नियमितीकरण) पर लागू नियमितीकरण का एक सरल अनिवार्य रूप से डेटा को अनुकूल करने और समाधान के एक प्रमाण को कम करने के बीच एक समन्वयन है। हाल ही में, [[कुल भिन्नता नियमितीकरण]] सहित गैर-रेखीय नियमितीकरण विधियां लोकप्रिय हो गई हैं।


=== सामान्यीकरण ===
=== सामान्यीकरण ===
किसी सीखे गए प्रतिरूपण की सामान्यीकरण क्षमता में सुधार के लिए नियमितीकरण को एक तकनीक के रूप में प्रेरित किया जा सकता है।
व्यक्त किए गए प्रतिरूपण की सामान्यीकरण क्षमता में सुधार के लिए नियमितीकरण को एक तकनीक के रूप में प्रेरित किया जा सकता है।


इस अधिगम की समस्या का लक्ष्य एक ऐसा फलन ढूंढना है जो परिणाम को उपयुक्त या पूर्वानुमान करता है जो सभी संभावित निविष्ट और अंकन पर अपेक्षित त्रुटि को कम करता है। किसी फलन की अपेक्षित त्रुटि <math>f_n</math> है:
इस अधिगम की समस्या का लक्ष्य एक ऐसा फलन ढूंढना है जो परिणाम को उपयुक्त या पूर्वानुमान करता है साथ ही साथ सभी संभावित निविष्ट और अंकन पर अपेक्षित त्रुटि को कम करता है। किसी फलन की अपेक्षित त्रुटि <math>f_n</math> है:


:<math> I[f_n] = \int_{X \times Y} V(f_n(x),y) \rho(x,y) \, dx \, dy </math>
:<math> I[f_n] = \int_{X \times Y} V(f_n(x),y) \rho(x,y) \, dx \, dy </math>
जहाँ <math>X</math> और <math>Y</math> क्रमश निविष्ट डेटा <math>x</math> और उनके अंकन <math>y</math> के कार्यक्षेत्र हैं।
जहाँ <math>X</math> और <math>Y</math> क्रमश निविष्ट डेटा <math>x</math> और उनके अंकन <math>y</math> के कार्यक्षेत्र हैं।


सामान्यतौर पर अधिगम की समस्याओं में, केवल निविष्ट डेटा और अंकन का एक उपसमूह उपलब्ध होता है, जिसे कुछ शोर के साथ मापा जाता है। इसलिए अपेक्षित त्रुटि मापने योग्य नहीं है और सर्वोत्तम विकल्प उपलब्ध प्रतिदर्श <math> N </math> के साथ अनुभवजन्य त्रुटि है   :
सामान्यतौर पर अधिगम की समस्याओं में, केवल निविष्ट डेटा और अंकन का एक उपसमूह उपलब्ध होता है, जिसे कुछ शोर के साथ मापा जाता है। इसलिए अपेक्षित त्रुटि मापने योग्य नहीं है और सर्वोत्तम विकल्प उपलब्ध प्रतिदर्श <math> N </math> के साथ प्रयोगसिद्ध त्रुटि है :


:<math> I_S[f_n] = \frac{1}{n} \sum_{i=1}^N V(f_n(\hat x_i), \hat y_i) </math>
:<math> I_S[f_n] = \frac{1}{n} \sum_{i=1}^N V(f_n(\hat x_i), \hat y_i) </math>
उपलब्ध फलन समष्टि (औपचारिक रूप से, पुनरुत्पादित कर्नेल हिल्बर्ट समष्टि) की जटिलता पर सीमा के बिना, एक प्रतिरूपण सीखा जाएगा जो विकल्प अनुभवजन्य त्रुटि पर शून्य नुकसान उठाता है। यदि माप (उदाहरण के लिए) <math>x_i</math>) शोर के साथ बनाए गए थे, यह प्रतिरूपण अतिउपयुक्तता से ग्रस्त हो सकता है और खराब अपेक्षित त्रुटि प्रदर्शित कर सकता है। नियमितीकरण प्रतिरूपण के निर्माण के लिए उपयोग किए जाने वाले फलन स्थान के कुछ क्षेत्रों की खोज के लिए दंड का परिचय देता है, जो सामान्यीकरण में सुधार कर सकता है।
उपलब्ध फलन समष्टि (औपचारिक रूप से, पुनरुत्पादित कर्नेल हिल्बर्ट समष्टि का पुनरुत्पादन) की जटिलता पर प्रतिबन्ध के बिना, एक प्रतिरूपण सीखा जाएगा जो विकल्प प्रयोगसिद्ध त्रुटि पर शून्य नुकसान उठाता है। उदाहरण के लिए यदि माप <math>x_i</math>शोर के साथ बनाए गए थे तो यह प्रतिरूपण ओवरफिटिंग से ग्रस्त हो सकता है और खराब अपेक्षित त्रुटि प्रदर्शित कर सकता है। नियमितीकरण प्रतिरूपण के निर्माण के लिए उपयोग किए जाने वाले फलन समष्टि के कुछ क्षेत्रों की खोज के लिए अंकुश उत्पन्न करता है, जो सामान्यीकरण में सुधार कर सकता है।


== तिखोनोव नियमितीकरण ==
== तिखोनोव नियमितीकरण ==
इन तकनीकों का नाम [[एंड्री निकोलाइविच तिखोनोव]] के नाम पर रखा गया है, जिन्होंने अभिन्न समीकरणों में नियमितीकरण लागू किया और कई अन्य क्षेत्रों में महत्वपूर्ण योगदान दिया।
इन तकनीकों का नाम [[एंड्री निकोलाइविच तिखोनोव]] के नाम पर रखा गया था, जिन्होंने समाकलन समीकरणों में नियमितीकरण लागू किया और कई अन्य क्षेत्रों में महत्वपूर्ण योगदान दिया था।


एक रैखिक कार्य सीखते समय <math>f</math>, एक अज्ञात [[सदिश स्थल]] द्वारा विशेषता <math>w</math> ऐसा है कि <math>f(x) = w \cdot x</math>, कोई भी जोड़ सकता है <math>L_2</math>-सदिश का मानदंड <math>w</math> छोटे मानदंडों वाले समाधानों को प्राथमिकता देने के लिए हानि की अभिव्यक्ति के लिए। तिखोनोव नियमितीकरण सबसे आम रूपों में से एक है। इसे रिज रिग्रेशन के नाम से भी जाना जाता है। इसे इस प्रकार व्यक्त किया गया है:
अज्ञात [[सदिश स्थल|सदिश]] <math>w</math> द्वारा एक रैखिक कार्य <math>f</math> सीखते समय विशेषता  ऐसा है कि <math>f(x) = w \cdot x</math>, कोई भी जोड़ सकता है <math>L_2</math>-सदिश का मानदंड <math>w</math> छोटे मानदंडों वाले समाधानों को प्राथमिकता देने के लिए हानि की अभिव्यक्ति के लिए। तिखोनोव नियमितीकरण सबसे आम रूपों में से एक है। इसे रिज रिग्रेशन के नाम से भी जाना जाता है। इसे इस प्रकार व्यक्त किया गया है:


:<math>\min_w \sum_{i=1}^{n} V(\hat x_i \cdot w, \hat y_i) + \lambda \|w\|_{2}^{2}</math>,
:<math>\min_w \sum_{i=1}^{n} V(\hat x_i \cdot w, \hat y_i) + \lambda \|w\|_{2}^{2}</math>,
Line 116: Line 116:
:<math>\min_{w \in \mathbb{R}^p} \frac{1}{n} \|\hat X w - \hat Y \|^2 + \lambda \|w\|_{1}</math>
:<math>\min_{w \in \mathbb{R}^p} \frac{1}{n} \|\hat X w - \hat Y \|^2 + \lambda \|w\|_{1}</math>


[[File:Sparsityen.png|thumb|इलास्टिक नेट नियमितीकरण]]नॉर्म (गणित)|<math>L_1</math>नियमितीकरण कभी-कभी गैर-अद्वितीय समाधान उत्पन्न कर सकता है। चित्र में एक सरल उदाहरण दिया गया है जब संभावित समाधानों का स्थान 45 डिग्री रेखा पर होता है। यह कुछ अनुप्रयोगों के लिए समस्याग्रस्त हो सकता है, और नॉर्म (गणित)| के संयोजन से इसे दूर किया जा सकता है<math>L_1</math>नॉर्म (गणित) के साथ|<math>L_2</math>[[इलास्टिक नेट नियमितीकरण]] में नियमितीकरण, जो निम्नलिखित रूप लेता है:
[[File:Sparsityen.png|thumb|इलास्टिक नेट नियमितीकरण]]नॉर्म (गणित)|<math>L_1</math>नियमितीकरण कभी-कभी गैर-अद्वितीय समाधान उत्पन्न कर सकता है। चित्र में एक सरल उदाहरण दिया गया है जब संभावित समाधानों का समष्टि 45 डिग्री रेखा पर होता है। यह कुछ अनुप्रयोगों के लिए समस्याग्रस्त हो सकता है, और नॉर्म (गणित)| के संयोजन से इसे दूर किया जा सकता है<math>L_1</math>नॉर्म (गणित) के साथ|<math>L_2</math>[[इलास्टिक नेट नियमितीकरण]] में नियमितीकरण, जो निम्नलिखित रूप लेता है:
:<math>\min_{w \in \mathbb{R}^p} \frac{1}{n} \|\hat X w - \hat Y \|^2 + \lambda (\alpha \|w\|_{1} + (1 - \alpha)\|w\|_{2}^{2}), \alpha \in [0, 1]</math>
:<math>\min_{w \in \mathbb{R}^p} \frac{1}{n} \|\hat X w - \hat Y \|^2 + \lambda (\alpha \|w\|_{1} + (1 - \alpha)\|w\|_{2}^{2}), \alpha \in [0, 1]</math>
इलास्टिक नेट नियमितीकरण में समूहीकरण प्रभाव होता है, जहां सहसंबद्ध निविष्ट सुविधाओं को समतुल्य महत्व दिया जाता है।
इलास्टिक नेट नियमितीकरण में समूहीकरण प्रभाव होता है, जहां सहसंबद्ध निविष्ट सुविधाओं को समतुल्य महत्व दिया जाता है।
Line 131: Line 131:


:<math>w_{k+1} = \operatorname{prox}\limits_{\gamma, R}(w_k - \gamma \nabla F(w_k))</math>
:<math>w_{k+1} = \operatorname{prox}\limits_{\gamma, R}(w_k - \gamma \nabla F(w_k))</math>
समीपस्थ विधि पुनरावृत्तीय रूप से ग्रेडिएंट डिसेंट निष्पादित करती है और फिर परिणाम को अनुमत स्थान पर वापस प्रोजेक्ट करती है <math>R</math>.
समीपस्थ विधि पुनरावृत्तीय रूप से ग्रेडिएंट डिसेंट निष्पादित करती है और फिर परिणाम को अनुमत समष्टि पर वापस प्रोजेक्ट करती है <math>R</math>.


कब <math>R</math> नॉर्म (गणित) है|<math>L_1</math>नियमितीकरण, समीपस्थ संचालक सॉफ्ट-थ्रेसहोल्डिंग संचालक के समतुल्य है,
कब <math>R</math> नॉर्म (गणित) है|<math>L_1</math>नियमितीकरण, समीपस्थ संचालक सॉफ्ट-थ्रेसहोल्डिंग संचालक के समतुल्य है,

Revision as of 18:32, 19 July 2023

हरे और नीले फलन दोनों दिए गए डेटा बिंदुओं पर शून्य हानि उठाते हैं। एक सीखे हुए प्रतिरूपण को हरे फलन को प्राथमिकता देने के लिए प्रेरित किया जा सकता है, जो समायोजन करके अंतर्निहित अज्ञात वितरण से खींचे गए अधिक बिंदुओं को बेहतर ढंग से सामान्यीकृत कर सकता है , नियमितीकरण अवधि का महत्व।

नियमितीकरण एक ऐसी प्रक्रिया है जो गणित, सांख्यिकी, गणितीय वित्त,[1] कंप्यूटर विज्ञान, विशेष रूप से यंत्र अधिगम और व्युत्क्रम समस्याओं में प्रतिफल उत्तर को सरल बना देती है। इसका उपयोग अक्सर अव्यवस्थित समस्याओं के परिणाम प्राप्त करने या ओवरफिटिंग को रोकने के लिए किया जाता है।[2]

हालाँकि नियमितीकरण प्रक्रियाओं को कई तरीकों से विभाजित किया जा सकता है, निम्नलिखित चित्रण विशेष रूप से सहायक है:

  • स्पष्ट नियमितीकरण जब भी कोई स्पष्ट रूप से इष्टतम समस्या में कोई पद जोड़ता है तो नियमितीकरण होता है। ये पद प्राथमिकताएं, दंड या बाधाएं हो सकती हैं। स्पष्ट नियमितीकरण का प्रयोग सामान्यतौर पर खराब इष्टतम समस्याओं के साथ किया जाता है। नियमितीकरण पद, या प्रतिफल, इष्टतम समाधान को अद्वितीय बनाने के लिए इष्टतम फलन पर मूल्याङ्कन करता है।
  • अंतर्निहित नियमितीकरण अंतर्गत नियमितीकरण के अन्य सभी रूप आते हैं। उदाहरण के लिए इसमें शीघ्र समापन, एक ठोस हानि फलन का उपयोग और विचलन को पदच्युत करना सम्मिलित है। आधुनिक यंत्र अधिगम दृष्टिकोण में अंतर्निहित नियमितीकरण अनिवार्य रूप से सर्वव्यापी है, जिसमें व्‍यापक तंत्रिका नेटवर्क के प्रशिक्षण के लिए क्रमरहित अनुपात अवरोह और समूह प्रक्रिया सम्मिलित हैं।

स्पष्ट नियमितीकरण में, समस्या या प्रतिरूपण से स्वतंत्र एक डेटा शब्द होता है, जो माप की संभावना के समतुल्य होता है और एक नियमितीकरण शब्द जो पूर्ववर्ती के समतुल्य होता है। बायेसियन आँकड़ों का उपयोग करके, दोनों को मिलाकर कोई पश्च की गणना कर सकता है, जिसमें दोनों सूचना स्रोत सम्मिलित हैं और इसलिए अनुमान प्रक्रिया को स्थिर किया जाता है। दोनों उद्देश्यों का आदान-प्रदान करके, कोई व्यक्ति डेटा पर अधिक निर्भर होना या सामान्यीकरण लागू करने का चयन कर सकता है। सभी संभावित नियमितीकरणों से निपटने वाली एक पूरी अनुसंधान शाखा है। व्यवहार में, कोई सामान्यतौर पर एक विशिष्ट नियमितीकरण का प्रयास करता है और फिर विकल्प को सही ठहराने के लिए उस नियमितीकरण के समतुल्य संभावित घनत्व का पता लगाता है। यह सामान्य ज्ञान या अंतर्ज्ञान से भौतिक रूप से प्रेरित भी हो सकता है।

यंत्र अधिगम में, डेटा शब्द प्रशिक्षण डेटा के समतुल्य होता है और नियमितीकरण या तो प्रतिरूपण का विकल्प है या कलन विधि में संशोधन है। इसका उद्देश्य हमेशा व्यापकीकरण त्रुटि को कम करना है, यानी मूल्यांकन समूह पर प्रशिक्षण डेटा की अपेक्षा प्रशिक्षित प्रतिरूपण के साथ गणना में त्रुटि को कम करना है ।[3]

नियमितीकरण के शुरुआती उपयोगों में से एक तिखोनोव नियमितीकरण है, जो कम से कम वर्गों की विधि से संबंधित है।

वर्गीकरण

वर्गीकारक का आनुभविक अधिगम हमेशा एक अनिर्धारित समस्या है, क्योंकि यह किसी भी फलन का अनुमान लगाने का प्रयास करता है उदाहरण के लिए

.

एक नियमितीकरण शब्द वर्गीकरण के लिए हानि फलन में जोड़ा गया है:

जहाँ एक अंतर्निहित हानि फलन है जो पूर्वानुमान की लागत का वर्णन करता है जब अंकन है जैसे वर्ग हानि या काज हानि और एक मापदंड है जो नियमितीकरण शब्द के महत्व को नियंत्रित करता है। सामान्यतौर पर का चयन  की जटिलता पर अंकुश लगाने के लिए किया जाता है। उपयोग की गई जटिलता की ठोस धारणाओं में मानक सदिश समष्टि पर समतलता और प्रतिबंध के लिए सीमाएँ सम्मिलित हैं।[4]

नियमितीकरण के लिए एक सैद्धांतिक औचित्य यह है कि यह समाधान पर ओकाम के रेजर को लागू करने का प्रयास करता है (जैसा कि ऊपर दिए गए चित्र में दर्शाया गया है, जहां हरे रंग के फलन, सरल वाले को प्राथमिकता दी जा सकती है)। बायेसियन अनुमान के दृष्टिकोण से, कई नियमितीकरण तकनीकें प्रतिरूपण मापदंडों पर कुछ पूर्व संभाव्यता वितरण लागू करने के अनुरूप हैं।[5]

नियमितीकरण अधिगम की समस्या में कई उद्देश्यों को पूरा कर सकता है, जैसे सरल प्रतिरूपण अधिगम, प्रतिरूपण को विरल बनाने के लिए प्रेरित करना और समूह संरचना शुरू करना सम्मिलित है।

नियमितीकरण का यही विचार विज्ञान के अनेक क्षेत्रों में उत्पन्न हुआ था। समाकल समीकरणों (तिखोनोव नियमितीकरण) पर लागू नियमितीकरण का एक सरल अनिवार्य रूप से डेटा को अनुकूल करने और समाधान के एक प्रमाण को कम करने के बीच एक समन्वयन है। हाल ही में, कुल भिन्नता नियमितीकरण सहित गैर-रेखीय नियमितीकरण विधियां लोकप्रिय हो गई हैं।

सामान्यीकरण

व्यक्त किए गए प्रतिरूपण की सामान्यीकरण क्षमता में सुधार के लिए नियमितीकरण को एक तकनीक के रूप में प्रेरित किया जा सकता है।

इस अधिगम की समस्या का लक्ष्य एक ऐसा फलन ढूंढना है जो परिणाम को उपयुक्त या पूर्वानुमान करता है साथ ही साथ सभी संभावित निविष्ट और अंकन पर अपेक्षित त्रुटि को कम करता है। किसी फलन की अपेक्षित त्रुटि है:

जहाँ और क्रमश निविष्ट डेटा और उनके अंकन के कार्यक्षेत्र हैं।

सामान्यतौर पर अधिगम की समस्याओं में, केवल निविष्ट डेटा और अंकन का एक उपसमूह उपलब्ध होता है, जिसे कुछ शोर के साथ मापा जाता है। इसलिए अपेक्षित त्रुटि मापने योग्य नहीं है और सर्वोत्तम विकल्प उपलब्ध प्रतिदर्श के साथ प्रयोगसिद्ध त्रुटि है :

उपलब्ध फलन समष्टि (औपचारिक रूप से, पुनरुत्पादित कर्नेल हिल्बर्ट समष्टि का पुनरुत्पादन) की जटिलता पर प्रतिबन्ध के बिना, एक प्रतिरूपण सीखा जाएगा जो विकल्प प्रयोगसिद्ध त्रुटि पर शून्य नुकसान उठाता है। उदाहरण के लिए यदि माप शोर के साथ बनाए गए थे तो यह प्रतिरूपण ओवरफिटिंग से ग्रस्त हो सकता है और खराब अपेक्षित त्रुटि प्रदर्शित कर सकता है। नियमितीकरण प्रतिरूपण के निर्माण के लिए उपयोग किए जाने वाले फलन समष्टि के कुछ क्षेत्रों की खोज के लिए अंकुश उत्पन्न करता है, जो सामान्यीकरण में सुधार कर सकता है।

तिखोनोव नियमितीकरण

इन तकनीकों का नाम एंड्री निकोलाइविच तिखोनोव के नाम पर रखा गया था, जिन्होंने समाकलन समीकरणों में नियमितीकरण लागू किया और कई अन्य क्षेत्रों में महत्वपूर्ण योगदान दिया था।

अज्ञात सदिश द्वारा एक रैखिक कार्य सीखते समय विशेषता ऐसा है कि , कोई भी जोड़ सकता है -सदिश का मानदंड छोटे मानदंडों वाले समाधानों को प्राथमिकता देने के लिए हानि की अभिव्यक्ति के लिए। तिखोनोव नियमितीकरण सबसे आम रूपों में से एक है। इसे रिज रिग्रेशन के नाम से भी जाना जाता है। इसे इस प्रकार व्यक्त किया गया है:

,

जहाँ प्रशिक्षण के लिए उपयोग किए गए नमूनों का प्रतिनिधित्व करेगा।

एक सामान्य फलन के स्थिति में, इसके पुनरुत्पादित कर्नेल हिल्बर्ट समष्टि में फलन का मानदंड है:

के रूप में मानक विभेदनीय कार्य है#उच्च आयामों में विभेदीकरण, अधिगम को ढतला हुआ वंश द्वारा उन्नत किया जा सकता है।

तिखोनोव-नियमित न्यूनतम वर्ग

न्यूनतम वर्ग हानि फलन और तिखोनोव नियमितीकरण के साथ अधिगम की समस्या को विश्लेषणात्मक रूप से हल किया जा सकता है। मैट्रिक्स रूप में लिखा गया, इष्टतम वह है जिसके संबंध में हानि का ग्रेडिएंट कार्य करता है 0 है.

(प्रथम क्रम की स्थिति)

इष्टतम समस्या के निर्माण से, अन्य मान हानि फलन के लिए बड़े मान दें। इसे दूसरे व्युत्पन्न की जांच करके सत्यापित किया जा सकता है .

प्रशिक्षण के दौरान यह एल्गोरिथम लेता है समय की जटिलता. पद मैट्रिक्स व्युत्क्रम और गणना के अनुरूप हैं , क्रमश। परीक्षण होता है समय।

जल्दी रुकना

जल्दी रुकने को समय पर नियमितीकरण के रूप में देखा जा सकता है। सहज रूप से, ग्रेडिएंट डिसेंट जैसी प्रशिक्षण प्रक्रिया बढ़ती पुनरावृत्तियों के साथ अधिक से अधिक जटिल कार्यों को अधिगम की प्रवृत्ति रखती है। समय के लिए नियमितीकरण करके, सामान्यीकरण में सुधार करके प्रतिरूपण जटिलता को नियंत्रित किया जा सकता है।

प्रारंभिक रोक को प्रशिक्षण के लिए एक डेटा समूह, सत्यापन के लिए एक सांख्यिकीय रूप से स्वतंत्र डेटा समूह और परीक्षण के लिए दूसरे का उपयोग करके कार्यान्वित किया जाता है। प्रतिरूपण को तब तक प्रशिक्षित किया जाता है जब तक सत्यापन समूह पर प्रदर्शन में सुधार नहीं होता है और फिर परीक्षण समूह पर लागू किया जाता है।

न्यूनतम वर्गों में सैद्धांतिक प्रेरणा

एक व्युत्क्रमणीय मैट्रिक्स के लिए न्यूमैन श्रृंखला के परिमित सन्निकटन पर विचार करें A जहाँ :

इसका उपयोग अनियमित न्यूनतम वर्गों के विश्लेषणात्मक समाधान का अनुमान लगाने के लिए किया जा सकता है, यदि γ यह सुनिश्चित करने के लिए पेश किया गया है कि मानदंड एक से कम है।

अनियमित न्यूनतम वर्ग अधिगम की समस्या का सटीक समाधान अनुभवजन्य त्रुटि को कम करता है, लेकिन विफल हो सकता है। सीमित करके T, उपरोक्त एल्गोरिदम में एकमात्र मुफ़्त मापदंड, समस्या को समय के लिए नियमित किया जाता है, जिससे इसके सामान्यीकरण में सुधार हो सकता है।

उपरोक्त एल्गोरिदम अनुभवजन्य जोखिम के लिए ग्रेडिएंट डिसेंट पुनरावृत्तियों की संख्या को सीमित करने के समतुल्य है

ग्रेडिएंट डिसेंट अपडेट के साथ:

आधार मामला तुच्छ है. आगमनात्मक मामला इस प्रकार सिद्ध होता है:


विरलता के लिए नियमितकर्ता

मान लीजिए कि एक शब्दकोश आयाम के साथ ऐसा दिया गया है कि फलन समष्टि में एक फलन को इस प्रकार व्यक्त किया जा सकता है:

दो आयामों में एल1 गेंद और एल2 गेंद के बीच तुलना से यह पता चलता है कि एल1 नियमितीकरण कैसे विरलता प्राप्त करता है।

विरलता प्रतिबंध लागू करना इससे सरल और अधिक व्याख्या योग्य प्रतिरूपण बन सकते हैं। यह कम्प्यूटेशनल जीवविज्ञान जैसे कई वास्तविक जीवन अनुप्रयोगों में उपयोगी है। एक उदाहरण पूर्वानुमान शक्ति को अधिकतम करते हुए चिकित्सा परीक्षण करने की लागत को कम करने के लिए किसी बीमारी के लिए एक सरल भविष्य कहनेवाला परीक्षण विकसित करना है।

एक समझदार विरलता बाधा नॉर्म (गणित)| है आदर्श , गैर-शून्य तत्वों की संख्या के रूप में परिभाषित किया गया है . हल करना ए हालाँकि, नियमित अधिगम की समस्या को एनपी-कठोरता |एनपी-हार्ड के रूप में प्रदर्शित किया गया है।[6] टैक्सीकैब ज्यामिति| नॉर्म (नॉर्म (गणित) भी देखें) का उपयोग इष्टतम नॉर्म (गणित) का अनुमान लगाने के लिए किया जा सकता है|उत्तल विश्राम के माध्यम से आदर्श। यह दिखाया जा सकता है कि नॉर्म (गणित)|मानदंड विरलता को प्रेरित करता है। न्यूनतम वर्गों के स्थिति में, इस समस्या को सांख्यिकी में लासो (सांख्यिकी) और सिग्नल प्रोसेसिंग में आधार खोज के रूप में जाना जाता है।

इलास्टिक नेट नियमितीकरण

नॉर्म (गणित)|नियमितीकरण कभी-कभी गैर-अद्वितीय समाधान उत्पन्न कर सकता है। चित्र में एक सरल उदाहरण दिया गया है जब संभावित समाधानों का समष्टि 45 डिग्री रेखा पर होता है। यह कुछ अनुप्रयोगों के लिए समस्याग्रस्त हो सकता है, और नॉर्म (गणित)| के संयोजन से इसे दूर किया जा सकता हैनॉर्म (गणित) के साथ|इलास्टिक नेट नियमितीकरण में नियमितीकरण, जो निम्नलिखित रूप लेता है:

इलास्टिक नेट नियमितीकरण में समूहीकरण प्रभाव होता है, जहां सहसंबद्ध निविष्ट सुविधाओं को समतुल्य महत्व दिया जाता है।

इलास्टिक नेट नियमितीकरण सामान्यतौर पर व्यवहार में उपयोग किया जाता है और कई यंत्र अधिगम लाइब्रेरी में लागू किया जाता है।

समीपस्थ विधियाँ

जबकि नॉर्म (गणित)|नॉर्म के परिणामस्वरूप एनपी-हार्ड समस्या नहीं होती, नॉर्म (गणित)|मानदंड उत्तल है, लेकिन x = 0 पर किंक के कारण कड़ाई से भिन्न नहीं है। सबग्रेडिएंट विधियां जो उप-व्युत्पन्न पर निर्भर करती हैं, उनका उपयोग नॉर्म (गणित) को हल करने के लिए किया जा सकता है।नियमित अधिगम की समस्याएँ। हालाँकि, समीपस्थ तरीकों के माध्यम से तेजी से अभिसरण प्राप्त किया जा सकता है।

एक समस्या के लिए ऐसा है कि लिप्सचिट्ज़ निरंतर ग्रेडिएंट (जैसे कि न्यूनतम वर्ग हानि फलन) के साथ उत्तल, निरंतर, भिन्न है, और उत्तल, सतत और उचित है, तो समस्या को हल करने की समीपस्थ विधि इस प्रकार है। सबसे पहले समीपस्थ संचालक को परिभाषित करें

और फिर पुनरावृत्त करें

समीपस्थ विधि पुनरावृत्तीय रूप से ग्रेडिएंट डिसेंट निष्पादित करती है और फिर परिणाम को अनुमत समष्टि पर वापस प्रोजेक्ट करती है .

कब नॉर्म (गणित) है|नियमितीकरण, समीपस्थ संचालक सॉफ्ट-थ्रेसहोल्डिंग संचालक के समतुल्य है,

यह कुशल गणना की अनुमति देता है।

अतिव्यापन के बिना समूह विरलता

सुविधाओं के समूहों को विरल बाधा द्वारा नियमित किया जा सकता है, जो इष्टतम समस्या में कुछ पूर्व ज्ञान को व्यक्त करने के लिए उपयोगी हो सकता है।

गैर-अतिव्यापी ज्ञात समूहों वाले रैखिक प्रतिरूपण के स्थिति में, एक नियमितकर्ता को परिभाषित किया जा सकता है:

जहाँ

इसे एक नियमितीकरणकर्ता को प्रेरित करने के रूप में देखा जा सकता है प्रत्येक समूह के सदस्यों पर मानदंड का अनुसरण किया जाता है समूहों पर आदर्श.

इसे समीपस्थ विधि द्वारा हल किया जा सकता है, जहां समीपस्थ संचालक एक ब्लॉक-वार सॉफ्ट-थ्रेशोल्डिंग फलन है:


अतिव्यापन के साथ समूह विरलता

अतिव्यापन के बिना समूह विरलता के लिए वर्णित एल्गोरिदम को उस स्थिति में लागू किया जा सकता है जहां समूह कुछ स्थितियों में अतिव्यापन करते हैं। इसके परिणामस्वरूप संभवतः कुछ समूहों में सभी शून्य तत्व होंगे, और अन्य समूहों में कुछ गैर-शून्य और कुछ शून्य तत्व होंगे।

यदि समूह संरचना को संरक्षित करना वांछित है, तो एक नया नियमितकर्ता परिभाषित किया जा सकता है:

प्रत्येक के लिए , सदिश के रूप में परिभाषित किया गया है जैसे कि प्रतिबंध समूह को के समतुल्य होती है और अन्य सभी प्रविष्टियाँ शून्य हैं. नियमितकर्ता इष्टतम विघटन पाता है भागों में. इसे कई समूहों में मौजूद सभी तत्वों की नकल के रूप में देखा जा सकता है। इस नियमितीकरण के साथ अधिगम की समस्याओं को समीपस्थ विधि से जटिलता के साथ भी हल किया जा सकता है। समीपस्थ संचालक की गणना बंद रूप में नहीं की जा सकती है, लेकिन इसे प्रभावी ढंग से पुनरावृत्त रूप से हल किया जा सकता है, जो समीपस्थ विधि पुनरावृत्ति के भीतर एक आंतरिक पुनरावृत्ति को प्रेरित करता है।

अर्ध-पर्यवेक्षित शिक्षण के लिए नियमितकर्ता

जब निविष्ट उदाहरणों की तुलना में अंकन इकट्ठा करना अधिक महंगा होता है, तो अर्ध-पर्यवेक्षित शिक्षण उपयोगी हो सकता है। नियमितीकरण को उन प्रतिरूपणों को अधिगम के लिए शिक्षण एल्गोरिदम का मार्गदर्शन करने के लिए डिज़ाइन किया गया है जो बिना पर्यवेक्षित प्रशिक्षण नमूनों की संरचना का सम्मान करते हैं। यदि एक सममित वजन मैट्रिक्स दिया गया है, एक नियमितकर्ता को परिभाषित किया जा सकता है:

अगर बिंदुओं के लिए कुछ दूरी मीट्रिक के परिणाम को एन्कोड करता है और , यह वांछनीय है कि . यह नियमितीकरण इस अंतर्ज्ञान को पकड़ता है, और इसके समतुल्य है:

जहाँ द्वारा प्रेरित ग्राफ का लाप्लासियन मैट्रिक्स है .

इष्टतम समस्या बाधा होने पर विश्लेषणात्मक रूप से हल किया जा सकता है सभी पर्यवेक्षित नमूनों के लिए लागू किया जाता है। सदिश का अंकन वाला भाग इसलिए स्पष्ट है. का अंकन रहित भाग इसके लिए हल किया गया है:

छद्म-विपरीत इसलिए लिया जा सकता है क्योंकि के समतुल्य ही सीमा होती है .

मल्टीटास्क अधिगम के लिए नियमितकर्ता

मल्टीटास्क अधिगम की स्थिति में, समस्याओं पर एक साथ विचार किया जाता है, प्रत्येक समस्या किसी न किसी तरह से संबंधित होती है। लक्ष्य अधिगम है कार्य, आदर्श रूप से कार्यों की संबंधितता से शक्ति उधार लेते हैं, जिनमें पूर्वानुमान लगाने की शक्ति होती है। यह मैट्रिक्स अधिगम के समतुल्य है .

स्तंभों पर विरल नियमितकर्ता

यह नियमितीकरण प्रत्येक कॉलम पर एक L2 मानदंड और सभी कॉलमों पर एक L1 मानदंड को परिभाषित करता है। इसे समीपस्थ तरीकों से हल किया जा सकता है।

परमाणु मानक नियमितीकरण

जहाँ के एकवचन मूल्य अपघटन में eigenvalues ​​​​और eigenvectors है .

माध्य-विवश नियमितीकरण

यह नियमितकर्ता प्रत्येक कार्य के लिए सीखे गए कार्यों को सभी कार्यों में कार्यों के समग्र औसत के समतुल्य होने के लिए बाध्य करता है। यह पूर्व सूचना व्यक्त करने के लिए उपयोगी है जिसे प्रत्येक कार्य द्वारा एक-दूसरे कार्य के साथ साझा करने की अपेक्षा की जाती है। एक उदाहरण दिन के अलग-अलग समय पर मापे गए रक्त आयरन के स्तर की पूर्वानुमान करना है, जहां प्रत्येक कार्य एक व्यक्ति का प्रतिनिधित्व करता है।

संकुल माध्य-विवश नियमितीकरण

जहाँ कार्यों का एक समूह है.

यह नियमितीकरण माध्य-विवश नियमितीकरण के समतुल्य है, लेकिन इसके अपेक्षा एक ही क्लस्टर के भीतर कार्यों के बीच समतुल्यता को लागू करता है। यह अधिक जटिल पूर्व जानकारी प्राप्त कर सकता है। इस तकनीक का उपयोग NetFlix अनुशंसाओं की पूर्वानुमान करने के लिए किया गया है। एक क्लस्टर उन लोगों के समूह के अनुरूप होगा जो समतुल्य प्राथमिकताएँ साझा करते हैं।

ग्राफ-आधारित समतुल्यता

उपरोक्त से अधिक सामान्यतः, कार्यों के बीच समतुल्यता को एक फलन द्वारा परिभाषित किया जा सकता है। नियमितीकरण प्रतिरूपण को समतुल्य कार्यों के लिए समतुल्य कार्य अधिगम के लिए प्रोत्साहित करता है।

किसी दिए गए सममित समतुल्यता मैट्रिक्स के लिए .

सांख्यिकी और यंत्र अधिगम में नियमितीकरण के अन्य उपयोग

बायेसियन प्रतिरूपण तुलना विधियां पूर्व संभाव्यता का उपयोग करती हैं जो (सामान्यतौर पर) अधिक जटिल प्रतिरूपणों को कम संभावना देती है। प्रसिद्ध प्रतिरूपण चयन तकनीकों में अकाइक सूचना मानदंड (एआईसी), न्यूनतम विवरण लंबाई (एमडीएल), और बायेसियन सूचना मानदंड (बीआईसी) सम्मिलित हैं। अतिउपयुक्तता को नियंत्रित करने के वैकल्पिक तरीकों में नियमितीकरण सम्मिलित नहीं है जिसमें क्रॉस-वैलिडेशन (सांख्यिकी)|क्रॉस-वैलिडेशन सम्मिलित है।

रैखिक प्रतिरूपण में नियमितीकरण के विभिन्न तरीकों के अनुप्रयोगों के उदाहरण हैं:

Model Fit measure Entropy measure[4][7]
AIC/BIC
Ridge regression[8]
Lasso[9]
Basis pursuit denoising
Rudin–Osher–Fatemi model (TV)
Potts model
RLAD[10]
Dantzig Selector[11]
SLOPE[12]


यह भी देखें

टिप्पणियाँ

  1. Kratsios, Anastasis (2020). "Deep Arbitrage-Free Learning in a Generalized HJM Framework via Arbitrage-Regularization Data". Risks. 8 (2): [1]. doi:10.3390/risks8020040. Term structure models can be regularized to remove arbitrage opportunities [sic?]. {{cite journal}}: Cite journal requires |journal= (help)
  2. Bühlmann, Peter; Van De Geer, Sara (2011). उच्च-आयामी डेटा के लिए आँकड़े. Springer Series in Statistics. p. 9. doi:10.1007/978-3-642-20192-9. ISBN 978-3-642-20191-2. If p > n, the ordinary least squares estimator is not unique and will heavily overfit the data. Thus, a form of complexity regularization will be necessary.
  3. "गहन शिक्षण पुस्तक". www.deeplearningbook.org. Retrieved 2021-01-29.{{cite web}}: CS1 maint: url-status (link)
  4. 4.0 4.1 Bishop, Christopher M. (2007). Pattern recognition and machine learning (Corr. printing. ed.). New York: Springer. ISBN 978-0-387-31073-2.
  5. For the connection between maximum a posteriori estimation and ridge regression, see Weinberger, Kilian (July 11, 2018). "Linear / Ridge Regression". CS4780 Machine Learning Lecture 13. Cornell.
  6. Natarajan, B. (1995-04-01). "रैखिक प्रणालियों के लिए विरल अनुमानित समाधान". SIAM Journal on Computing. 24 (2): 227–234. doi:10.1137/S0097539792240406. ISSN 0097-5397. S2CID 2072045.
  7. Duda, Richard O. (2004). Pattern classification + computer manual : hardcover set (2. ed.). New York [u.a.]: Wiley. ISBN 978-0-471-70350-1.
  8. Arthur E. Hoerl; Robert W. Kennard (1970). "Ridge regression: Biased estimation for nonorthogonal problems". Technometrics. 12 (1): 55–67. doi:10.2307/1267351. JSTOR 1267351.
  9. Tibshirani, Robert (1996). "Regression Shrinkage and Selection via the Lasso" (PostScript). Journal of the Royal Statistical Society, Series B. 58 (1): 267–288. MR 1379242. Retrieved 2009-03-19.
  10. Li Wang, Michael D. Gordon & Ji Zhu (2006). "Regularized Least Absolute Deviations Regression and an Efficient Algorithm for Parameter Tuning". Sixth International Conference on Data Mining. pp. 690–700. doi:10.1109/ICDM.2006.134. ISBN 978-0-7695-2701-7.
  11. Candes, Emmanuel; Tao, Terence (2007). "The Dantzig selector: Statistical estimation when p is much larger than n". Annals of Statistics. 35 (6): 2313–2351. arXiv:math/0506081. doi:10.1214/009053606000001523. MR 2382644. S2CID 88524200.
  12. Małgorzata Bogdan, Ewout van den Berg, Weijie Su & Emmanuel J. Candes (2013). "Statistical estimation and testing via the ordered L1 norm". arXiv:1310.1969 [stat.ME].{{cite arXiv}}: CS1 maint: multiple names: authors list (link)


संदर्भ