नियमितीकरण (गणित): Difference between revisions
mNo edit summary |
No edit summary |
||
(17 intermediate revisions by 3 users not shown) | |||
Line 4: | Line 4: | ||
{{cite journal |doi=10.3390/risks8020040 |title=Deep Arbitrage-Free Learning in a Generalized HJM Framework via Arbitrage-Regularization Data|url=https://mdpi.com/2227-9091/8/2/40 |series=Risks |year=2020 |last1=Kratsios |first1=Anastasis |volume=8|issue=2|page=[https://www.mdpi.com/2227-9091/8/2/40] |quote=Term structure models can be regularized to remove arbitrage {{sic|?|opportunities}}.|doi-access=free }}</ref> [[कंप्यूटर विज्ञान]], विशेष रूप से [[ यंत्र अधिगम |यंत्र अधिगम]] और व्युत्क्रम समस्याओं में प्रतिफल उत्तर को सरल बना देती है। इसका उपयोग अक्सर अव्यवस्थित समस्याओं के परिणाम प्राप्त करने या [[ओवरफिटिंग]] को रोकने के लिए किया जाता है।<ref>{{cite book |doi=10.1007/978-3-642-20192-9 |title=उच्च-आयामी डेटा के लिए आँकड़े|url=https://archive.org/details/statisticsforhig00bhlm |url-access=limited |series=Springer Series in Statistics |year=2011 |last1=Bühlmann |first1=Peter |last2=Van De Geer |first2=Sara |isbn=978-3-642-20191-2 |page=[https://archive.org/details/statisticsforhig00bhlm/page/n27 9] |quote=If p > n, the ordinary least squares estimator is not unique and will heavily overfit the data. Thus, a form of complexity regularization will be necessary.}}</ref> | {{cite journal |doi=10.3390/risks8020040 |title=Deep Arbitrage-Free Learning in a Generalized HJM Framework via Arbitrage-Regularization Data|url=https://mdpi.com/2227-9091/8/2/40 |series=Risks |year=2020 |last1=Kratsios |first1=Anastasis |volume=8|issue=2|page=[https://www.mdpi.com/2227-9091/8/2/40] |quote=Term structure models can be regularized to remove arbitrage {{sic|?|opportunities}}.|doi-access=free }}</ref> [[कंप्यूटर विज्ञान]], विशेष रूप से [[ यंत्र अधिगम |यंत्र अधिगम]] और व्युत्क्रम समस्याओं में प्रतिफल उत्तर को सरल बना देती है। इसका उपयोग अक्सर अव्यवस्थित समस्याओं के परिणाम प्राप्त करने या [[ओवरफिटिंग]] को रोकने के लिए किया जाता है।<ref>{{cite book |doi=10.1007/978-3-642-20192-9 |title=उच्च-आयामी डेटा के लिए आँकड़े|url=https://archive.org/details/statisticsforhig00bhlm |url-access=limited |series=Springer Series in Statistics |year=2011 |last1=Bühlmann |first1=Peter |last2=Van De Geer |first2=Sara |isbn=978-3-642-20191-2 |page=[https://archive.org/details/statisticsforhig00bhlm/page/n27 9] |quote=If p > n, the ordinary least squares estimator is not unique and will heavily overfit the data. Thus, a form of complexity regularization will be necessary.}}</ref> | ||
हालाँकि नियमितीकरण प्रक्रियाओं को कई तरीकों से विभाजित किया जा सकता है, निम्नलिखित चित्रण विशेष रूप से सहायक है: | हालाँकि नियमितीकरण प्रक्रियाओं को कई तरीकों से विभाजित किया जा सकता है, निम्नलिखित चित्रण विशेष रूप से सहायक है: | ||
* '''स्पष्ट नियमितीकरण''' जब भी कोई स्पष्ट रूप से इष्टतम समस्या में कोई पद जोड़ता है तो नियमितीकरण होता है। ये पद | * '''स्पष्ट नियमितीकरण''' जब भी कोई स्पष्ट रूप से इष्टतम समस्या में कोई पद जोड़ता है तो नियमितीकरण होता है। ये पद पूर्ववर्ती , अंकुश या बाधाएं हो सकती हैं। स्पष्ट नियमितीकरण का प्रयोग सामान्यतौर पर अव्यवस्थित विस्तार समस्याओं के साथ किया जाता है। नियमितीकरण पद या प्रतिफल, असाधारण समाधान को अद्वितीय बनाने के लिए विस्तार फलन पर मूल्याङ्कन करता है। | ||
* '''अंतर्निहित नियमितीकरण''' अंतर्गत नियमितीकरण के अन्य सभी रूप आते हैं। उदाहरण के लिए इसमें शीघ्र समापन, एक ठोस हानि फलन का उपयोग और विचलन को पदच्युत करना सम्मिलित है। आधुनिक [[ यंत्र अधिगम |यंत्र]] [[ यंत्र अधिगम |अधिगम]] दृष्टिकोण में अंतर्निहित नियमितीकरण अनिवार्य रूप से सर्वव्यापी है, जिसमें व्यापक तंत्रिका नेटवर्क के प्रशिक्षण के लिए क्रमरहित | * '''अंतर्निहित नियमितीकरण''' अंतर्गत नियमितीकरण के अन्य सभी रूप आते हैं। उदाहरण के लिए इसमें शीघ्र समापन, एक ठोस हानि फलन का उपयोग और विचलन को पदच्युत करना सम्मिलित है। आधुनिक [[ यंत्र अधिगम |यंत्र]] [[ यंत्र अधिगम |अधिगम]] दृष्टिकोण में अंतर्निहित नियमितीकरण अनिवार्य रूप से सर्वव्यापी है, जिसमें व्यापक तंत्रिका नेटवर्क के प्रशिक्षण के लिए क्रमरहित ग्रेडिएंट डिसेंट और समूह प्रक्रिया सम्मिलित हैं। | ||
स्पष्ट नियमितीकरण में, समस्या या प्रतिरूपण से स्वतंत्र एक डेटा शब्द होता है, जो माप की संभावना के समतुल्य होता है और एक नियमितीकरण शब्द जो पूर्ववर्ती के समतुल्य होता है। बायेसियन आँकड़ों का उपयोग करके, दोनों को मिलाकर कोई पश्च की गणना कर सकता है, जिसमें दोनों सूचना स्रोत सम्मिलित हैं और इसलिए अनुमान प्रक्रिया को स्थिर किया जाता है। दोनों उद्देश्यों का आदान-प्रदान करके, कोई | स्पष्ट नियमितीकरण में, समस्या या प्रतिरूपण से स्वतंत्र एक डेटा शब्द होता है, जो माप की संभावना के समतुल्य होता है और एक नियमितीकरण शब्द जो पूर्ववर्ती के समतुल्य होता है। बायेसियन आँकड़ों का उपयोग करके, दोनों को मिलाकर कोई पश्च की गणना कर सकता है, जिसमें दोनों सूचना स्रोत सम्मिलित हैं और इसलिए अनुमान प्रक्रिया को स्थिर किया जाता है। दोनों उद्देश्यों का आदान-प्रदान करके, कोई विशिष्ट डेटा पर अधिक निर्भर होना या सामान्यीकरण लागू करने का चयन कर सकता है। सभी संभावित नियमितीकरणों से सँभालने वाली एक पूरी अनुसंधान शाखा है। व्यवहार में, कोई सामान्यतौर पर एक विशिष्ट नियमितीकरण का प्रयास करता है और फिर विकल्प को सही ठहराने के लिए उस नियमितीकरण के समतुल्य संभावित घनत्व का पता लगाता है। यह सामान्य ज्ञान या अंतर्ज्ञान से भौतिक रूप से प्रेरित भी हो सकता है। | ||
यंत्र अधिगम में, डेटा शब्द प्रशिक्षण डेटा के समतुल्य होता है और नियमितीकरण या तो प्रतिरूपण का विकल्प है या कलन विधि में संशोधन है। इसका उद्देश्य हमेशा व्यापकीकरण त्रुटि को कम करना है, यानी मूल्यांकन समूह पर प्रशिक्षण डेटा की अपेक्षा प्रशिक्षित प्रतिरूपण के साथ गणना में त्रुटि को कम करना है ।<ref>{{Cite web|last=|first=|date=|title=गहन शिक्षण पुस्तक|url=https://www.deeplearningbook.org/contents/ml.html|url-status=live|archive-url=|archive-date=|access-date=2021-01-29|website=www.deeplearningbook.org}}</ref> | यंत्र अधिगम में, डेटा शब्द प्रशिक्षण डेटा के समतुल्य होता है और नियमितीकरण या तो प्रतिरूपण का विकल्प है या कलन विधि में संशोधन है। इसका उद्देश्य हमेशा व्यापकीकरण त्रुटि को कम करना है, यानी मूल्यांकन समूह पर प्रशिक्षण डेटा की अपेक्षा प्रशिक्षित प्रतिरूपण के साथ गणना में त्रुटि को कम करना है ।<ref>{{Cite web|last=|first=|date=|title=गहन शिक्षण पुस्तक|url=https://www.deeplearningbook.org/contents/ml.html|url-status=live|archive-url=|archive-date=|access-date=2021-01-29|website=www.deeplearningbook.org}}</ref> | ||
Line 21: | Line 21: | ||
एक नियमितीकरण शब्द <math>R(f)</math> वर्गीकरण के लिए हानि फलन में जोड़ा गया है: | एक नियमितीकरण शब्द <math>R(f)</math> वर्गीकरण के लिए हानि फलन में जोड़ा गया है: | ||
: <math>\min_f \sum_{i=1}^{n} V(f(x_i), y_i) + \lambda R(f)</math> | : <math>\min_f \sum_{i=1}^{n} V(f(x_i), y_i) + \lambda R(f)</math> | ||
जहाँ <math>V</math> एक अंतर्निहित हानि फलन है जो पूर्वानुमान <math>f(x)</math> की लागत का वर्णन करता है जब अंकन <math>y</math> है | जहाँ <math>V</math> एक अंतर्निहित हानि फलन है, जैसे वर्ग हानि या काज हानि जो पूर्वानुमान <math>f(x)</math> की लागत का वर्णन करता है जब अंकन <math>y</math> होता है और <math>\lambda</math> एक मापदंड है जो नियमितीकरण शब्द के महत्व को नियंत्रित करता है। सामान्यतौर पर <math>R(f)</math> का चयन <math>f</math> की जटिलता पर अंकुश लगाने के लिए किया जाता है। उपयोग की गई जटिलता की ठोस धारणाओं में मानक सदिश समष्टि पर [[सुचारू कार्य|समतलता]] और प्रतिबंध के लिए सीमाएँ सम्मिलित हैं।<ref name=":0" /> | ||
नियमितीकरण के लिए एक सैद्धांतिक औचित्य यह है कि यह समाधान पर ओकाम के रेजर को लागू करने का प्रयास करता है (जैसा कि ऊपर दिए गए चित्र में दर्शाया गया है, जहां हरे रंग के फलन, सरल वाले को प्राथमिकता दी जा सकती है)। [[बायेसियन अनुमान]] के दृष्टिकोण से, कई नियमितीकरण तकनीकें प्रतिरूपण मापदंडों पर कुछ पूर्व संभाव्यता वितरण लागू करने के अनुरूप हैं।<ref>For the connection between [[maximum a posteriori estimation]] and [[ridge regression]], see {{cite web |first=Kilian |last=Weinberger |title=Linear / Ridge Regression |publisher=Cornell |work=CS4780 Machine Learning Lecture 13 |date=July 11, 2018 |url=https://www.cs.cornell.edu/courses/cs4780/2018fa/lectures/lecturenote08.html#map-estimate }}</ref> | नियमितीकरण के लिए एक सैद्धांतिक औचित्य यह है कि यह समाधान पर ओकाम के रेजर को लागू करने का प्रयास करता है (जैसा कि ऊपर दिए गए चित्र में दर्शाया गया है, जहां हरे रंग के फलन, सरल वाले को प्राथमिकता दी जा सकती है)। [[बायेसियन अनुमान]] के दृष्टिकोण से, कई नियमितीकरण तकनीकें प्रतिरूपण मापदंडों पर कुछ पूर्व संभाव्यता वितरण लागू करने के अनुरूप हैं।<ref>For the connection between [[maximum a posteriori estimation]] and [[ridge regression]], see {{cite web |first=Kilian |last=Weinberger |title=Linear / Ridge Regression |publisher=Cornell |work=CS4780 Machine Learning Lecture 13 |date=July 11, 2018 |url=https://www.cs.cornell.edu/courses/cs4780/2018fa/lectures/lecturenote08.html#map-estimate }}</ref> | ||
नियमितीकरण अधिगम की समस्या में कई उद्देश्यों को पूरा कर सकता है, जैसे सरल प्रतिरूपण अधिगम, प्रतिरूपण को विरल बनाने के लिए प्रेरित करना और समूह संरचना शुरू करना सम्मिलित है। | नियमितीकरण, अधिगम की समस्या में कई उद्देश्यों को पूरा कर सकता है, जैसे सरल प्रतिरूपण अधिगम, प्रतिरूपण को विरल बनाने के लिए प्रेरित करना और समूह संरचना शुरू करना सम्मिलित है। | ||
नियमितीकरण का यही विचार [[विज्ञान]] के अनेक क्षेत्रों में उत्पन्न हुआ था। [[अभिन्न समीकरण|समाकल समीकरणों]] (तिखोनोव नियमितीकरण) पर लागू नियमितीकरण का एक सरल अनिवार्य रूप से डेटा को अनुकूल करने और समाधान के एक प्रमाण को कम करने के बीच एक समन्वयन है। हाल ही में, [[कुल भिन्नता नियमितीकरण]] सहित गैर-रेखीय नियमितीकरण विधियां लोकप्रिय हो गई हैं। | नियमितीकरण का यही विचार [[विज्ञान]] के अनेक क्षेत्रों में उत्पन्न हुआ था। [[अभिन्न समीकरण|समाकल समीकरणों]] (तिखोनोव नियमितीकरण) पर लागू नियमितीकरण का एक सरल अनिवार्य रूप से डेटा को अनुकूल करने और समाधान के एक प्रमाण को कम करने के बीच एक समन्वयन है। हाल ही में, [[कुल भिन्नता नियमितीकरण]] सहित गैर-रेखीय नियमितीकरण विधियां लोकप्रिय हो गई हैं। | ||
Line 37: | Line 37: | ||
जहाँ <math>X</math> और <math>Y</math> क्रमश निविष्ट डेटा <math>x</math> और उनके अंकन <math>y</math> के कार्यक्षेत्र हैं। | जहाँ <math>X</math> और <math>Y</math> क्रमश निविष्ट डेटा <math>x</math> और उनके अंकन <math>y</math> के कार्यक्षेत्र हैं। | ||
सामान्यतौर पर अधिगम की समस्याओं में, केवल निविष्ट डेटा और अंकन का एक उपसमूह उपलब्ध होता है, जिसे कुछ शोर के साथ मापा जाता है। इसलिए अपेक्षित त्रुटि मापने योग्य नहीं है और सर्वोत्तम विकल्प | सामान्यतौर पर अधिगम की समस्याओं में, केवल निविष्ट डेटा और अंकन का एक उपसमूह उपलब्ध होता है, जिसे कुछ शोर के साथ मापा जाता है। इसलिए अपेक्षित त्रुटि मापने योग्य नहीं है और सर्वोत्तम उपलब्ध विकल्प प्रतिदर्श <math> N </math> के साथ आनुभविक त्रुटि है : | ||
:<math> I_S[f_n] = \frac{1}{n} \sum_{i=1}^N V(f_n(\hat x_i), \hat y_i) </math> | :<math> I_S[f_n] = \frac{1}{n} \sum_{i=1}^N V(f_n(\hat x_i), \hat y_i) </math> | ||
उपलब्ध फलन समष्टि (औपचारिक रूप से, पुनरुत्पादित कर्नेल हिल्बर्ट समष्टि का पुनरुत्पादन) की जटिलता पर प्रतिबन्ध के बिना, एक प्रतिरूपण सीखा जाएगा जो विकल्प | उपलब्ध फलन समष्टि (औपचारिक रूप से, पुनरुत्पादित कर्नेल हिल्बर्ट समष्टि का पुनरुत्पादन) की जटिलता पर प्रतिबन्ध के बिना, एक प्रतिरूपण सीखा जाएगा जो विकल्प आनुभविक त्रुटि पर शून्य नुकसान उठाता है। उदाहरण के लिए यदि माप <math>x_i</math>शोर के साथ बनाए गए थे तो यह प्रतिरूपण ओवरफिटिंग से ग्रस्त हो सकता है और खराब अपेक्षित त्रुटि प्रदर्शित कर सकता है। नियमितीकरण प्रतिरूपण के निर्माण के लिए उपयोग किए जाने वाले फलन समष्टि के कुछ क्षेत्रों की खोज के लिए अंकुश उत्पन्न करता है, जो सामान्यीकरण में सुधार कर सकता है। | ||
== तिखोनोव नियमितीकरण == | == तिखोनोव नियमितीकरण == | ||
इन तकनीकों का नाम [[एंड्री निकोलाइविच तिखोनोव]] के नाम पर रखा गया था, जिन्होंने समाकलन समीकरणों में नियमितीकरण लागू किया और कई अन्य क्षेत्रों में महत्वपूर्ण योगदान दिया था। | इन तकनीकों का नाम [[एंड्री निकोलाइविच तिखोनोव]] के नाम पर रखा गया था, जिन्होंने समाकलन समीकरणों में नियमितीकरण लागू किया और कई अन्य क्षेत्रों में महत्वपूर्ण योगदान दिया था। | ||
अज्ञात [[सदिश स्थल|सदिश]] <math>w</math> द्वारा एक रैखिक कार्य <math>f</math> सीखते समय | उल्लेखित अज्ञात [[सदिश स्थल|सदिश]] <math>w</math> द्वारा एक रैखिक कार्य <math>f</math> सीखते समय <math>f(x) = w \cdot x</math>, ऐसा है जहाँ <math>L_2</math> के मानदंड को [[सदिश स्थल|सदिश]] <math>w</math> वाले हानि व्यंजक में समाधानों को प्राथमिकता देने के लिए कोई भी जोड़ सकता है। तिखोनोव नियमितीकरण सबसे सामान्य रूपों में से एक है। इसे रिज गुणांक के नाम से भी जाना जाता है। इसे इस प्रकार व्यक्त किया जाता है: | ||
:<math>\min_w \sum_{i=1}^{n} V(\hat x_i \cdot w, \hat y_i) + \lambda \|w\|_{2}^{2}</math>, | :<math>\min_w \sum_{i=1}^{n} V(\hat x_i \cdot w, \hat y_i) + \lambda \|w\|_{2}^{2}</math>, | ||
जहाँ <math>(\hat x_i, \hat y_i), \, 1 \leq i \leq n,</math> प्रशिक्षण के लिए उपयोग किए गए | जहाँ <math>(\hat x_i, \hat y_i), \, 1 \leq i \leq n,</math> प्रशिक्षण के लिए उपयोग किए गए प्रतिदर्शों का प्रतिनिधित्व करता है। | ||
एक सामान्य फलन के स्थिति में, इसके पुनरुत्पादित कर्नेल हिल्बर्ट समष्टि में फलन का मानदंड है: | एक सामान्य फलन के स्थिति में, इसके पुनरुत्पादित कर्नेल हिल्बर्ट समष्टि में फलन का मानदंड है: | ||
:<math>\min_f \sum_{i=1}^{n} V(f(\hat x_i), \hat y_i) + \lambda \|f\|_{\mathcal{H}}^{2}</math> | :<math>\min_f \sum_{i=1}^{n} V(f(\hat x_i), \hat y_i) + \lambda \|f\|_{\mathcal{H}}^{2}</math> | ||
<math>L_2</math> मानक के रूप में विभेदक है इसलिए अधिगम को [[ ढतला हुआ वंश |ग्रेडिएंट डिसेंट]] द्वारा विकसित किया जा सकता है। | |||
=== तिखोनोव-नियमित न्यूनतम वर्ग === | === तिखोनोव-नियमित न्यूनतम वर्ग === | ||
न्यूनतम वर्ग हानि फलन और तिखोनोव नियमितीकरण के साथ अधिगम की समस्या को विश्लेषणात्मक रूप से हल किया जा सकता है। | न्यूनतम वर्ग हानि फलन और तिखोनोव नियमितीकरण के साथ अधिगम की समस्या को विश्लेषणात्मक रूप से हल किया जा सकता है। आव्यूह में लिखा गया है कि इष्टतम <math>w</math> वह है जिसके ग्रेडिएंट हानि फलन के सन्दर्भ में <math>w</math> के साथ 0 कार्य करते है। | ||
:<math>\min_w \frac{1}{n} (\hat X w - Y)^T(\hat X w - Y)+ \lambda \|w\|_{2}^{2}</math> | :<math>\min_w \frac{1}{n} (\hat X w - Y)^T(\hat X w - Y)+ \lambda \|w\|_{2}^{2}</math> | ||
Line 64: | Line 64: | ||
:<math>w = (\hat X^T \hat X + \lambda n I)^{-1} (\hat X^T Y)</math> | :<math>w = (\hat X^T \hat X + \lambda n I)^{-1} (\hat X^T Y)</math> | ||
इष्टतम समस्या के निर्माण से, | इष्टतम समस्या के निर्माण से, <math>w</math> के अन्य मान हानि फलन के लिए बड़े मान देता है। दूसरे व्युत्पन्न <math>\nabla_{ww}</math> की जांच करके इसे सत्यापित किया जा सकता है। | ||
प्रशिक्षण के | प्रशिक्षण के समय, यह एल्गोरिथम <math>O(d^3 + nd^2)</math> [[समय की जटिलता|समय]] लेता है। ये पद क्रमश आव्यूह व्युत्क्रम और गणना<math>X^T X</math> के अनुरूप हैं। परीक्षण <math>O(nd)</math> समय लेता है । | ||
== | == तत्काल अवरोधक == | ||
तत्काल अवरोधक को समय पर नियमितीकरण के रूप में देखा जा सकता है। वास्तव में, ग्रेडिएंट डिसेंट जैसी प्रशिक्षण प्रक्रिया में बढ़ती पुनरावृत्तियों के साथ अधिक से अधिक जटिल कार्यों को परीक्षित करने की क्षमता होती है। समय के लिए नियमितीकरण करके, सामान्यीकरण में सुधार करके प्रतिरूपण जटिलता को नियंत्रित किया जा सकता है। | |||
तत्काल अवरोधक को एक डेटा समूह प्रशिक्षण के लिए, एक सांख्यिकीय रूप से स्वतंत्र डेटा समूह सत्यापन के लिए और एक डेटा समूह परीक्षण के लिए उपयोग करके कार्यान्वित किया जाता है। प्रतिरूपण को सत्यापन समूह पर तब तक प्रशिक्षित किया जाता है जब तक प्रदर्शन में सुधार नहीं होता है और फिर परीक्षण समूह पर लागू किया जाता है। | |||
=== न्यूनतम वर्गों में सैद्धांतिक | === न्यूनतम वर्गों में सैद्धांतिक व्याख्या === | ||
एक व्युत्क्रमणीय | एक व्युत्क्रमणीय आव्यूह {{mvar|A}} के लिए [[न्यूमैन श्रृंखला]] के परिमित सन्निकटन पर विचार करें जहाँ <math>\| I-A \| < 1</math>: | ||
:<math>\sum_{i=0}^{T-1}(I-A)^i \approx A^{-1}</math> | :<math>\sum_{i=0}^{T-1}(I-A)^i \approx A^{-1}</math> | ||
इसका उपयोग अनियमित न्यूनतम वर्गों के विश्लेषणात्मक समाधान का अनुमान लगाने के लिए किया जा सकता है, यदि {{mvar|γ}} यह सुनिश्चित करने के लिए | इसका उपयोग अनियमित न्यूनतम वर्गों के विश्लेषणात्मक समाधान का अनुमान लगाने के लिए किया जा सकता है, यदि {{mvar|γ}} यह सुनिश्चित करने के लिए प्रस्तुत किया गया है कि मानदंड एक से कम है तो | ||
:<math>w_T = \frac{\gamma}{n} \sum_{i=0}^{T-1} ( I - \frac{\gamma}{n} \hat X^T \hat X )^i \hat X^T \hat Y</math> | :<math>w_T = \frac{\gamma}{n} \sum_{i=0}^{T-1} ( I - \frac{\gamma}{n} \hat X^T \hat X )^i \hat X^T \hat Y</math> | ||
अनियमित न्यूनतम वर्ग अधिगम की समस्या का सटीक समाधान | अनियमित न्यूनतम वर्ग अधिगम की समस्या का सटीक समाधान आनुभविक त्रुटि को कम करता है, लेकिन विफल हो सकता है। उपरोक्त एल्गोरिदम में एकमात्र स्वतन्त्र मापदंड {{mvar|T}} को सीमित करके, समस्या को समय के लिए नियमित किया जाता है, जिससे इसके सामान्यीकरण में सुधार हो सकता है। | ||
उपरोक्त एल्गोरिदम | उपरोक्त एल्गोरिदम आनुभविक जोखिम के लिए ग्रेडिएंट डिसेंट पुनरावृत्तियों की संख्या को सीमित करने के समतुल्य है | ||
:<math>I_s[w] = \frac{1}{2n} \| \hat X w - \hat Y \|^{2}_{\mathbb{R}^n}</math> | :<math>I_s[w] = \frac{1}{2n} \| \hat X w - \hat Y \|^{2}_{\mathbb{R}^n}</math> | ||
ग्रेडिएंट डिसेंट | ग्रेडिएंट डिसेंट नवीनतम के साथ: | ||
:<math>\begin{align} | :<math>\begin{align} | ||
Line 93: | Line 92: | ||
w_{t+1} &= (I - \frac{\gamma}{n} \hat X^T \hat X)w_t + \frac{\gamma}{n}\hat X^T \hat Y | w_{t+1} &= (I - \frac{\gamma}{n} \hat X^T \hat X)w_t + \frac{\gamma}{n}\hat X^T \hat Y | ||
\end{align}</math> | \end{align}</math> | ||
आधार | आधार स्थिति नगण्य है। आगमनिक स्थिति इस प्रकार सिद्ध किया जा सकता है: | ||
:<math>\begin{align} | :<math>\begin{align} | ||
Line 105: | Line 104: | ||
== विरलता के लिए नियमितकर्ता == | == विरलता के लिए नियमितकर्ता == | ||
मान लीजिए कि एक शब्दकोश <math>\phi_j</math> | मान लीजिए कि एक शब्दकोश <math>\phi_j</math> को आकार <math>p</math> के साथ दिया गया है जिससे फलन समष्टि में एक फलन को इस प्रकार व्यक्त किया जा सकता है: | ||
:<math>f(x) = \sum_{j=1}^{p} \phi_j(x) w_j</math> | :<math>f(x) = \sum_{j=1}^{p} \phi_j(x) w_j</math> | ||
[[File:Sparsityl1.png|thumb|दो | [[File:Sparsityl1.png|thumb|दो आकारों में एल1 गेंद और एल2 गेंद के बीच तुलना से यह पता चलता है कि एल1 नियमितीकरण कैसे विरलता प्राप्त करता है।]]<math>w</math> पर विरलता प्रतिबंध लागू करने से सरल और अधिक व्याख्या योग्य प्रतिरूपण बन सकते हैं। यह अभिकलन जीवविज्ञान जैसे कई वास्तविक जीवन अनुप्रयोगों में उपयोगी है। एक उदाहरण, पूर्वानुमान क्षमता को अधिकतम करते हुए चिकित्सा परीक्षण की लागत को कम करने के लिए किसी स्वास्थ्य सम्बन्धी समस्या के लिए एक सरल पूर्वानुमान परीक्षण विकसित करना है। | ||
<math>L_0</math> एक व्यावहारिक विरलता प्रतिबंध है और नॉर्म <math>\|w\|_0</math>, <math>w</math> में गैर-शून्य तत्वों की संख्या के रूप में परिभाषित किया गया है। हालाँकि, [[ एनपी-कठोरता |NP-कठोरता]] के रूप में नियमित अधिगम की समस्या के समाधान <math>L_0</math> को प्रदर्शित किया गया है।<ref>{{Cite journal|last=Natarajan|first=B.|date=1995-04-01|title=रैखिक प्रणालियों के लिए विरल अनुमानित समाधान|url=http://epubs.siam.org/doi/abs/10.1137/S0097539792240406|journal=SIAM Journal on Computing|volume=24|issue=2|pages=227–234|doi=10.1137/S0097539792240406|s2cid=2072045 |issn=0097-5397}}</ref> | |||
<math>L_1</math> नॉर्म का उपयोग सरल अवमुख के माध्यम से इष्टतम नॉर्म <math>L_0</math> का अनुमान लगाने के लिए किया जा सकता है। यह दर्शाया जा सकता है कि नॉर्म <math>L_1</math>मानदंड विरलता को अनुमानित करता है। न्यूनतम वर्गों के स्थिति में, इस समस्या को सांख्यिकी में लासो और सांकेतिक प्रसंस्करण में [[आधार खोज|आधार संकेत]] के रूप में जाना जाता है। | |||
:<math>\min_{w \in \mathbb{R}^p} \frac{1}{n} \|\hat X w - \hat Y \|^2 + \lambda \|w\|_{1}</math> | :<math>\min_{w \in \mathbb{R}^p} \frac{1}{n} \|\hat X w - \hat Y \|^2 + \lambda \|w\|_{1}</math> | ||
[[File:Sparsityen.png|thumb| | [[File:Sparsityen.png|thumb|प्रत्यास्थता नेट नियमितीकरण]]<math>L_1</math>नियमितीकरण कभी-कभी गैर-अद्वितीय समाधान उत्पन्न कर सकता है। चित्र में एक सरल उदाहरण दिया गया है, जब संभावित समाधानों की समष्टि 45 डिग्री रेखा पर होती है तब यह कुछ अनुप्रयोगों के लिए समस्याग्रस्त हो सकता है, और इसे नॉर्म <math>L_1</math>और <math>L_2</math> नियमितीकरण में प्रत्यास्थता [[इलास्टिक नेट नियमितीकरण|नेट नियमितीकरण]] के संयोजन से इसे दूर किया जा सकता है| जो निम्नलिखित रूप लेता है: | ||
:<math>\min_{w \in \mathbb{R}^p} \frac{1}{n} \|\hat X w - \hat Y \|^2 + \lambda (\alpha \|w\|_{1} + (1 - \alpha)\|w\|_{2}^{2}), \alpha \in [0, 1]</math> | :<math>\min_{w \in \mathbb{R}^p} \frac{1}{n} \|\hat X w - \hat Y \|^2 + \lambda (\alpha \|w\|_{1} + (1 - \alpha)\|w\|_{2}^{2}), \alpha \in [0, 1]</math> | ||
प्रत्यास्थता नेट नियमितीकरण में समूहीकरण प्रभाव होता है, जहां सहसंबद्ध निविष्ट सुविधाओं को समतुल्य महत्व दिया जाता है। | |||
प्रत्यास्थता नेट नियमितीकरण सामान्य व्यवहार में उपयोग किया जाता है और कई यंत्र अधिगम सूचीपत्र में लागू किया जाता है। | |||
=== समीपस्थ विधियाँ === | === समीपस्थ विधियाँ === | ||
नॉर्म <math>L_1</math> अवमुख है, लेकिन x = 0 पर वक्र के कारण दृढ़ता से अवकलनीय नहीं है जबकि नॉर्म <math>L_1</math>के परिणामस्वरूप NP-[[ एनपी-कठोरता |कठोरता]] समस्या नहीं होती है। उपप्रवण विधियां जो उप-व्युत्पन्न पर निर्भर करती हैं, उनका उपयोग <math>L_1</math>नॉर्म की नियमितीकरण अधिगम समस्याओं को हल करने के लिए किया जा सकता है। हालाँकि, समीपस्थ तरीकों के माध्यम से तेजी से अभिसरण प्राप्त किया जा सकता है। | |||
समस्या <math>\min_{w \in H} F(w) + R(w)</math> के लिए लिप्सचिट्ज़ निरंतर प्रवणता के साथ <math>F</math> अवमुख, निरंतर और अवकलनीय है और <math>R</math> अवमुख, निरंतर और समुचित है तो समस्या को हल करने की समीपस्थ विधि इस प्रकार है। सबसे पहले समीपस्थ संचालक को परिभाषित करें; | |||
:<math>\operatorname{prox}_R(v) = \operatorname{argmin}\limits_{w \in \mathbb{R}^D} \{ R(w) + \frac{1}{2}\|w-v\|^2\}, </math> | :<math>\operatorname{prox}_R(v) = \operatorname{argmin}\limits_{w \in \mathbb{R}^D} \{ R(w) + \frac{1}{2}\|w-v\|^2\}, </math> | ||
Line 131: | Line 131: | ||
:<math>w_{k+1} = \operatorname{prox}\limits_{\gamma, R}(w_k - \gamma \nabla F(w_k))</math> | :<math>w_{k+1} = \operatorname{prox}\limits_{\gamma, R}(w_k - \gamma \nabla F(w_k))</math> | ||
समीपस्थ विधि पुनरावृत्तीय रूप से ग्रेडिएंट डिसेंट निष्पादित करती है और फिर परिणाम को अनुमत समष्टि | समीपस्थ विधि पुनरावृत्तीय रूप से ग्रेडिएंट डिसेंट निष्पादित करती है और फिर परिणाम को अनुमत समष्टि <math>R</math> पर वापस पूर्वानुमान करती है . | ||
जब <math>R</math> नॉर्म <math>L_1</math>नियमितीकरण होता है तब समीपस्थ संचालक सामान्य-शीर्ष संचालक के समतुल्य है, | |||
:<math>S_\lambda(v)f(n) = \begin{cases} v_i - \lambda, & \text{if }v_i > \lambda \\ 0, & \text{if } v_i \in [-\lambda, \lambda] \\ v_i + \lambda, & \text{if }v_i < - \lambda \end{cases}</math> | :<math>S_\lambda(v)f(n) = \begin{cases} v_i - \lambda, & \text{if }v_i > \lambda \\ 0, & \text{if } v_i \in [-\lambda, \lambda] \\ v_i + \lambda, & \text{if }v_i < - \lambda \end{cases}</math> | ||
Line 139: | Line 139: | ||
=== अतिव्यापन के बिना समूह विरलता === | === अतिव्यापन के बिना समूह विरलता === | ||
विशेषताओं के समूहों को विरल बाधा द्वारा नियमित किया जा सकता है, जो इष्टतम समस्या में कुछ पूर्व ज्ञान को व्यक्त करने के लिए उपयोगी हो सकता है। | |||
गैर-अतिव्यापी ज्ञात समूहों वाले रैखिक प्रतिरूपण के स्थिति में, एक नियमितकर्ता को परिभाषित किया जा सकता है: | गैर-अतिव्यापी ज्ञात समूहों वाले रैखिक प्रतिरूपण के स्थिति में, एक नियमितकर्ता को परिभाषित किया जा सकता है: | ||
:<math>R(w) = \sum_{g=1}^G \|w_g\|_2,</math> जहाँ <math>\|w_g\|_2 = \sqrt{\sum_{j=1}^{|G_g|}(w_g^j)^2}</math> | :<math>R(w) = \sum_{g=1}^G \|w_g\|_2,</math> जहाँ <math>\|w_g\|_2 = \sqrt{\sum_{j=1}^{|G_g|}(w_g^j)^2}</math> | ||
इसे | इसे <math>L_1</math>नॉर्म के समूहों पर <math>L_2</math> नॉर्म के प्रत्येक समूह के सदस्यों का अनुसरण करने के लिए नियमितीकरणकर्ता को प्रेरित करने के रूप में देखा जा सकता है। | ||
इसे समीपस्थ विधि द्वारा हल किया जा सकता है, जहां समीपस्थ संचालक एक ब्लॉक-वार | इसे समीपस्थ विधि द्वारा हल किया जा सकता है, जहां समीपस्थ संचालक एक ब्लॉक-वार सामान्य-शीर्ष फलन है: | ||
: <math>\operatorname{prox}\limits_{\lambda, R, g}(w_g) = \begin{cases} (1 - \frac{\lambda}{\|w_g\|_2})w_g, & \text{if } \|w_g\|_2 > \lambda \\ 0, & \text{if } \|w_g\|_2 \leq \lambda \end{cases}</math> | : <math>\operatorname{prox}\limits_{\lambda, R, g}(w_g) = \begin{cases} (1 - \frac{\lambda}{\|w_g\|_2})w_g, & \text{if } \|w_g\|_2 > \lambda \\ 0, & \text{if } \|w_g\|_2 \leq \lambda \end{cases}</math> | ||
<big><br />अतिव्यापन के साथ समूह विरलता</big> | |||
अतिव्यापन के बिना समूह विरलता के लिए वर्णित एल्गोरिदम को उस स्थिति में लागू किया जा सकता है जहां समूह कुछ स्थितियों में अतिव्यापन करते हैं। इसके परिणामस्वरूप संभवतः कुछ समूहों में सभी शून्य तत्व होते है और अन्य समूहों में कुछ गैर-शून्य और कुछ शून्य तत्व होते है। | |||
अतिव्यापन के बिना समूह विरलता के लिए वर्णित एल्गोरिदम को उस स्थिति में लागू किया जा सकता है जहां समूह कुछ स्थितियों में अतिव्यापन करते हैं। इसके परिणामस्वरूप संभवतः कुछ समूहों में सभी शून्य तत्व | |||
यदि समूह संरचना को संरक्षित करना वांछित है, तो एक नया नियमितकर्ता परिभाषित किया जा सकता है: | यदि समूह संरचना को संरक्षित करना वांछित है, तो एक नया नियमितकर्ता परिभाषित किया जा सकता है: | ||
:<math>R(w) = \inf \left\{ \sum_{g=1}^G \|w_g\|_2 : w = \sum_{g=1}^G \bar w_g \right\}</math> | :<math>R(w) = \inf \left\{ \sum_{g=1}^G \|w_g\|_2 : w = \sum_{g=1}^G \bar w_g \right\}</math> | ||
प्रत्येक | अगर प्रत्येक <math>w_g</math>, <math>\bar w_g</math> को सदिश के रूप में इस प्रकार परिभाषित किया गया है कि प्रतिबंध <math>\bar w_g</math> समूह <math>g</math> के <math>w_g</math> के समतुल्य होती है और <math>\bar w_g</math> की अन्य सभी प्रविष्टियाँ शून्य होती है। नियमितकर्ता इष्टतम विघटन <math>w</math> को खंडो में प्राप्त करता है। इसे विभिन्न समूहों में उपलब्ध सभी तत्वों के प्रतिरूप के रूप में देखा जा सकता है। इस नियमितीकरण के साथ अधिगम की समस्याओं को समीपस्थ विधि से जटिलता के साथ भी हल किया जा सकता है। समीपस्थ संचालक की गणना संवृत रूप में नहीं की जा सकती है, लेकिन इसे प्रभावी ढंग से पुनरावृत्त रूप से हल किया जा सकता है, जो समीपस्थ विधि पुनरावृत्ति के भीतर एक आंतरिक पुनरावृत्ति को प्रेरित करता है। | ||
== अर्ध-पर्यवेक्षित शिक्षण के लिए नियमितकर्ता == | == अर्ध-पर्यवेक्षित शिक्षण के लिए नियमितकर्ता == | ||
जब निविष्ट उदाहरणों की तुलना में अंकन | जब निविष्ट उदाहरणों की तुलना में अंकन प्राप्त करना अधिक बहुमूल्य होता है, तो अर्ध-पर्यवेक्षित अधिगम उपयोगी हो सकता है। नियमितीकरण को उन प्रतिरूपणों को सीखने के लिए शिक्षण एल्गोरिदम का मार्गदर्शन करने के लिए डिज़ाइन किया गया है जो बिना पर्यवेक्षित प्रशिक्षण प्रतिदर्शों की संरचना का सम्मान करते हैं। यदि एक सममित वजन आव्यूह <math>W</math> दिया गया है, तो एक नियमितकर्ता को परिभाषित किया जा सकता है: | ||
:<math>R(f) = \sum_{i,j} w_{ij}(f(x_i) - f(x_j))^2</math> | :<math>R(f) = \sum_{i,j} w_{ij}(f(x_i) - f(x_j))^2</math> | ||
अगर <math>W_{ij}</math> बिंदुओं | अगर <math>W_{ij}</math> बिंदुओं <math>x_i</math> और <math>x_j</math> के लिए कुछ दूरी मीट्रिक के परिणाम को एन्कोड करता है। नियमितीकरण <math>f(x_i) \approx f(x_j)</math> वांछनीय है इस अंतर्ज्ञान को पकड़ता है, और इसके समतुल्य है: | ||
:<math>R(f) = \bar f^T L \bar f</math> जहाँ <math>L = D- W</math> द्वारा प्रेरित ग्राफ का [[लाप्लासियन मैट्रिक्स]] है | :<math>R(f) = \bar f^T L \bar f</math> जहाँ <math>L = D- W</math>, <math>W</math> द्वारा प्रेरित ग्राफ का [[लाप्लासियन मैट्रिक्स|लाप्लासियन आव्यूह]] है . | ||
इष्टतम समस्या <math>\min_{f \in \mathbb{R}^m} R(f), m = u + l</math> | इष्टतम समस्या <math>\min_{f \in \mathbb{R}^m} R(f), m = u + l</math> को विश्लेषणात्मक रूप से हल किया जा सकता है यदि बाधा <math>f(x_i) = y_i</math> को सभी पर्यवेक्षित प्रतिदर्शों के लिए लागू किया गया हो। सदिश <math>f</math> का अंकन वाला भाग इसलिए स्पष्ट है और सदिश <math>f</math> का अंकन रहित भाग इस प्रकार हल किया गया है: | ||
:<math>\min_{f_u \in \mathbb{R}^u} f^T L f = \min_{f_u \in \mathbb{R}^u} \{ f^T_u L_{uu} f_u + f^T_l L_{lu} f_u + f^T_u L_{ul} f_l \}</math> | :<math>\min_{f_u \in \mathbb{R}^u} f^T L f = \min_{f_u \in \mathbb{R}^u} \{ f^T_u L_{uu} f_u + f^T_l L_{lu} f_u + f^T_u L_{ul} f_l \}</math> | ||
:<math>\nabla_{f_u} = 2L_{uu}f_u + 2L_{ul}Y</math> | :<math>\nabla_{f_u} = 2L_{uu}f_u + 2L_{ul}Y</math> | ||
:<math>f_u = L_{uu}^\dagger (L_{ul} Y)</math> | :<math>f_u = L_{uu}^\dagger (L_{ul} Y)</math> | ||
छद्म-विपरीत इसलिए लिया जा सकता है क्योंकि <math>L_{ul}</math> के समतुल्य ही | छद्म-विपरीत इसलिए लिया जा सकता है क्योंकि <math>L_{ul}</math> के समतुल्य ही श्रेणी <math>L_{uu}</math> होती है . | ||
== संयुक्त कार्य अधिगम के लिए नियमितकर्ता == | |||
संयुक्त कार्य अधिगम की स्थिति में, <math>T</math> समस्याओं पर एक साथ विचार किया जाता है क्योंकि प्रत्येक समस्या किसी न किसी तरह से संबंधित होती है। संयुक्त कार्य का लक्ष्य प्रतिरूप के रूप में कार्यों की संबंधितता से पूर्वानुमान की क्षमता को ग्रहण करके <math>T</math> फलन सीखना है। यह आव्यूह अधिगम के समतुल्य है | |||
<math>W: T \times D</math> . | |||
=== स्तंभों पर विरल नियमितकर्ता === | === स्तंभों पर विरल नियमितकर्ता === | ||
:<math>R(w) = \sum_{i=1}^D \|W\|_{2,1}</math> | :<math>R(w) = \sum_{i=1}^D \|W\|_{2,1}</math> | ||
यह नियमितीकरण प्रत्येक | यह नियमितीकरण प्रत्येक स्तंभ पर एक L2 मानदंड और सभी स्तंभों पर एक L1 मानदंड को परिभाषित करता है। इसे समीपस्थ तरीकों से हल किया जा सकता है। | ||
===परमाणु मानक नियमितीकरण === | ===परमाणु मानक नियमितीकरण === | ||
:<math>R(w) = \|\sigma(W)\|_1</math> जहाँ <math>\sigma(W)</math> | :<math>R(w) = \|\sigma(W)\|_1</math> जहाँ <math>\sigma(W)</math>, <math>W</math> के विलक्षण मान अपघटन में '''अभिलाक्षणिक मान''' है . | ||
=== माध्य-विवश नियमितीकरण === | === माध्य-विवश नियमितीकरण === | ||
:<math>R(f_1 \cdots f_T) = \sum_{t=1}^T \|f_t - \frac{1}{T} \sum_{s=1}^T f_s \|_{H_k}^2</math> | :<math>R(f_1 \cdots f_T) = \sum_{t=1}^T \|f_t - \frac{1}{T} \sum_{s=1}^T f_s \|_{H_k}^2</math> | ||
यह नियमितकर्ता प्रत्येक कार्य के लिए सीखे गए कार्यों को सभी कार्यों में कार्यों के समग्र औसत के समतुल्य होने के लिए बाध्य करता है। यह पूर्व सूचना व्यक्त करने के लिए उपयोगी है जिसे प्रत्येक कार्य द्वारा एक-दूसरे कार्य के साथ साझा करने की अपेक्षा की जाती है। | यह नियमितकर्ता प्रत्येक कार्य के लिए सीखे गए कार्यों को सभी कार्यों में कार्यों के समग्र औसत के समतुल्य होने के लिए बाध्य करता है। यह पूर्व सूचना व्यक्त करने के लिए उपयोगी है जिसे प्रत्येक कार्य द्वारा एक-दूसरे कार्य के साथ साझा करने की अपेक्षा की जाती है। उदाहरण के लिए, दिन के अलग-अलग समय पर मापे गए रक्त आयरन के स्तर को पूर्वानुमान करना है, जहां प्रत्येक कार्य एक विशिष्ट कार्य का प्रतिनिधित्व करता है। | ||
=== संकुल माध्य-विवश नियमितीकरण === | === संकुल माध्य-विवश नियमितीकरण === | ||
:<math>R(f_1 \cdots f_T) = \sum_{r=1}^C \sum_{t \in I(r)} \|f_t - \frac{1}{I(r)} \sum_{s \in I(r)} f_s\|_{H_k}^2</math> जहाँ <math>I(r)</math> कार्यों का एक समूह है. | :<math>R(f_1 \cdots f_T) = \sum_{r=1}^C \sum_{t \in I(r)} \|f_t - \frac{1}{I(r)} \sum_{s \in I(r)} f_s\|_{H_k}^2</math> जहाँ <math>I(r)</math> कार्यों का एक समूह है. | ||
यह नियमितीकरण माध्य-विवश नियमितीकरण के समतुल्य है, लेकिन इसके अपेक्षा एक ही | यह नियमितीकरण माध्य-विवश नियमितीकरण के समतुल्य है, लेकिन इसके अपेक्षा एक ही संकुल के भीतर कार्यों के बीच समतुल्यता को लागू करता है। यह अधिक जटिल पूर्व जानकारी प्राप्त कर सकता है। इस तकनीक का उपयोग [[ NetFlix |'''नेटफ्लिक्स''']] अनुशंसाओं को पूर्वानुमान करने के लिए किया गया है। एक संकुल उन लोगों के समूह के अनुरूप होगा जो समतुल्य प्राथमिकताएँ साझा करते हैं। | ||
=== ग्राफ-आधारित समतुल्यता === | === ग्राफ-आधारित समतुल्यता === | ||
उपरोक्त से अधिक सामान्यतः, कार्यों के बीच समतुल्यता को एक फलन द्वारा परिभाषित किया जा सकता है। नियमितीकरण प्रतिरूपण को समतुल्य | उपरोक्त से अधिक सामान्यतः, कार्यों के बीच समतुल्यता को एक फलन द्वारा परिभाषित किया जा सकता है। नियमितीकरण प्रतिरूपण को समतुल्य फलन के लिए समतुल्य कार्य सीखने के लिए प्रोत्साहित करता है। | ||
:<math>R(f_1 \cdots f_T) = \sum_{t,s=1, t \neq s}^T \| f_t - f_s \|^2 M_{ts} </math> किसी दिए गए सममित [[समानता मैट्रिक्स|समतुल्यता | :<math>R(f_1 \cdots f_T) = \sum_{t,s=1, t \neq s}^T \| f_t - f_s \|^2 M_{ts} </math> किसी दिए गए सममित [[समानता मैट्रिक्स|समतुल्यता आव्यूह]] <math>M</math> के लिए . | ||
== सांख्यिकी और यंत्र अधिगम में नियमितीकरण के अन्य उपयोग == | == सांख्यिकी और यंत्र अधिगम में नियमितीकरण के अन्य उपयोग == | ||
[[बायेसियन मॉडल तुलना|बायेसियन प्रतिरूपण तुलना]] विधियां पूर्व संभाव्यता का उपयोग करती हैं जो | [[बायेसियन मॉडल तुलना|बायेसियन प्रतिरूपण तुलना]] विधियां पूर्व संभाव्यता का उपयोग करती हैं जो सामान्यतौर पर अधिक जटिल प्रतिरूपणों को कम पूर्वानुमान देती है। प्रसिद्ध प्रतिरूपण चयन तकनीकों में अकाइक सूचना मानदंड (एआईसी), [[न्यूनतम विवरण लंबाई]] (एमडीएल), और [[बायेसियन सूचना मानदंड]] (बीआईसी) सम्मिलित हैं। ओवरफिटिंग को नियंत्रित करने के वैकल्पिक तरीकों में नियमितीकरण सम्मिलित नहीं है जिसमें क्रॉस-सत्यापन सम्मिलित है। | ||
[[रैखिक मॉडल|रैखिक प्रतिरूपण]] में नियमितीकरण के विभिन्न तरीकों के अनुप्रयोगों के उदाहरण हैं: | [[रैखिक मॉडल|रैखिक प्रतिरूपण]] में नियमितीकरण के विभिन्न तरीकों के अनुप्रयोगों के उदाहरण हैं: | ||
Line 284: | Line 286: | ||
* [[नियमितीकरण की बायेसियन व्याख्या]] | * [[नियमितीकरण की बायेसियन व्याख्या]] | ||
* पूर्वाग्रह-विचरण ट्रेडऑफ़ | * पूर्वाग्रह-विचरण ट्रेडऑफ़ | ||
* [[मैट्रिक्स नियमितीकरण]] | * [[मैट्रिक्स नियमितीकरण|आव्यूह नियमितीकरण]] | ||
* [[वर्णक्रमीय फ़िल्टरिंग द्वारा नियमितीकरण]] | * [[वर्णक्रमीय फ़िल्टरिंग द्वारा नियमितीकरण]] | ||
* न्यूनतम वर्गों को नियमित किया गया | * न्यूनतम वर्गों को नियमित किया गया | ||
Line 298: | Line 300: | ||
{{Differentiable computing}} | {{Differentiable computing}} | ||
{{Authority control}} | {{Authority control}} | ||
[[Category: | [[Category:CS1 errors]] | ||
[[Category:CS1 maint]] | |||
[[Category:Collapse templates]] | |||
[[Category:Created On 07/07/2023]] | [[Category:Created On 07/07/2023]] | ||
[[Category:Lua-based templates]] | |||
[[Category:Machine Translated Page]] | |||
[[Category:Navigational boxes| ]] | |||
[[Category:Navigational boxes without horizontal lists]] | |||
[[Category:Pages with script errors]] | |||
[[Category:Short description with empty Wikidata description]] | |||
[[Category:Sidebars with styles needing conversion]] | |||
[[Category:Template documentation pages|Documentation/doc]] | |||
[[Category:Templates Translated in Hindi]] | |||
[[Category:Templates Vigyan Ready]] | |||
[[Category:Templates generating microformats]] | |||
[[Category:Templates that add a tracking category]] | |||
[[Category:Templates that are not mobile friendly]] | |||
[[Category:Templates that generate short descriptions]] | |||
[[Category:Templates using TemplateData]] | |||
[[Category:Wikipedia metatemplates]] | |||
[[Category:उलटी समस्याएँ]] | |||
[[Category:गणितीय विश्लेषण]] |
Latest revision as of 14:09, 2 August 2023
Part of a series on |
Machine learning and data mining |
---|
नियमितीकरण एक ऐसी प्रक्रिया है जो गणित, सांख्यिकी, गणितीय वित्त,[1] कंप्यूटर विज्ञान, विशेष रूप से यंत्र अधिगम और व्युत्क्रम समस्याओं में प्रतिफल उत्तर को सरल बना देती है। इसका उपयोग अक्सर अव्यवस्थित समस्याओं के परिणाम प्राप्त करने या ओवरफिटिंग को रोकने के लिए किया जाता है।[2]
हालाँकि नियमितीकरण प्रक्रियाओं को कई तरीकों से विभाजित किया जा सकता है, निम्नलिखित चित्रण विशेष रूप से सहायक है:
- स्पष्ट नियमितीकरण जब भी कोई स्पष्ट रूप से इष्टतम समस्या में कोई पद जोड़ता है तो नियमितीकरण होता है। ये पद पूर्ववर्ती , अंकुश या बाधाएं हो सकती हैं। स्पष्ट नियमितीकरण का प्रयोग सामान्यतौर पर अव्यवस्थित विस्तार समस्याओं के साथ किया जाता है। नियमितीकरण पद या प्रतिफल, असाधारण समाधान को अद्वितीय बनाने के लिए विस्तार फलन पर मूल्याङ्कन करता है।
- अंतर्निहित नियमितीकरण अंतर्गत नियमितीकरण के अन्य सभी रूप आते हैं। उदाहरण के लिए इसमें शीघ्र समापन, एक ठोस हानि फलन का उपयोग और विचलन को पदच्युत करना सम्मिलित है। आधुनिक यंत्र अधिगम दृष्टिकोण में अंतर्निहित नियमितीकरण अनिवार्य रूप से सर्वव्यापी है, जिसमें व्यापक तंत्रिका नेटवर्क के प्रशिक्षण के लिए क्रमरहित ग्रेडिएंट डिसेंट और समूह प्रक्रिया सम्मिलित हैं।
स्पष्ट नियमितीकरण में, समस्या या प्रतिरूपण से स्वतंत्र एक डेटा शब्द होता है, जो माप की संभावना के समतुल्य होता है और एक नियमितीकरण शब्द जो पूर्ववर्ती के समतुल्य होता है। बायेसियन आँकड़ों का उपयोग करके, दोनों को मिलाकर कोई पश्च की गणना कर सकता है, जिसमें दोनों सूचना स्रोत सम्मिलित हैं और इसलिए अनुमान प्रक्रिया को स्थिर किया जाता है। दोनों उद्देश्यों का आदान-प्रदान करके, कोई विशिष्ट डेटा पर अधिक निर्भर होना या सामान्यीकरण लागू करने का चयन कर सकता है। सभी संभावित नियमितीकरणों से सँभालने वाली एक पूरी अनुसंधान शाखा है। व्यवहार में, कोई सामान्यतौर पर एक विशिष्ट नियमितीकरण का प्रयास करता है और फिर विकल्प को सही ठहराने के लिए उस नियमितीकरण के समतुल्य संभावित घनत्व का पता लगाता है। यह सामान्य ज्ञान या अंतर्ज्ञान से भौतिक रूप से प्रेरित भी हो सकता है।
यंत्र अधिगम में, डेटा शब्द प्रशिक्षण डेटा के समतुल्य होता है और नियमितीकरण या तो प्रतिरूपण का विकल्प है या कलन विधि में संशोधन है। इसका उद्देश्य हमेशा व्यापकीकरण त्रुटि को कम करना है, यानी मूल्यांकन समूह पर प्रशिक्षण डेटा की अपेक्षा प्रशिक्षित प्रतिरूपण के साथ गणना में त्रुटि को कम करना है ।[3]
नियमितीकरण के शुरुआती उपयोगों में से एक तिखोनोव नियमितीकरण है, जो कम से कम वर्गों की विधि से संबंधित है।
वर्गीकरण
वर्गीकारक का आनुभविक अधिगम हमेशा एक अनिर्धारित समस्या है, क्योंकि यह किसी भी फलन का अनुमान लगाने का प्रयास करता है उदाहरण के लिए
.
एक नियमितीकरण शब्द वर्गीकरण के लिए हानि फलन में जोड़ा गया है:
जहाँ एक अंतर्निहित हानि फलन है, जैसे वर्ग हानि या काज हानि जो पूर्वानुमान की लागत का वर्णन करता है जब अंकन होता है और एक मापदंड है जो नियमितीकरण शब्द के महत्व को नियंत्रित करता है। सामान्यतौर पर का चयन की जटिलता पर अंकुश लगाने के लिए किया जाता है। उपयोग की गई जटिलता की ठोस धारणाओं में मानक सदिश समष्टि पर समतलता और प्रतिबंध के लिए सीमाएँ सम्मिलित हैं।[4]
नियमितीकरण के लिए एक सैद्धांतिक औचित्य यह है कि यह समाधान पर ओकाम के रेजर को लागू करने का प्रयास करता है (जैसा कि ऊपर दिए गए चित्र में दर्शाया गया है, जहां हरे रंग के फलन, सरल वाले को प्राथमिकता दी जा सकती है)। बायेसियन अनुमान के दृष्टिकोण से, कई नियमितीकरण तकनीकें प्रतिरूपण मापदंडों पर कुछ पूर्व संभाव्यता वितरण लागू करने के अनुरूप हैं।[5]
नियमितीकरण, अधिगम की समस्या में कई उद्देश्यों को पूरा कर सकता है, जैसे सरल प्रतिरूपण अधिगम, प्रतिरूपण को विरल बनाने के लिए प्रेरित करना और समूह संरचना शुरू करना सम्मिलित है।
नियमितीकरण का यही विचार विज्ञान के अनेक क्षेत्रों में उत्पन्न हुआ था। समाकल समीकरणों (तिखोनोव नियमितीकरण) पर लागू नियमितीकरण का एक सरल अनिवार्य रूप से डेटा को अनुकूल करने और समाधान के एक प्रमाण को कम करने के बीच एक समन्वयन है। हाल ही में, कुल भिन्नता नियमितीकरण सहित गैर-रेखीय नियमितीकरण विधियां लोकप्रिय हो गई हैं।
सामान्यीकरण
व्यक्त किए गए प्रतिरूपण की सामान्यीकरण क्षमता में सुधार के लिए नियमितीकरण को एक तकनीक के रूप में प्रेरित किया जा सकता है।
इस अधिगम की समस्या का लक्ष्य एक ऐसा फलन ढूंढना है जो परिणाम को उपयुक्त या पूर्वानुमान करता है साथ ही साथ सभी संभावित निविष्ट और अंकन पर अपेक्षित त्रुटि को कम करता है। किसी फलन की अपेक्षित त्रुटि है:
जहाँ और क्रमश निविष्ट डेटा और उनके अंकन के कार्यक्षेत्र हैं।
सामान्यतौर पर अधिगम की समस्याओं में, केवल निविष्ट डेटा और अंकन का एक उपसमूह उपलब्ध होता है, जिसे कुछ शोर के साथ मापा जाता है। इसलिए अपेक्षित त्रुटि मापने योग्य नहीं है और सर्वोत्तम उपलब्ध विकल्प प्रतिदर्श के साथ आनुभविक त्रुटि है :
उपलब्ध फलन समष्टि (औपचारिक रूप से, पुनरुत्पादित कर्नेल हिल्बर्ट समष्टि का पुनरुत्पादन) की जटिलता पर प्रतिबन्ध के बिना, एक प्रतिरूपण सीखा जाएगा जो विकल्प आनुभविक त्रुटि पर शून्य नुकसान उठाता है। उदाहरण के लिए यदि माप शोर के साथ बनाए गए थे तो यह प्रतिरूपण ओवरफिटिंग से ग्रस्त हो सकता है और खराब अपेक्षित त्रुटि प्रदर्शित कर सकता है। नियमितीकरण प्रतिरूपण के निर्माण के लिए उपयोग किए जाने वाले फलन समष्टि के कुछ क्षेत्रों की खोज के लिए अंकुश उत्पन्न करता है, जो सामान्यीकरण में सुधार कर सकता है।
तिखोनोव नियमितीकरण
इन तकनीकों का नाम एंड्री निकोलाइविच तिखोनोव के नाम पर रखा गया था, जिन्होंने समाकलन समीकरणों में नियमितीकरण लागू किया और कई अन्य क्षेत्रों में महत्वपूर्ण योगदान दिया था।
उल्लेखित अज्ञात सदिश द्वारा एक रैखिक कार्य सीखते समय , ऐसा है जहाँ के मानदंड को सदिश वाले हानि व्यंजक में समाधानों को प्राथमिकता देने के लिए कोई भी जोड़ सकता है। तिखोनोव नियमितीकरण सबसे सामान्य रूपों में से एक है। इसे रिज गुणांक के नाम से भी जाना जाता है। इसे इस प्रकार व्यक्त किया जाता है:
- ,
जहाँ प्रशिक्षण के लिए उपयोग किए गए प्रतिदर्शों का प्रतिनिधित्व करता है।
एक सामान्य फलन के स्थिति में, इसके पुनरुत्पादित कर्नेल हिल्बर्ट समष्टि में फलन का मानदंड है:
मानक के रूप में विभेदक है इसलिए अधिगम को ग्रेडिएंट डिसेंट द्वारा विकसित किया जा सकता है।
तिखोनोव-नियमित न्यूनतम वर्ग
न्यूनतम वर्ग हानि फलन और तिखोनोव नियमितीकरण के साथ अधिगम की समस्या को विश्लेषणात्मक रूप से हल किया जा सकता है। आव्यूह में लिखा गया है कि इष्टतम वह है जिसके ग्रेडिएंट हानि फलन के सन्दर्भ में के साथ 0 कार्य करते है।
इष्टतम समस्या के निर्माण से, के अन्य मान हानि फलन के लिए बड़े मान देता है। दूसरे व्युत्पन्न की जांच करके इसे सत्यापित किया जा सकता है।
प्रशिक्षण के समय, यह एल्गोरिथम समय लेता है। ये पद क्रमश आव्यूह व्युत्क्रम और गणना के अनुरूप हैं। परीक्षण समय लेता है ।
तत्काल अवरोधक
तत्काल अवरोधक को समय पर नियमितीकरण के रूप में देखा जा सकता है। वास्तव में, ग्रेडिएंट डिसेंट जैसी प्रशिक्षण प्रक्रिया में बढ़ती पुनरावृत्तियों के साथ अधिक से अधिक जटिल कार्यों को परीक्षित करने की क्षमता होती है। समय के लिए नियमितीकरण करके, सामान्यीकरण में सुधार करके प्रतिरूपण जटिलता को नियंत्रित किया जा सकता है।
तत्काल अवरोधक को एक डेटा समूह प्रशिक्षण के लिए, एक सांख्यिकीय रूप से स्वतंत्र डेटा समूह सत्यापन के लिए और एक डेटा समूह परीक्षण के लिए उपयोग करके कार्यान्वित किया जाता है। प्रतिरूपण को सत्यापन समूह पर तब तक प्रशिक्षित किया जाता है जब तक प्रदर्शन में सुधार नहीं होता है और फिर परीक्षण समूह पर लागू किया जाता है।
न्यूनतम वर्गों में सैद्धांतिक व्याख्या
एक व्युत्क्रमणीय आव्यूह A के लिए न्यूमैन श्रृंखला के परिमित सन्निकटन पर विचार करें जहाँ :
इसका उपयोग अनियमित न्यूनतम वर्गों के विश्लेषणात्मक समाधान का अनुमान लगाने के लिए किया जा सकता है, यदि γ यह सुनिश्चित करने के लिए प्रस्तुत किया गया है कि मानदंड एक से कम है तो
अनियमित न्यूनतम वर्ग अधिगम की समस्या का सटीक समाधान आनुभविक त्रुटि को कम करता है, लेकिन विफल हो सकता है। उपरोक्त एल्गोरिदम में एकमात्र स्वतन्त्र मापदंड T को सीमित करके, समस्या को समय के लिए नियमित किया जाता है, जिससे इसके सामान्यीकरण में सुधार हो सकता है।
उपरोक्त एल्गोरिदम आनुभविक जोखिम के लिए ग्रेडिएंट डिसेंट पुनरावृत्तियों की संख्या को सीमित करने के समतुल्य है
ग्रेडिएंट डिसेंट नवीनतम के साथ:
आधार स्थिति नगण्य है। आगमनिक स्थिति इस प्रकार सिद्ध किया जा सकता है:
विरलता के लिए नियमितकर्ता
मान लीजिए कि एक शब्दकोश को आकार के साथ दिया गया है जिससे फलन समष्टि में एक फलन को इस प्रकार व्यक्त किया जा सकता है:
पर विरलता प्रतिबंध लागू करने से सरल और अधिक व्याख्या योग्य प्रतिरूपण बन सकते हैं। यह अभिकलन जीवविज्ञान जैसे कई वास्तविक जीवन अनुप्रयोगों में उपयोगी है। एक उदाहरण, पूर्वानुमान क्षमता को अधिकतम करते हुए चिकित्सा परीक्षण की लागत को कम करने के लिए किसी स्वास्थ्य सम्बन्धी समस्या के लिए एक सरल पूर्वानुमान परीक्षण विकसित करना है।
एक व्यावहारिक विरलता प्रतिबंध है और नॉर्म , में गैर-शून्य तत्वों की संख्या के रूप में परिभाषित किया गया है। हालाँकि, NP-कठोरता के रूप में नियमित अधिगम की समस्या के समाधान को प्रदर्शित किया गया है।[6]
नॉर्म का उपयोग सरल अवमुख के माध्यम से इष्टतम नॉर्म का अनुमान लगाने के लिए किया जा सकता है। यह दर्शाया जा सकता है कि नॉर्म मानदंड विरलता को अनुमानित करता है। न्यूनतम वर्गों के स्थिति में, इस समस्या को सांख्यिकी में लासो और सांकेतिक प्रसंस्करण में आधार संकेत के रूप में जाना जाता है।
नियमितीकरण कभी-कभी गैर-अद्वितीय समाधान उत्पन्न कर सकता है। चित्र में एक सरल उदाहरण दिया गया है, जब संभावित समाधानों की समष्टि 45 डिग्री रेखा पर होती है तब यह कुछ अनुप्रयोगों के लिए समस्याग्रस्त हो सकता है, और इसे नॉर्म और नियमितीकरण में प्रत्यास्थता नेट नियमितीकरण के संयोजन से इसे दूर किया जा सकता है| जो निम्नलिखित रूप लेता है:
प्रत्यास्थता नेट नियमितीकरण में समूहीकरण प्रभाव होता है, जहां सहसंबद्ध निविष्ट सुविधाओं को समतुल्य महत्व दिया जाता है।
प्रत्यास्थता नेट नियमितीकरण सामान्य व्यवहार में उपयोग किया जाता है और कई यंत्र अधिगम सूचीपत्र में लागू किया जाता है।
समीपस्थ विधियाँ
नॉर्म अवमुख है, लेकिन x = 0 पर वक्र के कारण दृढ़ता से अवकलनीय नहीं है जबकि नॉर्म के परिणामस्वरूप NP-कठोरता समस्या नहीं होती है। उपप्रवण विधियां जो उप-व्युत्पन्न पर निर्भर करती हैं, उनका उपयोग नॉर्म की नियमितीकरण अधिगम समस्याओं को हल करने के लिए किया जा सकता है। हालाँकि, समीपस्थ तरीकों के माध्यम से तेजी से अभिसरण प्राप्त किया जा सकता है।
समस्या के लिए लिप्सचिट्ज़ निरंतर प्रवणता के साथ अवमुख, निरंतर और अवकलनीय है और अवमुख, निरंतर और समुचित है तो समस्या को हल करने की समीपस्थ विधि इस प्रकार है। सबसे पहले समीपस्थ संचालक को परिभाषित करें;
और फिर पुनरावृत्त करें
समीपस्थ विधि पुनरावृत्तीय रूप से ग्रेडिएंट डिसेंट निष्पादित करती है और फिर परिणाम को अनुमत समष्टि पर वापस पूर्वानुमान करती है .
जब नॉर्म नियमितीकरण होता है तब समीपस्थ संचालक सामान्य-शीर्ष संचालक के समतुल्य है,
यह कुशल गणना की अनुमति देता है।
अतिव्यापन के बिना समूह विरलता
विशेषताओं के समूहों को विरल बाधा द्वारा नियमित किया जा सकता है, जो इष्टतम समस्या में कुछ पूर्व ज्ञान को व्यक्त करने के लिए उपयोगी हो सकता है।
गैर-अतिव्यापी ज्ञात समूहों वाले रैखिक प्रतिरूपण के स्थिति में, एक नियमितकर्ता को परिभाषित किया जा सकता है:
- जहाँ
इसे नॉर्म के समूहों पर नॉर्म के प्रत्येक समूह के सदस्यों का अनुसरण करने के लिए नियमितीकरणकर्ता को प्रेरित करने के रूप में देखा जा सकता है।
इसे समीपस्थ विधि द्वारा हल किया जा सकता है, जहां समीपस्थ संचालक एक ब्लॉक-वार सामान्य-शीर्ष फलन है:
अतिव्यापन के साथ समूह विरलता
अतिव्यापन के बिना समूह विरलता के लिए वर्णित एल्गोरिदम को उस स्थिति में लागू किया जा सकता है जहां समूह कुछ स्थितियों में अतिव्यापन करते हैं। इसके परिणामस्वरूप संभवतः कुछ समूहों में सभी शून्य तत्व होते है और अन्य समूहों में कुछ गैर-शून्य और कुछ शून्य तत्व होते है।
यदि समूह संरचना को संरक्षित करना वांछित है, तो एक नया नियमितकर्ता परिभाषित किया जा सकता है:
अगर प्रत्येक , को सदिश के रूप में इस प्रकार परिभाषित किया गया है कि प्रतिबंध समूह के के समतुल्य होती है और की अन्य सभी प्रविष्टियाँ शून्य होती है। नियमितकर्ता इष्टतम विघटन को खंडो में प्राप्त करता है। इसे विभिन्न समूहों में उपलब्ध सभी तत्वों के प्रतिरूप के रूप में देखा जा सकता है। इस नियमितीकरण के साथ अधिगम की समस्याओं को समीपस्थ विधि से जटिलता के साथ भी हल किया जा सकता है। समीपस्थ संचालक की गणना संवृत रूप में नहीं की जा सकती है, लेकिन इसे प्रभावी ढंग से पुनरावृत्त रूप से हल किया जा सकता है, जो समीपस्थ विधि पुनरावृत्ति के भीतर एक आंतरिक पुनरावृत्ति को प्रेरित करता है।
अर्ध-पर्यवेक्षित शिक्षण के लिए नियमितकर्ता
जब निविष्ट उदाहरणों की तुलना में अंकन प्राप्त करना अधिक बहुमूल्य होता है, तो अर्ध-पर्यवेक्षित अधिगम उपयोगी हो सकता है। नियमितीकरण को उन प्रतिरूपणों को सीखने के लिए शिक्षण एल्गोरिदम का मार्गदर्शन करने के लिए डिज़ाइन किया गया है जो बिना पर्यवेक्षित प्रशिक्षण प्रतिदर्शों की संरचना का सम्मान करते हैं। यदि एक सममित वजन आव्यूह दिया गया है, तो एक नियमितकर्ता को परिभाषित किया जा सकता है:
अगर बिंदुओं और के लिए कुछ दूरी मीट्रिक के परिणाम को एन्कोड करता है। नियमितीकरण वांछनीय है इस अंतर्ज्ञान को पकड़ता है, और इसके समतुल्य है:
- जहाँ , द्वारा प्रेरित ग्राफ का लाप्लासियन आव्यूह है .
इष्टतम समस्या को विश्लेषणात्मक रूप से हल किया जा सकता है यदि बाधा को सभी पर्यवेक्षित प्रतिदर्शों के लिए लागू किया गया हो। सदिश का अंकन वाला भाग इसलिए स्पष्ट है और सदिश का अंकन रहित भाग इस प्रकार हल किया गया है:
छद्म-विपरीत इसलिए लिया जा सकता है क्योंकि के समतुल्य ही श्रेणी होती है .
संयुक्त कार्य अधिगम के लिए नियमितकर्ता
संयुक्त कार्य अधिगम की स्थिति में, समस्याओं पर एक साथ विचार किया जाता है क्योंकि प्रत्येक समस्या किसी न किसी तरह से संबंधित होती है। संयुक्त कार्य का लक्ष्य प्रतिरूप के रूप में कार्यों की संबंधितता से पूर्वानुमान की क्षमता को ग्रहण करके फलन सीखना है। यह आव्यूह अधिगम के समतुल्य है
.
स्तंभों पर विरल नियमितकर्ता
यह नियमितीकरण प्रत्येक स्तंभ पर एक L2 मानदंड और सभी स्तंभों पर एक L1 मानदंड को परिभाषित करता है। इसे समीपस्थ तरीकों से हल किया जा सकता है।
परमाणु मानक नियमितीकरण
- जहाँ , के विलक्षण मान अपघटन में अभिलाक्षणिक मान है .
माध्य-विवश नियमितीकरण
यह नियमितकर्ता प्रत्येक कार्य के लिए सीखे गए कार्यों को सभी कार्यों में कार्यों के समग्र औसत के समतुल्य होने के लिए बाध्य करता है। यह पूर्व सूचना व्यक्त करने के लिए उपयोगी है जिसे प्रत्येक कार्य द्वारा एक-दूसरे कार्य के साथ साझा करने की अपेक्षा की जाती है। उदाहरण के लिए, दिन के अलग-अलग समय पर मापे गए रक्त आयरन के स्तर को पूर्वानुमान करना है, जहां प्रत्येक कार्य एक विशिष्ट कार्य का प्रतिनिधित्व करता है।
संकुल माध्य-विवश नियमितीकरण
- जहाँ कार्यों का एक समूह है.
यह नियमितीकरण माध्य-विवश नियमितीकरण के समतुल्य है, लेकिन इसके अपेक्षा एक ही संकुल के भीतर कार्यों के बीच समतुल्यता को लागू करता है। यह अधिक जटिल पूर्व जानकारी प्राप्त कर सकता है। इस तकनीक का उपयोग नेटफ्लिक्स अनुशंसाओं को पूर्वानुमान करने के लिए किया गया है। एक संकुल उन लोगों के समूह के अनुरूप होगा जो समतुल्य प्राथमिकताएँ साझा करते हैं।
ग्राफ-आधारित समतुल्यता
उपरोक्त से अधिक सामान्यतः, कार्यों के बीच समतुल्यता को एक फलन द्वारा परिभाषित किया जा सकता है। नियमितीकरण प्रतिरूपण को समतुल्य फलन के लिए समतुल्य कार्य सीखने के लिए प्रोत्साहित करता है।
- किसी दिए गए सममित समतुल्यता आव्यूह के लिए .
सांख्यिकी और यंत्र अधिगम में नियमितीकरण के अन्य उपयोग
बायेसियन प्रतिरूपण तुलना विधियां पूर्व संभाव्यता का उपयोग करती हैं जो सामान्यतौर पर अधिक जटिल प्रतिरूपणों को कम पूर्वानुमान देती है। प्रसिद्ध प्रतिरूपण चयन तकनीकों में अकाइक सूचना मानदंड (एआईसी), न्यूनतम विवरण लंबाई (एमडीएल), और बायेसियन सूचना मानदंड (बीआईसी) सम्मिलित हैं। ओवरफिटिंग को नियंत्रित करने के वैकल्पिक तरीकों में नियमितीकरण सम्मिलित नहीं है जिसमें क्रॉस-सत्यापन सम्मिलित है।
रैखिक प्रतिरूपण में नियमितीकरण के विभिन्न तरीकों के अनुप्रयोगों के उदाहरण हैं:
Model | Fit measure | Entropy measure[4][7] |
---|---|---|
AIC/BIC | ||
Ridge regression[8] | ||
Lasso[9] | ||
Basis pursuit denoising | ||
Rudin–Osher–Fatemi model (TV) | ||
Potts model | ||
RLAD[10] | ||
Dantzig Selector[11] | ||
SLOPE[12] |
यह भी देखें
- नियमितीकरण की बायेसियन व्याख्या
- पूर्वाग्रह-विचरण ट्रेडऑफ़
- आव्यूह नियमितीकरण
- वर्णक्रमीय फ़िल्टरिंग द्वारा नियमितीकरण
- न्यूनतम वर्गों को नियमित किया गया
- लैग्रेंज गुणक
टिप्पणियाँ
- ↑
Kratsios, Anastasis (2020). "Deep Arbitrage-Free Learning in a Generalized HJM Framework via Arbitrage-Regularization Data". Risks. 8 (2): [1]. doi:10.3390/risks8020040.
Term structure models can be regularized to remove arbitrage opportunities [sic?].
{{cite journal}}
: Cite journal requires|journal=
(help) - ↑ Bühlmann, Peter; Van De Geer, Sara (2011). उच्च-आयामी डेटा के लिए आँकड़े. Springer Series in Statistics. p. 9. doi:10.1007/978-3-642-20192-9. ISBN 978-3-642-20191-2.
If p > n, the ordinary least squares estimator is not unique and will heavily overfit the data. Thus, a form of complexity regularization will be necessary.
- ↑ "गहन शिक्षण पुस्तक". www.deeplearningbook.org. Retrieved 2021-01-29.
{{cite web}}
: CS1 maint: url-status (link) - ↑ 4.0 4.1 Bishop, Christopher M. (2007). Pattern recognition and machine learning (Corr. printing. ed.). New York: Springer. ISBN 978-0-387-31073-2.
- ↑ For the connection between maximum a posteriori estimation and ridge regression, see Weinberger, Kilian (July 11, 2018). "Linear / Ridge Regression". CS4780 Machine Learning Lecture 13. Cornell.
- ↑ Natarajan, B. (1995-04-01). "रैखिक प्रणालियों के लिए विरल अनुमानित समाधान". SIAM Journal on Computing. 24 (2): 227–234. doi:10.1137/S0097539792240406. ISSN 0097-5397. S2CID 2072045.
- ↑ Duda, Richard O. (2004). Pattern classification + computer manual : hardcover set (2. ed.). New York [u.a.]: Wiley. ISBN 978-0-471-70350-1.
- ↑ Arthur E. Hoerl; Robert W. Kennard (1970). "Ridge regression: Biased estimation for nonorthogonal problems". Technometrics. 12 (1): 55–67. doi:10.2307/1267351. JSTOR 1267351.
- ↑ Tibshirani, Robert (1996). "Regression Shrinkage and Selection via the Lasso" (PostScript). Journal of the Royal Statistical Society, Series B. 58 (1): 267–288. MR 1379242. Retrieved 2009-03-19.
- ↑ Li Wang, Michael D. Gordon & Ji Zhu (2006). "Regularized Least Absolute Deviations Regression and an Efficient Algorithm for Parameter Tuning". Sixth International Conference on Data Mining. pp. 690–700. doi:10.1109/ICDM.2006.134. ISBN 978-0-7695-2701-7.
- ↑ Candes, Emmanuel; Tao, Terence (2007). "The Dantzig selector: Statistical estimation when p is much larger than n". Annals of Statistics. 35 (6): 2313–2351. arXiv:math/0506081. doi:10.1214/009053606000001523. MR 2382644. S2CID 88524200.
- ↑
Małgorzata Bogdan, Ewout van den Berg, Weijie Su & Emmanuel J. Candes (2013). "Statistical estimation and testing via the ordered L1 norm". arXiv:1310.1969 [stat.ME].
{{cite arXiv}}
: CS1 maint: multiple names: authors list (link)
संदर्भ
- Neumaier, A. (1998). "Solving ill-conditioned and singular linear systems: A tutorial on regularization" (PDF). SIAM Review. 40 (3): 636–666. Bibcode:1998SIAMR..40..636N. doi:10.1137/S0036144597321909.