ऑनलाइन मशीन लर्निंग

From Vigyanwiki
Revision as of 09:05, 25 July 2023 by alpha>Indicwiki (Created page with "{{confuse|online and offline}} {{short description|Method of machine learning}} {{Machine learning|Problems}} कंप्यूटर विज्ञान में, ऑ...")
(diff) ← Older revision | Latest revision (diff) | Newer revision → (diff)

कंप्यूटर विज्ञान में, ऑनलाइन यंत्र अधिगम मशीन लर्निंग की एक विधि है जिसमें डेटा अनुक्रमिक क्रम में उपलब्ध हो जाता है और प्रत्येक चरण पर भविष्य के डेटा के लिए सर्वोत्तम भविष्यवक्ता को अपडेट करने के लिए उपयोग किया जाता है, बैच लर्निंग तकनीकों के विपरीत जो एक ही बार में संपूर्ण प्रशिक्षण डेटा सेट पर सीखकर सर्वोत्तम भविष्यवक्ता उत्पन्न करता है। ऑनलाइन लर्निंग मशीन लर्निंग के क्षेत्रों में उपयोग की जाने वाली एक सामान्य तकनीक है जहां संपूर्ण डेटासेट पर प्रशिक्षण देना कम्प्यूटेशनल रूप से संभव नहीं है, जिसके लिए बाहर के कोर एल्गोरिदम की आवश्यकता होती है। इसका उपयोग उन स्थितियों में भी किया जाता है जहां एल्गोरिदम के लिए डेटा में नए पैटर्न को गतिशील रूप से अनुकूलित करना आवश्यक होता है, या जब डेटा स्वयं समय के एक फ़ंक्शन के रूप में उत्पन्न होता है, उदाहरण के लिए, स्टॉक मार्केट भविष्यवाणी। ऑनलाइन शिक्षण एल्गोरिदम में विनाशकारी हस्तक्षेप का खतरा हो सकता है, एक समस्या जिसे वृद्धिशील शिक्षण दृष्टिकोण द्वारा संबोधित किया जा सकता है।

परिचय

पर्यवेक्षित शिक्षण की सेटिंग में, का एक कार्य सीखना है, कहाँ इनपुट के स्थान के रूप में सोचा जाता है और आउटपुट के एक स्थान के रूप में, जो संयुक्त संभाव्यता वितरण से निकाले गए उदाहरणों पर अच्छी तरह से भविष्यवाणी करता है पर . वास्तव में, शिक्षार्थी कभी भी सही वितरण नहीं जान पाता उदाहरणों पर. इसके बजाय, शिक्षार्थी के पास आमतौर पर उदाहरणों के प्रशिक्षण सेट तक पहुंच होती है . इस सेटिंग में, हानि फ़ंक्शन इस प्रकार दिया गया है , ऐसा है कि अनुमानित मूल्य के बीच अंतर को मापता है और सही मूल्य . आदर्श लक्ष्य किसी फ़ंक्शन का चयन करना है , कहाँ कार्यों का एक स्थान है जिसे परिकल्पना स्थान कहा जाता है, ताकि कुल हानि की कुछ धारणा कम से कम हो। मॉडल के प्रकार (सांख्यिकीय या प्रतिकूल) के आधार पर, कोई नुकसान की विभिन्न धारणाओं को तैयार कर सकता है, जो विभिन्न शिक्षण एल्गोरिदम को जन्म देता है।

ऑनलाइन शिक्षण का सांख्यिकीय दृष्टिकोण

सांख्यिकीय शिक्षण मॉडल में, प्रशिक्षण नमूना ऐसा माना जाता है कि यह वास्तविक वितरण से लिया गया है और इसका उद्देश्य अपेक्षित जोखिम को कम करना है

इस स्थिति में एक सामान्य प्रतिमान किसी फ़ंक्शन का अनुमान लगाना है अनुभवजन्य जोखिम न्यूनतमकरण या नियमित अनुभवजन्य जोखिम न्यूनतमकरण (आमतौर पर तिखोनोव नियमितीकरण) के माध्यम से। यहां हानि फ़ंक्शन का विकल्प कई प्रसिद्ध शिक्षण एल्गोरिदम को जन्म देता है जैसे कि नियमित न्यूनतम वर्ग और समर्थन वेक्टर मशीनें। इस श्रेणी में एक पूरी तरह से ऑनलाइन मॉडल सिर्फ नए इनपुट के आधार पर सीखेगा , वर्तमान सर्वोत्तम भविष्यवक्ता और कुछ अतिरिक्त संग्रहीत जानकारी (जिसमें आमतौर पर प्रशिक्षण डेटा आकार से स्वतंत्र भंडारण आवश्यकताओं की अपेक्षा की जाती है)। कई फॉर्मूलेशन के लिए, उदाहरण के लिए नॉनलाइनियर कर्नेल विधियां, वास्तविक ऑनलाइन सीखना संभव नहीं है, हालांकि पुनरावर्ती एल्गोरिदम के साथ हाइब्रिड ऑनलाइन सीखने का एक रूप इस्तेमाल किया जा सकता है जहां पर निर्भर रहने की अनुमति है और सभी पिछले डेटा बिंदु . इस मामले में, स्थान की आवश्यकताओं के स्थिर रहने की अब गारंटी नहीं है क्योंकि इसके लिए सभी पिछले डेटा बिंदुओं को संग्रहीत करने की आवश्यकता होती है, लेकिन बैच सीखने की तकनीकों की तुलना में समाधान में नए डेटा बिंदु को जोड़ने के साथ गणना करने में कम समय लग सकता है।

उपरोक्त मुद्दों पर काबू पाने के लिए एक सामान्य रणनीति मिनी-बैचों का उपयोग करना सीखना है, जो एक छोटे बैच को संसाधित करते हैं एक समय में डेटा बिंदु, इसे छद्म-ऑनलाइन शिक्षण के रूप में माना जा सकता है प्रशिक्षण बिंदुओं की कुल संख्या से बहुत कम। अनुकूलित आउट-ऑफ-कोर प्राप्त करने के लिए प्रशिक्षण डेटा को बार-बार पास करने के साथ मिनी-बैच तकनीकों का उपयोग किया जाता है[clarification needed] मशीन लर्निंग एल्गोरिदम के संस्करण, उदाहरण के लिए, स्टोकेस्टिक ग्रेडिएंट डिसेंटपश्चप्रचार के साथ संयुक्त होने पर, यह वर्तमान में कृत्रिम तंत्रिका नेटवर्क के प्रशिक्षण के लिए वास्तविक प्रशिक्षण पद्धति है।

उदाहरण: रैखिक न्यूनतम वर्ग

ऑनलाइन शिक्षण में विभिन्न प्रकार के विचारों को समझाने के लिए रैखिक न्यूनतम वर्गों का सरल उदाहरण उपयोग किया जाता है। विचार अन्य सेटिंग्स पर लागू होने के लिए पर्याप्त सामान्य हैं, उदाहरण के लिए, अन्य उत्तल हानि कार्यों के साथ।

बैच सीखना

पर्यवेक्षित शिक्षण की सेटिंग पर विचार करें सीखने के लिए एक रैखिक कार्य होना:

कहाँ इनपुट (डेटा बिंदु) का एक वेक्टर है और एक रैखिक फ़िल्टर वेक्टर है. लक्ष्य फ़िल्टर वेक्टर की गणना करना है . इस प्रयोजन के लिए, एक वर्ग हानि फ़ंक्शन

वेक्टर की गणना करने के लिए उपयोग किया जाता है जो अनुभवजन्य हानि को कम करता है

कहाँ
.

होने देना हो डेटा मैट्रिक्स और पहले के आगमन के बाद लक्ष्य मानों का कॉलम वेक्टर है डेटा अंक। यह मानते हुए कि सहप्रसरण मैट्रिक्स उलटा है (अन्यथा तिखोनोव नियमितीकरण के समान तरीके से आगे बढ़ना प्राथमिकता है), सबसे अच्छा समाधान रैखिक न्यूनतम वर्ग समस्या द्वारा दी गई है

.

अब, सहप्रसरण मैट्रिक्स की गणना समय लेता है , उलटा करना मैट्रिक्स में समय लगता है , जबकि बाकी गुणन में समय लगता है , का कुल समय दे रहे हैं . जब वहाँ हैं प्रत्येक डेटापॉइंट के आने के बाद समाधान की पुन: गणना करने के लिए डेटासेट में कुल अंक , अनुभवहीन दृष्टिकोण में पूरी जटिलता होगी . ध्यान दें कि मैट्रिक्स को संग्रहीत करते समय , फिर इसे प्रत्येक चरण पर अद्यतन करने के लिए केवल जोड़ने की आवश्यकता है , जो लेता है समय, कुल समय को घटाकर , लेकिन अतिरिक्त भंडारण स्थान के साथ संचय करना .[1]


ऑनलाइन शिक्षण: पुनरावर्ती न्यूनतम वर्ग

पुनरावर्ती न्यूनतम वर्ग (आरएलएस) एल्गोरिदम न्यूनतम वर्ग समस्या के लिए एक ऑनलाइन दृष्टिकोण पर विचार करता है। इसे इनिशियलाइज़ करके दिखाया जा सकता है और , पिछले अनुभाग में दी गई रैखिक न्यूनतम वर्ग समस्या का समाधान निम्नलिखित पुनरावृत्ति द्वारा गणना की जा सकती है:

उपरोक्त पुनरावृत्ति एल्गोरिथ्म को इंडक्शन ऑन का उपयोग करके सिद्ध किया जा सकता है .[2] प्रमाण भी यही बताते हैं . कोई आरएलएस को अनुकूली फिल्टर के संदर्भ में भी देख सकता है (पुनरावर्ती न्यूनतम वर्ग देखें)।

के लिए जटिलता इस एल्गोरिदम के चरण हैं , जो संगत बैच सीखने की जटिलता से अधिक तेज़ परिमाण का एक क्रम है। हर कदम पर भंडारण की आवश्यकताएँ यहां मैट्रिक्स को स्टोर करना है , जो स्थिर है . मामले के लिए जब उलटा नहीं है, समस्या के नियमित संस्करण पर विचार करें लॉस फंकशन . फिर, यह दिखाना आसान है कि वही एल्गोरिदम काम करता है , और पुनरावृत्तियाँ देने के लिए आगे बढ़ती हैं .[1]


स्टोकेस्टिक ग्रेडिएंट डिसेंट

जब यह

द्वारा प्रतिस्थापित किया जाता है
या द्वारा , यह स्टोकेस्टिक ग्रेडिएंट डिसेंट एल्गोरिदम बन जाता है। इस मामले में, के लिए जटिलता इस एल्गोरिथम के चरण कम हो जाते हैं . हर कदम पर भंडारण की आवश्यकताएँ पर स्थिर हैं .

हालाँकि, चरण आकार जैसा कि ऊपर बताया गया है, अपेक्षित जोखिम न्यूनीकरण समस्या को हल करने के लिए सावधानी से चुने जाने की आवश्यकता है। एक क्षयकारी चरण आकार का चयन करके कोई औसत पुनरावृत्त के अभिसरण को सिद्ध कर सकता है . यह सेटिंग स्टोकेस्टिक अनुकूलन का एक विशेष मामला है, जो अनुकूलन में एक प्रसिद्ध समस्या है।[1]


वृद्धिशील स्टोकेस्टिक ग्रेडिएंट वंश

व्यवहार में, कोई डेटा पर कई स्टोकेस्टिक ग्रेडिएंट पास (जिन्हें चक्र या युग भी कहा जाता है) निष्पादित कर सकता है। इस प्रकार प्राप्त एल्गोरिदम है वृद्धिशील ग्रेडिएंट विधि कहलाती है और एक पुनरावृत्ति से मेल खाती है

स्टोकेस्टिक ग्रेडिएंट विधि के साथ मुख्य अंतर यह है कि यहां एक अनुक्रम है यह तय करने के लिए चुना जाता है कि किस प्रशिक्षण बिंदु का दौरा किया जाए -वां चरण. ऐसा क्रम स्टोकेस्टिक या नियतिवादी हो सकता है। फिर पुनरावृत्तियों की संख्या को अंकों की संख्या से अलग कर दिया जाता है (प्रत्येक बिंदु पर एक से अधिक बार विचार किया जा सकता है)। अनुभवजन्य जोखिम को न्यूनतम प्रदान करने के लिए वृद्धिशील ढाल विधि को दिखाया जा सकता है।[3] कई शब्दों के योग से बने वस्तुनिष्ठ कार्यों पर विचार करते समय वृद्धिशील तकनीकें फायदेमंद हो सकती हैं। एक बहुत बड़े डेटासेट से संबंधित एक अनुभवजन्य त्रुटि।[1]


कर्नेल विधियाँ

उपरोक्त एल्गोरिदम को गैर-पैरामीट्रिक मॉडल (या ऐसे मॉडल जहां पैरामीटर एक अनंत आयामी स्थान बनाते हैं) तक विस्तारित करने के लिए कर्नेल का उपयोग किया जा सकता है। संबंधित प्रक्रिया अब वास्तव में ऑनलाइन नहीं होगी और इसमें सभी डेटा बिंदुओं को संग्रहीत करना शामिल होगा, लेकिन यह अभी भी ब्रूट फोर्स विधि से तेज़ है। यह चर्चा वर्ग हानि के मामले तक ही सीमित है, हालाँकि इसे किसी भी उत्तल हानि तक बढ़ाया जा सकता है। इसे एक आसान प्रेरण द्वारा दिखाया जा सकता है [1]कि अगर डेटा मैट्रिक्स है और के बाद आउटपुट है SGD एल्गोरिथ्म के चरण, फिर,

कहाँ और क्रम प्रत्यावर्तन को संतुष्ट करता है:
और

उस पर यहां ध्यान दें केवल मानक कर्नेल चालू है , और भविष्यवक्ता रूप का है

.

अब, यदि एक सामान्य कर्नेल इसके बजाय पेश किया गया है और भविष्यवक्ता को रहने दिया जाए

फिर वही प्रमाण यह भी दिखाएगा कि उपरोक्त रिकर्सन को बदलकर कम से कम वर्ग हानि को कम करने वाला भविष्यवक्ता प्राप्त किया जाता है

उपरोक्त अभिव्यक्ति को अद्यतन करने के लिए सभी डेटा संग्रहीत करने की आवश्यकता है . मूल्यांकन करते समय पुनरावृत्ति के लिए कुल समय जटिलता -डेटा बिंदु है , कहाँ बिंदुओं की एक जोड़ी पर कर्नेल का मूल्यांकन करने की लागत है।[1]इस प्रकार, कर्नेल के उपयोग ने एक सीमित आयामी पैरामीटर स्थान से आंदोलन की अनुमति दी है एक कर्नेल द्वारा प्रदर्शित संभवतः अनंत आयामी सुविधा के लिए इसके बजाय पैरामीटर के स्थान पर रिकर्सन निष्पादित करके , जिसका आयाम प्रशिक्षण डेटासेट के आकार के समान है। सामान्य तौर पर, यह निरूपक प्रमेय का परिणाम है।[1]


ऑनलाइन उत्तल अनुकूलन

ऑनलाइन उत्तल अनुकूलन (OCO) [4] निर्णय लेने के लिए एक सामान्य रूपरेखा है जो कुशल एल्गोरिदम की अनुमति देने के लिए उत्तल अनुकूलन का लाभ उठाती है। बार-बार गेम खेलने की रूपरेखा इस प्रकार है:

के लिए

  • शिक्षार्थी को इनपुट प्राप्त होता है
  • शिक्षार्थी आउटपुट एक निश्चित उत्तल सेट से
  • प्रकृति एक उत्तल हानि फ़ंक्शन वापस भेजती है .
  • शिक्षार्थी को हानि उठानी पड़ती है और अपने मॉडल को अपडेट करता है

लक्ष्य अफसोस को कम करना है, या संचयी हानि और सर्वोत्तम निश्चित बिंदु के नुकसान के बीच अंतर को कम करना है मसा में। उदाहरण के तौर पर, ऑनलाइन न्यूनतम वर्ग रैखिक प्रतिगमन के मामले पर विचार करें। यहां, भार सदिश उत्तल सेट से आते हैं , और प्रकृति उत्तल हानि फ़ंक्शन को वापस भेजती है . यहां ध्यान दें कि परोक्ष रूप से साथ भेजा गया है .

हालाँकि, कुछ ऑनलाइन भविष्यवाणी समस्याएं OCO के ढांचे में फिट नहीं हो सकती हैं। उदाहरण के लिए, ऑनलाइन वर्गीकरण में, पूर्वानुमान डोमेन और हानि फ़ंक्शन उत्तल नहीं होते हैं। ऐसे परिदृश्यों में, अवतलीकरण के लिए दो सरल तकनीकों का उपयोग किया जाता है: यादृच्छिकीकरण और सरोगेट लॉस फ़ंक्शन[citation needed].

कुछ सरल ऑनलाइन उत्तल अनुकूलन एल्गोरिदम हैं:

नेता का अनुसरण करें (एफटीएल)

सीखने का सबसे सरल नियम यह है कि (वर्तमान चरण में) उस परिकल्पना का चयन किया जाए जिसमें पिछले सभी दौरों की तुलना में सबसे कम हानि हो। इस एल्गोरिदम को फॉलो द लीडर कहा जाता है, और इसे बस राउंड दिया जाता है द्वारा:

इस प्रकार इस पद्धति को एक लालची एल्गोरिदम के रूप में देखा जा सकता है। ऑनलाइन द्विघात अनुकूलन के मामले में (जहां हानि फ़ंक्शन है ), कोई पछतावा दिखा सकता है जो बढ़ता है . हालाँकि, ऑनलाइन रैखिक अनुकूलन जैसे मॉडलों के अन्य महत्वपूर्ण परिवारों के लिए एफटीएल एल्गोरिदम के लिए समान सीमाएं प्राप्त नहीं की जा सकती हैं। ऐसा करने के लिए, कोई नियमितीकरण जोड़कर एफटीएल को संशोधित करता है।

नियमित नेता का अनुसरण करें (एफटीआरएल)

यह एफटीएल का एक प्राकृतिक संशोधन है जिसका उपयोग एफटीएल समाधानों को स्थिर करने और बेहतर अफसोस सीमाएं प्राप्त करने के लिए किया जाता है। एक नियमितीकरण समारोह चुना जाता है और सीखने का कार्य चक्र में किया जाता है t निम्नलिखित नुसार:

एक विशेष उदाहरण के रूप में, ऑनलाइन रैखिक अनुकूलन के मामले पर विचार करें, जहां प्रकृति फॉर्म के हानि कार्यों को वापस भेजती है . चलो भी . मान लीजिए नियमितीकरण समारोह किसी धनात्मक संख्या के लिए चुना गया है . फिर, कोई यह दिखा सकता है कि पछतावा कम से कम पुनरावृत्ति बन जाता है

ध्यान दें कि इसे इस प्रकार पुनः लिखा जा सकता है , जो बिल्कुल ऑनलाइन ग्रेडिएंट डिसेंट जैसा दिखता है।

अगर S इसके बजाय कुछ उत्तल उपसमष्टि है , S को प्रक्षेपित करने की आवश्यकता होगी, जिससे संशोधित अद्यतन नियम प्राप्त होगा

इस एल्गोरिदम को वेक्टर के रूप में आलसी प्रक्षेपण के रूप में जाना जाता है ग्रेडियेंट जमा करता है। इसे नेस्टरोव के दोहरे औसत एल्गोरिथ्म के रूप में भी जाना जाता है। रैखिक हानि कार्यों और द्विघात नियमितीकरण के इस परिदृश्य में, अफसोस की सीमा है , और इस प्रकार औसत पछतावा होता है 0 जैसी इच्छा थी।

ऑनलाइन सबग्रेडिएंट डिसेंट (ओएसडी)

उपरोक्त रैखिक हानि कार्यों के लिए खेदजनक साबित हुआ . किसी भी उत्तल हानि फ़ंक्शन के लिए एल्गोरिदम को सामान्य बनाने के लिए, उपग्रेडिएंट का के रैखिक सन्निकटन के रूप में उपयोग किया जाता है पास में , ऑनलाइन सबग्रेडिएंट डिसेंट एल्गोरिदम की ओर अग्रसर:

प्रारंभिक पैरामीटर के लिए

  • प्रयोग करके भविष्यवाणी करें , पाना प्रकृति से.
  • चुनना * अगर , के रूप में अद्यतन करें
  • अगर , संचयी ग्रेडिएंट्स को प्रोजेक्ट करें अर्थात। प्राप्त करने के लिए कोई ओएसडी एल्गोरिदम का उपयोग कर सकता है वर्गीकरण के लिए सपोर्ट वेक्टर मशीन|एसवीएम के ऑनलाइन संस्करण के लिए अफसोस की सीमा, जो काज हानि का उपयोग करती है


अन्य एल्गोरिदम

जैसा कि ऊपर वर्णित है, द्विघात रूप से नियमित किए गए एफटीआरएल एल्गोरिदम आलसी प्रक्षेपित ग्रेडिएंट एल्गोरिदम की ओर ले जाते हैं। मनमाने ढंग से उत्तल कार्यों और नियमितकर्ताओं के लिए उपरोक्त का उपयोग करने के लिए, कोई ऑनलाइन दर्पण वंश का उपयोग करता है। रैखिक हानि कार्यों के लिए पश्चदृष्टि में इष्टतम नियमितीकरण प्राप्त किया जा सकता है, यह AdaGrad एल्गोरिथ्म की ओर ले जाता है। यूक्लिडियन नियमितीकरण के लिए, कोई भी पछतावा दिखा सकता है , जिसे और बेहतर बनाया जा सकता है दृढ़ता से उत्तल और क्स्प-अवतल हानि कार्यों के लिए।

निरंतर सीखना

निरंतर सीखने का अर्थ है निरंतर प्रसंस्करण करके सीखे गए मॉडल में लगातार सुधार करना सूचना की धाराएँ.[5] लगातार बदलती वास्तविक दुनिया में बातचीत करने वाले सॉफ़्टवेयर सिस्टम और स्वायत्त एजेंटों के लिए निरंतर सीखने की क्षमताएं आवश्यक हैं। हालाँकि, गैर-स्थिर डेटा वितरण से वृद्धिशील रूप से उपलब्ध जानकारी के निरंतर अधिग्रहण के बाद से निरंतर सीखना मशीन लर्निंग और तंत्रिका नेटवर्क मॉडल के लिए एक चुनौती है। आम तौर पर भयावह भूल की ओर ले जाता है।

ऑनलाइन शिक्षण की व्याख्या

ऑनलाइन शिक्षण के प्रतिमान की शिक्षण मॉडल की पसंद के आधार पर अलग-अलग व्याख्याएं हैं, जिनमें से प्रत्येक के कार्यों के अनुक्रम की पूर्वानुमानित गुणवत्ता के बारे में अलग-अलग निहितार्थ हैं। . इस चर्चा के लिए प्रोटोटाइपिकल स्टोचैस्टिक ग्रेडिएंट डिसेंट एल्गोरिदम का उपयोग किया जाता है। जैसा कि ऊपर उल्लेख किया गया है, इसकी पुनरावृत्ति द्वारा दी गई है

पहली व्याख्या अपेक्षित जोखिम को कम करने की समस्या के लिए लागू स्टोकेस्टिक ग्रेडिएंट डिसेंट पद्धति पर विचार करती है ऊपर परिभाषित.[6] दरअसल, डेटा की अनंत धारा के मामले में, उदाहरणों के बाद से माना जाता है कि i.i.d खींचा गया है वितरण से , के ग्रेडियेंट का क्रम उपरोक्त पुनरावृत्ति में एक आई.आई.डी. है अपेक्षित जोखिम की प्रवणता के स्टोकेस्टिक अनुमान का नमूना और इसलिए कोई विचलन को सीमित करने के लिए स्टोकेस्टिक ग्रेडिएंट डीसेंट विधि के लिए जटिलता परिणाम लागू कर सकता है , कहाँ का मिनिमाइज़र है .[7] यह व्याख्या एक सीमित प्रशिक्षण सेट के मामले में भी मान्य है; हालाँकि डेटा के माध्यम से एकाधिक पास के साथ ग्रेडिएंट अब स्वतंत्र नहीं हैं, फिर भी विशेष मामलों में जटिलता परिणाम प्राप्त किए जा सकते हैं।

दूसरी व्याख्या एक परिमित प्रशिक्षण सेट के मामले पर लागू होती है और एसजीडी एल्गोरिदम को वृद्धिशील ग्रेडिएंट डीसेंट विधि का एक उदाहरण मानती है।[3]इस मामले में, कोई इसके बजाय अनुभवजन्य जोखिम को देखता है:

के ढ़ाल के बाद से वृद्धिशील ग्रेडिएंट डिसेंट पुनरावृत्तियों में ग्रेडिएंट का स्टोकेस्टिक अनुमान भी होता है , यह व्याख्या स्टोकेस्टिक ग्रेडिएंट डिसेंट पद्धति से भी संबंधित है, लेकिन अपेक्षित जोखिम के विपरीत अनुभवजन्य जोखिम को कम करने के लिए लागू की जाती है। चूंकि यह व्याख्या अनुभवजन्य जोखिम की चिंता करती है न कि अपेक्षित जोखिम की, इसलिए डेटा के माध्यम से कई बार गुजरने की आसानी से अनुमति दी जाती है और वास्तव में विचलन पर कड़ी सीमाएं लगती हैं। , कहाँ का मिनिमाइज़र है .

कार्यान्वयन

  • वोवपल वैबिट: ओपन-सोर्स फास्ट आउट-ऑफ-कोर ऑनलाइन लर्निंग सिस्टम जो कई मशीन लर्निंग कटौती, महत्व भार और विभिन्न हानि कार्यों और अनुकूलन एल्गोरिदम के चयन का समर्थन करने के लिए उल्लेखनीय है। यह प्रशिक्षण डेटा की मात्रा से स्वतंत्र सुविधाओं के सेट के आकार को सीमित करने के लिए फ़ीचर हैशिंग का उपयोग करता है।
  • स्किकिट-लर्न: एल्गोरिदम के आउट-ऑफ-कोर कार्यान्वयन प्रदान करता है

यह भी देखें

सीखने के प्रतिमान

सामान्य एल्गोरिदम

सीखने के मॉडल

संदर्भ

  1. 1.0 1.1 1.2 1.3 1.4 1.5 1.6 L. Rosasco, T. Poggio, Machine Learning: a Regularization Approach, MIT-9.520 Lectures Notes, Manuscript, Dec. 2015. Chapter 7 - Online Learning
  2. Yin, Harold J. Kushner, G. George (2003). स्टोकेस्टिक सन्निकटन और पुनरावर्ती एल्गोरिदम और अनुप्रयोग (Second ed.). New York: Springer. pp. 8–12. ISBN 978-0-387-21769-7.{{cite book}}: CS1 maint: multiple names: authors list (link)
  3. 3.0 3.1 Bertsekas, D. P. (2011). Incremental gradient, subgradient, and proximal methods for convex optimization: a survey. Optimization for Machine Learning, 85.
  4. Hazan, Elad (2015). Introduction to Online Convex Optimization (PDF). Foundations and Trends in Optimization.
  5. Parisi, German I.; Kemker, Ronald; Part, Jose L.; Kanan, Christopher; Wermter, Stefan (2019). "Continual lifelong learning with neural networks: A review". Neural Networks. 113: 54–71. arXiv:1802.07569. doi:10.1016/j.neunet.2019.01.012. ISSN 0893-6080.
  6. Bottou, Léon (1998). "Online Algorithms and Stochastic Approximations". Online Learning and Neural Networks. Cambridge University Press. ISBN 978-0-521-65263-6.
  7. Stochastic Approximation Algorithms and Applications, Harold J. Kushner and G. George Yin, New York: Springer-Verlag, 1997. ISBN 0-387-94916-X; 2nd ed., titled Stochastic Approximation and Recursive Algorithms and Applications, 2003, ISBN 0-387-00894-2.


बाहरी संबंध