अपर्यवेक्षित अधिगम: Difference between revisions

From Vigyanwiki
No edit summary
No edit summary
Line 4: Line 4:
[[ पर्यवेक्षित अध्ययन |अपर्यवेक्षित अधिगम]] उन कलन विधियों को संदर्भित करता है जो बिना लेबल वाले प्रदत्त से प्रतिरुप सीखते हैं।
[[ पर्यवेक्षित अध्ययन |अपर्यवेक्षित अधिगम]] उन कलन विधियों को संदर्भित करता है जो बिना लेबल वाले प्रदत्त से प्रतिरुप सीखते हैं।


पर्यवेक्षित शिक्षण के विपरीत, जहां प्रतिरूप निविष्ट को लक्ष्य बहिर्गत में मानचित्र करना सीखते हैं (उदाहरण के लिए "बिल्ली" या "मछली" के रूप में लेबल की गई छवियां), बिना पर्यवेक्षित तरीके निविष्ट प्रदत्तों का संक्षिप्त प्रतिनिधित्व सीखते हैं, जिसका उपयोग प्रदत्त अन्वेषण या विश्लेषण या नए प्रदत्त को उत्पन्न करने के लिए किया जा सकता है। पर्यवेक्षण वर्णक्रम में अन्य स्तर सुदृढीकरण शिक्षण हैं जहां यंत्र को मार्गदर्शन के रूप में केवल एक "प्रदर्शन प्राप्तांक" दिया जाता है और [[अर्ध-पर्यवेक्षित शिक्षण]] जहां प्रशिक्षण प्रदत्त का केवल एक भाग लेबल किया जाता है।
पर्यवेक्षित शिक्षण के विपरीत, जहां प्रतिरूप निविष्ट को लक्ष्य बहिर्गत में मानचित्र करना सीखते हैं (उदाहरण के लिए "बिल्ली" या "मछली" के रूप में लेबल की गई छवियां), अपर्यवेक्षित तरीके निविष्ट प्रदत्तों का संक्षिप्त प्रतिनिधित्व सीखते हैं, जिसका उपयोग प्रदत्त अन्वेषण या विश्लेषण या नए प्रदत्त को उत्पन्न करने के लिए किया जा सकता है। पर्यवेक्षण वर्णक्रम में अन्य स्तर सुदृढीकरण शिक्षण हैं जहां यंत्र को मार्गदर्शन के रूप में केवल एक "प्रदर्शन प्राप्तांक" दिया जाता है और [[अर्ध-पर्यवेक्षित शिक्षण]] जहां प्रशिक्षण प्रदत्त का केवल एक भाग लेबल किया जाता है।


== तन्त्रिका जालक्रम ==
== तन्त्रिका जालक्रम ==
Line 10: Line 10:
=== कार्य बनाम विधियाँ ===
=== कार्य बनाम विधियाँ ===


[[File:Task-guidance.png|thumb|300px|किसी कार्य के लिए पर्यवेक्षित बनाम अपर्यवेक्षित तरीकों को नियोजित करने की प्रवृत्ति है। कार्य के नाम वृत्त की सीमाओं को फैलाना जानबूझकर किया गया है। यह दर्शाता है कि अपर्यवेक्षित तरीकों को नियोजित करने वाले कल्पनाशील कार्यों (बाएं) का शास्त्रीय विभाजन आज की अधिगम की योजनाओं में अस्पष्ट हो गया है।]]तन्त्रिका जालक्रम कार्यों को प्रायः भेदभावपूर्ण (मान्यता) या उत्पादक (कल्पना) के रूप में वर्गीकृत किया जाता है। परन्तु सदैव नहीं, भेदभावपूर्ण कार्यों में पर्यवेक्षित तरीकों का उपयोग किया जाता है और प्रजनक कार्यों में बिना पर्यवेक्षित तरीकों का उपयोग किया जाता है ([[वेन आरेख]] देखें); हालाँकि, पृथक्करण अस्पष्ट है। उदाहरण के लिए, वस्तु पहचान पर्यवेक्षित शिक्षण को बढ़ावा देती है परन्तु बिना पर्यवेक्षित शिक्षण भी वस्तुओं को समूहों में विभाजित कर सकता है। इसके अतिरिक्त, जैसे-जैसे प्रगति आगे बढ़ती है, कुछ कार्य दोनों तरीकों का उपयोग करते हैं और कुछ कार्य एक से दूसरे की ओर प्रदोलन करते हैं। उदाहरण के लिए, छवि पहचान का प्रारंभ अत्यधिक पर्यवेक्षित के साथ हुआ, परन्तु बिना पर्यवेक्षित पूर्व-प्रशिक्षण को नियोजित करने से यह संकरित हो गई, और फिर निर्गम पात, परिशोधक और अनुकूली अधिगम दर के आगमन के साथ पुनः पर्यवेक्षण की ओर बढ़ गई।
[[File:Task-guidance.png|thumb|300px|किसी कार्य के लिए पर्यवेक्षित बनाम अपर्यवेक्षित तरीकों को नियोजित करने की प्रवृत्ति है। कार्य के नाम वृत्त की सीमाओं को फैलाना जानबूझकर किया गया है। यह दर्शाता है कि अपर्यवेक्षित तरीकों को नियोजित करने वाले कल्पनाशील कार्यों (बाएं) का शास्त्रीय विभाजन आज की अधिगम की योजनाओं में अस्पष्ट हो गया है।]]तन्त्रिका जालक्रम कार्यों को प्रायः भेदभावपूर्ण (मान्यता) या उत्पादक (कल्पना) के रूप में वर्गीकृत किया जाता है। परन्तु सदैव नहीं, भेदभावपूर्ण कार्यों में पर्यवेक्षित तरीकों का उपयोग किया जाता है और प्रजनक कार्यों में बिना पर्यवेक्षित तरीकों का उपयोग किया जाता है ([[वेन आरेख]] देखें); हालाँकि, पृथक्करण अस्पष्ट है। उदाहरण के लिए, वस्तु पहचान पर्यवेक्षित शिक्षण को बढ़ावा देती है परन्तु अपर्यवेक्षित शिक्षण भी वस्तुओं को समूहों में विभाजित कर सकता है। इसके अतिरिक्त, जैसे-जैसे प्रगति आगे बढ़ती है, कुछ कार्य दोनों तरीकों का उपयोग करते हैं और कुछ कार्य एक से दूसरे की ओर प्रदोलन करते हैं। उदाहरण के लिए, छवि पहचान का प्रारंभ अत्यधिक पर्यवेक्षित के साथ हुआ, परन्तु अपर्यवेक्षित पूर्व-प्रशिक्षण को नियोजित करने से यह संकरित हो गई, और फिर निर्गम पात, परिशोधक और अनुकूली अधिगम दर के आगमन के साथ पुनः पर्यवेक्षण की ओर बढ़ गई।


=== प्रशिक्षण ===
=== प्रशिक्षण ===
अधिगम चरण के पर्यन्त, एक अप्रशिक्षित जालक्रम दिए गए प्रदत्त की नकल करने का प्रयास करता है और स्वयं को सही करने के लिए अपने नकल किए गए बहिर्गत में त्रुटि का उपयोग करता है (अर्थात अपने भार और पूर्वाग्रहों को ठीक करता है)। कभी-कभी त्रुटि को गलत बहिर्गत होने की कम संभावना के रूप में व्यक्त किया जाता है, या इसे जालक्रम में अस्थिर उच्च ऊर्जा स्थिति के रूप में व्यक्त किया जा सकता है।
अधिगम चरण के पर्यन्त, एक अप्रशिक्षित जालक्रम दिए गए प्रदत्त की नकल करने का प्रयास करता है और स्वयं को सही करने के लिए अपने नकल किए गए बहिर्गत में त्रुटि का उपयोग करता है (अर्थात अपने भार और पूर्वाग्रहों को ठीक करता है)। कभी-कभी त्रुटि को गलत बहिर्गत होने की कम संभावना के रूप में व्यक्त किया जाता है, या इसे जालक्रम में अस्थिर उच्च ऊर्जा स्थिति के रूप में व्यक्त किया जा सकता है।


पर्यवेक्षित तरीकों के [[पश्चप्रचार]] के प्रमुख उपयोग के विपरीत, [[ पर्यवेक्षित अध्ययन |अपर्यवेक्षित]] अधिगम अन्य तरीकों को भी नियोजित करता है जिनमें, होपफील्ड अधिगम नियम, बोल्ट्जमैन अधिगम नियम, विरोधाभासी विचलन, [[जागो-नींद एल्गोरिथ्म|वेक स्लीप]], भिन्नात्मक अनुमान, अधिकतम संभावना, अधिकतम पोस्टीरियोरी, गिब्स प्रतिदर्शी और पश्चप्रचार, पुनर्निर्माण त्रुटियाँ या गुप्त स्थिति का पुनर्मूल्यांकन सम्मिलित हैं। अधिक विवरण के लिए नीचे दी गई तालिका देखें।
पर्यवेक्षित तरीकों के [[पश्चप्रचार]] के प्रमुख उपयोग के विपरीत, [[ पर्यवेक्षित अध्ययन |अपर्यवेक्षित]] अधिगम अन्य तरीकों को भी नियोजित करता है जिनमें, होपफील्ड अधिगम नियम, बोल्ट्समान अधिगम नियम, विरोधाभासी विचलन, [[जागो-नींद एल्गोरिथ्म|वेक स्लीप]], भिन्नात्मक अनुमान, अधिकतम संभावना, अधिकतम पोस्टीरियोरी, गिब्स प्रतिदर्शी और पश्चप्रचार, पुनर्निर्माण त्रुटियाँ या गुप्त स्थिति का पुनर्मूल्यांकन सम्मिलित हैं। अधिक विवरण के लिए नीचे दी गई तालिका देखें।


=== ऊर्जा ===
=== ऊर्जा ===
एक ऊर्जा क्रिया किसी जालक्रम की सक्रियण स्थिति का एक स्थूल माप है। बोल्ट्समान यंत्रों में, यह लागत क्रिया की भूमिका निभाता है। भौतिकी के साथ यह सादृश्य कण गति <math>p \propto e^{-E/kT}</math>की सूक्ष्म संभावनाओं से गैस की स्थूल ऊर्जा के लुडविग बोल्ट्जमैन के विश्लेषण से प्रेरित है, जहां k बोल्ट्जमैन स्थिरांक है और T तापमान है। आरबीएम जालक्रम में संबंध <math> p = e^{-E} / Z </math> है,<ref name="Hinton2010" />जहां <math>p</math> और <math>E</math> प्रत्येक संभावित सक्रियण प्रतिरुप में भिन्न और <math>\textstyle{Z = \sum_{\scriptscriptstyle{\text{All Patterns}}}  e^{-E(\text{pattern})}}</math> होता है। अधिक स्पष्ट करने के लिए, <math>p(a) = e^{-E(a)} / Z</math>, जहां <math>a</math> सभी न्यूरॉन (दृश्यमान और गुप्त) का एक सक्रियण प्रतिरुप है। इसलिए, प्रारंभिक तन्त्रिका जालक्रम का नाम बोल्ट्समान यंत्र है। पॉल स्मोलेंस्की कॉल <math>-E\,</math> समानता है। एक जालक्रम कम ऊर्जा चाहता है जो उच्च समानता है।
एक ऊर्जा क्रिया किसी जालक्रम की सक्रियण स्थिति का एक स्थूल माप है। बोल्ट्समान यंत्रों में, यह लागत क्रिया की भूमिका निभाता है। भौतिकी के साथ यह सादृश्य कण गति <math>p \propto e^{-E/kT}</math>की सूक्ष्म संभावनाओं से गैस की स्थूल ऊर्जा के लुडविग बोल्ट्समान के विश्लेषण से प्रेरित है, जहां k बोल्ट्समान स्थिरांक है और T तापमान है। आरबीएम जालक्रम में संबंध <math> p = e^{-E} / Z </math> है,<ref name="Hinton2010" />जहां <math>p</math> और <math>E</math> प्रत्येक संभावित सक्रियण प्रतिरुप में भिन्न और <math>\textstyle{Z = \sum_{\scriptscriptstyle{\text{All Patterns}}}  e^{-E(\text{pattern})}}</math> होता है। अधिक स्पष्ट करने के लिए, <math>p(a) = e^{-E(a)} / Z</math>, जहां <math>a</math> सभी न्यूरॉन (दृश्यमान और गुप्त) का एक सक्रियण प्रतिरुप है। इसलिए, प्रारंभिक तन्त्रिका जालक्रम का नाम बोल्ट्समान यंत्र है। पॉल स्मोलेंस्की कॉल <math>-E\,</math> समानता है। एक जालक्रम कम ऊर्जा चाहता है जो उच्च समानता है।


=== जालक्रम ===
=== जालक्रम ===
यह तालिका विभिन्न गैर-पर्यवेक्षित जालक्रमों के संयोजन आरेख दर्शाती है, जिनका विवरण जालक्रम की तुलना अनुभाग में दिया जाएगा। वृत्त न्यूरॉन हैं और उनके मध्य के किनारे संयोजन भार हैं। जैसे-जैसे जालक्रम प्रारुप परिवर्तित करता है, नई क्षमताओं को सक्षम करने के लिए सुविधाएँ जोड़ी जाती हैं या अधिगम को तीव्र बनाने के लिए हटा दी जाती हैं। उदाहरण के लिए, प्रबल बहिर्गत की अनुमति देने के लिए न्यूरॉन नियतात्मक (हॉपफील्ड) और प्रसंभाव्य(बोल्ट्समान) के मध्य परिवर्तित होते हैं, अधिगम में तीव्रता लाने के लिए एक परत (RBM) के भीतर भार हटा दिया जाता है, या संयोजन को असममित (हेल्महोल्त्स) बनने की अनुमति दी जाती है।
यह तालिका विभिन्न गैर-पर्यवेक्षित जालक्रमों के संयोजन आरेख दर्शाती है, जिनका विवरण जालक्रम की तुलना अनुभाग में दिया जाएगा। वृत्त न्यूरॉन हैं और उनके मध्य के किनारे संयोजन भार हैं। जैसे-जैसे जालक्रम प्रारुप परिवर्तित होता है, नई क्षमताओं को सक्षम करने के लिए सुविधाएँ जोड़ी जाती हैं या अधिगम को तीव्र बनाने के लिए हटा दी जाती हैं। उदाहरण के लिए, प्रबल बहिर्गत की अनुमति देने के लिए न्यूरॉन नियतात्मक (हॉपफील्ड) और प्रसंभाव्य (बोल्ट्समान) के मध्य परिवर्तित होते हैं, अधिगम में तीव्रता लाने के लिए एक परत (RBM) के भीतर भार हटा दिया जाता है, या संयोजन को असममित (हेल्महोल्त्स) बनने की अनुमति दी जाती है।


{| class="wikitable"
{| class="wikitable"

Revision as of 19:13, 2 July 2023

अपर्यवेक्षित अधिगम उन कलन विधियों को संदर्भित करता है जो बिना लेबल वाले प्रदत्त से प्रतिरुप सीखते हैं।

पर्यवेक्षित शिक्षण के विपरीत, जहां प्रतिरूप निविष्ट को लक्ष्य बहिर्गत में मानचित्र करना सीखते हैं (उदाहरण के लिए "बिल्ली" या "मछली" के रूप में लेबल की गई छवियां), अपर्यवेक्षित तरीके निविष्ट प्रदत्तों का संक्षिप्त प्रतिनिधित्व सीखते हैं, जिसका उपयोग प्रदत्त अन्वेषण या विश्लेषण या नए प्रदत्त को उत्पन्न करने के लिए किया जा सकता है। पर्यवेक्षण वर्णक्रम में अन्य स्तर सुदृढीकरण शिक्षण हैं जहां यंत्र को मार्गदर्शन के रूप में केवल एक "प्रदर्शन प्राप्तांक" दिया जाता है और अर्ध-पर्यवेक्षित शिक्षण जहां प्रशिक्षण प्रदत्त का केवल एक भाग लेबल किया जाता है।

तन्त्रिका जालक्रम

कार्य बनाम विधियाँ

किसी कार्य के लिए पर्यवेक्षित बनाम अपर्यवेक्षित तरीकों को नियोजित करने की प्रवृत्ति है। कार्य के नाम वृत्त की सीमाओं को फैलाना जानबूझकर किया गया है। यह दर्शाता है कि अपर्यवेक्षित तरीकों को नियोजित करने वाले कल्पनाशील कार्यों (बाएं) का शास्त्रीय विभाजन आज की अधिगम की योजनाओं में अस्पष्ट हो गया है।

तन्त्रिका जालक्रम कार्यों को प्रायः भेदभावपूर्ण (मान्यता) या उत्पादक (कल्पना) के रूप में वर्गीकृत किया जाता है। परन्तु सदैव नहीं, भेदभावपूर्ण कार्यों में पर्यवेक्षित तरीकों का उपयोग किया जाता है और प्रजनक कार्यों में बिना पर्यवेक्षित तरीकों का उपयोग किया जाता है (वेन आरेख देखें); हालाँकि, पृथक्करण अस्पष्ट है। उदाहरण के लिए, वस्तु पहचान पर्यवेक्षित शिक्षण को बढ़ावा देती है परन्तु अपर्यवेक्षित शिक्षण भी वस्तुओं को समूहों में विभाजित कर सकता है। इसके अतिरिक्त, जैसे-जैसे प्रगति आगे बढ़ती है, कुछ कार्य दोनों तरीकों का उपयोग करते हैं और कुछ कार्य एक से दूसरे की ओर प्रदोलन करते हैं। उदाहरण के लिए, छवि पहचान का प्रारंभ अत्यधिक पर्यवेक्षित के साथ हुआ, परन्तु अपर्यवेक्षित पूर्व-प्रशिक्षण को नियोजित करने से यह संकरित हो गई, और फिर निर्गम पात, परिशोधक और अनुकूली अधिगम दर के आगमन के साथ पुनः पर्यवेक्षण की ओर बढ़ गई।

प्रशिक्षण

अधिगम चरण के पर्यन्त, एक अप्रशिक्षित जालक्रम दिए गए प्रदत्त की नकल करने का प्रयास करता है और स्वयं को सही करने के लिए अपने नकल किए गए बहिर्गत में त्रुटि का उपयोग करता है (अर्थात अपने भार और पूर्वाग्रहों को ठीक करता है)। कभी-कभी त्रुटि को गलत बहिर्गत होने की कम संभावना के रूप में व्यक्त किया जाता है, या इसे जालक्रम में अस्थिर उच्च ऊर्जा स्थिति के रूप में व्यक्त किया जा सकता है।

पर्यवेक्षित तरीकों के पश्चप्रचार के प्रमुख उपयोग के विपरीत, अपर्यवेक्षित अधिगम अन्य तरीकों को भी नियोजित करता है जिनमें, होपफील्ड अधिगम नियम, बोल्ट्समान अधिगम नियम, विरोधाभासी विचलन, वेक स्लीप, भिन्नात्मक अनुमान, अधिकतम संभावना, अधिकतम पोस्टीरियोरी, गिब्स प्रतिदर्शी और पश्चप्रचार, पुनर्निर्माण त्रुटियाँ या गुप्त स्थिति का पुनर्मूल्यांकन सम्मिलित हैं। अधिक विवरण के लिए नीचे दी गई तालिका देखें।

ऊर्जा

एक ऊर्जा क्रिया किसी जालक्रम की सक्रियण स्थिति का एक स्थूल माप है। बोल्ट्समान यंत्रों में, यह लागत क्रिया की भूमिका निभाता है। भौतिकी के साथ यह सादृश्य कण गति की सूक्ष्म संभावनाओं से गैस की स्थूल ऊर्जा के लुडविग बोल्ट्समान के विश्लेषण से प्रेरित है, जहां k बोल्ट्समान स्थिरांक है और T तापमान है। आरबीएम जालक्रम में संबंध है,[1]जहां और प्रत्येक संभावित सक्रियण प्रतिरुप में भिन्न और होता है। अधिक स्पष्ट करने के लिए, , जहां सभी न्यूरॉन (दृश्यमान और गुप्त) का एक सक्रियण प्रतिरुप है। इसलिए, प्रारंभिक तन्त्रिका जालक्रम का नाम बोल्ट्समान यंत्र है। पॉल स्मोलेंस्की कॉल समानता है। एक जालक्रम कम ऊर्जा चाहता है जो उच्च समानता है।

जालक्रम

यह तालिका विभिन्न गैर-पर्यवेक्षित जालक्रमों के संयोजन आरेख दर्शाती है, जिनका विवरण जालक्रम की तुलना अनुभाग में दिया जाएगा। वृत्त न्यूरॉन हैं और उनके मध्य के किनारे संयोजन भार हैं। जैसे-जैसे जालक्रम प्रारुप परिवर्तित होता है, नई क्षमताओं को सक्षम करने के लिए सुविधाएँ जोड़ी जाती हैं या अधिगम को तीव्र बनाने के लिए हटा दी जाती हैं। उदाहरण के लिए, प्रबल बहिर्गत की अनुमति देने के लिए न्यूरॉन नियतात्मक (हॉपफील्ड) और प्रसंभाव्य (बोल्ट्समान) के मध्य परिवर्तित होते हैं, अधिगम में तीव्रता लाने के लिए एक परत (RBM) के भीतर भार हटा दिया जाता है, या संयोजन को असममित (हेल्महोल्त्स) बनने की अनुमति दी जाती है।

हॉपफ़ील्ड बोल्ट्समान आरबीएम स्टैक्ड बोल्ट्समान
एकल स्व-संबंधित परत के साथ लोहे में चुंबकीय कार्यक्षेत्र पर आधारित एक जालक्रम है। इसका उपयोग पता योग्य विषय वस्तु स्मृति के रूप में किया जा सकता है।
जालक्रम को 2 परतों (गुप्त बनाम दृश्यमान) में विभाजित किया गया है, परन्तु फिर भी सममित 2-पंथ भार का उपयोग किया जाता है। बोल्ट्समान के ऊष्मागतिकी के बाद, व्यक्तिगत संभावनाएं स्थूल ऊर्जा की उत्पत्ति करती हैं।
प्रतिबंधित बोल्ट्समान यंत्र, यह एक बोल्ट्समान यंत्र है जहां विश्लेषण को सुव्यवस्थित बनाने के लिए एक परत के भीतर पार्श्व संयोजन निषिद्ध है।
इस जालक्रम में गुप्त विशेषताओं के पदानुक्रम को कोडित करने के लिए कई आरबीएम हैं। एक आरबीएम को प्रशिक्षित करने के बाद, एक और नीली गुप्त परत (बाएं आरबीएम देखें) जोड़ी जाती है और शीर्ष 2 परतों को लाल और नीले आरबीएम के रूप में प्रशिक्षित किया जाता है। इस प्रकार आरबीएम की मध्य परतें गुप्त या दृश्यमान के रूप में कार्य करती हैं, यह इस बात पर निर्भर करता है कि यह किस प्रशिक्षण चरण में है।
हेल्महोल्त्स ऑटोएनकोडर वीएई
चितीयित बोल्ट्समान यंत्रों के द्विदिश सममित संयोजन के बजाय, हमारे पास कुंडली बनाने के लिए अलग-अलग एक-तरफ़ा संयोजन हैं। यह पीढ़ी और पक्षपात दोनों करता है।
एक अग्रभरण जालक्रम जिसका लक्ष्य अपने निविष्ट जगत का एक अच्छा मध्य परत प्रतिनिधित्व खोजना है। यह जालक्रम नियतिवादी है, इसलिए यह अपने उत्तराधिकारी वीएई जितना प्रबल नहीं है।
ऑटोएन्कोडर पर विचरण अनुमान अनुप्रयुक्त करता है। मध्य परत गाउसी वितरण के लिए साधनों और भिन्नताओं का एक समुच्चय है। प्रसंभाव्यप्रकृति नियतात्मक ऑटोएनकोडर की तुलना में अधिक प्रबल कल्पना की अनुमति देती है।

लोगों के नाम वाले जालक्रम में से केवल होपफ़ील्ड ने सीधे तन्त्रिका जालक्रम के साथ कार्य किया। बोल्ट्समान और हेल्महोल्त्स कृत्रिम तन्त्रिका जालक्रम से पहले आए थे, परन्तु भौतिकी और शरीर विज्ञान में उनके कार्य ने उपयोग की जाने वाली विश्लेषणात्मक विधियों को प्रेरित किया।

इतिहास

1969 मिन्स्की और पैपर्ट द्वारा परसेप्ट्रॉन दर्शाता है कि गुप्त परतों के बिना एक परसेप्ट्रॉन एक्सओआर पर विफल रहता है।
1970s (अनुमानित तिथियां) पहली एआई विंटर।
1974 अनुभूति के लिए डब्ल्यूए लिटिल द्वारा प्रस्तावित आइसिंग चुंबकीय प्रतिरूप है।
1980 फुकुशिमा ने नियोकॉग्निट्रॉन को प्रस्तावित किया, जिसे बाद में संवलन तन्त्रिका जालक्रम कहा गया। इसका उपयोग अधिकतर एसएल में किया जाता है, परन्तु यहां इसका उल्लेख आवश्यक है।
1982 आइसिंग भिन्नरूप हॉपफील्ड शैली को जॉन हॉपफील्ड द्वारा सीएएम और वर्गीकारक के रूप में वर्णित किया गया है।
1983 शेरिंगटन और किर्कपैट्रिक के 1975 के कार्य के बाद हिंटन और सेजनोव्स्की द्वारा वर्णित संभाव्य न्यूरॉन्स के साथ आइसिंग भिन्नरूप बोल्टज़मैन यंत्र है।
1986 पॉल स्मोलेंस्की ने सामंजस्य सिद्धांत प्रकाशित किया, जो व्यावहारिक रूप से समान बोल्ट्ज़मान ऊर्जा कार्य वाला एक आरबीएम है। स्मोलेंस्की ने कोई व्यावहारिक प्रशिक्षण योजना नहीं दी। हिंटन ने 2000 के दशक के मध्य में किया था।
1995 श्मिटथुबर ने भाषाओं के लिए एलएसटीएम न्यूरॉन का परिचय दिया।
1995 दयान और हिंटन ने हेल्महोल्त्स यंत्र प्रस्तुत किया।
1995-2005 (अनुमानित तिथियां) दूसरा एआई विंटर
2013 किंग्मा, रेज़ेंडे और संगठन, घटकों के रूप में तंत्रिका जाल के साथ, बायेसियन आलेखीय संभाव्यता जालक्रम के रूप में विचरण ऑटोएन्कोडर को प्रस्तुत किया गया।


विशिष्ट जालक्रम

यहां, हम विशिष्ट जालक्रम की कुछ विशेषताओं पर प्रकाश डालते हैं। प्रत्येक का विवरण नीचे तुलना तालिका में दिया गया है।

हॉपफील्ड जालक्रम
लौहचुम्बकत्व ने हॉपफील्ड जालक्रम को प्रेरित किया। एक न्यूरॉन ऊपर और नीचे द्विआधारी चुंबकीय क्षणों के साथ एक लौह कार्यक्षेत्र से मेल खाता है और तंत्रिका संयोजन एक दूसरे पर कार्यक्षेत्र के प्रभाव से मेल खाते हैं। सममित संयोजन वैश्विक ऊर्जा निर्माण को सक्षम बनाते हैं। निष्कर्ष के पर्यंत जालक्रम मानक सक्रियण चरण क्रिया का उपयोग करके प्रत्येक स्थिति को अद्यतन करता है। सममित भार और सही ऊर्जा कार्य एक स्थिर सक्रियण प्रतिरूप के अभिसरण की प्रत्याभूति देते हैं। असममित भार का विश्लेषण करना कठिन है। हॉपफील्ड शैली का उपयोग आधेय पता योग्य स्मृति (CAM) के रूप में किया जाता है।
बोल्ट्ज़मैन यंत्र
ये प्रसंभाव्य हॉपफील्ड शैली हैं। उनका अवस्था मान इस पीडीएफ से निम्नानुसार नमूना लिया गया है: मान लीजिए कि एक द्विआधारी न्यूरॉन बर्नौली संभावना p (1) = 1/3 के साथ सक्रिय होता है और p (0) = 2/3 के साथ स्थिर रहता है। इसमें से एक नमूना एक समान रूप से वितरित यादृच्छिक संख्या y लेकर और इसे व्युत्क्रमित संचयी वितरण क्रिया में प्लग करके, जो इस स्थिति में 2/3 पर सीमा चरण क्रिया है। व्युत्क्रम फलन = { 0 यदि x <= 2/3, 1 यदि x > 2/3 } है।
सिग्मारूपी धारणा शैली
1992 में रैडफोर्ड नील द्वारा प्रस्तुत, यह जालक्रम संभाव्य आलेखीय प्रतिरूप से लेकर तंत्रिका जालक्रम तक के विचारों को अनुप्रयुक्त करता है। एक महत्वपूर्ण अंतर यह है कि आलेखीय प्रतिरूप में बिंदुओं के पूर्व-निर्धारित अर्थ होते हैं, जबकि धारणा शैली न्यूरॉन्स की विशेषताएं प्रशिक्षण के बाद निर्धारित की जाती हैं। जालक्रम द्विआधारी प्रसंभाव्य न्यूरॉन्स से बना एक विरल रूप से जुड़ा हुआ निर्देशित अचक्रिय आलेख है। अधिगम का नियम p(X): Δwij sj * (si - pi) पर अधिकतम संभावना से आता है, जहां pi = 1 / ( 1 + e न्यूरॉन में भारित निविष्ट i ) है।sj's पश्च वितरण के एक निष्पक्ष प्रतिरूप से सक्रियण हैं और यह जूडिया पर्ल द्वारा उठाई गई समस्या दूर करने की व्याख्या के कारण समस्याग्रस्त है। विचरणी बायेसियन विधियां एक प्रतिनिधि पश्च का उपयोग करती हैं और इस जटिलता की स्पष्ट रूप से उपेक्षा करती हैं।
गहन धारणा जालक्रम
हिंटन द्वारा प्रस्तुत, यह जालक्रम आरबीएम और सिग्मारूपी धारणा जालक्रम का एक संकर है। शीर्ष 2 परतें एक आरबीएम हैं और दूसरी परत नीचे की ओर एक सिग्मारूपी धारणा जालक्रम बनाती है। कोई इसे चितीयित आरबीएम विधि द्वारा प्रशिक्षित करता है और फिर शीर्ष आरबीएम के नीचे पहचान भार को फेंक देता है। 2009 तक, 3-4 परतें इष्टतम गहराई प्रतीत होती हैं। [2]
हेल्महोल्त्ज़ यंत्र
ये विचरणी ऑटोएनकोडर के लिए प्रारंभिक प्रेरणाएँ हैं। इसके 2 जालक्रम एक में संयुक्त हैं - अग्र भार पहचान को संचालित करता है और अग्र भार कल्पना को क्रियान्वित करता है। यह संभवतः दोनों कार्य करने वाला पहला जालक्रम है। हेल्महोल्ट्ज़ ने यंत्र अधिगम में कार्य नहीं किया परन्तु उन्होंने "सांख्यिकीय अनुमिति इंजन के दृष्टिकोण को प्रेरित किया जिसका कार्य संवेदी निविष्ट के संभावित कारणों का अनुमान लगाना है" (3)। प्रसंभाव्य द्विआधारी न्यूरॉन एक संभावना को बहिर्गत करता है कि इसकी स्थिति 0 या 1 है। प्रदत्त निविष्ट को सामान्यतः एक परत नहीं माना जाता है, परन्तु हेल्महोल्ट्ज़ यंत्र जन प्रणाली में, प्रदत्त परत मध्य परत से निविष्ट प्राप्त करती है, इस उद्देश्य के लिए अलग-अलग भार होता है, इसलिए इसे एक परत माना जाता है. इसलिए इस जालक्रम में 3 परतें हैं।
विचरणी ऑटोएनकोडर
ये हेल्महोल्त्ज़ यंत्रों से प्रेरित हैं और संभाव्यता जालक्रम को तंत्रिका जालक्रम के साथ जोड़ते हैं। एक ऑटोएन्कोडर एक 3-परत सीएएम जालक्रम है, जहां मध्य परत को निविष्ट प्रतिरूप का कुछ आंतरिक प्रतिनिधित्व माना जाता है। संकेतक तंत्रिका जालक्रम एक संभाव्यता वितरण qφ(z given x) और विसंकेतक जालक्रम pθ(x given z) है। भार को हेल्महोल्ट्ज़ एक प्रसाधन अंतर की तरह W और V के बजाय फी और थीटा नाम दिया गया है। यहां ये 2 जालक्रम पूर्णतया से संयोजित हो सकते हैं, या किसी अन्य एनएन योजना का उपयोग कर सकते हैं।

जालक्रम की तुलना

हॉपफ़ील्ड बोल्ट्समान आरबीएम चितीयित आरबीएम हेल्महोल्त्स ऑटोएन्कोडर वीएई
उपयोग एवं उल्लेखनीय सीएएम, चल विक्रेता समस्या सीएएम, संयोजन की स्वतंत्रता इस जालक्रम का विश्लेषण करना कठिन बना देती है। प्रतिरुप मान्यता है।एमएनआईएसटी अंक और भाषण में उपयोग किया जाता है। मान्यता एवं कल्पना बिना पर्यवेक्षित पूर्व-प्रशिक्षण और/या पर्यवेक्षित सूक्ष्म समस्वरण के साथ प्रशिक्षित है। कल्पना, नकल भाषा: रचनात्मक लेखन, अनुवाद है। दृष्टि: अस्पष्ट छवियों को बढ़ाना है। यथार्थवादी प्रदत्त उत्पन्न करें।
न्यूरॉन नियतात्मक द्विआधारी अवस्था है। सक्रियण = { 0 (या -1) यदि x ऋणात्मक है, 1 अन्यथा } प्रसंभाव्य द्विआधारी हॉपफील्ड न्यूरॉन है। ← समान (2000 के दशक के मध्य में वास्तविक-मूल्य तक विस्तारित) है। ← समान ← समान भाषा: एलएसटीएम है। दृष्टि: स्थानीय ग्रहणशील क्षेत्र है। सामान्यतः वास्तविक मूल्यवान रेलु सक्रियण है। मध्य परत के न्यूरॉन्स गाऊसी के लिए माध्य और भिन्नता को कूटबद्ध करते हैं। गति प्रणाली (अनुमान) में, मध्य परत का बहिर्वेश गाउसी से प्रतिचयित मान हैं।
संयोजन सममित भार के साथ 1-परत है। कोई स्व-संपर्क नहीं है। 2-परतें, 1-गुप्त, 1- दृश्यमान, सममित भार हैं। ← समान है।

एक परत के भीतर कोई पार्श्विक संबंध नहीं हैं।

शीर्ष परत अप्रत्यक्ष, सममित है। अन्य परतें 2-तरफ़ा, असममित हैं। 3-परतें: असममित भार हैं। 2 जालक्रम को मिलाकर 1 बनाया गया हैं। 3-परतें हैं। निविष्ट को एक परत माना जाता है, भले ही इसमें कोई सीमा में भार न हो। एनएलपी के लिए आवर्ती परतें है। दृष्टि के लिए अग्रभरण संवलन है। निविष्ट और बहिर्वेश में समान न्यूरॉन गणना होती है। 3-परतें: निविष्ट, संकेतक, वितरण प्रतिदर्शी विसंकेतक है। प्रतिदर्शी को एक परत (e) नहीं माना जाता है।
अनुमान एवं ऊर्जा ऊर्जा गिब्स संभाव्यता माप द्वारा दी गई है: ← समान ← समान केएल विचलन को कम करें। अनुमान केवल अग्रभरण है। पिछले यूएल जालक्रम आगे और पीछे चलते थे। त्रुटि न्यूनतम = पुनर्निर्माण त्रुटि - केएलडी
प्रशिक्षण Δwij = si*sj, के लिए +1/-1 न्यूरॉन है। Δwij = e*(pij - p'ij), यह केएलडी को न्यूनतम करने से प्राप्त हुआ है।

e = अधिगम दर,

p' = अनुमानित और

p = वास्तविक वितरण हैं।

Δwij = e*( < vi hj> प्रदत्त - < vi hj > संतुलन), यह गिब्स प्रतिदर्शी के साथ विरोधाभासी विचलन का एक रूप है। "<>" अपेक्षाएं हैं। ← के समान एक समय में 1-परत को प्रशिक्षित करें। 3- खंड पारित के साथ अनुमानित संतुलन स्थिति हैं। कोई पूर्व संचरण नहीं हैं। वेक-स्लीप 2 चरण का प्रशिक्षण हैं। पुनर्निर्माण त्रुटि को वापस प्रचारित करें। बैकप्रॉप के लिए गुप्त स्थिति को दोबारा मापें।
प्रबलता भौतिक प्रणालियों के सदृश है इसलिए यह उनके समीकरणों को प्राप्त करता है। ← के समान गुप्त न्यूरॉन्स बाहरी दुनिया के आंतरिक प्रतिनिधित्व के रूप में कार्य करते हैं। बोल्ट्समान यंत्रों की तुलना में तीव्र और अधिक व्यावहारिक प्रशिक्षण योजना हैं। तीव्रता से शृंखला सुविधाओं की श्रेणीबद्ध परत देता है। हल्का शारीरिक. सूचना सिद्धांत और सांख्यिकीय यांत्रिकी के साथ विश्लेषण योग्य हैं।
दुर्बलता पार्श्व संयोजन के कारण प्रशिक्षित करना कठिन है। संतुलन के लिए बहुत अधिक पुनरावृत्तियों की आवश्यकता होती है। पूर्णांक और वास्तविक-मूल्यवान न्यूरॉन्स अधिक जटिल हैं।

हेब्बियन अधिगम, एआरटी, एसओएम

तन्त्रिका जालक्रम के अध्ययन में अपर्यवेक्षित शिक्षण का शास्त्रीय उदाहरण डोनाल्ड हेब्ब का सिद्धांत है, अर्थात, न्यूरॉन्स जो एक साथ तार से सक्रिय होते हैं।[3]हेब्बियन अधिगम में, किसी त्रुटि के बावजूद संयोजन को प्रबल किया जाता है, परन्तु यह विशेष रूप से दो न्यूरॉन्स के मध्य कार्य क्षमता के मध्य संयोग का एक कार्य है।[4]एक समान संस्करण जो अंतर्ग्रथनी भार को संशोधित करता है वह कार्य क्षमता ( स्पाइक-समय-निर्भर नमनीयता या एसटीडीपी) के मध्य के समय को ध्यान में रखता है। हेब्बियन अधिगम को प्रतिरुप पहचान और अनुभवात्मक शिक्षा जैसे संज्ञानात्मक कार्यों की एक श्रृंखला को रेखांकित करने के लिए परिकल्पित किया गया है।

तन्त्रिका जालक्रम प्रतिरूप के मध्य, स्व-संगठित मानचित्र (SOM) और अनुकूली अनुनाद सिद्धांत (ART) का उपयोग सामान्यतः अपर्यवेक्षित शिक्षण कलन विधि में किया जाता है। एसओएम एक स्थलाकृतिक संगठन है जिसमें मानचित्र में आस-पास के स्थान समान गुणों वाले निविष्ट का प्रतिनिधित्व करते हैं। एआरटी प्रतिरूप समस्या के आकार के साथ समूहों की संख्या को अलग-अलग करने की अनुमति देता है और उपयोगकर्ता को सतर्कता मापदंड नामक उपयोगकर्ता-परिभाषित स्थिरांक के माध्यम से समान गुच्छ के सदस्यों के मध्य समानता की डिग्री को नियंत्रित करने देता है। एआरटी जालक्रम का उपयोग कई प्रतिरुप पहचान कार्यों, जैसे स्वचालित लक्ष्य पहचान और भूकंपीय संकेत संसाधन के लिए किया जाता है।[5]


संभाव्य विधियाँ

बिना पर्यवेक्षित शिक्षण में उपयोग की जाने वाली दो मुख्य विधियाँ प्रमुख घटक और गुच्छ विश्लेषण हैं। गुच्छ विश्लेषण के उपयोग के बिना पर्यवेक्षित शिक्षण में कलन विधि संबंधों को बहिर्वेशित करने के लिए साझा विशेषताओं वाले आंकड़े समुच्चय को समूह या खंड में करने के लिए किया जाता है।[6]गुच्छ विश्लेषण यंत्र अधिगम की एक शाखा है जो उन आंकड़ों को समूहित करती है जिसे लेबल, या वर्गीकृत नहीं किया गया है। पुनर्निवेशन पर प्रतिक्रिया देने के बजाय, गुच्छ विश्लेषण प्रदत्त में समानताओं की पहचान करता है और प्रदत्त के प्रत्येक नए टुकड़े में ऐसी समानताओं की उपस्थिति या अनुपस्थिति के आधार पर प्रतिक्रिया करता है। यह दृष्टिकोण उन असंगत प्रदत्त बिंदुओं का पता लगाने में सहायता करता है जो किसी भी समूह में उपयुक्त नहीं होते हैं।

अपर्यवेक्षित शिक्षण का एक केंद्रीय अनुप्रयोग सांख्यिकी में घनत्व अनुमान के क्षेत्र में है,[7]हालाँकि अपर्यवेक्षित शिक्षण में प्रदत्त सुविधाओं को सारांशित और व्याख्या करने वाले कई अन्य कार्यक्षेत्र सम्मिलित हैं। इसकी तुलना पर्यवेक्षित शिक्षण से यह कहकर की जा सकती है कि जबकि पर्यवेक्षित शिक्षण का उद्देश्य निविष्ट प्रदत्त के लेबल पर सशर्त संभाव्यता वितरण का अनुमान लगाना है; अप्रशिक्षित शिक्षण का उद्देश्य एक प्राथमिक संभाव्यता वितरण का अनुमान लगाना है।

दृष्टिकोण

बिना पर्यवेक्षित शिक्षण में उपयोग किए जाने वाले कुछ सबसे सामान्य कलन विधियों में: (1) गुच्छन, (2) विसंगति संसूचन, (3) अव्यक्त चर प्रतिरूप अधिगम के लिए दृष्टिकोण सम्मिलित हैं। प्रत्येक दृष्टिकोण निम्नानुसार कई विधियों का उपयोग करता है:

आघूर्णो की विधि

बिना पर्यवेक्षित शिक्षण के लिए सांख्यिकीय दृष्टिकोणों में से एक आघूर्ण विधि है। आघूर्णो की विधि में, प्रतिरूप में अज्ञात मापदंड (रुचि के) एक या अधिक यादृच्छिक चर के आघूर्णो से संबंधित होते हैं और इस प्रकार, इन अज्ञात मापदंडों का अनुमान आघूर्णो को देखते हुए लगाया जा सकता है। आघूर्णो का अनुमान सामान्यतः अनुभवजन्य रूप से प्रतिरूपों से लगाया जाता है। मूल आघूर्ण प्रथम और द्वितीय क्रम के आघूर्ण हैं। एक यादृच्छिक सदिश के लिए, पहले क्रम का आघूर्ण माध्य सदिश है और दूसरे क्रम का आघूर्ण सहप्रसरण आव्यूह है (जब माध्य शून्य है)। उच्च क्रम के आघूर्णो को सामान्यतः प्रदिश का उपयोग करके दर्शाया जाता है जो कि बहु-आयामी सरणियों के रूप में उच्च क्रम के आव्यूह का सामान्यीकरण है।

विशेष रूप से, अव्यक्त चर प्रतिरूप के मापदंडों को सीखने में आघूर्णो की विधि को प्रभावी दर्शाया गया है। अव्यक्त चर प्रतिरूप सांख्यिकीय प्रतिरूप हैं जहां देखे गए चर के अतिरिक्त, अव्यक्त चर का एक समुच्चय भी उपस्थित होता है जो नहीं देखा जाता है। यंत्र अधिगम में अव्यक्त चर प्रतिरूप का एक अत्यधिक व्यावहारिक उदाहरण विषय मॉडलिंग है जो प्रपत्र के विषय (अव्यक्त चर) के आधार पर प्रपत्र में शब्द (अवलोकित चर) उत्पन्न करने के लिए एक सांख्यिकीय प्रतिरूप है। विषय मॉडलिंग में, प्रपत्र का विषय परिवर्तित करने पर प्रपत्र में शब्द विभिन्न सांख्यिकीय मापदंडों के अनुसार उत्पन्न होते हैं। यह दर्शाया गया है कि आघूर्णो की विधि (टेंसर अपघटन प्रविधि) कुछ मान्यताओं के अंतर्गत अव्यक्त चर प्रतिरूप के एक बड़े वर्ग के मापदंडों को निरंतर पुनर्प्राप्त करती है।[10]

अपेक्षा-अधिकतमकरण कलन विधि (EM) भी अव्यक्त चर प्रतिरूप अधिगम के लिए सबसे व्यावहारिक तरीकों में से एक है। हालाँकि, यह स्थानीय ऑप्टिमा में फंस सकता है और यह प्रत्याभूति नहीं है कि कलन विधि प्रतिरूप के वास्तविक अज्ञात मापदंडों में परिवर्तित हो जाएगा। इसके विपरीत, आघूर्णो की विधि के लिए, कुछ प्रतिबंधों के अंतर्गत वैश्विक अभिसरण की प्रत्याभूति दी जाती है।

यह भी देखें

संदर्भ

  1. Hinton, G. (2012). "A Practical Guide to Training Restricted Boltzmann Machines" (PDF). Neural Networks: Tricks of the Trade. Lecture Notes in Computer Science. Vol. 7700. Springer. pp. 599–619. doi:10.1007/978-3-642-35289-8_32. ISBN 978-3-642-35289-8.
  2. Hinton, Geoffrey (September 2009). "Deep Belief Nets" (video).
  3. Buhmann, J.; Kuhnel, H. (1992). "Unsupervised and supervised data clustering with competitive neural networks". [Proceedings 1992] IJCNN International Joint Conference on Neural Networks. Vol. 4. IEEE. pp. 796–801. doi:10.1109/ijcnn.1992.227220. ISBN 0780305590. S2CID 62651220.
  4. Comesaña-Campos, Alberto; Bouza-Rodríguez, José Benito (June 2016). "An application of Hebbian learning in the design process decision-making". Journal of Intelligent Manufacturing. 27 (3): 487–506. doi:10.1007/s10845-014-0881-z. ISSN 0956-5515. S2CID 207171436.
  5. Carpenter, G.A. & Grossberg, S. (1988). "The ART of adaptive pattern recognition by a self-organizing neural network" (PDF). Computer. 21 (3): 77–88. doi:10.1109/2.33. S2CID 14625094.
  6. Roman, Victor (2019-04-21). "Unsupervised Machine Learning: Clustering Analysis". Medium. Retrieved 2019-10-01.
  7. Jordan, Michael I.; Bishop, Christopher M. (2004). "7. Intelligent Systems §Neural Networks". In Tucker, Allen B. (ed.). Computer Science Handbook (2nd ed.). Chapman & Hall/CRC Press. doi:10.1201/9780203494455. ISBN 1-58488-360-X.
  8. Hastie, Tibshirani & Friedman 2009, pp. 485–586
  9. Garbade, Dr Michael J. (2018-09-12). "Understanding K-means Clustering in Machine Learning". Medium (in English). Retrieved 2019-10-31.
  10. Anandkumar, Animashree; Ge, Rong; Hsu, Daniel; Kakade, Sham; Telgarsky, Matus (2014). "Tensor Decompositions for Learning Latent Variable Models" (PDF). Journal of Machine Learning Research. 15: 2773–2832. arXiv:1210.7559. Bibcode:2012arXiv1210.7559A.
Cite error: <ref> tag with name "Hinton99a" defined in <references> is not used in prior text.


अग्रिम पठन