कॉम्पेटेटिव लर्निंग: Difference between revisions
No edit summary |
No edit summary |
||
(5 intermediate revisions by 3 users not shown) | |||
Line 1: | Line 1: | ||
'''कॉम्पेटेटिव लर्निंग''' आर्टिफिशल न्यूरल नेटवर्क में अनसुपरवाइज्ड लर्निंग का एक रूप है, जिसमें नोड्स इनपुट डेटा के समूह पर प्रतिक्रिया देने के लिए कॉम्पेटेटिव होते हैं।<ref>{{cite book | last = Rumelhart | first = David | author-link = David Rumelhart |author2=David Zipser |author3=James L. McClelland | title = समानांतर वितरित प्रसंस्करण, वॉल्यूम। 1| publisher = MIT Press | year = 1986 | pages = [https://archive.org/details/paralleldistribu00rume/page/151 151–193] | url =https://archive.org/details/paralleldistribu00rume| url-access = registration |display-authors=etal}}</ref> हेब्बियन लर्निंग का एक प्रकार कॉम्पेटेटिव लर्निंग नेटवर्क में प्रत्येक नोड की | '''कॉम्पेटेटिव लर्निंग''' आर्टिफिशल न्यूरल नेटवर्क में अनसुपरवाइज्ड लर्निंग का एक रूप है, जिसमें नोड्स इनपुट डेटा के समूह पर प्रतिक्रिया देने के लिए कॉम्पेटेटिव होते हैं।<ref>{{cite book | last = Rumelhart | first = David | author-link = David Rumelhart |author2=David Zipser |author3=James L. McClelland | title = समानांतर वितरित प्रसंस्करण, वॉल्यूम। 1| publisher = MIT Press | year = 1986 | pages = [https://archive.org/details/paralleldistribu00rume/page/151 151–193] | url =https://archive.org/details/paralleldistribu00rume| url-access = registration |display-authors=etal}}</ref> हेब्बियन लर्निंग का एक प्रकार कॉम्पेटेटिव लर्निंग नेटवर्क में प्रत्येक नोड की स्पेशलाइजेशन को बढ़ाकर कार्य करता है। यह डेटा के भीतर [[क्लस्टर विश्लेषण|क्लस्टर]] को खोजने के लिए सूट है। | ||
कॉम्पेटेटिव लर्निंग के सिद्धांत पर आधारित मॉडल और एल्गोरिदम में [[वेक्टर परिमाणीकरण|क्वांटिजेशन]] और स्व-निर्मित मानचित्र (कोहोनन मानचित्र) सम्मिलित हैं। | कॉम्पेटेटिव लर्निंग के सिद्धांत पर आधारित मॉडल और एल्गोरिदम में [[वेक्टर परिमाणीकरण|क्वांटिजेशन]] और स्व-निर्मित मानचित्र (कोहोनन मानचित्र) सम्मिलित हैं। | ||
Line 5: | Line 5: | ||
== सिद्धांत == | == सिद्धांत == | ||
कॉम्पेटेटिव लर्निंग सिद्धांत के तीन मुख्य एलिमेंट हैं:<ref>Rumelhart, David E., and David Zipser. "[http://onlinelibrary.wiley.com/doi/10.1207/s15516709cog0901_5/pdf Feature discovery by competitive learning]." Cognitive science 9.1 (1985): 75-112.</ref><ref>Haykin, Simon, "Neural Network. A comprehensive foundation." Neural Networks 2.2004 (2004).</ref> | कॉम्पेटेटिव लर्निंग सिद्धांत के तीन मुख्य एलिमेंट हैं:<ref>Rumelhart, David E., and David Zipser. "[http://onlinelibrary.wiley.com/doi/10.1207/s15516709cog0901_5/pdf Feature discovery by competitive learning]." Cognitive science 9.1 (1985): 75-112.</ref><ref>Haykin, Simon, "Neural Network. A comprehensive foundation." Neural Networks 2.2004 (2004).</ref> | ||
* कॉम्पेटेटिव लर्निंग सिद्धांत मे न्यूरॉन्स का एक ऐसा समूह जिससे यादृच्छिक | * कॉम्पेटेटिव लर्निंग सिद्धांत मे न्यूरॉन्स का एक ऐसा समूह जिससे यादृच्छिक डिस्ट्रिब्यूटेड सिनैप्टिक वेट को अलग करने पर भी वह समान रहता हैं। इसलिए इनपुट पैटर्न के दिए गए समूह पर अलग-अलग प्रतिक्रियाएं होती हैं। | ||
*प्रत्येक न्यूरॉन की स्ट्रेंथ (क्षमता) पर लगाई गई एक | *प्रत्येक न्यूरॉन की स्ट्रेंथ (क्षमता) पर लगाई गई एक सीमा है। | ||
* एक ऐसी मशीन जो न्यूरॉन्स को इनपुट के दिए गए समूह पर प्रतिक्रिया करने के लिए कॉम्पेटेटिव लर्निंग की स्वीकृति देती है, जैसे कि एक समय में केवल एक आउटपुट न्यूरॉन (प्रति समूह केवल एक न्यूरॉन) एक्टिव होता है। कॉम्पेटीशन जीतने वाले न्यूरॉन को "विनर-टेक-ऑल" न्यूरॉन कहा जाता है। | * एक ऐसी मशीन जो न्यूरॉन्स को इनपुट के दिए गए समूह पर प्रतिक्रिया करने के लिए कॉम्पेटेटिव लर्निंग की स्वीकृति देती है, जैसे कि एक समय में केवल एक आउटपुट न्यूरॉन (प्रति समूह केवल एक न्यूरॉन) एक्टिव होता है। कॉम्पेटीशन जीतने वाले न्यूरॉन को "विनर-टेक-ऑल" न्यूरॉन कहा जाता है। | ||
कॉम्पेटेटिव लर्निंग सिद्धांत के अनुसार नेटवर्क लर्निंग के प्रत्येक न्यूरॉन्स समान पैटर्न के एसेम्बल पर स्पेसिअलिज्ड किए जाते हैं। ऐसा करने से | कॉम्पेटेटिव लर्निंग सिद्धांत के अनुसार नेटवर्क लर्निंग के प्रत्येक न्यूरॉन्स समान पैटर्न के एसेम्बल पर स्पेसिअलिज्ड किए जाते हैं। ऐसा करने से उनके इनपुट पैटर्न के कई क्लास 'फीचर डिटेक्टर' बन जाते हैं। इसका तथ्य यह है कि कॉम्पेटेटिव नेटवर्क कुछ आउटपुट न्यूरॉन्स में से एक में कॉरर्लाटेड इनपुट के समूह को रिकोड करते हैं और अनिवार्य रूप से रिप्रजेंटेशन में रिडंडेंसीय को अलग कर देते हैं जो बायोलॉजिकल सेंसरी सिस्टम में प्रसंस्करण का एक एसेंशियल भाग है।<ref>Barlow, Horace B. "Unsupervised learning." Neural computation 1.3 (1989): 295-311.</ref><ref>Edmund T.. Rolls, and Gustavo Deco. Computational neuroscience of vision. Oxford: Oxford university press, 2002.</ref> | ||
== आर्किटेक्चर और कार्यान्वयन == | == आर्किटेक्चर और कार्यान्वयन == | ||
[[File:Competitive neural network architecture.png|thumb|कॉम्पेटेटिव न्यूरल नेटवर्क आर्किटेक्चर|298x298px]]कॉम्पेटेटिव लर्निंग को सामान्यतः न्यूरल नेटवर्क लर्निंग के साथ कार्यान्वित किया जाता है, जिसमें एक हिडन-लेयर (गुप्त-परत) होती है जिसे सामान्यतः "कॉम्पेटेटिव लेयर" के रूप में जाना जाता है।<ref>{{cite web |url=http://jsalatas.ictpro.gr/implementation-of-competitive-learning-networks-for-weka/ |title=WEKA के लिए प्रतिस्पर्धी शिक्षण नेटवर्क का कार्यान्वयन|author=Salatas, John |date= 24 August 2011|publisher= ICT Research Blog|access-date=28 January 2012}}</ref> प्रत्येक कॉम्पेटेटिव न्यूरॉन के नेटवर्क को <math>{\mathbf{w}}_i = \left( {w_{i1} ,..,w_{id} } \right)^T ,i = 1,..,M</math> के संचालन द्वारा वर्णित किया गया है और इनपुट डेटा <math>{\mathbf{x}}^n = \left( {x_{n1} ,..,x_{nd} } \right)^T \in \mathbb{R}^d</math> के बीच समानता माप की गणना की जाती है। | [[File:Competitive neural network architecture.png|thumb|कॉम्पेटेटिव न्यूरल नेटवर्क आर्किटेक्चर|298x298px]]कॉम्पेटेटिव लर्निंग को सामान्यतः न्यूरल नेटवर्क लर्निंग के साथ कार्यान्वित किया जाता है, जिसमें एक हिडन-लेयर (गुप्त-परत) होती है जिसे सामान्यतः "कॉम्पेटेटिव लेयर" के रूप में जाना जाता है।<ref>{{cite web |url=http://jsalatas.ictpro.gr/implementation-of-competitive-learning-networks-for-weka/ |title=WEKA के लिए प्रतिस्पर्धी शिक्षण नेटवर्क का कार्यान्वयन|author=Salatas, John |date= 24 August 2011|publisher= ICT Research Blog|access-date=28 January 2012}}</ref> प्रत्येक कॉम्पेटेटिव न्यूरॉन के नेटवर्क को <math>{\mathbf{w}}_i = \left( {w_{i1} ,..,w_{id} } \right)^T ,i = 1,..,M</math> के संचालन द्वारा वर्णित किया गया है और इनपुट डेटा <math>{\mathbf{x}}^n = \left( {x_{n1} ,..,x_{nd} } \right)^T \in \mathbb{R}^d</math> के बीच समानता माप की गणना की जाती है। | ||
प्रत्येक इनपुट संचालन के लिए कॉम्पेटेटिव न्यूरॉन्स एक दूसरे के साथ यह देखने के लिए "कॉम्पेटेटिव" होते हैं कि उनमें से कौन सा उस विशेष इनपुट संचालन के सबसे समान है। विनर न्यूरॉन m अपना आउटपुट <math>o_m = 1</math> प्रयुक्त करता है और अन्य सभी कॉम्पेटेटिव न्यूरॉन अपना आउटपुट <math>o_i = 0 , i = 1,..,M, i \ne m</math> प्रयुक्त करते हैं। प्रायः समानता को मापने के लिए यूक्लिडियन दूरी के विपरीत <math>\left\| {{\mathbf{x}} - {\mathbf{w}}_i } \right\|</math> का उपयोग इनपुट संचालन <math>{\mathbf{x}}^n</math> और वेट | प्रत्येक इनपुट संचालन के लिए कॉम्पेटेटिव न्यूरॉन्स एक दूसरे के साथ यह देखने के लिए "कॉम्पेटेटिव" होते हैं कि उनमें से कौन सा उस विशेष इनपुट संचालन के सबसे समान है। विनर न्यूरॉन m अपना आउटपुट <math>o_m = 1</math> प्रयुक्त करता है और अन्य सभी कॉम्पेटेटिव न्यूरॉन अपना आउटपुट <math>o_i = 0 , i = 1,..,M, i \ne m</math> प्रयुक्त करते हैं। प्रायः समानता को मापने के लिए यूक्लिडियन दूरी के विपरीत <math>\left\| {{\mathbf{x}} - {\mathbf{w}}_i } \right\|</math> का उपयोग इनपुट संचालन <math>{\mathbf{x}}^n</math> और वेट-संचालन <math>{\mathbf{w}}_i</math> के बीच किया जाता है। | ||
== एल्गोरिथ्म == | == एल्गोरिथ्म == | ||
Line 20: | Line 20: | ||
यहाँ इनपुट डेटा के भीतर तीन क्लस्टर को खोजने के लिए एक सरल कॉम्पेटेटिव लर्निंग एल्गोरिदम का उपयोग किया जाता है: | यहाँ इनपुट डेटा के भीतर तीन क्लस्टर को खोजने के लिए एक सरल कॉम्पेटेटिव लर्निंग एल्गोरिदम का उपयोग किया जाता है: | ||
1. (सेट-अप) सभी सेंसरों के एक समूह को तीन अलग-अलग नोड्स में प्रयुक्त किया जाता है ताकि प्रत्येक नोड प्रत्येक सेंसर से संबद्ध हो और प्रत्येक नोड अपने सेंसर को जो वेट देता है उसे यादृच्छिक रूप से 0.0 और 1.0 के बीच | 1. (सेट-अप) सभी सेंसरों के एक समूह को तीन अलग-अलग नोड्स में प्रयुक्त किया जाता है ताकि प्रत्येक नोड प्रत्येक सेंसर से संबद्ध हो और प्रत्येक नोड अपने सेंसर को जो वेट देता है उसे यादृच्छिक रूप से 0.0 और 1.0 के बीच प्रयुक्त किया जाता है। माना कि प्रत्येक नोड का आउटपुट उसके सभी सेंसरों का योग है तब प्रत्येक सेंसर की एकल पावर को उसके वेट से गुणा किया जाता है। | ||
2. जब नेट पर एक इनपुट दिखाया जाता है, तो अधिकतम आउटपुट वाला नोड विजेता (विनर) माना जाता है। इनपुट को उस नोड के क्लस्टर के भीतर वर्गीकृत किया जाता है। | 2. जब नेट पर एक इनपुट दिखाया जाता है, तो अधिकतम आउटपुट वाला नोड विजेता (विनर) माना जाता है। इनपुट को उस नोड के क्लस्टर के भीतर वर्गीकृत किया जाता है। | ||
3. विजेता अपने प्रत्येक वेट को अपडेट करता है और वेट को उन कनेक्शनों से स्थानांतरित करता है जो उसे वीक-सिग्नल देते हैं जिससे वे उसे स्ट्रांग-सिग्नल देते हैं। | 3. विजेता अपने प्रत्येक वेट को अपडेट करता है और वेट को उन कनेक्शनों से स्थानांतरित करता है जो उसे वीक-सिग्नल देते हैं, जिससे वे उसे स्ट्रांग-सिग्नल देते हैं। | ||
इस प्रकार जैसे-जैसे अधिक डेटा प्राप्त होता है तो प्रत्येक नोड उस क्लस्टर के केंद्र पर एकत्रित हो जाते है सामान्यतः जिसको वे रिप्रेजेंट करते हैं। इस प्रकार ये क्लस्टर में इनपुट के लिए अधिक | इस प्रकार जैसे-जैसे अधिक डेटा प्राप्त होता है तो प्रत्येक नोड उस क्लस्टर के केंद्र पर एकत्रित हो जाते है सामान्यतः जिसको वे रिप्रेजेंट करते हैं। इस प्रकार ये क्लस्टर में इनपुट के लिए अधिक स्ट्रांग और अन्य क्लस्टर में इनपुट के लिए अधिक कमजोर (वीक) होते हैं। | ||
==यह भी देखें== | ==यह भी देखें== | ||
Line 42: | Line 42: | ||
श्रेणी:पर्यवेक्षित न किया गया लर्निंग | श्रेणी:पर्यवेक्षित न किया गया लर्निंग | ||
[[Category:Created On 25/07/2023]] | [[Category:Created On 25/07/2023]] | ||
[[Category:Machine Translated Page]] | |||
[[Category:Pages with script errors]] | |||
[[Category:Templates Vigyan Ready]] |
Latest revision as of 09:57, 22 August 2023
कॉम्पेटेटिव लर्निंग आर्टिफिशल न्यूरल नेटवर्क में अनसुपरवाइज्ड लर्निंग का एक रूप है, जिसमें नोड्स इनपुट डेटा के समूह पर प्रतिक्रिया देने के लिए कॉम्पेटेटिव होते हैं।[1] हेब्बियन लर्निंग का एक प्रकार कॉम्पेटेटिव लर्निंग नेटवर्क में प्रत्येक नोड की स्पेशलाइजेशन को बढ़ाकर कार्य करता है। यह डेटा के भीतर क्लस्टर को खोजने के लिए सूट है।
कॉम्पेटेटिव लर्निंग के सिद्धांत पर आधारित मॉडल और एल्गोरिदम में क्वांटिजेशन और स्व-निर्मित मानचित्र (कोहोनन मानचित्र) सम्मिलित हैं।
सिद्धांत
कॉम्पेटेटिव लर्निंग सिद्धांत के तीन मुख्य एलिमेंट हैं:[2][3]
- कॉम्पेटेटिव लर्निंग सिद्धांत मे न्यूरॉन्स का एक ऐसा समूह जिससे यादृच्छिक डिस्ट्रिब्यूटेड सिनैप्टिक वेट को अलग करने पर भी वह समान रहता हैं। इसलिए इनपुट पैटर्न के दिए गए समूह पर अलग-अलग प्रतिक्रियाएं होती हैं।
- प्रत्येक न्यूरॉन की स्ट्रेंथ (क्षमता) पर लगाई गई एक सीमा है।
- एक ऐसी मशीन जो न्यूरॉन्स को इनपुट के दिए गए समूह पर प्रतिक्रिया करने के लिए कॉम्पेटेटिव लर्निंग की स्वीकृति देती है, जैसे कि एक समय में केवल एक आउटपुट न्यूरॉन (प्रति समूह केवल एक न्यूरॉन) एक्टिव होता है। कॉम्पेटीशन जीतने वाले न्यूरॉन को "विनर-टेक-ऑल" न्यूरॉन कहा जाता है।
कॉम्पेटेटिव लर्निंग सिद्धांत के अनुसार नेटवर्क लर्निंग के प्रत्येक न्यूरॉन्स समान पैटर्न के एसेम्बल पर स्पेसिअलिज्ड किए जाते हैं। ऐसा करने से उनके इनपुट पैटर्न के कई क्लास 'फीचर डिटेक्टर' बन जाते हैं। इसका तथ्य यह है कि कॉम्पेटेटिव नेटवर्क कुछ आउटपुट न्यूरॉन्स में से एक में कॉरर्लाटेड इनपुट के समूह को रिकोड करते हैं और अनिवार्य रूप से रिप्रजेंटेशन में रिडंडेंसीय को अलग कर देते हैं जो बायोलॉजिकल सेंसरी सिस्टम में प्रसंस्करण का एक एसेंशियल भाग है।[4][5]
आर्किटेक्चर और कार्यान्वयन
कॉम्पेटेटिव लर्निंग को सामान्यतः न्यूरल नेटवर्क लर्निंग के साथ कार्यान्वित किया जाता है, जिसमें एक हिडन-लेयर (गुप्त-परत) होती है जिसे सामान्यतः "कॉम्पेटेटिव लेयर" के रूप में जाना जाता है।[6] प्रत्येक कॉम्पेटेटिव न्यूरॉन के नेटवर्क को के संचालन द्वारा वर्णित किया गया है और इनपुट डेटा के बीच समानता माप की गणना की जाती है।
प्रत्येक इनपुट संचालन के लिए कॉम्पेटेटिव न्यूरॉन्स एक दूसरे के साथ यह देखने के लिए "कॉम्पेटेटिव" होते हैं कि उनमें से कौन सा उस विशेष इनपुट संचालन के सबसे समान है। विनर न्यूरॉन m अपना आउटपुट प्रयुक्त करता है और अन्य सभी कॉम्पेटेटिव न्यूरॉन अपना आउटपुट प्रयुक्त करते हैं। प्रायः समानता को मापने के लिए यूक्लिडियन दूरी के विपरीत का उपयोग इनपुट संचालन और वेट-संचालन के बीच किया जाता है।
एल्गोरिथ्म
यहाँ इनपुट डेटा के भीतर तीन क्लस्टर को खोजने के लिए एक सरल कॉम्पेटेटिव लर्निंग एल्गोरिदम का उपयोग किया जाता है:
1. (सेट-अप) सभी सेंसरों के एक समूह को तीन अलग-अलग नोड्स में प्रयुक्त किया जाता है ताकि प्रत्येक नोड प्रत्येक सेंसर से संबद्ध हो और प्रत्येक नोड अपने सेंसर को जो वेट देता है उसे यादृच्छिक रूप से 0.0 और 1.0 के बीच प्रयुक्त किया जाता है। माना कि प्रत्येक नोड का आउटपुट उसके सभी सेंसरों का योग है तब प्रत्येक सेंसर की एकल पावर को उसके वेट से गुणा किया जाता है।
2. जब नेट पर एक इनपुट दिखाया जाता है, तो अधिकतम आउटपुट वाला नोड विजेता (विनर) माना जाता है। इनपुट को उस नोड के क्लस्टर के भीतर वर्गीकृत किया जाता है।
3. विजेता अपने प्रत्येक वेट को अपडेट करता है और वेट को उन कनेक्शनों से स्थानांतरित करता है जो उसे वीक-सिग्नल देते हैं, जिससे वे उसे स्ट्रांग-सिग्नल देते हैं।
इस प्रकार जैसे-जैसे अधिक डेटा प्राप्त होता है तो प्रत्येक नोड उस क्लस्टर के केंद्र पर एकत्रित हो जाते है सामान्यतः जिसको वे रिप्रेजेंट करते हैं। इस प्रकार ये क्लस्टर में इनपुट के लिए अधिक स्ट्रांग और अन्य क्लस्टर में इनपुट के लिए अधिक कमजोर (वीक) होते हैं।
यह भी देखें
संदर्भ
- ↑ Rumelhart, David; David Zipser; James L. McClelland; et al. (1986). समानांतर वितरित प्रसंस्करण, वॉल्यूम। 1. MIT Press. pp. 151–193.
- ↑ Rumelhart, David E., and David Zipser. "Feature discovery by competitive learning." Cognitive science 9.1 (1985): 75-112.
- ↑ Haykin, Simon, "Neural Network. A comprehensive foundation." Neural Networks 2.2004 (2004).
- ↑ Barlow, Horace B. "Unsupervised learning." Neural computation 1.3 (1989): 295-311.
- ↑ Edmund T.. Rolls, and Gustavo Deco. Computational neuroscience of vision. Oxford: Oxford university press, 2002.
- ↑ Salatas, John (24 August 2011). "WEKA के लिए प्रतिस्पर्धी शिक्षण नेटवर्क का कार्यान्वयन". ICT Research Blog. Retrieved 28 January 2012.
अतिरिक्त जानकारी और सॉफ्टवेयर
- ड्राफ्ट रिपोर्ट कुछ कॉम्पेटेटिव सीखने के तरीके (इसमें कई संबंधित एल्गोरिदम का विवरण सम्मिलित है)
- DemoGNG - कॉम्पेटेटिव लर्निंग विधियों के लिए जावा सिम्युलेटर
श्रेणी:आर्टिफिशल न्यूरल नेटवर्क श्रेणी:पर्यवेक्षित न किया गया लर्निंग