कॉम्पेटेटिव लर्निंग: Difference between revisions

From Vigyanwiki
No edit summary
No edit summary
 
(6 intermediate revisions by 3 users not shown)
Line 1: Line 1:
'''कॉम्पेटेटिव लर्निंग''' आर्टिफिशल न्यूरल नेटवर्क में बिना पर्यवेक्षित लर्निंग का एक रूप है, जिसमें नोड्स इनपुट डेटा के सबसेट पर प्रतिक्रिया देने के अधिकार के लिए प्रतिस्पर्धा करते हैं।<ref>{{cite book | last = Rumelhart | first = David | author-link = David Rumelhart |author2=David Zipser |author3=James L. McClelland | title = समानांतर वितरित प्रसंस्करण, वॉल्यूम। 1| publisher = MIT Press | year = 1986 | pages = [https://archive.org/details/paralleldistribu00rume/page/151 151–193] | url =https://archive.org/details/paralleldistribu00rume| url-access = registration |display-authors=etal}}</ref> हेब्बियन लर्निंग का एक प्रकार, कॉम्पेटेटिव लर्निंग नेटवर्क में प्रत्येक नोड की विशेषज्ञता को बढ़ाकर कार्य करता है। यह डेटा के भीतर [[क्लस्टर विश्लेषण]] खोजने के लिए उपयुक्त है।
'''कॉम्पेटेटिव लर्निंग''' आर्टिफिशल न्यूरल नेटवर्क में अनसुपरवाइज्ड लर्निंग का एक रूप है, जिसमें नोड्स इनपुट डेटा के समूह पर प्रतिक्रिया देने के लिए कॉम्पेटेटिव होते हैं।<ref>{{cite book | last = Rumelhart | first = David | author-link = David Rumelhart |author2=David Zipser |author3=James L. McClelland | title = समानांतर वितरित प्रसंस्करण, वॉल्यूम। 1| publisher = MIT Press | year = 1986 | pages = [https://archive.org/details/paralleldistribu00rume/page/151 151–193] | url =https://archive.org/details/paralleldistribu00rume| url-access = registration |display-authors=etal}}</ref> हेब्बियन लर्निंग का एक प्रकार कॉम्पेटेटिव लर्निंग नेटवर्क में प्रत्येक नोड की स्पेशलाइजेशन को बढ़ाकर कार्य करता है। यह डेटा के भीतर [[क्लस्टर विश्लेषण|क्लस्टर]] को खोजने के लिए सूट है।


प्रतिस्पर्धी शिक्षा के सिद्धांत पर आधारित मॉडल और एल्गोरिदम में [[वेक्टर परिमाणीकरण]] और स्व-व्यवस्थित मानचित्र (कोहोनन मानचित्र) सम्मिलित हैं।
कॉम्पेटेटिव लर्निंग के सिद्धांत पर आधारित मॉडल और एल्गोरिदम में [[वेक्टर परिमाणीकरण|क्वांटिजेशन]] और स्व-निर्मित मानचित्र (कोहोनन मानचित्र) सम्मिलित हैं।


== सिद्धांत ==
== सिद्धांत ==
कॉम्पेटेटिव लर्निंग नियम के तीन बुनियादी एलिमेंट हैं:<ref>Rumelhart, David E., and David Zipser. "[http://onlinelibrary.wiley.com/doi/10.1207/s15516709cog0901_5/pdf Feature discovery by competitive learning]." Cognitive science 9.1 (1985): 75-112.</ref><ref>Haykin, Simon, "Neural Network. A comprehensive foundation." Neural Networks 2.2004 (2004).</ref>
कॉम्पेटेटिव लर्निंग सिद्धांत के तीन मुख्य एलिमेंट हैं:<ref>Rumelhart, David E., and David Zipser. "[http://onlinelibrary.wiley.com/doi/10.1207/s15516709cog0901_5/pdf Feature discovery by competitive learning]." Cognitive science 9.1 (1985): 75-112.</ref><ref>Haykin, Simon, "Neural Network. A comprehensive foundation." Neural Networks 2.2004 (2004).</ref>
* न्यूरॉन्स का एक सेट जो कुछ बेतरतीब ढंग से वितरित सिनैप्टिक भार को छोड़कर सभी समान हैं, और इसलिए इनपुट पैटर्न के दिए गए सेट पर अलग-अलग प्रतिक्रिया करते हैं
* कॉम्पेटेटिव लर्निंग सिद्धांत मे न्यूरॉन्स का एक ऐसा समूह जिससे यादृच्छिक डिस्ट्रिब्यूटेड सिनैप्टिक वेट को अलग करने पर भी वह समान रहता हैं। इसलिए इनपुट पैटर्न के दिए गए समूह पर अलग-अलग प्रतिक्रियाएं होती हैं।
* प्रत्येक न्यूरॉन की ताकत पर लगाई गई एक सीमा
*प्रत्येक न्यूरॉन की स्ट्रेंथ (क्षमता) पर लगाई गई एक सीमा है।
* एक तंत्र जो न्यूरॉन्स को इनपुट के दिए गए सबसेट पर प्रतिक्रिया करने के अधिकार के लिए प्रतिस्पर्धा करने की अनुमति देता है, जैसे कि एक समय में केवल एक आउटपुट न्यूरॉन (या प्रति समूह केवल एक न्यूरॉन), सक्रिय (यानी चालू) होता है। प्रतियोगिता जीतने वाले न्यूरॉन को विनर-टेक-ऑल (कंप्यूटिंग) कहा जाता है| विनर-टेक-ऑल न्यूरॉन।
* एक ऐसी मशीन जो न्यूरॉन्स को इनपुट के दिए गए समूह पर प्रतिक्रिया करने के लिए कॉम्पेटेटिव लर्निंग की स्वीकृति देती है, जैसे कि एक समय में केवल एक आउटपुट न्यूरॉन (प्रति समूह केवल एक न्यूरॉन) एक्टिव होता है। कॉम्पेटीशन जीतने वाले न्यूरॉन को "विनर-टेक-ऑल" न्यूरॉन कहा जाता है।


तदनुसार, नेटवर्क के व्यक्तिगत न्यूरॉन्स समान पैटर्न के संयोजन पर विशेषज्ञ बनना सीखते हैं और ऐसा करने से वे इनपुट पैटर्न के विभिन्न वर्गों के लिए 'फीचर डिटेक्टर' बन जाते हैं।
कॉम्पेटेटिव लर्निंग सिद्धांत के अनुसार नेटवर्क लर्निंग के प्रत्येक न्यूरॉन्स समान पैटर्न के एसेम्बल पर स्पेसिअलिज्ड किए जाते हैं। ऐसा करने से उनके इनपुट पैटर्न के कई क्लास 'फीचर डिटेक्टर' बन जाते हैं। इसका तथ्य यह है कि कॉम्पेटेटिव नेटवर्क कुछ आउटपुट न्यूरॉन्स में से एक में कॉरर्लाटेड इनपुट के समूह को रिकोड करते हैं और अनिवार्य रूप से रिप्रजेंटेशन में रिडंडेंसीय को अलग कर देते हैं जो बायोलॉजिकल सेंसरी सिस्टम में प्रसंस्करण का एक एसेंशियल भाग है।<ref>Barlow, Horace B. "Unsupervised learning." Neural computation 1.3 (1989): 295-311.</ref><ref>Edmund T.. Rolls, and Gustavo Deco. Computational neuroscience of vision. Oxford: Oxford university press, 2002.</ref>
 
तथ्य यह है कि प्रतिस्पर्धी नेटवर्क कुछ आउटपुट न्यूरॉन्स में से एक में सहसंबद्ध इनपुट के सेट को रिकोड करते हैं, अनिवार्य रूप से प्रतिनिधित्व में अतिरेक को हटा देते हैं जो जैविक संवेदी प्रणालियों में प्रसंस्करण का एक अनिवार्य हिस्सा है।<ref>Barlow, Horace B. "Unsupervised learning." Neural computation 1.3 (1989): 295-311.</ref><ref>Edmund T.. Rolls, and Gustavo Deco. Computational neuroscience of vision. Oxford: Oxford university press, 2002.</ref>
== आर्किटेक्चर और कार्यान्वयन ==
== आर्किटेक्चर और कार्यान्वयन ==


[[File:Competitive neural network architecture.png|thumb|प्रतिस्पर्धी न्यूरल नेटवर्क आर्किटेक्चर]]कॉम्पेटेटिव लर्निंग सामान्यतः न्यूरल नेटवर्क के साथ कार्यान्वित किया जाता है जिसमें एक छिपी हुई परत होती है जिसे सामान्यतः "प्रतिस्पर्धी परत" के रूप में जाना जाता है।<ref>{{cite web |url=http://jsalatas.ictpro.gr/implementation-of-competitive-learning-networks-for-weka/ |title=WEKA के लिए प्रतिस्पर्धी शिक्षण नेटवर्क का कार्यान्वयन|author=Salatas, John |date= 24 August 2011|publisher= ICT Research Blog|access-date=28 January 2012}}</ref> प्रत्येक प्रतिस्पर्धी न्यूरॉन का वर्णन भार के वेक्टर द्वारा किया जाता है <math>{\mathbf{w}}_i = \left( {w_{i1} ,..,w_{id} } \right)^T ,i = 1,..,M</math> और इनपुट डेटा के बीच [[समानता माप]] की गणना करता है <math>{\mathbf{x}}^n = \left( {x_{n1} ,..,x_{nd} } \right)^T \in \mathbb{R}^d</math> और वजन वेक्टर <math>{\mathbf{w}}_i</math> .
[[File:Competitive neural network architecture.png|thumb|कॉम्पेटेटिव न्यूरल नेटवर्क आर्किटेक्चर|298x298px]]कॉम्पेटेटिव लर्निंग को सामान्यतः न्यूरल नेटवर्क लर्निंग के साथ कार्यान्वित किया जाता है, जिसमें एक हिडन-लेयर (गुप्त-परत) होती है जिसे सामान्यतः "कॉम्पेटेटिव लेयर" के रूप में जाना जाता है।<ref>{{cite web |url=http://jsalatas.ictpro.gr/implementation-of-competitive-learning-networks-for-weka/ |title=WEKA के लिए प्रतिस्पर्धी शिक्षण नेटवर्क का कार्यान्वयन|author=Salatas, John |date= 24 August 2011|publisher= ICT Research Blog|access-date=28 January 2012}}</ref> प्रत्येक कॉम्पेटेटिव न्यूरॉन के नेटवर्क को <math>{\mathbf{w}}_i = \left( {w_{i1} ,..,w_{id} } \right)^T ,i = 1,..,M</math> के संचालन द्वारा वर्णित किया गया है और इनपुट डेटा <math>{\mathbf{x}}^n = \left( {x_{n1} ,..,x_{nd} } \right)^T \in \mathbb{R}^d</math> के बीच समानता माप की गणना की जाती है।


प्रत्येक इनपुट वेक्टर के लिए, प्रतिस्पर्धी न्यूरॉन्स एक दूसरे के साथ "प्रतिस्पर्धा" करते हैं यह देखने के लिए कि उनमें से कौन सा उस विशेष इनपुट वेक्टर के सबसे समान है। विजेता न्यूरॉन m अपना आउटपुट <math>o_m = 1</math> सेट करता है और अन्य सभी प्रतिस्पर्धी न्यूरॉन अपना आउटपुट <math>o_i = 0 , i = 1,..,M, i \ne m</math> सेट करते हैं।
प्रत्येक इनपुट संचालन के लिए कॉम्पेटेटिव न्यूरॉन्स एक दूसरे के साथ यह देखने के लिए "कॉम्पेटेटिव" होते हैं कि उनमें से कौन सा उस विशेष इनपुट संचालन के सबसे समान है। विनर न्यूरॉन m अपना आउटपुट <math>o_m = 1</math> प्रयुक्त करता है और अन्य सभी कॉम्पेटेटिव न्यूरॉन अपना आउटपुट <math>o_i = 0 , i = 1,..,M, i \ne m</math> प्रयुक्त करते हैं। प्रायः समानता को मापने के लिए यूक्लिडियन दूरी के विपरीत <math>\left\| {{\mathbf{x}} - {\mathbf{w}}_i } \right\|</math> का उपयोग इनपुट संचालन <math>{\mathbf{x}}^n</math> और वेट-संचालन <math>{\mathbf{w}}_i</math> के बीच किया जाता है।


सामान्यतः समानता को मापने के लिए यूक्लिडियन दूरी के व्युत्क्रम <math>\left\| {{\mathbf{x}} - {\mathbf{w}}_i } \right\|</math> का उपयोग इनपुट वेक्टर <math>{\mathbf{x}}^n</math><nowiki> और वेट वेक्टर {w}}}_{i के बीच </nowiki><math>{\mathbf{w}}_i</math> का उपयोग किया जाता है।
== एल्गोरिथ्म ==


== उदाहरण एल्गोरिथ्म ==
यहाँ इनपुट डेटा के भीतर तीन क्लस्टर को खोजने के लिए एक सरल कॉम्पेटेटिव लर्निंग एल्गोरिदम का उपयोग किया जाता है:


यहां कुछ इनपुट डेटा के भीतर तीन क्लस्टर खोजने के लिए एक सरल कॉम्पेटेटिव लर्निंग एल्गोरिदम है।
1. (सेट-अप) सभी सेंसरों के एक समूह को तीन अलग-अलग नोड्स में प्रयुक्त किया जाता है ताकि प्रत्येक नोड प्रत्येक सेंसर से संबद्ध हो और प्रत्येक नोड अपने सेंसर को जो वेट देता है उसे यादृच्छिक रूप से 0.0 और 1.0 के बीच प्रयुक्त किया जाता है। माना कि प्रत्येक नोड का आउटपुट उसके सभी सेंसरों का योग है तब प्रत्येक सेंसर की एकल पावर को उसके वेट से गुणा किया जाता है।


1. (सेट-अप) सभी सेंसरों के एक सेट को तीन अलग-अलग नोड्स में फीड करने दें, ताकि प्रत्येक नोड प्रत्येक सेंसर से जुड़ा हो। प्रत्येक नोड अपने सेंसर को जो भार देता है उसे यादृच्छिक रूप से 0.0 और 1.0 के बीच सेट करें। मान लीजिए कि प्रत्येक नोड का आउटपुट उसके सभी सेंसरों का योग है, प्रत्येक सेंसर की सिग्नल शक्ति उसके वजन से गुणा की जाती है।
2. जब नेट पर एक इनपुट दिखाया जाता है, तो अधिकतम आउटपुट वाला नोड विजेता (विनर) माना जाता है। इनपुट को उस नोड के क्लस्टर के भीतर वर्गीकृत किया जाता है।


2. जब नेट पर एक इनपुट दिखाया जाता है, तो उच्चतम आउटपुट वाला नोड विजेता माना जाता है। इनपुट को उस नोड के अनुरूप क्लस्टर के भीतर वर्गीकृत किया गया है।
3. विजेता अपने प्रत्येक वेट को अपडेट करता है और वेट को उन कनेक्शनों से स्थानांतरित करता है जो उसे वीक-सिग्नल देते हैं, जिससे वे उसे स्ट्रांग-सिग्नल देते हैं।


3. विजेता अपने प्रत्येक वजन को अपडेट करता है, वजन को उन कनेक्शनों से स्थानांतरित करता है जो उसे कमजोर सिग्नल देते हैं जो उसे मजबूत सिग्नल देते हैं।
इस प्रकार जैसे-जैसे अधिक डेटा प्राप्त होता है तो प्रत्येक नोड उस क्लस्टर के केंद्र पर एकत्रित हो जाते है सामान्यतः जिसको वे रिप्रेजेंट करते हैं। इस प्रकार ये क्लस्टर में इनपुट के लिए अधिक स्ट्रांग और अन्य क्लस्टर में इनपुट के लिए अधिक कमजोर (वीक) होते हैं।
 
इस प्रकार, जैसे-जैसे अधिक डेटा प्राप्त होता है, प्रत्येक नोड उस क्लस्टर के केंद्र पर एकत्रित होता है जिसका वह प्रतिनिधित्व करता है और इस क्लस्टर में इनपुट के लिए अधिक मजबूती से सक्रिय होता है और अन्य क्लस्टर में इनपुट के लिए अधिक कमजोर रूप से सक्रिय होता है।


==यह भी देखें==
==यह भी देखें==
Line 40: Line 36:
{{reflist}}
{{reflist}}
==अतिरिक्त जानकारी और सॉफ्टवेयर==
==अतिरिक्त जानकारी और सॉफ्टवेयर==
* [http://www.demogng.de/JavaPaper/t.html ड्राफ्ट रिपोर्ट कुछ प्रतिस्पर्धी सीखने के तरीके] (इसमें कई संबंधित एल्गोरिदम का विवरण सम्मिलित है)
* [http://www.demogng.de/JavaPaper/t.html ड्राफ्ट रिपोर्ट कुछ कॉम्पेटेटिव सीखने के तरीके] (इसमें कई संबंधित एल्गोरिदम का विवरण सम्मिलित है)
* [http://www.demogng.de DemoGNG - कॉम्पेटेटिव लर्निंग विधियों के लिए जावा सिम्युलेटर]
* [http://www.demogng.de DemoGNG - कॉम्पेटेटिव लर्निंग विधियों के लिए जावा सिम्युलेटर]


Line 46: Line 42:
श्रेणी:पर्यवेक्षित न किया गया लर्निंग
श्रेणी:पर्यवेक्षित न किया गया लर्निंग


[[Category: Machine Translated Page]]
[[Category:Created On 25/07/2023]]
[[Category:Created On 25/07/2023]]
[[Category:Machine Translated Page]]
[[Category:Pages with script errors]]
[[Category:Templates Vigyan Ready]]

Latest revision as of 09:57, 22 August 2023

कॉम्पेटेटिव लर्निंग आर्टिफिशल न्यूरल नेटवर्क में अनसुपरवाइज्ड लर्निंग का एक रूप है, जिसमें नोड्स इनपुट डेटा के समूह पर प्रतिक्रिया देने के लिए कॉम्पेटेटिव होते हैं।[1] हेब्बियन लर्निंग का एक प्रकार कॉम्पेटेटिव लर्निंग नेटवर्क में प्रत्येक नोड की स्पेशलाइजेशन को बढ़ाकर कार्य करता है। यह डेटा के भीतर क्लस्टर को खोजने के लिए सूट है।

कॉम्पेटेटिव लर्निंग के सिद्धांत पर आधारित मॉडल और एल्गोरिदम में क्वांटिजेशन और स्व-निर्मित मानचित्र (कोहोनन मानचित्र) सम्मिलित हैं।

सिद्धांत

कॉम्पेटेटिव लर्निंग सिद्धांत के तीन मुख्य एलिमेंट हैं:[2][3]

  • कॉम्पेटेटिव लर्निंग सिद्धांत मे न्यूरॉन्स का एक ऐसा समूह जिससे यादृच्छिक डिस्ट्रिब्यूटेड सिनैप्टिक वेट को अलग करने पर भी वह समान रहता हैं। इसलिए इनपुट पैटर्न के दिए गए समूह पर अलग-अलग प्रतिक्रियाएं होती हैं।
  • प्रत्येक न्यूरॉन की स्ट्रेंथ (क्षमता) पर लगाई गई एक सीमा है।
  • एक ऐसी मशीन जो न्यूरॉन्स को इनपुट के दिए गए समूह पर प्रतिक्रिया करने के लिए कॉम्पेटेटिव लर्निंग की स्वीकृति देती है, जैसे कि एक समय में केवल एक आउटपुट न्यूरॉन (प्रति समूह केवल एक न्यूरॉन) एक्टिव होता है। कॉम्पेटीशन जीतने वाले न्यूरॉन को "विनर-टेक-ऑल" न्यूरॉन कहा जाता है।

कॉम्पेटेटिव लर्निंग सिद्धांत के अनुसार नेटवर्क लर्निंग के प्रत्येक न्यूरॉन्स समान पैटर्न के एसेम्बल पर स्पेसिअलिज्ड किए जाते हैं। ऐसा करने से उनके इनपुट पैटर्न के कई क्लास 'फीचर डिटेक्टर' बन जाते हैं। इसका तथ्य यह है कि कॉम्पेटेटिव नेटवर्क कुछ आउटपुट न्यूरॉन्स में से एक में कॉरर्लाटेड इनपुट के समूह को रिकोड करते हैं और अनिवार्य रूप से रिप्रजेंटेशन में रिडंडेंसीय को अलग कर देते हैं जो बायोलॉजिकल सेंसरी सिस्टम में प्रसंस्करण का एक एसेंशियल भाग है।[4][5]

आर्किटेक्चर और कार्यान्वयन

कॉम्पेटेटिव न्यूरल नेटवर्क आर्किटेक्चर

कॉम्पेटेटिव लर्निंग को सामान्यतः न्यूरल नेटवर्क लर्निंग के साथ कार्यान्वित किया जाता है, जिसमें एक हिडन-लेयर (गुप्त-परत) होती है जिसे सामान्यतः "कॉम्पेटेटिव लेयर" के रूप में जाना जाता है।[6] प्रत्येक कॉम्पेटेटिव न्यूरॉन के नेटवर्क को के संचालन द्वारा वर्णित किया गया है और इनपुट डेटा के बीच समानता माप की गणना की जाती है।

प्रत्येक इनपुट संचालन के लिए कॉम्पेटेटिव न्यूरॉन्स एक दूसरे के साथ यह देखने के लिए "कॉम्पेटेटिव" होते हैं कि उनमें से कौन सा उस विशेष इनपुट संचालन के सबसे समान है। विनर न्यूरॉन m अपना आउटपुट प्रयुक्त करता है और अन्य सभी कॉम्पेटेटिव न्यूरॉन अपना आउटपुट प्रयुक्त करते हैं। प्रायः समानता को मापने के लिए यूक्लिडियन दूरी के विपरीत का उपयोग इनपुट संचालन और वेट-संचालन के बीच किया जाता है।

एल्गोरिथ्म

यहाँ इनपुट डेटा के भीतर तीन क्लस्टर को खोजने के लिए एक सरल कॉम्पेटेटिव लर्निंग एल्गोरिदम का उपयोग किया जाता है:

1. (सेट-अप) सभी सेंसरों के एक समूह को तीन अलग-अलग नोड्स में प्रयुक्त किया जाता है ताकि प्रत्येक नोड प्रत्येक सेंसर से संबद्ध हो और प्रत्येक नोड अपने सेंसर को जो वेट देता है उसे यादृच्छिक रूप से 0.0 और 1.0 के बीच प्रयुक्त किया जाता है। माना कि प्रत्येक नोड का आउटपुट उसके सभी सेंसरों का योग है तब प्रत्येक सेंसर की एकल पावर को उसके वेट से गुणा किया जाता है।

2. जब नेट पर एक इनपुट दिखाया जाता है, तो अधिकतम आउटपुट वाला नोड विजेता (विनर) माना जाता है। इनपुट को उस नोड के क्लस्टर के भीतर वर्गीकृत किया जाता है।

3. विजेता अपने प्रत्येक वेट को अपडेट करता है और वेट को उन कनेक्शनों से स्थानांतरित करता है जो उसे वीक-सिग्नल देते हैं, जिससे वे उसे स्ट्रांग-सिग्नल देते हैं।

इस प्रकार जैसे-जैसे अधिक डेटा प्राप्त होता है तो प्रत्येक नोड उस क्लस्टर के केंद्र पर एकत्रित हो जाते है सामान्यतः जिसको वे रिप्रेजेंट करते हैं। इस प्रकार ये क्लस्टर में इनपुट के लिए अधिक स्ट्रांग और अन्य क्लस्टर में इनपुट के लिए अधिक कमजोर (वीक) होते हैं।

यह भी देखें

संदर्भ

  1. Rumelhart, David; David Zipser; James L. McClelland; et al. (1986). समानांतर वितरित प्रसंस्करण, वॉल्यूम। 1. MIT Press. pp. 151–193.
  2. Rumelhart, David E., and David Zipser. "Feature discovery by competitive learning." Cognitive science 9.1 (1985): 75-112.
  3. Haykin, Simon, "Neural Network. A comprehensive foundation." Neural Networks 2.2004 (2004).
  4. Barlow, Horace B. "Unsupervised learning." Neural computation 1.3 (1989): 295-311.
  5. Edmund T.. Rolls, and Gustavo Deco. Computational neuroscience of vision. Oxford: Oxford university press, 2002.
  6. Salatas, John (24 August 2011). "WEKA के लिए प्रतिस्पर्धी शिक्षण नेटवर्क का कार्यान्वयन". ICT Research Blog. Retrieved 28 January 2012.

अतिरिक्त जानकारी और सॉफ्टवेयर

श्रेणी:आर्टिफिशल न्यूरल नेटवर्क श्रेणी:पर्यवेक्षित न किया गया लर्निंग