कॉम्पेटेटिव लर्निंग: Difference between revisions
(Created page with "प्रतिस्पर्धी शिक्षण कृत्रिम तंत्रिका नेटवर्क में बिना पर्यवेक्...") |
No edit summary |
||
Line 1: | Line 1: | ||
'''कॉम्पेटेटिव लर्निंग''' आर्टिफिशल न्यूरल नेटवर्क में बिना पर्यवेक्षित लर्निंग का एक रूप है, जिसमें नोड्स इनपुट डेटा के सबसेट पर प्रतिक्रिया देने के अधिकार के लिए प्रतिस्पर्धा करते हैं।<ref>{{cite book | last = Rumelhart | first = David | author-link = David Rumelhart |author2=David Zipser |author3=James L. McClelland | title = समानांतर वितरित प्रसंस्करण, वॉल्यूम। 1| publisher = MIT Press | year = 1986 | pages = [https://archive.org/details/paralleldistribu00rume/page/151 151–193] | url =https://archive.org/details/paralleldistribu00rume| url-access = registration |display-authors=etal}}</ref> हेब्बियन लर्निंग का एक प्रकार, कॉम्पेटेटिव लर्निंग नेटवर्क में प्रत्येक नोड की विशेषज्ञता को बढ़ाकर कार्य करता है। यह डेटा के भीतर [[क्लस्टर विश्लेषण]] खोजने के लिए उपयुक्त है। | |||
प्रतिस्पर्धी शिक्षा के सिद्धांत पर आधारित मॉडल और एल्गोरिदम में [[वेक्टर परिमाणीकरण]] और स्व-व्यवस्थित मानचित्र (कोहोनन मानचित्र) | प्रतिस्पर्धी शिक्षा के सिद्धांत पर आधारित मॉडल और एल्गोरिदम में [[वेक्टर परिमाणीकरण]] और स्व-व्यवस्थित मानचित्र (कोहोनन मानचित्र) सम्मिलित हैं। | ||
== सिद्धांत == | == सिद्धांत == | ||
कॉम्पेटेटिव लर्निंग नियम के तीन बुनियादी एलिमेंट हैं:<ref>Rumelhart, David E., and David Zipser. "[http://onlinelibrary.wiley.com/doi/10.1207/s15516709cog0901_5/pdf Feature discovery by competitive learning]." Cognitive science 9.1 (1985): 75-112.</ref><ref>Haykin, Simon, "Neural Network. A comprehensive foundation." Neural Networks 2.2004 (2004).</ref> | |||
* न्यूरॉन्स का एक सेट जो कुछ बेतरतीब ढंग से वितरित सिनैप्टिक भार को छोड़कर सभी समान हैं, और इसलिए इनपुट पैटर्न के दिए गए सेट पर अलग-अलग प्रतिक्रिया करते हैं | * न्यूरॉन्स का एक सेट जो कुछ बेतरतीब ढंग से वितरित सिनैप्टिक भार को छोड़कर सभी समान हैं, और इसलिए इनपुट पैटर्न के दिए गए सेट पर अलग-अलग प्रतिक्रिया करते हैं | ||
* प्रत्येक न्यूरॉन की ताकत पर लगाई गई एक सीमा | * प्रत्येक न्यूरॉन की ताकत पर लगाई गई एक सीमा | ||
Line 12: | Line 12: | ||
तथ्य यह है कि प्रतिस्पर्धी नेटवर्क कुछ आउटपुट न्यूरॉन्स में से एक में सहसंबद्ध इनपुट के सेट को रिकोड करते हैं, अनिवार्य रूप से प्रतिनिधित्व में अतिरेक को हटा देते हैं जो जैविक संवेदी प्रणालियों में प्रसंस्करण का एक अनिवार्य हिस्सा है।<ref>Barlow, Horace B. "Unsupervised learning." Neural computation 1.3 (1989): 295-311.</ref><ref>Edmund T.. Rolls, and Gustavo Deco. Computational neuroscience of vision. Oxford: Oxford university press, 2002.</ref> | तथ्य यह है कि प्रतिस्पर्धी नेटवर्क कुछ आउटपुट न्यूरॉन्स में से एक में सहसंबद्ध इनपुट के सेट को रिकोड करते हैं, अनिवार्य रूप से प्रतिनिधित्व में अतिरेक को हटा देते हैं जो जैविक संवेदी प्रणालियों में प्रसंस्करण का एक अनिवार्य हिस्सा है।<ref>Barlow, Horace B. "Unsupervised learning." Neural computation 1.3 (1989): 295-311.</ref><ref>Edmund T.. Rolls, and Gustavo Deco. Computational neuroscience of vision. Oxford: Oxford university press, 2002.</ref> | ||
== आर्किटेक्चर और कार्यान्वयन == | |||
[[File:Competitive neural network architecture.png|thumb|प्रतिस्पर्धी न्यूरल नेटवर्क आर्किटेक्चर]]कॉम्पेटेटिव लर्निंग सामान्यतः न्यूरल नेटवर्क के साथ कार्यान्वित किया जाता है जिसमें एक छिपी हुई परत होती है जिसे सामान्यतः "प्रतिस्पर्धी परत" के रूप में जाना जाता है।<ref>{{cite web |url=http://jsalatas.ictpro.gr/implementation-of-competitive-learning-networks-for-weka/ |title=WEKA के लिए प्रतिस्पर्धी शिक्षण नेटवर्क का कार्यान्वयन|author=Salatas, John |date= 24 August 2011|publisher= ICT Research Blog|access-date=28 January 2012}}</ref> प्रत्येक प्रतिस्पर्धी न्यूरॉन का वर्णन भार के वेक्टर द्वारा किया जाता है <math>{\mathbf{w}}_i = \left( {w_{i1} ,..,w_{id} } \right)^T ,i = 1,..,M</math> और इनपुट डेटा के बीच [[समानता माप]] की गणना करता है <math>{\mathbf{x}}^n = \left( {x_{n1} ,..,x_{nd} } \right)^T \in \mathbb{R}^d</math> और वजन वेक्टर <math>{\mathbf{w}}_i</math> . | |||
= | प्रत्येक इनपुट वेक्टर के लिए, प्रतिस्पर्धी न्यूरॉन्स एक दूसरे के साथ "प्रतिस्पर्धा" करते हैं यह देखने के लिए कि उनमें से कौन सा उस विशेष इनपुट वेक्टर के सबसे समान है। विजेता न्यूरॉन m अपना आउटपुट <math>o_m = 1</math> सेट करता है और अन्य सभी प्रतिस्पर्धी न्यूरॉन अपना आउटपुट <math>o_i = 0 , i = 1,..,M, i \ne m</math> सेट करते हैं। | ||
सामान्यतः समानता को मापने के लिए यूक्लिडियन दूरी के व्युत्क्रम <math>\left\| {{\mathbf{x}} - {\mathbf{w}}_i } \right\|</math> का उपयोग इनपुट वेक्टर <math>{\mathbf{x}}^n</math><nowiki> और वेट वेक्टर {w}}}_{i के बीच </nowiki><math>{\mathbf{w}}_i</math> का उपयोग किया जाता है। | |||
== उदाहरण एल्गोरिथ्म == | == उदाहरण एल्गोरिथ्म == | ||
यहां कुछ इनपुट डेटा के भीतर तीन क्लस्टर खोजने के लिए एक सरल | यहां कुछ इनपुट डेटा के भीतर तीन क्लस्टर खोजने के लिए एक सरल कॉम्पेटेटिव लर्निंग एल्गोरिदम है। | ||
1. (सेट-अप) सभी सेंसरों के एक सेट को तीन अलग-अलग नोड्स में फीड करने दें, ताकि प्रत्येक नोड प्रत्येक सेंसर से जुड़ा हो। प्रत्येक नोड अपने सेंसर को जो भार देता है उसे यादृच्छिक रूप से 0.0 और 1.0 के बीच सेट करें। मान लीजिए कि प्रत्येक नोड का आउटपुट उसके सभी सेंसरों का योग है, प्रत्येक सेंसर की सिग्नल शक्ति उसके वजन से गुणा की जाती है। | 1. (सेट-अप) सभी सेंसरों के एक सेट को तीन अलग-अलग नोड्स में फीड करने दें, ताकि प्रत्येक नोड प्रत्येक सेंसर से जुड़ा हो। प्रत्येक नोड अपने सेंसर को जो भार देता है उसे यादृच्छिक रूप से 0.0 और 1.0 के बीच सेट करें। मान लीजिए कि प्रत्येक नोड का आउटपुट उसके सभी सेंसरों का योग है, प्रत्येक सेंसर की सिग्नल शक्ति उसके वजन से गुणा की जाती है। | ||
Line 35: | Line 33: | ||
==यह भी देखें== | ==यह भी देखें== | ||
* [[सामूहिक शिक्षा]] | * [[सामूहिक शिक्षा|एसेम्बल लर्निंग]] | ||
* [[तंत्रिका गैस]] | * [[तंत्रिका गैस|न्यूरल गैस]] | ||
* [[विप्लव वास्तुकला]] | * [[विप्लव वास्तुकला|पांडेमोनियम आर्किटेक्चर]] | ||
==संदर्भ== | ==संदर्भ== | ||
{{reflist}} | {{reflist}} | ||
==अतिरिक्त जानकारी और सॉफ्टवेयर== | ==अतिरिक्त जानकारी और सॉफ्टवेयर== | ||
* [http://www.demogng.de/JavaPaper/t.html ड्राफ्ट रिपोर्ट कुछ प्रतिस्पर्धी सीखने के तरीके] (इसमें कई संबंधित एल्गोरिदम का विवरण | * [http://www.demogng.de/JavaPaper/t.html ड्राफ्ट रिपोर्ट कुछ प्रतिस्पर्धी सीखने के तरीके] (इसमें कई संबंधित एल्गोरिदम का विवरण सम्मिलित है) | ||
* [http://www.demogng.de DemoGNG - | * [http://www.demogng.de DemoGNG - कॉम्पेटेटिव लर्निंग विधियों के लिए जावा सिम्युलेटर] | ||
श्रेणी: | श्रेणी:आर्टिफिशल न्यूरल नेटवर्क | ||
श्रेणी:पर्यवेक्षित न किया गया | श्रेणी:पर्यवेक्षित न किया गया लर्निंग | ||
[[Category: Machine Translated Page]] | [[Category: Machine Translated Page]] | ||
[[Category:Created On 25/07/2023]] | [[Category:Created On 25/07/2023]] |
Revision as of 20:28, 8 August 2023
कॉम्पेटेटिव लर्निंग आर्टिफिशल न्यूरल नेटवर्क में बिना पर्यवेक्षित लर्निंग का एक रूप है, जिसमें नोड्स इनपुट डेटा के सबसेट पर प्रतिक्रिया देने के अधिकार के लिए प्रतिस्पर्धा करते हैं।[1] हेब्बियन लर्निंग का एक प्रकार, कॉम्पेटेटिव लर्निंग नेटवर्क में प्रत्येक नोड की विशेषज्ञता को बढ़ाकर कार्य करता है। यह डेटा के भीतर क्लस्टर विश्लेषण खोजने के लिए उपयुक्त है।
प्रतिस्पर्धी शिक्षा के सिद्धांत पर आधारित मॉडल और एल्गोरिदम में वेक्टर परिमाणीकरण और स्व-व्यवस्थित मानचित्र (कोहोनन मानचित्र) सम्मिलित हैं।
सिद्धांत
कॉम्पेटेटिव लर्निंग नियम के तीन बुनियादी एलिमेंट हैं:[2][3]
- न्यूरॉन्स का एक सेट जो कुछ बेतरतीब ढंग से वितरित सिनैप्टिक भार को छोड़कर सभी समान हैं, और इसलिए इनपुट पैटर्न के दिए गए सेट पर अलग-अलग प्रतिक्रिया करते हैं
- प्रत्येक न्यूरॉन की ताकत पर लगाई गई एक सीमा
- एक तंत्र जो न्यूरॉन्स को इनपुट के दिए गए सबसेट पर प्रतिक्रिया करने के अधिकार के लिए प्रतिस्पर्धा करने की अनुमति देता है, जैसे कि एक समय में केवल एक आउटपुट न्यूरॉन (या प्रति समूह केवल एक न्यूरॉन), सक्रिय (यानी चालू) होता है। प्रतियोगिता जीतने वाले न्यूरॉन को विनर-टेक-ऑल (कंप्यूटिंग) कहा जाता है| विनर-टेक-ऑल न्यूरॉन।
तदनुसार, नेटवर्क के व्यक्तिगत न्यूरॉन्स समान पैटर्न के संयोजन पर विशेषज्ञ बनना सीखते हैं और ऐसा करने से वे इनपुट पैटर्न के विभिन्न वर्गों के लिए 'फीचर डिटेक्टर' बन जाते हैं।
तथ्य यह है कि प्रतिस्पर्धी नेटवर्क कुछ आउटपुट न्यूरॉन्स में से एक में सहसंबद्ध इनपुट के सेट को रिकोड करते हैं, अनिवार्य रूप से प्रतिनिधित्व में अतिरेक को हटा देते हैं जो जैविक संवेदी प्रणालियों में प्रसंस्करण का एक अनिवार्य हिस्सा है।[4][5]
आर्किटेक्चर और कार्यान्वयन
कॉम्पेटेटिव लर्निंग सामान्यतः न्यूरल नेटवर्क के साथ कार्यान्वित किया जाता है जिसमें एक छिपी हुई परत होती है जिसे सामान्यतः "प्रतिस्पर्धी परत" के रूप में जाना जाता है।[6] प्रत्येक प्रतिस्पर्धी न्यूरॉन का वर्णन भार के वेक्टर द्वारा किया जाता है और इनपुट डेटा के बीच समानता माप की गणना करता है और वजन वेक्टर .
प्रत्येक इनपुट वेक्टर के लिए, प्रतिस्पर्धी न्यूरॉन्स एक दूसरे के साथ "प्रतिस्पर्धा" करते हैं यह देखने के लिए कि उनमें से कौन सा उस विशेष इनपुट वेक्टर के सबसे समान है। विजेता न्यूरॉन m अपना आउटपुट सेट करता है और अन्य सभी प्रतिस्पर्धी न्यूरॉन अपना आउटपुट सेट करते हैं।
सामान्यतः समानता को मापने के लिए यूक्लिडियन दूरी के व्युत्क्रम का उपयोग इनपुट वेक्टर और वेट वेक्टर {w}}}_{i के बीच का उपयोग किया जाता है।
उदाहरण एल्गोरिथ्म
यहां कुछ इनपुट डेटा के भीतर तीन क्लस्टर खोजने के लिए एक सरल कॉम्पेटेटिव लर्निंग एल्गोरिदम है।
1. (सेट-अप) सभी सेंसरों के एक सेट को तीन अलग-अलग नोड्स में फीड करने दें, ताकि प्रत्येक नोड प्रत्येक सेंसर से जुड़ा हो। प्रत्येक नोड अपने सेंसर को जो भार देता है उसे यादृच्छिक रूप से 0.0 और 1.0 के बीच सेट करें। मान लीजिए कि प्रत्येक नोड का आउटपुट उसके सभी सेंसरों का योग है, प्रत्येक सेंसर की सिग्नल शक्ति उसके वजन से गुणा की जाती है।
2. जब नेट पर एक इनपुट दिखाया जाता है, तो उच्चतम आउटपुट वाला नोड विजेता माना जाता है। इनपुट को उस नोड के अनुरूप क्लस्टर के भीतर वर्गीकृत किया गया है।
3. विजेता अपने प्रत्येक वजन को अपडेट करता है, वजन को उन कनेक्शनों से स्थानांतरित करता है जो उसे कमजोर सिग्नल देते हैं जो उसे मजबूत सिग्नल देते हैं।
इस प्रकार, जैसे-जैसे अधिक डेटा प्राप्त होता है, प्रत्येक नोड उस क्लस्टर के केंद्र पर एकत्रित होता है जिसका वह प्रतिनिधित्व करता है और इस क्लस्टर में इनपुट के लिए अधिक मजबूती से सक्रिय होता है और अन्य क्लस्टर में इनपुट के लिए अधिक कमजोर रूप से सक्रिय होता है।
यह भी देखें
संदर्भ
- ↑ Rumelhart, David; David Zipser; James L. McClelland; et al. (1986). समानांतर वितरित प्रसंस्करण, वॉल्यूम। 1. MIT Press. pp. 151–193.
- ↑ Rumelhart, David E., and David Zipser. "Feature discovery by competitive learning." Cognitive science 9.1 (1985): 75-112.
- ↑ Haykin, Simon, "Neural Network. A comprehensive foundation." Neural Networks 2.2004 (2004).
- ↑ Barlow, Horace B. "Unsupervised learning." Neural computation 1.3 (1989): 295-311.
- ↑ Edmund T.. Rolls, and Gustavo Deco. Computational neuroscience of vision. Oxford: Oxford university press, 2002.
- ↑ Salatas, John (24 August 2011). "WEKA के लिए प्रतिस्पर्धी शिक्षण नेटवर्क का कार्यान्वयन". ICT Research Blog. Retrieved 28 January 2012.
अतिरिक्त जानकारी और सॉफ्टवेयर
- ड्राफ्ट रिपोर्ट कुछ प्रतिस्पर्धी सीखने के तरीके (इसमें कई संबंधित एल्गोरिदम का विवरण सम्मिलित है)
- DemoGNG - कॉम्पेटेटिव लर्निंग विधियों के लिए जावा सिम्युलेटर
श्रेणी:आर्टिफिशल न्यूरल नेटवर्क श्रेणी:पर्यवेक्षित न किया गया लर्निंग