कॉम्पेटेटिव लर्निंग

From Vigyanwiki

कॉम्पेटेटिव लर्निंग आर्टिफिशल न्यूरल नेटवर्क में बिना पर्यवेक्षित लर्निंग का एक रूप है, जिसमें नोड्स इनपुट डेटा के सबसेट पर प्रतिक्रिया देने के अधिकार के लिए प्रतिस्पर्धा करते हैं।[1] हेब्बियन लर्निंग का एक प्रकार, कॉम्पेटेटिव लर्निंग नेटवर्क में प्रत्येक नोड की विशेषज्ञता को बढ़ाकर कार्य करता है। यह डेटा के भीतर क्लस्टर विश्लेषण खोजने के लिए उपयुक्त है।

प्रतिस्पर्धी शिक्षा के सिद्धांत पर आधारित मॉडल और एल्गोरिदम में वेक्टर परिमाणीकरण और स्व-व्यवस्थित मानचित्र (कोहोनन मानचित्र) सम्मिलित हैं।

सिद्धांत

कॉम्पेटेटिव लर्निंग नियम के तीन बुनियादी एलिमेंट हैं:[2][3]

  • न्यूरॉन्स का एक सेट जो कुछ बेतरतीब ढंग से वितरित सिनैप्टिक भार को छोड़कर सभी समान हैं, और इसलिए इनपुट पैटर्न के दिए गए सेट पर अलग-अलग प्रतिक्रिया करते हैं
  • प्रत्येक न्यूरॉन की ताकत पर लगाई गई एक सीमा
  • एक तंत्र जो न्यूरॉन्स को इनपुट के दिए गए सबसेट पर प्रतिक्रिया करने के अधिकार के लिए प्रतिस्पर्धा करने की अनुमति देता है, जैसे कि एक समय में केवल एक आउटपुट न्यूरॉन (या प्रति समूह केवल एक न्यूरॉन), सक्रिय (यानी चालू) होता है। प्रतियोगिता जीतने वाले न्यूरॉन को विनर-टेक-ऑल (कंप्यूटिंग) कहा जाता है| विनर-टेक-ऑल न्यूरॉन।

तदनुसार, नेटवर्क के व्यक्तिगत न्यूरॉन्स समान पैटर्न के संयोजन पर विशेषज्ञ बनना सीखते हैं और ऐसा करने से वे इनपुट पैटर्न के विभिन्न वर्गों के लिए 'फीचर डिटेक्टर' बन जाते हैं।

तथ्य यह है कि प्रतिस्पर्धी नेटवर्क कुछ आउटपुट न्यूरॉन्स में से एक में सहसंबद्ध इनपुट के सेट को रिकोड करते हैं, अनिवार्य रूप से प्रतिनिधित्व में अतिरेक को हटा देते हैं जो जैविक संवेदी प्रणालियों में प्रसंस्करण का एक अनिवार्य हिस्सा है।[4][5]

आर्किटेक्चर और कार्यान्वयन

प्रतिस्पर्धी न्यूरल नेटवर्क आर्किटेक्चर

कॉम्पेटेटिव लर्निंग सामान्यतः न्यूरल नेटवर्क के साथ कार्यान्वित किया जाता है जिसमें एक छिपी हुई परत होती है जिसे सामान्यतः "प्रतिस्पर्धी परत" के रूप में जाना जाता है।[6] प्रत्येक प्रतिस्पर्धी न्यूरॉन का वर्णन भार के वेक्टर द्वारा किया जाता है और इनपुट डेटा के बीच समानता माप की गणना करता है और वजन वेक्टर .

प्रत्येक इनपुट वेक्टर के लिए, प्रतिस्पर्धी न्यूरॉन्स एक दूसरे के साथ "प्रतिस्पर्धा" करते हैं यह देखने के लिए कि उनमें से कौन सा उस विशेष इनपुट वेक्टर के सबसे समान है। विजेता न्यूरॉन m अपना आउटपुट सेट करता है और अन्य सभी प्रतिस्पर्धी न्यूरॉन अपना आउटपुट सेट करते हैं।

सामान्यतः समानता को मापने के लिए यूक्लिडियन दूरी के व्युत्क्रम का उपयोग इनपुट वेक्टर और वेट वेक्टर {w}}}_{i के बीच का उपयोग किया जाता है।

उदाहरण एल्गोरिथ्म

यहां कुछ इनपुट डेटा के भीतर तीन क्लस्टर खोजने के लिए एक सरल कॉम्पेटेटिव लर्निंग एल्गोरिदम है।

1. (सेट-अप) सभी सेंसरों के एक सेट को तीन अलग-अलग नोड्स में फीड करने दें, ताकि प्रत्येक नोड प्रत्येक सेंसर से जुड़ा हो। प्रत्येक नोड अपने सेंसर को जो भार देता है उसे यादृच्छिक रूप से 0.0 और 1.0 के बीच सेट करें। मान लीजिए कि प्रत्येक नोड का आउटपुट उसके सभी सेंसरों का योग है, प्रत्येक सेंसर की सिग्नल शक्ति उसके वजन से गुणा की जाती है।

2. जब नेट पर एक इनपुट दिखाया जाता है, तो उच्चतम आउटपुट वाला नोड विजेता माना जाता है। इनपुट को उस नोड के अनुरूप क्लस्टर के भीतर वर्गीकृत किया गया है।

3. विजेता अपने प्रत्येक वजन को अपडेट करता है, वजन को उन कनेक्शनों से स्थानांतरित करता है जो उसे कमजोर सिग्नल देते हैं जो उसे मजबूत सिग्नल देते हैं।

इस प्रकार, जैसे-जैसे अधिक डेटा प्राप्त होता है, प्रत्येक नोड उस क्लस्टर के केंद्र पर एकत्रित होता है जिसका वह प्रतिनिधित्व करता है और इस क्लस्टर में इनपुट के लिए अधिक मजबूती से सक्रिय होता है और अन्य क्लस्टर में इनपुट के लिए अधिक कमजोर रूप से सक्रिय होता है।

यह भी देखें

संदर्भ

  1. Rumelhart, David; David Zipser; James L. McClelland; et al. (1986). समानांतर वितरित प्रसंस्करण, वॉल्यूम। 1. MIT Press. pp. 151–193.
  2. Rumelhart, David E., and David Zipser. "Feature discovery by competitive learning." Cognitive science 9.1 (1985): 75-112.
  3. Haykin, Simon, "Neural Network. A comprehensive foundation." Neural Networks 2.2004 (2004).
  4. Barlow, Horace B. "Unsupervised learning." Neural computation 1.3 (1989): 295-311.
  5. Edmund T.. Rolls, and Gustavo Deco. Computational neuroscience of vision. Oxford: Oxford university press, 2002.
  6. Salatas, John (24 August 2011). "WEKA के लिए प्रतिस्पर्धी शिक्षण नेटवर्क का कार्यान्वयन". ICT Research Blog. Retrieved 28 January 2012.

अतिरिक्त जानकारी और सॉफ्टवेयर

श्रेणी:आर्टिफिशल न्यूरल नेटवर्क श्रेणी:पर्यवेक्षित न किया गया लर्निंग