कॉम्पेटेटिव लर्निंग: Difference between revisions

From Vigyanwiki
(Created page with "प्रतिस्पर्धी शिक्षण कृत्रिम तंत्रिका नेटवर्क में बिना पर्यवेक्...")
 
No edit summary
 
(7 intermediate revisions by 3 users not shown)
Line 1: Line 1:
प्रतिस्पर्धी शिक्षण कृत्रिम तंत्रिका नेटवर्क में [[बिना पर्यवेक्षित शिक्षण]] का एक रूप है, जिसमें नोड्स इनपुट डेटा के सबसेट पर प्रतिक्रिया करने के अधिकार के लिए प्रतिस्पर्धा करते हैं।<ref>{{cite book | last = Rumelhart | first = David | author-link = David Rumelhart |author2=David Zipser |author3=James L. McClelland | title = समानांतर वितरित प्रसंस्करण, वॉल्यूम। 1| publisher = MIT Press | year = 1986 | pages = [https://archive.org/details/paralleldistribu00rume/page/151 151–193] | url =https://archive.org/details/paralleldistribu00rume| url-access = registration |display-authors=etal}}</ref> हेब्बियन शिक्षण का एक प्रकार, प्रतिस्पर्धी शिक्षण नेटवर्क में प्रत्येक नोड की विशेषज्ञता को बढ़ाकर काम करता है। यह डेटा के भीतर [[क्लस्टर विश्लेषण]] खोजने के लिए उपयुक्त है।
'''कॉम्पेटेटिव लर्निंग''' आर्टिफिशल न्यूरल नेटवर्क में अनसुपरवाइज्ड लर्निंग का एक रूप है, जिसमें नोड्स इनपुट डेटा के समूह पर प्रतिक्रिया देने के लिए कॉम्पेटेटिव होते हैं।<ref>{{cite book | last = Rumelhart | first = David | author-link = David Rumelhart |author2=David Zipser |author3=James L. McClelland | title = समानांतर वितरित प्रसंस्करण, वॉल्यूम। 1| publisher = MIT Press | year = 1986 | pages = [https://archive.org/details/paralleldistribu00rume/page/151 151–193] | url =https://archive.org/details/paralleldistribu00rume| url-access = registration |display-authors=etal}}</ref> हेब्बियन लर्निंग का एक प्रकार कॉम्पेटेटिव लर्निंग नेटवर्क में प्रत्येक नोड की स्पेशलाइजेशन को बढ़ाकर कार्य करता है। यह डेटा के भीतर [[क्लस्टर विश्लेषण|क्लस्टर]] को खोजने के लिए सूट है।


प्रतिस्पर्धी शिक्षा के सिद्धांत पर आधारित मॉडल और एल्गोरिदम में [[वेक्टर परिमाणीकरण]] और स्व-व्यवस्थित मानचित्र (कोहोनन मानचित्र) शामिल हैं।
कॉम्पेटेटिव लर्निंग के सिद्धांत पर आधारित मॉडल और एल्गोरिदम में [[वेक्टर परिमाणीकरण|क्वांटिजेशन]] और स्व-निर्मित मानचित्र (कोहोनन मानचित्र) सम्मिलित हैं।


== सिद्धांत ==
== सिद्धांत ==
प्रतिस्पर्धी शिक्षण नियम के तीन बुनियादी तत्व हैं:<ref>Rumelhart, David E., and David Zipser. "[http://onlinelibrary.wiley.com/doi/10.1207/s15516709cog0901_5/pdf Feature discovery by competitive learning]." Cognitive science 9.1 (1985): 75-112.</ref><ref>Haykin, Simon, "Neural Network. A comprehensive foundation." Neural Networks 2.2004 (2004).</ref>
कॉम्पेटेटिव लर्निंग सिद्धांत के तीन मुख्य एलिमेंट हैं:<ref>Rumelhart, David E., and David Zipser. "[http://onlinelibrary.wiley.com/doi/10.1207/s15516709cog0901_5/pdf Feature discovery by competitive learning]." Cognitive science 9.1 (1985): 75-112.</ref><ref>Haykin, Simon, "Neural Network. A comprehensive foundation." Neural Networks 2.2004 (2004).</ref>
* न्यूरॉन्स का एक सेट जो कुछ बेतरतीब ढंग से वितरित सिनैप्टिक भार को छोड़कर सभी समान हैं, और इसलिए इनपुट पैटर्न के दिए गए सेट पर अलग-अलग प्रतिक्रिया करते हैं
* कॉम्पेटेटिव लर्निंग सिद्धांत मे न्यूरॉन्स का एक ऐसा समूह जिससे यादृच्छिक डिस्ट्रिब्यूटेड सिनैप्टिक वेट को अलग करने पर भी वह समान रहता हैं। इसलिए इनपुट पैटर्न के दिए गए समूह पर अलग-अलग प्रतिक्रियाएं होती हैं।
* प्रत्येक न्यूरॉन की ताकत पर लगाई गई एक सीमा
*प्रत्येक न्यूरॉन की स्ट्रेंथ (क्षमता) पर लगाई गई एक सीमा है।
* एक तंत्र जो न्यूरॉन्स को इनपुट के दिए गए सबसेट पर प्रतिक्रिया करने के अधिकार के लिए प्रतिस्पर्धा करने की अनुमति देता है, जैसे कि एक समय में केवल एक आउटपुट न्यूरॉन (या प्रति समूह केवल एक न्यूरॉन), सक्रिय (यानी चालू) होता है। प्रतियोगिता जीतने वाले न्यूरॉन को विनर-टेक-ऑल (कंप्यूटिंग) कहा जाता है| विनर-टेक-ऑल न्यूरॉन।
* एक ऐसी मशीन जो न्यूरॉन्स को इनपुट के दिए गए समूह पर प्रतिक्रिया करने के लिए कॉम्पेटेटिव लर्निंग की स्वीकृति देती है, जैसे कि एक समय में केवल एक आउटपुट न्यूरॉन (प्रति समूह केवल एक न्यूरॉन) एक्टिव होता है। कॉम्पेटीशन जीतने वाले न्यूरॉन को "विनर-टेक-ऑल" न्यूरॉन कहा जाता है।


तदनुसार, नेटवर्क के व्यक्तिगत न्यूरॉन्स समान पैटर्न के संयोजन पर विशेषज्ञ बनना सीखते हैं और ऐसा करने से वे इनपुट पैटर्न के विभिन्न वर्गों के लिए 'फीचर डिटेक्टर' बन जाते हैं।
कॉम्पेटेटिव लर्निंग सिद्धांत के अनुसार नेटवर्क लर्निंग के प्रत्येक न्यूरॉन्स समान पैटर्न के एसेम्बल पर स्पेसिअलिज्ड किए जाते हैं। ऐसा करने से उनके इनपुट पैटर्न के कई क्लास 'फीचर डिटेक्टर' बन जाते हैं। इसका तथ्य यह है कि कॉम्पेटेटिव नेटवर्क कुछ आउटपुट न्यूरॉन्स में से एक में कॉरर्लाटेड इनपुट के समूह को रिकोड करते हैं और अनिवार्य रूप से रिप्रजेंटेशन में रिडंडेंसीय को अलग कर देते हैं जो बायोलॉजिकल सेंसरी सिस्टम में प्रसंस्करण का एक एसेंशियल भाग है।<ref>Barlow, Horace B. "Unsupervised learning." Neural computation 1.3 (1989): 295-311.</ref><ref>Edmund T.. Rolls, and Gustavo Deco. Computational neuroscience of vision. Oxford: Oxford university press, 2002.</ref>
== आर्किटेक्चर और कार्यान्वयन ==


तथ्य यह है कि प्रतिस्पर्धी नेटवर्क कुछ आउटपुट न्यूरॉन्स में से एक में सहसंबद्ध इनपुट के सेट को रिकोड करते हैं, अनिवार्य रूप से प्रतिनिधित्व में अतिरेक को हटा देते हैं जो जैविक संवेदी प्रणालियों में प्रसंस्करण का एक अनिवार्य हिस्सा है।<ref>Barlow, Horace B. "Unsupervised learning." Neural computation 1.3 (1989): 295-311.</ref><ref>Edmund T.. Rolls, and Gustavo Deco. Computational neuroscience of vision. Oxford: Oxford university press, 2002.</ref>
[[File:Competitive neural network architecture.png|thumb|कॉम्पेटेटिव न्यूरल नेटवर्क आर्किटेक्चर|298x298px]]कॉम्पेटेटिव लर्निंग को सामान्यतः न्यूरल नेटवर्क लर्निंग के साथ कार्यान्वित किया जाता है, जिसमें एक हिडन-लेयर (गुप्त-परत) होती है जिसे सामान्यतः "कॉम्पेटेटिव लेयर" के रूप में जाना जाता है।<ref>{{cite web |url=http://jsalatas.ictpro.gr/implementation-of-competitive-learning-networks-for-weka/ |title=WEKA के लिए प्रतिस्पर्धी शिक्षण नेटवर्क का कार्यान्वयन|author=Salatas, John |date= 24 August 2011|publisher= ICT Research Blog|access-date=28 January 2012}}</ref> प्रत्येक कॉम्पेटेटिव न्यूरॉन के नेटवर्क को <math>{\mathbf{w}}_i = \left( {w_{i1} ,..,w_{id} } \right)^T ,i = 1,..,M</math> के संचालन द्वारा वर्णित किया गया है और इनपुट डेटा <math>{\mathbf{x}}^n = \left( {x_{n1} ,..,x_{nd} } \right)^T \in \mathbb{R}^d</math> के बीच समानता माप की गणना की जाती है।


प्रत्येक इनपुट संचालन के लिए कॉम्पेटेटिव न्यूरॉन्स एक दूसरे के साथ यह देखने के लिए "कॉम्पेटेटिव" होते हैं कि उनमें से कौन सा उस विशेष इनपुट संचालन के सबसे समान है। विनर न्यूरॉन m अपना आउटपुट <math>o_m = 1</math> प्रयुक्त करता है और अन्य सभी कॉम्पेटेटिव न्यूरॉन अपना आउटपुट <math>o_i = 0 , i = 1,..,M, i \ne m</math> प्रयुक्त करते हैं। प्रायः समानता को मापने के लिए यूक्लिडियन दूरी के विपरीत <math>\left\| {{\mathbf{x}} - {\mathbf{w}}_i } \right\|</math> का उपयोग इनपुट संचालन <math>{\mathbf{x}}^n</math> और वेट-संचालन <math>{\mathbf{w}}_i</math> के बीच किया जाता है।


== वास्तुकला और कार्यान्वयन ==
== एल्गोरिथ्म ==


[[File:Competitive neural network architecture.png|thumb|प्रतिस्पर्धी तंत्रिका नेटवर्क वास्तुकला]]प्रतिस्पर्धी शिक्षण आमतौर पर तंत्रिका नेटवर्क के साथ कार्यान्वित किया जाता है जिसमें एक छिपी हुई परत होती है जिसे आमतौर पर "प्रतिस्पर्धी परत" के रूप में जाना जाता है।<ref>{{cite web |url=http://jsalatas.ictpro.gr/implementation-of-competitive-learning-networks-for-weka/ |title=WEKA के लिए प्रतिस्पर्धी शिक्षण नेटवर्क का कार्यान्वयन|author=Salatas, John |date= 24 August 2011|publisher= ICT Research Blog|access-date=28 January 2012}}</ref> प्रत्येक प्रतिस्पर्धी न्यूरॉन का वर्णन भार के वेक्टर द्वारा किया जाता है <math>{\mathbf{w}}_i = \left( {w_{i1} ,..,w_{id} } \right)^T ,i = 1,..,M</math> और इनपुट डेटा के बीच [[समानता माप]] की गणना करता है <math>{\mathbf{x}}^n = \left( {x_{n1} ,..,x_{nd} } \right)^T \in \mathbb{R}^d</math> और वजन वेक्टर <math>{\mathbf{w}}_i</math> .
यहाँ इनपुट डेटा के भीतर तीन क्लस्टर को खोजने के लिए एक सरल कॉम्पेटेटिव लर्निंग एल्गोरिदम का उपयोग किया जाता है:


प्रत्येक इनपुट वेक्टर के लिए, प्रतिस्पर्धी न्यूरॉन्स एक दूसरे के साथ "प्रतिस्पर्धा" करते हैं यह देखने के लिए कि उनमें से कौन सा उस विशेष इनपुट वेक्टर के सबसे समान है। विजेता न्यूरॉन एम अपना आउटपुट सेट करता है <math>o_m = 1</math> और अन्य सभी प्रतिस्पर्धी न्यूरॉन्स अपना आउटपुट निर्धारित करते हैं  <math>o_i = 0 , i = 1,..,M, i \ne m</math>.
1. (सेट-अप) सभी सेंसरों के एक समूह को तीन अलग-अलग नोड्स में प्रयुक्त किया जाता है ताकि प्रत्येक नोड प्रत्येक सेंसर से संबद्ध हो और प्रत्येक नोड अपने सेंसर को जो वेट देता है उसे यादृच्छिक रूप से 0.0 और 1.0 के बीच प्रयुक्त किया जाता है। माना कि प्रत्येक नोड का आउटपुट उसके सभी सेंसरों का योग है तब प्रत्येक सेंसर की एकल पावर को उसके वेट से गुणा किया जाता है।


आमतौर पर, समानता मापने के लिए यूक्लिडियन दूरी के व्युत्क्रम का उपयोग किया जाता है: <math>\left\| {{\mathbf{x}} - {\mathbf{w}}_i } \right\|</math> इनपुट वेक्टर के बीच <math>{\mathbf{x}}^n</math> और वजन वेक्टर <math>{\mathbf{w}}_i</math>.
2. जब नेट पर एक इनपुट दिखाया जाता है, तो अधिकतम आउटपुट वाला नोड विजेता (विनर) माना जाता है। इनपुट को उस नोड के क्लस्टर के भीतर वर्गीकृत किया जाता है।


== उदाहरण एल्गोरिथ्म ==
3. विजेता अपने प्रत्येक वेट को अपडेट करता है और वेट को उन कनेक्शनों से स्थानांतरित करता है जो उसे वीक-सिग्नल देते हैं, जिससे वे उसे स्ट्रांग-सिग्नल देते हैं।


यहां कुछ इनपुट डेटा के भीतर तीन क्लस्टर खोजने के लिए एक सरल प्रतिस्पर्धी शिक्षण एल्गोरिदम है।
इस प्रकार जैसे-जैसे अधिक डेटा प्राप्त होता है तो प्रत्येक नोड उस क्लस्टर के केंद्र पर एकत्रित हो जाते है सामान्यतः जिसको वे रिप्रेजेंट करते हैं। इस प्रकार ये क्लस्टर में इनपुट के लिए अधिक स्ट्रांग और अन्य क्लस्टर में इनपुट के लिए अधिक कमजोर (वीक) होते हैं।
 
1. (सेट-अप) सभी सेंसरों के एक सेट को तीन अलग-अलग नोड्स में फीड करने दें, ताकि प्रत्येक नोड प्रत्येक सेंसर से जुड़ा हो। प्रत्येक नोड अपने सेंसर को जो भार देता है उसे यादृच्छिक रूप से 0.0 और 1.0 के बीच सेट करें। मान लीजिए कि प्रत्येक नोड का आउटपुट उसके सभी सेंसरों का योग है, प्रत्येक सेंसर की सिग्नल शक्ति उसके वजन से गुणा की जाती है।
 
2. जब नेट पर एक इनपुट दिखाया जाता है, तो उच्चतम आउटपुट वाला नोड विजेता माना जाता है। इनपुट को उस नोड के अनुरूप क्लस्टर के भीतर वर्गीकृत किया गया है।
 
3. विजेता अपने प्रत्येक वजन को अपडेट करता है, वजन को उन कनेक्शनों से स्थानांतरित करता है जो उसे कमजोर सिग्नल देते हैं जो उसे मजबूत सिग्नल देते हैं।
 
इस प्रकार, जैसे-जैसे अधिक डेटा प्राप्त होता है, प्रत्येक नोड उस क्लस्टर के केंद्र पर एकत्रित होता है जिसका वह प्रतिनिधित्व करता है और इस क्लस्टर में इनपुट के लिए अधिक मजबूती से सक्रिय होता है और अन्य क्लस्टर में इनपुट के लिए अधिक कमजोर रूप से सक्रिय होता है।


==यह भी देखें==
==यह भी देखें==
* [[सामूहिक शिक्षा]]
* [[सामूहिक शिक्षा|एसेम्बल लर्निंग]]
* [[तंत्रिका गैस]]
* [[तंत्रिका गैस|न्यूरल गैस]]
* [[विप्लव वास्तुकला]]
* [[विप्लव वास्तुकला|पांडेमोनियम आर्किटेक्चर]]


==संदर्भ==
==संदर्भ==
{{reflist}}
{{reflist}}
==अतिरिक्त जानकारी और सॉफ्टवेयर==
==अतिरिक्त जानकारी और सॉफ्टवेयर==
* [http://www.demogng.de/JavaPaper/t.html ड्राफ्ट रिपोर्ट कुछ प्रतिस्पर्धी सीखने के तरीके] (इसमें कई संबंधित एल्गोरिदम का विवरण शामिल है)
* [http://www.demogng.de/JavaPaper/t.html ड्राफ्ट रिपोर्ट कुछ कॉम्पेटेटिव सीखने के तरीके] (इसमें कई संबंधित एल्गोरिदम का विवरण सम्मिलित है)
* [http://www.demogng.de DemoGNG - प्रतिस्पर्धी शिक्षण विधियों के लिए जावा सिम्युलेटर]
* [http://www.demogng.de DemoGNG - कॉम्पेटेटिव लर्निंग विधियों के लिए जावा सिम्युलेटर]
 
श्रेणी:कृत्रिम तंत्रिका नेटवर्क
श्रेणी:पर्यवेक्षित न किया गया शिक्षण


श्रेणी:आर्टिफिशल न्यूरल नेटवर्क
श्रेणी:पर्यवेक्षित न किया गया लर्निंग


[[Category: Machine Translated Page]]
[[Category:Created On 25/07/2023]]
[[Category:Created On 25/07/2023]]
[[Category:Machine Translated Page]]
[[Category:Pages with script errors]]
[[Category:Templates Vigyan Ready]]

Latest revision as of 09:57, 22 August 2023

कॉम्पेटेटिव लर्निंग आर्टिफिशल न्यूरल नेटवर्क में अनसुपरवाइज्ड लर्निंग का एक रूप है, जिसमें नोड्स इनपुट डेटा के समूह पर प्रतिक्रिया देने के लिए कॉम्पेटेटिव होते हैं।[1] हेब्बियन लर्निंग का एक प्रकार कॉम्पेटेटिव लर्निंग नेटवर्क में प्रत्येक नोड की स्पेशलाइजेशन को बढ़ाकर कार्य करता है। यह डेटा के भीतर क्लस्टर को खोजने के लिए सूट है।

कॉम्पेटेटिव लर्निंग के सिद्धांत पर आधारित मॉडल और एल्गोरिदम में क्वांटिजेशन और स्व-निर्मित मानचित्र (कोहोनन मानचित्र) सम्मिलित हैं।

सिद्धांत

कॉम्पेटेटिव लर्निंग सिद्धांत के तीन मुख्य एलिमेंट हैं:[2][3]

  • कॉम्पेटेटिव लर्निंग सिद्धांत मे न्यूरॉन्स का एक ऐसा समूह जिससे यादृच्छिक डिस्ट्रिब्यूटेड सिनैप्टिक वेट को अलग करने पर भी वह समान रहता हैं। इसलिए इनपुट पैटर्न के दिए गए समूह पर अलग-अलग प्रतिक्रियाएं होती हैं।
  • प्रत्येक न्यूरॉन की स्ट्रेंथ (क्षमता) पर लगाई गई एक सीमा है।
  • एक ऐसी मशीन जो न्यूरॉन्स को इनपुट के दिए गए समूह पर प्रतिक्रिया करने के लिए कॉम्पेटेटिव लर्निंग की स्वीकृति देती है, जैसे कि एक समय में केवल एक आउटपुट न्यूरॉन (प्रति समूह केवल एक न्यूरॉन) एक्टिव होता है। कॉम्पेटीशन जीतने वाले न्यूरॉन को "विनर-टेक-ऑल" न्यूरॉन कहा जाता है।

कॉम्पेटेटिव लर्निंग सिद्धांत के अनुसार नेटवर्क लर्निंग के प्रत्येक न्यूरॉन्स समान पैटर्न के एसेम्बल पर स्पेसिअलिज्ड किए जाते हैं। ऐसा करने से उनके इनपुट पैटर्न के कई क्लास 'फीचर डिटेक्टर' बन जाते हैं। इसका तथ्य यह है कि कॉम्पेटेटिव नेटवर्क कुछ आउटपुट न्यूरॉन्स में से एक में कॉरर्लाटेड इनपुट के समूह को रिकोड करते हैं और अनिवार्य रूप से रिप्रजेंटेशन में रिडंडेंसीय को अलग कर देते हैं जो बायोलॉजिकल सेंसरी सिस्टम में प्रसंस्करण का एक एसेंशियल भाग है।[4][5]

आर्किटेक्चर और कार्यान्वयन

कॉम्पेटेटिव न्यूरल नेटवर्क आर्किटेक्चर

कॉम्पेटेटिव लर्निंग को सामान्यतः न्यूरल नेटवर्क लर्निंग के साथ कार्यान्वित किया जाता है, जिसमें एक हिडन-लेयर (गुप्त-परत) होती है जिसे सामान्यतः "कॉम्पेटेटिव लेयर" के रूप में जाना जाता है।[6] प्रत्येक कॉम्पेटेटिव न्यूरॉन के नेटवर्क को के संचालन द्वारा वर्णित किया गया है और इनपुट डेटा के बीच समानता माप की गणना की जाती है।

प्रत्येक इनपुट संचालन के लिए कॉम्पेटेटिव न्यूरॉन्स एक दूसरे के साथ यह देखने के लिए "कॉम्पेटेटिव" होते हैं कि उनमें से कौन सा उस विशेष इनपुट संचालन के सबसे समान है। विनर न्यूरॉन m अपना आउटपुट प्रयुक्त करता है और अन्य सभी कॉम्पेटेटिव न्यूरॉन अपना आउटपुट प्रयुक्त करते हैं। प्रायः समानता को मापने के लिए यूक्लिडियन दूरी के विपरीत का उपयोग इनपुट संचालन और वेट-संचालन के बीच किया जाता है।

एल्गोरिथ्म

यहाँ इनपुट डेटा के भीतर तीन क्लस्टर को खोजने के लिए एक सरल कॉम्पेटेटिव लर्निंग एल्गोरिदम का उपयोग किया जाता है:

1. (सेट-अप) सभी सेंसरों के एक समूह को तीन अलग-अलग नोड्स में प्रयुक्त किया जाता है ताकि प्रत्येक नोड प्रत्येक सेंसर से संबद्ध हो और प्रत्येक नोड अपने सेंसर को जो वेट देता है उसे यादृच्छिक रूप से 0.0 और 1.0 के बीच प्रयुक्त किया जाता है। माना कि प्रत्येक नोड का आउटपुट उसके सभी सेंसरों का योग है तब प्रत्येक सेंसर की एकल पावर को उसके वेट से गुणा किया जाता है।

2. जब नेट पर एक इनपुट दिखाया जाता है, तो अधिकतम आउटपुट वाला नोड विजेता (विनर) माना जाता है। इनपुट को उस नोड के क्लस्टर के भीतर वर्गीकृत किया जाता है।

3. विजेता अपने प्रत्येक वेट को अपडेट करता है और वेट को उन कनेक्शनों से स्थानांतरित करता है जो उसे वीक-सिग्नल देते हैं, जिससे वे उसे स्ट्रांग-सिग्नल देते हैं।

इस प्रकार जैसे-जैसे अधिक डेटा प्राप्त होता है तो प्रत्येक नोड उस क्लस्टर के केंद्र पर एकत्रित हो जाते है सामान्यतः जिसको वे रिप्रेजेंट करते हैं। इस प्रकार ये क्लस्टर में इनपुट के लिए अधिक स्ट्रांग और अन्य क्लस्टर में इनपुट के लिए अधिक कमजोर (वीक) होते हैं।

यह भी देखें

संदर्भ

  1. Rumelhart, David; David Zipser; James L. McClelland; et al. (1986). समानांतर वितरित प्रसंस्करण, वॉल्यूम। 1. MIT Press. pp. 151–193.
  2. Rumelhart, David E., and David Zipser. "Feature discovery by competitive learning." Cognitive science 9.1 (1985): 75-112.
  3. Haykin, Simon, "Neural Network. A comprehensive foundation." Neural Networks 2.2004 (2004).
  4. Barlow, Horace B. "Unsupervised learning." Neural computation 1.3 (1989): 295-311.
  5. Edmund T.. Rolls, and Gustavo Deco. Computational neuroscience of vision. Oxford: Oxford university press, 2002.
  6. Salatas, John (24 August 2011). "WEKA के लिए प्रतिस्पर्धी शिक्षण नेटवर्क का कार्यान्वयन". ICT Research Blog. Retrieved 28 January 2012.

अतिरिक्त जानकारी और सॉफ्टवेयर

श्रेणी:आर्टिफिशल न्यूरल नेटवर्क श्रेणी:पर्यवेक्षित न किया गया लर्निंग