तंत्रिका गैस
न्यूरल गैस एक कृत्रिम तंत्रिका नेटवर्क है, जो स्व-संगठित मानचित्र से प्रेरित है और 1991 में थॉमस मार्टिनेट्ज़ और क्लॉस शुल्टेन द्वारा पेश किया गया था।[1] फ़ीचर वेक्टर के आधार पर इष्टतम डेटा प्रतिनिधित्व खोजने के लिए न्यूरल गैस एक सरल एल्गोरिदम है। अनुकूलन प्रक्रिया के दौरान फीचर वैक्टर की गतिशीलता के कारण एल्गोरिदम को न्यूरल गैस बनाया गया था, जो डेटा स्पेस के भीतर खुद को गैस की तरह वितरित करता है। इसे वहां लागू किया जाता है जहां डेटा संपीड़न या वेक्टर परिमाणीकरण एक मुद्दा है, उदाहरण के लिए वाक् पहचान,[2] मूर्ति प्रोद्योगिकी[3] या पैटर्न पहचान. k-मतलब क्लस्टरिंग के लिए एक मजबूत अभिसरण विकल्प के रूप में इसका उपयोग क्लस्टर विश्लेषण के लिए भी किया जाता है।[4]
एल्गोरिथम
संभाव्यता वितरण दिया गया है डेटा वैक्टर का और फ़ीचर वैक्टर की एक सीमित संख्या .
हर समय कदम के साथ , एक डेटा वेक्टर बेतरतीब ढंग से चुना गया पेश की जाती हैं। इसके बाद, दिए गए डेटा वेक्टर से फीचर वैक्टर की दूरी का क्रम निर्धारित किया जाता है। होने देना निकटतम फ़ीचर वेक्टर के सूचकांक को निरूपित करें, दूसरे निकटतम फ़ीचर वेक्टर का सूचकांक, और फ़ीचर वेक्टर का सूचकांक सबसे दूर . फिर प्रत्येक फीचर वेक्टर को उसके अनुसार अनुकूलित किया जाता है
वेरिएंट
तंत्रिका गैस एल्गोरिदम के कई प्रकार साहित्य में मौजूद हैं ताकि इसकी कुछ कमियों को कम किया जा सके। अधिक उल्लेखनीय शायद बर्नड फ्रिट्ज़के की बढ़ती हुई तंत्रिका गैस है,[6] लेकिन किसी को आगे के विस्तार जैसे कि ग्रोइंग व्हेन रिक्वायर्ड नेटवर्क का भी उल्लेख करना चाहिए[7] और साथ ही बढ़ती हुई तंत्रिका गैस भी।[8] एक प्रदर्शन-उन्मुख दृष्टिकोण जो ओवरफिटिंग के जोखिम से बचाता है वह प्लास्टिक न्यूरल गैस मॉडल है।[9]
बढ़ती तंत्रिका गैस
फ्रिट्ज़के ने बढ़ती तंत्रिका गैस (जीएनजी) को एक वृद्धिशील नेटवर्क मॉडल के रूप में वर्णित किया है जो हेब्बियन सीखने जैसे सीखने के नियम का उपयोग करके टोपोलॉजिकल संबंधों को सीखता है,[6]केवल, न्यूरल गैस के विपरीत, इसमें कोई पैरामीटर नहीं है जो समय के साथ बदलता है और यह निरंतर सीखने में सक्षम है, यानी डेटा स्ट्रीम पर सीखना। जीएनजी का व्यापक रूप से कई डोमेन में उपयोग किया गया है,[10] डेटा को क्रमिक रूप से क्लस्टर करने के लिए अपनी क्षमताओं का प्रदर्शन करना। जीएनजी को दो यादृच्छिक रूप से स्थित नोड्स के साथ प्रारंभ किया गया है जो प्रारंभ में शून्य आयु किनारे से जुड़े हुए हैं और जिनकी त्रुटियां 0 पर सेट हैं। चूंकि जीएनजी इनपुट डेटा क्रमिक रूप से एक-एक करके प्रस्तुत किया जाता है, प्रत्येक पुनरावृत्ति पर निम्नलिखित चरणों का पालन किया जाता है:
- इसमें वर्तमान इनपुट डेटा के दो निकटतम नोड्स के बीच त्रुटियों (दूरियों) की गणना की जाती है।
- विजेता नोड (केवल निकटतम) की त्रुटि क्रमशः संचित होती है।
- विजेता नोड और उसके टोपोलॉजिकल पड़ोसी (एक किनारे से जुड़े हुए) अपनी संबंधित त्रुटियों के विभिन्न अंशों द्वारा वर्तमान इनपुट की ओर बढ़ रहे हैं।
- विजेता नोड से जुड़े सभी किनारों की आयु बढ़ा दी गई है।
- यदि विजेता नोड और दूसरा-विजेता एक किनारे से जुड़े हुए हैं, तो ऐसा किनारा 0 पर सेट है। अन्यथा, उनके बीच एक किनारा बन जाता है।
- यदि सीमा से अधिक उम्र वाले किनारे हैं, तो उन्हें हटा दिया जाता है। बिना कनेक्शन वाले नोड्स हटा दिए जाते हैं।
- यदि वर्तमान पुनरावृत्ति पूर्वनिर्धारित आवृत्ति-निर्माण सीमा का एक पूर्णांक गुणक है, तो सबसे बड़ी त्रुटि वाले नोड (सभी के बीच) और उसके टोपोलॉजिकल पड़ोसी के बीच एक नया नोड डाला जाता है जो उच्चतम त्रुटि पेश करता है। पहले और बाद वाले नोड्स के बीच का लिंक समाप्त हो जाता है (किसी दिए गए कारक से उनकी त्रुटियां कम हो जाती हैं) और नया नोड उन दोनों से जुड़ जाता है। नए नोड की त्रुटि को उस नोड की अद्यतन त्रुटि के रूप में आरंभ किया गया है जिसमें सबसे बड़ी त्रुटि थी (सभी के बीच)।
- सभी नोड्स की संचित त्रुटि किसी दिए गए कारक से कम हो जाती है।
- यदि रोकने की कसौटी पूरी नहीं होती है, तो एल्गोरिदम निम्नलिखित इनपुट लेता है। मानदंड युगों की दी गई संख्या हो सकती है, यानी, सभी डेटा प्रस्तुत किए जाने की पूर्व-निर्धारित संख्या, या अधिकतम संख्या में नोड्स की पहुंच।
वृद्धिशील बढ़ती तंत्रिका गैस
जीएनजी एल्गोरिथ्म में प्रेरित एक अन्य तंत्रिका गैस संस्करण वृद्धिशील बढ़ती तंत्रिका गैस (आईजीएनजी) है। लेखक इस एल्गोरिदम का मुख्य लाभ पहले से प्रशिक्षित नेटवर्क को ख़राब किए बिना और पुराने इनपुट डेटा (स्थिरता) को भूले बिना नया डेटा (प्लास्टिसिटी) सीखना प्रस्तावित करते हैं।[8]
आवश्यकता पड़ने पर बढ़ना
नोड्स के बढ़ते सेट के साथ एक नेटवर्क होने से, जैसे कि जीएनजी एल्गोरिदम द्वारा कार्यान्वित एक बड़े लाभ के रूप में देखा गया था, हालांकि पैरामीटर λ की शुरूआत से सीखने पर कुछ सीमाएं देखी गईं, जिसमें नेटवर्क केवल तभी बढ़ने में सक्षम होगा जब पुनरावृत्तियां इस पैरामीटर के एकाधिक थीं।[7]इस समस्या को कम करने का प्रस्ताव एक नया एल्गोरिदम, ग्रोइंग व्हेन रिक्वायर्ड नेटवर्क (जीडब्ल्यूआर) था, जो जब भी नेटवर्क को पता चलता कि मौजूदा नोड्स इनपुट का अच्छी तरह से वर्णन नहीं करेंगे, तो जितनी जल्दी हो सके नोड्स जोड़कर नेटवर्क अधिक तेज़ी से बढ़ेगा।
प्लास्टिक तंत्रिका गैस
केवल नेटवर्क विकसित करने की क्षमता शीघ्रता से ओवरफिटिंग का परिचय दे सकती है; दूसरी ओर, केवल उम्र के आधार पर नोड्स को हटाना, जैसा कि जीएनजी मॉडल में है, यह सुनिश्चित नहीं करता है कि हटाए गए नोड्स वास्तव में बेकार हैं, क्योंकि निष्कासन एक मॉडल पैरामीटर पर निर्भर करता है जिसे इनपुट डेटा की स्ट्रीम की मेमोरी लंबाई के अनुसार सावधानीपूर्वक ट्यून किया जाना चाहिए।
प्लास्टिक न्यूरल गैस मॉडल[9]क्रॉस-वैलिडेशन के एक अनपर्यवेक्षित संस्करण का उपयोग करके नोड्स को जोड़ने या हटाने का निर्णय लेकर इस समस्या को हल किया जाता है, जो अनपर्यवेक्षित सेटिंग के लिए सामान्यीकरण क्षमता की समकक्ष धारणा को नियंत्रित करता है।
जबकि केवल बढ़ने के तरीके केवल वृद्धिशील सीखने के परिदृश्य को पूरा करते हैं, बढ़ने और सिकुड़ने की क्षमता अधिक सामान्य स्ट्रीमिंग डेटा समस्या के लिए उपयुक्त है।
कार्यान्वयन
रैंकिंग जानने के लिए फीचर वैक्टर में, न्यूरल गैस एल्गोरिदम में सॉर्टिंग शामिल है, जो एक ऐसी प्रक्रिया है जो एनालॉग हार्डवेयर में समानांतरकरण या कार्यान्वयन के लिए आसानी से उधार नहीं देती है। हालाँकि, दोनों समानांतर सॉफ़्टवेयर में कार्यान्वयन [11] और एनालॉग हार्डवेयर[12] वास्तव में डिज़ाइन किए गए थे।
संदर्भ
- ↑ Thomas Martinetz and Klaus Schulten (1991). "A "neural gas" network learns topologies" (PDF). Artificial Neural Networks. Elsevier. pp. 397–402.
- ↑ F. Curatelli; O. Mayora-Iberra (2000). "Competitive learning methods for efficient Vector Quantizations in a speech recognition environment". In Osvaldo Cairó; L. Enrique Sucar; Francisco J. Cantú-Ortiz (eds.). MICAI 2000: Advances in artificial intelligence : Mexican International Conference on Artificial Intelligence, Acapulco, Mexico, April 2000 : proceedings. Springer. p. 109. ISBN 978-3-540-67354-5.
- ↑ Angelopoulou, Anastassia; Psarrou, Alexandra; Garcia Rodriguez, Jose; Revett, Kenneth (2005). "Computer Vision for Biomedical Image Applications". In Yanxi Liu; Tianzi Jiang; Changshui Zhang (eds.). Computer vision for biomedical image applications: first international workshop, CVBIA 2005, Beijing, China, October 21, 2005 : proceedings. Lecture Notes in Computer Science. Vol. 3765. Springer. p. 210. doi:10.1007/11569541_22. ISBN 978-3-540-29411-5.
- ↑ Fernando Canales; Max Chacon (2007). "Progress in Pattern Recognition, Image Analysis and Applications". In Luis Rueda; Domingo Mery (eds.). Progress in pattern recognition, image analysis and applications: 12th Iberoamerican Congress on Pattern Recognition, CIARP 2007, Viña del Mar-Valparaiso, Chile, November 13–16, 2007 ; proceedings. Lecture Notes in Computer Science. Vol. 4756. Springer. pp. 684–693. doi:10.1007/978-3-540-76725-1_71. ISBN 978-3-540-76724-4.
- ↑ http://wwwold.ini.rub.de/VDM/research/gsn/JavaPaper/img187.gif[dead link]
- ↑ 6.0 6.1 Fritzke, Bernd (1995). "एक बढ़ता हुआ न्यूरल गैस नेटवर्क टोपोलॉजी सीखता है". Advances in Neural Information Processing Systems. 7: 625–632. Retrieved 2016-04-26.
- ↑ 7.0 7.1 Marsland, Stephen; Shapiro, Jonathan; Nehmzow, Ulrich (2002). "एक स्व-संगठित नेटवर्क जो आवश्यकता पड़ने पर बढ़ता है". Neural Networks. 15 (8): 1041–1058. CiteSeerX 10.1.1.14.8763. doi:10.1016/s0893-6080(02)00078-3. PMID 12416693.
- ↑ 8.0 8.1 Prudent, Yann; Ennaji, Abdellatif (2005). "An incremental growing neural gas learns topologies". Proceedings. 2005 IEEE International Joint Conference on Neural Networks, 2005. Vol. 2. pp. 1211–1216. doi:10.1109/IJCNN.2005.1556026. ISBN 978-0-7803-9048-5. S2CID 41517545.
- ↑ 9.0 9.1 Ridella, Sandro; Rovetta, Stefano; Zunino, Rodolfo (1998). "अनुकूली वेक्टर परिमाणीकरण के लिए प्लास्टिक एल्गोरिदम". Neural Computing & Applications. 7: 37–51. doi:10.1007/BF01413708. S2CID 1184174.
- ↑ Iqbal, Hafsa; Campo, Damian; Baydoun, Mohamad; Marcenaro, Lucio; Martin, David; Regazzoni, Carlo (2019). "अर्ध-स्वायत्त प्रणालियों में असामान्यता का पता लगाने के लिए क्लस्टरिंग अनुकूलन". St International Workshop on Multimodal Understanding and Learning for Embodied Applications: 33–41. doi:10.1145/3347450.3357657. ISBN 978-1-4503-6918-3.
- ↑ Ancona, Fabio; Rovetta, Stefano; Zunino, Rodolfo (1996). "A parallel approach to plastic neural gas". Proceedings of International Conference on Neural Networks (ICNN'96). Vol. 1. pp. 126–130. doi:10.1109/ICNN.1996.548878. ISBN 0-7803-3210-5. S2CID 61686854.
- ↑ Ancona, Fabio; Rovetta, Stefano; Zunino, Rodolfo (1997). "Hardware implementation of the neural gas". Proceedings of International Conference on Neural Networks (ICNN'97). Vol. 2. pp. 991–994. doi:10.1109/ICNN.1997.616161. ISBN 0-7803-4122-8. S2CID 62480597.
अग्रिम पठन
- T. Martinetz, S. Berkovich, and K. Schulten. "Neural-gas" Network for Vector Quantization and its Application to Time-Series Prediction. IEEE-Transactions on Neural Networks, 4(4):558-569, 1993.
- Martinetz, T.; Schulten, K. (1994). "Topology representing networks". Neural Networks. 7 (3): 507–522. doi:10.1016/0893-6080(94)90109-0.
बाहरी संबंध
- DemoGNG.js Javascript simulator for Neural Gas (and other network models)
- Java Competitive Learning Applications Unsupervised Neural Networks (including Self-organizing map) in Java with source codes.
- formal description of Neural gas algorithm
- A GNG and GWR Classifier implementation in Matlab