कृत्रिम न्यूरॉन

From Vigyanwiki
Revision as of 15:22, 2 May 2023 by alpha>Indicwiki (Created page with "{{short description|Mathematical function conceived as a crude model}} एक कृत्रिम न्यूरॉन एक क्रिया (गणित) है...")
(diff) ← Older revision | Latest revision (diff) | Newer revision → (diff)

एक कृत्रिम न्यूरॉन एक क्रिया (गणित) है जिसे जैविक न्यूरॉन्स, एक तंत्रिका नेटवर्क के गणितीय मॉडल के रूप में माना जाता है। कृत्रिम तंत्रिका नेटवर्क में कृत्रिम न्यूरॉन्स प्राथमिक इकाइयां हैं।[1] कृत्रिम न्यूरॉन एक या एक से अधिक इनपुट प्राप्त करता है (उत्तेजक पोस्टसिनेप्टिक क्षमता और न्यूरल डेन्ड्राइट ्स में निरोधात्मक पोस्टसिनेप्टिक क्षमता का प्रतिनिधित्व करता है) और उन्हें एक आउटपुट (या activation, एक न्यूरॉन की क्रिया क्षमता का प्रतिनिधित्व करता है जो इसके अक्षतंतु के साथ संचरित होता है)। आम तौर पर प्रत्येक इनपुट अलग-अलग भारित होता है, और योग एक गैर-रैखिक फ़ंक्शन के माध्यम से पारित किया जाता है जिसे सक्रियण फ़ंक्शन या स्थानांतरण प्रकार्य के रूप में जाना जाता है[clarification needed]. स्थानांतरण कार्यों में आमतौर पर एक सिग्मॉइड फ़ंक्शन होता है, लेकिन वे अन्य गैर-रैखिक कार्यों, टुकड़े-टुकड़े रैखिक कार्यों या #Step फ़ंक्शन का रूप भी ले सकते हैं। वे अक्सर मोनोटोनिक फ़ंक्शन, निरंतर कार्य, विभेदक कार्य और परिबद्ध समारोह भी होते हैं। कई शून्यों के साथ गैर-मोनोटोनिक, अनबाउंड और ऑसिलेटिंग एक्टिवेशन फ़ंक्शंस जो कई कार्यों पर सिग्मोइडल और ReLU जैसे एक्टिवेशन फ़ंक्शंस से बेहतर प्रदर्शन करते हैं, उन्हें भी हाल ही में खोजा गया है। थ्रेशोल्डिंग फ़ंक्शन ने बिल्डिंग तर्क द्वार ्स को थ्रेशोल्ड लॉजिक के रूप में संदर्भित करने के लिए प्रेरित किया है; मस्तिष्क प्रसंस्करण जैसी दिखने वाली तर्क सर्किट बनाने के लिए लागू। उदाहरण के लिए, हाल के दिनों में इस तरह के तर्क को विकसित करने के लिए memristor जैसे नए उपकरणों का बड़े पैमाने पर उपयोग किया गया है।[2] कृत्रिम न्यूरॉन ट्रांसफर फ़ंक्शन को एक रैखिक सिस्टम ट्रांसफर फ़ंक्शन के साथ भ्रमित नहीं होना चाहिए। कृत्रिम न्यूरॉन्स न्यूरोमॉर्फिक इंजीनियरिंग में कृत्रिम कोशिकाओं को भी संदर्भित कर सकते हैं (see below) जो प्राकृतिक भौतिक न्यूरॉन्स के समान हैं।

मूल संरचना

किसी दिए गए कृत्रिम न्यूरॉन k के लिए, सिग्नल x के साथ m + 1 इनपुट होने दें0 एक्स के माध्यम सेm और वजन डब्ल्यूk0 डब्ल्यू के माध्यम सेkm. आमतौर पर, एक्स0 इनपुट को मान +1 असाइन किया गया है, जो इसे w के साथ एक बायस इनपुट बनाता हैk0= खk. यह न्यूरॉन के लिए केवल m वास्तविक इनपुट छोड़ता है: x से1 एक्स कोm.

Kth न्यूरॉन का आउटपुट है:

कहाँ (phi) ट्रांसफर फ़ंक्शन (आमतौर पर एक थ्रेशोल्ड फ़ंक्शन) है।

Artificial neuron.pngआउटपुट एक जैविक न्यूरॉन के अक्षतंतु के अनुरूप होता है, और इसका मान एक अन्तर्ग्रथन के माध्यम से अगली परत के इनपुट तक फैलता है। यह संभवतः आउटपुट वेक्टर (गणित और भौतिकी) के हिस्से के रूप में सिस्टम से बाहर निकल सकता है।

इसकी कोई सीखने की प्रक्रिया नहीं है। इसके ट्रांसफर फंक्शन वेट की गणना की जाती है और थ्रेशोल्ड वैल्यू पूर्व निर्धारित होती है।

प्रकार

उपयोग किए गए विशिष्ट मॉडल के आधार पर उन्हें सेमी-लीनियर यूनिट, एनवी न्यूरॉन, बाइनरी न्यूरॉन, लीनियर थ्रेशोल्ड फंक्शन या मैककुलोच-पिट्स (MCP) न्यूरॉन कहा जा सकता है।

सरल कृत्रिम न्यूरॉन्स, जैसे मैककुलोच-पिट्स मॉडल, को कभी-कभी कैरिकेचर मॉडल के रूप में वर्णित किया जाता है, क्योंकि उनका उद्देश्य एक या अधिक न्यूरोफिज़ियोलॉजिकल अवलोकनों को प्रतिबिंबित करना है, लेकिन यथार्थवाद के संबंध में।[3]

जैविक मॉडल

न्यूरॉन और मायेलिनेटेड एक्सॉन, डेन्ड्राइट्स पर इनपुट से अक्षतंतु टर्मिनलों पर आउटपुट के सिग्नल प्रवाह के साथ

कृत्रिम न्यूरॉन्स को उनके जैविक समकक्षों के पहलुओं की नकल करने के लिए डिज़ाइन किया गया है। हालाँकि जैविक और कृत्रिम तंत्रिका नेटवर्क के बीच एक महत्वपूर्ण प्रदर्शन अंतर मौजूद है। मानव मस्तिष्क में विशेष रूप से एकल जैविक न्यूरॉन्स में एक्सओआर फ़ंक्शन सीखने में सक्षम ऑसिलेटिंग एक्टिवेशन फ़ंक्शन के साथ खोजा गया है।[4] * डेन्ड्राइट - एक जैविक न्यूरॉन में, डेन्ड्राइट इनपुट वेक्टर के रूप में कार्य करते हैं। ये डेन्ड्राइट कोशिका को पड़ोसी न्यूरॉन्स की एक बड़ी (>1000) संख्या से संकेत प्राप्त करने की अनुमति देते हैं। उपरोक्त गणितीय उपचार के अनुसार, प्रत्येक डेन्ड्राइट उस डेन्ड्राइट के वजन मान से गुणा करने में सक्षम होता है। सिनैप्टिक न्यूरोट्रांसमीटर के जवाब में डेन्ड्राइट में पेश किए गए सिग्नल रसायनों के लिए सिनैप्टिक न्यूरोट्रांसमीटर के अनुपात को बढ़ाकर या घटाकर गुणन पूरा किया जाता है। सिनैप्टिक न्यूरोट्रांसमीटर के स्वागत के जवाब में डेंड्राइट के साथ सिग्नल इनहिबिटर (यानी विपरीत चार्ज आयन) को प्रेषित करके एक नकारात्मक गुणन प्रभाव प्राप्त किया जा सकता है।

  • सोमा (जीव विज्ञान) - एक जैविक न्यूरॉन में, सोम उपरोक्त गणितीय विवरण में देखे गए योग समारोह के रूप में कार्य करता है। चूंकि सकारात्मक और नकारात्मक संकेत (रोमांचक और अवरोधक, क्रमशः) डेन्ड्राइट्स से सोमा में आते हैं, सकारात्मक और नकारात्मक आयन प्रभावी रूप से योग में जोड़े जाते हैं, सेल के शरीर के अंदर समाधान में एक साथ मिश्रित होने के सरल गुण से।
  • एक्सोन - अक्षतंतु अपना संकेत सोमा के अंदर होने वाले योग व्यवहार से प्राप्त करता है। अक्षतंतु का खुलना अनिवार्य रूप से सोमा के अंदर समाधान की विद्युत क्षमता का नमूना लेता है। एक बार सोमा एक निश्चित क्षमता तक पहुंच जाता है, अक्षतंतु अपनी लंबाई के नीचे एक ऑल-इन सिग्नल पल्स संचारित करेगा। इस संबंध में, अक्षतंतु हमारे कृत्रिम न्यूरॉन को अन्य कृत्रिम न्यूरॉन्स से जोड़ने की क्षमता के रूप में व्यवहार करता है।

हालांकि, अधिकांश कृत्रिम न्यूरॉन्स के विपरीत, जैविक न्यूरॉन्स असतत दालों में आग लगाते हैं। हर बार सोमा के अंदर विद्युत क्षमता एक निश्चित सीमा तक पहुँचती है, एक नाड़ी अक्षतंतु के नीचे प्रेषित होती है। इस स्पंदन को निरंतर मूल्यों में अनुवादित किया जा सकता है। दर (प्रति सेकंड सक्रियता, आदि) जिस पर एक अक्षतंतु आग सीधे उस दर में परिवर्तित हो जाती है जिस पर पड़ोसी कोशिकाओं को सिग्नल आयन मिलते हैं। जितनी तेजी से एक जैविक न्यूरॉन प्रज्वलित होता है, उतनी ही तेजी से पास के न्यूरॉन्स विद्युत क्षमता जमा करते हैं (या विद्युत क्षमता खो देते हैं, डेन्ड्राइट के भार के आधार पर जो न्यूरॉन से जुड़ते हैं)। यह रूपांतरण है जो कंप्यूटर वैज्ञानिकों और गणितज्ञों को कृत्रिम न्यूरॉन्स का उपयोग करके जैविक तंत्रिका नेटवर्क का अनुकरण करने की अनुमति देता है जो अलग-अलग मान (अक्सर -1 से 1 तक) का उत्पादन कर सकते हैं।

एन्कोडिंग

शोध से पता चला है कि बर्डसॉन्ग प्रोडक्शन के लिए जिम्मेदार न्यूरल सर्किट में यूनरी कोडिंग का इस्तेमाल किया जाता है।[5][6] कोडिंग की अंतर्निहित सादगी के कारण जैविक नेटवर्क में यूनरी का उपयोग संभवतः है। एक अन्य योगदान कारक यह हो सकता है कि यूनरी कोडिंग त्रुटि सुधार की एक निश्चित डिग्री प्रदान करती है।[7]


भौतिक कृत्रिम कोशिकाएं

भौतिक कृत्रिम न्यूरॉन्स - कार्बनिक और अकार्बनिक में अनुसंधान और विकास है।

उदाहरण के लिए, कुछ कृत्रिम न्यूरॉन्स प्राप्त कर सकते हैं[8][9] और डोपामाइन (विद्युत संकेतों के बजाय स्नायुसंचारी ) को छोड़ता है और मस्तिष्क-कंप्यूटर इंटरफेस/वेटवेयर कंप्यूटर#भविष्य के अनुप्रयोगों में उपयोग की संभावना के साथ प्राकृतिक चूहे नरम रोबोट और मस्तिष्क कोशिकाओं के साथ संचार करता है।[10][11] कम-शक्ति वाले बायोकम्पैटिबल मेमिस्टर कृत्रिम न्यूरॉन्स के निर्माण को सक्षम कर सकते हैं जो जैविक क्रिया क्षमता के वोल्टेज पर कार्य करते हैं और न्यूरोमॉर्फिक कंप्यूटिंग और/या मस्तिष्क-कंप्यूटर इंटरफ़ेस के लिए बायोसेंसर को सीधे संसाधित करने के लिए उपयोग किया जा सकता है।[12][13][14] पॉलीमर से बने कार्बनिक न्यूरोमॉर्फिक सर्किट, एक आयन-समृद्ध जेल के साथ लेपित, एक सामग्री को न्यूरॉन जैसे इलेक्ट्रिक चार्ज को ले जाने में सक्षम बनाने के लिए, एक रोबोट में बनाया गया है, जो इसे वास्तविक दुनिया के भीतर सेंसरिमोटरली सीखने में सक्षम बनाता है, बजाय सिमुलेशन या आभासी रूप से .[15][16] इसके अलावा, नरम पदार्थ (पॉलिमर) से बने कृत्रिम स्पाइकिंग न्यूरॉन्स जैविक रूप से प्रासंगिक वातावरण में काम कर सकते हैं और कृत्रिम और जैविक डोमेन के बीच तालमेल संचार को सक्षम कर सकते हैं।[17][18]


इतिहास

पहला कृत्रिम न्यूरॉन थ्रेसहोल्ड लॉजिक यूनिट (टीएलयू) या लीनियर थ्रेशोल्ड यूनिट था,[19] पहली बार 1943 में वॉरेन मैककुलोच और वाल्टर पिट्स द्वारा प्रस्तावित किया गया था। मॉडल को विशेष रूप से मस्तिष्क में तंत्रिका जाल के कम्प्यूटेशनल मॉडल के रूप में लक्षित किया गया था।[20] ट्रांसफर फ़ंक्शन के रूप में, यह हेविसाइड चरण फ़ंक्शन का उपयोग करने के बराबर थ्रेसहोल्ड नियोजित करता है। प्रारंभ में, केवल एक साधारण मॉडल पर विचार किया गया था, बाइनरी इनपुट और आउटपुट के साथ, संभावित भार पर कुछ प्रतिबंध और अधिक लचीला थ्रेशोल्ड मान। शुरुआत के बाद से यह पहले से ही देखा गया था कि किसी भी बूलियन समारोह को ऐसे उपकरणों के नेटवर्क द्वारा कार्यान्वित किया जा सकता है, जो इस तथ्य से आसानी से देखा जा सकता है कि कोई AND और OR फ़ंक्शंस को कार्यान्वित कर सकता है, और उन्हें अलग-अलग सामान्य रूप या संयोजक सामान्य रूप में उपयोग कर सकता है . शोधकर्ताओं ने भी जल्द ही महसूस किया कि चक्रीय नेटवर्क, न्यूरॉन्स के माध्यम से प्रतिक्रिया के साथ, गतिशील प्रणालियों को स्मृति के साथ परिभाषित कर सकते हैं, लेकिन अधिकांश शोध केंद्रित (और अभी भी) सख्ती से फीड-फॉरवर्ड नेटवर्क पर केंद्रित हैं क्योंकि वे छोटी कठिनाई पेश करते हैं।

एक महत्वपूर्ण और अग्रणी कृत्रिम तंत्रिका नेटवर्क जो रैखिक थ्रेशोल्ड फ़ंक्शन का उपयोग करता था, वह परसेप्ट्रॉन था, जिसे फ्रैंक रोसेनब्लैट द्वारा विकसित किया गया था। यह मॉडल पहले से ही न्यूरॉन्स में अधिक लचीले वजन मूल्यों पर विचार करता था, और अनुकूली क्षमताओं वाली मशीनों में उपयोग किया जाता था। 1960 में बर्नार्ड विड्रो द्वारा पूर्वाग्रह शब्द के रूप में दहलीज मूल्यों का प्रतिनिधित्व पेश किया गया था - ADALINE देखें।

1980 के दशक के उत्तरार्ध में, जब तंत्रिका नेटवर्क पर शोध फिर से मजबूत हुआ, तो अधिक निरंतर आकार वाले न्यूरॉन्स पर विचार किया जाने लगा। सक्रियण समारोह को अलग करने की संभावना वजन के समायोजन के लिए ढाल वंश और अन्य अनुकूलन एल्गोरिदम के प्रत्यक्ष उपयोग की अनुमति देती है। तंत्रिका नेटवर्क भी एक सामान्य कार्य सन्निकटन मॉडल के रूप में उपयोग किए जाने लगे। सबसे प्रसिद्ध प्रशिक्षण एल्गोरिथम जिसे backpropagation कहा जाता है, को कई बार फिर से खोजा गया है लेकिन इसका पहला विकास पॉल वर्बोस के काम पर वापस जाता है।[21][22]


स्थानांतरण कार्यों के प्रकार

न्यूरॉन के ट्रांसफर फ़ंक्शन (सक्रियण फ़ंक्शन) को कई गुणों के लिए चुना जाता है जो न्यूरॉन युक्त नेटवर्क को बढ़ाते हैं या सरल करते हैं। महत्वपूर्ण रूप से, उदाहरण के लिए, किसी भी बहुपरत परसेप्ट्रॉन में लीनियर ट्रांसफर फ़ंक्शन का उपयोग करने के लिए एक समान सिंगल-लेयर नेटवर्क होता है; इसलिए बहु-परत नेटवर्क का लाभ प्राप्त करने के लिए एक गैर-रैखिक कार्य आवश्यक है।[citation needed]

नीचे, यू सभी मामलों में न्यूरॉन के सभी इनपुट के भारित योग को संदर्भित करता है, अर्थात एन इनपुट के लिए,

जहां w 'सिनैप्टिक वेट' का वेक्टर है और x इनपुट का वेक्टर है।

स्टेप फंक्शन

इस ट्रांसफर फ़ंक्शन का आउटपुट वाई बाइनरी है, यह इस बात पर निर्भर करता है कि इनपुट निर्दिष्ट सीमा, θ से मिलता है या नहीं। सिग्नल भेजा जाता है, यानी अगर सक्रियण थ्रेशोल्ड को पूरा करता है, तो आउटपुट एक पर सेट होता है।

यह फ़ंक्शन परसेप्ट्रॉन में उपयोग किया जाता है और अक्सर कई अन्य मॉडलों में दिखाई देता है। यह hyperplane द्वारा इनपुट के सदिश स्थल का विभाजन करता है। यह इनपुट के बाइनरी वर्गीकरण को करने के उद्देश्य से नेटवर्क की अंतिम परत में विशेष रूप से उपयोगी है। वज़न को बड़े मान निर्दिष्ट करके इसे अन्य सिग्मोइडल फ़ंक्शंस से अनुमानित किया जा सकता है।

रैखिक संयोजन

इस मामले में, आउटपुट यूनिट केवल इसके इनपुट का भारित योग और एक पूर्वाग्रह शब्द है। ऐसे कई रैखिक न्यूरॉन्स इनपुट वेक्टर के रैखिक परिवर्तन का प्रदर्शन करते हैं। यह आमतौर पर नेटवर्क की पहली परतों में अधिक उपयोगी होता है। हार्मोनिक विश्लेषण जैसे रैखिक मॉडल के आधार पर कई विश्लेषण उपकरण मौजूद हैं, और वे सभी इस रैखिक न्यूरॉन के साथ तंत्रिका नेटवर्क में उपयोग किए जा सकते हैं। पूर्वाग्रह शब्द हमें डेटा के सजातीय निर्देशांक बनाने की अनुमति देता है।

देखें: लीनियर ट्रांसफॉर्मेशन, हार्मोनिक एनालिसिस, रैखिक फ़िल्टर , छोटा लहर , प्रमुख कंपोनेंट विश्लेषण , स्वतंत्र घटक विश्लेषण , विखंडन

सिग्मॉइड

एक काफी सरल गैर-रैखिक फ़ंक्शन, सिग्मॉइड फ़ंक्शन जैसे कि लॉजिस्टिक फ़ंक्शन में भी आसानी से परिकलित डेरिवेटिव होता है, जो नेटवर्क में वज़न अपडेट की गणना करते समय महत्वपूर्ण हो सकता है। इस प्रकार यह नेटवर्क को गणितीय रूप से अधिक आसानी से जोड़-तोड़ करने योग्य बनाता है, और शुरुआती कंप्यूटर वैज्ञानिकों के लिए आकर्षक था, जिन्हें अपने सिमुलेशन के कम्प्यूटेशनल लोड को कम करने की आवश्यकता थी। यह पहले आमतौर पर मल्टीलेयर परसेप्ट्रॉन में देखा जाता था। हालांकि, हाल के काम ने सिग्मॉइड न्यूरॉन्स को रेक्टिफायर (तंत्रिका नेटवर्क) न्यूरॉन्स की तुलना में कम प्रभावी दिखाया है। कारण यह है कि बैकप्रोपैजेशन एल्गोरिदम द्वारा गणना किए गए ग्रेडियेंट शून्य की ओर कम हो जाते हैं क्योंकि सक्रियण सिग्मोइडल न्यूरॉन्स की परतों के माध्यम से फैलता है, जिससे सिग्मोइडल न्यूरॉन्स की कई परतों का उपयोग करके तंत्रिका नेटवर्क को अनुकूलित करना मुश्किल हो जाता है।


शुद्ध करनेवाला

कृत्रिम तंत्रिका नेटवर्क के संदर्भ में, रेक्टिफायर या ReLU (रेक्टीफाइड लीनियर यूनिट) एक सक्रियण फ़ंक्शन है जिसे इसके तर्क के सकारात्मक भाग के रूप में परिभाषित किया गया है:

जहाँ x एक न्यूरॉन का इनपुट है। इसे रैंप समारोह के रूप में भी जाना जाता है और इलेक्ट्रिकल इंजीनियरिंग में अर्ध-तरंग सुधार के समान है। इस एक्टिवेशन फंक्शन को सबसे पहले हैनलोसर एट अल द्वारा डायनेमिक नेटवर्क में पेश किया गया था। नेचर में 2000 के पेपर में[23] मजबूत जैविक प्रेरणा और गणितीय औचित्य के साथ।[24] गहरे नेटवर्क के बेहतर प्रशिक्षण को सक्षम करने के लिए 2011 में पहली बार इसका प्रदर्शन किया गया है,[25] 2011 से पहले व्यापक रूप से उपयोग किए जाने वाले सक्रियण कार्यों की तुलना में, यानी लॉजिस्टिक फंक्शन (जो संभाव्यता सिद्धांत से प्रेरित है; संभार तन्त्र परावर्तन देखें) और इसका अधिक व्यावहारिक[26] समकक्ष, अतिशयोक्तिपूर्ण स्पर्शरेखा

ReLU सक्रियण फ़ंक्शन का आमतौर पर उपयोग किया जाने वाला संस्करण Leaky ReLU है जो इकाई के सक्रिय नहीं होने पर एक छोटे, सकारात्मक ढाल की अनुमति देता है:

जहाँ x न्यूरॉन का इनपुट है और a एक छोटा सकारात्मक स्थिरांक है (मूल पेपर में मान 0.01 का उपयोग a के लिए किया गया था)।[27]


स्यूडोकोड एल्गोरिथम

निम्नलिखित एकल टीएलयू का एक सरल स्यूडोकोड कार्यान्वयन है जो बूलियन डेटा प्रकार इनपुट (सही या गलत) लेता है, और सक्रिय होने पर एकल बूलियन आउटपुट देता है। एक वस्तु के उन्मुख | ऑब्जेक्ट-ओरिएंटेड मॉडल का उपयोग किया जाता है। प्रशिक्षण का कोई तरीका परिभाषित नहीं है, क्योंकि कई मौजूद हैं। यदि विशुद्ध रूप से कार्यात्मक मॉडल का उपयोग किया गया था, तो नीचे दिए गए वर्ग TLU को एक फ़ंक्शन TLU के साथ बदल दिया जाएगा जिसमें इनपुट पैरामीटर थ्रेशोल्ड, वज़न और इनपुट जो एक बूलियन मान लौटाते हैं।

कक्षा टीएलयू को इस प्रकार परिभाषित किया गया है:
    डेटा सदस्य दहलीज: संख्या
    डेटा सदस्य भार: आकार X की संख्याओं की सूची

    फ़ंक्शन सदस्य आग (इनपुट: आकार X के बूलियन की सूची): बूलियन को इस प्रकार परिभाषित किया गया है:
        चर टी: संख्या
        टी ← 0
        प्रत्येक के लिए मैं 1 से X में करता हूं
            यदि इनपुट (i) सत्य है तो
                टी ← टी + वजन (मैं)
            अगर अंत
        प्रत्येक के लिए अंत
        अगर टी> दहलीज तब
            सच लौटाओ
        अन्य:
            विवरण झूठा है
        अगर अंत
    अंत समारोह
अंत वर्ग

यह भी देखें

संदर्भ

  1. "Neuromorphic Circuits With Neural Modulation Enhancing the Information Content of Neural Signaling | International Conference on Neuromorphic Systems 2020" (in English). doi:10.1145/3407197.3407204. S2CID 220794387. {{cite journal}}: Cite journal requires |journal= (help)
  2. Maan, A. K.; Jayadevi, D. A.; James, A. P. (1 January 2016). "यादगार दहलीज तर्क सर्किट का एक सर्वेक्षण". IEEE Transactions on Neural Networks and Learning Systems. PP (99): 1734–1746. arXiv:1604.07121. Bibcode:2016arXiv160407121M. doi:10.1109/TNNLS.2016.2547842. ISSN 2162-237X. PMID 27164608. S2CID 1798273.
  3. F. C. Hoppensteadt and E. M. Izhikevich (1997). Weakly connected neural networks. Springer. p. 4. ISBN 978-0-387-94948-2.
  4. Gidon, Albert; Zolnik, Timothy Adam; Fidzinski, Pawel; Bolduan, Felix; Papoutsi, Athanasia; Poirazi, Panayiota; Holtkamp, Martin; Vida, Imre; Larkum, Matthew Evan (2020-01-03). "Dendritic action potentials and computation in human layer 2/3 cortical neurons". Science. 367 (6473): 83–87. Bibcode:2020Sci...367...83G. doi:10.1126/science.aax6239. PMID 31896716. S2CID 209676937.
  5. Squire, L.; Albright, T.; Bloom, F.; Gage, F.; Spitzer, N., eds. (October 2007). बर्डसॉन्ग प्रोडक्शन, लर्निंग और कोडिंग के न्यूरल नेटवर्क मॉडल (PDF). New Encyclopedia of Neuroscience: Elservier. Archived from the original (PDF) on 2015-04-12. Retrieved 12 April 2015.
  6. Moore, J.M.; et al. (2011). "मोटर पाथवे अभिसरण ऑसीन पक्षियों में शब्दांश प्रदर्शनों के आकार की भविष्यवाणी करता है". Proc. Natl. Acad. Sci. USA. 108 (39): 16440–16445. Bibcode:2011PNAS..10816440M. doi:10.1073/pnas.1102077108. PMC 3182746. PMID 21918109.
  7. Potluri, Pushpa Sree (26 November 2014). "यूनरी कोडिंग की त्रुटि सुधार क्षमता". arXiv:1411.7406 [cs.IT].
  8. Kleiner, Kurt (25 August 2022). "कंप्यूटर चिप्स बनाना मस्तिष्क की कोशिकाओं की तरह अधिक कार्य करता है". Knowable Magazine | Annual Reviews (in English). doi:10.1146/knowable-082422-1. Retrieved 23 September 2022.
  9. Keene, Scott T.; Lubrano, Claudia; Kazemzadeh, Setareh; Melianas, Armantas; Tuchman, Yaakov; Polino, Giuseppina; Scognamiglio, Paola; Cinà, Lucio; Salleo, Alberto; van de Burgt, Yoeri; Santoro, Francesca (September 2020). "न्यूरोट्रांसमीटर-मध्यस्थता प्लास्टिसिटी के साथ एक बायोहाइब्रिड सिनैप्स". Nature Materials (in English). 19 (9): 969–973. Bibcode:2020NatMa..19..969K. doi:10.1038/s41563-020-0703-y. ISSN 1476-4660. PMID 32541935. S2CID 219691307.
  10. "कृत्रिम न्यूरॉन वास्तविक की तरह चूहे के मस्तिष्क की कोशिकाओं के साथ डोपामाइन की अदला-बदली करता है". New Scientist. Retrieved 16 September 2022.
  11. Wang, Ting; Wang, Ming; Wang, Jianwu; Yang, Le; Ren, Xueyang; Song, Gang; Chen, Shisheng; Yuan, Yuehui; Liu, Ruiqing; Pan, Liang; Li, Zheng; Leow, Wan Ru; Luo, Yifei; Ji, Shaobo; Cui, Zequn; He, Ke; Zhang, Feilong; Lv, Fengting; Tian, Yuanyuan; Cai, Kaiyu; Yang, Bowen; Niu, Jingyi; Zou, Haochen; Liu, Songrui; Xu, Guoliang; Fan, Xing; Hu, Benhui; Loh, Xian Jun; Wang, Lianhui; Chen, Xiaodong (8 August 2022). "रासायनिक रूप से मध्यस्थ कृत्रिम न्यूरॉन". Nature Electronics (in English). 5 (9): 586–595. doi:10.1038/s41928-022-00803-0. ISSN 2520-1131. S2CID 251464760.
  12. "वैज्ञानिक छोटे उपकरण बनाते हैं जो मानव मस्तिष्क की तरह काम करते हैं". The Independent (in English). April 20, 2020. Archived from the original on April 24, 2020. Retrieved May 17, 2020.
  13. "शोधकर्ताओं ने इलेक्ट्रॉनिक्स का खुलासा किया जो कुशल सीखने में मानव मस्तिष्क की नकल करता है". phys.org (in English). Archived from the original on May 28, 2020. Retrieved May 17, 2020.
  14. Fu, Tianda; Liu, Xiaomeng; Gao, Hongyan; Ward, Joy E.; Liu, Xiaorong; Yin, Bing; Wang, Zhongrui; Zhuo, Ye; Walker, David J. F.; Joshua Yang, J.; Chen, Jianhan; Lovley, Derek R.; Yao, Jun (April 20, 2020). "बायोइंस्पायर्ड बायो-वोल्टेज मेमिस्टर". Nature Communications. 11 (1): 1861. Bibcode:2020NatCo..11.1861F. doi:10.1038/s41467-020-15759-y. PMC 7171104. PMID 32313096.
  15. Bolakhe, Saugat. "कार्बनिक 'मस्तिष्क' के साथ लेगो रोबोट एक भूलभुलैया को नेविगेट करना सीखता है". Scientific American (in English). Retrieved 1 February 2022.
  16. Krauhausen, Imke; Koutsouras, Dimitrios A.; Melianas, Armantas; Keene, Scott T.; Lieberth, Katharina; Ledanseur, Hadrien; Sheelamanthula, Rajendar; Giovannitti, Alexander; Torricelli, Fabrizio; Mcculloch, Iain; Blom, Paul W. M.; Salleo, Alberto; Burgt, Yoeri van de; Gkoupidenis, Paschalis (December 2021). "सेंसरिमोटर एकीकरण और रोबोटिक्स में सीखने के लिए कार्बनिक न्यूरोमॉर्फिक इलेक्ट्रॉनिक्स". Science Advances (in English). 7 (50): eabl5068. Bibcode:2021SciA....7.5068K. doi:10.1126/sciadv.abl5068. hdl:10754/673986. PMC 8664264. PMID 34890232. S2CID 245046482.
  17. Sarkar, Tanmoy; Lieberth, Katharina; Pavlou, Aristea; Frank, Thomas; Mailaender, Volker; McCulloch, Iain; Blom, Paul W. M.; Torriccelli, Fabrizio; Gkoupidenis, Paschalis (7 November 2022). "सीटू न्यूरोमॉर्फिक सेंसिंग और बायोइंटरफेसिंग के लिए एक कार्बनिक कृत्रिम स्पाइकिंग न्यूरॉन". Nature Electronics (in English). 5 (11): 774–783. doi:10.1038/s41928-022-00859-y. ISSN 2520-1131. S2CID 253413801.
  18. "कृत्रिम न्यूरॉन्स सहक्रियात्मक संचालन को सक्षम करने के लिए जैविक समकक्षों का अनुकरण करते हैं". Nature Electronics (in English). 5 (11): 721–722. 10 November 2022. doi:10.1038/s41928-022-00862-3. ISSN 2520-1131. S2CID 253469402.
  19. Martin Anthony (January 2001). Discrete Mathematics of Neural Networks: Selected Topics. SIAM. pp. 3–. ISBN 978-0-89871-480-7.
  20. Charu C. Aggarwal (25 July 2014). Data Classification: Algorithms and Applications. CRC Press. pp. 209–. ISBN 978-1-4665-8674-1.
  21. Paul Werbos, Beyond Regression: New Tools for Prediction and Analysis in the Behavioral Sciences. PhD thesis, Harvard University, 1974
  22. Werbos, P.J. (1990). "Backpropagation through time: what it does and how to do it". Proceedings of the IEEE. 78 (10): 1550–1560. doi:10.1109/5.58337. ISSN 0018-9219. S2CID 18470994.
  23. Hahnloser, Richard H. R.; Sarpeshkar, Rahul; Mahowald, Misha A.; Douglas, Rodney J.; Seung, H. Sebastian (2000). "डिजिटल चयन और एनालॉग प्रवर्धन कॉर्टेक्स-प्रेरित सिलिकॉन सर्किट में सह-अस्तित्व में हैं". Nature. 405 (6789): 947–951. Bibcode:2000Natur.405..947H. doi:10.1038/35016072. ISSN 0028-0836. PMID 10879535. S2CID 4399014.
  24. R Hahnloser, H.S. Seung (2001). सममित दहलीज-रैखिक नेटवर्क में अनुमत और निषिद्ध सेट. NIPS 2001.{{cite conference}}: CS1 maint: uses authors parameter (link)
  25. Xavier Glorot, Antoine Bordes and Yoshua Bengio (2011). डीप विरल रेक्टिफायर न्यूरल नेटवर्क (PDF). AISTATS.{{cite conference}}: CS1 maint: uses authors parameter (link)
  26. Yann LeCun, Leon Bottou, Genevieve B. Orr and Klaus-Robert Müller (1998). "कुशल बैकप्रॉप" (PDF). In G. Orr; K. Müller (eds.). Neural Networks: Tricks of the Trade. Springer.{{cite encyclopedia}}: CS1 maint: uses authors parameter (link)
  27. Andrew L. Maas, Awni Y. Hannun, Andrew Y. Ng (2014). Rectifier Nonlinearities Improve Neural Network Acoustic Models.


अग्रिम पठन


बाहरी संबंध