हेब्बियन सिद्धांत: Difference between revisions

From Vigyanwiki
(Created page with "{{short description|Neuroscientific theory}} हेब्बियन सिद्धांत एक neuropsychological सिद्धांत है जो दाव...")
 
No edit summary
Line 1: Line 1:
{{short description|Neuroscientific theory}}
{{short description|Neuroscientific theory}}
हेब्बियन सिद्धांत एक [[neuropsychological]] सिद्धांत है जो दावा करता है कि [[ प्रीसानेप्टिक कोशिका ]] की बार-बार और पोस्टसिनेप्टिक सेल की लगातार उत्तेजना से [[निष्कर्ष]] प्रभावकारिता में वृद्धि होती है। यह सीखने की प्रक्रिया के दौरान मस्तिष्क के [[न्यूरॉन]]्स के अनुकूलन, [[ सूत्रयुग्मक सुनम्यता ]] को समझाने का एक प्रयास है। इसे [[डोनाल्ड हेब्ब]] ने अपनी 1949 की पुस्तक ''[[व्यवहार का संगठन]]'' में पेश किया था।<ref name="Hebb 1949">{{Cite book|last=Hebb |first=D.O. |title=व्यवहार का संगठन|publisher=Wiley & Sons |location=New York |year=1949 }}</ref> इस सिद्धांत को हेब्ब का नियम, हेब्ब का अभिधारणा और कोशिका संयोजन सिद्धांत भी कहा जाता है। हेब्ब इसे इस प्रकार बताते हैं:
हेब्बियन सिद्धांत एक [[neuropsychological|न्यूरोसाइकोलॉजिकल]] सिद्धांत है जो प्रमाणित करता है कि [[ प्रीसानेप्टिक कोशिका ]] की बार-बार और पोस्टसिनेप्टिक सेल की निरन्तर उत्तेजना से [[निष्कर्ष]] प्रभावकारिता में वृद्धि होती है। यह सीखने की प्रक्रिया के समय मस्तिष्क के [[न्यूरॉन]] के अनुकूलन, [[ सूत्रयुग्मक सुनम्यता ]] को समझाने का एक प्रयास है। इसे [[डोनाल्ड हेब्ब]] ने अपनी 1949 की पुस्तक ''[[व्यवहार का संगठन]]'' में प्रस्तुत किया था।<ref name="Hebb 1949">{{Cite book|last=Hebb |first=D.O. |title=व्यवहार का संगठन|publisher=Wiley & Sons |location=New York |year=1949 }}</ref> इस सिद्धांत को हेब्ब का नियम, हेब्ब का अभिधारणा और कोशिका संयोजन सिद्धांत भी कहा जाता है। हेब्ब इसे इस प्रकार बताते हैं:


<ब्लॉककोट>आइए मान लें कि एक प्रतिध्वनि गतिविधि (या ट्रेस) की दृढ़ता या पुनरावृत्ति स्थायी सेलुलर परिवर्तनों को प्रेरित करती है जो इसकी स्थिरता को बढ़ाती है। ... जब कोशिका '''' का एक अक्षतंतु कोशिका ''बी'' को उत्तेजित करने के लिए पर्याप्त निकट होता है और बार-बार या लगातार इसे सक्रिय करने में भाग लेता है, तो एक या दोनों कोशिकाओं में कुछ विकास प्रक्रिया या चयापचय परिवर्तन होता है ''ए'' की दक्षता, ''बी'' को सक्रिय करने वाली कोशिकाओं में से एक के रूप में बढ़ जाती है।<ref name="Hebb 1949"/></ब्लॉककोट>
'''<ब्लॉककोट>'''


सिद्धांत को अक्सर उन कोशिकाओं के रूप में संक्षेपित किया जाता है जो एक साथ तार से प्रज्वलित होती हैं।<ref>[[Siegrid Löwel]], Göttingen University; The exact sentence is: "neurons wire together if they fire together" (Löwel, S. and Singer, W. (1992) Science 255 (published January 10, 1992) {{cite news |title=Selection of Intrinsic Horizontal Connections in the Visual Cortex by Correlated Neuronal Activity |pages=209–212 |journal=Science Magazine |publisher=American Association for the Advancement of Science |location=United States |url=https://www.science.org/doi/10.1126/science.1372754 |issn=0036-8075}}</ref> हालाँकि, हेब्ब ने इस बात पर जोर दिया कि सेल को सेल बी को फायर करने में भाग लेने की जरूरत है, और ऐसी कार्य-कारणता केवल तभी हो सकती है जब सेल ठीक पहले फायर करता है, सेल बी के साथ उसी समय नहीं। हेब्ब के काम में कार्य-कारण के इस पहलू ने पूर्वाभास दिया कि अब क्या है [[स्पाइक-टाइमिंग-निर्भर प्लास्टिसिटी]] के बारे में जाना जाता है, जिसके लिए अस्थायी प्राथमिकता की आवश्यकता होती है।<ref>{{cite journal|author1=Caporale N|author2=Dan Y|title=Spike timing-dependent plasticity: a Hebbian learning rule|journal=Annual Review of Neuroscience|date=2008|volume=31|pages=25–46|doi=10.1146/annurev.neuro.31.060407.125639|pmid=18275283}}</ref>
मान लें कि एक प्रतिध्वनि गतिविधि (या ट्रेस) की दृढ़ता या पुनरावृत्ति स्थायी सेलुलर परिवर्तनों को प्रेरित करती है जो इसकी स्थिरता को बढ़ाती है। ... जब कोशिका ''A'' का एक अक्षतंतु कोशिका ''B'' को उत्तेजित करने के लिए पर्याप्त निकट होता है और बार-बार या निरन्तर इसे सक्रिय करने में भाग लेता है, तो एक या दोनों कोशिकाओं में कुछ विकास प्रक्रिया या उपापचय परिवर्तन होता है ''A''’की दक्षता, ''B'' को सक्रिय करने वाली कोशिकाओं में से एक के रूप में बढ़ जाती है।<ref name="Hebb 1949" />
सिद्धांत [[सहयोगी शिक्षा]] या हेब्बियन शिक्षा को समझाने का प्रयास करता है, जिसमें कोशिकाओं के एक साथ सक्रिय होने से उन कोशिकाओं के बीच [[सिनैप्टिक ताकत]] में स्पष्ट वृद्धि होती है। यह शिक्षा और स्मृति पुनर्वास के लिए त्रुटि रहित शिक्षण विधियों के लिए एक जैविक आधार भी प्रदान करता है। संज्ञानात्मक कार्य में [[कृत्रिम तंत्रिका नेटवर्क]] के अध्ययन में, इसे अक्सर [[बिना पर्यवेक्षित शिक्षण]] का तंत्रिका संबंधी आधार माना जाता है।
 
'''</ब्लॉककोट>'''
 
सिद्धांत को अधिकांशतः उन कोशिकाओं के रूप में संक्षेपित किया जाता है जो एक साथ तार से प्रज्वलित होती हैं।<ref>[[Siegrid Löwel]], Göttingen University; The exact sentence is: "neurons wire together if they fire together" (Löwel, S. and Singer, W. (1992) Science 255 (published January 10, 1992) {{cite news |title=Selection of Intrinsic Horizontal Connections in the Visual Cortex by Correlated Neuronal Activity |pages=209–212 |journal=Science Magazine |publisher=American Association for the Advancement of Science |location=United States |url=https://www.science.org/doi/10.1126/science.1372754 |issn=0036-8075}}</ref> चूँकि हेब्ब ने इस बात पर प्रभाव  दिया कि सेल A को सेल B को फायर करने में भाग लेने की जरूरत है, और ऐसी कार्य-कारणता केवल तभी हो सकती है जब सेल A ठीक पहले फायर करता है, और सेल B के साथ उसी समय नहीं  हेब्ब के काम में कार्य-कारण के इस पहलू ने पूर्वाभास दिया कि अब क्या है [[स्पाइक-टाइमिंग-निर्भर प्लास्टिसिटी]] के बारे में जाना जाता है, जिसके लिए अस्थायी प्राथमिकता की आवश्यकता होती है।<ref>{{cite journal|author1=Caporale N|author2=Dan Y|title=Spike timing-dependent plasticity: a Hebbian learning rule|journal=Annual Review of Neuroscience|date=2008|volume=31|pages=25–46|doi=10.1146/annurev.neuro.31.060407.125639|pmid=18275283}}</ref>
 
सिद्धांत साहचर्य या हेब्बियन सीखने की व्याख्या करने का प्रयास करता है, जिसमें कोशिकाओं के एक साथ सक्रिय होने से उन कोशिकाओं के बीच [[सिनैप्टिक ताकत|सिनैप्टिक शक्ति]] में स्पष्ट वृद्धि होती है। यह शिक्षा और मेमोरी पुनर्वास के लिए त्रुटि रहित शिक्षण विधियों के लिए एक जैविक आधार भी प्रदान करता है। संज्ञानात्मक कार्य में [[कृत्रिम तंत्रिका नेटवर्क]] के अध्ययन में इसे अधिकांशतः [[बिना पर्यवेक्षित शिक्षण]] का तंत्रिका संबंधी आधार माना जाता है।


==हेब्बियन एनग्राम्स और सेल असेंबली सिद्धांत==
==हेब्बियन एनग्राम्स और सेल असेंबली सिद्धांत==
हेब्बियन सिद्धांत चिंता करता है कि न्यूरॉन्स [[एंग्राम (न्यूरोसाइकोलॉजी)]] बनने के लिए खुद को कैसे जोड़ सकते हैं। कोशिका संयोजनों के स्वरूप और कार्य पर हेब्ब के सिद्धांतों को निम्नलिखित से समझा जा सकता है:<ref name="Hebb 1949"/>{{rp|70}}
हेब्बियन सिद्धांत कंसर्न करता है कि न्यूरॉन्स [[एंग्राम (न्यूरोसाइकोलॉजी)]] बनने के लिए खुद को कैसे जोड़ सकते हैं। कोशिका संयोजनों के स्वरूप और कार्य पर हेब्ब के सिद्धांतों को निम्नलिखित से समझा जा सकता है:<ref name="Hebb 1949"/>{{rp|70}}


<blockquote>सामान्य विचार पुराना है, कि कोई भी दो कोशिकाएँ या कोशिकाओं की प्रणालियाँ जो एक ही समय में बार-बार सक्रिय होती हैं, वे 'संबद्ध' हो जाती हैं ताकि एक में गतिविधि दूसरे में गतिविधि को सुविधाजनक बना सके।</blockquote>
<blockquote>सामान्य विचार पुराना है, कि कोई भी दो कोशिकाएँ या कोशिकाओं की प्रणालियाँ जो एक ही समय में बार-बार सक्रिय होती हैं, वे 'संबद्ध' हो जाती हैं जिससे एक में गतिविधि दूसरे में गतिविधि को सुविधाजनक बना सकता है।</blockquote>


हेब्ब ने यह भी लिखा:<ref name="Hebb 1949"/>{{rp|63}}
हेब्ब ने यह भी लिखा:<ref name="Hebb 1949"/>{{rp|63}}
<blockquote>जब एक कोशिका बार-बार दूसरी कोशिका को सक्रिय करने में सहायता करती है, तो पहली कोशिका का अक्षतंतु दूसरी कोशिका के सोमा के संपर्क में सिनैप्टिक नॉब विकसित करता है (या यदि वे पहले से मौजूद हैं तो उन्हें बड़ा करता है)।</blockquote>
<blockquote>जब एक कोशिका बार-बार दूसरी कोशिका को सक्रिय करने में सहायता करती है, तो पहली कोशिका का अक्षतंतु दूसरी कोशिका के सोमा के संपर्क में सिनैप्टिक नॉब विकसित करता है (या यदि वे पहले से उपस्थित हैं तो उन्हें बड़ा करता है)।</blockquote>


[डी। एलन ऑलपोर्ट] सेल असेंबली सिद्धांत और ऑटो-एसोसिएशन की अवधारणा की तर्ज पर एनग्राम बनाने में इसकी भूमिका के बारे में अतिरिक्त विचार प्रस्तुत करता है, जिसका वर्णन इस प्रकार है:
[डी एलन ऑलपोर्ट] सेल असेंबली सिद्धांत और ऑटो-एसोसिएशन की अवधारणा की तर्ज पर एनग्राम बनाने में इसकी भूमिका के बारे में अतिरिक्त विचार प्रस्तुत करता है, जिसका वर्णन इस प्रकार है:


<ब्लॉककोट>यदि किसी सिस्टम में इनपुट के कारण गतिविधि का एक ही पैटर्न बार-बार होता है, तो उस पैटर्न को बनाने वाले सक्रिय तत्वों का सेट तेजी से दृढ़ता से परस्पर जुड़ा हुआ हो जाएगा। अर्थात्, प्रत्येक तत्व हर दूसरे तत्व को चालू कर देगा और (नकारात्मक भार के साथ) उन तत्वों को बंद कर देगा जो पैटर्न का हिस्सा नहीं बनते हैं। इसे दूसरे तरीके से कहें तो, संपूर्ण पैटर्न 'ऑटो-एसोसिएटेड' हो जाएगा। हम सीखे हुए (ऑटो-संबद्ध) पैटर्न को एनग्राम कह सकते हैं।<ref>{{Cite book|last=Allport|first=D.A.|editor=Newman, S.K. |editor2=Epstein R.|chapter=Distributed memory, modular systems and dysphasia|title=डिस्फेसिया में वर्तमान परिप्रेक्ष्य|publisher=Churchill Livingstone|location=Edinburgh|year=1985|isbn=978-0-443-03039-0}}</ref>{{rp|44}}</ब्लॉककोट>
'''<ब्लॉककोट>'''


एरिक आर कैंडेल की प्रयोगशाला में काम#हेब्बियन सीखने के लिए प्रायोगिक समर्थन ने समुद्री [[ गैस्ट्रोपॉड ]] [[अप्लीसिया कैलिफ़ोर्निका]] में सिनैप्स पर हेब्बियन सीखने के तंत्र की भागीदारी के लिए सबूत प्रदान किए हैं।{{Citation needed|date=April 2019}} समुद्री अकशेरुकी जीवों में अध्ययन किए गए अपेक्षाकृत सरल परिधीय तंत्रिका तंत्र सिनैप्स के प्रयोगों की तुलना में कशेरुकियों के [[केंद्रीय तंत्रिका तंत्र]] सिनेप्स पर हेब्बियन सिनैप्स संशोधन तंत्र पर प्रयोगों को नियंत्रित करना अधिक कठिन है। कशेरुक न्यूरॉन्स (जैसे दीर्घकालिक पोटेंशिएशन) के बीच लंबे समय तक चलने वाले सिनैप्टिक परिवर्तनों पर अधिकांश काम में मस्तिष्क कोशिकाओं के गैर-शारीरिक प्रयोगात्मक उत्तेजना का उपयोग शामिल होता है। हालाँकि, कुछ शारीरिक रूप से प्रासंगिक सिनैप्स संशोधन तंत्र जिनका कशेरुकी मस्तिष्क में अध्ययन किया गया है, वे हेब्बियन प्रक्रियाओं के उदाहरण प्रतीत होते हैं। ऐसा ही एक अध्ययन<ref>{{cite journal |last1=Paulsen |first1=O |last2=Sejnowski |first2=T |title=गतिविधि के प्राकृतिक पैटर्न और दीर्घकालिक सिनैप्टिक प्लास्टिसिटी|journal=Current Opinion in Neurobiology |date=1 April 2000 |volume=10 |issue=2 |pages=172–180 |doi=10.1016/s0959-4388(00)00076-3}}</ref> प्रयोगों के परिणामों की समीक्षा से संकेत मिलता है कि सिनैप्टिक शक्तियों में लंबे समय तक चलने वाले परिवर्तन हेब्बियन और गैर-हेब्बियन दोनों तंत्रों के माध्यम से काम करने वाली शारीरिक रूप से प्रासंगिक सिनैप्टिक गतिविधि से प्रेरित हो सकते हैं।
यदि किसी सिस्टम में इनपुट के कारण गतिविधि का एक ही प्रतिरूप बार-बार होता है, तो उस प्रतिरूप को बनाने वाले सक्रिय तत्वों का सेट तेजी से दृढ़ता से परस्पर जुड़ा हुआ हो जाएगा। अर्थात्, प्रत्येक तत्व हर दूसरे तत्व को चालू कर देगा और (नकारात्मक भार के साथ) उन तत्वों को बंद कर देगा जो प्रतिरूप का भाग नहीं बनते हैं। इसे दूसरे विधि से कहें तो संपूर्ण प्रतिरूप 'ऑटो-एसोसिएटेड' हो जाएगा। हम सीखे हुए (ऑटो-संबद्ध) प्रतिरूप को एनग्राम कह सकते हैं।<ref>{{Cite book|last=Allport|first=D.A.|editor=Newman, S.K. |editor2=Epstein R.|chapter=Distributed memory, modular systems and dysphasia|title=डिस्फेसिया में वर्तमान परिप्रेक्ष्य|publisher=Churchill Livingstone|location=Edinburgh|year=1985|isbn=978-0-443-03039-0}}</ref>{{rp|44}}
 
'''</ब्लॉककोट>'''
 
एरिक आर कैंडेल की प्रयोगशाला में काम या हेब्बियन सीखने के लिए प्रायोगिक समर्थन ने समुद्री [[ गैस्ट्रोपॉड | गैस्ट्रोपॉड]] [[अप्लीसिया कैलिफ़ोर्निका]] में सिनैप्स पर हेब्बियन सीखने के तंत्र की भागीदारी के लिए प्रमाण प्रदान किए हैं। समुद्री अकशेरुकी जीवों में अध्ययन किए गए अपेक्षाकृत सरल परिधीय तंत्रिका तंत्र सिनैप्स के प्रयोगों की तुलना में कशेरुकियों के [[केंद्रीय तंत्रिका तंत्र]] सिनेप्स पर हेब्बियन सिनैप्स संशोधन तंत्र पर प्रयोगों को नियंत्रित करना अधिक कठिन है। कशेरुक न्यूरॉन्स (जैसे दीर्घकालिक पोटेंशिएशन) के बीच लंबे समय तक चलने वाले सिनैप्टिक परिवर्तनों पर अधिकांश काम में मस्तिष्क कोशिकाओं के गैर-शारीरिक प्रयोगात्मक उत्तेजना का उपयोग सम्मिलित होता है। चूँकि कुछ शारीरिक रूप से प्रासंगिक सिनैप्स संशोधन तंत्र जिनका कशेरुकी मस्तिष्क में अध्ययन किया गया है, वे हेब्बियन प्रक्रियाओं के उदाहरण प्रतीत होते हैं। ऐसा ही एक अध्ययन<ref>{{cite journal |last1=Paulsen |first1=O |last2=Sejnowski |first2=T |title=गतिविधि के प्राकृतिक पैटर्न और दीर्घकालिक सिनैप्टिक प्लास्टिसिटी|journal=Current Opinion in Neurobiology |date=1 April 2000 |volume=10 |issue=2 |pages=172–180 |doi=10.1016/s0959-4388(00)00076-3}}</ref> प्रयोगों के परिणामों की समीक्षा से संकेत मिलता है कि सिनैप्टिक शक्तियों में लंबे समय तक चलने वाले परिवर्तन हेब्बियन और गैर-हेब्बियन दोनों तंत्रों के माध्यम से काम करने वाली शारीरिक रूप से प्रासंगिक सिनैप्टिक गतिविधि से प्रेरित हो सकते हैं।


==सिद्धांत==
==सिद्धांत==
[[कृत्रिम न्यूरॉन]]्स और कृत्रिम तंत्रिका नेटवर्क के दृष्टिकोण से, हेब्ब के सिद्धांत को यह निर्धारित करने की एक विधि के रूप में वर्णित किया जा सकता है कि मॉडल न्यूरॉन्स के बीच वजन को कैसे बदला जाए। यदि दो न्यूरॉन्स एक साथ सक्रिय होते हैं तो उनके बीच का भार बढ़ जाता है, और यदि वे अलग-अलग सक्रिय होते हैं तो कम हो जाता है। जो नोड्स एक ही समय में या तो सकारात्मक या दोनों नकारात्मक होते हैं, उनमें मजबूत सकारात्मक भार होता है, जबकि जो विपरीत होते हैं, उनमें मजबूत नकारात्मक भार होता है।
[[कृत्रिम न्यूरॉन]] और कृत्रिम तंत्रिका नेटवर्क के दृष्टिकोण से हेब्ब के सिद्धांत को यह निर्धारित करने की एक विधि के रूप में वर्णित किया जा सकता है कि मॉडल न्यूरॉन्स के बीच वजन को कैसे बदला जाए। यदि दो न्यूरॉन्स एक साथ सक्रिय होते हैं तो उनके बीच का भार बढ़ जाता है, और यदि वे अलग-अलग सक्रिय होते हैं तो कम हो जाता है। जो नोड्स एक ही समय में या तो सकारात्मक या दोनों नकारात्मक होते हैं, उनमें प्रबल सकारात्मक भार होता है, जबकि जो विपरीत होते हैं, उनमें प्रबल नकारात्मक भार होता है।


निम्नलिखित हेब्बियन शिक्षा का एक सूत्रबद्ध वर्णन है: (कई अन्य विवरण संभव हैं)
निम्नलिखित हेब्बियन शिक्षा का एक सूत्रबद्ध वर्णन है: (कई अन्य विवरण संभव हैं)


:<math>\,w_{ij}=x_ix_j</math>
:<math>\,w_{ij}=x_ix_j</math>
कहाँ <math>w_{ij} </math> न्यूरॉन से कनेक्शन का भार है <math> j </math> न्यूरॉन को <math> i </math> और <math> x_i </math> न्यूरॉन के लिए इनपुट <math> i </math>. ध्यान दें कि यह पैटर्न लर्निंग है (प्रत्येक प्रशिक्षण उदाहरण के बाद वजन अपडेट किया जाता है)। [[हॉपफील्ड नेटवर्क]] में, कनेक्शन <math>w_{ij} </math> यदि शून्य पर सेट हैं <math>i=j </math> (कोई रिफ्लेक्सिव कनेक्शन की अनुमति नहीं है)। बाइनरी न्यूरॉन्स (सक्रियण या तो 0 या 1) के साथ, कनेक्शन 1 पर सेट किया जाएगा यदि कनेक्टेड न्यूरॉन्स में पैटर्न के लिए समान सक्रियण है।
जहां <math>w_{ij} </math> न्यूरॉन <math> j </math> से न्यूरॉन <math> i </math> तक कनेक्शन का भार है और <math> x_i </math> न्यूरॉन <math> i </math> के लिए इनपुट है। ध्यान दें कि यह प्रतिरूप लर्निंग है (प्रत्येक प्रशिक्षण उदाहरण के बाद वजन अपडेट किया जाता है)। [[हॉपफील्ड नेटवर्क]] में, कनेक्शन <math>w_{ij} </math> शून्य पर सेट होते हैं यदि <math>i=j </math> (कोई रिफ्लेक्सिव कनेक्शन की अनुमति नहीं है)। बाइनरी न्यूरॉन्स (सक्रियण या तो 0 या 1) के साथ, कनेक्शन 1 पर सेट किया जाएगा यदि कनेक्टेड न्यूरॉन्स में प्रतिरूप के लिए समान सक्रियण है।


जब कई प्रशिक्षण पैटर्न का उपयोग किया जाता है तो अभिव्यक्ति व्यक्तिगत पैटर्न का औसत बन जाती है:
जब कई प्रशिक्षण प्रतिरूप का उपयोग किया जाता है तो अभिव्यक्ति व्यक्तिगत प्रतिरूप का औसत बन जाती है:


:<math>w_{ij} = \frac{1}{p} \sum_{k=1}^p x_i^k x_j^k = \langle x_i x_j\rangle,\,</math>
:<math>w_{ij} = \frac{1}{p} \sum_{k=1}^p x_i^k x_j^k = \langle x_i x_j\rangle,\,</math>
कहाँ <math>w_{ij} </math> न्यूरॉन से कनेक्शन का भार है <math> j </math> न्यूरॉन को <math> i </math>, <math> p </math> प्रशिक्षण पैटर्न की संख्या है, <math>x_{i}^k</math> <math> k </math>न्यूरॉन के लिए वें इनपुट <math> i </math> और <> सभी प्रशिक्षण पैटर्न का औसत है। यह युग के अनुसार सीख रहा है (सभी प्रशिक्षण उदाहरण प्रस्तुत किए जाने के बाद वजन अपडेट किया जाता है), अंतिम शब्द असतत और निरंतर प्रशिक्षण सेट दोनों पर लागू होता है। फिर से, हॉपफ़ील्ड नेटवर्क में, कनेक्शन <math>w_{ij} </math> यदि शून्य पर सेट हैं <math>i=j </math> (कोई रिफ्लेक्सिव कनेक्शन नहीं)।
जहां <math>w_{ij} </math> न्यूरॉन <math> j </math> से न्यूरॉन <math> i </math> तक कनेक्शन का भार है, <math> p </math> प्रशिक्षण प्रतिरूप की संख्या है, <math>x_{i}^k</math> <math> k </math> न्यूरॉन <math> i </math> के लिए kth इनपुट है और <> सभी प्रशिक्षण प्रतिरूप का औसत है। यह युग के अनुसार सीख रहा है (सभी प्रशिक्षण उदाहरण प्रस्तुत किए जाने के बाद वजन अपडेट किया जाता है), अंतिम शब्द असतत और निरंतर प्रशिक्षण सेट दोनों पर प्रयुक्त होता है। फिर, हॉपफ़ील्ड नेटवर्क में, कनेक्शन <math>w_{ij} </math> शून्य पर सेट होते हैं यदि<math>i=j </math> (कोई रिफ्लेक्सिव कनेक्शन नहीं)।


हेब्बियन सीखने की एक भिन्नता जो ब्लॉकिंग और कई अन्य तंत्रिका सीखने की घटनाओं को ध्यान में रखती है, [[हैरी नॉक]] का गणितीय मॉडल है।<ref>Klopf, A. H. (1972). [https://web.archive.org/web/20170212151545/http://www.dtic.mil/dtic/tr/fulltext/u2/742259.pdf Brain function and adaptive systems—A heterostatic theory]. Technical Report AFCRL-72-0164, Air Force Cambridge Research Laboratories, Bedford, MA.</ref> हेटरोस्टैटिक सिद्धांत | क्लॉफ का मॉडल बहुत सारी जैविक घटनाओं को पुन: उत्पन्न करता है, और इसे लागू करना भी आसान है।
हेब्बियन सीखने की एक भिन्नता जो अवरोधन और कई अन्य तंत्रिका सीखने की घटनाओं को ध्यान में रखती है, हैरी क्लॉफ का गणितीय मॉडल है।<ref>Klopf, A. H. (1972). [https://web.archive.org/web/20170212151545/http://www.dtic.mil/dtic/tr/fulltext/u2/742259.pdf Brain function and adaptive systems—A heterostatic theory]. Technical Report AFCRL-72-0164, Air Force Cambridge Research Laboratories, Bedford, MA.</ref> क्लॉफ़ का मॉडल बहुत सारी जैविक घटनाओं को पुन: प्रस्तुत करता है, और इसे प्रयुक्त करना भी आसान है।


==पर्यवेक्षित शिक्षण, स्थिरता और सामान्यीकरण से संबंध==
==पर्यवेक्षित शिक्षण, स्थिरता और सामान्यीकरण से संबंध==
हेब्बियन सीखने की सरल प्रकृति के कारण, जो केवल प्री- और पोस्ट-सिनैप्टिक गतिविधि के संयोग पर आधारित है, यह सहज रूप से स्पष्ट नहीं हो सकता है कि प्लास्टिसिटी का यह रूप सार्थक सीखने की ओर क्यों ले जाता है। हालाँकि, यह दिखाया जा सकता है कि हेब्बियन प्लास्टिसिटी इनपुट के सांख्यिकीय गुणों को इस तरह से उठाती है जिसे बिना पर्यवेक्षित शिक्षण के रूप में वर्गीकृत किया जा सकता है।
हेब्बियन सीखने की सरल प्रकृति के कारण जो केवल प्री- और पोस्ट-सिनैप्टिक गतिविधि के संयोग पर आधारित है, यह सहज रूप से स्पष्ट नहीं हो सकता है कि प्लास्टिसिटी का यह रूप सार्थक सीखने की ओर क्यों ले जाता है। चूँकि यह दिखाया जा सकता है कि हेब्बियन प्लास्टिसिटी इनपुट के सांख्यिकीय गुणों को इस तरह से उठाती है जिसे बिना पर्यवेक्षित शिक्षण के रूप में वर्गीकृत किया जा सकता है।


इसे गणितीय रूप से एक सरल उदाहरण में दिखाया जा सकता है। आइए हम दर के एकल दर-आधारित न्यूरॉन की सरलीकृत धारणा के तहत काम करें <math>y(t)</math>, जिनके इनपुट की दरें हैं <math>x_1(t) ... x_N(t)</math>. न्यूरॉन की प्रतिक्रिया <math>y(t)</math> इसे आमतौर पर इसके इनपुट के रैखिक संयोजन के रूप में वर्णित किया जाता है, <math>\sum_i w_ix_i</math>, उसके बाद एक [[प्रतिक्रिया समारोह]] <math>f</math>:
इसे गणितीय रूप से एक सरल उदाहरण में दिखाया जा सकता है। आइए हम दर <math>y(t)</math> के एकल दर-आधारित न्यूरॉन की सरलीकृत धारणा के तहत काम करें, जिसके इनपुट की दरें {<math>x_1(t) ... x_N(t)</math> हैं। न्यूरॉन <math>y(t)</math> की प्रतिक्रिया को सामान्यतः इसके इनपुट, <math>\sum_i w_ix_i</math> के एक रैखिक संयोजन के रूप में वर्णित किया जाता है, जिसके बाद एक प्रतिक्रिया फलन <math>f</math> होता है:
:<math>y = f\left(\sum_{i=1}^N w_i x_i \right).</math>
:<math>y = f\left(\sum_{i=1}^N w_i x_i \right).</math>
जैसा कि पिछले अनुभागों में परिभाषित किया गया है, हेब्बियन प्लास्टिसिटी सिनैप्टिक भार के समय में विकास का वर्णन करता है <math>w</math>:
जैसा कि पिछले अनुभागों में परिभाषित किया गया है, हेब्बियन प्लास्टिसिटी सिनैप्टिक भार <math>w</math> के समय में विकास का वर्णन करता है।
:<math>\frac{dw_i}{dt} = \eta x_i y.</math>
:<math>\frac{dw_i}{dt} = \eta x_i y.</math>
सरलता के लिए, एक पहचान प्रतिक्रिया फ़ंक्शन मान लें <math>f(a)=a</math>, हम लिख सकते हैं
सरलता के लिए, एक पहचान प्रतिक्रिया फलन <math>f(a)=a</math> मानते हुए, हम लिख सकते हैं
:<math>\frac{dw_i}{dt} = \eta x_i \sum_{j=1}^N w_j x_j</math>
:<math>\frac{dw_i}{dt} = \eta x_i \sum_{j=1}^N w_j x_j</math>
या [[मैट्रिक्स (गणित)]] रूप में:
या [[मैट्रिक्स (गणित)|आव्यूह (गणित)]] रूप में:
:<math>\frac{d\mathbf{w}}{dt} = \eta \mathbf{x}\mathbf{x}^T\mathbf{w}.</math>
:<math>\frac{d\mathbf{w}}{dt} = \eta \mathbf{x}\mathbf{x}^T\mathbf{w}.</math>
पिछले अध्याय की तरह, यदि युग के अनुसार प्रशिक्षण औसत रूप से किया जाता है <math>\langle \dots \rangle</math> असतत या निरंतर (समय) प्रशिक्षण सेट पर <math>\mathbf{x}</math> हो सकता है:<math display="block">\frac{d\mathbf{w}}{dt} = \langle \eta \mathbf{x}\mathbf{x}^T\mathbf{w} \rangle = \eta \langle \mathbf{x}\mathbf{x}^T\rangle\mathbf{w} = \eta C \mathbf{w}.</math>कहाँ <math>C = \langle\, \mathbf{x}\mathbf{x}^T \rangle</math> अतिरिक्त धारणा के तहत इनपुट का सहसंबंध मैट्रिक्स है <math>\langle\mathbf{x}\rangle = 0</math> (अर्थात इनपुट का औसत शून्य है)। यह एक प्रणाली है <math>N</math> युग्मित रैखिक अंतर समीकरण। तब से <math>C</math> [[सममित मैट्रिक्स]] है, यह विकर्ण मैट्रिक्स भी है, और इसके ईजेनवेक्टर आधार पर काम करके समाधान पाया जा सकता है
पिछले अध्याय की तरह, यदि युग के अनुसार प्रशिक्षण किया जाता है तो <math>\mathbf{x}</math> का असतत या निरंतर (समय) प्रशिक्षण सेट पर एक औसत <math>\langle \dots \rangle</math> किया जा सकता है:<math display="block">\frac{d\mathbf{w}}{dt} = \langle \eta \mathbf{x}\mathbf{x}^T\mathbf{w} \rangle = \eta \langle \mathbf{x}\mathbf{x}^T\rangle\mathbf{w} = \eta C \mathbf{w}.</math>
 
 
जहां <math>C = \langle\, \mathbf{x}\mathbf{x}^T \rangle</math>अतिरिक्त धारणा के तहत इनपुट का सहसंबंध आव्यूह है कि <math>\langle\mathbf{x}\rangle = 0</math> (अर्थात इनपुट का औसत शून्य है)। यह <math>N</math> युग्मित रैखिक अवकल समीकरणों की एक प्रणाली है। चूँकि C सममित है, यह विकर्णीय भी है, और इसके ईजेनवेक्टर के आधार पर कार्य करके समाधान पाया जा सकता है
:<math>\mathbf{w}(t) = k_1e^{\eta\alpha_1 t}\mathbf{c}_1 + k_2e^{\eta\alpha_2 t}\mathbf{c}_2 + ... + k_Ne^{\eta\alpha_N t}\mathbf{c}_N</math>
:<math>\mathbf{w}(t) = k_1e^{\eta\alpha_1 t}\mathbf{c}_1 + k_2e^{\eta\alpha_2 t}\mathbf{c}_2 + ... + k_Ne^{\eta\alpha_N t}\mathbf{c}_N</math>
कहाँ <math>k_i</math> मनमाना स्थिरांक हैं, <math>\mathbf{c}_i</math> के eigenvectors हैं <math>C</math> और <math>\alpha_i</math> उनके संगत eigenvalues.
जहां <math>k_i</math> इच्छानुसार स्थिरांक हैं, <math>\mathbf{c}_i</math>, <math>C</math> के ईजेनवेक्टर हैं और <math>\alpha_i</math> उनके संगत ईजेनवैल्यू हैं। चूँकि एक सहसंबंध आव्यूह सदैव एक सकारात्मक-निश्चित आव्यूह होता है, आइगेनवैल्यू सभी सकारात्मक होते हैं, और कोई भी आसानी से देख सकता है कि उपरोक्त समाधान सदैव समय में तेजी से भिन्न कैसे होता है। हेब्ब के नियम के इस संस्करण के अस्थिर होने के कारण यह एक आंतरिक समस्या है, क्योंकि प्रमुख सिग्नल वाले किसी भी नेटवर्क में सिनैप्टिक भार तेजी से बढ़ेगा या घटेगा। सहज रूप से, इसका कारण यह है कि जब भी प्रीसिनेप्टिक न्यूरॉन पोस्टसिनेप्टिक न्यूरॉन को उत्तेजित करता है, तो उनके बीच का वजन प्रबल हो जाता है, जिससे भविष्य में और भी प्रबल उत्तेजना उत्पन्न होती है, और इसी तरह, आत्म-सुदृढ़ विधि से कोई सोच सकता है कि गैर-रैखिक, संतृप्त प्रतिक्रिया कार्य <math>f</math> जोड़कर पोस्टसिनेप्टिक न्यूरॉन की फायरिंग दर को सीमित करना एक समाधान है, किंतु वास्तव में यह दिखाया जा सकता है कि किसी भी न्यूरॉन मॉडल के लिए, हेब्ब का नियम अस्थिर है। इसलिए नेटवर्क मॉडल न्यूरॉन्स सामान्यतः अन्य शिक्षण सिद्धांतों जैसे बीसीएम सिद्धांत, ओजा का नियम या सामान्यीकृत हेब्बियन एल्गोरिदम को नियोजित करते हैं।
चूँकि एक सहसंबंध मैट्रिक्स हमेशा एक [[सकारात्मक-निश्चित मैट्रिक्स]] होता है, आइगेनवैल्यू सभी सकारात्मक होते हैं, और कोई भी आसानी से देख सकता है कि उपरोक्त समाधान हमेशा समय में तेजी से भिन्न कैसे होता है।
हेब्ब के नियम के इस संस्करण के अस्थिर होने के कारण यह एक आंतरिक समस्या है, क्योंकि प्रमुख सिग्नल वाले किसी भी नेटवर्क में सिनैप्टिक भार तेजी से बढ़ेगा या घटेगा। सहज रूप से, इसका कारण यह है कि जब भी प्रीसिनेप्टिक न्यूरॉन पोस्टसिनेप्टिक न्यूरॉन को उत्तेजित करता है, तो उनके बीच का वजन प्रबल हो जाता है, जिससे भविष्य में और भी मजबूत उत्तेजना पैदा होती है, और इसी तरह, आत्म-सुदृढ़ तरीके से। कोई सोच सकता है कि एक गैर-रेखीय, संतृप्त प्रतिक्रिया फ़ंक्शन जोड़कर पोस्टसिनेप्टिक न्यूरॉन की फायरिंग दर को सीमित करना एक समाधान है। <math>f</math>, लेकिन वास्तव में, यह दिखाया जा सकता है कि किसी भी न्यूरॉन मॉडल के लिए, हेब्ब का नियम अस्थिर है।<ref>{{cite web|url=http://www.cnel.ufl.edu/courses/EEL6814/chapter6.pdf |title=Neural and Adaptive Systems: Fundamentals Through Simulations |access-date=2016-03-16 |last=Euliano |first=Neil R. | date=1999-12-21 |publisher= Wiley |archive-url=https://web.archive.org/web/20151225094329/http://www.cnel.ufl.edu/courses/EEL6814/chapter6.pdf |archive-date=2015-12-25}}</ref> इसलिए, न्यूरॉन्स के नेटवर्क मॉडल आमतौर पर अन्य शिक्षण सिद्धांतों जैसे [[बीसीएम सिद्धांत]], ओजा का नियम, को नियोजित करते हैं।<ref>{{cite web|url=http://nba.uth.tmc.edu/homepage/shouval/Hebb_PCA.ppt |title=मस्तिष्क का भौतिकी|access-date=2007-11-14 |last=Shouval |first=Harel |date=2005-01-03 |work=The Synaptic basis for Learning and Memory: A theoretical approach |publisher=The University of Texas Health Science Center at Houston |archive-url = https://web.archive.org/web/20070610134104/http://nba.uth.tmc.edu/homepage/shouval/Hebb_PCA.ppt |archive-date = 2007-06-10}}</ref> या [[सामान्यीकृत हेब्बियन एल्गोरिदम]]।


भले ही, ऊपर दिए गए अस्थिर समाधान के लिए भी, कोई यह देख सकता है कि, जब पर्याप्त समय बीत जाता है, तो उनमें से एक शब्द दूसरों पर हावी हो जाता है, और
तथापि, ऊपर दिए गए अस्थिर समाधान के लिए भी, कोई यह देख सकता है कि, जब पर्याप्त समय बीत जाता है, तो उनमें से एक शब्द दूसरों पर प्रभावित हो जाता है, और
:<math>\mathbf{w}(t) \approx e^{\eta\alpha^* t}\mathbf{c}^*</math>
:<math>\mathbf{w}(t) \approx e^{\eta\alpha^* t}\mathbf{c}^*</math>.
कहाँ <math>\alpha^*</math> का सबसे बड़ा eigenvalue है <math>C</math>. इस समय, पोस्टसिनेप्टिक न्यूरॉन निम्नलिखित ऑपरेशन करता है:
जहां <math>\alpha^*</math> , <math>C</math> का सबसे बड़ा ईजेनवैल्यू है। इस समय पोस्टसिनेप्टिक न्यूरॉन निम्नलिखित ऑपरेशन करता है:
:<math>y \approx e^{\eta\alpha^* t}\mathbf{c}^* \mathbf{x}</math>
:<math>y \approx e^{\eta\alpha^* t}\mathbf{c}^* \mathbf{x}</math>
क्योंकि, फिर से, <math>\mathbf{c}^*</math> के बीच सहसंबंध मैट्रिक्स के सबसे बड़े eigenvalue के अनुरूप eigenvector है <math>x_i</math>s, यह बिल्कुल इनपुट के पहले प्रमुख घटक की गणना से मेल खाता है।
क्योंकि, फिर से, <math>\mathbf{c}^*</math>,<math>x_i</math>s, के बीच सहसंबंध आव्यूह के सबसे बड़े ईजेनवैल्यू के अनुरूप ईजेनवेक्टर है  यह बिल्कुल इनपुट के पहले प्रमुख घटक की गणना से मेल खाता है।
 
इस तंत्र को आगे पोस्टसिनेप्टिक न्यूरॉन्स को जोड़कर इनपुट का पूर्ण पीसीए (प्रमुख घटक विश्लेषण) करने के लिए बढ़ाया जा सकता है, बशर्ते कि सभी पोस्टसिनेप्टिक न्यूरॉन्स को एक ही प्रमुख घटक को लेने से रोका जाए, उदाहरण के लिए पोस्टसिनेप्टिक परत में [[पार्श्व अवरोध]] जोड़कर। इस प्रकार हमने हेब्बियन शिक्षण को पीसीए से जोड़ा है, जो कि बिना पर्यवेक्षित शिक्षण का एक प्रारंभिक रूप है, इस अर्थ में कि नेटवर्क इनपुट के उपयोगी सांख्यिकीय पहलुओं को उठा सकता है, और अपने आउटपुट में आसुत तरीके से उनका वर्णन कर सकता है।<ref>{{cite book|url=https://neuronaldynamics.epfl.ch/online/Ch19.S3.html |title=Chapter 19: Synaptic Plasticity and Learning |access-date=2020-11-09 |first1=Wulfram |last1=Gerstner |first2=Werner M. |last2=Kistler |first3=Richard |last3=Naud |first4=Liam |last4=Paninski |date=July 2014 |work=Neuronal Dynamics: From single neurons to networks and models of cognition |publisher=Cambridge University Press |isbn=978-1107635197}}</ref>
 


इस तंत्र को आगे पोस्टसिनेप्टिक न्यूरॉन्स को जोड़कर इनपुट का पूर्ण पीसीए (प्रमुख घटक विश्लेषण) करने के लिए बढ़ाया जा सकता है, परन्तु कि सभी पोस्टसिनेप्टिक न्यूरॉन्स को एक ही प्रमुख घटक को लेने से रोका जाए, उदाहरण के लिए पोस्टसिनेप्टिक परत में [[पार्श्व अवरोध]] जोड़कर इस प्रकार हमने हेब्बियन शिक्षण को पीसीए से जोड़ा है, जो कि बिना पर्यवेक्षित शिक्षण का एक प्रारंभिक रूप है, इस अर्थ में कि नेटवर्क इनपुट के उपयोगी सांख्यिकीय पहलुओं को उठा सकता है, और अपने आउटपुट में आसुत विधि से उनका वर्णन कर सकता है।<ref>{{cite book|url=https://neuronaldynamics.epfl.ch/online/Ch19.S3.html |title=Chapter 19: Synaptic Plasticity and Learning |access-date=2020-11-09 |first1=Wulfram |last1=Gerstner |first2=Werner M. |last2=Kistler |first3=Richard |last3=Naud |first4=Liam |last4=Paninski |date=July 2014 |work=Neuronal Dynamics: From single neurons to networks and models of cognition |publisher=Cambridge University Press |isbn=978-1107635197}}</ref>
==सीमाएँ==
==सीमाएँ==
दीर्घकालिक पोटेंशिएशन के लिए हेब्बियन मॉडल के सामान्य उपयोग के बावजूद, हेब्ब का सिद्धांत सभी प्रकार के सिनैप्टिक दीर्घकालिक प्लास्टिसिटी को कवर नहीं करता है। हेब्ब ने निरोधात्मक सिनैप्स के लिए कोई नियम नहीं बनाया, न ही उन्होंने कारण-विरोधी स्पाइक अनुक्रमों (पोस्टसिनेप्टिक न्यूरॉन के बाद प्रीसिनेप्टिक न्यूरॉन आग) के लिए भविष्यवाणियां कीं। सिनैप्टिक संशोधन न केवल सक्रिय न्यूरॉन्स और बी के बीच हो सकता है, बल्कि पड़ोसी सिनैप्स पर भी हो सकता है।<ref>{{cite journal|last=Horgan|first=John|title=तंत्रिका श्रवण|journal=Scientific American|date=May 1994|page=16|doi=10.1038/scientificamerican0594-16|pmid=8197441|volume=270|issue=5|bibcode=1994SciAm.270e..16H}}</ref> इसलिए [[हेटेरोसिनैप्टिक प्लास्टिसिटी]] और [[होमोस्टैटिक प्लास्टिसिटी]] के सभी रूपों को गैर-हेब्बियन माना जाता है। एक उदाहरण प्रीसिनेप्टिक टर्मिनलों के लिए प्रतिगामी सिग्नलिंग है।<ref>{{cite journal|last=Fitzsimonds|first=Reiko|author2=Mu-Ming Poo|title=सिनैप्स के विकास और संशोधन में प्रतिगामी सिग्नलिंग|journal= Physiological Reviews|volume=78|issue=1|pages=143–170|date=January 1998|doi=10.1152/physrev.1998.78.1.143|pmid=9457171|s2cid=11604896|author2-link=Mu-Ming Poo|url=https://semanticscholar.org/paper/733c886f06b38b91dc0ba7bd1367e07ff1f131ca}}</ref> इस प्रतिगामी ट्रांसमीटर भूमिका को पूरा करने के लिए सबसे अधिक पहचाना जाने वाला यौगिक [[नाइट्रिक ऑक्साइड]] है, जो अपनी उच्च घुलनशीलता और प्रसारशीलता के कारण, अक्सर आस-पास के न्यूरॉन्स पर प्रभाव डालता है।<ref>{{cite journal|last=López|first=P|author2=C.P. Araujo|title=जैविक और कृत्रिम तंत्रिका नेटवर्क में फैले हुए पड़ोस का एक कम्प्यूटेशनल अध्ययन|journal= International Joint Conference on Computational Intelligence |year=2009 |url=http://www.dis.ulpgc.es/contenido/investigacion/trabajos_publicados/ICNC_2009_PaperCP.pdf }}</ref> इस प्रकार का फैलाना सिनैप्टिक संशोधन, जिसे वॉल्यूम लर्निंग के रूप में जाना जाता है, पारंपरिक हेब्बियन मॉडल में शामिल नहीं है।<ref>{{cite journal|last=Mitchison|first=G|author2=N. Swindale|title=Can Hebbian Volume Learning Explain Discontinuities in Cortical Maps?|journal=Neural Computation|date=October 1999|volume=11|issue=7|doi=10.1162/089976699300016115|pmid=10490935|pages=1519–1526|s2cid=2325474|url=https://www.semanticscholar.org/paper/6f39bab4e9b24aa2206e8093c4ae2c407776d957}}</ref>
दीर्घकालिक पोटेंशिएशन के लिए हेब्बियन मॉडल के सामान्य उपयोग के अतिरिक्त हेब्ब का सिद्धांत सभी प्रकार के सिनैप्टिक दीर्घकालिक प्लास्टिसिटी को आवरण  नहीं करता है। हेब्ब ने निरोधात्मक सिनैप्स के लिए कोई नियम नहीं बनाया था ,और न ही उन्होंने कारण-विरोधी स्पाइक अनुक्रमों (पोस्टसिनेप्टिक न्यूरॉन के बाद प्रीसिनेप्टिक न्यूरॉन आग) के लिए पूर्वानुमान किया था। सिनैप्टिक संशोधन न केवल सक्रिय न्यूरॉन्स A और B के बीच हो सकता है, चूँकि निकट सिनैप्स पर भी हो सकता है।<ref>{{cite journal|last=Horgan|first=John|title=तंत्रिका श्रवण|journal=Scientific American|date=May 1994|page=16|doi=10.1038/scientificamerican0594-16|pmid=8197441|volume=270|issue=5|bibcode=1994SciAm.270e..16H}}</ref> इसलिए [[हेटेरोसिनैप्टिक प्लास्टिसिटी]] और [[होमोस्टैटिक प्लास्टिसिटी]] के सभी रूपों को गैर-हेब्बियन माना जाता है। एक उदाहरण प्रीसिनेप्टिक टर्मिनलों के लिए प्रतिगामी सिग्नलिंग है।<ref>{{cite journal|last=Fitzsimonds|first=Reiko|author2=Mu-Ming Poo|title=सिनैप्स के विकास और संशोधन में प्रतिगामी सिग्नलिंग|journal= Physiological Reviews|volume=78|issue=1|pages=143–170|date=January 1998|doi=10.1152/physrev.1998.78.1.143|pmid=9457171|s2cid=11604896|author2-link=Mu-Ming Poo|url=https://semanticscholar.org/paper/733c886f06b38b91dc0ba7bd1367e07ff1f131ca}}</ref> इस प्रतिगामी ट्रांसमीटर भूमिका को पूरा करने के लिए सबसे अधिक पहचाना जाने वाला यौगिक [[नाइट्रिक ऑक्साइड]] है, जो अपनी उच्च घुलनशीलता और प्रसारशीलता के कारण अधिकांशतः आस-पास के न्यूरॉन्स पर प्रभाव डालता है।<ref>{{cite journal|last=López|first=P|author2=C.P. Araujo|title=जैविक और कृत्रिम तंत्रिका नेटवर्क में फैले हुए पड़ोस का एक कम्प्यूटेशनल अध्ययन|journal= International Joint Conference on Computational Intelligence |year=2009 |url=http://www.dis.ulpgc.es/contenido/investigacion/trabajos_publicados/ICNC_2009_PaperCP.pdf }}</ref> इस प्रकार का फैलाना सिनैप्टिक संशोधन जिसे वॉल्यूम लर्निंग के रूप में जाना जाता है, पारंपरिक हेब्बियन मॉडल में सम्मिलित नहीं है।<ref>{{cite journal|last=Mitchison|first=G|author2=N. Swindale|title=Can Hebbian Volume Learning Explain Discontinuities in Cortical Maps?|journal=Neural Computation|date=October 1999|volume=11|issue=7|doi=10.1162/089976699300016115|pmid=10490935|pages=1519–1526|s2cid=2325474|url=https://www.semanticscholar.org/paper/6f39bab4e9b24aa2206e8093c4ae2c407776d957}}</ref>




==[[ दर्पण न्यूरॉन ]]्स का हेब्बियन लर्निंग अकाउंट==
==[[ दर्पण न्यूरॉन ]]का हेब्बियन लर्निंग अकाउंट==
मिरर न्यूरॉन्स कैसे उभरते हैं, इसके प्रभावशाली सिद्धांत में हेब्बियन लर्निंग और स्पाइक-टाइमिंग-डिपेंडेंट प्लास्टिसिटी का उपयोग किया गया है।<ref>{{cite journal|author1=Keysers C|author2=Perrett DI|title=Demystifying social cognition: a Hebbian perspective|journal=Trends in Cognitive Sciences|date=2004|volume=8|issue=11|pages=501–507|doi=10.1016/j.tics.2004.09.005|pmid=15491904|s2cid=8039741|url=https://www.semanticscholar.org/paper/6c1308e6e57a8bba045f0da56c6e3fe8fbdb3506}}</ref><ref>Keysers, C. (2011). ''The Empathic Brain''.</ref> मिरर न्यूरॉन्स वे न्यूरॉन्स होते हैं जो तब सक्रिय होते हैं जब कोई व्यक्ति कोई कार्य करता है और जब व्यक्ति देखता है<ref>{{cite journal|author1=Gallese V|author2=Fadiga L|author3=Fogassi L|author4=Rizzolatti G|title=प्रीमोटर कॉर्टेक्स में क्रिया की पहचान|journal=Brain|date=1996|volume=119|issue=Pt 2|pages=593–609|doi=10.1093/brain/119.2.593|pmid=8800951|doi-access=free}}</ref> या सुनता है<ref>{{cite journal|author1=Keysers C|author2=Kohler E|author3=Umilta MA|author4=Nanetti L|author5=Fogassi L|author6=Gallese V|title=दृश्य-श्रव्य दर्पण न्यूरॉन्स और क्रिया पहचान|journal=Exp Brain Res|date=2003|volume=153|issue=4|pages=628–636|doi=10.1007/s00221-003-1603-5|pmid=12937876|citeseerx=10.1.1.387.3307|s2cid=7704309}}</ref> दूसरा समान क्रिया करता है। इन न्यूरॉन्स की खोज यह समझाने में बहुत प्रभावशाली रही है कि व्यक्ति दूसरों के कार्यों को कैसे समझते हैं, यह दिखाते हुए कि, जब कोई व्यक्ति दूसरों के कार्यों को समझता है, तो व्यक्ति मोटर प्रोग्राम को सक्रिय करता है जिसका उपयोग वे समान कार्यों को करने के लिए करेंगे। इन मोटर कार्यक्रमों का सक्रियण तब धारणा में जानकारी जोड़ता है और यह अनुमान लगाने में मदद करता है कि व्यक्ति अपने स्वयं के मोटर कार्यक्रम के आधार पर आगे क्या करेगा। एक चुनौती यह समझाना है कि कैसे व्यक्तियों में न्यूरॉन्स आते हैं जो किसी कार्य को करते समय और दूसरे को समान कार्य करते हुए सुनते या देखते समय प्रतिक्रिया करते हैं।
दर्पण न्यूरॉन्स कैसे उभरते हैं, इसके प्रभावशाली सिद्धांत में हेब्बियन लर्निंग और स्पाइक-टाइमिंग-डिपेंडेंट प्लास्टिसिटी का उपयोग किया गया है।<ref>{{cite journal|author1=Keysers C|author2=Perrett DI|title=Demystifying social cognition: a Hebbian perspective|journal=Trends in Cognitive Sciences|date=2004|volume=8|issue=11|pages=501–507|doi=10.1016/j.tics.2004.09.005|pmid=15491904|s2cid=8039741|url=https://www.semanticscholar.org/paper/6c1308e6e57a8bba045f0da56c6e3fe8fbdb3506}}</ref><ref>Keysers, C. (2011). ''The Empathic Brain''.</ref> दर्पण न्यूरॉन्स वे न्यूरॉन्स होते हैं जो तब सक्रिय होते हैं जब कोई व्यक्ति कोई कार्य करता है और जब व्यक्ति देखता है<ref>{{cite journal|author1=Gallese V|author2=Fadiga L|author3=Fogassi L|author4=Rizzolatti G|title=प्रीमोटर कॉर्टेक्स में क्रिया की पहचान|journal=Brain|date=1996|volume=119|issue=Pt 2|pages=593–609|doi=10.1093/brain/119.2.593|pmid=8800951|doi-access=free}}</ref> या सुनता है<ref>{{cite journal|author1=Keysers C|author2=Kohler E|author3=Umilta MA|author4=Nanetti L|author5=Fogassi L|author6=Gallese V|title=दृश्य-श्रव्य दर्पण न्यूरॉन्स और क्रिया पहचान|journal=Exp Brain Res|date=2003|volume=153|issue=4|pages=628–636|doi=10.1007/s00221-003-1603-5|pmid=12937876|citeseerx=10.1.1.387.3307|s2cid=7704309}}</ref> तो दूसरा समान क्रिया करता है। इन न्यूरॉन्स की खोज यह समझाने में बहुत प्रभावशाली रही है कि व्यक्ति दूसरों के कार्यों को कैसे समझते हैं, यह दिखाते हुए कि जब कोई व्यक्ति दूसरों के कार्यों को समझता है, तो व्यक्ति मोटर प्रोग्राम को सक्रिय करता है जिसका उपयोग वे समान कार्यों को करने के लिए करेंगे। इन मोटर कार्यक्रमों का सक्रियण तब धारणा में जानकारी जोड़ता है और यह अनुमान लगाने में सहायता करता है कि व्यक्ति अपने स्वयं के मोटर कार्यक्रम के आधार पर आगे क्या करेगा। एक चुनौती यह समझाना है कि कैसे व्यक्तियों में न्यूरॉन्स आते हैं जो किसी कार्य को करते समय और दूसरे को समान कार्य करते हुए सुनते या देखते समय प्रतिक्रिया करते हैं।


[[ईसाई कुंजीर]] और डेविड पेरेट ने सुझाव दिया कि जैसे ही कोई व्यक्ति एक विशेष कार्य करता है, व्यक्ति उस कार्य को करते हुए देखेगा, सुनेगा और महसूस करेगा। ये पुनः अभिवाही संवेदी संकेत क्रिया की दृष्टि, ध्वनि और अनुभव पर प्रतिक्रिया करने वाले न्यूरॉन्स में गतिविधि को ट्रिगर करेंगे। क्योंकि इन संवेदी न्यूरॉन्स की गतिविधि लगातार उन मोटर न्यूरॉन्स के साथ ओवरलैप होगी जो कार्रवाई का कारण बनती है, हेब्बियन लर्निंग भविष्यवाणी करती है कि न्यूरॉन्स को जोड़ने वाले सिनैप्स किसी क्रिया की दृष्टि, ध्वनि और अनुभव पर प्रतिक्रिया करते हैं और उन न्यूरॉन्स को ट्रिगर करते हैं कार्रवाई को सशक्त बनाया जाना चाहिए. यही बात तब भी सच है जब लोग खुद को दर्पण में देखते हैं, खुद को बड़बड़ाते हुए सुनते हैं, या दूसरों की नकल करते हैं। इस पुनः-संबंध के बार-बार अनुभव के बाद, किसी क्रिया के संवेदी और मोटर प्रतिनिधित्व को जोड़ने वाले सिनैप्स इतने मजबूत होते हैं कि मोटर न्यूरॉन्स ध्वनि या क्रिया की दृष्टि पर फायरिंग करना शुरू कर देते हैं, और एक दर्पण न्यूरॉन बनाया जाता है।
[[ईसाई कुंजीर|क्रिश्चियन कीज़र्स]] और डेविड पेरेट ने सुझाव दिया कि जैसे ही कोई व्यक्ति एक विशेष कार्य करता है, व्यक्ति उस कार्य को करते हुए देखेगा, सुनेगा और अनुभव करेगा। ये पुनः अभिवाही संवेदी संकेत क्रिया की दृष्टि ध्वनि और अनुभव पर प्रतिक्रिया करने वाले न्यूरॉन्स में गतिविधि को ट्रिगर करेंगे। क्योंकि इन संवेदी न्यूरॉन्स की गतिविधि निरन्तर उन मोटर न्यूरॉन्स के साथ ओवरलैप होगी जो कार्रवाई का कारण बनती है, हेब्बियन लर्निंग पूर्वानुमान करती है कि न्यूरॉन्स को जोड़ने वाले सिनैप्स किसी क्रिया की दृष्टि, ध्वनि और अनुभव पर प्रतिक्रिया करते हैं और उन न्यूरॉन्स को ट्रिगर करते हैं कार्रवाई को सशक्त बनाया जाना चाहिए. यही बात तब भी सच है जब लोग खुद को दर्पण में देखते हैं, खुद को बड़बड़ाते हुए सुनते हैं, या दूसरों की नकल करते हैं। इस पुनः-संबंध के बार-बार अनुभव के बाद, किसी क्रिया के संवेदी और मोटर प्रतिनिधित्व को जोड़ने वाले सिनैप्स इतने प्रबल होते हैं कि मोटर न्यूरॉन्स ध्वनि या क्रिया की दृष्टि पर फायरिंग करना प्रारंभ कर देते हैं, और एक दर्पण न्यूरॉन बनाया जाता है।


उस परिप्रेक्ष्य के साक्ष्य कई प्रयोगों से मिलते हैं जो दिखाते हैं कि मोटर प्रोग्राम को मोटर प्रोग्राम के निष्पादन के साथ उत्तेजना की बार-बार जोड़ी के बाद उपन्यास श्रवण या दृश्य उत्तेजनाओं द्वारा ट्रिगर किया जा सकता है (साक्ष्य की समीक्षा के लिए, गिउडिस एट अल देखें।, 2009)<ref>{{cite journal|author1=Del Giudice M|author2=Manera V|author3=Keysers C|title=Programmed to learn? The ontogeny of mirror neurons|journal=Dev Sci|date=2009|volume=12|issue=2|pages=350–363|doi=10.1111/j.1467-7687.2008.00783.x|pmid=19143807|url=https://iris.unito.it/bitstream/2318/133096/1/ontogeny.pdf|hdl=2318/133096|hdl-access=free}}</ref>). उदाहरण के लिए, जिन लोगों ने कभी पियानो नहीं बजाया है, वे पियानो संगीत सुनते समय पियानो बजाने में शामिल मस्तिष्क क्षेत्रों को सक्रिय नहीं करते हैं। पांच घंटे का पियानो पाठ, जिसमें प्रतिभागी को हर बार कुंजी दबाने पर पियानो की ध्वनि के संपर्क में लाया जाता है, बाद में पियानो संगीत सुनने पर मस्तिष्क के मोटर क्षेत्रों में गतिविधि को ट्रिगर करने के लिए पर्याप्त साबित होता है।<ref>{{cite journal|author1=Lahav A|author2=Saltzman E|author3=Schlaug G|title=Action representation of sound: audiomotor recognition network while listening to newly acquired actions|journal=J Neurosci|date=2007|volume=27|issue=2|pages=308–314|doi=10.1523/jneurosci.4822-06.2007|pmid=17215391|pmc=6672064}}</ref> इस तथ्य के अनुरूप कि स्पाइक-टाइमिंग-निर्भर प्लास्टिसिटी केवल तभी होती है जब प्रीसिनेप्टिक न्यूरॉन फायरिंग पोस्टसिनेप्टिक न्यूरॉन फायरिंग की भविष्यवाणी करती है,<ref>{{cite journal|author1=Bauer EP|author2=LeDoux JE|author3=Nader K|title=पार्श्व अमिगडाला में भय कंडीशनिंग और एलटीपी समान उत्तेजना आकस्मिकताओं के प्रति संवेदनशील हैं|journal=Nat Neurosci|date=2001|volume=4|issue=7|pages=687–688|doi=10.1038/89465|pmid=11426221|s2cid=33130204|url=https://www.semanticscholar.org/paper/617045d8220e7a359d79c72196b38de320cd7326}}</ref> संवेदी उत्तेजनाओं और मोटर कार्यक्रमों के बीच संबंध भी तभी प्रबल होता प्रतीत होता है जब उत्तेजना मोटर कार्यक्रम पर निर्भर हो।
उस परिप्रेक्ष्य के साक्ष्य कई प्रयोगों से मिलते हैं जो दिखाते हैं कि मोटर प्रोग्राम को मोटर प्रोग्राम के निष्पादन के साथ उत्तेजना की बार-बार जोड़ी के बाद उपन्यास श्रवण या दृश्य उत्तेजनाओं द्वारा ट्रिगर किया जा सकता है (साक्ष्य की समीक्षा के लिए, गिउडिस एट अल देखें।, 2009)<ref>{{cite journal|author1=Del Giudice M|author2=Manera V|author3=Keysers C|title=Programmed to learn? The ontogeny of mirror neurons|journal=Dev Sci|date=2009|volume=12|issue=2|pages=350–363|doi=10.1111/j.1467-7687.2008.00783.x|pmid=19143807|url=https://iris.unito.it/bitstream/2318/133096/1/ontogeny.pdf|hdl=2318/133096|hdl-access=free}}</ref>). उदाहरण के लिए, जिन लोगों ने कभी पियानो नहीं बजाया है, वे पियानो संगीत सुनते समय पियानो बजाने में सम्मिलित मस्तिष्क क्षेत्रों को सक्रिय नहीं करते हैं। पांच घंटे का पियानो पाठ, जिसमें प्रतिभागी को हर बार कुंजी दबाने पर पियानो की ध्वनि के संपर्क में लाया जाता है, बाद में पियानो संगीत सुनने पर मस्तिष्क के मोटर क्षेत्रों में गतिविधि को ट्रिगर करने के लिए पर्याप्त सिद्ध होता है।<ref>{{cite journal|author1=Lahav A|author2=Saltzman E|author3=Schlaug G|title=Action representation of sound: audiomotor recognition network while listening to newly acquired actions|journal=J Neurosci|date=2007|volume=27|issue=2|pages=308–314|doi=10.1523/jneurosci.4822-06.2007|pmid=17215391|pmc=6672064}}</ref> इस तथ्य के अनुरूप कि स्पाइक-टाइमिंग-निर्भर प्लास्टिसिटी केवल तभी होती है जब प्रीसिनेप्टिक न्यूरॉन फायरिंग पोस्टसिनेप्टिक न्यूरॉन फायरिंग की पूर्वानुमान करती है,<ref>{{cite journal|author1=Bauer EP|author2=LeDoux JE|author3=Nader K|title=पार्श्व अमिगडाला में भय कंडीशनिंग और एलटीपी समान उत्तेजना आकस्मिकताओं के प्रति संवेदनशील हैं|journal=Nat Neurosci|date=2001|volume=4|issue=7|pages=687–688|doi=10.1038/89465|pmid=11426221|s2cid=33130204|url=https://www.semanticscholar.org/paper/617045d8220e7a359d79c72196b38de320cd7326}}</ref> संवेदी उत्तेजनाओं और मोटर कार्यक्रमों के बीच संबंध भी तभी प्रबल होता प्रतीत होता है जब उत्तेजना मोटर कार्यक्रम पर निर्भर हो।


==यह भी देखें==
==यह भी देखें==

Revision as of 15:40, 1 July 2023

हेब्बियन सिद्धांत एक न्यूरोसाइकोलॉजिकल सिद्धांत है जो प्रमाणित करता है कि प्रीसानेप्टिक कोशिका की बार-बार और पोस्टसिनेप्टिक सेल की निरन्तर उत्तेजना से निष्कर्ष प्रभावकारिता में वृद्धि होती है। यह सीखने की प्रक्रिया के समय मस्तिष्क के न्यूरॉन के अनुकूलन, सूत्रयुग्मक सुनम्यता को समझाने का एक प्रयास है। इसे डोनाल्ड हेब्ब ने अपनी 1949 की पुस्तक व्यवहार का संगठन में प्रस्तुत किया था।[1] इस सिद्धांत को हेब्ब का नियम, हेब्ब का अभिधारणा और कोशिका संयोजन सिद्धांत भी कहा जाता है। हेब्ब इसे इस प्रकार बताते हैं:

<ब्लॉककोट>

मान लें कि एक प्रतिध्वनि गतिविधि (या ट्रेस) की दृढ़ता या पुनरावृत्ति स्थायी सेलुलर परिवर्तनों को प्रेरित करती है जो इसकी स्थिरता को बढ़ाती है। ... जब कोशिका A का एक अक्षतंतु कोशिका B को उत्तेजित करने के लिए पर्याप्त निकट होता है और बार-बार या निरन्तर इसे सक्रिय करने में भाग लेता है, तो एक या दोनों कोशिकाओं में कुछ विकास प्रक्रिया या उपापचय परिवर्तन होता है A’की दक्षता, B को सक्रिय करने वाली कोशिकाओं में से एक के रूप में बढ़ जाती है।[1]

</ब्लॉककोट>

सिद्धांत को अधिकांशतः उन कोशिकाओं के रूप में संक्षेपित किया जाता है जो एक साथ तार से प्रज्वलित होती हैं।[2] चूँकि हेब्ब ने इस बात पर प्रभाव दिया कि सेल A को सेल B को फायर करने में भाग लेने की जरूरत है, और ऐसी कार्य-कारणता केवल तभी हो सकती है जब सेल A ठीक पहले फायर करता है, और सेल B के साथ उसी समय नहीं हेब्ब के काम में कार्य-कारण के इस पहलू ने पूर्वाभास दिया कि अब क्या है स्पाइक-टाइमिंग-निर्भर प्लास्टिसिटी के बारे में जाना जाता है, जिसके लिए अस्थायी प्राथमिकता की आवश्यकता होती है।[3]

सिद्धांत साहचर्य या हेब्बियन सीखने की व्याख्या करने का प्रयास करता है, जिसमें कोशिकाओं के एक साथ सक्रिय होने से उन कोशिकाओं के बीच सिनैप्टिक शक्ति में स्पष्ट वृद्धि होती है। यह शिक्षा और मेमोरी पुनर्वास के लिए त्रुटि रहित शिक्षण विधियों के लिए एक जैविक आधार भी प्रदान करता है। संज्ञानात्मक कार्य में कृत्रिम तंत्रिका नेटवर्क के अध्ययन में इसे अधिकांशतः बिना पर्यवेक्षित शिक्षण का तंत्रिका संबंधी आधार माना जाता है।

हेब्बियन एनग्राम्स और सेल असेंबली सिद्धांत

हेब्बियन सिद्धांत कंसर्न करता है कि न्यूरॉन्स एंग्राम (न्यूरोसाइकोलॉजी) बनने के लिए खुद को कैसे जोड़ सकते हैं। कोशिका संयोजनों के स्वरूप और कार्य पर हेब्ब के सिद्धांतों को निम्नलिखित से समझा जा सकता है:[1]: 70 

सामान्य विचार पुराना है, कि कोई भी दो कोशिकाएँ या कोशिकाओं की प्रणालियाँ जो एक ही समय में बार-बार सक्रिय होती हैं, वे 'संबद्ध' हो जाती हैं जिससे एक में गतिविधि दूसरे में गतिविधि को सुविधाजनक बना सकता है।

हेब्ब ने यह भी लिखा:[1]: 63 

जब एक कोशिका बार-बार दूसरी कोशिका को सक्रिय करने में सहायता करती है, तो पहली कोशिका का अक्षतंतु दूसरी कोशिका के सोमा के संपर्क में सिनैप्टिक नॉब विकसित करता है (या यदि वे पहले से उपस्थित हैं तो उन्हें बड़ा करता है)।

[डी एलन ऑलपोर्ट] सेल असेंबली सिद्धांत और ऑटो-एसोसिएशन की अवधारणा की तर्ज पर एनग्राम बनाने में इसकी भूमिका के बारे में अतिरिक्त विचार प्रस्तुत करता है, जिसका वर्णन इस प्रकार है:

<ब्लॉककोट>

यदि किसी सिस्टम में इनपुट के कारण गतिविधि का एक ही प्रतिरूप बार-बार होता है, तो उस प्रतिरूप को बनाने वाले सक्रिय तत्वों का सेट तेजी से दृढ़ता से परस्पर जुड़ा हुआ हो जाएगा। अर्थात्, प्रत्येक तत्व हर दूसरे तत्व को चालू कर देगा और (नकारात्मक भार के साथ) उन तत्वों को बंद कर देगा जो प्रतिरूप का भाग नहीं बनते हैं। इसे दूसरे विधि से कहें तो संपूर्ण प्रतिरूप 'ऑटो-एसोसिएटेड' हो जाएगा। हम सीखे हुए (ऑटो-संबद्ध) प्रतिरूप को एनग्राम कह सकते हैं।[4]: 44 

</ब्लॉककोट>

एरिक आर कैंडेल की प्रयोगशाला में काम या हेब्बियन सीखने के लिए प्रायोगिक समर्थन ने समुद्री गैस्ट्रोपॉड अप्लीसिया कैलिफ़ोर्निका में सिनैप्स पर हेब्बियन सीखने के तंत्र की भागीदारी के लिए प्रमाण प्रदान किए हैं। समुद्री अकशेरुकी जीवों में अध्ययन किए गए अपेक्षाकृत सरल परिधीय तंत्रिका तंत्र सिनैप्स के प्रयोगों की तुलना में कशेरुकियों के केंद्रीय तंत्रिका तंत्र सिनेप्स पर हेब्बियन सिनैप्स संशोधन तंत्र पर प्रयोगों को नियंत्रित करना अधिक कठिन है। कशेरुक न्यूरॉन्स (जैसे दीर्घकालिक पोटेंशिएशन) के बीच लंबे समय तक चलने वाले सिनैप्टिक परिवर्तनों पर अधिकांश काम में मस्तिष्क कोशिकाओं के गैर-शारीरिक प्रयोगात्मक उत्तेजना का उपयोग सम्मिलित होता है। चूँकि कुछ शारीरिक रूप से प्रासंगिक सिनैप्स संशोधन तंत्र जिनका कशेरुकी मस्तिष्क में अध्ययन किया गया है, वे हेब्बियन प्रक्रियाओं के उदाहरण प्रतीत होते हैं। ऐसा ही एक अध्ययन[5] प्रयोगों के परिणामों की समीक्षा से संकेत मिलता है कि सिनैप्टिक शक्तियों में लंबे समय तक चलने वाले परिवर्तन हेब्बियन और गैर-हेब्बियन दोनों तंत्रों के माध्यम से काम करने वाली शारीरिक रूप से प्रासंगिक सिनैप्टिक गतिविधि से प्रेरित हो सकते हैं।

सिद्धांत

कृत्रिम न्यूरॉन और कृत्रिम तंत्रिका नेटवर्क के दृष्टिकोण से हेब्ब के सिद्धांत को यह निर्धारित करने की एक विधि के रूप में वर्णित किया जा सकता है कि मॉडल न्यूरॉन्स के बीच वजन को कैसे बदला जाए। यदि दो न्यूरॉन्स एक साथ सक्रिय होते हैं तो उनके बीच का भार बढ़ जाता है, और यदि वे अलग-अलग सक्रिय होते हैं तो कम हो जाता है। जो नोड्स एक ही समय में या तो सकारात्मक या दोनों नकारात्मक होते हैं, उनमें प्रबल सकारात्मक भार होता है, जबकि जो विपरीत होते हैं, उनमें प्रबल नकारात्मक भार होता है।

निम्नलिखित हेब्बियन शिक्षा का एक सूत्रबद्ध वर्णन है: (कई अन्य विवरण संभव हैं)

जहां न्यूरॉन से न्यूरॉन तक कनेक्शन का भार है और न्यूरॉन के लिए इनपुट है। ध्यान दें कि यह प्रतिरूप लर्निंग है (प्रत्येक प्रशिक्षण उदाहरण के बाद वजन अपडेट किया जाता है)। हॉपफील्ड नेटवर्क में, कनेक्शन शून्य पर सेट होते हैं यदि (कोई रिफ्लेक्सिव कनेक्शन की अनुमति नहीं है)। बाइनरी न्यूरॉन्स (सक्रियण या तो 0 या 1) के साथ, कनेक्शन 1 पर सेट किया जाएगा यदि कनेक्टेड न्यूरॉन्स में प्रतिरूप के लिए समान सक्रियण है।

जब कई प्रशिक्षण प्रतिरूप का उपयोग किया जाता है तो अभिव्यक्ति व्यक्तिगत प्रतिरूप का औसत बन जाती है:

जहां न्यूरॉन से न्यूरॉन तक कनेक्शन का भार है, प्रशिक्षण प्रतिरूप की संख्या है, न्यूरॉन के लिए kth इनपुट है और <> सभी प्रशिक्षण प्रतिरूप का औसत है। यह युग के अनुसार सीख रहा है (सभी प्रशिक्षण उदाहरण प्रस्तुत किए जाने के बाद वजन अपडेट किया जाता है), अंतिम शब्द असतत और निरंतर प्रशिक्षण सेट दोनों पर प्रयुक्त होता है। फिर, हॉपफ़ील्ड नेटवर्क में, कनेक्शन शून्य पर सेट होते हैं यदि (कोई रिफ्लेक्सिव कनेक्शन नहीं)।

हेब्बियन सीखने की एक भिन्नता जो अवरोधन और कई अन्य तंत्रिका सीखने की घटनाओं को ध्यान में रखती है, हैरी क्लॉफ का गणितीय मॉडल है।[6] क्लॉफ़ का मॉडल बहुत सारी जैविक घटनाओं को पुन: प्रस्तुत करता है, और इसे प्रयुक्त करना भी आसान है।

पर्यवेक्षित शिक्षण, स्थिरता और सामान्यीकरण से संबंध

हेब्बियन सीखने की सरल प्रकृति के कारण जो केवल प्री- और पोस्ट-सिनैप्टिक गतिविधि के संयोग पर आधारित है, यह सहज रूप से स्पष्ट नहीं हो सकता है कि प्लास्टिसिटी का यह रूप सार्थक सीखने की ओर क्यों ले जाता है। चूँकि यह दिखाया जा सकता है कि हेब्बियन प्लास्टिसिटी इनपुट के सांख्यिकीय गुणों को इस तरह से उठाती है जिसे बिना पर्यवेक्षित शिक्षण के रूप में वर्गीकृत किया जा सकता है।

इसे गणितीय रूप से एक सरल उदाहरण में दिखाया जा सकता है। आइए हम दर के एकल दर-आधारित न्यूरॉन की सरलीकृत धारणा के तहत काम करें, जिसके इनपुट की दरें { हैं। न्यूरॉन की प्रतिक्रिया को सामान्यतः इसके इनपुट, के एक रैखिक संयोजन के रूप में वर्णित किया जाता है, जिसके बाद एक प्रतिक्रिया फलन होता है:

जैसा कि पिछले अनुभागों में परिभाषित किया गया है, हेब्बियन प्लास्टिसिटी सिनैप्टिक भार के समय में विकास का वर्णन करता है।

सरलता के लिए, एक पहचान प्रतिक्रिया फलन मानते हुए, हम लिख सकते हैं

या आव्यूह (गणित) रूप में:

पिछले अध्याय की तरह, यदि युग के अनुसार प्रशिक्षण किया जाता है तो का असतत या निरंतर (समय) प्रशिक्षण सेट पर एक औसत किया जा सकता है:


जहां अतिरिक्त धारणा के तहत इनपुट का सहसंबंध आव्यूह है कि (अर्थात इनपुट का औसत शून्य है)। यह युग्मित रैखिक अवकल समीकरणों की एक प्रणाली है। चूँकि C सममित है, यह विकर्णीय भी है, और इसके ईजेनवेक्टर के आधार पर कार्य करके समाधान पाया जा सकता है

जहां इच्छानुसार स्थिरांक हैं, , के ईजेनवेक्टर हैं और उनके संगत ईजेनवैल्यू हैं। चूँकि एक सहसंबंध आव्यूह सदैव एक सकारात्मक-निश्चित आव्यूह होता है, आइगेनवैल्यू सभी सकारात्मक होते हैं, और कोई भी आसानी से देख सकता है कि उपरोक्त समाधान सदैव समय में तेजी से भिन्न कैसे होता है। हेब्ब के नियम के इस संस्करण के अस्थिर होने के कारण यह एक आंतरिक समस्या है, क्योंकि प्रमुख सिग्नल वाले किसी भी नेटवर्क में सिनैप्टिक भार तेजी से बढ़ेगा या घटेगा। सहज रूप से, इसका कारण यह है कि जब भी प्रीसिनेप्टिक न्यूरॉन पोस्टसिनेप्टिक न्यूरॉन को उत्तेजित करता है, तो उनके बीच का वजन प्रबल हो जाता है, जिससे भविष्य में और भी प्रबल उत्तेजना उत्पन्न होती है, और इसी तरह, आत्म-सुदृढ़ विधि से कोई सोच सकता है कि गैर-रैखिक, संतृप्त प्रतिक्रिया कार्य जोड़कर पोस्टसिनेप्टिक न्यूरॉन की फायरिंग दर को सीमित करना एक समाधान है, किंतु वास्तव में यह दिखाया जा सकता है कि किसी भी न्यूरॉन मॉडल के लिए, हेब्ब का नियम अस्थिर है। इसलिए नेटवर्क मॉडल न्यूरॉन्स सामान्यतः अन्य शिक्षण सिद्धांतों जैसे बीसीएम सिद्धांत, ओजा का नियम या सामान्यीकृत हेब्बियन एल्गोरिदम को नियोजित करते हैं।

तथापि, ऊपर दिए गए अस्थिर समाधान के लिए भी, कोई यह देख सकता है कि, जब पर्याप्त समय बीत जाता है, तो उनमें से एक शब्द दूसरों पर प्रभावित हो जाता है, और

.

जहां , का सबसे बड़ा ईजेनवैल्यू है। इस समय पोस्टसिनेप्टिक न्यूरॉन निम्नलिखित ऑपरेशन करता है:

क्योंकि, फिर से, ,s, के बीच सहसंबंध आव्यूह के सबसे बड़े ईजेनवैल्यू के अनुरूप ईजेनवेक्टर है यह बिल्कुल इनपुट के पहले प्रमुख घटक की गणना से मेल खाता है।

इस तंत्र को आगे पोस्टसिनेप्टिक न्यूरॉन्स को जोड़कर इनपुट का पूर्ण पीसीए (प्रमुख घटक विश्लेषण) करने के लिए बढ़ाया जा सकता है, परन्तु कि सभी पोस्टसिनेप्टिक न्यूरॉन्स को एक ही प्रमुख घटक को लेने से रोका जाए, उदाहरण के लिए पोस्टसिनेप्टिक परत में पार्श्व अवरोध जोड़कर इस प्रकार हमने हेब्बियन शिक्षण को पीसीए से जोड़ा है, जो कि बिना पर्यवेक्षित शिक्षण का एक प्रारंभिक रूप है, इस अर्थ में कि नेटवर्क इनपुट के उपयोगी सांख्यिकीय पहलुओं को उठा सकता है, और अपने आउटपुट में आसुत विधि से उनका वर्णन कर सकता है।[7]

सीमाएँ

दीर्घकालिक पोटेंशिएशन के लिए हेब्बियन मॉडल के सामान्य उपयोग के अतिरिक्त हेब्ब का सिद्धांत सभी प्रकार के सिनैप्टिक दीर्घकालिक प्लास्टिसिटी को आवरण नहीं करता है। हेब्ब ने निरोधात्मक सिनैप्स के लिए कोई नियम नहीं बनाया था ,और न ही उन्होंने कारण-विरोधी स्पाइक अनुक्रमों (पोस्टसिनेप्टिक न्यूरॉन के बाद प्रीसिनेप्टिक न्यूरॉन आग) के लिए पूर्वानुमान किया था। सिनैप्टिक संशोधन न केवल सक्रिय न्यूरॉन्स A और B के बीच हो सकता है, चूँकि निकट सिनैप्स पर भी हो सकता है।[8] इसलिए हेटेरोसिनैप्टिक प्लास्टिसिटी और होमोस्टैटिक प्लास्टिसिटी के सभी रूपों को गैर-हेब्बियन माना जाता है। एक उदाहरण प्रीसिनेप्टिक टर्मिनलों के लिए प्रतिगामी सिग्नलिंग है।[9] इस प्रतिगामी ट्रांसमीटर भूमिका को पूरा करने के लिए सबसे अधिक पहचाना जाने वाला यौगिक नाइट्रिक ऑक्साइड है, जो अपनी उच्च घुलनशीलता और प्रसारशीलता के कारण अधिकांशतः आस-पास के न्यूरॉन्स पर प्रभाव डालता है।[10] इस प्रकार का फैलाना सिनैप्टिक संशोधन जिसे वॉल्यूम लर्निंग के रूप में जाना जाता है, पारंपरिक हेब्बियन मॉडल में सम्मिलित नहीं है।[11]


दर्पण न्यूरॉन का हेब्बियन लर्निंग अकाउंट

दर्पण न्यूरॉन्स कैसे उभरते हैं, इसके प्रभावशाली सिद्धांत में हेब्बियन लर्निंग और स्पाइक-टाइमिंग-डिपेंडेंट प्लास्टिसिटी का उपयोग किया गया है।[12][13] दर्पण न्यूरॉन्स वे न्यूरॉन्स होते हैं जो तब सक्रिय होते हैं जब कोई व्यक्ति कोई कार्य करता है और जब व्यक्ति देखता है[14] या सुनता है[15] तो दूसरा समान क्रिया करता है। इन न्यूरॉन्स की खोज यह समझाने में बहुत प्रभावशाली रही है कि व्यक्ति दूसरों के कार्यों को कैसे समझते हैं, यह दिखाते हुए कि जब कोई व्यक्ति दूसरों के कार्यों को समझता है, तो व्यक्ति मोटर प्रोग्राम को सक्रिय करता है जिसका उपयोग वे समान कार्यों को करने के लिए करेंगे। इन मोटर कार्यक्रमों का सक्रियण तब धारणा में जानकारी जोड़ता है और यह अनुमान लगाने में सहायता करता है कि व्यक्ति अपने स्वयं के मोटर कार्यक्रम के आधार पर आगे क्या करेगा। एक चुनौती यह समझाना है कि कैसे व्यक्तियों में न्यूरॉन्स आते हैं जो किसी कार्य को करते समय और दूसरे को समान कार्य करते हुए सुनते या देखते समय प्रतिक्रिया करते हैं।

क्रिश्चियन कीज़र्स और डेविड पेरेट ने सुझाव दिया कि जैसे ही कोई व्यक्ति एक विशेष कार्य करता है, व्यक्ति उस कार्य को करते हुए देखेगा, सुनेगा और अनुभव करेगा। ये पुनः अभिवाही संवेदी संकेत क्रिया की दृष्टि ध्वनि और अनुभव पर प्रतिक्रिया करने वाले न्यूरॉन्स में गतिविधि को ट्रिगर करेंगे। क्योंकि इन संवेदी न्यूरॉन्स की गतिविधि निरन्तर उन मोटर न्यूरॉन्स के साथ ओवरलैप होगी जो कार्रवाई का कारण बनती है, हेब्बियन लर्निंग पूर्वानुमान करती है कि न्यूरॉन्स को जोड़ने वाले सिनैप्स किसी क्रिया की दृष्टि, ध्वनि और अनुभव पर प्रतिक्रिया करते हैं और उन न्यूरॉन्स को ट्रिगर करते हैं कार्रवाई को सशक्त बनाया जाना चाहिए. यही बात तब भी सच है जब लोग खुद को दर्पण में देखते हैं, खुद को बड़बड़ाते हुए सुनते हैं, या दूसरों की नकल करते हैं। इस पुनः-संबंध के बार-बार अनुभव के बाद, किसी क्रिया के संवेदी और मोटर प्रतिनिधित्व को जोड़ने वाले सिनैप्स इतने प्रबल होते हैं कि मोटर न्यूरॉन्स ध्वनि या क्रिया की दृष्टि पर फायरिंग करना प्रारंभ कर देते हैं, और एक दर्पण न्यूरॉन बनाया जाता है।

उस परिप्रेक्ष्य के साक्ष्य कई प्रयोगों से मिलते हैं जो दिखाते हैं कि मोटर प्रोग्राम को मोटर प्रोग्राम के निष्पादन के साथ उत्तेजना की बार-बार जोड़ी के बाद उपन्यास श्रवण या दृश्य उत्तेजनाओं द्वारा ट्रिगर किया जा सकता है (साक्ष्य की समीक्षा के लिए, गिउडिस एट अल देखें।, 2009)[16]). उदाहरण के लिए, जिन लोगों ने कभी पियानो नहीं बजाया है, वे पियानो संगीत सुनते समय पियानो बजाने में सम्मिलित मस्तिष्क क्षेत्रों को सक्रिय नहीं करते हैं। पांच घंटे का पियानो पाठ, जिसमें प्रतिभागी को हर बार कुंजी दबाने पर पियानो की ध्वनि के संपर्क में लाया जाता है, बाद में पियानो संगीत सुनने पर मस्तिष्क के मोटर क्षेत्रों में गतिविधि को ट्रिगर करने के लिए पर्याप्त सिद्ध होता है।[17] इस तथ्य के अनुरूप कि स्पाइक-टाइमिंग-निर्भर प्लास्टिसिटी केवल तभी होती है जब प्रीसिनेप्टिक न्यूरॉन फायरिंग पोस्टसिनेप्टिक न्यूरॉन फायरिंग की पूर्वानुमान करती है,[18] संवेदी उत्तेजनाओं और मोटर कार्यक्रमों के बीच संबंध भी तभी प्रबल होता प्रतीत होता है जब उत्तेजना मोटर कार्यक्रम पर निर्भर हो।

यह भी देखें

संदर्भ

  1. 1.0 1.1 1.2 1.3 Hebb, D.O. (1949). व्यवहार का संगठन. New York: Wiley & Sons.
  2. Siegrid Löwel, Göttingen University; The exact sentence is: "neurons wire together if they fire together" (Löwel, S. and Singer, W. (1992) Science 255 (published January 10, 1992) "Selection of Intrinsic Horizontal Connections in the Visual Cortex by Correlated Neuronal Activity". Science Magazine. United States: American Association for the Advancement of Science. pp. 209–212. ISSN 0036-8075.
  3. Caporale N; Dan Y (2008). "Spike timing-dependent plasticity: a Hebbian learning rule". Annual Review of Neuroscience. 31: 25–46. doi:10.1146/annurev.neuro.31.060407.125639. PMID 18275283.
  4. Allport, D.A. (1985). "Distributed memory, modular systems and dysphasia". In Newman, S.K.; Epstein R. (eds.). डिस्फेसिया में वर्तमान परिप्रेक्ष्य. Edinburgh: Churchill Livingstone. ISBN 978-0-443-03039-0.
  5. Paulsen, O; Sejnowski, T (1 April 2000). "गतिविधि के प्राकृतिक पैटर्न और दीर्घकालिक सिनैप्टिक प्लास्टिसिटी". Current Opinion in Neurobiology. 10 (2): 172–180. doi:10.1016/s0959-4388(00)00076-3.
  6. Klopf, A. H. (1972). Brain function and adaptive systems—A heterostatic theory. Technical Report AFCRL-72-0164, Air Force Cambridge Research Laboratories, Bedford, MA.
  7. Gerstner, Wulfram; Kistler, Werner M.; Naud, Richard; Paninski, Liam (July 2014). Chapter 19: Synaptic Plasticity and Learning. ISBN 978-1107635197. Retrieved 2020-11-09. {{cite book}}: |work= ignored (help)
  8. Horgan, John (May 1994). "तंत्रिका श्रवण". Scientific American. 270 (5): 16. Bibcode:1994SciAm.270e..16H. doi:10.1038/scientificamerican0594-16. PMID 8197441.
  9. Fitzsimonds, Reiko; Mu-Ming Poo (January 1998). "सिनैप्स के विकास और संशोधन में प्रतिगामी सिग्नलिंग". Physiological Reviews. 78 (1): 143–170. doi:10.1152/physrev.1998.78.1.143. PMID 9457171. S2CID 11604896.
  10. López, P; C.P. Araujo (2009). "जैविक और कृत्रिम तंत्रिका नेटवर्क में फैले हुए पड़ोस का एक कम्प्यूटेशनल अध्ययन" (PDF). International Joint Conference on Computational Intelligence.
  11. Mitchison, G; N. Swindale (October 1999). "Can Hebbian Volume Learning Explain Discontinuities in Cortical Maps?". Neural Computation. 11 (7): 1519–1526. doi:10.1162/089976699300016115. PMID 10490935. S2CID 2325474.
  12. Keysers C; Perrett DI (2004). "Demystifying social cognition: a Hebbian perspective". Trends in Cognitive Sciences. 8 (11): 501–507. doi:10.1016/j.tics.2004.09.005. PMID 15491904. S2CID 8039741.
  13. Keysers, C. (2011). The Empathic Brain.
  14. Gallese V; Fadiga L; Fogassi L; Rizzolatti G (1996). "प्रीमोटर कॉर्टेक्स में क्रिया की पहचान". Brain. 119 (Pt 2): 593–609. doi:10.1093/brain/119.2.593. PMID 8800951.
  15. Keysers C; Kohler E; Umilta MA; Nanetti L; Fogassi L; Gallese V (2003). "दृश्य-श्रव्य दर्पण न्यूरॉन्स और क्रिया पहचान". Exp Brain Res. 153 (4): 628–636. CiteSeerX 10.1.1.387.3307. doi:10.1007/s00221-003-1603-5. PMID 12937876. S2CID 7704309.
  16. Del Giudice M; Manera V; Keysers C (2009). "Programmed to learn? The ontogeny of mirror neurons" (PDF). Dev Sci. 12 (2): 350–363. doi:10.1111/j.1467-7687.2008.00783.x. hdl:2318/133096. PMID 19143807.
  17. Lahav A; Saltzman E; Schlaug G (2007). "Action representation of sound: audiomotor recognition network while listening to newly acquired actions". J Neurosci. 27 (2): 308–314. doi:10.1523/jneurosci.4822-06.2007. PMC 6672064. PMID 17215391.
  18. Bauer EP; LeDoux JE; Nader K (2001). "पार्श्व अमिगडाला में भय कंडीशनिंग और एलटीपी समान उत्तेजना आकस्मिकताओं के प्रति संवेदनशील हैं". Nat Neurosci. 4 (7): 687–688. doi:10.1038/89465. PMID 11426221. S2CID 33130204.


अग्रिम पठन


बाहरी संबंध