बीसीएम सिद्धांत: Difference between revisions

From Vigyanwiki
(Created page with "{{short description|Neuroscience model of learning}} बीसीएम सिद्धांत, बीसीएम सिनैप्टिक संशोधन, या ब...")
 
No edit summary
 
(8 intermediate revisions by 3 users not shown)
Line 1: Line 1:
{{short description|Neuroscience model of learning}}
{{short description|Neuroscience model of learning}}
बीसीएम सिद्धांत, बीसीएम सिनैप्टिक संशोधन, या बीसीएम नियम, जिसका नाम [[एली बीहाइव]], [[लियोन कूपर]] और पॉल मुनरो के नाम पर रखा गया है, 1981 में विकसित दृश्य कॉर्टेक्स में सीखने का एक भौतिक सिद्धांत है।
'''बीसीएम सिद्धांत''', '''बीसीएम अंतर्ग्रथनी संशोधन''', या '''बीसीएम नियम''', जिसका नाम [[एली बीहाइव]], [[लियोन कूपर]] और पॉल मुनरो के नाम पर रखा गया है, इन्होने 1981 में विकसित दृष्टि वल्कुट में सीखने का भौतिक सिद्धांत है। इस प्रकार से बीसीएम मॉडल दीर्घकालिक प्रबलीकरण (एलटीपी) या [[दीर्घकालिक अवसाद]] (एलटीडी) प्रेरण के लिए सर्पण सीमा का प्रस्ताव करता है, और बताता है कि अंतर्ग्रथनी सुघट्यता को समय-औसत अंतर्ग्रथनपश्च गतिविधि के गतिशील अनुकूलन द्वारा स्थिर किया जाता है। बीसीएम मॉडल के अनुसार, जब पूर्व-अंतर्ग्रथनी न्यूरॉन सक्रिय होता है, तो पश्च-अंतर्ग्रथनी न्यूरॉन एलटीपी से गुजरेंगे यदि यह उच्च गतिविधि स्थिति में है (उदाहरण के लिए, उच्च आवृत्ति पर सक्रिय है, और/या उच्च आंतरिक कैल्शियम सांद्रता है), या एलटीडी यदि यह कम गतिविधि वाली स्थिति में है (उदाहरण के लिए, कम आवृत्ति में फायरिंग, कम आंतरिक कैल्शियम सांद्रता)।<ref>{{Cite journal|last1=Izhikevich|first1=Eugene M.|last2=Desai|first2=Niraj S.|s2cid=1919612|date=2003-07-01|title=एसटीडीपी का बीसीएम से संबंध|pmid=12816564|journal=Neural Computation|volume=15|issue=7|pages=1511–1523|doi=10.1162/089976603321891783|issn=0899-7667}}</ref> अतः इस सिद्धांत का उपयोग प्रायः यह समझाने के लिए किया जाता है कि पूर्व-अंतर्ग्रथनी न्यूरॉन (सामान्यतः एलटीपी के लिए उच्च आवृत्ति उत्तेजना, या एचएफएस, या एलटीडी के लिए निम्न-आवृत्ति उत्तेजना, एलएफएस) पर लागू विभिन्न अनुकूलन उत्तेजना प्रोटोकॉल के आधार पर वल्कुटी न्यूरॉन एलटीपी या एलटीडी दोनों से कैसे गुजर सकते हैं।<ref name=":0">{{Cite journal|last1=Coesmans|first1=Michiel|last2=Weber|first2=John T.|last3=Zeeuw|first3=Chris I. De|last4=Hansel|first4=Christian|s2cid=9061314|title=क्लाइंबिंग फाइबर नियंत्रण के तहत सेरिबैलम में द्विदिश समानांतर फाइबर प्लास्टिसिटी|journal=Neuron|volume=44|issue=4|pages=691–700|doi=10.1016/j.neuron.2004.10.031|pmid=15541316|year=2004|doi-access=free}}</ref>
बीसीएम मॉडल दीर्घकालिक पोटेंशिएशन (एलटीपी) या [[दीर्घकालिक अवसाद]] (लिमिटेड) प्रेरण के लिए एक स्लाइडिंग सीमा का प्रस्ताव करता है, और बताता है कि सिनैप्टिक प्लास्टिसिटी को समय-औसत पोस्टसिनेप्टिक गतिविधि के गतिशील अनुकूलन द्वारा स्थिर किया जाता है। बीसीएम मॉडल के अनुसार, जब प्री-सिनैप्टिक न्यूरॉन सक्रिय होता है, तो पोस्ट-सिनैप्टिक न्यूरॉन्स एलटीपी से गुजरेंगे यदि यह उच्च गतिविधि स्थिति में है (उदाहरण के लिए, उच्च आवृत्ति पर सक्रिय है, और/या उच्च आंतरिक कैल्शियम सांद्रता है) ), या लिमिटेड यदि यह कम गतिविधि वाली स्थिति में है (उदाहरण के लिए, कम आवृत्ति में फायरिंग, कम आंतरिक कैल्शियम सांद्रता)।<ref>{{Cite journal|last1=Izhikevich|first1=Eugene M.|last2=Desai|first2=Niraj S.|s2cid=1919612|date=2003-07-01|title=एसटीडीपी का बीसीएम से संबंध|pmid=12816564|journal=Neural Computation|volume=15|issue=7|pages=1511–1523|doi=10.1162/089976603321891783|issn=0899-7667}}</ref> इस सिद्धांत का उपयोग अक्सर यह समझाने के लिए किया जाता है कि प्री-सिनैप्टिक न्यूरॉन्स (आमतौर पर एलटीपी के लिए उच्च आवृत्ति उत्तेजना, या एचएफएस, या कम आवृत्ति उत्तेजना, एलएफएस) पर लागू विभिन्न कंडीशनिंग उत्तेजना प्रोटोकॉल के आधार पर कॉर्टिकल न्यूरॉन्स एलटीपी या लिमिटेड दोनों से कैसे गुजर सकते हैं। लि.)<ref name=":0">{{Cite journal|last1=Coesmans|first1=Michiel|last2=Weber|first2=John T.|last3=Zeeuw|first3=Chris I. De|last4=Hansel|first4=Christian|s2cid=9061314|title=क्लाइंबिंग फाइबर नियंत्रण के तहत सेरिबैलम में द्विदिश समानांतर फाइबर प्लास्टिसिटी|journal=Neuron|volume=44|issue=4|pages=691–700|doi=10.1016/j.neuron.2004.10.031|pmid=15541316|year=2004|doi-access=free}}</ref>




== विकास ==
== विकास ==
1949 में, [[डोनाल्ड हेब्ब]] ने मस्तिष्क में स्मृति और कम्प्यूटेशनल अनुकूलन के लिए एक कामकाजी तंत्र का प्रस्ताव रखा जिसे अब [[हेब्बियन सीखना]] कहा जाता है, या कहावत है कि जो कोशिकाएं एक साथ सक्रिय होती हैं, वे एक साथ जुड़ जाती हैं।<ref name=":1">{{Cite book|title=तंत्रिका विज्ञान के सिद्धांत|others=Kandel, Eric R.|year = 2013|isbn=978-0-07-139011-8|edition=5th|location=New York|oclc=795553723}}</ref> यह धारणा एक तंत्रिका नेटवर्क के रूप में मस्तिष्क की आधुनिक समझ में मूलभूत है, और हालांकि सार्वभौमिक रूप से सच नहीं है, दशकों के साक्ष्य द्वारा समर्थित एक अच्छा पहला अनुमान बना हुआ है।<ref name=":1" /><ref>{{Cite journal|last1=Markram|first1=Henry|author-link2=Wulfram Gerstner|last2=Gerstner|first2=Wulfram|last3=Sjöström|first3=Per Jesper|date=2012|title=Spike-Timing-Dependent Plasticity: A Comprehensive Overview|journal=Frontiers in Synaptic Neuroscience|language=en|volume=4|page=2|doi=10.3389/fnsyn.2012.00002|pmid=22807913|pmc=3395004|issn=1663-3563|doi-access=free}}</ref>
इस प्रकार से 1949 में, [[डोनाल्ड हेब्ब|'''डोनाल्ड हेब्ब''']] ने मस्तिष्क में स्मृति और कम्प्यूटेशनल अनुकूलन के लिए कार्यकारी तंत्र का प्रस्ताव रखा जिसे अब [[हेब्बियन सीखना]] कहा जाता है, या कहावत है कि जो कोशिकाएं एक साथ सक्रिय होती हैं, वे साथ जुड़ जाती हैं।<ref name=":1">{{Cite book|title=तंत्रिका विज्ञान के सिद्धांत|others=Kandel, Eric R.|year = 2013|isbn=978-0-07-139011-8|edition=5th|location=New York|oclc=795553723}}</ref> अतः यह धारणा तंत्रिका नेटवर्क के रूप में मस्तिष्क की आधुनिक समझ में मूलभूत है, और यद्यपि सार्वभौमिक रूप से सत्य नहीं है, दशकों के साक्ष्य द्वारा समर्थित ठीक प्रथम अनुमान बना हुआ है।<ref name=":1" /><ref>{{Cite journal|last1=Markram|first1=Henry|author-link2=Wulfram Gerstner|last2=Gerstner|first2=Wulfram|last3=Sjöström|first3=Per Jesper|date=2012|title=Spike-Timing-Dependent Plasticity: A Comprehensive Overview|journal=Frontiers in Synaptic Neuroscience|language=en|volume=4|page=2|doi=10.3389/fnsyn.2012.00002|pmid=22807913|pmc=3395004|issn=1663-3563|doi-access=free}}</ref>
हालाँकि, हेब्ब के नियम में समस्याएँ हैं, अर्थात् इसमें कनेक्शन के कमजोर होने की कोई व्यवस्था नहीं है और वे कितने मजबूत हो सकते हैं इसकी कोई ऊपरी सीमा नहीं है। दूसरे शब्दों में, मॉडल सैद्धांतिक और कम्प्यूटेशनल दोनों रूप से अस्थिर है। बाद के संशोधनों ने धीरे-धीरे हेब्ब के नियम में सुधार किया, इसे सामान्य बनाया और सिनैप्स के क्षय की अनुमति दी, जहां न्यूरॉन्स के बीच कोई गतिविधि या असिंक्रनाइज़ गतिविधि के परिणामस्वरूप कनेक्शन ताकत का नुकसान नहीं होता है। नए जैविक साक्ष्य ने इस गतिविधि को 1970 के दशक में चरम पर पहुंचा दिया, जहां सिद्धांतकारों ने सिद्धांत में विभिन्न अनुमानों को औपचारिक रूप दिया, जैसे कि न्यूरॉन उत्तेजना को निर्धारित करने में क्षमता के बजाय फायरिंग आवृत्ति का उपयोग, और आदर्श की धारणा और, अधिक महत्वपूर्ण रूप से, रैखिक सिनैप्टिक एकीकरण संकेतों का. अर्थात्, किसी सेल में आग लगेगी या नहीं, यह निर्धारित करने के लिए इनपुट धाराओं को जोड़ने में कोई अप्रत्याशित व्यवहार नहीं होता है।


इन अनुमानों के परिणामस्वरूप बीसीएम का मूल रूप 1979 में सामने आया, लेकिन अंतिम चरण स्थिरता साबित करने के लिए गणितीय विश्लेषण और प्रयोज्यता साबित करने के लिए कम्प्यूटेशनल विश्लेषण के रूप में आया, जिसका समापन बिएननस्टॉक, कूपर और मुनरो के 1982 के पेपर में हुआ।
यद्यपि, हेब्ब के नियम में समस्याएँ हैं, अर्थात् इसमें संपर्क के दुर्बल होने की कोई व्यवस्था नहीं है और वे कितने दृढ हो सकते हैं इसकी कोई ऊपरी सीमा नहीं है। दूसरे शब्दों में, मॉडल सैद्धांतिक और कम्प्यूटेशनल दोनों रूप से अस्थिर है। इस प्रकार से बाद के संशोधनों ने धीरे-धीरे हेब्ब के नियम में सुधार किया, इसे सामान्य बनाया और अन्तर्ग्रथन के क्षय की अनुमति दी, जहां न्यूरॉन के बीच कोई गतिविधि या असमकालिक गतिविधि के परिणामस्वरूप संपर्क सामर्थ्य की हानि नहीं होती है। इस प्रकार से नवीन जैविक साक्ष्य ने इस गतिविधि को 1970 के दशक में परम पर पहुंचा दिया, जहां सिद्धांतकारों ने सिद्धांत में विभिन्न अनुमानों को औपचारिक रूप दिया, जैसे कि न्यूरॉन उत्तेजना को निर्धारित करने में क्षमता के अतिरिक्त फायरिंग आवृत्ति का उपयोग, और आदर्श की धारणा और, अधिक महत्वपूर्ण रूप से, रैखिक अंतर्ग्रथनी एकीकरण संकेतों का अर्थात्, किसी कोशिकामें अग्नि लगेगी या नहीं, यह निर्धारित करने के लिए निविष्ट प्रवाहों को जोड़ने में कोई अप्रत्याशित व्यवहार नहीं होता है।
 
इस प्रकार से इन अनुमानों के परिणामस्वरूप बीसीएम का मूल रूप 1979 में सामने आया था, परन्तु अंतिम चरण स्थिरता सिद्ध करने के लिए गणितीय विश्लेषण और प्रयोज्यता सिद्ध करने के लिए कम्प्यूटेशनल विश्लेषण के रूप में आया, जिसका अंत बिएननस्टॉक, कूपर और मुनरो के 1982 के लेख में हुआ था।
 
अतः तब से, प्रयोगों ने दृष्टि वल्कुट और [[ समुद्री घोड़ा |हिपोकैम्पस]] दोनों में बीसीएम व्यवहार के प्रमाण दिखाए हैं, जिनमें से उत्तरार्द्ध स्मृतियों के निर्माण और भंडारण में महत्वपूर्ण भूमिका निभाता है। इन दोनों क्षेत्रों का प्रयोगात्मक रूप से ठीक रूप से अध्ययन किया गया है, परन्तु सिद्धांत और प्रयोग दोनों ने अभी तक मस्तिष्क के अन्य क्षेत्रों में निर्णायक अंतर्ग्रथनी व्यवहार स्थापित नहीं किया है। इस प्रकार से यह प्रस्तावित किया गया है कि [[सेरिबैलम]] में, [[पुर्किंजे कोशिका]] अन्तर्ग्रथन के [[समानांतर फाइबर]] व्युत्क्रम बीसीएम नियम का पालन करता है, जिसका अर्थ है कि समानांतर फाइबर सक्रियण के समय, परकिनजे कोशिका में उच्च कैल्शियम एकाग्रता का परिणाम एलटीडी होता है, जबकि एक एलटीपी में कम सांद्रता का परिणाम होता है।<ref name=":0" /> इसके अतिरिक्त, बीसीएम में [[ सूत्रयुग्मक सुनम्यता |सूत्रयुग्मक सुनम्यता]] के लिए जैविक कार्यान्वयन अभी तक स्थापित नहीं किया गया है।<ref>{{cite journal |last=Cooper |first=L.N. |author-link=Leon Cooper |year=2000 |title=Memories and memory: A physicist's approach to the brain |journal=International Journal of Modern Physics A |volume=15 |issue=26 |pages=4069–4082 |url=http://physics.brown.edu/physics/researchpages/Ibns/Lab%20Publications%20(PDF)/memoriesandmemory.pdf |access-date= 2007-11-11 |doi=10.1142/s0217751x0000272x}}</ref>


तब से, प्रयोगों ने दृश्य कॉर्टेक्स और [[ समुद्री घोड़ा ]] दोनों में बीसीएम व्यवहार के प्रमाण दिखाए हैं, जिनमें से उत्तरार्द्ध यादों के निर्माण और भंडारण में महत्वपूर्ण भूमिका निभाता है। इन दोनों क्षेत्रों का प्रयोगात्मक रूप से अच्छी तरह से अध्ययन किया गया है, लेकिन सिद्धांत और प्रयोग दोनों ने अभी तक मस्तिष्क के अन्य क्षेत्रों में निर्णायक सिनैप्टिक व्यवहार स्थापित नहीं किया है। यह प्रस्तावित किया गया है कि [[सेरिबैलम]] में, [[पुर्किंजे कोशिका]] सिनैप्स के [[समानांतर फाइबर]] | समानांतर-फाइबर एक व्युत्क्रम बीसीएम नियम का पालन करता है, जिसका अर्थ है कि समानांतर फाइबर सक्रियण के समय, पर्किनजे सेल में एक उच्च कैल्शियम एकाग्रता का परिणाम लिमिटेड होता है, जबकि ए एलटीपी में कम सांद्रता का परिणाम होता है।<ref name=":0" />इसके अलावा, बीसीएम में [[ सूत्रयुग्मक सुनम्यता ]] के लिए जैविक कार्यान्वयन अभी तक स्थापित नहीं किया गया है।<ref>{{cite journal |last=Cooper |first=L.N. |author-link=Leon Cooper |year=2000 |title=Memories and memory: A physicist's approach to the brain |journal=International Journal of Modern Physics A |volume=15 |issue=26 |pages=4069–4082 |url=http://physics.brown.edu/physics/researchpages/Ibns/Lab%20Publications%20(PDF)/memoriesandmemory.pdf |access-date= 2007-11-11 |doi=10.1142/s0217751x0000272x}}</ref>




== सिद्धांत ==
== सिद्धांत ==
{{Confusing|date=January 2012}}
मूल बीसीएम
मूल बीसीएम नियम का रूप लेता है


:<math>\,\frac{d m_j(t)}{d t} = \phi(\textbf{c}(t))d_j(t)-\epsilon m_j(t),</math>
:<math>\,\frac{d m_j(t)}{d t} = \phi(\textbf{c}(t))d_j(t)-\epsilon m_j(t)</math>
कहाँ:
नियम का रूप लेता है जहाँ:


* <math>m_j</math> का सिनैप्टिक भार है <math>j</math>वें सिनैप्स,
* <math>m_j</math> <math>j</math>वें अन्तर्ग्रथन का अंतर्ग्रथनी भार है,
* <math>d_j</math> है <math>j</math>सिनैप्स इनपुट करंट,
* <math>d_j</math> <math>j</math>वें अन्तर्ग्रथन की निविष्ट प्रवाह है,
* <math>c(t) = \textbf{w}(t)\textbf{d}(t) = \sum_j w_j(t)d_j(t)</math> भार और इनपुट धाराओं (इनपुट का भारित योग) का आंतरिक उत्पाद है,
* <math>c(t) = \textbf{w}(t)\textbf{d}(t) = \sum_j w_j(t)d_j(t)</math> भार और निविष्ट प्रवाहों (निवेश का भारित योग) का आंतरिक उत्पाद है,
* <math>\phi(c)</math> एक अरैखिक फलन है. इस फ़ंक्शन को कुछ सीमा पर चिह्न बदलना होगा <math>\theta_M</math>, वह है, <math>\phi(c)<0  
* <math>\phi(c)</math> अरैखिक फलन है। इस फलन को कुछ सीमा <math>\theta_M</math> पर चिह्न परिवर्तित करना होगा, अर्थात, <math>\phi(c)<0  
</math> अगर और केवल अगर <math>c < \theta_M</math> . विवरण और संपत्तियों के लिए नीचे देखें।
</math> यदि और मात्र यदि <math>c < \theta_M</math> है। विवरण और गुणों के लिए नीचे देखें।
* और <math>\epsilon</math> सभी सिनैप्स के एकसमान क्षय का (अक्सर नगण्य) समय स्थिरांक है।
* और <math>\epsilon</math> सभी अन्तर्ग्रथन के एकसमान क्षय का (प्रायः नगण्य) समय स्थिरांक है।


यह मॉडल हेब्बियन सीखने के नियम का एक संशोधित रूप है, <math>\dot{m_j}=c d_j</math>, और फ़ंक्शन के उपयुक्त विकल्प की आवश्यकता है <math>\phi</math> अस्थिरता की हेब्बियन समस्याओं से बचने के लिए।
इस प्रकार से यह मॉडल हेब्बियन सीखने के नियम, <math>\dot{m_j}=c d_j</math> का संशोधित रूप है,, और अस्थिरता की हेब्बियन समस्याओं से बचने के लिए फलन <math>\phi</math> के उपयुक्त विकल्प की आवश्यकता होती है।


बिएननस्टॉक एट अल। <ref name=":2" />पुनर्लेखन <math>\phi(c)</math> एक समारोह के रूप में <math>\phi(c,\bar{c})</math> कहाँ <math>\bar{c}</math> का समय औसत है <math>c</math>. इस संशोधन और एकसमान क्षय को त्यागने से नियम सदिश रूप ले लेता है:
बिएननस्टॉक एट अल<ref name=":2" /> ने पुनर्लेखन <math>\phi(c)</math> को फलन <math>\phi(c,\bar{c})</math> के रूप में पुनः लिखा था, जहाँ <math>\bar{c}</math> <math>c</math> का समय औसत है। इस संशोधन और एकसमान क्षय को त्यागने से नियम सदिश रूप ले लेता है:
:<math>\dot{\mathbf{m}}(t) = \phi(c(t),\bar{c}(t))\mathbf{d}(t)</math>
:<math>\dot{\mathbf{m}}(t) = \phi(c(t),\bar{c}(t))\mathbf{d}(t)</math>
स्थिर सीखने की शर्तें बीसीएम में कठोरता से प्राप्त की गई हैं <math>c(t)=\textbf{m}(t)\cdot\textbf{d}(t)</math> और औसत आउटपुट के अनुमान के साथ <math>\bar{c}(t) \approx \textbf{m}(t)\bar{\mathbf{d}}</math>, इतना ही काफी है
इस प्रकार से स्थिर सीखने की प्रतिबंधें बीसीएम में जटिलता से प्राप्त की जाती हैं, यह ध्यान में रखते हुए कि <math>c(t)=\textbf{m}(t)\cdot\textbf{d}(t)</math> के साथ और औसत निर्गम <math>\bar{c}(t) \approx \textbf{m}(t)\bar{\mathbf{d}}</math> के अनुमान के साथ, यह पर्याप्त है कि


:<math>\,\sgn\phi(c,\bar{c}) = \sgn\left(c-\left(\frac{\bar{c}}{c_0}\right)^p\bar{c}\right) ~~ \textrm{for} ~ c>0, ~ \textrm{and}</math>
:<math>\,\sgn\phi(c,\bar{c}) = \sgn\left(c-\left(\frac{\bar{c}}{c_0}\right)^p\bar{c}\right) ~~ \textrm{for} ~ c>0, ~ \textrm{and}</math>
:<math>\,\phi(0,\bar{c}) = 0 ~~ \textrm{for} ~ \textrm{all} ~ \bar{c},</math>
:<math>\,\phi(0,\bar{c}) = 0 ~~ \textrm{for} ~ \textrm{all} ~ \bar{c},</math>
या समकक्ष, वह दहलीज <math>\theta_M(\bar{c}) = (\bar{c}/c_0)^p\bar{c}</math>, कहाँ <math>p</math> और <math>c_0</math> निश्चित धनात्मक स्थिरांक हैं।<ref name=":2">{{cite journal |last=Bienenstock |first=Elie L. |author-link=Elie Bienenstock |author2=Leon Cooper |author3-link=Paul Munro |author3=Paul Munro |date=January 1982|title=Theory for the development of neuron selectivity: orientation specificity and binocular interaction in visual cortex |journal=The Journal of Neuroscience |volume=2 |issue=1 |pages=32–48 |url=http://www.physics.brown.edu/physics/researchpages/Ibns/Cooper%20Pubs/070_TheoryDevelopment_82.pdf |access-date= 2007-11-11 |pmid=7054394 |doi=10.1523/JNEUROSCI.02-01-00032.1982 |pmc=6564292 |author2-link=Leon Cooper }}</ref>
या समकक्ष, देहली <math>\theta_M(\bar{c}) = (\bar{c}/c_0)^p\bar{c}</math>, जहाँ <math>p</math> और <math>c_0</math> निश्चित धनात्मक स्थिरांक हैं।<ref name=":2">{{cite journal |last=Bienenstock |first=Elie L. |author-link=Elie Bienenstock |author2=Leon Cooper |author3-link=Paul Munro |author3=Paul Munro |date=January 1982|title=Theory for the development of neuron selectivity: orientation specificity and binocular interaction in visual cortex |journal=The Journal of Neuroscience |volume=2 |issue=1 |pages=32–48 |url=http://www.physics.brown.edu/physics/researchpages/Ibns/Cooper%20Pubs/070_TheoryDevelopment_82.pdf |access-date= 2007-11-11 |pmid=7054394 |doi=10.1523/JNEUROSCI.02-01-00032.1982 |pmc=6564292 |author2-link=Leon Cooper }}</ref>
जब लागू किया जाता है, तो सिद्धांत को अक्सर इस प्रकार लिया जाता है
 
इस प्रकार से लागू होने पर, सिद्धांत को प्रायः इस प्रकार से लिया जाता है कि


:<math>\,\phi(c,\bar{c}) = c(c-\theta_M) ~~~ \textrm{and} ~~~ \theta_M = \bar{c}^2 = \frac{1}{\tau}\int_{-\infty}^t c^2(t^\prime)e^{-(t-t^\prime)/\tau}d t^\prime,</math>
:<math>\,\phi(c,\bar{c}) = c(c-\theta_M) ~~~ \textrm{and} ~~~ \theta_M = \bar{c}^2 = \frac{1}{\tau}\int_{-\infty}^t c^2(t^\prime)e^{-(t-t^\prime)/\tau}d t^\prime,</math>
कहाँ <math>\tau</math> चयनात्मकता का एक समय स्थिरांक है।
जहाँ <math>\tau</math> चयनात्मकता का समय स्थिरांक है।
 
अतः मॉडल में कमियां हैं, क्योंकि इसमें दीर्घकालिक प्रबलीकरण और दीर्घकालिक अवसाद दोनों की आवश्यकता होती है, या अंतर्ग्रथनी सामर्थ्य में वृद्धि और कमी होती है, कुछ ऐसा जो सभी वल्कुटी पद्धति में नहीं देखा गया है। इसके अतिरिक्त, इसके लिए परिवर्तनीय सक्रियण सीमा की आवश्यकता होती है और यह चयनित निश्चित बिंदुओं की स्थिरता <math>c_0</math> और <math>p</math> पर दृढ़ता से निर्भर करता है। यद्यपि, मॉडल का सामर्थ्य यह है कि इसमें स्थिरता के स्वतंत्र रूप से प्राप्त नियमों से इन सभी आवश्यकताओं को सम्मिलित किया गया है, जैसे कि [[सामान्यीकृत तरंग फ़ंक्शन|सामान्यीकृत तरंग फलन]] और निर्गम के वर्ग के आनुपातिक समय के साथ क्षय फलन है।<ref>{{cite web |url=http://www.cs.tau.ac.il/~nin/Courses/NC05/BCM.ppt |title=सिनैप्टिक प्लास्टिसिटी का बीसीएम सिद्धांत|access-date=2007-11-11 |last=Intrator |first=Nathan |date=2006–2007 |work=Neural Computation |publisher=School of Computer Science, Tel-Aviv University }}</ref>


मॉडल में कमियां हैं, क्योंकि इसमें दीर्घकालिक पोटेंशिएशन और दीर्घकालिक अवसाद दोनों की आवश्यकता होती है, या सिनैप्टिक ताकत में वृद्धि और कमी होती है, कुछ ऐसा जो सभी कॉर्टिकल सिस्टम में नहीं देखा गया है। इसके अलावा, इसके लिए एक परिवर्तनीय सक्रियण सीमा की आवश्यकता होती है और यह चयनित निश्चित बिंदुओं की स्थिरता पर दृढ़ता से निर्भर करता है <math>c_0</math> और <math>p</math>. हालाँकि, मॉडल की ताकत यह है कि इसमें स्थिरता के स्वतंत्र रूप से प्राप्त नियमों से इन सभी आवश्यकताओं को शामिल किया गया है, जैसे [[सामान्यीकृत तरंग फ़ंक्शन]] और आउटपुट के वर्ग के आनुपातिक समय के साथ एक क्षय फ़ंक्शन।<ref>{{cite web |url=http://www.cs.tau.ac.il/~nin/Courses/NC05/BCM.ppt |title=सिनैप्टिक प्लास्टिसिटी का बीसीएम सिद्धांत|access-date=2007-11-11 |last=Intrator |first=Nathan |date=2006–2007 |work=Neural Computation |publisher=School of Computer Science, Tel-Aviv University }}</ref>




== उदाहरण ==
== उदाहरण ==


यह उदाहरण बिएनस्टॉक एट अल के अध्याय गणितीय परिणामों में से एक का एक विशेष मामला है। <ref name=":2" /> मान कर काम करो <math>p=2
इस प्रकार से यह उदाहरण बिएनस्टॉक एट अल के अध्याय "गणितीय परिणाम" की विशेष स्थिति में है,<ref name=":2" /> जिसमें <math>p=2
</math> और <math>c_0 = 1</math>. इन्हीं मूल्यों के साथ <math>\theta_M=(\bar{c}/c_0)^p\bar{c}=\bar{c}^3</math> और हम निर्णय लेते हैं <math>\phi(c,\bar{c}) = c (c - \theta_M)</math> जो पिछले अध्याय में बताई गई स्थिरता शर्तों को पूरा करता है।
</math> और <math>c_0 = 1</math> माना गया है। अतः इन मानों के साथ <math>\theta_M=(\bar{c}/c_0)^p\bar{c}=\bar{c}^3</math> और हम निर्धारित करते हैं कि <math>\phi(c,\bar{c}) = c (c - \theta_M)</math> जो पिछले अध्याय में बताई गई स्थिरता की प्रतिबन्धों को पूरा करता है।


दो प्रीसिनेप्टिक न्यूरॉन्स मान लें जो इनपुट प्रदान करते हैं <math>d_1</math> और <math>d_2</math>, इसकी गतिविधि आधे समय के साथ एक दोहराव वाला चक्र है <math>\mathbf{d}=(d_1,d_2)=(0.9,0.1)</math> और शेष समय <math>\mathbf{d}=(0.2,0.7
दो पूर्वअंतर्ग्रथनी न्यूरॉन मान लें जो निविष्ट <math>d_1</math> और <math>d_2</math> प्रदान करते हैं, इसकी गतिविधि आधे समय <math>\mathbf{d}=(d_1,d_2)=(0.9,0.1)</math> और शेष समय <math>\mathbf{d}=(0.2,0.7
)</math> . <math>\bar{c}</math> समय का औसत का औसत होगा <math>c</math> एक चक्र की पहली और दूसरी छमाही में मूल्य।
)</math> के साथ एक दोहराव चक्र है। इस प्रकार से <math>\bar{c}</math> समय औसत एक चक्र के पहले और दूसरे भाग में <math>c</math> मान का औसत होगा।


मान लीजिए वज़न का प्रारंभिक मान <math>\mathbf{m}=(0.1,0.05)</math>. समय के पहले भाग में <math>\mathbf{d}=(0.9,0.1)</math> और <math>\mathbf{m}=(0.1,0.05)</math>, भारित योग <math>c</math> 0.095 के बराबर है और हम प्रारंभिक औसत के समान मान का उपयोग करते हैं <math>\bar{c}</math>. इसका मत <math>\theta_M=0.001</math> , <math>\phi=0.009</math>, <math>\dot{m}=(0.008,0.001)</math>. भार में व्युत्पन्न का 10% जोड़ने पर हमें नए भार प्राप्त होते हैं <math>\mathbf{m}=(0.101,0.051)</math>.
इस प्रकार से मान लीजिए कि भार का प्रारंभिक मान <math>\mathbf{m}=(0.1,0.05)</math> है। समय <math>\mathbf{d}=(0.9,0.1)</math> और <math>\mathbf{m}=(0.1,0.05)</math> की प्रथम छमाही में, भारित योग <math>c</math> 0.095 के बराबर है और हम प्रारंभिक औसत <math>\bar{c}</math> के समान मान का उपयोग करते हैं। अतः इसका अर्थ <math>\theta_M=0.001</math>, <math>\phi=0.009</math>, <math>\dot{m}=(0.008,0.001)</math> है। भार में व्युत्पन्न का 10% जोड़ने पर हमें नवीन भार <math>\mathbf{m}=(0.101,0.051)</math> प्राप्त होते हैं।


अगले आधे समय में, इनपुट हैं <math>\mathbf{d}=(0.2,0.7
अगले आधे समय में, निविष्ट <math>\mathbf{d}=(0.2,0.7
)</math> और वजन <math>\mathbf{m}=(0.101,0.051)</math>. इसका मत  <math>c=0.055
)</math> और भार <math>\mathbf{m}=(0.101,0.051)</math> हैं। अतः इसका अर्थ है कि पूर्ण चक्र का <math>c=0.055
</math>, <math>\bar{c}</math> पूर्ण चक्र का मान 0.075 है, <math>\theta_M=0.000
</math>, <math>\bar{c}</math> 0.075 <math>\theta_M=0.000
</math> , <math>\phi=0.003</math>, <math>\dot{m}=(0.001,0.002)</math>. भार में व्युत्पन्न का 10% जोड़ने पर हमें नए भार प्राप्त होते हैं <math>\mathbf{m}=(0.110,0.055)</math>.
</math>, <math>\phi=0.003</math>, <math>\dot{m}=(0.001,0.002)</math> है। भार में व्युत्पन्न का 10% जोड़ने पर हमें नवीन भार <math>\mathbf{m}=(0.110,0.055)</math> प्राप्त होते हैं।


पिछले चक्र को दोहराते हुए, कई सौ पुनरावृत्तियों के बाद, हम स्थिरता प्राप्त करते हैं <math>\mathbf{m}=(3.246,-0.927)</math>, <math>c=\sqrt{8}=2.828
इस प्रकार से पूर्व चक्र को दोहराते हुए, कई सौ पुनरावृत्तियों के बाद, हम यह प्राप्त करते हैं कि स्थिरता <math>\mathbf{m}=(3.246,-0.927)</math>, <math>c=\sqrt{8}=2.828
</math> (पहला भाग) और <math>c=0.000
</math> (प्रथम भाग) और <math>c=0.000
</math> (शेष समय), <math>\bar{c}=\sqrt{8}/2=1.414</math>, <math>\theta_M = \sqrt{8} = 2.828
</math> (शेष समय), <math>\bar{c}=\sqrt{8}/2=1.414</math>, <math>\theta_M = \sqrt{8} = 2.828
</math> , <math>\phi=0.000</math> और <math>\dot{m}=(0.000,0.000)</math>.
</math>, <math>\phi=0.000</math> और <math>\dot{m}=(0.000,0.000)</math> के साथ पहुँच जाती है।


ध्यान दें कि, जैसा कि अनुमान लगाया गया था, अंतिम भार वेक्टर कैसे होगा <math>m</math> इनपुट पैटर्न में से एक के लिए ऑर्थोगोनल बन गया है, जो कि अंतिम मान है <math>c</math> फ़ंक्शन के दोनों अंतरालों में शून्य <math>\phi</math>.
अतः ध्यान दें कि, जैसा कि भविष्यवाणी की गई थी, अंतिम भार सदिश <math>m</math> निविष्ट प्रतिदर्श में से एक के लिए लंबकोणीय बन गया है, जो फलन <math>\phi</math> के दोनों अंतराल शून्य में <math>c</math> का अंतिम मान है।


== प्रयोग ==
== प्रयोग ==
बीसीएम की पहली प्रमुख प्रायोगिक पुष्टि 1992 में हिप्पोकैम्पस में दीर्घकालिक पोटेंशिएशन और दीर्घकालिक अवसाद की जांच में हुई। [[सेरेना डुडेक]] के प्रयोगात्मक कार्य ने बीसीएम सक्रियण फ़ंक्शन के अंतिम रूप के साथ गुणात्मक समझौता दिखाया।<ref>{{cite journal |last=Dudek |first=Serena M. |author-link=Serena Dudek |author2=Mark Bear |author-link2=Mark F. Bear  |year=1992 |title=हिप्पोकैम्पस के क्षेत्र CA1 में होमोसिनेप्टिक दीर्घकालिक अवसाद और एन-मिथाइल-डी-एस्पार्टेट रिसेप्टर नाकाबंदी के प्रभाव|journal=Proc. Natl. Acad. Sci. |volume=89 |issue= 10|pages=4363–4367 |url=http://www.pnas.org/cgi/reprint/89/10/4363.pdf |access-date= 2007-11-11 |doi=10.1073/pnas.89.10.4363 |pmid=1350090 |pmc=49082 |bibcode=1992PNAS...89.4363D |doi-access=free }}</ref> इस प्रयोग को बाद में विज़ुअल कॉर्टेक्स में दोहराया गया, जिसे बीसीएम को मूल रूप से मॉडल करने के लिए डिज़ाइन किया गया था।<ref>{{cite journal |last=Kirkwood |first=Alfredo |author-link=Alfredo Kirkwood |author2=Marc G. Rioult |author3-link=Mark F. Bear |author3=Mark F. Bear |s2cid=2705694 |year=1996 |title=चूहे के दृश्य प्रांतस्था में सिनैप्टिक प्लास्टिसिटी का अनुभव-निर्भर संशोधन|journal=[[Nature (journal)|Nature]] |volume=381 |issue= 6582|pages=526–528 |doi=10.1038/381526a0 |pmid=8632826 |bibcode=1996Natur.381..526K |author2-link=Marc G. Rioult }}</ref> इस कार्य ने हेब्बियन-प्रकार की शिक्षा (बीसीएम या अन्य) में स्थिरता के लिए एक परिवर्तनीय थ्रेशोल्ड फ़ंक्शन की आवश्यकता का और सबूत प्रदान किया।
इस प्रकार से बीसीएम की पहली प्रमुख प्रायोगिक पुष्टि 1992 में हिप्पोकैम्पस में दीर्घकालिक प्रबलीकरण और दीर्घकालिक अवसाद की जांच में हुई थी। [[सेरेना डुडेक]] के प्रयोगात्मक कार्य ने बीसीएम सक्रियण फलन के अंतिम रूप के साथ गुणात्मक समझौता दिखाया था।<ref>{{cite journal |last=Dudek |first=Serena M. |author-link=Serena Dudek |author2=Mark Bear |author-link2=Mark F. Bear  |year=1992 |title=हिप्पोकैम्पस के क्षेत्र CA1 में होमोसिनेप्टिक दीर्घकालिक अवसाद और एन-मिथाइल-डी-एस्पार्टेट रिसेप्टर नाकाबंदी के प्रभाव|journal=Proc. Natl. Acad. Sci. |volume=89 |issue= 10|pages=4363–4367 |url=http://www.pnas.org/cgi/reprint/89/10/4363.pdf |access-date= 2007-11-11 |doi=10.1073/pnas.89.10.4363 |pmid=1350090 |pmc=49082 |bibcode=1992PNAS...89.4363D |doi-access=free }}</ref> अतः इस प्रयोग को बाद में दृष्टि वल्कुट में दोहराया गया, जिसे बीसीएम को मूल रूप से मॉडल करने के लिए डिज़ाइन किया गया था।<ref>{{cite journal |last=Kirkwood |first=Alfredo |author-link=Alfredo Kirkwood |author2=Marc G. Rioult |author3-link=Mark F. Bear |author3=Mark F. Bear |s2cid=2705694 |year=1996 |title=चूहे के दृश्य प्रांतस्था में सिनैप्टिक प्लास्टिसिटी का अनुभव-निर्भर संशोधन|journal=[[Nature (journal)|Nature]] |volume=381 |issue= 6582|pages=526–528 |doi=10.1038/381526a0 |pmid=8632826 |bibcode=1996Natur.381..526K |author2-link=Marc G. Rioult }}</ref> इस प्रकार से इस कार्य ने हेब्बियन-प्रकार की शिक्षा (बीसीएम या अन्य) में स्थिरता के लिए परिवर्तनीय देहली फलन की आवश्यकता का एक और परिमाण प्रदान किया था।


रिटेनहाउस एट अल तक प्रायोगिक साक्ष्य बीसीएम के लिए गैर-विशिष्ट रहे हैं। जब एक आंख को चुनिंदा रूप से बंद किया जाता है तो दृश्य कॉर्टेक्स में सिनैप्स संशोधन की बीसीएम की भविष्यवाणी की पुष्टि की जाती है। विशेष रूप से,
अतः प्रायोगिक साक्ष्य बीसीएम के लिए तब तक गैर-विशिष्ट रहे हैं जब तक कि रिटेनहाउस एट अल ने एक नेत्र को चुनावित रूप से संवृत करने पर दृष्टि वल्कुट में अंतर्ग्रथनी संशोधन की बीसीएम की भविष्यवाणी की पुष्टि नहीं की थी। विशेष रूप से,


:<math>\log\left(\frac{m_{\rm closed}(t)}{m_{\rm closed}(0)}\right) \sim -\overline{n^2}t,</math>
:<math>\log\left(\frac{m_{\rm closed}(t)}{m_{\rm closed}(0)}\right) \sim -\overline{n^2}t,</math>
कहाँ <math>\overline{n^2}</math> बंद आँख में सहज गतिविधि या शोर में भिन्नता का वर्णन करता है <math>t</math> बंद होने के बाद से समय हो गया है। प्रयोग इस भविष्यवाणी के सामान्य आकार से सहमत हुआ और एककोशिकीय आंख बंद होने (मोनोकुलर अभाव) बनाम दूरबीन आंख बंद होने की गतिशीलता के लिए एक स्पष्टीकरण प्रदान किया गया।<ref>{{cite journal |last=Rittenhouse |first=Cynthia D. |author2=Harel Z. Shouval |author3=Michael A. Paradiso |author4=Mark F. Bear  |s2cid=4302032 |year=1999 |title=मोनोकुलर अभाव दृश्य कॉर्टेक्स में होमोसिनेप्टिक दीर्घकालिक अवसाद को प्रेरित करता है|journal=[[Nature (journal)|Nature]] |volume=397 |issue= 6717|pages=347–50 |doi=10.1038/16922 |pmid=9950426 |bibcode=1999Natur.397..347R }}</ref> प्रयोगात्मक परिणाम निर्णायक नहीं हैं, लेकिन अब तक प्लास्टिसिटी के प्रतिस्पर्धी सिद्धांतों पर बीसीएम का पक्ष लिया गया है।
जहाँ <math>\overline{n^2}</math> संवृत आँख में सहज गतिविधि या रव में भिन्नता का वर्णन करता है और <math>t</math> संवृत होने के बाद का समय है। इस प्रकार से प्रयोग इस भविष्यवाणी के सामान्य आकार से सहमत हुआ और एककोशिकीय नेत्र संवृत होने (एकाक्षिक अभाव) बनाम दूरबीन नेत्र संवृत होने की गतिशीलता के लिए स्पष्टीकरण प्रदान किया गया था।<ref>{{cite journal |last=Rittenhouse |first=Cynthia D. |author2=Harel Z. Shouval |author3=Michael A. Paradiso |author4=Mark F. Bear  |s2cid=4302032 |year=1999 |title=मोनोकुलर अभाव दृश्य कॉर्टेक्स में होमोसिनेप्टिक दीर्घकालिक अवसाद को प्रेरित करता है|journal=[[Nature (journal)|Nature]] |volume=397 |issue= 6717|pages=347–50 |doi=10.1038/16922 |pmid=9950426 |bibcode=1999Natur.397..347R }}</ref> अतः प्रयोगात्मक परिणाम निर्णायक नहीं हैं, परन्तु अब तक सुघट्यता के प्रतिस्पर्धी सिद्धांतों पर बीसीएम का पक्ष लिया गया है।


== अनुप्रयोग ==
== अनुप्रयोग ==
जबकि बीसीएम का एल्गोरिदम बड़े पैमाने पर [[समानांतर वितरित प्रसंस्करण]] के लिए बहुत जटिल है, इसे कुछ सफलता के साथ पार्श्व नेटवर्क में उपयोग में लाया गया है।<ref>{{cite web |url=http://www.cs.tau.ac.il/~nin/Courses/NC05/bcmppr.pdf |title=बीसीएम लर्निंग नियम, कॉम्प मुद्दे|access-date=2007-11-11 |last=Intrator |first=Nathan |date=2006–2007 |work=Neural Computation |publisher=School of Computer Science, Tel-Aviv University }}</ref> इसके अलावा, कुछ मौजूदा कम्प्यूटेशनल नेटवर्क लर्निंग एल्गोरिदम को बीसीएम लर्निंग के अनुरूप बनाया गया है।<ref>{{cite journal|last=Baras |first=Dorit |author2=Ron Meir |s2cid=40872097 |year=2007 |title=सुदृढीकरण सीखना, स्पाइक-समय-निर्भर प्लास्टिसिटी, और बीसीएम नियम|journal=Neural Computation |volume=19 |issue=8 |pages=2245–2279 |id=2561 |url=http://eprints.pascal-network.org/archive/00002561/01/RL-STDP_Final.pdf |access-date=2007-11-11 |doi=10.1162/neco.2007.19.8.2245 |pmid=17571943 |url-status=dead |archive-url=https://web.archive.org/web/20110721081006/http://eprints.pascal-network.org/archive/00002561/01/RL-STDP_Final.pdf |archive-date=2011-07-21 |citeseerx=10.1.1.119.395 }}</ref>
जबकि बीसीएम का एल्गोरिदम बड़े पैमाने पर [[समानांतर वितरित प्रसंस्करण|'''समानांतर वितरित प्रसंस्करण''']] के लिए बहुत जटिल है, इसे कुछ सफलता के साथ पार्श्व नेटवर्क में उपयोग में लाया गया है।<ref>{{cite web |url=http://www.cs.tau.ac.il/~nin/Courses/NC05/bcmppr.pdf |title=बीसीएम लर्निंग नियम, कॉम्प मुद्दे|access-date=2007-11-11 |last=Intrator |first=Nathan |date=2006–2007 |work=Neural Computation |publisher=School of Computer Science, Tel-Aviv University }}</ref> अतः इसके अतिरिक्त, कुछ वर्तमान कम्प्यूटेशनल नेटवर्क लर्निंग एल्गोरिदम को बीसीएम लर्निंग के अनुरूप बनाया गया है।<ref>{{cite journal|last=Baras |first=Dorit |author2=Ron Meir |s2cid=40872097 |year=2007 |title=सुदृढीकरण सीखना, स्पाइक-समय-निर्भर प्लास्टिसिटी, और बीसीएम नियम|journal=Neural Computation |volume=19 |issue=8 |pages=2245–2279 |id=2561 |url=http://eprints.pascal-network.org/archive/00002561/01/RL-STDP_Final.pdf |access-date=2007-11-11 |doi=10.1162/neco.2007.19.8.2245 |pmid=17571943 |url-status=dead |archive-url=https://web.archive.org/web/20110721081006/http://eprints.pascal-network.org/archive/00002561/01/RL-STDP_Final.pdf |archive-date=2011-07-21 |citeseerx=10.1.1.119.395 }}</ref>




Line 84: Line 86:
== बाहरी संबंध ==
== बाहरी संबंध ==
* [http://www.scholarpedia.org/article/BCM_rule Scholarpedia article]
* [http://www.scholarpedia.org/article/BCM_rule Scholarpedia article]
[[Category: जीव पदाथ-विद्य]] [[Category: कम्प्यूटेशनल तंत्रिका विज्ञान]] [[Category: न्यूरोप्लास्टिकिटी]]


[[Category: Machine Translated Page]]
[[Category:CS1 English-language sources (en)]]
[[Category:CS1 maint]]
[[Category:Created On 27/06/2023]]
[[Category:Created On 27/06/2023]]
[[Category:Lua-based templates]]
[[Category:Machine Translated Page]]
[[Category:Pages with script errors]]
[[Category:Templates Vigyan Ready]]
[[Category:Templates that add a tracking category]]
[[Category:Templates that generate short descriptions]]
[[Category:Templates using TemplateData]]
[[Category:कम्प्यूटेशनल तंत्रिका विज्ञान]]
[[Category:जीव पदाथ-विद्य]]
[[Category:न्यूरोप्लास्टिकिटी]]

Latest revision as of 07:55, 15 July 2023

बीसीएम सिद्धांत, बीसीएम अंतर्ग्रथनी संशोधन, या बीसीएम नियम, जिसका नाम एली बीहाइव, लियोन कूपर और पॉल मुनरो के नाम पर रखा गया है, इन्होने 1981 में विकसित दृष्टि वल्कुट में सीखने का भौतिक सिद्धांत है। इस प्रकार से बीसीएम मॉडल दीर्घकालिक प्रबलीकरण (एलटीपी) या दीर्घकालिक अवसाद (एलटीडी) प्रेरण के लिए सर्पण सीमा का प्रस्ताव करता है, और बताता है कि अंतर्ग्रथनी सुघट्यता को समय-औसत अंतर्ग्रथनपश्च गतिविधि के गतिशील अनुकूलन द्वारा स्थिर किया जाता है। बीसीएम मॉडल के अनुसार, जब पूर्व-अंतर्ग्रथनी न्यूरॉन सक्रिय होता है, तो पश्च-अंतर्ग्रथनी न्यूरॉन एलटीपी से गुजरेंगे यदि यह उच्च गतिविधि स्थिति में है (उदाहरण के लिए, उच्च आवृत्ति पर सक्रिय है, और/या उच्च आंतरिक कैल्शियम सांद्रता है), या एलटीडी यदि यह कम गतिविधि वाली स्थिति में है (उदाहरण के लिए, कम आवृत्ति में फायरिंग, कम आंतरिक कैल्शियम सांद्रता)।[1] अतः इस सिद्धांत का उपयोग प्रायः यह समझाने के लिए किया जाता है कि पूर्व-अंतर्ग्रथनी न्यूरॉन (सामान्यतः एलटीपी के लिए उच्च आवृत्ति उत्तेजना, या एचएफएस, या एलटीडी के लिए निम्न-आवृत्ति उत्तेजना, एलएफएस) पर लागू विभिन्न अनुकूलन उत्तेजना प्रोटोकॉल के आधार पर वल्कुटी न्यूरॉन एलटीपी या एलटीडी दोनों से कैसे गुजर सकते हैं।[2]


विकास

इस प्रकार से 1949 में, डोनाल्ड हेब्ब ने मस्तिष्क में स्मृति और कम्प्यूटेशनल अनुकूलन के लिए कार्यकारी तंत्र का प्रस्ताव रखा जिसे अब हेब्बियन सीखना कहा जाता है, या कहावत है कि जो कोशिकाएं एक साथ सक्रिय होती हैं, वे साथ जुड़ जाती हैं।[3] अतः यह धारणा तंत्रिका नेटवर्क के रूप में मस्तिष्क की आधुनिक समझ में मूलभूत है, और यद्यपि सार्वभौमिक रूप से सत्य नहीं है, दशकों के साक्ष्य द्वारा समर्थित ठीक प्रथम अनुमान बना हुआ है।[3][4]

यद्यपि, हेब्ब के नियम में समस्याएँ हैं, अर्थात् इसमें संपर्क के दुर्बल होने की कोई व्यवस्था नहीं है और वे कितने दृढ हो सकते हैं इसकी कोई ऊपरी सीमा नहीं है। दूसरे शब्दों में, मॉडल सैद्धांतिक और कम्प्यूटेशनल दोनों रूप से अस्थिर है। इस प्रकार से बाद के संशोधनों ने धीरे-धीरे हेब्ब के नियम में सुधार किया, इसे सामान्य बनाया और अन्तर्ग्रथन के क्षय की अनुमति दी, जहां न्यूरॉन के बीच कोई गतिविधि या असमकालिक गतिविधि के परिणामस्वरूप संपर्क सामर्थ्य की हानि नहीं होती है। इस प्रकार से नवीन जैविक साक्ष्य ने इस गतिविधि को 1970 के दशक में परम पर पहुंचा दिया, जहां सिद्धांतकारों ने सिद्धांत में विभिन्न अनुमानों को औपचारिक रूप दिया, जैसे कि न्यूरॉन उत्तेजना को निर्धारित करने में क्षमता के अतिरिक्त फायरिंग आवृत्ति का उपयोग, और आदर्श की धारणा और, अधिक महत्वपूर्ण रूप से, रैखिक अंतर्ग्रथनी एकीकरण संकेतों का अर्थात्, किसी कोशिकामें अग्नि लगेगी या नहीं, यह निर्धारित करने के लिए निविष्ट प्रवाहों को जोड़ने में कोई अप्रत्याशित व्यवहार नहीं होता है।

इस प्रकार से इन अनुमानों के परिणामस्वरूप बीसीएम का मूल रूप 1979 में सामने आया था, परन्तु अंतिम चरण स्थिरता सिद्ध करने के लिए गणितीय विश्लेषण और प्रयोज्यता सिद्ध करने के लिए कम्प्यूटेशनल विश्लेषण के रूप में आया, जिसका अंत बिएननस्टॉक, कूपर और मुनरो के 1982 के लेख में हुआ था।

अतः तब से, प्रयोगों ने दृष्टि वल्कुट और हिपोकैम्पस दोनों में बीसीएम व्यवहार के प्रमाण दिखाए हैं, जिनमें से उत्तरार्द्ध स्मृतियों के निर्माण और भंडारण में महत्वपूर्ण भूमिका निभाता है। इन दोनों क्षेत्रों का प्रयोगात्मक रूप से ठीक रूप से अध्ययन किया गया है, परन्तु सिद्धांत और प्रयोग दोनों ने अभी तक मस्तिष्क के अन्य क्षेत्रों में निर्णायक अंतर्ग्रथनी व्यवहार स्थापित नहीं किया है। इस प्रकार से यह प्रस्तावित किया गया है कि सेरिबैलम में, पुर्किंजे कोशिका अन्तर्ग्रथन के समानांतर फाइबर व्युत्क्रम बीसीएम नियम का पालन करता है, जिसका अर्थ है कि समानांतर फाइबर सक्रियण के समय, परकिनजे कोशिका में उच्च कैल्शियम एकाग्रता का परिणाम एलटीडी होता है, जबकि एक एलटीपी में कम सांद्रता का परिणाम होता है।[2] इसके अतिरिक्त, बीसीएम में सूत्रयुग्मक सुनम्यता के लिए जैविक कार्यान्वयन अभी तक स्थापित नहीं किया गया है।[5]


सिद्धांत

मूल बीसीएम

नियम का रूप लेता है जहाँ:

  • वें अन्तर्ग्रथन का अंतर्ग्रथनी भार है,
  • वें अन्तर्ग्रथन की निविष्ट प्रवाह है,
  • भार और निविष्ट प्रवाहों (निवेश का भारित योग) का आंतरिक उत्पाद है,
  • अरैखिक फलन है। इस फलन को कुछ सीमा पर चिह्न परिवर्तित करना होगा, अर्थात, यदि और मात्र यदि है। विवरण और गुणों के लिए नीचे देखें।
  • और सभी अन्तर्ग्रथन के एकसमान क्षय का (प्रायः नगण्य) समय स्थिरांक है।

इस प्रकार से यह मॉडल हेब्बियन सीखने के नियम, का संशोधित रूप है,, और अस्थिरता की हेब्बियन समस्याओं से बचने के लिए फलन के उपयुक्त विकल्प की आवश्यकता होती है।

बिएननस्टॉक एट अल[6] ने पुनर्लेखन को फलन के रूप में पुनः लिखा था, जहाँ का समय औसत है। इस संशोधन और एकसमान क्षय को त्यागने से नियम सदिश रूप ले लेता है:

इस प्रकार से स्थिर सीखने की प्रतिबंधें बीसीएम में जटिलता से प्राप्त की जाती हैं, यह ध्यान में रखते हुए कि के साथ और औसत निर्गम के अनुमान के साथ, यह पर्याप्त है कि

या समकक्ष, देहली , जहाँ और निश्चित धनात्मक स्थिरांक हैं।[6]

इस प्रकार से लागू होने पर, सिद्धांत को प्रायः इस प्रकार से लिया जाता है कि

जहाँ चयनात्मकता का समय स्थिरांक है।

अतः मॉडल में कमियां हैं, क्योंकि इसमें दीर्घकालिक प्रबलीकरण और दीर्घकालिक अवसाद दोनों की आवश्यकता होती है, या अंतर्ग्रथनी सामर्थ्य में वृद्धि और कमी होती है, कुछ ऐसा जो सभी वल्कुटी पद्धति में नहीं देखा गया है। इसके अतिरिक्त, इसके लिए परिवर्तनीय सक्रियण सीमा की आवश्यकता होती है और यह चयनित निश्चित बिंदुओं की स्थिरता और पर दृढ़ता से निर्भर करता है। यद्यपि, मॉडल का सामर्थ्य यह है कि इसमें स्थिरता के स्वतंत्र रूप से प्राप्त नियमों से इन सभी आवश्यकताओं को सम्मिलित किया गया है, जैसे कि सामान्यीकृत तरंग फलन और निर्गम के वर्ग के आनुपातिक समय के साथ क्षय फलन है।[7]


उदाहरण

इस प्रकार से यह उदाहरण बिएनस्टॉक एट अल के अध्याय "गणितीय परिणाम" की विशेष स्थिति में है,[6] जिसमें और माना गया है। अतः इन मानों के साथ और हम निर्धारित करते हैं कि जो पिछले अध्याय में बताई गई स्थिरता की प्रतिबन्धों को पूरा करता है।

दो पूर्वअंतर्ग्रथनी न्यूरॉन मान लें जो निविष्ट और प्रदान करते हैं, इसकी गतिविधि आधे समय और शेष समय के साथ एक दोहराव चक्र है। इस प्रकार से समय औसत एक चक्र के पहले और दूसरे भाग में मान का औसत होगा।

इस प्रकार से मान लीजिए कि भार का प्रारंभिक मान है। समय और की प्रथम छमाही में, भारित योग 0.095 के बराबर है और हम प्रारंभिक औसत के समान मान का उपयोग करते हैं। अतः इसका अर्थ , , है। भार में व्युत्पन्न का 10% जोड़ने पर हमें नवीन भार प्राप्त होते हैं।

अगले आधे समय में, निविष्ट और भार हैं। अतः इसका अर्थ है कि पूर्ण चक्र का , 0.075 , , है। भार में व्युत्पन्न का 10% जोड़ने पर हमें नवीन भार प्राप्त होते हैं।

इस प्रकार से पूर्व चक्र को दोहराते हुए, कई सौ पुनरावृत्तियों के बाद, हम यह प्राप्त करते हैं कि स्थिरता , (प्रथम भाग) और (शेष समय), , , और के साथ पहुँच जाती है।

अतः ध्यान दें कि, जैसा कि भविष्यवाणी की गई थी, अंतिम भार सदिश निविष्ट प्रतिदर्श में से एक के लिए लंबकोणीय बन गया है, जो फलन के दोनों अंतराल शून्य में का अंतिम मान है।

प्रयोग

इस प्रकार से बीसीएम की पहली प्रमुख प्रायोगिक पुष्टि 1992 में हिप्पोकैम्पस में दीर्घकालिक प्रबलीकरण और दीर्घकालिक अवसाद की जांच में हुई थी। सेरेना डुडेक के प्रयोगात्मक कार्य ने बीसीएम सक्रियण फलन के अंतिम रूप के साथ गुणात्मक समझौता दिखाया था।[8] अतः इस प्रयोग को बाद में दृष्टि वल्कुट में दोहराया गया, जिसे बीसीएम को मूल रूप से मॉडल करने के लिए डिज़ाइन किया गया था।[9] इस प्रकार से इस कार्य ने हेब्बियन-प्रकार की शिक्षा (बीसीएम या अन्य) में स्थिरता के लिए परिवर्तनीय देहली फलन की आवश्यकता का एक और परिमाण प्रदान किया था।

अतः प्रायोगिक साक्ष्य बीसीएम के लिए तब तक गैर-विशिष्ट रहे हैं जब तक कि रिटेनहाउस एट अल ने एक नेत्र को चुनावित रूप से संवृत करने पर दृष्टि वल्कुट में अंतर्ग्रथनी संशोधन की बीसीएम की भविष्यवाणी की पुष्टि नहीं की थी। विशेष रूप से,

जहाँ संवृत आँख में सहज गतिविधि या रव में भिन्नता का वर्णन करता है और संवृत होने के बाद का समय है। इस प्रकार से प्रयोग इस भविष्यवाणी के सामान्य आकार से सहमत हुआ और एककोशिकीय नेत्र संवृत होने (एकाक्षिक अभाव) बनाम दूरबीन नेत्र संवृत होने की गतिशीलता के लिए स्पष्टीकरण प्रदान किया गया था।[10] अतः प्रयोगात्मक परिणाम निर्णायक नहीं हैं, परन्तु अब तक सुघट्यता के प्रतिस्पर्धी सिद्धांतों पर बीसीएम का पक्ष लिया गया है।

अनुप्रयोग

जबकि बीसीएम का एल्गोरिदम बड़े पैमाने पर समानांतर वितरित प्रसंस्करण के लिए बहुत जटिल है, इसे कुछ सफलता के साथ पार्श्व नेटवर्क में उपयोग में लाया गया है।[11] अतः इसके अतिरिक्त, कुछ वर्तमान कम्प्यूटेशनल नेटवर्क लर्निंग एल्गोरिदम को बीसीएम लर्निंग के अनुरूप बनाया गया है।[12]


संदर्भ

  1. Izhikevich, Eugene M.; Desai, Niraj S. (2003-07-01). "एसटीडीपी का बीसीएम से संबंध". Neural Computation. 15 (7): 1511–1523. doi:10.1162/089976603321891783. ISSN 0899-7667. PMID 12816564. S2CID 1919612.
  2. 2.0 2.1 Coesmans, Michiel; Weber, John T.; Zeeuw, Chris I. De; Hansel, Christian (2004). "क्लाइंबिंग फाइबर नियंत्रण के तहत सेरिबैलम में द्विदिश समानांतर फाइबर प्लास्टिसिटी". Neuron. 44 (4): 691–700. doi:10.1016/j.neuron.2004.10.031. PMID 15541316. S2CID 9061314.
  3. 3.0 3.1 तंत्रिका विज्ञान के सिद्धांत. Kandel, Eric R. (5th ed.). New York. 2013. ISBN 978-0-07-139011-8. OCLC 795553723.{{cite book}}: CS1 maint: location missing publisher (link) CS1 maint: others (link)
  4. Markram, Henry; Gerstner, Wulfram; Sjöström, Per Jesper (2012). "Spike-Timing-Dependent Plasticity: A Comprehensive Overview". Frontiers in Synaptic Neuroscience (in English). 4: 2. doi:10.3389/fnsyn.2012.00002. ISSN 1663-3563. PMC 3395004. PMID 22807913.
  5. Cooper, L.N. (2000). "Memories and memory: A physicist's approach to the brain" (PDF). International Journal of Modern Physics A. 15 (26): 4069–4082. doi:10.1142/s0217751x0000272x. Retrieved 2007-11-11.
  6. 6.0 6.1 6.2 Bienenstock, Elie L.; Leon Cooper; Paul Munro (January 1982). "Theory for the development of neuron selectivity: orientation specificity and binocular interaction in visual cortex" (PDF). The Journal of Neuroscience. 2 (1): 32–48. doi:10.1523/JNEUROSCI.02-01-00032.1982. PMC 6564292. PMID 7054394. Retrieved 2007-11-11.
  7. Intrator, Nathan (2006–2007). "सिनैप्टिक प्लास्टिसिटी का बीसीएम सिद्धांत". Neural Computation. School of Computer Science, Tel-Aviv University. Retrieved 2007-11-11.
  8. Dudek, Serena M.; Mark Bear (1992). "हिप्पोकैम्पस के क्षेत्र CA1 में होमोसिनेप्टिक दीर्घकालिक अवसाद और एन-मिथाइल-डी-एस्पार्टेट रिसेप्टर नाकाबंदी के प्रभाव" (PDF). Proc. Natl. Acad. Sci. 89 (10): 4363–4367. Bibcode:1992PNAS...89.4363D. doi:10.1073/pnas.89.10.4363. PMC 49082. PMID 1350090. Retrieved 2007-11-11.
  9. Kirkwood, Alfredo; Marc G. Rioult; Mark F. Bear (1996). "चूहे के दृश्य प्रांतस्था में सिनैप्टिक प्लास्टिसिटी का अनुभव-निर्भर संशोधन". Nature. 381 (6582): 526–528. Bibcode:1996Natur.381..526K. doi:10.1038/381526a0. PMID 8632826. S2CID 2705694.
  10. Rittenhouse, Cynthia D.; Harel Z. Shouval; Michael A. Paradiso; Mark F. Bear (1999). "मोनोकुलर अभाव दृश्य कॉर्टेक्स में होमोसिनेप्टिक दीर्घकालिक अवसाद को प्रेरित करता है". Nature. 397 (6717): 347–50. Bibcode:1999Natur.397..347R. doi:10.1038/16922. PMID 9950426. S2CID 4302032.
  11. Intrator, Nathan (2006–2007). "बीसीएम लर्निंग नियम, कॉम्प मुद्दे" (PDF). Neural Computation. School of Computer Science, Tel-Aviv University. Retrieved 2007-11-11.
  12. Baras, Dorit; Ron Meir (2007). "सुदृढीकरण सीखना, स्पाइक-समय-निर्भर प्लास्टिसिटी, और बीसीएम नियम" (PDF). Neural Computation. 19 (8): 2245–2279. CiteSeerX 10.1.1.119.395. doi:10.1162/neco.2007.19.8.2245. PMID 17571943. S2CID 40872097. 2561. Archived from the original (PDF) on 2011-07-21. Retrieved 2007-11-11.


बाहरी संबंध