बीसीएम सिद्धांत: Difference between revisions

From Vigyanwiki
(Created page with "{{short description|Neuroscience model of learning}} बीसीएम सिद्धांत, बीसीएम सिनैप्टिक संशोधन, या ब...")
 
No edit summary
Line 1: Line 1:
{{short description|Neuroscience model of learning}}
{{short description|Neuroscience model of learning}}
बीसीएम सिद्धांत, बीसीएम सिनैप्टिक संशोधन, या बीसीएम नियम, जिसका नाम [[एली बीहाइव]], [[लियोन कूपर]] और पॉल मुनरो के नाम पर रखा गया है, 1981 में विकसित दृश्य कॉर्टेक्स में सीखने का एक भौतिक सिद्धांत है।
बीसीएम सिद्धांत, बीसीएम अंतर्ग्रथनी संशोधन, या बीसीएम नियम, जिसका नाम [[एली बीहाइव]], [[लियोन कूपर]] और पॉल मुनरो के नाम पर रखा गया है, इन्होने 1981 में विकसित दृष्टि वल्कुट में सीखने का भौतिक सिद्धांत है। बीसीएम मॉडल दीर्घकालिक प्रबलीकरण (एलटीपी) या [[दीर्घकालिक अवसाद]] (एलटीडी) प्रेरण के लिए सर्पण सीमा का प्रस्ताव करता है, और बताता है कि अंतर्ग्रथनी सुघट्यता को समय-औसत अंतर्ग्रथनपश्च गतिविधि के गतिशील अनुकूलन द्वारा स्थिर किया जाता है। बीसीएम मॉडल के अनुसार, जब पूर्व-अंतर्ग्रथनी न्यूरॉन सक्रिय होता है, तो पश्च-अंतर्ग्रथनी न्यूरॉन एलटीपी से गुजरेंगे यदि यह उच्च गतिविधि स्थिति में है (उदाहरण के लिए, उच्च आवृत्ति पर सक्रिय है, और/या उच्च आंतरिक कैल्शियम सांद्रता है), या एलटीडी यदि यह कम गतिविधि वाली स्थिति में है (उदाहरण के लिए, कम आवृत्ति में फायरिंग, कम आंतरिक कैल्शियम सांद्रता)।<ref>{{Cite journal|last1=Izhikevich|first1=Eugene M.|last2=Desai|first2=Niraj S.|s2cid=1919612|date=2003-07-01|title=एसटीडीपी का बीसीएम से संबंध|pmid=12816564|journal=Neural Computation|volume=15|issue=7|pages=1511–1523|doi=10.1162/089976603321891783|issn=0899-7667}}</ref> इस सिद्धांत का उपयोग प्रायः यह समझाने के लिए किया जाता है कि पूर्व-अंतर्ग्रथनी न्यूरॉन (सामान्यतः एलटीपी के लिए उच्च आवृत्ति उत्तेजना, या एचएफएस, या एलटीडी के लिए कम-आवृत्ति उत्तेजना, एलएफएस ) पर लागू विभिन्न अनुकूलन उत्तेजना प्रोटोकॉल के आधार पर वल्कुटी न्यूरॉन एलटीपी या एलटीडी दोनों से कैसे गुजर सकते हैं।<ref name=":0">{{Cite journal|last1=Coesmans|first1=Michiel|last2=Weber|first2=John T.|last3=Zeeuw|first3=Chris I. De|last4=Hansel|first4=Christian|s2cid=9061314|title=क्लाइंबिंग फाइबर नियंत्रण के तहत सेरिबैलम में द्विदिश समानांतर फाइबर प्लास्टिसिटी|journal=Neuron|volume=44|issue=4|pages=691–700|doi=10.1016/j.neuron.2004.10.031|pmid=15541316|year=2004|doi-access=free}}</ref>
बीसीएम मॉडल दीर्घकालिक पोटेंशिएशन (एलटीपी) या [[दीर्घकालिक अवसाद]] (लिमिटेड) प्रेरण के लिए एक स्लाइडिंग सीमा का प्रस्ताव करता है, और बताता है कि सिनैप्टिक प्लास्टिसिटी को समय-औसत पोस्टसिनेप्टिक गतिविधि के गतिशील अनुकूलन द्वारा स्थिर किया जाता है। बीसीएम मॉडल के अनुसार, जब प्री-सिनैप्टिक न्यूरॉन सक्रिय होता है, तो पोस्ट-सिनैप्टिक न्यूरॉन्स एलटीपी से गुजरेंगे यदि यह उच्च गतिविधि स्थिति में है (उदाहरण के लिए, उच्च आवृत्ति पर सक्रिय है, और/या उच्च आंतरिक कैल्शियम सांद्रता है) ), या लिमिटेड यदि यह कम गतिविधि वाली स्थिति में है (उदाहरण के लिए, कम आवृत्ति में फायरिंग, कम आंतरिक कैल्शियम सांद्रता)।<ref>{{Cite journal|last1=Izhikevich|first1=Eugene M.|last2=Desai|first2=Niraj S.|s2cid=1919612|date=2003-07-01|title=एसटीडीपी का बीसीएम से संबंध|pmid=12816564|journal=Neural Computation|volume=15|issue=7|pages=1511–1523|doi=10.1162/089976603321891783|issn=0899-7667}}</ref> इस सिद्धांत का उपयोग अक्सर यह समझाने के लिए किया जाता है कि प्री-सिनैप्टिक न्यूरॉन्स (आमतौर पर एलटीपी के लिए उच्च आवृत्ति उत्तेजना, या एचएफएस, या कम आवृत्ति उत्तेजना, एलएफएस) पर लागू विभिन्न कंडीशनिंग उत्तेजना प्रोटोकॉल के आधार पर कॉर्टिकल न्यूरॉन्स एलटीपी या लिमिटेड दोनों से कैसे गुजर सकते हैं। लि.)<ref name=":0">{{Cite journal|last1=Coesmans|first1=Michiel|last2=Weber|first2=John T.|last3=Zeeuw|first3=Chris I. De|last4=Hansel|first4=Christian|s2cid=9061314|title=क्लाइंबिंग फाइबर नियंत्रण के तहत सेरिबैलम में द्विदिश समानांतर फाइबर प्लास्टिसिटी|journal=Neuron|volume=44|issue=4|pages=691–700|doi=10.1016/j.neuron.2004.10.031|pmid=15541316|year=2004|doi-access=free}}</ref>




== विकास ==
== विकास ==
1949 में, [[डोनाल्ड हेब्ब]] ने मस्तिष्क में स्मृति और कम्प्यूटेशनल अनुकूलन के लिए एक कामकाजी तंत्र का प्रस्ताव रखा जिसे अब [[हेब्बियन सीखना]] कहा जाता है, या कहावत है कि जो कोशिकाएं एक साथ सक्रिय होती हैं, वे एक साथ जुड़ जाती हैं।<ref name=":1">{{Cite book|title=तंत्रिका विज्ञान के सिद्धांत|others=Kandel, Eric R.|year = 2013|isbn=978-0-07-139011-8|edition=5th|location=New York|oclc=795553723}}</ref> यह धारणा एक तंत्रिका नेटवर्क के रूप में मस्तिष्क की आधुनिक समझ में मूलभूत है, और हालांकि सार्वभौमिक रूप से सच नहीं है, दशकों के साक्ष्य द्वारा समर्थित एक अच्छा पहला अनुमान बना हुआ है।<ref name=":1" /><ref>{{Cite journal|last1=Markram|first1=Henry|author-link2=Wulfram Gerstner|last2=Gerstner|first2=Wulfram|last3=Sjöström|first3=Per Jesper|date=2012|title=Spike-Timing-Dependent Plasticity: A Comprehensive Overview|journal=Frontiers in Synaptic Neuroscience|language=en|volume=4|page=2|doi=10.3389/fnsyn.2012.00002|pmid=22807913|pmc=3395004|issn=1663-3563|doi-access=free}}</ref>
1949 में, [[डोनाल्ड हेब्ब]] ने मस्तिष्क में स्मृति और कम्प्यूटेशनल अनुकूलन के लिए कार्यकारी तंत्र का प्रस्ताव रखा जिसे अब [[हेब्बियन सीखना]] कहा जाता है, या कहावत है कि जो कोशिकाएं एक साथ सक्रिय होती हैं, वे साथ जुड़ जाती हैं।<ref name=":1">{{Cite book|title=तंत्रिका विज्ञान के सिद्धांत|others=Kandel, Eric R.|year = 2013|isbn=978-0-07-139011-8|edition=5th|location=New York|oclc=795553723}}</ref> यह धारणा तंत्रिका नेटवर्क के रूप में मस्तिष्क की आधुनिक समझ में मूलभूत है, और यद्यपि सार्वभौमिक रूप से सत्य नहीं है, दशकों के साक्ष्य द्वारा समर्थित ठीक प्रथम अनुमान बना हुआ है।<ref name=":1" /><ref>{{Cite journal|last1=Markram|first1=Henry|author-link2=Wulfram Gerstner|last2=Gerstner|first2=Wulfram|last3=Sjöström|first3=Per Jesper|date=2012|title=Spike-Timing-Dependent Plasticity: A Comprehensive Overview|journal=Frontiers in Synaptic Neuroscience|language=en|volume=4|page=2|doi=10.3389/fnsyn.2012.00002|pmid=22807913|pmc=3395004|issn=1663-3563|doi-access=free}}</ref>
हालाँकि, हेब्ब के नियम में समस्याएँ हैं, अर्थात् इसमें कनेक्शन के कमजोर होने की कोई व्यवस्था नहीं है और वे कितने मजबूत हो सकते हैं इसकी कोई ऊपरी सीमा नहीं है। दूसरे शब्दों में, मॉडल सैद्धांतिक और कम्प्यूटेशनल दोनों रूप से अस्थिर है। बाद के संशोधनों ने धीरे-धीरे हेब्ब के नियम में सुधार किया, इसे सामान्य बनाया और सिनैप्स के क्षय की अनुमति दी, जहां न्यूरॉन्स के बीच कोई गतिविधि या असिंक्रनाइज़ गतिविधि के परिणामस्वरूप कनेक्शन ताकत का नुकसान नहीं होता है। नए जैविक साक्ष्य ने इस गतिविधि को 1970 के दशक में चरम पर पहुंचा दिया, जहां सिद्धांतकारों ने सिद्धांत में विभिन्न अनुमानों को औपचारिक रूप दिया, जैसे कि न्यूरॉन उत्तेजना को निर्धारित करने में क्षमता के बजाय फायरिंग आवृत्ति का उपयोग, और आदर्श की धारणा और, अधिक महत्वपूर्ण रूप से, रैखिक सिनैप्टिक एकीकरण संकेतों का. अर्थात्, किसी सेल में आग लगेगी या नहीं, यह निर्धारित करने के लिए इनपुट धाराओं को जोड़ने में कोई अप्रत्याशित व्यवहार नहीं होता है।


इन अनुमानों के परिणामस्वरूप बीसीएम का मूल रूप 1979 में सामने आया, लेकिन अंतिम चरण स्थिरता साबित करने के लिए गणितीय विश्लेषण और प्रयोज्यता साबित करने के लिए कम्प्यूटेशनल विश्लेषण के रूप में आया, जिसका समापन बिएननस्टॉक, कूपर और मुनरो के 1982 के पेपर में हुआ।
यद्यपि, हेब्ब के नियम में समस्याएँ हैं, अर्थात् इसमें संपर्क के दुर्बल होने की कोई व्यवस्था नहीं है और वे कितने दृढ हो सकते हैं इसकी कोई ऊपरी सीमा नहीं है। दूसरे शब्दों में, मॉडल सैद्धांतिक और कम्प्यूटेशनल दोनों रूप से अस्थिर है। बाद के संशोधनों ने धीरे-धीरे हेब्ब के नियम में सुधार किया, इसे सामान्य बनाया और अन्तर्ग्रथन के क्षय की अनुमति दी, जहां न्यूरॉन के बीच कोई गतिविधि या असमकालिक गतिविधि के परिणामस्वरूप संपर्क सामर्थ्य की हानि नहीं होती है। नवीन जैविक साक्ष्य ने इस गतिविधि को 1970 के दशक में परम पर पहुंचा दिया, जहां सिद्धांतकारों ने सिद्धांत में विभिन्न अनुमानों को औपचारिक रूप दिया, जैसे कि न्यूरॉन उत्तेजना को निर्धारित करने में क्षमता के अतिरिक्त फायरिंग आवृत्ति का उपयोग, और आदर्श की धारणा और, अधिक महत्वपूर्ण रूप से, रैखिक अंतर्ग्रथनी एकीकरण संकेतों का अर्थात्, किसी कोशिकामें अग्नि लगेगी या नहीं, यह निर्धारित करने के लिए इनपुट धाराओं को जोड़ने में कोई अप्रत्याशित व्यवहार नहीं होता है।
 
इन अनुमानों के परिणामस्वरूप बीसीएम का मूल रूप 1979 में सामने आया, परन्तु अंतिम चरण स्थिरता सिद्ध करने के लिए गणितीय विश्लेषण और प्रयोज्यता सिद्ध करने के लिए कम्प्यूटेशनल विश्लेषण के रूप में आया, जिसका अंत बिएननस्टॉक, कूपर और मुनरो के 1982 के लेख में हुआ था।
 
तब से, प्रयोगों ने दृष्टि वल्कुट और [[ समुद्री घोड़ा |हिपोकैम्पस]] दोनों में बीसीएम व्यवहार के प्रमाण दिखाए हैं, जिनमें से उत्तरार्द्ध स्मृतियों के निर्माण और भंडारण में महत्वपूर्ण भूमिका निभाता है। इन दोनों क्षेत्रों का प्रयोगात्मक रूप से ठीक रूप से अध्ययन किया गया है, परन्तु सिद्धांत और प्रयोग दोनों ने अभी तक मस्तिष्क के अन्य क्षेत्रों में निर्णायक अंतर्ग्रथनी व्यवहार स्थापित नहीं किया है। यह प्रस्तावित किया गया है कि [[सेरिबैलम]] में, [[पुर्किंजे कोशिका]] अन्तर्ग्रथन के [[समानांतर फाइबर]] व्युत्क्रम बीसीएम नियम का पालन करता है, जिसका अर्थ है कि समानांतर फाइबर सक्रियण के समय, परकिनजे कोशिका में उच्च कैल्शियम एकाग्रता का परिणाम एलटीडी होता है, जबकि एक एलटीपी में कम सांद्रता का परिणाम होता है।<ref name=":0" /> इसके अतिरिक्त, बीसीएम में [[ सूत्रयुग्मक सुनम्यता |सूत्रयुग्मक सुनम्यता]] के लिए जैविक कार्यान्वयन अभी तक स्थापित नहीं किया गया है।<ref>{{cite journal |last=Cooper |first=L.N. |author-link=Leon Cooper |year=2000 |title=Memories and memory: A physicist's approach to the brain |journal=International Journal of Modern Physics A |volume=15 |issue=26 |pages=4069–4082 |url=http://physics.brown.edu/physics/researchpages/Ibns/Lab%20Publications%20(PDF)/memoriesandmemory.pdf |access-date= 2007-11-11 |doi=10.1142/s0217751x0000272x}}</ref>


तब से, प्रयोगों ने दृश्य कॉर्टेक्स और [[ समुद्री घोड़ा ]] दोनों में बीसीएम व्यवहार के प्रमाण दिखाए हैं, जिनमें से उत्तरार्द्ध यादों के निर्माण और भंडारण में महत्वपूर्ण भूमिका निभाता है। इन दोनों क्षेत्रों का प्रयोगात्मक रूप से अच्छी तरह से अध्ययन किया गया है, लेकिन सिद्धांत और प्रयोग दोनों ने अभी तक मस्तिष्क के अन्य क्षेत्रों में निर्णायक सिनैप्टिक व्यवहार स्थापित नहीं किया है। यह प्रस्तावित किया गया है कि [[सेरिबैलम]] में, [[पुर्किंजे कोशिका]] सिनैप्स के [[समानांतर फाइबर]] | समानांतर-फाइबर एक व्युत्क्रम बीसीएम नियम का पालन करता है, जिसका अर्थ है कि समानांतर फाइबर सक्रियण के समय, पर्किनजे सेल में एक उच्च कैल्शियम एकाग्रता का परिणाम लिमिटेड होता है, जबकि ए एलटीपी में कम सांद्रता का परिणाम होता है।<ref name=":0" />इसके अलावा, बीसीएम में [[ सूत्रयुग्मक सुनम्यता ]] के लिए जैविक कार्यान्वयन अभी तक स्थापित नहीं किया गया है।<ref>{{cite journal |last=Cooper |first=L.N. |author-link=Leon Cooper |year=2000 |title=Memories and memory: A physicist's approach to the brain |journal=International Journal of Modern Physics A |volume=15 |issue=26 |pages=4069–4082 |url=http://physics.brown.edu/physics/researchpages/Ibns/Lab%20Publications%20(PDF)/memoriesandmemory.pdf |access-date= 2007-11-11 |doi=10.1142/s0217751x0000272x}}</ref>




== सिद्धांत ==
== सिद्धांत ==
{{Confusing|date=January 2012}}
{{Confusing|date=जनवरी 2012}}
मूल बीसीएम नियम का रूप लेता है
मूल बीसीएम


:<math>\,\frac{d m_j(t)}{d t} = \phi(\textbf{c}(t))d_j(t)-\epsilon m_j(t),</math>
:<math>\,\frac{d m_j(t)}{d t} = \phi(\textbf{c}(t))d_j(t)-\epsilon m_j(t)</math>
कहाँ:
नियम का रूप लेता है जहाँ:


* <math>m_j</math> का सिनैप्टिक भार है <math>j</math>वें सिनैप्स,
* <math>m_j</math> <math>j</math>वें अन्तर्ग्रथन का अंतर्ग्रथनी भार है,
* <math>d_j</math> है <math>j</math>सिनैप्स इनपुट करंट,
* <math>d_j</math> <math>j</math>वें अन्तर्ग्रथन की इनपुट धारा है,
* <math>c(t) = \textbf{w}(t)\textbf{d}(t) = \sum_j w_j(t)d_j(t)</math> भार और इनपुट धाराओं (इनपुट का भारित योग) का आंतरिक उत्पाद है,
* <math>c(t) = \textbf{w}(t)\textbf{d}(t) = \sum_j w_j(t)d_j(t)</math> भार और इनपुट धाराओं (इनपुट का भारित योग) का आंतरिक उत्पाद है,
* <math>\phi(c)</math> एक अरैखिक फलन है. इस फ़ंक्शन को कुछ सीमा पर चिह्न बदलना होगा <math>\theta_M</math>, वह है, <math>\phi(c)<0  
* <math>\phi(c)</math> अरैखिक फलन है. इस फ़ंक्शन को कुछ सीमा पर चिह्न बदलना होगा <math>\theta_M</math>, वह है, <math>\phi(c)<0  
</math> अगर और केवल अगर <math>c < \theta_M</math> . विवरण और संपत्तियों के लिए नीचे देखें।
</math> अगर और केवल अगर <math>c < \theta_M</math> . विवरण और संपत्तियों के लिए नीचे देखें।
* और <math>\epsilon</math> सभी सिनैप्स के एकसमान क्षय का (अक्सर नगण्य) समय स्थिरांक है।
* और <math>\epsilon</math> सभी अन्तर्ग्रथन के एकसमान क्षय का (प्रायः नगण्य) समय स्थिरांक है।


यह मॉडल हेब्बियन सीखने के नियम का एक संशोधित रूप है, <math>\dot{m_j}=c d_j</math>, और फ़ंक्शन के उपयुक्त विकल्प की आवश्यकता है <math>\phi</math> अस्थिरता की हेब्बियन समस्याओं से बचने के लिए।
यह मॉडल हेब्बियन सीखने के नियम का संशोधित रूप है, <math>\dot{m_j}=c d_j</math>, और फ़ंक्शन के उपयुक्त विकल्प की आवश्यकता है <math>\phi</math> अस्थिरता की हेब्बियन समस्याओं से बचने के लिए।


बिएननस्टॉक एट अल। <ref name=":2" />पुनर्लेखन <math>\phi(c)</math> एक समारोह के रूप में <math>\phi(c,\bar{c})</math> कहाँ <math>\bar{c}</math> का समय औसत है <math>c</math>. इस संशोधन और एकसमान क्षय को त्यागने से नियम सदिश रूप ले लेता है:
बिएननस्टॉक एट अल। <ref name=":2" />पुनर्लेखन <math>\phi(c)</math> समारोह के रूप में <math>\phi(c,\bar{c})</math> जहाँ <math>\bar{c}</math> का समय औसत है <math>c</math>. इस संशोधन और एकसमान क्षय को त्यागने से नियम सदिश रूप ले लेता है:
:<math>\dot{\mathbf{m}}(t) = \phi(c(t),\bar{c}(t))\mathbf{d}(t)</math>
:<math>\dot{\mathbf{m}}(t) = \phi(c(t),\bar{c}(t))\mathbf{d}(t)</math>
स्थिर सीखने की शर्तें बीसीएम में कठोरता से प्राप्त की गई हैं <math>c(t)=\textbf{m}(t)\cdot\textbf{d}(t)</math> और औसत आउटपुट के अनुमान के साथ <math>\bar{c}(t) \approx \textbf{m}(t)\bar{\mathbf{d}}</math>, इतना ही काफी है
स्थिर सीखने की शर्तें बीसीएम में कठोरता से प्राप्त की गई हैं <math>c(t)=\textbf{m}(t)\cdot\textbf{d}(t)</math> और औसत आउटपुट के अनुमान के साथ <math>\bar{c}(t) \approx \textbf{m}(t)\bar{\mathbf{d}}</math>, इतना ही काफी है
Line 35: Line 36:
:<math>\,\sgn\phi(c,\bar{c}) = \sgn\left(c-\left(\frac{\bar{c}}{c_0}\right)^p\bar{c}\right) ~~ \textrm{for} ~ c>0, ~ \textrm{and}</math>
:<math>\,\sgn\phi(c,\bar{c}) = \sgn\left(c-\left(\frac{\bar{c}}{c_0}\right)^p\bar{c}\right) ~~ \textrm{for} ~ c>0, ~ \textrm{and}</math>
:<math>\,\phi(0,\bar{c}) = 0 ~~ \textrm{for} ~ \textrm{all} ~ \bar{c},</math>
:<math>\,\phi(0,\bar{c}) = 0 ~~ \textrm{for} ~ \textrm{all} ~ \bar{c},</math>
या समकक्ष, वह दहलीज <math>\theta_M(\bar{c}) = (\bar{c}/c_0)^p\bar{c}</math>, कहाँ <math>p</math> और <math>c_0</math> निश्चित धनात्मक स्थिरांक हैं।<ref name=":2">{{cite journal |last=Bienenstock |first=Elie L. |author-link=Elie Bienenstock |author2=Leon Cooper |author3-link=Paul Munro |author3=Paul Munro |date=January 1982|title=Theory for the development of neuron selectivity: orientation specificity and binocular interaction in visual cortex |journal=The Journal of Neuroscience |volume=2 |issue=1 |pages=32–48 |url=http://www.physics.brown.edu/physics/researchpages/Ibns/Cooper%20Pubs/070_TheoryDevelopment_82.pdf |access-date= 2007-11-11 |pmid=7054394 |doi=10.1523/JNEUROSCI.02-01-00032.1982 |pmc=6564292 |author2-link=Leon Cooper }}</ref>
या समकक्ष, वह दहलीज <math>\theta_M(\bar{c}) = (\bar{c}/c_0)^p\bar{c}</math>, जहाँ <math>p</math> और <math>c_0</math> निश्चित धनात्मक स्थिरांक हैं।<ref name=":2">{{cite journal |last=Bienenstock |first=Elie L. |author-link=Elie Bienenstock |author2=Leon Cooper |author3-link=Paul Munro |author3=Paul Munro |date=January 1982|title=Theory for the development of neuron selectivity: orientation specificity and binocular interaction in visual cortex |journal=The Journal of Neuroscience |volume=2 |issue=1 |pages=32–48 |url=http://www.physics.brown.edu/physics/researchpages/Ibns/Cooper%20Pubs/070_TheoryDevelopment_82.pdf |access-date= 2007-11-11 |pmid=7054394 |doi=10.1523/JNEUROSCI.02-01-00032.1982 |pmc=6564292 |author2-link=Leon Cooper }}</ref>
जब लागू किया जाता है, तो सिद्धांत को अक्सर इस प्रकार लिया जाता है
जब लागू किया जाता है, तो सिद्धांत को प्रायः इस प्रकार लिया जाता है


:<math>\,\phi(c,\bar{c}) = c(c-\theta_M) ~~~ \textrm{and} ~~~ \theta_M = \bar{c}^2 = \frac{1}{\tau}\int_{-\infty}^t c^2(t^\prime)e^{-(t-t^\prime)/\tau}d t^\prime,</math>
:<math>\,\phi(c,\bar{c}) = c(c-\theta_M) ~~~ \textrm{and} ~~~ \theta_M = \bar{c}^2 = \frac{1}{\tau}\int_{-\infty}^t c^2(t^\prime)e^{-(t-t^\prime)/\tau}d t^\prime,</math>
कहाँ <math>\tau</math> चयनात्मकता का एक समय स्थिरांक है।
जहाँ <math>\tau</math> चयनात्मकता का समय स्थिरांक है।


मॉडल में कमियां हैं, क्योंकि इसमें दीर्घकालिक पोटेंशिएशन और दीर्घकालिक अवसाद दोनों की आवश्यकता होती है, या सिनैप्टिक ताकत में वृद्धि और कमी होती है, कुछ ऐसा जो सभी कॉर्टिकल सिस्टम में नहीं देखा गया है। इसके अलावा, इसके लिए एक परिवर्तनीय सक्रियण सीमा की आवश्यकता होती है और यह चयनित निश्चित बिंदुओं की स्थिरता पर दृढ़ता से निर्भर करता है <math>c_0</math> और <math>p</math>. हालाँकि, मॉडल की ताकत यह है कि इसमें स्थिरता के स्वतंत्र रूप से प्राप्त नियमों से इन सभी आवश्यकताओं को शामिल किया गया है, जैसे [[सामान्यीकृत तरंग फ़ंक्शन]] और आउटपुट के वर्ग के आनुपातिक समय के साथ एक क्षय फ़ंक्शन।<ref>{{cite web |url=http://www.cs.tau.ac.il/~nin/Courses/NC05/BCM.ppt |title=सिनैप्टिक प्लास्टिसिटी का बीसीएम सिद्धांत|access-date=2007-11-11 |last=Intrator |first=Nathan |date=2006–2007 |work=Neural Computation |publisher=School of Computer Science, Tel-Aviv University }}</ref>
मॉडल में कमियां हैं, क्योंकि इसमें दीर्घकालिक प्रबलीकरण और दीर्घकालिक अवसाद दोनों की आवश्यकता होती है, या अंतर्ग्रथनी ताकत में वृद्धि और कमी होती है, कुछ ऐसा जो सभी वल्कुटी सिस्टम में नहीं देखा गया है। इसके अतिरिक्त, इसके लिए परिवर्तनीय सक्रियण सीमा की आवश्यकता होती है और यह चयनित निश्चित बिंदुओं की स्थिरता पर दृढ़ता से निर्भर करता है <math>c_0</math> और <math>p</math>. यद्यपि, मॉडल की ताकत यह है कि इसमें स्थिरता के स्वतंत्र रूप से प्राप्त नियमों से इन सभी आवश्यकताओं को शामिल किया गया है, जैसे [[सामान्यीकृत तरंग फ़ंक्शन]] और आउटपुट के वर्ग के आनुपातिक समय के साथ क्षय फ़ंक्शन।<ref>{{cite web |url=http://www.cs.tau.ac.il/~nin/Courses/NC05/BCM.ppt |title=सिनैप्टिक प्लास्टिसिटी का बीसीएम सिद्धांत|access-date=2007-11-11 |last=Intrator |first=Nathan |date=2006–2007 |work=Neural Computation |publisher=School of Computer Science, Tel-Aviv University }}</ref>




== उदाहरण ==
== उदाहरण ==


यह उदाहरण बिएनस्टॉक एट अल के अध्याय गणितीय परिणामों में से एक का एक विशेष मामला है। <ref name=":2" /> मान कर काम करो <math>p=2
यह उदाहरण बिएनस्टॉक एट अल के अध्याय गणितीय परिणामों में से का विशेष मामला है। <ref name=":2" /> मान कर काम करो <math>p=2
</math> और <math>c_0 = 1</math>. इन्हीं मूल्यों के साथ <math>\theta_M=(\bar{c}/c_0)^p\bar{c}=\bar{c}^3</math> और हम निर्णय लेते हैं <math>\phi(c,\bar{c}) = c (c - \theta_M)</math> जो पिछले अध्याय में बताई गई स्थिरता शर्तों को पूरा करता है।
</math> और <math>c_0 = 1</math>. इन्हीं मूल्यों के साथ <math>\theta_M=(\bar{c}/c_0)^p\bar{c}=\bar{c}^3</math> और हम निर्णय लेते हैं <math>\phi(c,\bar{c}) = c (c - \theta_M)</math> जो पिछले अध्याय में बताई गई स्थिरता शर्तों को पूरा करता है।


दो प्रीसिनेप्टिक न्यूरॉन्स मान लें जो इनपुट प्रदान करते हैं <math>d_1</math> और <math>d_2</math>, इसकी गतिविधि आधे समय के साथ एक दोहराव वाला चक्र है <math>\mathbf{d}=(d_1,d_2)=(0.9,0.1)</math> और शेष समय <math>\mathbf{d}=(0.2,0.7
दो पूर्वसिनेप्टिक न्यूरॉन मान लें जो इनपुट प्रदान करते हैं <math>d_1</math> और <math>d_2</math>, इसकी गतिविधि आधे समय के साथ दोहराव वाला चक्र है <math>\mathbf{d}=(d_1,d_2)=(0.9,0.1)</math> और शेष समय <math>\mathbf{d}=(0.2,0.7
)</math> . <math>\bar{c}</math> समय का औसत का औसत होगा <math>c</math> एक चक्र की पहली और दूसरी छमाही में मूल्य।
)</math> . <math>\bar{c}</math> समय का औसत का औसत होगा <math>c</math> चक्र की पहली और दूसरी छमाही में मूल्य।


मान लीजिए वज़न का प्रारंभिक मान <math>\mathbf{m}=(0.1,0.05)</math>. समय के पहले भाग में <math>\mathbf{d}=(0.9,0.1)</math> और <math>\mathbf{m}=(0.1,0.05)</math>, भारित योग <math>c</math> 0.095 के बराबर है और हम प्रारंभिक औसत के समान मान का उपयोग करते हैं <math>\bar{c}</math>. इसका मत <math>\theta_M=0.001</math> , <math>\phi=0.009</math>, <math>\dot{m}=(0.008,0.001)</math>. भार में व्युत्पन्न का 10% जोड़ने पर हमें नए भार प्राप्त होते हैं <math>\mathbf{m}=(0.101,0.051)</math>.
मान लीजिए वज़न का प्रारंभिक मान <math>\mathbf{m}=(0.1,0.05)</math>. समय के पहले भाग में <math>\mathbf{d}=(0.9,0.1)</math> और <math>\mathbf{m}=(0.1,0.05)</math>, भारित योग <math>c</math> 0.095 के बराबर है और हम प्रारंभिक औसत के समान मान का उपयोग करते हैं <math>\bar{c}</math>. इसका मत <math>\theta_M=0.001</math> , <math>\phi=0.009</math>, <math>\dot{m}=(0.008,0.001)</math>. भार में व्युत्पन्न का 10% जोड़ने पर हमें नवीन भार प्राप्त होते हैं <math>\mathbf{m}=(0.101,0.051)</math>.


अगले आधे समय में, इनपुट हैं <math>\mathbf{d}=(0.2,0.7
अगले आधे समय में, इनपुट हैं <math>\mathbf{d}=(0.2,0.7
)</math> और वजन <math>\mathbf{m}=(0.101,0.051)</math>. इसका मत <math>c=0.055
)</math> और वजन <math>\mathbf{m}=(0.101,0.051)</math>. इसका मत <math>c=0.055
</math>, <math>\bar{c}</math> पूर्ण चक्र का मान 0.075 है, <math>\theta_M=0.000
</math>, <math>\bar{c}</math> पूर्ण चक्र का मान 0.075 है, <math>\theta_M=0.000
</math> , <math>\phi=0.003</math>, <math>\dot{m}=(0.001,0.002)</math>. भार में व्युत्पन्न का 10% जोड़ने पर हमें नए भार प्राप्त होते हैं <math>\mathbf{m}=(0.110,0.055)</math>.
</math> , <math>\phi=0.003</math>, <math>\dot{m}=(0.001,0.002)</math>. भार में व्युत्पन्न का 10% जोड़ने पर हमें नवीन भार प्राप्त होते हैं <math>\mathbf{m}=(0.110,0.055)</math>.


पिछले चक्र को दोहराते हुए, कई सौ पुनरावृत्तियों के बाद, हम स्थिरता प्राप्त करते हैं <math>\mathbf{m}=(3.246,-0.927)</math>, <math>c=\sqrt{8}=2.828
पिछले चक्र को दोहराते हुए, कई सौ पुनरावृत्तियों के बाद, हम स्थिरता प्राप्त करते हैं <math>\mathbf{m}=(3.246,-0.927)</math>, <math>c=\sqrt{8}=2.828
</math> (पहला भाग) और <math>c=0.000
</math> (पहला भाग) और <math>c=0.000
</math> (शेष समय), <math>\bar{c}=\sqrt{8}/2=1.414</math>, <math>\theta_M = \sqrt{8} = 2.828
</math> (शेष समय), <math>\bar{c}=\sqrt{8}/2=1.414</math>, <math>\theta_M = \sqrt{8} = 2.828
</math> , <math>\phi=0.000</math> और <math>\dot{m}=(0.000,0.000)</math>.
</math> , <math>\phi=0.000</math> और <math>\dot{m}=(0.000,0.000)</math>.


ध्यान दें कि, जैसा कि अनुमान लगाया गया था, अंतिम भार वेक्टर कैसे होगा <math>m</math> इनपुट पैटर्न में से एक के लिए ऑर्थोगोनल बन गया है, जो कि अंतिम मान है <math>c</math> फ़ंक्शन के दोनों अंतरालों में शून्य <math>\phi</math>.
ध्यान दें कि, जैसा कि अनुमान लगाया गया था, अंतिम भार वेक्टर कैसे होगा <math>m</math> इनपुट पैटर्न में से के लिए ऑर्थोगोनल बन गया है, जो कि अंतिम मान है <math>c</math> फ़ंक्शन के दोनों अंतरालों में शून्य <math>\phi</math>.


== प्रयोग ==
== प्रयोग ==
बीसीएम की पहली प्रमुख प्रायोगिक पुष्टि 1992 में हिप्पोकैम्पस में दीर्घकालिक पोटेंशिएशन और दीर्घकालिक अवसाद की जांच में हुई। [[सेरेना डुडेक]] के प्रयोगात्मक कार्य ने बीसीएम सक्रियण फ़ंक्शन के अंतिम रूप के साथ गुणात्मक समझौता दिखाया।<ref>{{cite journal |last=Dudek |first=Serena M. |author-link=Serena Dudek |author2=Mark Bear |author-link2=Mark F. Bear  |year=1992 |title=हिप्पोकैम्पस के क्षेत्र CA1 में होमोसिनेप्टिक दीर्घकालिक अवसाद और एन-मिथाइल-डी-एस्पार्टेट रिसेप्टर नाकाबंदी के प्रभाव|journal=Proc. Natl. Acad. Sci. |volume=89 |issue= 10|pages=4363–4367 |url=http://www.pnas.org/cgi/reprint/89/10/4363.pdf |access-date= 2007-11-11 |doi=10.1073/pnas.89.10.4363 |pmid=1350090 |pmc=49082 |bibcode=1992PNAS...89.4363D |doi-access=free }}</ref> इस प्रयोग को बाद में विज़ुअल कॉर्टेक्स में दोहराया गया, जिसे बीसीएम को मूल रूप से मॉडल करने के लिए डिज़ाइन किया गया था।<ref>{{cite journal |last=Kirkwood |first=Alfredo |author-link=Alfredo Kirkwood |author2=Marc G. Rioult |author3-link=Mark F. Bear |author3=Mark F. Bear |s2cid=2705694 |year=1996 |title=चूहे के दृश्य प्रांतस्था में सिनैप्टिक प्लास्टिसिटी का अनुभव-निर्भर संशोधन|journal=[[Nature (journal)|Nature]] |volume=381 |issue= 6582|pages=526–528 |doi=10.1038/381526a0 |pmid=8632826 |bibcode=1996Natur.381..526K |author2-link=Marc G. Rioult }}</ref> इस कार्य ने हेब्बियन-प्रकार की शिक्षा (बीसीएम या अन्य) में स्थिरता के लिए एक परिवर्तनीय थ्रेशोल्ड फ़ंक्शन की आवश्यकता का और सबूत प्रदान किया।
बीसीएम की पहली प्रमुख प्रायोगिक पुष्टि 1992 में हिप्पोकैम्पस में दीर्घकालिक प्रबलीकरण और दीर्घकालिक अवसाद की जांच में हुई। [[सेरेना डुडेक]] के प्रयोगात्मक कार्य ने बीसीएम सक्रियण फ़ंक्शन के अंतिम रूप के साथ गुणात्मक समझौता दिखाया।<ref>{{cite journal |last=Dudek |first=Serena M. |author-link=Serena Dudek |author2=Mark Bear |author-link2=Mark F. Bear  |year=1992 |title=हिप्पोकैम्पस के क्षेत्र CA1 में होमोसिनेप्टिक दीर्घकालिक अवसाद और एन-मिथाइल-डी-एस्पार्टेट रिसेप्टर नाकाबंदी के प्रभाव|journal=Proc. Natl. Acad. Sci. |volume=89 |issue= 10|pages=4363–4367 |url=http://www.pnas.org/cgi/reprint/89/10/4363.pdf |access-date= 2007-11-11 |doi=10.1073/pnas.89.10.4363 |pmid=1350090 |pmc=49082 |bibcode=1992PNAS...89.4363D |doi-access=free }}</ref> इस प्रयोग को बाद में विज़ुअल वल्कुट में दोहराया गया, जिसे बीसीएम को मूल रूप से मॉडल करने के लिए डिज़ाइन किया गया था।<ref>{{cite journal |last=Kirkwood |first=Alfredo |author-link=Alfredo Kirkwood |author2=Marc G. Rioult |author3-link=Mark F. Bear |author3=Mark F. Bear |s2cid=2705694 |year=1996 |title=चूहे के दृश्य प्रांतस्था में सिनैप्टिक प्लास्टिसिटी का अनुभव-निर्भर संशोधन|journal=[[Nature (journal)|Nature]] |volume=381 |issue= 6582|pages=526–528 |doi=10.1038/381526a0 |pmid=8632826 |bibcode=1996Natur.381..526K |author2-link=Marc G. Rioult }}</ref> इस कार्य ने हेब्बियन-प्रकार की शिक्षा (बीसीएम या अन्य) में स्थिरता के लिए परिवर्तनीय थ्रेशोल्ड फ़ंक्शन की आवश्यकता का और सबूत प्रदान किया।


रिटेनहाउस एट अल तक प्रायोगिक साक्ष्य बीसीएम के लिए गैर-विशिष्ट रहे हैं। जब एक आंख को चुनिंदा रूप से बंद किया जाता है तो दृश्य कॉर्टेक्स में सिनैप्स संशोधन की बीसीएम की भविष्यवाणी की पुष्टि की जाती है। विशेष रूप से,
रिटेनहाउस एट अल तक प्रायोगिक साक्ष्य बीसीएम के लिए गैर-विशिष्ट रहे हैं। जब आंख को चुनिंदा रूप से बंद किया जाता है तो दृष्टि वल्कुट में अन्तर्ग्रथन संशोधन की बीसीएम की भविष्यवाणी की पुष्टि की जाती है। विशेष रूप से,


:<math>\log\left(\frac{m_{\rm closed}(t)}{m_{\rm closed}(0)}\right) \sim -\overline{n^2}t,</math>
:<math>\log\left(\frac{m_{\rm closed}(t)}{m_{\rm closed}(0)}\right) \sim -\overline{n^2}t,</math>
कहाँ <math>\overline{n^2}</math> बंद आँख में सहज गतिविधि या शोर में भिन्नता का वर्णन करता है <math>t</math> बंद होने के बाद से समय हो गया है। प्रयोग इस भविष्यवाणी के सामान्य आकार से सहमत हुआ और एककोशिकीय आंख बंद होने (मोनोकुलर अभाव) बनाम दूरबीन आंख बंद होने की गतिशीलता के लिए एक स्पष्टीकरण प्रदान किया गया।<ref>{{cite journal |last=Rittenhouse |first=Cynthia D. |author2=Harel Z. Shouval |author3=Michael A. Paradiso |author4=Mark F. Bear  |s2cid=4302032 |year=1999 |title=मोनोकुलर अभाव दृश्य कॉर्टेक्स में होमोसिनेप्टिक दीर्घकालिक अवसाद को प्रेरित करता है|journal=[[Nature (journal)|Nature]] |volume=397 |issue= 6717|pages=347–50 |doi=10.1038/16922 |pmid=9950426 |bibcode=1999Natur.397..347R }}</ref> प्रयोगात्मक परिणाम निर्णायक नहीं हैं, लेकिन अब तक प्लास्टिसिटी के प्रतिस्पर्धी सिद्धांतों पर बीसीएम का पक्ष लिया गया है।
जहाँ <math>\overline{n^2}</math> बंद आँख में सहज गतिविधि या शोर में भिन्नता का वर्णन करता है <math>t</math> बंद होने के बाद से समय हो गया है। प्रयोग इस भविष्यवाणी के सामान्य आकार से सहमत हुआ और एककोशिकीय आंख बंद होने (मोनोकुलर अभाव) बनाम दूरबीन आंख बंद होने की गतिशीलता के लिए स्पष्टीकरण प्रदान किया गया।<ref>{{cite journal |last=Rittenhouse |first=Cynthia D. |author2=Harel Z. Shouval |author3=Michael A. Paradiso |author4=Mark F. Bear  |s2cid=4302032 |year=1999 |title=मोनोकुलर अभाव दृश्य कॉर्टेक्स में होमोसिनेप्टिक दीर्घकालिक अवसाद को प्रेरित करता है|journal=[[Nature (journal)|Nature]] |volume=397 |issue= 6717|pages=347–50 |doi=10.1038/16922 |pmid=9950426 |bibcode=1999Natur.397..347R }}</ref> प्रयोगात्मक परिणाम निर्णायक नहीं हैं, परन्तु अब तक सुघट्यता के प्रतिस्पर्धी सिद्धांतों पर बीसीएम का पक्ष लिया गया है।


== अनुप्रयोग ==
== अनुप्रयोग ==
जबकि बीसीएम का एल्गोरिदम बड़े पैमाने पर [[समानांतर वितरित प्रसंस्करण]] के लिए बहुत जटिल है, इसे कुछ सफलता के साथ पार्श्व नेटवर्क में उपयोग में लाया गया है।<ref>{{cite web |url=http://www.cs.tau.ac.il/~nin/Courses/NC05/bcmppr.pdf |title=बीसीएम लर्निंग नियम, कॉम्प मुद्दे|access-date=2007-11-11 |last=Intrator |first=Nathan |date=2006–2007 |work=Neural Computation |publisher=School of Computer Science, Tel-Aviv University }}</ref> इसके अलावा, कुछ मौजूदा कम्प्यूटेशनल नेटवर्क लर्निंग एल्गोरिदम को बीसीएम लर्निंग के अनुरूप बनाया गया है।<ref>{{cite journal|last=Baras |first=Dorit |author2=Ron Meir |s2cid=40872097 |year=2007 |title=सुदृढीकरण सीखना, स्पाइक-समय-निर्भर प्लास्टिसिटी, और बीसीएम नियम|journal=Neural Computation |volume=19 |issue=8 |pages=2245–2279 |id=2561 |url=http://eprints.pascal-network.org/archive/00002561/01/RL-STDP_Final.pdf |access-date=2007-11-11 |doi=10.1162/neco.2007.19.8.2245 |pmid=17571943 |url-status=dead |archive-url=https://web.archive.org/web/20110721081006/http://eprints.pascal-network.org/archive/00002561/01/RL-STDP_Final.pdf |archive-date=2011-07-21 |citeseerx=10.1.1.119.395 }}</ref>
जबकि बीसीएम का एल्गोरिदम बड़े पैमाने पर [[समानांतर वितरित प्रसंस्करण]] के लिए बहुत जटिल है, इसे कुछ सफलता के साथ पार्श्व नेटवर्क में उपयोग में लाया गया है।<ref>{{cite web |url=http://www.cs.tau.ac.il/~nin/Courses/NC05/bcmppr.pdf |title=बीसीएम लर्निंग नियम, कॉम्प मुद्दे|access-date=2007-11-11 |last=Intrator |first=Nathan |date=2006–2007 |work=Neural Computation |publisher=School of Computer Science, Tel-Aviv University }}</ref> इसके अतिरिक्त, कुछ मौजूदा कम्प्यूटेशनल नेटवर्क लर्निंग एल्गोरिदम को बीसीएम लर्निंग के अनुरूप बनाया गया है।<ref>{{cite journal|last=Baras |first=Dorit |author2=Ron Meir |s2cid=40872097 |year=2007 |title=सुदृढीकरण सीखना, स्पाइक-समय-निर्भर प्लास्टिसिटी, और बीसीएम नियम|journal=Neural Computation |volume=19 |issue=8 |pages=2245–2279 |id=2561 |url=http://eprints.pascal-network.org/archive/00002561/01/RL-STDP_Final.pdf |access-date=2007-11-11 |doi=10.1162/neco.2007.19.8.2245 |pmid=17571943 |url-status=dead |archive-url=https://web.archive.org/web/20110721081006/http://eprints.pascal-network.org/archive/00002561/01/RL-STDP_Final.pdf |archive-date=2011-07-21 |citeseerx=10.1.1.119.395 }}</ref>





Revision as of 20:23, 3 July 2023

बीसीएम सिद्धांत, बीसीएम अंतर्ग्रथनी संशोधन, या बीसीएम नियम, जिसका नाम एली बीहाइव, लियोन कूपर और पॉल मुनरो के नाम पर रखा गया है, इन्होने 1981 में विकसित दृष्टि वल्कुट में सीखने का भौतिक सिद्धांत है। बीसीएम मॉडल दीर्घकालिक प्रबलीकरण (एलटीपी) या दीर्घकालिक अवसाद (एलटीडी) प्रेरण के लिए सर्पण सीमा का प्रस्ताव करता है, और बताता है कि अंतर्ग्रथनी सुघट्यता को समय-औसत अंतर्ग्रथनपश्च गतिविधि के गतिशील अनुकूलन द्वारा स्थिर किया जाता है। बीसीएम मॉडल के अनुसार, जब पूर्व-अंतर्ग्रथनी न्यूरॉन सक्रिय होता है, तो पश्च-अंतर्ग्रथनी न्यूरॉन एलटीपी से गुजरेंगे यदि यह उच्च गतिविधि स्थिति में है (उदाहरण के लिए, उच्च आवृत्ति पर सक्रिय है, और/या उच्च आंतरिक कैल्शियम सांद्रता है), या एलटीडी यदि यह कम गतिविधि वाली स्थिति में है (उदाहरण के लिए, कम आवृत्ति में फायरिंग, कम आंतरिक कैल्शियम सांद्रता)।[1] इस सिद्धांत का उपयोग प्रायः यह समझाने के लिए किया जाता है कि पूर्व-अंतर्ग्रथनी न्यूरॉन (सामान्यतः एलटीपी के लिए उच्च आवृत्ति उत्तेजना, या एचएफएस, या एलटीडी के लिए कम-आवृत्ति उत्तेजना, एलएफएस ) पर लागू विभिन्न अनुकूलन उत्तेजना प्रोटोकॉल के आधार पर वल्कुटी न्यूरॉन एलटीपी या एलटीडी दोनों से कैसे गुजर सकते हैं।[2]


विकास

1949 में, डोनाल्ड हेब्ब ने मस्तिष्क में स्मृति और कम्प्यूटेशनल अनुकूलन के लिए कार्यकारी तंत्र का प्रस्ताव रखा जिसे अब हेब्बियन सीखना कहा जाता है, या कहावत है कि जो कोशिकाएं एक साथ सक्रिय होती हैं, वे साथ जुड़ जाती हैं।[3] यह धारणा तंत्रिका नेटवर्क के रूप में मस्तिष्क की आधुनिक समझ में मूलभूत है, और यद्यपि सार्वभौमिक रूप से सत्य नहीं है, दशकों के साक्ष्य द्वारा समर्थित ठीक प्रथम अनुमान बना हुआ है।[3][4]

यद्यपि, हेब्ब के नियम में समस्याएँ हैं, अर्थात् इसमें संपर्क के दुर्बल होने की कोई व्यवस्था नहीं है और वे कितने दृढ हो सकते हैं इसकी कोई ऊपरी सीमा नहीं है। दूसरे शब्दों में, मॉडल सैद्धांतिक और कम्प्यूटेशनल दोनों रूप से अस्थिर है। बाद के संशोधनों ने धीरे-धीरे हेब्ब के नियम में सुधार किया, इसे सामान्य बनाया और अन्तर्ग्रथन के क्षय की अनुमति दी, जहां न्यूरॉन के बीच कोई गतिविधि या असमकालिक गतिविधि के परिणामस्वरूप संपर्क सामर्थ्य की हानि नहीं होती है। नवीन जैविक साक्ष्य ने इस गतिविधि को 1970 के दशक में परम पर पहुंचा दिया, जहां सिद्धांतकारों ने सिद्धांत में विभिन्न अनुमानों को औपचारिक रूप दिया, जैसे कि न्यूरॉन उत्तेजना को निर्धारित करने में क्षमता के अतिरिक्त फायरिंग आवृत्ति का उपयोग, और आदर्श की धारणा और, अधिक महत्वपूर्ण रूप से, रैखिक अंतर्ग्रथनी एकीकरण संकेतों का अर्थात्, किसी कोशिकामें अग्नि लगेगी या नहीं, यह निर्धारित करने के लिए इनपुट धाराओं को जोड़ने में कोई अप्रत्याशित व्यवहार नहीं होता है।

इन अनुमानों के परिणामस्वरूप बीसीएम का मूल रूप 1979 में सामने आया, परन्तु अंतिम चरण स्थिरता सिद्ध करने के लिए गणितीय विश्लेषण और प्रयोज्यता सिद्ध करने के लिए कम्प्यूटेशनल विश्लेषण के रूप में आया, जिसका अंत बिएननस्टॉक, कूपर और मुनरो के 1982 के लेख में हुआ था।

तब से, प्रयोगों ने दृष्टि वल्कुट और हिपोकैम्पस दोनों में बीसीएम व्यवहार के प्रमाण दिखाए हैं, जिनमें से उत्तरार्द्ध स्मृतियों के निर्माण और भंडारण में महत्वपूर्ण भूमिका निभाता है। इन दोनों क्षेत्रों का प्रयोगात्मक रूप से ठीक रूप से अध्ययन किया गया है, परन्तु सिद्धांत और प्रयोग दोनों ने अभी तक मस्तिष्क के अन्य क्षेत्रों में निर्णायक अंतर्ग्रथनी व्यवहार स्थापित नहीं किया है। यह प्रस्तावित किया गया है कि सेरिबैलम में, पुर्किंजे कोशिका अन्तर्ग्रथन के समानांतर फाइबर व्युत्क्रम बीसीएम नियम का पालन करता है, जिसका अर्थ है कि समानांतर फाइबर सक्रियण के समय, परकिनजे कोशिका में उच्च कैल्शियम एकाग्रता का परिणाम एलटीडी होता है, जबकि एक एलटीपी में कम सांद्रता का परिणाम होता है।[2] इसके अतिरिक्त, बीसीएम में सूत्रयुग्मक सुनम्यता के लिए जैविक कार्यान्वयन अभी तक स्थापित नहीं किया गया है।[5]


सिद्धांत

मूल बीसीएम

नियम का रूप लेता है जहाँ:

  • वें अन्तर्ग्रथन का अंतर्ग्रथनी भार है,
  • वें अन्तर्ग्रथन की इनपुट धारा है,
  • भार और इनपुट धाराओं (इनपुट का भारित योग) का आंतरिक उत्पाद है,
  • अरैखिक फलन है. इस फ़ंक्शन को कुछ सीमा पर चिह्न बदलना होगा , वह है, अगर और केवल अगर . विवरण और संपत्तियों के लिए नीचे देखें।
  • और सभी अन्तर्ग्रथन के एकसमान क्षय का (प्रायः नगण्य) समय स्थिरांक है।

यह मॉडल हेब्बियन सीखने के नियम का संशोधित रूप है, , और फ़ंक्शन के उपयुक्त विकल्प की आवश्यकता है अस्थिरता की हेब्बियन समस्याओं से बचने के लिए।

बिएननस्टॉक एट अल। [6]पुनर्लेखन समारोह के रूप में जहाँ का समय औसत है . इस संशोधन और एकसमान क्षय को त्यागने से नियम सदिश रूप ले लेता है:

स्थिर सीखने की शर्तें बीसीएम में कठोरता से प्राप्त की गई हैं और औसत आउटपुट के अनुमान के साथ , इतना ही काफी है

या समकक्ष, वह दहलीज , जहाँ और निश्चित धनात्मक स्थिरांक हैं।[6] जब लागू किया जाता है, तो सिद्धांत को प्रायः इस प्रकार लिया जाता है

जहाँ चयनात्मकता का समय स्थिरांक है।

मॉडल में कमियां हैं, क्योंकि इसमें दीर्घकालिक प्रबलीकरण और दीर्घकालिक अवसाद दोनों की आवश्यकता होती है, या अंतर्ग्रथनी ताकत में वृद्धि और कमी होती है, कुछ ऐसा जो सभी वल्कुटी सिस्टम में नहीं देखा गया है। इसके अतिरिक्त, इसके लिए परिवर्तनीय सक्रियण सीमा की आवश्यकता होती है और यह चयनित निश्चित बिंदुओं की स्थिरता पर दृढ़ता से निर्भर करता है और . यद्यपि, मॉडल की ताकत यह है कि इसमें स्थिरता के स्वतंत्र रूप से प्राप्त नियमों से इन सभी आवश्यकताओं को शामिल किया गया है, जैसे सामान्यीकृत तरंग फ़ंक्शन और आउटपुट के वर्ग के आनुपातिक समय के साथ क्षय फ़ंक्शन।[7]


उदाहरण

यह उदाहरण बिएनस्टॉक एट अल के अध्याय गणितीय परिणामों में से का विशेष मामला है। [6] मान कर काम करो और . इन्हीं मूल्यों के साथ और हम निर्णय लेते हैं जो पिछले अध्याय में बताई गई स्थिरता शर्तों को पूरा करता है।

दो पूर्वसिनेप्टिक न्यूरॉन मान लें जो इनपुट प्रदान करते हैं और , इसकी गतिविधि आधे समय के साथ दोहराव वाला चक्र है और शेष समय . समय का औसत का औसत होगा चक्र की पहली और दूसरी छमाही में मूल्य।

मान लीजिए वज़न का प्रारंभिक मान . समय के पहले भाग में और , भारित योग 0.095 के बराबर है और हम प्रारंभिक औसत के समान मान का उपयोग करते हैं . इसका मत , , . भार में व्युत्पन्न का 10% जोड़ने पर हमें नवीन भार प्राप्त होते हैं .

अगले आधे समय में, इनपुट हैं और वजन . इसका मत , पूर्ण चक्र का मान 0.075 है, , , . भार में व्युत्पन्न का 10% जोड़ने पर हमें नवीन भार प्राप्त होते हैं .

पिछले चक्र को दोहराते हुए, कई सौ पुनरावृत्तियों के बाद, हम स्थिरता प्राप्त करते हैं , (पहला भाग) और (शेष समय), , , और .

ध्यान दें कि, जैसा कि अनुमान लगाया गया था, अंतिम भार वेक्टर कैसे होगा इनपुट पैटर्न में से के लिए ऑर्थोगोनल बन गया है, जो कि अंतिम मान है फ़ंक्शन के दोनों अंतरालों में शून्य .

प्रयोग

बीसीएम की पहली प्रमुख प्रायोगिक पुष्टि 1992 में हिप्पोकैम्पस में दीर्घकालिक प्रबलीकरण और दीर्घकालिक अवसाद की जांच में हुई। सेरेना डुडेक के प्रयोगात्मक कार्य ने बीसीएम सक्रियण फ़ंक्शन के अंतिम रूप के साथ गुणात्मक समझौता दिखाया।[8] इस प्रयोग को बाद में विज़ुअल वल्कुट में दोहराया गया, जिसे बीसीएम को मूल रूप से मॉडल करने के लिए डिज़ाइन किया गया था।[9] इस कार्य ने हेब्बियन-प्रकार की शिक्षा (बीसीएम या अन्य) में स्थिरता के लिए परिवर्तनीय थ्रेशोल्ड फ़ंक्शन की आवश्यकता का और सबूत प्रदान किया।

रिटेनहाउस एट अल तक प्रायोगिक साक्ष्य बीसीएम के लिए गैर-विशिष्ट रहे हैं। जब आंख को चुनिंदा रूप से बंद किया जाता है तो दृष्टि वल्कुट में अन्तर्ग्रथन संशोधन की बीसीएम की भविष्यवाणी की पुष्टि की जाती है। विशेष रूप से,

जहाँ बंद आँख में सहज गतिविधि या शोर में भिन्नता का वर्णन करता है बंद होने के बाद से समय हो गया है। प्रयोग इस भविष्यवाणी के सामान्य आकार से सहमत हुआ और एककोशिकीय आंख बंद होने (मोनोकुलर अभाव) बनाम दूरबीन आंख बंद होने की गतिशीलता के लिए स्पष्टीकरण प्रदान किया गया।[10] प्रयोगात्मक परिणाम निर्णायक नहीं हैं, परन्तु अब तक सुघट्यता के प्रतिस्पर्धी सिद्धांतों पर बीसीएम का पक्ष लिया गया है।

अनुप्रयोग

जबकि बीसीएम का एल्गोरिदम बड़े पैमाने पर समानांतर वितरित प्रसंस्करण के लिए बहुत जटिल है, इसे कुछ सफलता के साथ पार्श्व नेटवर्क में उपयोग में लाया गया है।[11] इसके अतिरिक्त, कुछ मौजूदा कम्प्यूटेशनल नेटवर्क लर्निंग एल्गोरिदम को बीसीएम लर्निंग के अनुरूप बनाया गया है।[12]


संदर्भ

  1. Izhikevich, Eugene M.; Desai, Niraj S. (2003-07-01). "एसटीडीपी का बीसीएम से संबंध". Neural Computation. 15 (7): 1511–1523. doi:10.1162/089976603321891783. ISSN 0899-7667. PMID 12816564. S2CID 1919612.
  2. 2.0 2.1 Coesmans, Michiel; Weber, John T.; Zeeuw, Chris I. De; Hansel, Christian (2004). "क्लाइंबिंग फाइबर नियंत्रण के तहत सेरिबैलम में द्विदिश समानांतर फाइबर प्लास्टिसिटी". Neuron. 44 (4): 691–700. doi:10.1016/j.neuron.2004.10.031. PMID 15541316. S2CID 9061314.
  3. 3.0 3.1 तंत्रिका विज्ञान के सिद्धांत. Kandel, Eric R. (5th ed.). New York. 2013. ISBN 978-0-07-139011-8. OCLC 795553723.{{cite book}}: CS1 maint: location missing publisher (link) CS1 maint: others (link)
  4. Markram, Henry; Gerstner, Wulfram; Sjöström, Per Jesper (2012). "Spike-Timing-Dependent Plasticity: A Comprehensive Overview". Frontiers in Synaptic Neuroscience (in English). 4: 2. doi:10.3389/fnsyn.2012.00002. ISSN 1663-3563. PMC 3395004. PMID 22807913.
  5. Cooper, L.N. (2000). "Memories and memory: A physicist's approach to the brain" (PDF). International Journal of Modern Physics A. 15 (26): 4069–4082. doi:10.1142/s0217751x0000272x. Retrieved 2007-11-11.
  6. 6.0 6.1 6.2 Bienenstock, Elie L.; Leon Cooper; Paul Munro (January 1982). "Theory for the development of neuron selectivity: orientation specificity and binocular interaction in visual cortex" (PDF). The Journal of Neuroscience. 2 (1): 32–48. doi:10.1523/JNEUROSCI.02-01-00032.1982. PMC 6564292. PMID 7054394. Retrieved 2007-11-11.
  7. Intrator, Nathan (2006–2007). "सिनैप्टिक प्लास्टिसिटी का बीसीएम सिद्धांत". Neural Computation. School of Computer Science, Tel-Aviv University. Retrieved 2007-11-11.
  8. Dudek, Serena M.; Mark Bear (1992). "हिप्पोकैम्पस के क्षेत्र CA1 में होमोसिनेप्टिक दीर्घकालिक अवसाद और एन-मिथाइल-डी-एस्पार्टेट रिसेप्टर नाकाबंदी के प्रभाव" (PDF). Proc. Natl. Acad. Sci. 89 (10): 4363–4367. Bibcode:1992PNAS...89.4363D. doi:10.1073/pnas.89.10.4363. PMC 49082. PMID 1350090. Retrieved 2007-11-11.
  9. Kirkwood, Alfredo; Marc G. Rioult; Mark F. Bear (1996). "चूहे के दृश्य प्रांतस्था में सिनैप्टिक प्लास्टिसिटी का अनुभव-निर्भर संशोधन". Nature. 381 (6582): 526–528. Bibcode:1996Natur.381..526K. doi:10.1038/381526a0. PMID 8632826. S2CID 2705694.
  10. Rittenhouse, Cynthia D.; Harel Z. Shouval; Michael A. Paradiso; Mark F. Bear (1999). "मोनोकुलर अभाव दृश्य कॉर्टेक्स में होमोसिनेप्टिक दीर्घकालिक अवसाद को प्रेरित करता है". Nature. 397 (6717): 347–50. Bibcode:1999Natur.397..347R. doi:10.1038/16922. PMID 9950426. S2CID 4302032.
  11. Intrator, Nathan (2006–2007). "बीसीएम लर्निंग नियम, कॉम्प मुद्दे" (PDF). Neural Computation. School of Computer Science, Tel-Aviv University. Retrieved 2007-11-11.
  12. Baras, Dorit; Ron Meir (2007). "सुदृढीकरण सीखना, स्पाइक-समय-निर्भर प्लास्टिसिटी, और बीसीएम नियम" (PDF). Neural Computation. 19 (8): 2245–2279. CiteSeerX 10.1.1.119.395. doi:10.1162/neco.2007.19.8.2245. PMID 17571943. S2CID 40872097. 2561. Archived from the original (PDF) on 2011-07-21. Retrieved 2007-11-11.


बाहरी संबंध