बीसीएम सिद्धांत: Difference between revisions
(Created page with "{{short description|Neuroscience model of learning}} बीसीएम सिद्धांत, बीसीएम सिनैप्टिक संशोधन, या ब...") |
No edit summary |
||
Line 1: | Line 1: | ||
{{short description|Neuroscience model of learning}} | {{short description|Neuroscience model of learning}} | ||
बीसीएम सिद्धांत, बीसीएम | बीसीएम सिद्धांत, बीसीएम अंतर्ग्रथनी संशोधन, या बीसीएम नियम, जिसका नाम [[एली बीहाइव]], [[लियोन कूपर]] और पॉल मुनरो के नाम पर रखा गया है, इन्होने 1981 में विकसित दृष्टि वल्कुट में सीखने का भौतिक सिद्धांत है। बीसीएम मॉडल दीर्घकालिक प्रबलीकरण (एलटीपी) या [[दीर्घकालिक अवसाद]] (एलटीडी) प्रेरण के लिए सर्पण सीमा का प्रस्ताव करता है, और बताता है कि अंतर्ग्रथनी सुघट्यता को समय-औसत अंतर्ग्रथनपश्च गतिविधि के गतिशील अनुकूलन द्वारा स्थिर किया जाता है। बीसीएम मॉडल के अनुसार, जब पूर्व-अंतर्ग्रथनी न्यूरॉन सक्रिय होता है, तो पश्च-अंतर्ग्रथनी न्यूरॉन एलटीपी से गुजरेंगे यदि यह उच्च गतिविधि स्थिति में है (उदाहरण के लिए, उच्च आवृत्ति पर सक्रिय है, और/या उच्च आंतरिक कैल्शियम सांद्रता है), या एलटीडी यदि यह कम गतिविधि वाली स्थिति में है (उदाहरण के लिए, कम आवृत्ति में फायरिंग, कम आंतरिक कैल्शियम सांद्रता)।<ref>{{Cite journal|last1=Izhikevich|first1=Eugene M.|last2=Desai|first2=Niraj S.|s2cid=1919612|date=2003-07-01|title=एसटीडीपी का बीसीएम से संबंध|pmid=12816564|journal=Neural Computation|volume=15|issue=7|pages=1511–1523|doi=10.1162/089976603321891783|issn=0899-7667}}</ref> इस सिद्धांत का उपयोग प्रायः यह समझाने के लिए किया जाता है कि पूर्व-अंतर्ग्रथनी न्यूरॉन (सामान्यतः एलटीपी के लिए उच्च आवृत्ति उत्तेजना, या एचएफएस, या एलटीडी के लिए कम-आवृत्ति उत्तेजना, एलएफएस ) पर लागू विभिन्न अनुकूलन उत्तेजना प्रोटोकॉल के आधार पर वल्कुटी न्यूरॉन एलटीपी या एलटीडी दोनों से कैसे गुजर सकते हैं।<ref name=":0">{{Cite journal|last1=Coesmans|first1=Michiel|last2=Weber|first2=John T.|last3=Zeeuw|first3=Chris I. De|last4=Hansel|first4=Christian|s2cid=9061314|title=क्लाइंबिंग फाइबर नियंत्रण के तहत सेरिबैलम में द्विदिश समानांतर फाइबर प्लास्टिसिटी|journal=Neuron|volume=44|issue=4|pages=691–700|doi=10.1016/j.neuron.2004.10.031|pmid=15541316|year=2004|doi-access=free}}</ref> | ||
बीसीएम मॉडल दीर्घकालिक | |||
== विकास == | == विकास == | ||
1949 में, [[डोनाल्ड हेब्ब]] ने मस्तिष्क में स्मृति और कम्प्यूटेशनल अनुकूलन के लिए | 1949 में, [[डोनाल्ड हेब्ब]] ने मस्तिष्क में स्मृति और कम्प्यूटेशनल अनुकूलन के लिए कार्यकारी तंत्र का प्रस्ताव रखा जिसे अब [[हेब्बियन सीखना]] कहा जाता है, या कहावत है कि जो कोशिकाएं एक साथ सक्रिय होती हैं, वे साथ जुड़ जाती हैं।<ref name=":1">{{Cite book|title=तंत्रिका विज्ञान के सिद्धांत|others=Kandel, Eric R.|year = 2013|isbn=978-0-07-139011-8|edition=5th|location=New York|oclc=795553723}}</ref> यह धारणा तंत्रिका नेटवर्क के रूप में मस्तिष्क की आधुनिक समझ में मूलभूत है, और यद्यपि सार्वभौमिक रूप से सत्य नहीं है, दशकों के साक्ष्य द्वारा समर्थित ठीक प्रथम अनुमान बना हुआ है।<ref name=":1" /><ref>{{Cite journal|last1=Markram|first1=Henry|author-link2=Wulfram Gerstner|last2=Gerstner|first2=Wulfram|last3=Sjöström|first3=Per Jesper|date=2012|title=Spike-Timing-Dependent Plasticity: A Comprehensive Overview|journal=Frontiers in Synaptic Neuroscience|language=en|volume=4|page=2|doi=10.3389/fnsyn.2012.00002|pmid=22807913|pmc=3395004|issn=1663-3563|doi-access=free}}</ref> | ||
इन अनुमानों के परिणामस्वरूप बीसीएम का मूल रूप 1979 में सामने आया, | यद्यपि, हेब्ब के नियम में समस्याएँ हैं, अर्थात् इसमें संपर्क के दुर्बल होने की कोई व्यवस्था नहीं है और वे कितने दृढ हो सकते हैं इसकी कोई ऊपरी सीमा नहीं है। दूसरे शब्दों में, मॉडल सैद्धांतिक और कम्प्यूटेशनल दोनों रूप से अस्थिर है। बाद के संशोधनों ने धीरे-धीरे हेब्ब के नियम में सुधार किया, इसे सामान्य बनाया और अन्तर्ग्रथन के क्षय की अनुमति दी, जहां न्यूरॉन के बीच कोई गतिविधि या असमकालिक गतिविधि के परिणामस्वरूप संपर्क सामर्थ्य की हानि नहीं होती है। नवीन जैविक साक्ष्य ने इस गतिविधि को 1970 के दशक में परम पर पहुंचा दिया, जहां सिद्धांतकारों ने सिद्धांत में विभिन्न अनुमानों को औपचारिक रूप दिया, जैसे कि न्यूरॉन उत्तेजना को निर्धारित करने में क्षमता के अतिरिक्त फायरिंग आवृत्ति का उपयोग, और आदर्श की धारणा और, अधिक महत्वपूर्ण रूप से, रैखिक अंतर्ग्रथनी एकीकरण संकेतों का अर्थात्, किसी कोशिकामें अग्नि लगेगी या नहीं, यह निर्धारित करने के लिए इनपुट धाराओं को जोड़ने में कोई अप्रत्याशित व्यवहार नहीं होता है। | ||
इन अनुमानों के परिणामस्वरूप बीसीएम का मूल रूप 1979 में सामने आया, परन्तु अंतिम चरण स्थिरता सिद्ध करने के लिए गणितीय विश्लेषण और प्रयोज्यता सिद्ध करने के लिए कम्प्यूटेशनल विश्लेषण के रूप में आया, जिसका अंत बिएननस्टॉक, कूपर और मुनरो के 1982 के लेख में हुआ था। | |||
तब से, प्रयोगों ने दृष्टि वल्कुट और [[ समुद्री घोड़ा |हिपोकैम्पस]] दोनों में बीसीएम व्यवहार के प्रमाण दिखाए हैं, जिनमें से उत्तरार्द्ध स्मृतियों के निर्माण और भंडारण में महत्वपूर्ण भूमिका निभाता है। इन दोनों क्षेत्रों का प्रयोगात्मक रूप से ठीक रूप से अध्ययन किया गया है, परन्तु सिद्धांत और प्रयोग दोनों ने अभी तक मस्तिष्क के अन्य क्षेत्रों में निर्णायक अंतर्ग्रथनी व्यवहार स्थापित नहीं किया है। यह प्रस्तावित किया गया है कि [[सेरिबैलम]] में, [[पुर्किंजे कोशिका]] अन्तर्ग्रथन के [[समानांतर फाइबर]] व्युत्क्रम बीसीएम नियम का पालन करता है, जिसका अर्थ है कि समानांतर फाइबर सक्रियण के समय, परकिनजे कोशिका में उच्च कैल्शियम एकाग्रता का परिणाम एलटीडी होता है, जबकि एक एलटीपी में कम सांद्रता का परिणाम होता है।<ref name=":0" /> इसके अतिरिक्त, बीसीएम में [[ सूत्रयुग्मक सुनम्यता |सूत्रयुग्मक सुनम्यता]] के लिए जैविक कार्यान्वयन अभी तक स्थापित नहीं किया गया है।<ref>{{cite journal |last=Cooper |first=L.N. |author-link=Leon Cooper |year=2000 |title=Memories and memory: A physicist's approach to the brain |journal=International Journal of Modern Physics A |volume=15 |issue=26 |pages=4069–4082 |url=http://physics.brown.edu/physics/researchpages/Ibns/Lab%20Publications%20(PDF)/memoriesandmemory.pdf |access-date= 2007-11-11 |doi=10.1142/s0217751x0000272x}}</ref> | |||
== सिद्धांत == | == सिद्धांत == | ||
{{Confusing|date= | {{Confusing|date=जनवरी 2012}} | ||
मूल बीसीएम | मूल बीसीएम | ||
:<math>\,\frac{d m_j(t)}{d t} = \phi(\textbf{c}(t))d_j(t)-\epsilon m_j(t) | :<math>\,\frac{d m_j(t)}{d t} = \phi(\textbf{c}(t))d_j(t)-\epsilon m_j(t)</math> | ||
नियम का रूप लेता है जहाँ: | |||
* <math>m_j</math> | * <math>m_j</math> <math>j</math>वें अन्तर्ग्रथन का अंतर्ग्रथनी भार है, | ||
* <math>d_j</math> | * <math>d_j</math> <math>j</math>वें अन्तर्ग्रथन की इनपुट धारा है, | ||
* <math>c(t) = \textbf{w}(t)\textbf{d}(t) = \sum_j w_j(t)d_j(t)</math> भार और इनपुट धाराओं (इनपुट का भारित योग) का आंतरिक उत्पाद है, | * <math>c(t) = \textbf{w}(t)\textbf{d}(t) = \sum_j w_j(t)d_j(t)</math> भार और इनपुट धाराओं (इनपुट का भारित योग) का आंतरिक उत्पाद है, | ||
* <math>\phi(c)</math> | * <math>\phi(c)</math> अरैखिक फलन है. इस फ़ंक्शन को कुछ सीमा पर चिह्न बदलना होगा <math>\theta_M</math>, वह है, <math>\phi(c)<0 | ||
</math> अगर और केवल अगर <math>c < \theta_M</math> . विवरण और संपत्तियों के लिए नीचे देखें। | </math> अगर और केवल अगर <math>c < \theta_M</math> . विवरण और संपत्तियों के लिए नीचे देखें। | ||
* और <math>\epsilon</math> सभी | * और <math>\epsilon</math> सभी अन्तर्ग्रथन के एकसमान क्षय का (प्रायः नगण्य) समय स्थिरांक है। | ||
यह मॉडल हेब्बियन सीखने के नियम का | यह मॉडल हेब्बियन सीखने के नियम का संशोधित रूप है, <math>\dot{m_j}=c d_j</math>, और फ़ंक्शन के उपयुक्त विकल्प की आवश्यकता है <math>\phi</math> अस्थिरता की हेब्बियन समस्याओं से बचने के लिए। | ||
बिएननस्टॉक एट अल। <ref name=":2" />पुनर्लेखन <math>\phi(c)</math> | बिएननस्टॉक एट अल। <ref name=":2" />पुनर्लेखन <math>\phi(c)</math> समारोह के रूप में <math>\phi(c,\bar{c})</math> जहाँ <math>\bar{c}</math> का समय औसत है <math>c</math>. इस संशोधन और एकसमान क्षय को त्यागने से नियम सदिश रूप ले लेता है: | ||
:<math>\dot{\mathbf{m}}(t) = \phi(c(t),\bar{c}(t))\mathbf{d}(t)</math> | :<math>\dot{\mathbf{m}}(t) = \phi(c(t),\bar{c}(t))\mathbf{d}(t)</math> | ||
स्थिर सीखने की शर्तें बीसीएम में कठोरता से प्राप्त की गई हैं <math>c(t)=\textbf{m}(t)\cdot\textbf{d}(t)</math> और औसत आउटपुट के अनुमान के साथ <math>\bar{c}(t) \approx \textbf{m}(t)\bar{\mathbf{d}}</math>, इतना ही काफी है | स्थिर सीखने की शर्तें बीसीएम में कठोरता से प्राप्त की गई हैं <math>c(t)=\textbf{m}(t)\cdot\textbf{d}(t)</math> और औसत आउटपुट के अनुमान के साथ <math>\bar{c}(t) \approx \textbf{m}(t)\bar{\mathbf{d}}</math>, इतना ही काफी है | ||
Line 35: | Line 36: | ||
:<math>\,\sgn\phi(c,\bar{c}) = \sgn\left(c-\left(\frac{\bar{c}}{c_0}\right)^p\bar{c}\right) ~~ \textrm{for} ~ c>0, ~ \textrm{and}</math> | :<math>\,\sgn\phi(c,\bar{c}) = \sgn\left(c-\left(\frac{\bar{c}}{c_0}\right)^p\bar{c}\right) ~~ \textrm{for} ~ c>0, ~ \textrm{and}</math> | ||
:<math>\,\phi(0,\bar{c}) = 0 ~~ \textrm{for} ~ \textrm{all} ~ \bar{c},</math> | :<math>\,\phi(0,\bar{c}) = 0 ~~ \textrm{for} ~ \textrm{all} ~ \bar{c},</math> | ||
या समकक्ष, वह दहलीज <math>\theta_M(\bar{c}) = (\bar{c}/c_0)^p\bar{c}</math>, | या समकक्ष, वह दहलीज <math>\theta_M(\bar{c}) = (\bar{c}/c_0)^p\bar{c}</math>, जहाँ <math>p</math> और <math>c_0</math> निश्चित धनात्मक स्थिरांक हैं।<ref name=":2">{{cite journal |last=Bienenstock |first=Elie L. |author-link=Elie Bienenstock |author2=Leon Cooper |author3-link=Paul Munro |author3=Paul Munro |date=January 1982|title=Theory for the development of neuron selectivity: orientation specificity and binocular interaction in visual cortex |journal=The Journal of Neuroscience |volume=2 |issue=1 |pages=32–48 |url=http://www.physics.brown.edu/physics/researchpages/Ibns/Cooper%20Pubs/070_TheoryDevelopment_82.pdf |access-date= 2007-11-11 |pmid=7054394 |doi=10.1523/JNEUROSCI.02-01-00032.1982 |pmc=6564292 |author2-link=Leon Cooper }}</ref> | ||
जब लागू किया जाता है, तो सिद्धांत को | जब लागू किया जाता है, तो सिद्धांत को प्रायः इस प्रकार लिया जाता है | ||
:<math>\,\phi(c,\bar{c}) = c(c-\theta_M) ~~~ \textrm{and} ~~~ \theta_M = \bar{c}^2 = \frac{1}{\tau}\int_{-\infty}^t c^2(t^\prime)e^{-(t-t^\prime)/\tau}d t^\prime,</math> | :<math>\,\phi(c,\bar{c}) = c(c-\theta_M) ~~~ \textrm{and} ~~~ \theta_M = \bar{c}^2 = \frac{1}{\tau}\int_{-\infty}^t c^2(t^\prime)e^{-(t-t^\prime)/\tau}d t^\prime,</math> | ||
जहाँ <math>\tau</math> चयनात्मकता का समय स्थिरांक है। | |||
मॉडल में कमियां हैं, क्योंकि इसमें दीर्घकालिक | मॉडल में कमियां हैं, क्योंकि इसमें दीर्घकालिक प्रबलीकरण और दीर्घकालिक अवसाद दोनों की आवश्यकता होती है, या अंतर्ग्रथनी ताकत में वृद्धि और कमी होती है, कुछ ऐसा जो सभी वल्कुटी सिस्टम में नहीं देखा गया है। इसके अतिरिक्त, इसके लिए परिवर्तनीय सक्रियण सीमा की आवश्यकता होती है और यह चयनित निश्चित बिंदुओं की स्थिरता पर दृढ़ता से निर्भर करता है <math>c_0</math> और <math>p</math>. यद्यपि, मॉडल की ताकत यह है कि इसमें स्थिरता के स्वतंत्र रूप से प्राप्त नियमों से इन सभी आवश्यकताओं को शामिल किया गया है, जैसे [[सामान्यीकृत तरंग फ़ंक्शन]] और आउटपुट के वर्ग के आनुपातिक समय के साथ क्षय फ़ंक्शन।<ref>{{cite web |url=http://www.cs.tau.ac.il/~nin/Courses/NC05/BCM.ppt |title=सिनैप्टिक प्लास्टिसिटी का बीसीएम सिद्धांत|access-date=2007-11-11 |last=Intrator |first=Nathan |date=2006–2007 |work=Neural Computation |publisher=School of Computer Science, Tel-Aviv University }}</ref> | ||
== उदाहरण == | == उदाहरण == | ||
यह उदाहरण बिएनस्टॉक एट अल के अध्याय गणितीय परिणामों में से | यह उदाहरण बिएनस्टॉक एट अल के अध्याय गणितीय परिणामों में से का विशेष मामला है। <ref name=":2" /> मान कर काम करो <math>p=2 | ||
</math> और <math>c_0 = 1</math>. इन्हीं मूल्यों के साथ <math>\theta_M=(\bar{c}/c_0)^p\bar{c}=\bar{c}^3</math> और हम निर्णय लेते हैं <math>\phi(c,\bar{c}) = c (c - \theta_M)</math> जो पिछले अध्याय में बताई गई स्थिरता शर्तों को पूरा करता है। | </math> और <math>c_0 = 1</math>. इन्हीं मूल्यों के साथ <math>\theta_M=(\bar{c}/c_0)^p\bar{c}=\bar{c}^3</math> और हम निर्णय लेते हैं <math>\phi(c,\bar{c}) = c (c - \theta_M)</math> जो पिछले अध्याय में बताई गई स्थिरता शर्तों को पूरा करता है। | ||
दो | दो पूर्वसिनेप्टिक न्यूरॉन मान लें जो इनपुट प्रदान करते हैं <math>d_1</math> और <math>d_2</math>, इसकी गतिविधि आधे समय के साथ दोहराव वाला चक्र है <math>\mathbf{d}=(d_1,d_2)=(0.9,0.1)</math> और शेष समय <math>\mathbf{d}=(0.2,0.7 | ||
)</math> . <math>\bar{c}</math> समय का औसत का औसत होगा <math>c</math> | )</math> . <math>\bar{c}</math> समय का औसत का औसत होगा <math>c</math> चक्र की पहली और दूसरी छमाही में मूल्य। | ||
मान लीजिए वज़न का प्रारंभिक मान <math>\mathbf{m}=(0.1,0.05)</math>. समय के पहले भाग में <math>\mathbf{d}=(0.9,0.1)</math> और <math>\mathbf{m}=(0.1,0.05)</math>, भारित योग <math>c</math> 0.095 के बराबर है और हम प्रारंभिक औसत के समान मान का उपयोग करते हैं <math>\bar{c}</math>. इसका मत <math>\theta_M=0.001</math> , <math>\phi=0.009</math>, <math>\dot{m}=(0.008,0.001)</math>. भार में व्युत्पन्न का 10% जोड़ने पर हमें | मान लीजिए वज़न का प्रारंभिक मान <math>\mathbf{m}=(0.1,0.05)</math>. समय के पहले भाग में <math>\mathbf{d}=(0.9,0.1)</math> और <math>\mathbf{m}=(0.1,0.05)</math>, भारित योग <math>c</math> 0.095 के बराबर है और हम प्रारंभिक औसत के समान मान का उपयोग करते हैं <math>\bar{c}</math>. इसका मत <math>\theta_M=0.001</math> , <math>\phi=0.009</math>, <math>\dot{m}=(0.008,0.001)</math>. भार में व्युत्पन्न का 10% जोड़ने पर हमें नवीन भार प्राप्त होते हैं <math>\mathbf{m}=(0.101,0.051)</math>. | ||
अगले आधे समय में, इनपुट हैं <math>\mathbf{d}=(0.2,0.7 | अगले आधे समय में, इनपुट हैं <math>\mathbf{d}=(0.2,0.7 | ||
)</math> और वजन <math>\mathbf{m}=(0.101,0.051)</math>. इसका मत | )</math> और वजन <math>\mathbf{m}=(0.101,0.051)</math>. इसका मत <math>c=0.055 | ||
</math>, | </math>, <math>\bar{c}</math> पूर्ण चक्र का मान 0.075 है, <math>\theta_M=0.000 | ||
</math> , <math>\phi=0.003</math>, <math>\dot{m}=(0.001,0.002)</math>. भार में व्युत्पन्न का 10% जोड़ने पर हमें | </math> , <math>\phi=0.003</math>, <math>\dot{m}=(0.001,0.002)</math>. भार में व्युत्पन्न का 10% जोड़ने पर हमें नवीन भार प्राप्त होते हैं <math>\mathbf{m}=(0.110,0.055)</math>. | ||
पिछले चक्र को दोहराते हुए, कई सौ पुनरावृत्तियों के बाद, हम स्थिरता प्राप्त करते हैं <math>\mathbf{m}=(3.246,-0.927)</math>, | पिछले चक्र को दोहराते हुए, कई सौ पुनरावृत्तियों के बाद, हम स्थिरता प्राप्त करते हैं <math>\mathbf{m}=(3.246,-0.927)</math>, <math>c=\sqrt{8}=2.828 | ||
</math> (पहला भाग) और <math>c=0.000 | </math> (पहला भाग) और <math>c=0.000 | ||
</math> (शेष समय), | </math> (शेष समय), <math>\bar{c}=\sqrt{8}/2=1.414</math>, <math>\theta_M = \sqrt{8} = 2.828 | ||
</math> , <math>\phi=0.000</math> और <math>\dot{m}=(0.000,0.000)</math>. | </math> , <math>\phi=0.000</math> और <math>\dot{m}=(0.000,0.000)</math>. | ||
ध्यान दें कि, जैसा कि अनुमान लगाया गया था, अंतिम भार वेक्टर कैसे होगा <math>m</math> इनपुट पैटर्न में से | ध्यान दें कि, जैसा कि अनुमान लगाया गया था, अंतिम भार वेक्टर कैसे होगा <math>m</math> इनपुट पैटर्न में से के लिए ऑर्थोगोनल बन गया है, जो कि अंतिम मान है <math>c</math> फ़ंक्शन के दोनों अंतरालों में शून्य <math>\phi</math>. | ||
== प्रयोग == | == प्रयोग == | ||
बीसीएम की पहली प्रमुख प्रायोगिक पुष्टि 1992 में हिप्पोकैम्पस में दीर्घकालिक | बीसीएम की पहली प्रमुख प्रायोगिक पुष्टि 1992 में हिप्पोकैम्पस में दीर्घकालिक प्रबलीकरण और दीर्घकालिक अवसाद की जांच में हुई। [[सेरेना डुडेक]] के प्रयोगात्मक कार्य ने बीसीएम सक्रियण फ़ंक्शन के अंतिम रूप के साथ गुणात्मक समझौता दिखाया।<ref>{{cite journal |last=Dudek |first=Serena M. |author-link=Serena Dudek |author2=Mark Bear |author-link2=Mark F. Bear |year=1992 |title=हिप्पोकैम्पस के क्षेत्र CA1 में होमोसिनेप्टिक दीर्घकालिक अवसाद और एन-मिथाइल-डी-एस्पार्टेट रिसेप्टर नाकाबंदी के प्रभाव|journal=Proc. Natl. Acad. Sci. |volume=89 |issue= 10|pages=4363–4367 |url=http://www.pnas.org/cgi/reprint/89/10/4363.pdf |access-date= 2007-11-11 |doi=10.1073/pnas.89.10.4363 |pmid=1350090 |pmc=49082 |bibcode=1992PNAS...89.4363D |doi-access=free }}</ref> इस प्रयोग को बाद में विज़ुअल वल्कुट में दोहराया गया, जिसे बीसीएम को मूल रूप से मॉडल करने के लिए डिज़ाइन किया गया था।<ref>{{cite journal |last=Kirkwood |first=Alfredo |author-link=Alfredo Kirkwood |author2=Marc G. Rioult |author3-link=Mark F. Bear |author3=Mark F. Bear |s2cid=2705694 |year=1996 |title=चूहे के दृश्य प्रांतस्था में सिनैप्टिक प्लास्टिसिटी का अनुभव-निर्भर संशोधन|journal=[[Nature (journal)|Nature]] |volume=381 |issue= 6582|pages=526–528 |doi=10.1038/381526a0 |pmid=8632826 |bibcode=1996Natur.381..526K |author2-link=Marc G. Rioult }}</ref> इस कार्य ने हेब्बियन-प्रकार की शिक्षा (बीसीएम या अन्य) में स्थिरता के लिए परिवर्तनीय थ्रेशोल्ड फ़ंक्शन की आवश्यकता का और सबूत प्रदान किया। | ||
रिटेनहाउस एट अल तक प्रायोगिक साक्ष्य बीसीएम के लिए गैर-विशिष्ट रहे हैं। जब | रिटेनहाउस एट अल तक प्रायोगिक साक्ष्य बीसीएम के लिए गैर-विशिष्ट रहे हैं। जब आंख को चुनिंदा रूप से बंद किया जाता है तो दृष्टि वल्कुट में अन्तर्ग्रथन संशोधन की बीसीएम की भविष्यवाणी की पुष्टि की जाती है। विशेष रूप से, | ||
:<math>\log\left(\frac{m_{\rm closed}(t)}{m_{\rm closed}(0)}\right) \sim -\overline{n^2}t,</math> | :<math>\log\left(\frac{m_{\rm closed}(t)}{m_{\rm closed}(0)}\right) \sim -\overline{n^2}t,</math> | ||
जहाँ <math>\overline{n^2}</math> बंद आँख में सहज गतिविधि या शोर में भिन्नता का वर्णन करता है <math>t</math> बंद होने के बाद से समय हो गया है। प्रयोग इस भविष्यवाणी के सामान्य आकार से सहमत हुआ और एककोशिकीय आंख बंद होने (मोनोकुलर अभाव) बनाम दूरबीन आंख बंद होने की गतिशीलता के लिए स्पष्टीकरण प्रदान किया गया।<ref>{{cite journal |last=Rittenhouse |first=Cynthia D. |author2=Harel Z. Shouval |author3=Michael A. Paradiso |author4=Mark F. Bear |s2cid=4302032 |year=1999 |title=मोनोकुलर अभाव दृश्य कॉर्टेक्स में होमोसिनेप्टिक दीर्घकालिक अवसाद को प्रेरित करता है|journal=[[Nature (journal)|Nature]] |volume=397 |issue= 6717|pages=347–50 |doi=10.1038/16922 |pmid=9950426 |bibcode=1999Natur.397..347R }}</ref> प्रयोगात्मक परिणाम निर्णायक नहीं हैं, परन्तु अब तक सुघट्यता के प्रतिस्पर्धी सिद्धांतों पर बीसीएम का पक्ष लिया गया है। | |||
== अनुप्रयोग == | == अनुप्रयोग == | ||
जबकि बीसीएम का एल्गोरिदम बड़े पैमाने पर [[समानांतर वितरित प्रसंस्करण]] के लिए बहुत जटिल है, इसे कुछ सफलता के साथ पार्श्व नेटवर्क में उपयोग में लाया गया है।<ref>{{cite web |url=http://www.cs.tau.ac.il/~nin/Courses/NC05/bcmppr.pdf |title=बीसीएम लर्निंग नियम, कॉम्प मुद्दे|access-date=2007-11-11 |last=Intrator |first=Nathan |date=2006–2007 |work=Neural Computation |publisher=School of Computer Science, Tel-Aviv University }}</ref> इसके | जबकि बीसीएम का एल्गोरिदम बड़े पैमाने पर [[समानांतर वितरित प्रसंस्करण]] के लिए बहुत जटिल है, इसे कुछ सफलता के साथ पार्श्व नेटवर्क में उपयोग में लाया गया है।<ref>{{cite web |url=http://www.cs.tau.ac.il/~nin/Courses/NC05/bcmppr.pdf |title=बीसीएम लर्निंग नियम, कॉम्प मुद्दे|access-date=2007-11-11 |last=Intrator |first=Nathan |date=2006–2007 |work=Neural Computation |publisher=School of Computer Science, Tel-Aviv University }}</ref> इसके अतिरिक्त, कुछ मौजूदा कम्प्यूटेशनल नेटवर्क लर्निंग एल्गोरिदम को बीसीएम लर्निंग के अनुरूप बनाया गया है।<ref>{{cite journal|last=Baras |first=Dorit |author2=Ron Meir |s2cid=40872097 |year=2007 |title=सुदृढीकरण सीखना, स्पाइक-समय-निर्भर प्लास्टिसिटी, और बीसीएम नियम|journal=Neural Computation |volume=19 |issue=8 |pages=2245–2279 |id=2561 |url=http://eprints.pascal-network.org/archive/00002561/01/RL-STDP_Final.pdf |access-date=2007-11-11 |doi=10.1162/neco.2007.19.8.2245 |pmid=17571943 |url-status=dead |archive-url=https://web.archive.org/web/20110721081006/http://eprints.pascal-network.org/archive/00002561/01/RL-STDP_Final.pdf |archive-date=2011-07-21 |citeseerx=10.1.1.119.395 }}</ref> | ||
Revision as of 20:23, 3 July 2023
बीसीएम सिद्धांत, बीसीएम अंतर्ग्रथनी संशोधन, या बीसीएम नियम, जिसका नाम एली बीहाइव, लियोन कूपर और पॉल मुनरो के नाम पर रखा गया है, इन्होने 1981 में विकसित दृष्टि वल्कुट में सीखने का भौतिक सिद्धांत है। बीसीएम मॉडल दीर्घकालिक प्रबलीकरण (एलटीपी) या दीर्घकालिक अवसाद (एलटीडी) प्रेरण के लिए सर्पण सीमा का प्रस्ताव करता है, और बताता है कि अंतर्ग्रथनी सुघट्यता को समय-औसत अंतर्ग्रथनपश्च गतिविधि के गतिशील अनुकूलन द्वारा स्थिर किया जाता है। बीसीएम मॉडल के अनुसार, जब पूर्व-अंतर्ग्रथनी न्यूरॉन सक्रिय होता है, तो पश्च-अंतर्ग्रथनी न्यूरॉन एलटीपी से गुजरेंगे यदि यह उच्च गतिविधि स्थिति में है (उदाहरण के लिए, उच्च आवृत्ति पर सक्रिय है, और/या उच्च आंतरिक कैल्शियम सांद्रता है), या एलटीडी यदि यह कम गतिविधि वाली स्थिति में है (उदाहरण के लिए, कम आवृत्ति में फायरिंग, कम आंतरिक कैल्शियम सांद्रता)।[1] इस सिद्धांत का उपयोग प्रायः यह समझाने के लिए किया जाता है कि पूर्व-अंतर्ग्रथनी न्यूरॉन (सामान्यतः एलटीपी के लिए उच्च आवृत्ति उत्तेजना, या एचएफएस, या एलटीडी के लिए कम-आवृत्ति उत्तेजना, एलएफएस ) पर लागू विभिन्न अनुकूलन उत्तेजना प्रोटोकॉल के आधार पर वल्कुटी न्यूरॉन एलटीपी या एलटीडी दोनों से कैसे गुजर सकते हैं।[2]
विकास
1949 में, डोनाल्ड हेब्ब ने मस्तिष्क में स्मृति और कम्प्यूटेशनल अनुकूलन के लिए कार्यकारी तंत्र का प्रस्ताव रखा जिसे अब हेब्बियन सीखना कहा जाता है, या कहावत है कि जो कोशिकाएं एक साथ सक्रिय होती हैं, वे साथ जुड़ जाती हैं।[3] यह धारणा तंत्रिका नेटवर्क के रूप में मस्तिष्क की आधुनिक समझ में मूलभूत है, और यद्यपि सार्वभौमिक रूप से सत्य नहीं है, दशकों के साक्ष्य द्वारा समर्थित ठीक प्रथम अनुमान बना हुआ है।[3][4]
यद्यपि, हेब्ब के नियम में समस्याएँ हैं, अर्थात् इसमें संपर्क के दुर्बल होने की कोई व्यवस्था नहीं है और वे कितने दृढ हो सकते हैं इसकी कोई ऊपरी सीमा नहीं है। दूसरे शब्दों में, मॉडल सैद्धांतिक और कम्प्यूटेशनल दोनों रूप से अस्थिर है। बाद के संशोधनों ने धीरे-धीरे हेब्ब के नियम में सुधार किया, इसे सामान्य बनाया और अन्तर्ग्रथन के क्षय की अनुमति दी, जहां न्यूरॉन के बीच कोई गतिविधि या असमकालिक गतिविधि के परिणामस्वरूप संपर्क सामर्थ्य की हानि नहीं होती है। नवीन जैविक साक्ष्य ने इस गतिविधि को 1970 के दशक में परम पर पहुंचा दिया, जहां सिद्धांतकारों ने सिद्धांत में विभिन्न अनुमानों को औपचारिक रूप दिया, जैसे कि न्यूरॉन उत्तेजना को निर्धारित करने में क्षमता के अतिरिक्त फायरिंग आवृत्ति का उपयोग, और आदर्श की धारणा और, अधिक महत्वपूर्ण रूप से, रैखिक अंतर्ग्रथनी एकीकरण संकेतों का अर्थात्, किसी कोशिकामें अग्नि लगेगी या नहीं, यह निर्धारित करने के लिए इनपुट धाराओं को जोड़ने में कोई अप्रत्याशित व्यवहार नहीं होता है।
इन अनुमानों के परिणामस्वरूप बीसीएम का मूल रूप 1979 में सामने आया, परन्तु अंतिम चरण स्थिरता सिद्ध करने के लिए गणितीय विश्लेषण और प्रयोज्यता सिद्ध करने के लिए कम्प्यूटेशनल विश्लेषण के रूप में आया, जिसका अंत बिएननस्टॉक, कूपर और मुनरो के 1982 के लेख में हुआ था।
तब से, प्रयोगों ने दृष्टि वल्कुट और हिपोकैम्पस दोनों में बीसीएम व्यवहार के प्रमाण दिखाए हैं, जिनमें से उत्तरार्द्ध स्मृतियों के निर्माण और भंडारण में महत्वपूर्ण भूमिका निभाता है। इन दोनों क्षेत्रों का प्रयोगात्मक रूप से ठीक रूप से अध्ययन किया गया है, परन्तु सिद्धांत और प्रयोग दोनों ने अभी तक मस्तिष्क के अन्य क्षेत्रों में निर्णायक अंतर्ग्रथनी व्यवहार स्थापित नहीं किया है। यह प्रस्तावित किया गया है कि सेरिबैलम में, पुर्किंजे कोशिका अन्तर्ग्रथन के समानांतर फाइबर व्युत्क्रम बीसीएम नियम का पालन करता है, जिसका अर्थ है कि समानांतर फाइबर सक्रियण के समय, परकिनजे कोशिका में उच्च कैल्शियम एकाग्रता का परिणाम एलटीडी होता है, जबकि एक एलटीपी में कम सांद्रता का परिणाम होता है।[2] इसके अतिरिक्त, बीसीएम में सूत्रयुग्मक सुनम्यता के लिए जैविक कार्यान्वयन अभी तक स्थापित नहीं किया गया है।[5]
सिद्धांत
This article may be confusing or unclear to readers. (जनवरी 2012) (Learn how and when to remove this template message) |
मूल बीसीएम
नियम का रूप लेता है जहाँ:
- वें अन्तर्ग्रथन का अंतर्ग्रथनी भार है,
- वें अन्तर्ग्रथन की इनपुट धारा है,
- भार और इनपुट धाराओं (इनपुट का भारित योग) का आंतरिक उत्पाद है,
- अरैखिक फलन है. इस फ़ंक्शन को कुछ सीमा पर चिह्न बदलना होगा , वह है, अगर और केवल अगर . विवरण और संपत्तियों के लिए नीचे देखें।
- और सभी अन्तर्ग्रथन के एकसमान क्षय का (प्रायः नगण्य) समय स्थिरांक है।
यह मॉडल हेब्बियन सीखने के नियम का संशोधित रूप है, , और फ़ंक्शन के उपयुक्त विकल्प की आवश्यकता है अस्थिरता की हेब्बियन समस्याओं से बचने के लिए।
बिएननस्टॉक एट अल। [6]पुनर्लेखन समारोह के रूप में जहाँ का समय औसत है . इस संशोधन और एकसमान क्षय को त्यागने से नियम सदिश रूप ले लेता है:
स्थिर सीखने की शर्तें बीसीएम में कठोरता से प्राप्त की गई हैं और औसत आउटपुट के अनुमान के साथ , इतना ही काफी है
या समकक्ष, वह दहलीज , जहाँ और निश्चित धनात्मक स्थिरांक हैं।[6] जब लागू किया जाता है, तो सिद्धांत को प्रायः इस प्रकार लिया जाता है
जहाँ चयनात्मकता का समय स्थिरांक है।
मॉडल में कमियां हैं, क्योंकि इसमें दीर्घकालिक प्रबलीकरण और दीर्घकालिक अवसाद दोनों की आवश्यकता होती है, या अंतर्ग्रथनी ताकत में वृद्धि और कमी होती है, कुछ ऐसा जो सभी वल्कुटी सिस्टम में नहीं देखा गया है। इसके अतिरिक्त, इसके लिए परिवर्तनीय सक्रियण सीमा की आवश्यकता होती है और यह चयनित निश्चित बिंदुओं की स्थिरता पर दृढ़ता से निर्भर करता है और . यद्यपि, मॉडल की ताकत यह है कि इसमें स्थिरता के स्वतंत्र रूप से प्राप्त नियमों से इन सभी आवश्यकताओं को शामिल किया गया है, जैसे सामान्यीकृत तरंग फ़ंक्शन और आउटपुट के वर्ग के आनुपातिक समय के साथ क्षय फ़ंक्शन।[7]
उदाहरण
यह उदाहरण बिएनस्टॉक एट अल के अध्याय गणितीय परिणामों में से का विशेष मामला है। [6] मान कर काम करो और . इन्हीं मूल्यों के साथ और हम निर्णय लेते हैं जो पिछले अध्याय में बताई गई स्थिरता शर्तों को पूरा करता है।
दो पूर्वसिनेप्टिक न्यूरॉन मान लें जो इनपुट प्रदान करते हैं और , इसकी गतिविधि आधे समय के साथ दोहराव वाला चक्र है और शेष समय . समय का औसत का औसत होगा चक्र की पहली और दूसरी छमाही में मूल्य।
मान लीजिए वज़न का प्रारंभिक मान . समय के पहले भाग में और , भारित योग 0.095 के बराबर है और हम प्रारंभिक औसत के समान मान का उपयोग करते हैं . इसका मत , , . भार में व्युत्पन्न का 10% जोड़ने पर हमें नवीन भार प्राप्त होते हैं .
अगले आधे समय में, इनपुट हैं और वजन . इसका मत , पूर्ण चक्र का मान 0.075 है, , , . भार में व्युत्पन्न का 10% जोड़ने पर हमें नवीन भार प्राप्त होते हैं .
पिछले चक्र को दोहराते हुए, कई सौ पुनरावृत्तियों के बाद, हम स्थिरता प्राप्त करते हैं , (पहला भाग) और (शेष समय), , , और .
ध्यान दें कि, जैसा कि अनुमान लगाया गया था, अंतिम भार वेक्टर कैसे होगा इनपुट पैटर्न में से के लिए ऑर्थोगोनल बन गया है, जो कि अंतिम मान है फ़ंक्शन के दोनों अंतरालों में शून्य .
प्रयोग
बीसीएम की पहली प्रमुख प्रायोगिक पुष्टि 1992 में हिप्पोकैम्पस में दीर्घकालिक प्रबलीकरण और दीर्घकालिक अवसाद की जांच में हुई। सेरेना डुडेक के प्रयोगात्मक कार्य ने बीसीएम सक्रियण फ़ंक्शन के अंतिम रूप के साथ गुणात्मक समझौता दिखाया।[8] इस प्रयोग को बाद में विज़ुअल वल्कुट में दोहराया गया, जिसे बीसीएम को मूल रूप से मॉडल करने के लिए डिज़ाइन किया गया था।[9] इस कार्य ने हेब्बियन-प्रकार की शिक्षा (बीसीएम या अन्य) में स्थिरता के लिए परिवर्तनीय थ्रेशोल्ड फ़ंक्शन की आवश्यकता का और सबूत प्रदान किया।
रिटेनहाउस एट अल तक प्रायोगिक साक्ष्य बीसीएम के लिए गैर-विशिष्ट रहे हैं। जब आंख को चुनिंदा रूप से बंद किया जाता है तो दृष्टि वल्कुट में अन्तर्ग्रथन संशोधन की बीसीएम की भविष्यवाणी की पुष्टि की जाती है। विशेष रूप से,
जहाँ बंद आँख में सहज गतिविधि या शोर में भिन्नता का वर्णन करता है बंद होने के बाद से समय हो गया है। प्रयोग इस भविष्यवाणी के सामान्य आकार से सहमत हुआ और एककोशिकीय आंख बंद होने (मोनोकुलर अभाव) बनाम दूरबीन आंख बंद होने की गतिशीलता के लिए स्पष्टीकरण प्रदान किया गया।[10] प्रयोगात्मक परिणाम निर्णायक नहीं हैं, परन्तु अब तक सुघट्यता के प्रतिस्पर्धी सिद्धांतों पर बीसीएम का पक्ष लिया गया है।
अनुप्रयोग
जबकि बीसीएम का एल्गोरिदम बड़े पैमाने पर समानांतर वितरित प्रसंस्करण के लिए बहुत जटिल है, इसे कुछ सफलता के साथ पार्श्व नेटवर्क में उपयोग में लाया गया है।[11] इसके अतिरिक्त, कुछ मौजूदा कम्प्यूटेशनल नेटवर्क लर्निंग एल्गोरिदम को बीसीएम लर्निंग के अनुरूप बनाया गया है।[12]
संदर्भ
- ↑ Izhikevich, Eugene M.; Desai, Niraj S. (2003-07-01). "एसटीडीपी का बीसीएम से संबंध". Neural Computation. 15 (7): 1511–1523. doi:10.1162/089976603321891783. ISSN 0899-7667. PMID 12816564. S2CID 1919612.
- ↑ 2.0 2.1 Coesmans, Michiel; Weber, John T.; Zeeuw, Chris I. De; Hansel, Christian (2004). "क्लाइंबिंग फाइबर नियंत्रण के तहत सेरिबैलम में द्विदिश समानांतर फाइबर प्लास्टिसिटी". Neuron. 44 (4): 691–700. doi:10.1016/j.neuron.2004.10.031. PMID 15541316. S2CID 9061314.
- ↑ 3.0 3.1 तंत्रिका विज्ञान के सिद्धांत. Kandel, Eric R. (5th ed.). New York. 2013. ISBN 978-0-07-139011-8. OCLC 795553723.
{{cite book}}
: CS1 maint: location missing publisher (link) CS1 maint: others (link) - ↑ Markram, Henry; Gerstner, Wulfram; Sjöström, Per Jesper (2012). "Spike-Timing-Dependent Plasticity: A Comprehensive Overview". Frontiers in Synaptic Neuroscience (in English). 4: 2. doi:10.3389/fnsyn.2012.00002. ISSN 1663-3563. PMC 3395004. PMID 22807913.
- ↑ Cooper, L.N. (2000). "Memories and memory: A physicist's approach to the brain" (PDF). International Journal of Modern Physics A. 15 (26): 4069–4082. doi:10.1142/s0217751x0000272x. Retrieved 2007-11-11.
- ↑ 6.0 6.1 6.2 Bienenstock, Elie L.; Leon Cooper; Paul Munro (January 1982). "Theory for the development of neuron selectivity: orientation specificity and binocular interaction in visual cortex" (PDF). The Journal of Neuroscience. 2 (1): 32–48. doi:10.1523/JNEUROSCI.02-01-00032.1982. PMC 6564292. PMID 7054394. Retrieved 2007-11-11.
- ↑ Intrator, Nathan (2006–2007). "सिनैप्टिक प्लास्टिसिटी का बीसीएम सिद्धांत". Neural Computation. School of Computer Science, Tel-Aviv University. Retrieved 2007-11-11.
- ↑ Dudek, Serena M.; Mark Bear (1992). "हिप्पोकैम्पस के क्षेत्र CA1 में होमोसिनेप्टिक दीर्घकालिक अवसाद और एन-मिथाइल-डी-एस्पार्टेट रिसेप्टर नाकाबंदी के प्रभाव" (PDF). Proc. Natl. Acad. Sci. 89 (10): 4363–4367. Bibcode:1992PNAS...89.4363D. doi:10.1073/pnas.89.10.4363. PMC 49082. PMID 1350090. Retrieved 2007-11-11.
- ↑ Kirkwood, Alfredo; Marc G. Rioult; Mark F. Bear (1996). "चूहे के दृश्य प्रांतस्था में सिनैप्टिक प्लास्टिसिटी का अनुभव-निर्भर संशोधन". Nature. 381 (6582): 526–528. Bibcode:1996Natur.381..526K. doi:10.1038/381526a0. PMID 8632826. S2CID 2705694.
- ↑ Rittenhouse, Cynthia D.; Harel Z. Shouval; Michael A. Paradiso; Mark F. Bear (1999). "मोनोकुलर अभाव दृश्य कॉर्टेक्स में होमोसिनेप्टिक दीर्घकालिक अवसाद को प्रेरित करता है". Nature. 397 (6717): 347–50. Bibcode:1999Natur.397..347R. doi:10.1038/16922. PMID 9950426. S2CID 4302032.
- ↑ Intrator, Nathan (2006–2007). "बीसीएम लर्निंग नियम, कॉम्प मुद्दे" (PDF). Neural Computation. School of Computer Science, Tel-Aviv University. Retrieved 2007-11-11.
- ↑ Baras, Dorit; Ron Meir (2007). "सुदृढीकरण सीखना, स्पाइक-समय-निर्भर प्लास्टिसिटी, और बीसीएम नियम" (PDF). Neural Computation. 19 (8): 2245–2279. CiteSeerX 10.1.1.119.395. doi:10.1162/neco.2007.19.8.2245. PMID 17571943. S2CID 40872097. 2561. Archived from the original (PDF) on 2011-07-21. Retrieved 2007-11-11.