स्पाइक-ट्रिगर औसत: Difference between revisions

From Vigyanwiki
No edit summary
Line 13: Line 13:
यहाँ <math>n_{sp} = \sum y_i</math>, स्पाइक्स की कुल संख्या।
यहाँ <math>n_{sp} = \sum y_i</math>, स्पाइक्स की कुल संख्या।


यह समीकरण मैट्रिक्स नोटेशन में अधिक आसानी से व्यक्त किया गया है: चलो <math>X</math> एक मैट्रिक्स को निरूपित करें जिसका <math>i</math>'वीं पंक्ति उत्तेजना सदिश है <math>\mathbf{x_i^T}</math> और जाने <math>\mathbf{y}</math> एक कॉलम सदिश को निरूपित करें जिसका <math>i</math>वां तत्व है <math>y_i</math>. फिर एसटीए लिखा जा सकता है
यह समीकरण सरलतम रूप से आव्यूह रूप में व्यक्त किया जा सकता है: हम इसे इस तरह से लिख सकते हैं: चलो <math>X</math> एक आव्यूह  को निरूपित करें जिसका <math>i</math>'वीं पंक्ति प्रेरक सदिश <math>\mathbf{x_i^T}</math> है और <math>\mathbf{y}</math> एक कॉलम सदिश को निरूपित करें जिसका <math>i</math>वां तत्व है <math>y_i</math>. है तब एसटीए निम्नलिखित रूप में लिखा जा सकता है:
: <math>\mathrm{STA} = \tfrac{1}{n_{sp}} X^T \mathbf{y}. </math>
: <math>\mathrm{STA} = \tfrac{1}{n_{sp}} X^T \mathbf{y}. </math>


यह समीकरण सरलतम रूप से आव्यूह  रूप में व्यक्त किया जा सकता है: हम इसे इस तरह से लिख सकते हैं:
आइये X एक आव्यूह  को दर्शाएं जिसमें i वें पंक्ति प्रेरक वेक्टर x_{i}^{T} है, और \mathbf{y} एक स्तंभ वेक्टर को दर्शाएं जिसमें i वें तत्व y_{i} है। तब एसटीए निम्नलिखित रूप में लिखा जा सकता है:


===सफ़ेद एसटीए===
===सफ़ेद एसटीए===


यदि उत्तेजना सफेद शोर नहीं है, बल्कि अंतरिक्ष या समय में गैर-शून्य सहसंबंध है, तो मानक एसटीए रैखिक ग्रहणशील क्षेत्र का एक पक्षपाती अनुमान प्रदान करता है।<ref name="Paninski03"/>  इसलिए उत्तेजना सहप्रसरण मैट्रिक्स के व्युत्क्रम द्वारा एसटीए को सफ़ेद करना उचित हो सकता है। यह स्थानिक निर्भरता के मुद्दे को हल करता है, हालांकि हम अभी भी मानते हैं कि उत्तेजना अस्थायी रूप से स्वतंत्र है। परिणामी अनुमानक को श्वेत एसटीए के रूप में जाना जाता है, जो कि दिया जाता है
यदि उत्तेजना सफेद शोर नहीं है, बल्कि अंतरिक्ष या समय में गैर-शून्य सहसंबंध है, तो मानक एसटीए रैखिक ग्रहणशील क्षेत्र का एक पक्षपाती अनुमान प्रदान करता है।<ref name="Paninski03"/>  इसलिए उत्तेजना सहप्रसरण आव्यूह  के व्युत्क्रम द्वारा एसटीए को सफ़ेद करना उचित हो सकता है। यह स्थानिक निर्भरता के मुद्दे को हल करता है, हालांकि हम अभी भी मानते हैं कि उत्तेजना अस्थायी रूप से स्वतंत्र है। परिणामी अनुमानक को श्वेत एसटीए के रूप में जाना जाता है, जो कि दिया जाता है
: <math>\mathrm{STA}_w = \left(\tfrac{1}{T}\sum_{i=1}^T\mathbf{x_i}\mathbf{x_i}^T\right)^{-1} \left(\tfrac{1}{n_{sp}} \sum_{i=1}^T y_i \mathbf{x_i}\right),</math>
: <math>\mathrm{STA}_w = \left(\tfrac{1}{T}\sum_{i=1}^T\mathbf{x_i}\mathbf{x_i}^T\right)^{-1} \left(\tfrac{1}{n_{sp}} \sum_{i=1}^T y_i \mathbf{x_i}\right),</math>
जहां पहला पद कच्ची प्रेरको  का व्युत्क्रम सहप्रसरण मैट्रिक्स है और दूसरा मानक एसटीए है। मैट्रिक्स नोटेशन में इसे लिखा जा सकता है
जहां पहला पद कच्ची प्रेरको  का व्युत्क्रम सहप्रसरण आव्यूह  है और दूसरा मानक एसटीए है। आव्यूह  नोटेशन में इसे लिखा जा सकता है
: <math>\mathrm{STA}_w = \tfrac{T}{n_{sp}} \left(X^TX\right)^{-1}X^T \mathbf{y}. </math>
: <math>\mathrm{STA}_w = \tfrac{T}{n_{sp}} \left(X^TX\right)^{-1}X^T \mathbf{y}. </math>
सफ़ेद एसटीए केवल तभी निष्पक्ष होता है जब प्रोत्साहन वितरण को सहसंबद्ध गाऊसी वितरण द्वारा वर्णित किया जा सकता है <ref name ="SharpeeRustBialek04"/>(सहसंबद्ध गाऊसी वितरण अण्डाकार रूप से सममित होते हैं, अर्थात एक रैखिक परिवर्तन द्वारा गोलाकार रूप से सममित बनाया जा सकता है, लेकिन सभी अण्डाकार सममित वितरण गाऊसी नहीं होते हैं)। यह गोलाकार समरूपता की तुलना में कमज़ोर स्थिति है।
सफ़ेद एसटीए केवल तभी निष्पक्ष होता है जब प्रोत्साहन वितरण को सहसंबद्ध गाऊसी वितरण द्वारा वर्णित किया जा सकता है <ref name ="SharpeeRustBialek04"/>(सहसंबद्ध गाऊसी वितरण अण्डाकार रूप से सममित होते हैं, अर्थात एक रैखिक परिवर्तन द्वारा गोलाकार रूप से सममित बनाया जा सकता है, लेकिन सभी अण्डाकार सममित वितरण गाऊसी नहीं होते हैं)। यह गोलाकार समरूपता की तुलना में कमज़ोर स्थिति है।
Line 31: Line 34:
व्यवहार में, श्वेत एसटीए को नियमित करना (गणित) आवश्यक हो सकता है, क्योंकि श्वेतकरण उत्तेजना आयामों के साथ शोर को बढ़ाता है जो उत्तेजना द्वारा खराब रूप से खोजे जाते हैं (यानी, अक्ष जिसके साथ उत्तेजना में कम विचरण होता है)। इस समस्या का एक सामान्य दृष्टिकोण [[तिखोनोव नियमितीकरण]] है। रिज रिग्रेशन का उपयोग करके गणना की गई नियमित एसटीए को लिखा जा सकता है
व्यवहार में, श्वेत एसटीए को नियमित करना (गणित) आवश्यक हो सकता है, क्योंकि श्वेतकरण उत्तेजना आयामों के साथ शोर को बढ़ाता है जो उत्तेजना द्वारा खराब रूप से खोजे जाते हैं (यानी, अक्ष जिसके साथ उत्तेजना में कम विचरण होता है)। इस समस्या का एक सामान्य दृष्टिकोण [[तिखोनोव नियमितीकरण]] है। रिज रिग्रेशन का उपयोग करके गणना की गई नियमित एसटीए को लिखा जा सकता है
: <math>\mathrm{STA}_{ridge} = \tfrac{T}{n_{sp}} \left(X^TX + \lambda I\right)^{-1}X^T \mathbf{y},</math>
: <math>\mathrm{STA}_{ridge} = \tfrac{T}{n_{sp}} \left(X^TX + \lambda I\right)^{-1}X^T \mathbf{y},</math>
कहाँ <math>I</math> पहचान मैट्रिक्स को दर्शाता है और <math>\lambda</math> नियमितीकरण की मात्रा को नियंत्रित करने वाला रिज पैरामीटर है। इस प्रक्रिया की एक सरल बायेसियन व्याख्या है: रिज रिग्रेशन एसटीए तत्वों पर पूर्व लगाने के बराबर है जो कहता है कि वे आई.आई.डी. खींचे गए हैं। पहचान मैट्रिक्स के आनुपातिक सहप्रसरण के साथ शून्य-माध्य गाऊसी से पहले। रिज पैरामीटर इस पूर्व के व्युत्क्रम विचरण को सेट करता है, और आमतौर पर क्रॉस-वैलिडेशन (सांख्यिकी)|क्रॉस-वैलिडेशन या [[अनुभवजन्य बेयस विधि]] द्वारा फिट होता है।
कहाँ <math>I</math> पहचान आव्यूह  को दर्शाता है और <math>\lambda</math> नियमितीकरण की मात्रा को नियंत्रित करने वाला रिज पैरामीटर है। इस प्रक्रिया की एक सरल बायेसियन व्याख्या है: रिज रिग्रेशन एसटीए तत्वों पर पूर्व लगाने के बराबर है जो कहता है कि वे आई.आई.डी. खींचे गए हैं। पहचान आव्यूह  के आनुपातिक सहप्रसरण के साथ शून्य-माध्य गाऊसी से पहले। रिज पैरामीटर इस पूर्व के व्युत्क्रम विचरण को सेट करता है, और आमतौर पर क्रॉस-वैलिडेशन (सांख्यिकी)|क्रॉस-वैलिडेशन या [[अनुभवजन्य बेयस विधि]] द्वारा फिट होता है।


==सांख्यिकीय गुण==
==सांख्यिकीय गुण==

Revision as of 08:33, 2 August 2023

स्पाइक-ट्रिगर औसत (एसटीए) न्यूरॉन के समय-परिवर्तनशील प्रेरक प्रतिक्रिया की विशेषताओं का विश्लेषण करने के लिए एक उपकरण है जो समय-बदलते प्रेरक के प्रतिक्रिया में उत्पन्न स्पाइक का उपयोग करता है। एसटीए एक न्यूरॉन के ग्रहणशील क्षेत्र का का एक अनुमान प्रदान करता है जो एक रेखीय क्षेत्र के रूप में भी जाना जाता है। यह इलेक्ट्रोफिजियोलॉजी डेटा के विश्लेषण के लिए एक उपयुक्त तकनीक है। गणितीय रूप से, एसटीए स्पाइक से पहले की औसत उत्तेजना है।[1][2][3][4] एसटीए की गणना करने के लिए, प्रत्येक स्पाइक से पहले की समय विंडो में उत्तेजना निकाली जाती है, और परिणामी प्रेरको का औसत निकाला जाता है (आरेख देखें)। एसटीए न्यूरॉन के ग्रहणशील क्षेत्र का नि-पक्षीय अनुमान प्रदान करता है केवल जब प्रेरक वितरण समग्री गोलाकार रूपरेखीय होता है (उदाहरण के लिए, (उदाहरण के लिए, गॉसियन श्वेत शोर)।[3][5][6]

एसटीए का उपयोग रेटिनल गैंग्लियन कोशिकाओं, पार्श्व जीनिकुलेट नाभिक में न्यूरॉन्स और स्ट्रिएट कॉर्टेक्स (वी1) में सरल कोशिकाओ को चिह्नित करने के लिए किया गया है। इसका उपयोग रेखीय-अरेखीय-पॉइसन कैस्केड मॉडल (एलएनपी) प्रकार के मॉडल के रेखीय स्तर का अनुमान लगाने के लिए भी किया जा सकता है। यह तकनीक अनुलेखन लिप्यंतरण फैक्टर गतिविधि का अध्ययन करने के लिए भी प्रयोग किया गया है जो एकल कोशों में जीन नियंत्रण को कैसे नियंत्रित करती है।[7]

स्पाइक-ट्रिगर औसत को सामान्यतः "रिवर्स सहसंबंध" या "श्वेत शोर विश्लेषण" के रूप में भी जाना जाता है। एसटीए को वोल्टेरा कर्नल या वीनर कर्नल शृंखला विस्तार में पहली पदार्थ के रूप में भी परिचित जाना जाता है।[8] यह रैखिक प्रतिगमन से निकटता से संबंधित है, और सामान्य परिस्थितियों में इससे एक जैसा होता है।

गणितीय परिभाषा

मानक एसटीए

यदि समय-स्थानिक प्रेरक सदिश को दर्शाएं जो 'वें समय बिन के पूर्व आता है, और उस बिन में स्पाइक की गिनती को दर्शाता है। प्रेरक संवेगों का ध्यान रखते हुए, हम मान सकते हैं कि प्रेरक सदिश का शून्य मान अर्थात्, ). यदि नहीं, तो इसे प्रत्येक सदिश से औसत प्रेरक को घटाकर शून्य-माध्य में बदला जा सकता है। एसटीए निम्नलिखित दिया गया ह

यहाँ , स्पाइक्स की कुल संख्या।

यह समीकरण सरलतम रूप से आव्यूह रूप में व्यक्त किया जा सकता है: हम इसे इस तरह से लिख सकते हैं: चलो एक आव्यूह को निरूपित करें जिसका 'वीं पंक्ति प्रेरक सदिश है और एक कॉलम सदिश को निरूपित करें जिसका वां तत्व है . है तब एसटीए निम्नलिखित रूप में लिखा जा सकता है:

यह समीकरण सरलतम रूप से आव्यूह रूप में व्यक्त किया जा सकता है: हम इसे इस तरह से लिख सकते हैं:

आइये X एक आव्यूह को दर्शाएं जिसमें i वें पंक्ति प्रेरक वेक्टर x_{i}^{T} है, और \mathbf{y} एक स्तंभ वेक्टर को दर्शाएं जिसमें i वें तत्व y_{i} है। तब एसटीए निम्नलिखित रूप में लिखा जा सकता है:

सफ़ेद एसटीए

यदि उत्तेजना सफेद शोर नहीं है, बल्कि अंतरिक्ष या समय में गैर-शून्य सहसंबंध है, तो मानक एसटीए रैखिक ग्रहणशील क्षेत्र का एक पक्षपाती अनुमान प्रदान करता है।[5] इसलिए उत्तेजना सहप्रसरण आव्यूह के व्युत्क्रम द्वारा एसटीए को सफ़ेद करना उचित हो सकता है। यह स्थानिक निर्भरता के मुद्दे को हल करता है, हालांकि हम अभी भी मानते हैं कि उत्तेजना अस्थायी रूप से स्वतंत्र है। परिणामी अनुमानक को श्वेत एसटीए के रूप में जाना जाता है, जो कि दिया जाता है

जहां पहला पद कच्ची प्रेरको का व्युत्क्रम सहप्रसरण आव्यूह है और दूसरा मानक एसटीए है। आव्यूह नोटेशन में इसे लिखा जा सकता है

सफ़ेद एसटीए केवल तभी निष्पक्ष होता है जब प्रोत्साहन वितरण को सहसंबद्ध गाऊसी वितरण द्वारा वर्णित किया जा सकता है [6](सहसंबद्ध गाऊसी वितरण अण्डाकार रूप से सममित होते हैं, अर्थात एक रैखिक परिवर्तन द्वारा गोलाकार रूप से सममित बनाया जा सकता है, लेकिन सभी अण्डाकार सममित वितरण गाऊसी नहीं होते हैं)। यह गोलाकार समरूपता की तुलना में कमज़ोर स्थिति है।

सफ़ेद एसटीए स्पाइक ट्रेन के विरुद्ध उत्तेजना के रैखिक प्रतिगमन | रैखिक न्यूनतम-वर्ग प्रतिगमन के बराबर है।

नियमित एसटीए

व्यवहार में, श्वेत एसटीए को नियमित करना (गणित) आवश्यक हो सकता है, क्योंकि श्वेतकरण उत्तेजना आयामों के साथ शोर को बढ़ाता है जो उत्तेजना द्वारा खराब रूप से खोजे जाते हैं (यानी, अक्ष जिसके साथ उत्तेजना में कम विचरण होता है)। इस समस्या का एक सामान्य दृष्टिकोण तिखोनोव नियमितीकरण है। रिज रिग्रेशन का उपयोग करके गणना की गई नियमित एसटीए को लिखा जा सकता है

कहाँ पहचान आव्यूह को दर्शाता है और नियमितीकरण की मात्रा को नियंत्रित करने वाला रिज पैरामीटर है। इस प्रक्रिया की एक सरल बायेसियन व्याख्या है: रिज रिग्रेशन एसटीए तत्वों पर पूर्व लगाने के बराबर है जो कहता है कि वे आई.आई.डी. खींचे गए हैं। पहचान आव्यूह के आनुपातिक सहप्रसरण के साथ शून्य-माध्य गाऊसी से पहले। रिज पैरामीटर इस पूर्व के व्युत्क्रम विचरण को सेट करता है, और आमतौर पर क्रॉस-वैलिडेशन (सांख्यिकी)|क्रॉस-वैलिडेशन या अनुभवजन्य बेयस विधि द्वारा फिट होता है।

सांख्यिकीय गुण

एक लीनियर-नॉनलाइनियर-पॉइसन कैस्केड मॉडल मॉडल के अनुसार उत्पन्न प्रतिक्रियाओं के लिए, सफ़ेद एसटीए रैखिक ग्रहणशील क्षेत्र द्वारा फैलाए गए उप-स्थान का अनुमान प्रदान करता है। इस अनुमान के गुण इस प्रकार हैं

संगति

सफ़ेद एसटीए एक सुसंगत अनुमानक है, अर्थात, यह वास्तविक रैखिक उप-स्थान में परिवर्तित हो जाता है, यदि

  1. प्रोत्साहन वितरण अण्डाकार वितरण है, उदाहरण के लिए, गाऊसी वितरण। (बुसगैंग प्रमेय|बुसगैंग प्रमेय)
  2. अपेक्षित एसटीए शून्य नहीं है, यानी, गैर-रैखिकता स्पाइक-ट्रिगर प्रेरको में बदलाव लाती है।[5]


इष्टतमता

सफ़ेद एसटीए एक असिम्प्टोटिक रूप से कुशल अनुमानक है यदि

  1. प्रोत्साहन वितरण गॉसियन है
  2. न्यूरॉन का अरेखीय प्रतिक्रिया कार्य घातीय है, .[5]

मनमानी प्रेरको के लिए, एसटीए आम तौर पर सुसंगत या कुशल नहीं होता है। ऐसे मामलों के लिए, अधिकतम संभावना और पारस्परिक जानकारी|सूचना-आधारित अनुमानक [5][6][9] ऐसे विकसित किए गए हैं जो सुसंगत और कुशल दोनों हैं।

यह भी देखें

संदर्भ

  1. de Boer and Kuyper (1968) Triggered Correlation. IEEE Transact. Biomed. Eng., 15:169-179
  2. Marmarelis, P. Z. and Naka, K. (1972). White-noise analysis of a neuron chain: an application of the Wiener theory. Science, 175:1276-1278
  3. 3.0 3.1 Chichilnisky, E. J. (2001). A simple white noise analysis of neuronal light responses. Network: Computation in Neural Systems, 12:199-213
  4. Simoncelli, E. P., Paninski, L., Pillow, J. & Swartz, O. (2004). "Characterization of neural responses with stochastic stimuli". In M. Gazzaniga (Ed.) The Cognitive Neurosciences, III (pp. 327-338). MIT press.
  5. 5.0 5.1 5.2 5.3 5.4 Paninski, L. (2003). Convergence properties of some spike-triggered analysis techniques. Network: Computation in Neural Systems 14:437-464
  6. 6.0 6.1 6.2 Sharpee, T.O., Rust, N.C., & Bialek, W. (2004). Analyzing neural responses to natural signals: Maximally informative dimensions. Neural Computation 16:223-250
  7. Lin, Yihan (2015). "सापेक्ष पल्स टाइमिंग के मॉड्यूलेशन द्वारा कॉम्बिनेटोरियल जीन विनियमन". Nature. 527 (7576): 54–58. Bibcode:2015Natur.527...54L. doi:10.1038/nature15710. PMC 4870307. PMID 26466562.
  8. Lee and Schetzen (1965). Measurement of the Wiener kernels of a non- linear system by cross-correlation. International Journal of Control, First Series, 2:237-254
  9. Kouh M. & Sharpee, T.O. (2009). Estimating linear-nonlinear models using Rényi divergences, Network: Computation in Neural Systems 20(2): 49–68


बाहरी संबंध