स्पाइक-ट्रिगर औसत
स्पाइक-ट्रिगर औसत (एसटीए) समय-भिन्न उत्तेजना के जवाब में उत्सर्जित कार्रवाई क्षमता का उपयोग करके न्यूरॉन के प्रतिक्रिया गुणों को चिह्नित करने के लिए एक उपकरण है। एसटीए न्यूरॉन के रैखिक ग्रहणशील क्षेत्र का अनुमान प्रदान करता है। यह इलेक्ट्रोफिजियोलॉजी डेटा के विश्लेषण के लिए एक उपयोगी तकनीक है।
फ़ाइल: स्पाइक-ट्रिगर औसत के लिए चित्रण आरेख। पीडीएफ|अंगूठे|आरेख दिखाता है कि एसटीए की गणना कैसे की जाती है। एक उत्तेजना (यहां यादृच्छिक पिक्सेल के साथ एक बिसात से युक्त) प्रस्तुत की जाती है, और न्यूरॉन से स्पाइक्स रिकॉर्ड किए जाते हैं। प्रत्येक स्पाइक से पहले कुछ समय विंडो में उत्तेजनाओं (यहां 3 समय डिब्बे शामिल हैं) का चयन किया जाता है (रंग बक्से) और फिर एसटीए प्राप्त करने के लिए औसत (यहां केवल स्पष्टता के लिए संक्षेपित किया गया है)। एसटीए इंगित करता है कि यह न्यूरॉन स्पाइक के ठीक पहले प्रकाश के एक उज्ज्वल स्थान के लिए चयनात्मक है, जो चेकरबोर्ड के ऊपरी बाएं कोने में स्थित है।
गणितीय रूप से, एसटीए स्पाइक से पहले की औसत उत्तेजना है।[1][2][3][4] एसटीए की गणना करने के लिए, प्रत्येक स्पाइक से पहले की समय विंडो में उत्तेजना निकाली जाती है, और परिणामी (स्पाइक-ट्रिगर) उत्तेजनाओं का औसत निकाला जाता है (आरेख देखें)। एसटीए न्यूरॉन के ग्रहणशील क्षेत्र के अनुमानक अनुमान का पूर्वाग्रह केवल तभी प्रदान करता है जब उत्तेजना वितरण गोलाकार रूप से सममित हो (उदाहरण के लिए, गाऊसी शोर)।[3][5][6] एसटीए का उपयोग रेटिना गैंग्लियन कोशिकाओं को चिह्नित करने के लिए किया गया है,[7][8] पार्श्व जीनिकुलेट नाभिक में न्यूरॉन्स और धारीदार प्रांतस्था (V1) में सरल कोशिकाएं।[9][10] इसका उपयोग लीनियर-नॉनलाइनियर-पॉइसन कैस्केड मॉडल|लीनियर-नॉनलाइनियर-पॉइसन (एलएनपी) कैस्केड मॉडल के रैखिक चरण का अनुमान लगाने के लिए किया जा सकता है।[4]दृष्टिकोण का उपयोग यह विश्लेषण करने के लिए भी किया गया है कि प्रतिलेखन कारक गतिशीलता व्यक्तिगत कोशिकाओं के भीतर जीन विनियमन को कैसे नियंत्रित करती है।[11] स्पाइक-ट्रिगर औसत को आमतौर पर "रिवर्स सहसंबंध" या "श्वेत शोर विश्लेषण|श्वेत-शोर विश्लेषण" के रूप में भी जाना जाता है। एसटीए को वोल्टेरा श्रृंखला या वीनर श्रृंखला श्रृंखला विस्तार में पहले शब्द के रूप में जाना जाता है।[12] यह रैखिक प्रतिगमन से निकटता से संबंधित है, और सामान्य परिस्थितियों में इसके समान है।
गणितीय परिभाषा
मानक एसटीए
होने देना पूर्ववर्ती स्थानिक-अस्थायी उत्तेजना वेक्टर को निरूपित करें 'वें समय बिन, और उस बिन में स्पाइक गिनती। उत्तेजनाओं का माध्य शून्य माना जा सकता है (अर्थात्, ). यदि नहीं, तो इसे प्रत्येक वेक्टर से माध्य उत्तेजना घटाकर शून्य-माध्य में बदला जा सकता है। एसटीए दिया गया है
कहाँ , स्पाइक्स की कुल संख्या।
यह समीकरण मैट्रिक्स नोटेशन में अधिक आसानी से व्यक्त किया गया है: चलो एक मैट्रिक्स को निरूपित करें जिसका 'वीं पंक्ति उत्तेजना वेक्टर है और जाने एक कॉलम वेक्टर को निरूपित करें जिसका वां तत्व है . फिर एसटीए लिखा जा सकता है
सफ़ेद एसटीए
यदि उत्तेजना सफेद शोर नहीं है, बल्कि अंतरिक्ष या समय में गैर-शून्य सहसंबंध है, तो मानक एसटीए रैखिक ग्रहणशील क्षेत्र का एक पक्षपाती अनुमान प्रदान करता है।[5] इसलिए उत्तेजना सहप्रसरण मैट्रिक्स के व्युत्क्रम द्वारा एसटीए को सफ़ेद करना उचित हो सकता है। यह स्थानिक निर्भरता के मुद्दे को हल करता है, हालांकि हम अभी भी मानते हैं कि उत्तेजना अस्थायी रूप से स्वतंत्र है। परिणामी अनुमानक को श्वेत एसटीए के रूप में जाना जाता है, जो कि दिया जाता है
जहां पहला पद कच्ची उत्तेजनाओं का व्युत्क्रम सहप्रसरण मैट्रिक्स है और दूसरा मानक एसटीए है। मैट्रिक्स नोटेशन में इसे लिखा जा सकता है
सफ़ेद एसटीए केवल तभी निष्पक्ष होता है जब प्रोत्साहन वितरण को सहसंबद्ध गाऊसी वितरण द्वारा वर्णित किया जा सकता है [6](सहसंबद्ध गाऊसी वितरण अण्डाकार रूप से सममित होते हैं, अर्थात एक रैखिक परिवर्तन द्वारा गोलाकार रूप से सममित बनाया जा सकता है, लेकिन सभी अण्डाकार सममित वितरण गाऊसी नहीं होते हैं)। यह गोलाकार समरूपता की तुलना में कमज़ोर स्थिति है।
सफ़ेद एसटीए स्पाइक ट्रेन के विरुद्ध उत्तेजना के रैखिक प्रतिगमन | रैखिक न्यूनतम-वर्ग प्रतिगमन के बराबर है।
नियमित एसटीए
व्यवहार में, श्वेत एसटीए को नियमित करना (गणित) आवश्यक हो सकता है, क्योंकि श्वेतकरण उत्तेजना आयामों के साथ शोर को बढ़ाता है जो उत्तेजना द्वारा खराब रूप से खोजे जाते हैं (यानी, अक्ष जिसके साथ उत्तेजना में कम विचरण होता है)। इस समस्या का एक सामान्य दृष्टिकोण तिखोनोव नियमितीकरण है। रिज रिग्रेशन का उपयोग करके गणना की गई नियमित एसटीए को लिखा जा सकता है
कहाँ पहचान मैट्रिक्स को दर्शाता है और नियमितीकरण की मात्रा को नियंत्रित करने वाला रिज पैरामीटर है। इस प्रक्रिया की एक सरल बायेसियन व्याख्या है: रिज रिग्रेशन एसटीए तत्वों पर पूर्व लगाने के बराबर है जो कहता है कि वे आई.आई.डी. खींचे गए हैं। पहचान मैट्रिक्स के आनुपातिक सहप्रसरण के साथ शून्य-माध्य गाऊसी से पहले। रिज पैरामीटर इस पूर्व के व्युत्क्रम विचरण को सेट करता है, और आमतौर पर क्रॉस-वैलिडेशन (सांख्यिकी)|क्रॉस-वैलिडेशन या अनुभवजन्य बेयस विधि द्वारा फिट होता है।
सांख्यिकीय गुण
एक लीनियर-नॉनलाइनियर-पॉइसन कैस्केड मॉडल मॉडल के अनुसार उत्पन्न प्रतिक्रियाओं के लिए, सफ़ेद एसटीए रैखिक ग्रहणशील क्षेत्र द्वारा फैलाए गए उप-स्थान का अनुमान प्रदान करता है। इस अनुमान के गुण इस प्रकार हैं
संगति
सफ़ेद एसटीए एक सुसंगत अनुमानक है, अर्थात, यह वास्तविक रैखिक उप-स्थान में परिवर्तित हो जाता है, यदि
- प्रोत्साहन वितरण अण्डाकार वितरण है, उदाहरण के लिए, गाऊसी वितरण। (बुसगैंग प्रमेय|बुसगैंग प्रमेय)
- अपेक्षित एसटीए शून्य नहीं है, यानी, गैर-रैखिकता स्पाइक-ट्रिगर उत्तेजनाओं में बदलाव लाती है।[5]
इष्टतमता
सफ़ेद एसटीए एक असिम्प्टोटिक रूप से कुशल अनुमानक है यदि
- प्रोत्साहन वितरण गॉसियन है
- न्यूरॉन का अरेखीय प्रतिक्रिया कार्य घातीय है, .[5]
मनमानी उत्तेजनाओं के लिए, एसटीए आम तौर पर सुसंगत या कुशल नहीं होता है। ऐसे मामलों के लिए, अधिकतम संभावना और पारस्परिक जानकारी|सूचना-आधारित अनुमानक [5][6][13] ऐसे विकसित किए गए हैं जो सुसंगत और कुशल दोनों हैं।
यह भी देखें
- स्पाइक-ट्रिगर सहप्रसरण
- लीनियर-नॉनलीनियर-पॉइसन कैस्केड मॉडल
- कटा हुआ उलटा प्रतिगमन
- रिवर्स सहसंबंध तकनीक
संदर्भ
- ↑ de Boer and Kuyper (1968) Triggered Correlation. IEEE Transact. Biomed. Eng., 15:169-179
- ↑ Marmarelis, P. Z. and Naka, K. (1972). White-noise analysis of a neuron chain: an application of the Wiener theory. Science, 175:1276-1278
- ↑ 3.0 3.1 Chichilnisky, E. J. (2001). A simple white noise analysis of neuronal light responses. Network: Computation in Neural Systems, 12:199-213
- ↑ 4.0 4.1 Simoncelli, E. P., Paninski, L., Pillow, J. & Swartz, O. (2004). "Characterization of neural responses with stochastic stimuli". In M. Gazzaniga (Ed.) The Cognitive Neurosciences, III (pp. 327-338). MIT press.
- ↑ 5.0 5.1 5.2 5.3 5.4 Paninski, L. (2003). Convergence properties of some spike-triggered analysis techniques. Network: Computation in Neural Systems 14:437-464
- ↑ 6.0 6.1 6.2 Sharpee, T.O., Rust, N.C., & Bialek, W. (2004). Analyzing neural responses to natural signals: Maximally informative dimensions. Neural Computation 16:223-250
- ↑ Sakai and Naka (1987).
- ↑ Meister, Pine, and Baylor (1994).
- ↑ Jones and Palmer (1987).
- ↑ McLean and Palmer (1989).
- ↑ Lin, Yihan (2015). "सापेक्ष पल्स टाइमिंग के मॉड्यूलेशन द्वारा कॉम्बिनेटोरियल जीन विनियमन". Nature. 527 (7576): 54–58. Bibcode:2015Natur.527...54L. doi:10.1038/nature15710. PMC 4870307. PMID 26466562.
- ↑ Lee and Schetzen (1965). Measurement of the Wiener kernels of a non- linear system by cross-correlation. International Journal of Control, First Series, 2:237-254
- ↑ Kouh M. & Sharpee, T.O. (2009). Estimating linear-nonlinear models using Rényi divergences, Network: Computation in Neural Systems 20(2): 49–68