कम्प्यूटेशनल श्रवण दृश्य विश्लेषण: Difference between revisions

From Vigyanwiki
(Created page with "कम्प्यूटेशनल श्रवण दृश्य विश्लेषण (CASA) कम्प्यूटेशनल साधनों द्वा...")
 
No edit summary
Line 3: Line 3:
==सिद्धांत==
==सिद्धांत==
चूंकि CASA श्रवण प्रणाली के कार्यात्मक भागों को मॉडल करने का कार्य करता है, इसलिए ज्ञात भौतिक मॉडल के संदर्भ में जैविक श्रवण प्रणाली के भागों को देखना आवश्यक है। तीन क्षेत्रों, बाहरी, मध्य और आंतरिक कान से मिलकर, श्रवण परिधि एक जटिल ट्रांसड्यूसर के रूप में कार्य करती है जो श्रवण तंत्रिका में ध्वनि कंपन को क्रिया क्षमता में परिवर्तित करती है। [[बाहरी कान]] में बाह्य कान, कर्ण नलिका और कर्णपटह शामिल होते हैं। बाहरी कान, एक ध्वनिक फ़नल की तरह, ध्वनि स्रोत का पता लगाने में मदद करता है।<ref name = "warren">Warren, R.(1999). ''Auditory Perception: A New Analysis and Synthesis''. New York: Cambridge University Press.</ref> कान नहर एक गुंजयमान ट्यूब (एक अंग पाइप की तरह) के रूप में कार्य करती है जो 2-5.5 किलोहर्ट्ज़ के बीच आवृत्तियों को बढ़ाती है और अधिकतम 11 डीबी का प्रवर्धन 4 किलोहर्ट्ज़ के आसपास होता है।<ref name = "wiener">Wiener, F.(1947), "On the diffraction of a progressive wave by the human head". ''Journal of the Acoustical Society of America'', '''19''', 143&ndash;146.</ref> सुनने के अंग के रूप में, [[कोक्लीअ]] में दो झिल्लियाँ होती हैं, रीस्नर और [[बेसिलर झिल्ली]]। बेसिलर झिल्ली विशिष्ट उत्तेजना आवृत्ति के माध्यम से ऑडियो उत्तेजनाओं की ओर बढ़ती है जो बेसिलर झिल्ली के एक विशेष क्षेत्र की गुंजयमान आवृत्ति से मेल खाती है। बेसिलर झिल्ली की गति आंतरिक बाल कोशिकाओं को एक दिशा में विस्थापित करती है, जो सर्पिल गैंग्लियन कोशिकाओं में एक्शन पोटेंशिअल के आधे-तरंग सुधारित सिग्नल को एनकोड करती है। इन कोशिकाओं के अक्षतंतु श्रवण तंत्रिका बनाते हैं, जो संशोधित उत्तेजना को कूटबद्ध करते हैं। श्रवण तंत्रिका प्रतिक्रियाएं बेसिलर झिल्ली के समान कुछ आवृत्तियों का चयन करती हैं। कम आवृत्तियों के लिए, फ़ाइबर चरण लॉकिंग प्रदर्शित करते हैं। उच्च श्रवण मार्ग केंद्रों में न्यूरॉन्स विशिष्ट उत्तेजना सुविधाओं, जैसे आवधिकता, ध्वनि तीव्रता, आयाम और आवृत्ति मॉड्यूलेशन के अनुरूप होते हैं।<ref name = "wangbrown06" />  
चूंकि CASA श्रवण प्रणाली के कार्यात्मक भागों को मॉडल करने का कार्य करता है, इसलिए ज्ञात भौतिक मॉडल के संदर्भ में जैविक श्रवण प्रणाली के भागों को देखना आवश्यक है। तीन क्षेत्रों, बाहरी, मध्य और आंतरिक कान से मिलकर, श्रवण परिधि एक जटिल ट्रांसड्यूसर के रूप में कार्य करती है जो श्रवण तंत्रिका में ध्वनि कंपन को क्रिया क्षमता में परिवर्तित करती है। [[बाहरी कान]] में बाह्य कान, कर्ण नलिका और कर्णपटह शामिल होते हैं। बाहरी कान, एक ध्वनिक फ़नल की तरह, ध्वनि स्रोत का पता लगाने में मदद करता है।<ref name = "warren">Warren, R.(1999). ''Auditory Perception: A New Analysis and Synthesis''. New York: Cambridge University Press.</ref> कान नहर एक गुंजयमान ट्यूब (एक अंग पाइप की तरह) के रूप में कार्य करती है जो 2-5.5 किलोहर्ट्ज़ के बीच आवृत्तियों को बढ़ाती है और अधिकतम 11 डीबी का प्रवर्धन 4 किलोहर्ट्ज़ के आसपास होता है।<ref name = "wiener">Wiener, F.(1947), "On the diffraction of a progressive wave by the human head". ''Journal of the Acoustical Society of America'', '''19''', 143&ndash;146.</ref> सुनने के अंग के रूप में, [[कोक्लीअ]] में दो झिल्लियाँ होती हैं, रीस्नर और [[बेसिलर झिल्ली]]। बेसिलर झिल्ली विशिष्ट उत्तेजना आवृत्ति के माध्यम से ऑडियो उत्तेजनाओं की ओर बढ़ती है जो बेसिलर झिल्ली के एक विशेष क्षेत्र की गुंजयमान आवृत्ति से मेल खाती है। बेसिलर झिल्ली की गति आंतरिक बाल कोशिकाओं को एक दिशा में विस्थापित करती है, जो सर्पिल गैंग्लियन कोशिकाओं में एक्शन पोटेंशिअल के आधे-तरंग सुधारित सिग्नल को एनकोड करती है। इन कोशिकाओं के अक्षतंतु श्रवण तंत्रिका बनाते हैं, जो संशोधित उत्तेजना को कूटबद्ध करते हैं। श्रवण तंत्रिका प्रतिक्रियाएं बेसिलर झिल्ली के समान कुछ आवृत्तियों का चयन करती हैं। कम आवृत्तियों के लिए, फ़ाइबर चरण लॉकिंग प्रदर्शित करते हैं। उच्च श्रवण मार्ग केंद्रों में न्यूरॉन्स विशिष्ट उत्तेजना सुविधाओं, जैसे आवधिकता, ध्वनि तीव्रता, आयाम और आवृत्ति मॉड्यूलेशन के अनुरूप होते हैं।<ref name = "wangbrown06" />  
[[ पश्च प्रांतस्था ]] के माध्यम से एएसए के न्यूरोएनाटोमिकल एसोसिएशन भी हैं, जिनमें पोस्टीरियर सुपीरियर टेम्पोरल लोब और [[ पश्च सिंगुलेट ]] शामिल हैं। अध्ययनों में पाया गया है कि अल्जाइमर रोग के रोगियों में एएसए और पृथक्करण और समूह संचालन में हानि प्रभावित होती है।<ref name = "goll">Goll, J., Kim, L. (2012), "Impairments of auditory scene analysis in Alzheimer's disease", ''Brain'' '''135 (1)''', 190&ndash;200.</ref>
[[ पश्च प्रांतस्था | पश्च प्रांतस्था]] के माध्यम से एएसए के न्यूरोएनाटोमिकल एसोसिएशन भी हैं, जिनमें पोस्टीरियर सुपीरियर टेम्पोरल लोब और [[ पश्च सिंगुलेट |पश्च सिंगुलेट]] शामिल हैं। अध्ययनों में पाया गया है कि अल्जाइमर रोग के रोगियों में एएसए और पृथक्करण और समूह संचालन में हानि प्रभावित होती है।<ref name = "goll">Goll, J., Kim, L. (2012), "Impairments of auditory scene analysis in Alzheimer's disease", ''Brain'' '''135 (1)''', 190&ndash;200.</ref>


 
== सिस्टम आर्किटेक्चर ==
==सिस्टम आर्किटेक्चर==


===कोक्लीग्राम===
===कोक्लीग्राम===
CASA प्रसंस्करण के पहले चरण के रूप में, कॉकलीग्राम इनपुट सिग्नल का समय-आवृत्ति प्रतिनिधित्व बनाता है। बाहरी और मध्य कान के घटकों की नकल करके, सिग्नल को विभिन्न आवृत्तियों में विभाजित किया जाता है जो स्वाभाविक रूप से कोक्लीअ और बाल कोशिकाओं द्वारा चुने जाते हैं। बेसिलर झिल्ली की आवृत्ति चयनात्मकता के कारण, झिल्ली को मॉडल करने के लिए एक [[ फ़िल्टर बैंक ]] का उपयोग किया जाता है, जिसमें प्रत्येक फिल्टर बेसिलर झिल्ली पर एक विशिष्ट बिंदु से जुड़ा होता है।<ref name = "wangbrown06" />
CASA प्रसंस्करण के पहले चरण के रूप में, कॉकलीग्राम इनपुट सिग्नल का समय-आवृत्ति प्रतिनिधित्व बनाता है। बाहरी और मध्य कान के घटकों की नकल करके, सिग्नल को विभिन्न आवृत्तियों में विभाजित किया जाता है जो स्वाभाविक रूप से कोक्लीअ और बाल कोशिकाओं द्वारा चुने जाते हैं। बेसिलर झिल्ली की आवृत्ति चयनात्मकता के कारण, झिल्ली को मॉडल करने के लिए एक [[ फ़िल्टर बैंक |फ़िल्टर बैंक]] का उपयोग किया जाता है, जिसमें प्रत्येक फिल्टर बेसिलर झिल्ली पर एक विशिष्ट बिंदु से जुड़ा होता है।<ref name = "wangbrown06" />


चूंकि बाल कोशिकाएं स्पाइक पैटर्न उत्पन्न करती हैं, इसलिए मॉडल के प्रत्येक फ़िल्टर को भी [[आवेग प्रतिक्रिया]] में समान स्पाइक उत्पन्न करना चाहिए। [[गामाटोन फ़िल्टर]] का उपयोग गामा फ़ंक्शन और टोन के उत्पाद के रूप में एक आवेग प्रतिक्रिया प्रदान करता है। गैमाटोन फ़िल्टर के आउटपुट को बेसिलर झिल्ली विस्थापन के माप के रूप में माना जा सकता है। अधिकांश CASA प्रणालियाँ स्पाइक-आधारित के बजाय श्रवण तंत्रिका में फायरिंग दर का प्रतिनिधित्व करती हैं। इसे प्राप्त करने के लिए, फ़िल्टर बैंक आउटपुट को अर्ध-तरंग में सुधारा जाता है और उसके बाद वर्गमूल को सुधारा जाता है। (अन्य मॉडल, जैसे स्वचालित लाभ नियंत्रक लागू किए गए हैं)। अर्ध-सुधारित तरंग बाल कोशिकाओं के विस्थापन मॉडल के समान है।
चूंकि बाल कोशिकाएं स्पाइक पैटर्न उत्पन्न करती हैं, इसलिए मॉडल के प्रत्येक फ़िल्टर को भी [[आवेग प्रतिक्रिया]] में समान स्पाइक उत्पन्न करना चाहिए। [[गामाटोन फ़िल्टर]] का उपयोग गामा फ़ंक्शन और टोन के उत्पाद के रूप में एक आवेग प्रतिक्रिया प्रदान करता है। गैमाटोन फ़िल्टर के आउटपुट को बेसिलर झिल्ली विस्थापन के माप के रूप में माना जा सकता है। अधिकांश CASA प्रणालियाँ स्पाइक-आधारित के बजाय श्रवण तंत्रिका में फायरिंग दर का प्रतिनिधित्व करती हैं। इसे प्राप्त करने के लिए, फ़िल्टर बैंक आउटपुट को अर्ध-तरंग में सुधारा जाता है और उसके बाद वर्गमूल को सुधारा जाता है। (अन्य मॉडल, जैसे स्वचालित लाभ नियंत्रक लागू किए गए हैं)। अर्ध-सुधारित तरंग बाल कोशिकाओं के विस्थापन मॉडल के समान है।
बाल कोशिकाओं के अतिरिक्त मॉडल में मेडीस हेयर सेल मॉडल शामिल है जो बाल कोशिका पारगमन को मॉडलिंग करके गैमाटोन फिल्टर बैंक के साथ जुड़ता है।<ref name = "meddis">Meddis, R., Hewitt, M., Shackleton, T. (1990). "Implementation details of a computational model of the inner hair-cell/auditory nerve synapse". ''Journal of the Acoustical Society of America''  '''87(4)''' 1813&ndash;1816.</ref> इस धारणा के आधार पर कि प्रत्येक बाल कोशिका के भीतर ट्रांसमीटर पदार्थ के तीन भंडार होते हैं, और ट्रांसमीटरों को बेसिलर झिल्ली के विस्थापन की डिग्री के अनुपात में जारी किया जाता है, रिलीज को तंत्रिका फाइबर में उत्पन्न स्पाइक की संभावना के बराबर किया जाता है। यह मॉडल CASA प्रणालियों में कई तंत्रिका प्रतिक्रियाओं जैसे कि सुधार, संपीड़न, सहज फायरिंग और अनुकूलन को दोहराता है।<ref name = "wangbrown06" />
बाल कोशिकाओं के अतिरिक्त मॉडल में मेडीस हेयर सेल मॉडल शामिल है जो बाल कोशिका पारगमन को मॉडलिंग करके गैमाटोन फिल्टर बैंक के साथ जुड़ता है।<ref name = "meddis">Meddis, R., Hewitt, M., Shackleton, T. (1990). "Implementation details of a computational model of the inner hair-cell/auditory nerve synapse". ''Journal of the Acoustical Society of America''  '''87(4)''' 1813&ndash;1816.</ref> इस धारणा के आधार पर कि प्रत्येक बाल कोशिका के भीतर ट्रांसमीटर पदार्थ के तीन भंडार होते हैं, और ट्रांसमीटरों को बेसिलर झिल्ली के विस्थापन की डिग्री के अनुपात में जारी किया जाता है, रिलीज को तंत्रिका फाइबर में उत्पन्न स्पाइक की संभावना के बराबर किया जाता है। यह मॉडल CASA प्रणालियों में कई तंत्रिका प्रतिक्रियाओं जैसे कि सुधार, संपीड़न, सहज फायरिंग और अनुकूलन को दोहराता है।<ref name = "wangbrown06" />


 
=== कोरलोग्राम ===
===कोरलोग्राम===
पिच सिद्धांत के 2 विद्यालयों को एकीकृत करके पिच धारणा का महत्वपूर्ण मॉडल:<ref name = "wangbrown06" />
पिच सिद्धांत के 2 विद्यालयों को एकीकृत करके पिच धारणा का महत्वपूर्ण मॉडल:<ref name = "wangbrown06" />


Line 21: Line 19:
* अस्थायी सिद्धांत (अनसुलझे हार्मोनिक्स की भूमिका पर जोर देते हुए)
* अस्थायी सिद्धांत (अनसुलझे हार्मोनिक्स की भूमिका पर जोर देते हुए)


कोरेलोग्राम की गणना आमतौर पर समय डोमेन में प्रत्येक फ़िल्टर चैनल के आउटपुट के लिए सिम्युलेटेड श्रवण तंत्रिका फायरिंग गतिविधि को स्वत: सहसंबद्ध करके की जाती है।<ref name = "wangbrown06" /> आवृत्ति में स्वत:सहसंबंध को एकत्रित करके, सारांश सहसंबंध में चोटियों की स्थिति कथित पिच से मेल खाती है।<ref name = "wangbrown06" />
कोरेलोग्राम की गणना आमतौर पर समय डोमेन में प्रत्येक फ़िल्टर चैनल के आउटपुट के लिए सिम्युलेटेड श्रवण तंत्रिका फायरिंग गतिविधि को स्वत: सहसंबद्ध करके की जाती है।<ref name = "wangbrown06" /> आवृत्ति में स्वत:सहसंबंध को एकत्रित करके, सारांश सहसंबंध में चोटियों की स्थिति कथित पिच से मेल खाती है।<ref name = "wangbrown06" />
 


===क्रॉस-कोरलोग्राम===
=== क्रॉस-कोरलोग्राम ===
क्योंकि कान अलग-अलग समय पर ऑडियो सिग्नल प्राप्त करते हैं, ध्वनि स्रोत को दोनों कानों से प्राप्त विलंब का उपयोग करके निर्धारित किया जा सकता है।<ref name = "jeffress">[[Lloyd A. Jeffress|Jeffress, L.A.]] (1948). "A place theory of sound localization". ''Journal of Comparative and Physiological Psychology'', '''41''' 35&ndash;39.</ref> बाएं और दाएं चैनलों (मॉडल के) से देरी को क्रॉस-सहसंबंधित करके, इनपुट सिग्नल में उनके अस्थायी स्थान के बावजूद, संयोगित चोटियों को समान स्थानीयकृत ध्वनि के रूप में वर्गीकृत किया जा सकता है।<ref name = "wangbrown06" />  
क्योंकि कान अलग-अलग समय पर ऑडियो सिग्नल प्राप्त करते हैं, ध्वनि स्रोत को दोनों कानों से प्राप्त विलंब का उपयोग करके निर्धारित किया जा सकता है।<ref name = "jeffress">[[Lloyd A. Jeffress|Jeffress, L.A.]] (1948). "A place theory of sound localization". ''Journal of Comparative and Physiological Psychology'', '''41''' 35&ndash;39.</ref> बाएं और दाएं चैनलों (मॉडल के) से देरी को क्रॉस-सहसंबंधित करके, इनपुट सिग्नल में उनके अस्थायी स्थान के बावजूद, संयोगित चोटियों को समान स्थानीयकृत ध्वनि के रूप में वर्गीकृत किया जा सकता है।<ref name = "wangbrown06" />  
श्रवण मध्य मस्तिष्क में न्यूरॉन्स की व्यवस्था के समानांतर, शारीरिक अध्ययनों के माध्यम से इंटरऑरल क्रॉस-सहसंबंध तंत्र के उपयोग का समर्थन किया गया है।<ref name = "yin">Yin, T., Chan, J. (1990). "Interaural time sensitivity in medial superior olive of cat"  ''Journal Neurophysiology'', '''64(2)''' 465&ndash;488.</ref>
श्रवण मध्य मस्तिष्क में न्यूरॉन्स की व्यवस्था के समानांतर, शारीरिक अध्ययनों के माध्यम से इंटरऑरल क्रॉस-सहसंबंध तंत्र के उपयोग का समर्थन किया गया है।<ref name = "yin">Yin, T., Chan, J. (1990). "Interaural time sensitivity in medial superior olive of cat"  ''Journal Neurophysiology'', '''64(2)''' 465&ndash;488.</ref>


 
=== समय-आवृत्ति मास्क ===
===समय-आवृत्ति मास्क===
ध्वनि स्रोत को अलग करने के लिए, CASA सिस्टम कॉकलीग्राम को मास्क कर देता है। यह मास्क, कभी-कभी एक [[वियना फिल्टर]], लक्ष्य स्रोत क्षेत्रों का वजन करता है और बाकी को दबा देता है।<ref name = "wangbrown06" />मुखौटे के पीछे की शारीरिक प्रेरणा श्रवण धारणा से उत्पन्न होती है जहां ध्वनि को तेज़ ध्वनि द्वारा अश्रव्य बना दिया जाता है।<ref name = "moore">Moore, B. (2003). ''An Introduction to the Psychology of Hearing'' (5th ed.). Academic Press, London.</ref>
ध्वनि स्रोत को अलग करने के लिए, CASA सिस्टम कॉकलीग्राम को मास्क कर देता है। यह मास्क, कभी-कभी एक [[वियना फिल्टर]], लक्ष्य स्रोत क्षेत्रों का वजन करता है और बाकी को दबा देता है।<ref name = "wangbrown06" />मुखौटे के पीछे की शारीरिक प्रेरणा श्रवण धारणा से उत्पन्न होती है जहां ध्वनि को तेज़ ध्वनि द्वारा अश्रव्य बना दिया जाता है।<ref name = "moore">Moore, B. (2003). ''An Introduction to the Psychology of Hearing'' (5th ed.). Academic Press, London.</ref>


 
=== पुनर्संश्लेषण ===
===पुनर्संश्लेषण===
एक पुनर्संश्लेषण मार्ग खंडों के समूह से एक ऑडियो सिग्नल का पुनर्निर्माण करता है। कोक्लीग्राम को उल्टा करके, उच्च गुणवत्ता वाले पुनर्संश्लेषित भाषण संकेत प्राप्त किए जा सकते हैं।<ref name = "wangbrown06" />
एक पुनर्संश्लेषण मार्ग खंडों के समूह से एक ऑडियो सिग्नल का पुनर्निर्माण करता है। कोक्लीग्राम को उल्टा करके, उच्च गुणवत्ता वाले पुनर्संश्लेषित भाषण संकेत प्राप्त किए जा सकते हैं।<ref name = "wangbrown06" />


 
== अनुप्रयोग ==
==अनुप्रयोग==


===मोनौरल कासा===
===मोनौरल कासा===
मोनोरल ध्वनि पृथक्करण सबसे पहले आवृत्ति के आधार पर आवाजों को अलग करने से शुरू हुआ। आवृत्ति के माध्यम से विभिन्न भाषण संकेतों को विभाजित करने पर आधारित कई प्रारंभिक विकास हुए।<ref name = "wangbrown06" />राज्य अंतरिक्ष मॉडल, बैच प्रसंस्करण और भविष्यवाणी-संचालित वास्तुकला के माध्यम से अनुकूलन को जोड़कर, अन्य मॉडलों ने इस प्रक्रिया का अनुसरण किया।<ref name = "Ellis">Ellis, D (1996). "Predication-Driven Computational Auditory Scene Analysis". PhD thesis, MIT Department of Electrical Engineering and Computer Science.</ref> CASA के उपयोग से ASR और वाक् पृथक्करण प्रणालियों की मजबूती में सुधार हुआ है।<ref name = "li">Li, P., Guan, Y. (2010). "Monaural speech separation based on MASVQ and CASA for robust speech recognition" ''Computer Speech and Language'', '''24''', 30&ndash;44.</ref>
मोनोरल ध्वनि पृथक्करण सबसे पहले आवृत्ति के आधार पर आवाजों को अलग करने से शुरू हुआ। आवृत्ति के माध्यम से विभिन्न भाषण संकेतों को विभाजित करने पर आधारित कई प्रारंभिक विकास हुए।<ref name = "wangbrown06" />राज्य अंतरिक्ष मॉडल, बैच प्रसंस्करण और भविष्यवाणी-संचालित वास्तुकला के माध्यम से अनुकूलन को जोड़कर, अन्य मॉडलों ने इस प्रक्रिया का अनुसरण किया।<ref name = "Ellis">Ellis, D (1996). "Predication-Driven Computational Auditory Scene Analysis". PhD thesis, MIT Department of Electrical Engineering and Computer Science.</ref> CASA के उपयोग से ASR और वाक् पृथक्करण प्रणालियों की मजबूती में सुधार हुआ है।<ref name = "li">Li, P., Guan, Y. (2010). "Monaural speech separation based on MASVQ and CASA for robust speech recognition" ''Computer Speech and Language'', '''24''', 30&ndash;44.</ref>


 
=== बिनाउरल CASA ===
===बिनाउरल CASA===
चूँकि CASA मानव श्रवण पथों का मॉडलिंग कर रहा है, इसलिए binaural CASA प्रणालियाँ 2 स्थानिक रूप से अलग किए गए माइक्रोफोनों को शामिल करके ध्वनि स्थानीयकरण, श्रवण समूहन और प्रतिध्वनि की मजबूती प्रदान करके मानव मॉडल को बेहतर बनाती हैं। क्रॉस-सहसंबंध के समान तरीकों के साथ, सिस्टम दोनों इनपुट माइक्रोफोन से लक्ष्य सिग्नल निकालने में सक्षम हैं।<ref name = "bodden">Bodden, M. (1993). "Modeling human sound-source locations and cocktail party effect" ''Acta Acustica''  '''1''' 43&ndash;55.</ref><ref name = "lyon">Lyon, R.(1983). "A computational model of binaural locations and separation".  ''Proceedings of the International Conference on Acoustics, Speech and Signal Processing'' 1148&ndash;1151.</ref>
चूँकि CASA मानव श्रवण पथों का मॉडलिंग कर रहा है, इसलिए binaural CASA प्रणालियाँ 2 स्थानिक रूप से अलग किए गए माइक्रोफोनों को शामिल करके ध्वनि स्थानीयकरण, श्रवण समूहन और प्रतिध्वनि की मजबूती प्रदान करके मानव मॉडल को बेहतर बनाती हैं। क्रॉस-सहसंबंध के समान तरीकों के साथ, सिस्टम दोनों इनपुट माइक्रोफोन से लक्ष्य सिग्नल निकालने में सक्षम हैं।<ref name = "bodden">Bodden, M. (1993). "Modeling human sound-source locations and cocktail party effect" ''Acta Acustica''  '''1''' 43&ndash;55.</ref><ref name = "lyon">Lyon, R.(1983). "A computational model of binaural locations and separation".  ''Proceedings of the International Conference on Acoustics, Speech and Signal Processing'' 1148&ndash;1151.</ref>


 
=== तंत्रिका कासा मॉडल ===
===तंत्रिका कासा मॉडल===
चूंकि जैविक श्रवण प्रणाली न्यूरॉन्स की गतिविधियों से गहराई से जुड़ी हुई है, CASA सिस्टम ने डिजाइन के भीतर तंत्रिका मॉडल को भी शामिल किया है। दो अलग-अलग मॉडल इस क्षेत्र के लिए आधार प्रदान करते हैं। माल्सबर्ग और श्नाइडर ने विभिन्न धाराओं (सिंक्रनाइज़ और डीसिंक्रोनाइज़्ड) की विशेषताओं का प्रतिनिधित्व करने के लिए ऑसिलेटर के साथ एक [[तंत्रिका नेटवर्क]] मॉडल का प्रस्ताव रखा।<ref name = "vdm">Von der Malsburg, C., Schneider, W. (1986). "A neural cocktail-party processor". ''Biological Cybernetics''  '''54''' 29&ndash;40.</ref> वांग ने समय-आवृत्ति के भीतर श्रवण दृश्य का प्रतिनिधित्व करने के लिए विलंब रेखाओं के साथ एक वैश्विक अवरोधक के साथ उत्तेजक इकाइयों के नेटवर्क का उपयोग करके एक मॉडल भी प्रस्तुत किया।<ref name = "wangseg">Wang, D.(1994). "Auditory stream segregation based on oscillatory correlation". ''Proceedings of the IEEE International Workshop on Neural Networks for Signal Processings'', 624&ndash;632.</ref><ref name = "wangprim">Wang, D.(1996), "Primitive auditory segregation based on oscillatory correlation". ''Cognitive Science'' '''20''', 409&ndash;456.</ref>
चूंकि जैविक श्रवण प्रणाली न्यूरॉन्स की गतिविधियों से गहराई से जुड़ी हुई है, CASA सिस्टम ने डिजाइन के भीतर तंत्रिका मॉडल को भी शामिल किया है। दो अलग-अलग मॉडल इस क्षेत्र के लिए आधार प्रदान करते हैं। माल्सबर्ग और श्नाइडर ने विभिन्न धाराओं (सिंक्रनाइज़ और डीसिंक्रोनाइज़्ड) की विशेषताओं का प्रतिनिधित्व करने के लिए ऑसिलेटर के साथ एक [[तंत्रिका नेटवर्क]] मॉडल का प्रस्ताव रखा।<ref name = "vdm">Von der Malsburg, C., Schneider, W. (1986). "A neural cocktail-party processor". ''Biological Cybernetics''  '''54''' 29&ndash;40.</ref> वांग ने समय-आवृत्ति के भीतर श्रवण दृश्य का प्रतिनिधित्व करने के लिए विलंब रेखाओं के साथ एक वैश्विक अवरोधक के साथ उत्तेजक इकाइयों के नेटवर्क का उपयोग करके एक मॉडल भी प्रस्तुत किया।<ref name = "wangseg">Wang, D.(1994). "Auditory stream segregation based on oscillatory correlation". ''Proceedings of the IEEE International Workshop on Neural Networks for Signal Processings'', 624&ndash;632.</ref><ref name = "wangprim">Wang, D.(1996), "Primitive auditory segregation based on oscillatory correlation". ''Cognitive Science'' '''20''', 409&ndash;456.</ref>


 
=== संगीतमय ऑडियो सिग्नल का विश्लेषण ===
===संगीतमय ऑडियो सिग्नल का विश्लेषण===
CASA प्रणालियों में विशिष्ट दृष्टिकोण भौतिक श्रवण प्रणाली की नकल करने के प्रयासों में, ध्वनि-स्रोतों को अलग-अलग घटकों में विभाजित करने से शुरू होता है। हालाँकि, इस बात के प्रमाण हैं कि मस्तिष्क आवश्यक रूप से ऑडियो इनपुट को अलग से संसाधित नहीं करता है, बल्कि मिश्रण के रूप में संसाधित करता है।<ref name = "bregman2">Bregman, A (1995). "Constraints on computational models of auditory scene analysis as derived from human perception". ''The Journal of the Acoustical Society of Japan (E)'', '''16(3)''', 133&ndash;136.</ref> ऑडियो सिग्नल को अलग-अलग घटकों में तोड़ने के बजाय, इनपुट को उच्च स्तरीय विवरणकों, जैसे कि कॉर्ड, बास और मेलोडी, बीट संरचना, और कोरस और वाक्यांश दोहराव द्वारा तोड़ दिया जाता है। ये वर्णनकर्ता वास्तविक दुनिया के परिदृश्यों में मोनोरल और बाइन्यूरल संकेतों के साथ कठिनाइयों का सामना करते हैं।<ref name = "wangbrown06" />साथ ही, इन वर्णनकर्ताओं का अनुमान संगीत इनपुट के सांस्कृतिक प्रभाव पर अत्यधिक निर्भर है। उदाहरण के लिए, पश्चिमी संगीत में, राग और बास टुकड़े की पहचान को प्रभावित करते हैं, साथ ही राग से कोर बनता है। मेलोडी और बास की आवृत्ति प्रतिक्रियाओं को अलग करके, मौलिक आवृत्ति का अनुमान लगाया जा सकता है और अंतर के लिए फ़िल्टर किया जा सकता है।<ref name = "Goto">Goto, M.(2004). "A real-time music-scene-description system: predominate-F0 estimation for detecting melody and bass lines in real-world audio signals". ''Speech Communication'', '''43''', 311&ndash;329.</ref> हार्मोनिक सामग्री का वर्णन करने वाली निम्न-स्तरीय विशेषताओं को निकालकर, पैटर्न पहचान के माध्यम से कॉर्ड डिटेक्शन को कार्यान्वित किया जा सकता है।<ref name = "zb">Zbigniew, R., Wieczorkowska, A.(2010). "Advances in Music Information Retrieval". ''Studies in Computational Intelligence'',  '''274''' 119&ndash;142.</ref> संगीत दृश्य विश्लेषण में उपयोग की जाने वाली तकनीकों को [[वाक् पहचान]] और अन्य पर्यावरणीय ध्वनियों पर भी लागू किया जा सकता है।<ref name = "masudak">Masuda-Katsuse, I (2001). "A new method for speech recognition in the presence of non-stationary, unpredictable and high-level noise". ''Proceedings Eurospeech'', 1119&ndash;1122.</ref> भविष्य के कार्यों में ऑडियो सिग्नल प्रोसेसिंग का टॉप-डाउन एकीकरण शामिल है, जैसे कि वास्तविक समय बीट-ट्रैकिंग प्रणाली और श्रवण मनोविज्ञान और शरीर विज्ञान के समावेश के साथ सिग्नल प्रोसेसिंग क्षेत्र से बाहर विस्तार करना।<ref name = "gotodrum">Goto, M (2001). "An Audio-based real-time beat tracking system for music with or without drum sounds". ''Journal of New Music Research'', '''30(2)''': 159&ndash;171.</ref>
CASA प्रणालियों में विशिष्ट दृष्टिकोण भौतिक श्रवण प्रणाली की नकल करने के प्रयासों में, ध्वनि-स्रोतों को अलग-अलग घटकों में विभाजित करने से शुरू होता है। हालाँकि, इस बात के प्रमाण हैं कि मस्तिष्क आवश्यक रूप से ऑडियो इनपुट को अलग से संसाधित नहीं करता है, बल्कि मिश्रण के रूप में संसाधित करता है।<ref name = "bregman2">Bregman, A (1995). "Constraints on computational models of auditory scene analysis as derived from human perception". ''The Journal of the Acoustical Society of Japan (E)'', '''16(3)''', 133&ndash;136.</ref> ऑडियो सिग्नल को अलग-अलग घटकों में तोड़ने के बजाय, इनपुट को उच्च स्तरीय विवरणकों, जैसे कि कॉर्ड, बास और मेलोडी, बीट संरचना, और कोरस और वाक्यांश दोहराव द्वारा तोड़ दिया जाता है। ये वर्णनकर्ता वास्तविक दुनिया के परिदृश्यों में मोनोरल और बाइन्यूरल संकेतों के साथ कठिनाइयों का सामना करते हैं।<ref name = "wangbrown06" />साथ ही, इन वर्णनकर्ताओं का अनुमान संगीत इनपुट के सांस्कृतिक प्रभाव पर अत्यधिक निर्भर है। उदाहरण के लिए, पश्चिमी संगीत में, राग और बास टुकड़े की पहचान को प्रभावित करते हैं, साथ ही राग से कोर बनता है। मेलोडी और बास की आवृत्ति प्रतिक्रियाओं को अलग करके, मौलिक आवृत्ति का अनुमान लगाया जा सकता है और अंतर के लिए फ़िल्टर किया जा सकता है।<ref name = "Goto">Goto, M.(2004). "A real-time music-scene-description system: predominate-F0 estimation for detecting melody and bass lines in real-world audio signals". ''Speech Communication'', '''43''', 311&ndash;329.</ref> हार्मोनिक सामग्री का वर्णन करने वाली निम्न-स्तरीय विशेषताओं को निकालकर, पैटर्न पहचान के माध्यम से कॉर्ड डिटेक्शन को कार्यान्वित किया जा सकता है।<ref name = "zb">Zbigniew, R., Wieczorkowska, A.(2010). "Advances in Music Information Retrieval". ''Studies in Computational Intelligence'',  '''274''' 119&ndash;142.</ref> संगीत दृश्य विश्लेषण में उपयोग की जाने वाली तकनीकों को [[वाक् पहचान]] और अन्य पर्यावरणीय ध्वनियों पर भी लागू किया जा सकता है।<ref name = "masudak">Masuda-Katsuse, I (2001). "A new method for speech recognition in the presence of non-stationary, unpredictable and high-level noise". ''Proceedings Eurospeech'', 1119&ndash;1122.</ref> भविष्य के कार्यों में ऑडियो सिग्नल प्रोसेसिंग का टॉप-डाउन एकीकरण शामिल है, जैसे कि वास्तविक समय बीट-ट्रैकिंग प्रणाली और श्रवण मनोविज्ञान और शरीर विज्ञान के समावेश के साथ सिग्नल प्रोसेसिंग क्षेत्र से बाहर विस्तार करना।<ref name = "gotodrum">Goto, M (2001). "An Audio-based real-time beat tracking system for music with or without drum sounds". ''Journal of New Music Research'', '''30(2)''': 159&ndash;171.</ref>


 
=== तंत्रिका अवधारणात्मक मॉडलिंग ===
===तंत्रिका अवधारणात्मक मॉडलिंग===
जबकि कई मॉडल ऑडियो सिग्नल को विभिन्न आवृत्तियों के एक जटिल संयोजन के रूप में मानते हैं, श्रवण प्रणाली के मॉडलिंग के लिए तंत्रिका घटकों पर भी विचार करने की आवश्यकता हो सकती है। एक समग्र प्रक्रिया अपनाकर, जहां एक धारा (फ़ीचर-आधारित ध्वनियों की) कई मस्तिष्क क्षेत्रों में वितरित न्यूरोनल गतिविधि के अनुरूप होती है, ध्वनि की धारणा को मैप और मॉडल किया जा सकता है। ऑडियो धारणा और मस्तिष्क के क्षेत्र को जोड़ने के लिए दो अलग-अलग समाधान प्रस्तावित किए गए हैं। श्रवण दृश्य में सुविधाओं और वस्तुओं के सभी संभावित संयोजनों को एन्कोड करने के लिए पदानुक्रमित कोडिंग कई कोशिकाओं को मॉडल करती है।<ref name = "decharm">deCharms, R., Merzenich, M, (1996). "Primary cortical representation of sounds by the coordination of action-potential timing". ''Nature'', '''381''', 610&ndash;613.</ref><ref name = "wangtime">Wang, D.(2005). "The time dimension of scene analysis". ''IEEE Transactions on Neural Networks'', '''16(6)''', 1401&ndash;1426.</ref> अस्थायी या दोलन संबंधी सहसंबंध, श्रवण विशेषताओं के बीच बंधन की स्थिति को एनकोड करने के लिए तंत्रिका दोलनों के बीच समकालिकता और वंशानुक्रम पर ध्यान केंद्रित करके बंधन समस्या को संबोधित करता है।<ref name = "wangbrown06" />ये दो समाधान स्थान कोडिंग और टेम्पोरल कोडिंग के बीच की पराजय के समान हैं। तंत्रिका घटकों के मॉडलिंग से चित्रण करते समय, एएसए की एक और घटना CASA प्रणालियों के साथ खेल में आती है: तंत्रिका तंत्र के मॉडलिंग की सीमा। CASA प्रणालियों के अध्ययन में कुछ ज्ञात तंत्रों का मॉडलिंग शामिल है, जैसे कि कॉक्लियर फ़िल्टरिंग की बैंडपास प्रकृति और यादृच्छिक श्रवण तंत्रिका फायरिंग पैटर्न, हालांकि, ये मॉडल नए तंत्र खोजने की ओर नहीं ले जा सकते हैं, बल्कि ज्ञात तंत्रों के उद्देश्य की समझ प्रदान करते हैं। .<ref name = "bregman">Bregman, A.(1990). ''Auditory Scene Analysis''. Cambridge: MIT Press.</ref>
जबकि कई मॉडल ऑडियो सिग्नल को विभिन्न आवृत्तियों के एक जटिल संयोजन के रूप में मानते हैं, श्रवण प्रणाली के मॉडलिंग के लिए तंत्रिका घटकों पर भी विचार करने की आवश्यकता हो सकती है। एक समग्र प्रक्रिया अपनाकर, जहां एक धारा (फ़ीचर-आधारित ध्वनियों की) कई मस्तिष्क क्षेत्रों में वितरित न्यूरोनल गतिविधि के अनुरूप होती है, ध्वनि की धारणा को मैप और मॉडल किया जा सकता है। ऑडियो धारणा और मस्तिष्क के क्षेत्र को जोड़ने के लिए दो अलग-अलग समाधान प्रस्तावित किए गए हैं। श्रवण दृश्य में सुविधाओं और वस्तुओं के सभी संभावित संयोजनों को एन्कोड करने के लिए पदानुक्रमित कोडिंग कई कोशिकाओं को मॉडल करती है।<ref name = "decharm">deCharms, R., Merzenich, M, (1996). "Primary cortical representation of sounds by the coordination of action-potential timing". ''Nature'', '''381''', 610&ndash;613.</ref><ref name = "wangtime">Wang, D.(2005). "The time dimension of scene analysis". ''IEEE Transactions on Neural Networks'', '''16(6)''', 1401&ndash;1426.</ref> अस्थायी या दोलन संबंधी सहसंबंध, श्रवण विशेषताओं के बीच बंधन की स्थिति को एनकोड करने के लिए तंत्रिका दोलनों के बीच समकालिकता और वंशानुक्रम पर ध्यान केंद्रित करके बंधन समस्या को संबोधित करता है।<ref name = "wangbrown06" />ये दो समाधान स्थान कोडिंग और टेम्पोरल कोडिंग के बीच की पराजय के समान हैं। तंत्रिका घटकों के मॉडलिंग से चित्रण करते समय, एएसए की एक और घटना CASA प्रणालियों के साथ खेल में आती है: तंत्रिका तंत्र के मॉडलिंग की सीमा। CASA प्रणालियों के अध्ययन में कुछ ज्ञात तंत्रों का मॉडलिंग शामिल है, जैसे कि कॉक्लियर फ़िल्टरिंग की बैंडपास प्रकृति और यादृच्छिक श्रवण तंत्रिका फायरिंग पैटर्न, हालांकि, ये मॉडल नए तंत्र खोजने की ओर नहीं ले जा सकते हैं, बल्कि ज्ञात तंत्रों के उद्देश्य की समझ प्रदान करते हैं। .<ref name = "bregman">Bregman, A.(1990). ''Auditory Scene Analysis''. Cambridge: MIT Press.</ref>


 
== यह भी देखें ==
==यह भी देखें==
* श्रवण दृश्य विश्लेषण
* श्रवण दृश्य विश्लेषण
* ब्लाइंड सिग्नल पृथक्करण
* ब्लाइंड सिग्नल पृथक्करण
Line 70: Line 59:
D. F. Rosenthal and H. G. Okuno (1998) Computational auditory scene analysis. Mahwah, NJ: Lawrence Erlbaum
D. F. Rosenthal and H. G. Okuno (1998) Computational auditory scene analysis. Mahwah, NJ: Lawrence Erlbaum


 
== संदर्भ ==
==संदर्भ==
{{reflist}}
{{reflist}}
{{Computer audition}}
{{Computer audition}}

Revision as of 21:53, 4 December 2023

कम्प्यूटेशनल श्रवण दृश्य विश्लेषण (CASA) कम्प्यूटेशनल साधनों द्वारा श्रवण दृश्य विश्लेषण का अध्ययन है।[1] संक्षेप में, CASA सिस्टम मशीन सुनने वाली प्रणालियाँ हैं जिनका उद्देश्य ध्वनि स्रोतों के मिश्रण को उसी तरह अलग करना है जैसे मानव श्रोता करते हैं। CASA अंधा संकेत पृथक्करण के क्षेत्र से इस मायने में भिन्न है कि यह (कम से कम कुछ हद तक) मानव श्रवण प्रणाली के तंत्र पर आधारित है, और इस प्रकार ध्वनिक वातावरण की दो से अधिक माइक्रोफोन रिकॉर्डिंग का उपयोग नहीं करता है। यह कॉकटेल पार्टी समस्या से संबंधित है.

सिद्धांत

चूंकि CASA श्रवण प्रणाली के कार्यात्मक भागों को मॉडल करने का कार्य करता है, इसलिए ज्ञात भौतिक मॉडल के संदर्भ में जैविक श्रवण प्रणाली के भागों को देखना आवश्यक है। तीन क्षेत्रों, बाहरी, मध्य और आंतरिक कान से मिलकर, श्रवण परिधि एक जटिल ट्रांसड्यूसर के रूप में कार्य करती है जो श्रवण तंत्रिका में ध्वनि कंपन को क्रिया क्षमता में परिवर्तित करती है। बाहरी कान में बाह्य कान, कर्ण नलिका और कर्णपटह शामिल होते हैं। बाहरी कान, एक ध्वनिक फ़नल की तरह, ध्वनि स्रोत का पता लगाने में मदद करता है।[2] कान नहर एक गुंजयमान ट्यूब (एक अंग पाइप की तरह) के रूप में कार्य करती है जो 2-5.5 किलोहर्ट्ज़ के बीच आवृत्तियों को बढ़ाती है और अधिकतम 11 डीबी का प्रवर्धन 4 किलोहर्ट्ज़ के आसपास होता है।[3] सुनने के अंग के रूप में, कोक्लीअ में दो झिल्लियाँ होती हैं, रीस्नर और बेसिलर झिल्ली। बेसिलर झिल्ली विशिष्ट उत्तेजना आवृत्ति के माध्यम से ऑडियो उत्तेजनाओं की ओर बढ़ती है जो बेसिलर झिल्ली के एक विशेष क्षेत्र की गुंजयमान आवृत्ति से मेल खाती है। बेसिलर झिल्ली की गति आंतरिक बाल कोशिकाओं को एक दिशा में विस्थापित करती है, जो सर्पिल गैंग्लियन कोशिकाओं में एक्शन पोटेंशिअल के आधे-तरंग सुधारित सिग्नल को एनकोड करती है। इन कोशिकाओं के अक्षतंतु श्रवण तंत्रिका बनाते हैं, जो संशोधित उत्तेजना को कूटबद्ध करते हैं। श्रवण तंत्रिका प्रतिक्रियाएं बेसिलर झिल्ली के समान कुछ आवृत्तियों का चयन करती हैं। कम आवृत्तियों के लिए, फ़ाइबर चरण लॉकिंग प्रदर्शित करते हैं। उच्च श्रवण मार्ग केंद्रों में न्यूरॉन्स विशिष्ट उत्तेजना सुविधाओं, जैसे आवधिकता, ध्वनि तीव्रता, आयाम और आवृत्ति मॉड्यूलेशन के अनुरूप होते हैं।[1] पश्च प्रांतस्था के माध्यम से एएसए के न्यूरोएनाटोमिकल एसोसिएशन भी हैं, जिनमें पोस्टीरियर सुपीरियर टेम्पोरल लोब और पश्च सिंगुलेट शामिल हैं। अध्ययनों में पाया गया है कि अल्जाइमर रोग के रोगियों में एएसए और पृथक्करण और समूह संचालन में हानि प्रभावित होती है।[4]

सिस्टम आर्किटेक्चर

कोक्लीग्राम

CASA प्रसंस्करण के पहले चरण के रूप में, कॉकलीग्राम इनपुट सिग्नल का समय-आवृत्ति प्रतिनिधित्व बनाता है। बाहरी और मध्य कान के घटकों की नकल करके, सिग्नल को विभिन्न आवृत्तियों में विभाजित किया जाता है जो स्वाभाविक रूप से कोक्लीअ और बाल कोशिकाओं द्वारा चुने जाते हैं। बेसिलर झिल्ली की आवृत्ति चयनात्मकता के कारण, झिल्ली को मॉडल करने के लिए एक फ़िल्टर बैंक का उपयोग किया जाता है, जिसमें प्रत्येक फिल्टर बेसिलर झिल्ली पर एक विशिष्ट बिंदु से जुड़ा होता है।[1]

चूंकि बाल कोशिकाएं स्पाइक पैटर्न उत्पन्न करती हैं, इसलिए मॉडल के प्रत्येक फ़िल्टर को भी आवेग प्रतिक्रिया में समान स्पाइक उत्पन्न करना चाहिए। गामाटोन फ़िल्टर का उपयोग गामा फ़ंक्शन और टोन के उत्पाद के रूप में एक आवेग प्रतिक्रिया प्रदान करता है। गैमाटोन फ़िल्टर के आउटपुट को बेसिलर झिल्ली विस्थापन के माप के रूप में माना जा सकता है। अधिकांश CASA प्रणालियाँ स्पाइक-आधारित के बजाय श्रवण तंत्रिका में फायरिंग दर का प्रतिनिधित्व करती हैं। इसे प्राप्त करने के लिए, फ़िल्टर बैंक आउटपुट को अर्ध-तरंग में सुधारा जाता है और उसके बाद वर्गमूल को सुधारा जाता है। (अन्य मॉडल, जैसे स्वचालित लाभ नियंत्रक लागू किए गए हैं)। अर्ध-सुधारित तरंग बाल कोशिकाओं के विस्थापन मॉडल के समान है। बाल कोशिकाओं के अतिरिक्त मॉडल में मेडीस हेयर सेल मॉडल शामिल है जो बाल कोशिका पारगमन को मॉडलिंग करके गैमाटोन फिल्टर बैंक के साथ जुड़ता है।[5] इस धारणा के आधार पर कि प्रत्येक बाल कोशिका के भीतर ट्रांसमीटर पदार्थ के तीन भंडार होते हैं, और ट्रांसमीटरों को बेसिलर झिल्ली के विस्थापन की डिग्री के अनुपात में जारी किया जाता है, रिलीज को तंत्रिका फाइबर में उत्पन्न स्पाइक की संभावना के बराबर किया जाता है। यह मॉडल CASA प्रणालियों में कई तंत्रिका प्रतिक्रियाओं जैसे कि सुधार, संपीड़न, सहज फायरिंग और अनुकूलन को दोहराता है।[1]

कोरलोग्राम

पिच सिद्धांत के 2 विद्यालयों को एकीकृत करके पिच धारणा का महत्वपूर्ण मॉडल:[1]

  • स्थान सिद्धांत (समाधान हार्मोनिक्स की भूमिका पर जोर देना)
  • अस्थायी सिद्धांत (अनसुलझे हार्मोनिक्स की भूमिका पर जोर देते हुए)

कोरेलोग्राम की गणना आमतौर पर समय डोमेन में प्रत्येक फ़िल्टर चैनल के आउटपुट के लिए सिम्युलेटेड श्रवण तंत्रिका फायरिंग गतिविधि को स्वत: सहसंबद्ध करके की जाती है।[1] आवृत्ति में स्वत:सहसंबंध को एकत्रित करके, सारांश सहसंबंध में चोटियों की स्थिति कथित पिच से मेल खाती है।[1]

क्रॉस-कोरलोग्राम

क्योंकि कान अलग-अलग समय पर ऑडियो सिग्नल प्राप्त करते हैं, ध्वनि स्रोत को दोनों कानों से प्राप्त विलंब का उपयोग करके निर्धारित किया जा सकता है।[6] बाएं और दाएं चैनलों (मॉडल के) से देरी को क्रॉस-सहसंबंधित करके, इनपुट सिग्नल में उनके अस्थायी स्थान के बावजूद, संयोगित चोटियों को समान स्थानीयकृत ध्वनि के रूप में वर्गीकृत किया जा सकता है।[1] श्रवण मध्य मस्तिष्क में न्यूरॉन्स की व्यवस्था के समानांतर, शारीरिक अध्ययनों के माध्यम से इंटरऑरल क्रॉस-सहसंबंध तंत्र के उपयोग का समर्थन किया गया है।[7]

समय-आवृत्ति मास्क

ध्वनि स्रोत को अलग करने के लिए, CASA सिस्टम कॉकलीग्राम को मास्क कर देता है। यह मास्क, कभी-कभी एक वियना फिल्टर, लक्ष्य स्रोत क्षेत्रों का वजन करता है और बाकी को दबा देता है।[1]मुखौटे के पीछे की शारीरिक प्रेरणा श्रवण धारणा से उत्पन्न होती है जहां ध्वनि को तेज़ ध्वनि द्वारा अश्रव्य बना दिया जाता है।[8]

पुनर्संश्लेषण

एक पुनर्संश्लेषण मार्ग खंडों के समूह से एक ऑडियो सिग्नल का पुनर्निर्माण करता है। कोक्लीग्राम को उल्टा करके, उच्च गुणवत्ता वाले पुनर्संश्लेषित भाषण संकेत प्राप्त किए जा सकते हैं।[1]

अनुप्रयोग

मोनौरल कासा

मोनोरल ध्वनि पृथक्करण सबसे पहले आवृत्ति के आधार पर आवाजों को अलग करने से शुरू हुआ। आवृत्ति के माध्यम से विभिन्न भाषण संकेतों को विभाजित करने पर आधारित कई प्रारंभिक विकास हुए।[1]राज्य अंतरिक्ष मॉडल, बैच प्रसंस्करण और भविष्यवाणी-संचालित वास्तुकला के माध्यम से अनुकूलन को जोड़कर, अन्य मॉडलों ने इस प्रक्रिया का अनुसरण किया।[9] CASA के उपयोग से ASR और वाक् पृथक्करण प्रणालियों की मजबूती में सुधार हुआ है।[10]

बिनाउरल CASA

चूँकि CASA मानव श्रवण पथों का मॉडलिंग कर रहा है, इसलिए binaural CASA प्रणालियाँ 2 स्थानिक रूप से अलग किए गए माइक्रोफोनों को शामिल करके ध्वनि स्थानीयकरण, श्रवण समूहन और प्रतिध्वनि की मजबूती प्रदान करके मानव मॉडल को बेहतर बनाती हैं। क्रॉस-सहसंबंध के समान तरीकों के साथ, सिस्टम दोनों इनपुट माइक्रोफोन से लक्ष्य सिग्नल निकालने में सक्षम हैं।[11][12]

तंत्रिका कासा मॉडल

चूंकि जैविक श्रवण प्रणाली न्यूरॉन्स की गतिविधियों से गहराई से जुड़ी हुई है, CASA सिस्टम ने डिजाइन के भीतर तंत्रिका मॉडल को भी शामिल किया है। दो अलग-अलग मॉडल इस क्षेत्र के लिए आधार प्रदान करते हैं। माल्सबर्ग और श्नाइडर ने विभिन्न धाराओं (सिंक्रनाइज़ और डीसिंक्रोनाइज़्ड) की विशेषताओं का प्रतिनिधित्व करने के लिए ऑसिलेटर के साथ एक तंत्रिका नेटवर्क मॉडल का प्रस्ताव रखा।[13] वांग ने समय-आवृत्ति के भीतर श्रवण दृश्य का प्रतिनिधित्व करने के लिए विलंब रेखाओं के साथ एक वैश्विक अवरोधक के साथ उत्तेजक इकाइयों के नेटवर्क का उपयोग करके एक मॉडल भी प्रस्तुत किया।[14][15]

संगीतमय ऑडियो सिग्नल का विश्लेषण

CASA प्रणालियों में विशिष्ट दृष्टिकोण भौतिक श्रवण प्रणाली की नकल करने के प्रयासों में, ध्वनि-स्रोतों को अलग-अलग घटकों में विभाजित करने से शुरू होता है। हालाँकि, इस बात के प्रमाण हैं कि मस्तिष्क आवश्यक रूप से ऑडियो इनपुट को अलग से संसाधित नहीं करता है, बल्कि मिश्रण के रूप में संसाधित करता है।[16] ऑडियो सिग्नल को अलग-अलग घटकों में तोड़ने के बजाय, इनपुट को उच्च स्तरीय विवरणकों, जैसे कि कॉर्ड, बास और मेलोडी, बीट संरचना, और कोरस और वाक्यांश दोहराव द्वारा तोड़ दिया जाता है। ये वर्णनकर्ता वास्तविक दुनिया के परिदृश्यों में मोनोरल और बाइन्यूरल संकेतों के साथ कठिनाइयों का सामना करते हैं।[1]साथ ही, इन वर्णनकर्ताओं का अनुमान संगीत इनपुट के सांस्कृतिक प्रभाव पर अत्यधिक निर्भर है। उदाहरण के लिए, पश्चिमी संगीत में, राग और बास टुकड़े की पहचान को प्रभावित करते हैं, साथ ही राग से कोर बनता है। मेलोडी और बास की आवृत्ति प्रतिक्रियाओं को अलग करके, मौलिक आवृत्ति का अनुमान लगाया जा सकता है और अंतर के लिए फ़िल्टर किया जा सकता है।[17] हार्मोनिक सामग्री का वर्णन करने वाली निम्न-स्तरीय विशेषताओं को निकालकर, पैटर्न पहचान के माध्यम से कॉर्ड डिटेक्शन को कार्यान्वित किया जा सकता है।[18] संगीत दृश्य विश्लेषण में उपयोग की जाने वाली तकनीकों को वाक् पहचान और अन्य पर्यावरणीय ध्वनियों पर भी लागू किया जा सकता है।[19] भविष्य के कार्यों में ऑडियो सिग्नल प्रोसेसिंग का टॉप-डाउन एकीकरण शामिल है, जैसे कि वास्तविक समय बीट-ट्रैकिंग प्रणाली और श्रवण मनोविज्ञान और शरीर विज्ञान के समावेश के साथ सिग्नल प्रोसेसिंग क्षेत्र से बाहर विस्तार करना।[20]

तंत्रिका अवधारणात्मक मॉडलिंग

जबकि कई मॉडल ऑडियो सिग्नल को विभिन्न आवृत्तियों के एक जटिल संयोजन के रूप में मानते हैं, श्रवण प्रणाली के मॉडलिंग के लिए तंत्रिका घटकों पर भी विचार करने की आवश्यकता हो सकती है। एक समग्र प्रक्रिया अपनाकर, जहां एक धारा (फ़ीचर-आधारित ध्वनियों की) कई मस्तिष्क क्षेत्रों में वितरित न्यूरोनल गतिविधि के अनुरूप होती है, ध्वनि की धारणा को मैप और मॉडल किया जा सकता है। ऑडियो धारणा और मस्तिष्क के क्षेत्र को जोड़ने के लिए दो अलग-अलग समाधान प्रस्तावित किए गए हैं। श्रवण दृश्य में सुविधाओं और वस्तुओं के सभी संभावित संयोजनों को एन्कोड करने के लिए पदानुक्रमित कोडिंग कई कोशिकाओं को मॉडल करती है।[21][22] अस्थायी या दोलन संबंधी सहसंबंध, श्रवण विशेषताओं के बीच बंधन की स्थिति को एनकोड करने के लिए तंत्रिका दोलनों के बीच समकालिकता और वंशानुक्रम पर ध्यान केंद्रित करके बंधन समस्या को संबोधित करता है।[1]ये दो समाधान स्थान कोडिंग और टेम्पोरल कोडिंग के बीच की पराजय के समान हैं। तंत्रिका घटकों के मॉडलिंग से चित्रण करते समय, एएसए की एक और घटना CASA प्रणालियों के साथ खेल में आती है: तंत्रिका तंत्र के मॉडलिंग की सीमा। CASA प्रणालियों के अध्ययन में कुछ ज्ञात तंत्रों का मॉडलिंग शामिल है, जैसे कि कॉक्लियर फ़िल्टरिंग की बैंडपास प्रकृति और यादृच्छिक श्रवण तंत्रिका फायरिंग पैटर्न, हालांकि, ये मॉडल नए तंत्र खोजने की ओर नहीं ले जा सकते हैं, बल्कि ज्ञात तंत्रों के उद्देश्य की समझ प्रदान करते हैं। .[23]

यह भी देखें

अग्रिम पठन

D. F. Rosenthal and H. G. Okuno (1998) Computational auditory scene analysis. Mahwah, NJ: Lawrence Erlbaum

संदर्भ

  1. 1.00 1.01 1.02 1.03 1.04 1.05 1.06 1.07 1.08 1.09 1.10 1.11 1.12 Wang, D. L. and Brown, G. J. (Eds.) (2006). Computational auditory scene analysis: Principles, algorithms and applications. IEEE Press/Wiley-Interscience
  2. Warren, R.(1999). Auditory Perception: A New Analysis and Synthesis. New York: Cambridge University Press.
  3. Wiener, F.(1947), "On the diffraction of a progressive wave by the human head". Journal of the Acoustical Society of America, 19, 143–146.
  4. Goll, J., Kim, L. (2012), "Impairments of auditory scene analysis in Alzheimer's disease", Brain 135 (1), 190–200.
  5. Meddis, R., Hewitt, M., Shackleton, T. (1990). "Implementation details of a computational model of the inner hair-cell/auditory nerve synapse". Journal of the Acoustical Society of America 87(4) 1813–1816.
  6. Jeffress, L.A. (1948). "A place theory of sound localization". Journal of Comparative and Physiological Psychology, 41 35–39.
  7. Yin, T., Chan, J. (1990). "Interaural time sensitivity in medial superior olive of cat" Journal Neurophysiology, 64(2) 465–488.
  8. Moore, B. (2003). An Introduction to the Psychology of Hearing (5th ed.). Academic Press, London.
  9. Ellis, D (1996). "Predication-Driven Computational Auditory Scene Analysis". PhD thesis, MIT Department of Electrical Engineering and Computer Science.
  10. Li, P., Guan, Y. (2010). "Monaural speech separation based on MASVQ and CASA for robust speech recognition" Computer Speech and Language, 24, 30–44.
  11. Bodden, M. (1993). "Modeling human sound-source locations and cocktail party effect" Acta Acustica 1 43–55.
  12. Lyon, R.(1983). "A computational model of binaural locations and separation". Proceedings of the International Conference on Acoustics, Speech and Signal Processing 1148–1151.
  13. Von der Malsburg, C., Schneider, W. (1986). "A neural cocktail-party processor". Biological Cybernetics 54 29–40.
  14. Wang, D.(1994). "Auditory stream segregation based on oscillatory correlation". Proceedings of the IEEE International Workshop on Neural Networks for Signal Processings, 624–632.
  15. Wang, D.(1996), "Primitive auditory segregation based on oscillatory correlation". Cognitive Science 20, 409–456.
  16. Bregman, A (1995). "Constraints on computational models of auditory scene analysis as derived from human perception". The Journal of the Acoustical Society of Japan (E), 16(3), 133–136.
  17. Goto, M.(2004). "A real-time music-scene-description system: predominate-F0 estimation for detecting melody and bass lines in real-world audio signals". Speech Communication, 43, 311–329.
  18. Zbigniew, R., Wieczorkowska, A.(2010). "Advances in Music Information Retrieval". Studies in Computational Intelligence, 274 119–142.
  19. Masuda-Katsuse, I (2001). "A new method for speech recognition in the presence of non-stationary, unpredictable and high-level noise". Proceedings Eurospeech, 1119–1122.
  20. Goto, M (2001). "An Audio-based real-time beat tracking system for music with or without drum sounds". Journal of New Music Research, 30(2): 159–171.
  21. deCharms, R., Merzenich, M, (1996). "Primary cortical representation of sounds by the coordination of action-potential timing". Nature, 381, 610–613.
  22. Wang, D.(2005). "The time dimension of scene analysis". IEEE Transactions on Neural Networks, 16(6), 1401–1426.
  23. Bregman, A.(1990). Auditory Scene Analysis. Cambridge: MIT Press.