स्पीकर डायराइजेशन: Difference between revisions
m (Abhishek moved page स्पीकर डायरी to स्पीकर डायराइजेशन without leaving a redirect) |
No edit summary |
||
Line 1: | Line 1: | ||
वक्ता डायरीकरण प्रत्येक वक्ता की पहचान के अनुसार मानव भाषण युक्त ऑडियो स्ट्रीम को सजातीय खंडों में विभाजित करने की प्रक्रिया है।<ref>{{cite arXiv |last1=Sahidullah |first1=Md |last2=Patino |first2=Jose |last3=Cornell |first3=Samuele |last4=Yin |first4=Ruiking |last5=Sivasankaran |first5=Sunit |last6=Bredin |first6=Herve |last7=Korshunov |first7=Pavel |last8=Brutti |first8=Alessio |last9=Serizel |first9=Romain |last10=Vincent |first10=Emmanuel |last11=Evans |first11=Nicholas |last12=Marcel |first12=Sebastien |last13=Squartini |first13=Stefano |last14=Barras |first14=Claude |date=2019-11-06 |title=The Speed Submission to DIHARD II: Contributions & Lessons Learned |class=eess.AS |eprint=1911.02388 }}</ref> यह ऑडियो स्ट्रीम को वक्ता घुमाव में संरचित करके एवं वक्ता की वास्तविक पहचान प्रदान करके, [[वाक् पहचान]] प्रणाली के साथ उपयोग किए जाने पर [[वक्ता मान्यता]] की पठनीयता को बढ़ा सकता है।<ref>{{cite web|first1=Xuan |last1=Zhu |first2=Claude |last2=Barras |first3=Sylvain |last3=Meignier |first4=Jean-Luc |last4=Gauvain |url=http://www.limsi.fr/Rapports/RS2005/chm/tlp/tlp1/index.html |title=स्पीकर पहचान का उपयोग करके बेहतर स्पीकर डायरीकरण|accessdate=2012-01-25}}</ref> इसका प्रयोग इस प्रश्न का उत्तर देने के लिए किया जाता है कि कौन कब बोला?<ref>{{cite web|first1=Margarita |last1=Kotti |first2=Vassiliki |last2=Moschou |first3=Constantine |last3=Kotropoulos |url=http://poseidon.csd.auth.gr/papers/PUBLISHED/JOURNAL/pdf/Kotti08a.pdf |title=अध्यक्ष विभाजन और क्लस्टरिंग|accessdate=2012-01-25}}</ref> वक्ता डायरीकरण वक्ता विभाजन एवं वक्ता समूह का संयोजन है। पूर्व का उद्देश्य ऑडियो स्ट्रीम में वक्ता परिवर्तन बिंदु अवलोकन करना है। दूसरा उद्देश्य वक्ता की विशेषताओं के आधार पर भाषण खंडों को साथ में समूहीकृत करना है। | |||
प्रसारण की बढ़ती संख्या के साथ, प्रत्येक वर्ष बैठक अभिलेख एवं स्वर-पत्र एकत्र किए जाते हैं, वक्ता डायरीकरण ने भाषण समुदाय द्वारा अधिक ध्यान आकर्षित किया है, जैसा कि टेलीफोन के लिए राष्ट्रीय मानक एवं प्रौद्योगिकी संस्थान के तत्वावधान में इसके लिए समर्पित विशिष्ट मूल्यांकन से प्रकट होता है। भाषण, प्रसारण समाचार एवं बैठकें होती है।<ref>{{cite web|url=http://www.itl.nist.gov/iad/mig/tests/rt/ |title=रिच ट्रांसक्रिप्शन मूल्यांकन परियोजना|publisher=[[National Institute of Standards and Technology|NIST]] |accessdate=2012-01-25}}</ref> | |||
== | == डायरीकरण प्रणाली के मुख्य प्रकार == | ||
वक्ता डायरीकरण में, सबसे लोकप्रिय तरीकों में से एक है प्रत्येक वक्ता को मॉडल करने के लिए एक [[मिश्रण मॉडल]] का उपयोग करना, एवं एक छिपे [[हिडन मार्कोव मॉडल]] की सहायता से प्रत्येक वक्ता के लिए संबंधित फ्रेम असाइन करना। क्लस्टरिंग परिदृश्य के दो मुख्य प्रकार हैं। पहला अब तक का सबसे लोकप्रिय है एवं इसे बॉटम-अप कहा जाता है। एल्गोरिथ्म क्लस्टर के उत्तराधिकार में पूर्ण ऑडियो सामग्री को विभाजित करना शुरू करता है एवं एक ऐसी स्थिति तक पहुंचने के लिए उत्तरोत्तर निरर्थक समूहों को मर्ज करने का प्रयास करता है जहां प्रत्येक क्लस्टर एक वास्तविक वक्ता से मेल खाता है। दूसरी क्लस्टरिंग रणनीति को [http://www.eurecom.fr/util/publidownload.fr.htm?id=3000 टॉप-डाउन] कहा जाता है एवं सभी ऑडियो डेटा के लिए एक सिंगल क्लस्टर से शुरू होता है एवं इसे तब तक विभाजित करने की कोशिश करता है जब तक कि वक्ताओं की संख्या के बराबर समूहों की संख्या तक पहुँचना। | |||
2010 की समीक्षा [http://www.icsi.berkeley.edu/~fractor/papers/friedland_146.pdf] पर देखी जा सकती है। | 2010 की समीक्षा [http://www.icsi.berkeley.edu/~fractor/papers/friedland_146.pdf] पर देखी जा सकती है। | ||
हाल ही में, [[कृत्रिम तंत्रिका नेटवर्क]] | हाल ही में, [[कृत्रिम तंत्रिका नेटवर्क]] एवं भारी [[ ग्राफ़िक्स प्रोसेसिंग युनिट ]] कंप्यूटिंग के कारण वक्ता डायरीकरण किया जाता है, जिससे कुछ अधिक कुशल डायरेक्शन एल्गोरिथम संभव हो जाता है।<ref>{{cite arXiv |last1=Park |first1=Tae Jin |last2=Kanda |first2=Naoyuki |last3=Dimitriadis |first3=Dimitrios |last4=Han |first4=Kyu J. |last5=Watanabe |first5=Shinji |last6=Narayanan |first6=Shrikanth |date=2021-11-26 |title=A Review of Speaker Diarization: Recent Advances with Deep Learning |class=eess.AS |eprint=2101.09624 }}</ref> | ||
== ओपन सोर्स | == ओपन सोर्स वक्ता डायरीकरण सॉफ्टवेयर == | ||
वक्ता डायरीकरण के लिए कुछ ओपन सोर्स पहलें हैं (वर्णानुक्रम में): | |||
*[[ALIZE स्पीकर डायराइजेशन]] (अंतिम रिपॉजिटरी अपडेट: जुलाई 2016; अंतिम रिलीज़: फरवरी 2013, संस्करण: 3.0): एलीज़ डायराइज़ेशन | *[[ALIZE स्पीकर डायराइजेशन|ALIZE वक्ता डायरीकरण]] (अंतिम रिपॉजिटरी अपडेट: जुलाई 2016; अंतिम रिलीज़: फरवरी 2013, संस्करण: 3.0): एलीज़ डायराइज़ेशन प्रणाली, एविग्नन विश्वविद्यालय में विकसित किया गया, एक रिलीज़ 2.0 उपलब्ध है [http://alize.univ-avignon। fr/svn/LIA_RAL/branches/2.0/LIA_SpkSeg/]। | ||
*[[ ऑडियो सेग ]] (अंतिम रिपॉजिटरी अपडेट: मई 2014; अंतिम रिलीज़: जनवरी 2010, संस्करण: 1.2): ऑडियोसेग एक टूलकिट है जो ऑडियो विभाजन | *[[ ऑडियो सेग ]] (अंतिम रिपॉजिटरी अपडेट: मई 2014; अंतिम रिलीज़: जनवरी 2010, संस्करण: 1.2): ऑडियोसेग एक टूलकिट है जो ऑडियो विभाजन एवं ऑडियो स्ट्रीम के वर्गीकरण के लिए समर्पित है। [http://gforge.inria.fr/projects/audioseg]। | ||
* pyannote.audio (अंतिम रिपॉजिटरी अपडेट: अगस्त 2022, अंतिम रिलीज़: जुलाई 2022, संस्करण: 2.0): pyannote.audio | * pyannote.audio (अंतिम रिपॉजिटरी अपडेट: अगस्त 2022, अंतिम रिलीज़: जुलाई 2022, संस्करण: 2.0): pyannote.audio वक्ता डायरीकरण के लिए पायथन में लिखा गया एक ओपन-सोर्स टूलकिट है। [https://github.com/pyannote/pyannote-audio]। | ||
*[[pyAudioAnalysis]] (अंतिम रिपॉजिटरी अपडेट: अगस्त 2018): पायथन ऑडियो एनालिसिस लाइब्रेरी: फ़ीचर एक्सट्रैक्शन, क्लासिफिकेशन, | *[[pyAudioAnalysis]] (अंतिम रिपॉजिटरी अपडेट: अगस्त 2018): पायथन ऑडियो एनालिसिस लाइब्रेरी: फ़ीचर एक्सट्रैक्शन, क्लासिफिकेशन, विभाजन एवं एप्लिकेशन [https://github.com/tyiannak/pyAudioAnalysis] | ||
*[[SHoUT]] (अंतिम अपडेट: दिसंबर 2010; संस्करण: 0.3): SHoUT एक सॉफ्टवेयर पैकेज है जिसे ट्वेंटी विश्वविद्यालय में वाक् पहचान अनुसंधान में सहायता के लिए विकसित किया गया है। SHoUT ट्वेंटी विश्वविद्यालय में वाक् पहचान अनुसंधान के लिए एक डच परिवर्णी शब्द है। [http://shout-toolkit.sourceforge.net/] | *[[SHoUT]] (अंतिम अपडेट: दिसंबर 2010; संस्करण: 0.3): SHoUT एक सॉफ्टवेयर पैकेज है जिसे ट्वेंटी विश्वविद्यालय में वाक् पहचान अनुसंधान में सहायता के लिए विकसित किया गया है। SHoUT ट्वेंटी विश्वविद्यालय में वाक् पहचान अनुसंधान के लिए एक डच परिवर्णी शब्द है। [http://shout-toolkit.sourceforge.net/] | ||
*[http://www-lium.univ-lemans.fr/diarization/doku.php/welcome|LIUM SpkDiarization] (अंतिम रिलीज़: सितंबर 2013, संस्करण: 8.4.1): LIUM_SpkDiarization टूल [http://www- lium.univ-lemans.fr/fr/content/liumspkdiarization]। | *[http://www-lium.univ-lemans.fr/diarization/doku.php/welcome|LIUM SpkDiarization] (अंतिम रिलीज़: सितंबर 2013, संस्करण: 8.4.1): LIUM_SpkDiarization टूल [http://www- lium.univ-lemans.fr/fr/content/liumspkdiarization]। |
Revision as of 11:15, 16 May 2023
वक्ता डायरीकरण प्रत्येक वक्ता की पहचान के अनुसार मानव भाषण युक्त ऑडियो स्ट्रीम को सजातीय खंडों में विभाजित करने की प्रक्रिया है।[1] यह ऑडियो स्ट्रीम को वक्ता घुमाव में संरचित करके एवं वक्ता की वास्तविक पहचान प्रदान करके, वाक् पहचान प्रणाली के साथ उपयोग किए जाने पर वक्ता मान्यता की पठनीयता को बढ़ा सकता है।[2] इसका प्रयोग इस प्रश्न का उत्तर देने के लिए किया जाता है कि कौन कब बोला?[3] वक्ता डायरीकरण वक्ता विभाजन एवं वक्ता समूह का संयोजन है। पूर्व का उद्देश्य ऑडियो स्ट्रीम में वक्ता परिवर्तन बिंदु अवलोकन करना है। दूसरा उद्देश्य वक्ता की विशेषताओं के आधार पर भाषण खंडों को साथ में समूहीकृत करना है।
प्रसारण की बढ़ती संख्या के साथ, प्रत्येक वर्ष बैठक अभिलेख एवं स्वर-पत्र एकत्र किए जाते हैं, वक्ता डायरीकरण ने भाषण समुदाय द्वारा अधिक ध्यान आकर्षित किया है, जैसा कि टेलीफोन के लिए राष्ट्रीय मानक एवं प्रौद्योगिकी संस्थान के तत्वावधान में इसके लिए समर्पित विशिष्ट मूल्यांकन से प्रकट होता है। भाषण, प्रसारण समाचार एवं बैठकें होती है।[4]
डायरीकरण प्रणाली के मुख्य प्रकार
वक्ता डायरीकरण में, सबसे लोकप्रिय तरीकों में से एक है प्रत्येक वक्ता को मॉडल करने के लिए एक मिश्रण मॉडल का उपयोग करना, एवं एक छिपे हिडन मार्कोव मॉडल की सहायता से प्रत्येक वक्ता के लिए संबंधित फ्रेम असाइन करना। क्लस्टरिंग परिदृश्य के दो मुख्य प्रकार हैं। पहला अब तक का सबसे लोकप्रिय है एवं इसे बॉटम-अप कहा जाता है। एल्गोरिथ्म क्लस्टर के उत्तराधिकार में पूर्ण ऑडियो सामग्री को विभाजित करना शुरू करता है एवं एक ऐसी स्थिति तक पहुंचने के लिए उत्तरोत्तर निरर्थक समूहों को मर्ज करने का प्रयास करता है जहां प्रत्येक क्लस्टर एक वास्तविक वक्ता से मेल खाता है। दूसरी क्लस्टरिंग रणनीति को टॉप-डाउन कहा जाता है एवं सभी ऑडियो डेटा के लिए एक सिंगल क्लस्टर से शुरू होता है एवं इसे तब तक विभाजित करने की कोशिश करता है जब तक कि वक्ताओं की संख्या के बराबर समूहों की संख्या तक पहुँचना। 2010 की समीक्षा [1] पर देखी जा सकती है।
हाल ही में, कृत्रिम तंत्रिका नेटवर्क एवं भारी ग्राफ़िक्स प्रोसेसिंग युनिट कंप्यूटिंग के कारण वक्ता डायरीकरण किया जाता है, जिससे कुछ अधिक कुशल डायरेक्शन एल्गोरिथम संभव हो जाता है।[5]
ओपन सोर्स वक्ता डायरीकरण सॉफ्टवेयर
वक्ता डायरीकरण के लिए कुछ ओपन सोर्स पहलें हैं (वर्णानुक्रम में):
- ALIZE वक्ता डायरीकरण (अंतिम रिपॉजिटरी अपडेट: जुलाई 2016; अंतिम रिलीज़: फरवरी 2013, संस्करण: 3.0): एलीज़ डायराइज़ेशन प्रणाली, एविग्नन विश्वविद्यालय में विकसित किया गया, एक रिलीज़ 2.0 उपलब्ध है fr/svn/LIA_RAL/branches/2.0/LIA_SpkSeg/।
- ऑडियो सेग (अंतिम रिपॉजिटरी अपडेट: मई 2014; अंतिम रिलीज़: जनवरी 2010, संस्करण: 1.2): ऑडियोसेग एक टूलकिट है जो ऑडियो विभाजन एवं ऑडियो स्ट्रीम के वर्गीकरण के लिए समर्पित है। [2]।
- pyannote.audio (अंतिम रिपॉजिटरी अपडेट: अगस्त 2022, अंतिम रिलीज़: जुलाई 2022, संस्करण: 2.0): pyannote.audio वक्ता डायरीकरण के लिए पायथन में लिखा गया एक ओपन-सोर्स टूलकिट है। [3]।
- pyAudioAnalysis (अंतिम रिपॉजिटरी अपडेट: अगस्त 2018): पायथन ऑडियो एनालिसिस लाइब्रेरी: फ़ीचर एक्सट्रैक्शन, क्लासिफिकेशन, विभाजन एवं एप्लिकेशन [4]
- SHoUT (अंतिम अपडेट: दिसंबर 2010; संस्करण: 0.3): SHoUT एक सॉफ्टवेयर पैकेज है जिसे ट्वेंटी विश्वविद्यालय में वाक् पहचान अनुसंधान में सहायता के लिए विकसित किया गया है। SHoUT ट्वेंटी विश्वविद्यालय में वाक् पहचान अनुसंधान के लिए एक डच परिवर्णी शब्द है। [5]
- SpkDiarization (अंतिम रिलीज़: सितंबर 2013, संस्करण: 8.4.1): LIUM_SpkDiarization टूल lium.univ-lemans.fr/fr/content/liumspkdiarization।
संदर्भ
- ↑ Sahidullah, Md; Patino, Jose; Cornell, Samuele; Yin, Ruiking; Sivasankaran, Sunit; Bredin, Herve; Korshunov, Pavel; Brutti, Alessio; Serizel, Romain; Vincent, Emmanuel; Evans, Nicholas; Marcel, Sebastien; Squartini, Stefano; Barras, Claude (2019-11-06). "The Speed Submission to DIHARD II: Contributions & Lessons Learned". arXiv:1911.02388 [eess.AS].
- ↑ Zhu, Xuan; Barras, Claude; Meignier, Sylvain; Gauvain, Jean-Luc. "स्पीकर पहचान का उपयोग करके बेहतर स्पीकर डायरीकरण". Retrieved 2012-01-25.
- ↑ Kotti, Margarita; Moschou, Vassiliki; Kotropoulos, Constantine. "अध्यक्ष विभाजन और क्लस्टरिंग" (PDF). Retrieved 2012-01-25.
- ↑ "रिच ट्रांसक्रिप्शन मूल्यांकन परियोजना". NIST. Retrieved 2012-01-25.
- ↑ Park, Tae Jin; Kanda, Naoyuki; Dimitriadis, Dimitrios; Han, Kyu J.; Watanabe, Shinji; Narayanan, Shrikanth (2021-11-26). "A Review of Speaker Diarization: Recent Advances with Deep Learning". arXiv:2101.09624 [eess.AS].
ग्रन्थसूची
- Anguera, Xavier (2012). "Speaker diarization: A review of recent research". IEEE Transactions on Audio, Speech, and Language Processing. IEEE/ACM Transactions on Audio, Speech, and Language Processing. 20 (2): 356–370. CiteSeerX 10.1.1.470.6149. doi:10.1109/TASL.2011.2125954. ISSN 1558-7916. S2CID 206602044.
- Beigi, Homayoon (2011). Fundamentals of Speaker Recognition. New York: Springer. ISBN 978-0-387-77591-3.