वेक्टर परिमाणीकरण: Difference between revisions

From Vigyanwiki
(Created page with "{{short description|Classical quantization technique from signal processing}} {{Multiple issues| {{Missing information|something|date=February 2009}} {{Original research|date=...")
 
No edit summary
Line 1: Line 1:
{{short description|Classical quantization technique from signal processing}}
{{short description|Classical quantization technique from signal processing}}
{{Multiple issues|
वेक्टर परिमाणीकरण (VQ) [[ संकेत आगे बढ़ाना |संकेत आगे बढ़ाना]] से शास्त्रीय [[परिमाणीकरण (सिग्नल प्रोसेसिंग)]] तकनीक है जो प्रोटोटाइप वैक्टर के वितरण द्वारा संभाव्यता घनत्व कार्यों के मॉडलिंग की अनुमति देता है। इसका उपयोग मूल रूप से डेटा संपीड़न के लिए किया गया था। यह बिंदुओं के बड़े समूह (समन्वय वैक्टर) को उन समूहों में विभाजित करके काम करता है जिनके निकटतम बिंदुओं की संख्या लगभग समान होती है। प्रत्येक समूह को उसके [[केन्द्रक]] बिंदु द्वारा दर्शाया जाता है, जैसा कि [[k-साधन]] और कुछ अन्य [[क्लस्टर विश्लेषण]] एल्गोरिदम में होता है।
{{Missing information|something|date=February 2009}}
{{Original research|date=November 2016}}
}}
वेक्टर परिमाणीकरण (VQ) [[ संकेत आगे बढ़ाना ]] से एक शास्त्रीय [[परिमाणीकरण (सिग्नल प्रोसेसिंग)]] तकनीक है जो प्रोटोटाइप वैक्टर के वितरण द्वारा संभाव्यता घनत्व कार्यों के मॉडलिंग की अनुमति देता है। इसका उपयोग मूल रूप से डेटा संपीड़न के लिए किया गया था। यह बिंदुओं के एक बड़े समूह (समन्वय वैक्टर) को उन समूहों में विभाजित करके काम करता है जिनके निकटतम बिंदुओं की संख्या लगभग समान होती है। प्रत्येक समूह को उसके [[केन्द्रक]] बिंदु द्वारा दर्शाया जाता है, जैसा कि [[k-साधन]] और कुछ अन्य [[क्लस्टर विश्लेषण]] एल्गोरिदम में होता है।


वेक्टर परिमाणीकरण की घनत्व मिलान संपत्ति शक्तिशाली है, विशेष रूप से बड़े और उच्च-आयामी डेटा के घनत्व की पहचान करने के लिए। चूँकि डेटा बिंदुओं को उनके निकटतम सेंट्रोइड के सूचकांक द्वारा दर्शाया जाता है, आमतौर पर होने वाले डेटा में कम त्रुटि होती है, और दुर्लभ डेटा में उच्च त्रुटि होती है। यही कारण है कि VQ [[हानिपूर्ण डेटा संपीड़न]] के लिए उपयुक्त है। इसका उपयोग हानिपूर्ण डेटा सुधार और [[घनत्व अनुमान]] के लिए भी किया जा सकता है।
वेक्टर परिमाणीकरण की घनत्व मिलान संपत्ति शक्तिशाली है, विशेष रूप से बड़े और उच्च-आयामी डेटा के घनत्व की पहचान करने के लिए। चूँकि डेटा बिंदुओं को उनके निकटतम सेंट्रोइड के सूचकांक द्वारा दर्शाया जाता है, आमतौर पर होने वाले डेटा में कम त्रुटि होती है, और दुर्लभ डेटा में उच्च त्रुटि होती है। यही कारण है कि VQ [[हानिपूर्ण डेटा संपीड़न]] के लिए उपयुक्त है। इसका उपयोग हानिपूर्ण डेटा सुधार और [[घनत्व अनुमान]] के लिए भी किया जा सकता है।


वेक्टर परिमाणीकरण प्रतिस्पर्धी शिक्षण प्रतिमान पर आधारित है, इसलिए यह [[स्व-संगठित मानचित्र]] मॉडल और [[ ऑटोएन्कोडर ]] जैसे गहन शिक्षण एल्गोरिदम में उपयोग किए जाने वाले [[विरल कोडिंग]] मॉडल से निकटता से संबंधित है।
वेक्टर परिमाणीकरण प्रतिस्पर्धी शिक्षण प्रतिमान पर आधारित है, इसलिए यह [[स्व-संगठित मानचित्र]] मॉडल और [[ ऑटोएन्कोडर |ऑटोएन्कोडर]] जैसे गहन शिक्षण एल्गोरिदम में उपयोग किए जाने वाले [[विरल कोडिंग]] मॉडल से निकटता से संबंधित है।


== प्रशिक्षण ==
== प्रशिक्षण ==
वेक्टर परिमाणीकरण के लिए सबसे सरल प्रशिक्षण एल्गोरिदम है:<ref>{{cite book|title=प्राकृतिक संगणना का परिचय|author=Dana H. Ballard|date=2000|publisher=MIT Press|isbn=978-0-262-02420-4|page=189}}
वेक्टर परिमाणीकरण के लिए सबसे सरल प्रशिक्षण एल्गोरिदम है:<ref>{{cite book|title=प्राकृतिक संगणना का परिचय|author=Dana H. Ballard|date=2000|publisher=MIT Press|isbn=978-0-262-02420-4|page=189}}
</ref>
</ref>
# यादृच्छिक रूप से एक नमूना बिंदु चुनें
# यादृच्छिक रूप से नमूना बिंदु चुनें
# दूरी के एक छोटे से अंश द्वारा, निकटतम परिमाणीकरण वेक्टर सेंट्रोइड को इस नमूना बिंदु की ओर ले जाएं
# दूरी के छोटे से अंश द्वारा, निकटतम परिमाणीकरण वेक्टर सेंट्रोइड को इस नमूना बिंदु की ओर ले जाएं
# दोहराना
# दोहराना


एक अधिक परिष्कृत एल्गोरिदम घनत्व मिलान अनुमान में पूर्वाग्रह को कम करता है, और अतिरिक्त संवेदनशीलता पैरामीटर को शामिल करके यह सुनिश्चित करता है कि सभी बिंदुओं का उपयोग किया जाता है {{Citation needed|date=November 2016}}:
एक अधिक परिष्कृत एल्गोरिदम घनत्व मिलान अनुमान में पूर्वाग्रह को कम करता है, और अतिरिक्त संवेदनशीलता पैरामीटर को शामिल करके यह सुनिश्चित करता है कि सभी बिंदुओं का उपयोग किया जाता है {{Citation needed|date=November 2016}}:
# प्रत्येक केन्द्रक की संवेदनशीलता बढ़ाएँ <math>s_i</math> एक छोटी राशि से
# प्रत्येक केन्द्रक की संवेदनशीलता बढ़ाएँ <math>s_i</math> छोटी राशि से
# एक नमूना बिंदु चुनें <math>P</math> बिना सोचे समझे
# एक नमूना बिंदु चुनें <math>P</math> बिना सोचे समझे
# प्रत्येक परिमाणीकरण वेक्टर केन्द्रक के लिए <math>c_i</math>, होने देना <math>d(P, c_i)</math> की दूरी को निरूपित करें <math>P</math> और <math>c_i</math>
# प्रत्येक परिमाणीकरण वेक्टर केन्द्रक के लिए <math>c_i</math>, होने देना <math>d(P, c_i)</math> की दूरी को निरूपित करें <math>P</math> और <math>c_i</math>
# केन्द्रक ज्ञात कीजिए <math>c_i</math> जिसके लिए <math>d(P, c_i) - s_i</math> सबसे छोटा है
# केन्द्रक ज्ञात कीजिए <math>c_i</math> जिसके लिए <math>d(P, c_i) - s_i</math> सबसे छोटा है
# कदम <math>c_i</math> की ओर <math>P</math> दूरी के एक छोटे से अंश से
# कदम <math>c_i</math> की ओर <math>P</math> दूरी के छोटे से अंश से
# तय करना <math>s_i</math> शून्य करने के लिए
# तय करना <math>s_i</math> शून्य करने के लिए
# दोहराना
# दोहराना


अभिसरण उत्पन्न करने के लिए कूलिंग शेड्यूल का उपयोग करना वांछनीय है: [[ तैयार किए हुयी धातु पे पानी चढाने की कला ]] देखें। एक अन्य (सरल) विधि लिंडे-बुज़ो-ग्रे एल्गोरिदम है जो [[ K- का अर्थ है क्लस्टरिंग ]]|के-मीन्स पर आधारित है।
अभिसरण उत्पन्न करने के लिए कूलिंग शेड्यूल का उपयोग करना वांछनीय है: [[ तैयार किए हुयी धातु पे पानी चढाने की कला |तैयार किए हुयी धातु पे पानी चढाने की कला]] देखें। अन्य (सरल) विधि लिंडे-बुज़ो-ग्रे एल्गोरिदम है जो [[ K- का अर्थ है क्लस्टरिंग |K- का अर्थ है क्लस्टरिंग]] |के-मीन्स पर आधारित है।


एल्गोरिदम को डेटा सेट से यादृच्छिक बिंदुओं को चुनने के बजाय 'लाइव' डेटा के साथ पुनरावृत्त रूप से अद्यतन किया जा सकता है, लेकिन यदि डेटा कई नमूनों पर अस्थायी रूप से सहसंबद्ध है तो यह कुछ पूर्वाग्रह पेश करेगा।
एल्गोरिदम को डेटा सेट से यादृच्छिक बिंदुओं को चुनने के बजाय 'लाइव' डेटा के साथ पुनरावृत्त रूप से अद्यतन किया जा सकता है, लेकिन यदि डेटा कई नमूनों पर अस्थायी रूप से सहसंबद्ध है तो यह कुछ पूर्वाग्रह पेश करेगा।
Line 40: Line 36:
=== डेटा संपीड़न में उपयोग ===
=== डेटा संपीड़न में उपयोग ===


[[सदिश स्थल]]िमाणीकरण, जिसे ब्लॉक परिमाणीकरण या पैटर्न मिलान परिमाणीकरण भी कहा जाता है, अक्सर हानिपूर्ण डेटा संपीड़न में उपयोग किया जाता है। यह एक बहुआयामी वेक्टर स्थान से मूल्यों को निचले आयाम के एक असतत [[रैखिक उपस्थान]] से मूल्यों के एक सीमित सेट में एन्कोडिंग द्वारा काम करता है। निचले-स्थान वाले वेक्टर को कम संग्रहण स्थान की आवश्यकता होती है, इसलिए डेटा संपीड़ित होता है। वेक्टर परिमाणीकरण की घनत्व मिलान संपत्ति के कारण, संपीड़ित डेटा में त्रुटियां होती हैं जो घनत्व के व्युत्क्रमानुपाती होती हैं।
[[सदिश स्थल]]िमाणीकरण, जिसे ब्लॉक परिमाणीकरण या पैटर्न मिलान परिमाणीकरण भी कहा जाता है, अक्सर हानिपूर्ण डेटा संपीड़न में उपयोग किया जाता है। यह बहुआयामी वेक्टर स्थान से मूल्यों को निचले आयाम के असतत [[रैखिक उपस्थान]] से मूल्यों के सीमित सेट में एन्कोडिंग द्वारा काम करता है। निचले-स्थान वाले वेक्टर को कम संग्रहण स्थान की आवश्यकता होती है, इसलिए डेटा संपीड़ित होता है। वेक्टर परिमाणीकरण की घनत्व मिलान संपत्ति के कारण, संपीड़ित डेटा में त्रुटियां होती हैं जो घनत्व के व्युत्क्रमानुपाती होती हैं।


परिवर्तन आमतौर पर [[प्रक्षेपण (गणित)]] या [[कोडबुक]] का उपयोग करके किया जाता है। कुछ मामलों में, एक कोडबुक का उपयोग आउटपुट के रूप में एक [[उपसर्ग कोड]]ित चर-लंबाई एन्कोडेड मान उत्पन्न करके, उसी चरण में असतत मान को [[एन्ट्रापी कोड]] करने के लिए भी किया जा सकता है।
परिवर्तन आमतौर पर [[प्रक्षेपण (गणित)]] या [[कोडबुक]] का उपयोग करके किया जाता है। कुछ मामलों में, कोडबुक का उपयोग आउटपुट के रूप में [[उपसर्ग कोड]]ित चर-लंबाई एन्कोडेड मान उत्पन्न करके, उसी चरण में असतत मान को [[एन्ट्रापी कोड]] करने के लिए भी किया जा सकता है।


अलग-अलग आयाम स्तरों के सेट को प्रत्येक नमूने को अलग से परिमाणित करने के बजाय संयुक्त रूप से परिमाणित किया जाता है। एक k-आयामी वेक्टर पर विचार करें <math>[x_1,x_2,...,x_k]</math> आयाम स्तर का. इसे एन-डायमेंशनल वैक्टर के सेट से निकटतम मिलान वाले वेक्टर को चुनकर संपीड़ित किया जाता है <math>[y_1,y_2,...,y_n]</math>, n < k के साथ।
अलग-अलग आयाम स्तरों के सेट को प्रत्येक नमूने को अलग से परिमाणित करने के बजाय संयुक्त रूप से परिमाणित किया जाता है। k-आयामी वेक्टर पर विचार करें <math>[x_1,x_2,...,x_k]</math> आयाम स्तर का. इसे एन-डायमेंशनल वैक्टर के सेट से निकटतम मिलान वाले वेक्टर को चुनकर संपीड़ित किया जाता है <math>[y_1,y_2,...,y_n]</math>, n < k के साथ।


एन-आयामी वेक्टर के सभी संभावित संयोजन <math>[y_1,y_2,...,y_n]</math> उस सदिश समष्टि का निर्माण करें जिससे सभी परिमाणित सदिश संबंधित हों।
एन-आयामी वेक्टर के सभी संभावित संयोजन <math>[y_1,y_2,...,y_n]</math> उस सदिश समष्टि का निर्माण करें जिससे सभी परिमाणित सदिश संबंधित हों।
Line 69: Line 65:
* [[ Indeo ]]
* [[ Indeo ]]
* [[माइक्रोसॉफ्ट वीडियो 1]]
* [[माइक्रोसॉफ्ट वीडियो 1]]
* क्विकटाइम#क्विकटाइम 1.x: [[एप्पल वीडियो]] (आरपीजेडए) और [[ क्विकटाइम ग्राफ़िक्स कोडेक ]] (एसएमसी)
* क्विकटाइम#क्विकटाइम 1.x: [[एप्पल वीडियो]] (आरपीजेडए) और [[ क्विकटाइम ग्राफ़िक्स कोडेक |क्विकटाइम ग्राफ़िक्स कोडेक]] (एसएमसी)
* [[सोरेनसन कोडेक]] SVQ1 और SVQ3
* [[सोरेनसन कोडेक]] SVQ1 और SVQ3
* [[स्मैकर वीडियो]]
* [[स्मैकर वीडियो]]
Line 98: Line 94:
हाल ही में इसका उपयोग कुशल [[निकटतम पड़ोसी खोज]] के लिए भी किया गया है
हाल ही में इसका उपयोग कुशल [[निकटतम पड़ोसी खोज]] के लिए भी किया गया है
  <ref>{{cite journal|author=H. Jegou |author2=M. Douze |author3=C. Schmid|title=निकटतम पड़ोसी खोज के लिए उत्पाद परिमाणीकरण|journal=IEEE Transactions on Pattern Analysis and Machine Intelligence|year=2011|volume=33|issue=1|pages=117–128|doi=10.1109/TPAMI.2010.57|pmid=21088323 |url=http://hal.archives-ouvertes.fr/docs/00/51/44/62/PDF/paper_hal.pdf |archive-url=https://web.archive.org/web/20111217142048/http://hal.archives-ouvertes.fr/docs/00/51/44/62/PDF/paper_hal.pdf |archive-date=2011-12-17 |url-status=live|citeseerx=10.1.1.470.8573 |s2cid=5850884 }}</ref>
  <ref>{{cite journal|author=H. Jegou |author2=M. Douze |author3=C. Schmid|title=निकटतम पड़ोसी खोज के लिए उत्पाद परिमाणीकरण|journal=IEEE Transactions on Pattern Analysis and Machine Intelligence|year=2011|volume=33|issue=1|pages=117–128|doi=10.1109/TPAMI.2010.57|pmid=21088323 |url=http://hal.archives-ouvertes.fr/docs/00/51/44/62/PDF/paper_hal.pdf |archive-url=https://web.archive.org/web/20111217142048/http://hal.archives-ouvertes.fr/docs/00/51/44/62/PDF/paper_hal.pdf |archive-date=2011-12-17 |url-status=live|citeseerx=10.1.1.470.8573 |s2cid=5850884 }}</ref>
और ऑन-लाइन हस्ताक्षर पहचान।<ref>{{cite journal|last=Faundez-Zanuy|first=Marcos|title=VQ-DTW पर आधारित ऑफ़लाइन और ऑन-लाइन हस्ताक्षर पहचान|journal=Pattern Recognition|year=2007|volume=40|issue=3|pages=981–992|doi=10.1016/j.patcog.2006.06.007}}</ref> पैटर्न पहचान अनुप्रयोगों में, इस उपयोगकर्ता के ध्वनिक वैक्टर का उपयोग करके प्रत्येक वर्ग (प्रत्येक वर्ग बायोमेट्रिक अनुप्रयोगों में एक उपयोगकर्ता होता है) के लिए एक कोडबुक का निर्माण किया जाता है। परीक्षण चरण में प्रशिक्षण चरण में प्राप्त कोडबुक के पूरे सेट के साथ परीक्षण सिग्नल के परिमाणीकरण विरूपण पर काम किया जाता है। कोडबुक जो सबसे छोटी वेक्टर परिमाणीकरण विकृति प्रदान करती है, पहचाने गए उपयोगकर्ता को इंगित करती है।
और ऑन-लाइन हस्ताक्षर पहचान।<ref>{{cite journal|last=Faundez-Zanuy|first=Marcos|title=VQ-DTW पर आधारित ऑफ़लाइन और ऑन-लाइन हस्ताक्षर पहचान|journal=Pattern Recognition|year=2007|volume=40|issue=3|pages=981–992|doi=10.1016/j.patcog.2006.06.007}}</ref> पैटर्न पहचान अनुप्रयोगों में, इस उपयोगकर्ता के ध्वनिक वैक्टर का उपयोग करके प्रत्येक वर्ग (प्रत्येक वर्ग बायोमेट्रिक अनुप्रयोगों में उपयोगकर्ता होता है) के लिए कोडबुक का निर्माण किया जाता है। परीक्षण चरण में प्रशिक्षण चरण में प्राप्त कोडबुक के पूरे सेट के साथ परीक्षण सिग्नल के परिमाणीकरण विरूपण पर काम किया जाता है। कोडबुक जो सबसे छोटी वेक्टर परिमाणीकरण विकृति प्रदान करती है, पहचाने गए उपयोगकर्ता को इंगित करती है।


पैटर्न पहचान में वीक्यू का मुख्य लाभ इसका कम कम्प्यूटेशनल बोझ है जब इसकी तुलना [[गतिशील समय विरूपण]] (डीटीडब्ल्यू) और [[छिपा हुआ मार्कोव मॉडल]] (एचएमएम) जैसी अन्य तकनीकों से की जाती है। डीटीडब्ल्यू और एचएमएम की तुलना में मुख्य दोष यह है कि यह संकेतों (भाषण, हस्ताक्षर इत्यादि) के अस्थायी विकास को ध्यान में नहीं रखता है क्योंकि सभी वैक्टर मिश्रित होते हैं। इस समस्या को दूर करने के लिए एक बहु-खंड कोडबुक दृष्टिकोण प्रस्तावित किया गया है।<ref>{{cite journal|last=Faundez-Zanuy|first=Marcos|author2=Juan Manuel Pascual-Gaspar |title=मल्टी-सेक्शन वीक्यू पर आधारित कुशल ऑन-लाइन हस्ताक्षर पहचान|journal=Pattern Analysis and Applications|year=2011|volume=14|issue=1|pages=37–45|doi=10.1007/s10044-010-0176-8|s2cid=24868914|url=https://www.semanticscholar.org/paper/acf19e33b76ca5520e85e5c1be54c9920aa590b1}}</ref> बहु-खंड दृष्टिकोण में कई खंडों के साथ सिग्नल को मॉडलिंग करना शामिल है (उदाहरण के लिए, प्रारंभिक भाग के लिए एक कोडबुक, केंद्र के लिए एक और और अंतिम भाग के लिए एक अंतिम कोडबुक)।
पैटर्न पहचान में वीक्यू का मुख्य लाभ इसका कम कम्प्यूटेशनल बोझ है जब इसकी तुलना [[गतिशील समय विरूपण]] (डीटीडब्ल्यू) और [[छिपा हुआ मार्कोव मॉडल]] (एचएमएम) जैसी अन्य तकनीकों से की जाती है। डीटीडब्ल्यू और एचएमएम की तुलना में मुख्य दोष यह है कि यह संकेतों (भाषण, हस्ताक्षर इत्यादि) के अस्थायी विकास को ध्यान में नहीं रखता है क्योंकि सभी वैक्टर मिश्रित होते हैं। इस समस्या को दूर करने के लिए बहु-खंड कोडबुक दृष्टिकोण प्रस्तावित किया गया है।<ref>{{cite journal|last=Faundez-Zanuy|first=Marcos|author2=Juan Manuel Pascual-Gaspar |title=मल्टी-सेक्शन वीक्यू पर आधारित कुशल ऑन-लाइन हस्ताक्षर पहचान|journal=Pattern Analysis and Applications|year=2011|volume=14|issue=1|pages=37–45|doi=10.1007/s10044-010-0176-8|s2cid=24868914|url=https://www.semanticscholar.org/paper/acf19e33b76ca5520e85e5c1be54c9920aa590b1}}</ref> बहु-खंड दृष्टिकोण में कई खंडों के साथ सिग्नल को मॉडलिंग करना शामिल है (उदाहरण के लिए, प्रारंभिक भाग के लिए कोडबुक, केंद्र के लिए और और अंतिम भाग के लिए अंतिम कोडबुक)।


=== क्लस्टरिंग एल्गोरिदम के रूप में उपयोग करें ===
=== क्लस्टरिंग एल्गोरिदम के रूप में उपयोग करें ===
चूँकि VQ आस-पास के नमूनों के घनत्व बिंदुओं के रूप में सेंट्रोइड की तलाश कर रहा है, इसे सीधे प्रोटोटाइप-आधारित क्लस्टरिंग विधि के रूप में भी इस्तेमाल किया जा सकता है: प्रत्येक सेंट्रोइड को फिर एक प्रोटोटाइप के साथ जोड़ा जाता है।
चूँकि VQ आस-पास के नमूनों के घनत्व बिंदुओं के रूप में सेंट्रोइड की तलाश कर रहा है, इसे सीधे प्रोटोटाइप-आधारित क्लस्टरिंग विधि के रूप में भी इस्तेमाल किया जा सकता है: प्रत्येक सेंट्रोइड को फिर प्रोटोटाइप के साथ जोड़ा जाता है।
अपेक्षित चुकता परिमाणीकरण त्रुटि को कम करने का लक्ष्य रखकर<ref>{{cite journal|last=Gray|first=R.M.|title=वेक्टर परिमाणीकरण|journal=IEEE ASSP Magazine|year=1984|volume=1|issue=2|pages=4–29|doi=10.1109/massp.1984.1162229}}</ref> और रॉबिन्स-मोनरो शर्तों को पूरा करते हुए घटते सीखने के लाभ को पेश करते हुए, एक ठोस लेकिन निश्चित संख्या में प्रोटोटाइप के साथ पूरे डेटा सेट पर कई पुनरावृत्तियों को वृद्धिशील तरीके से के-मीन्स क्लस्टरिंग एल्गोरिदम के समाधान में परिवर्तित किया जाता है।
अपेक्षित चुकता परिमाणीकरण त्रुटि को कम करने का लक्ष्य रखकर<ref>{{cite journal|last=Gray|first=R.M.|title=वेक्टर परिमाणीकरण|journal=IEEE ASSP Magazine|year=1984|volume=1|issue=2|pages=4–29|doi=10.1109/massp.1984.1162229}}</ref> और रॉबिन्स-मोनरो शर्तों को पूरा करते हुए घटते सीखने के लाभ को पेश करते हुए, ठोस लेकिन निश्चित संख्या में प्रोटोटाइप के साथ पूरे डेटा सेट पर कई पुनरावृत्तियों को वृद्धिशील तरीके से के-मीन्स क्लस्टरिंग एल्गोरिदम के समाधान में परिवर्तित किया जाता है।


=== [[उत्पादक प्रतिकूल नेटवर्क]] (जीएएन) ===
=== [[उत्पादक प्रतिकूल नेटवर्क]] (जीएएन) ===
VQ का उपयोग जेनरेटिव प्रतिकूल नेटवर्क के विभेदक में एक फीचर प्रतिनिधित्व परत को परिमाणित करने के लिए किया गया है। फ़ीचर परिमाणीकरण (FQ) तकनीक अंतर्निहित फ़ीचर मिलान करती है।<ref>Feature Quantization Improves GAN Training https://arxiv.org/abs/2004.02088</ref> यह GAN प्रशिक्षण में सुधार करता है, और विभिन्न लोकप्रिय GAN मॉडलों पर बेहतर प्रदर्शन प्रदान करता है: छवि निर्माण के लिए BigGAN, चेहरे के संश्लेषण के लिए StyleGAN, और बिना पर्यवेक्षित छवि-से-छवि अनुवाद के लिए U-GAT-IT।
VQ का उपयोग जेनरेटिव प्रतिकूल नेटवर्क के विभेदक में फीचर प्रतिनिधित्व परत को परिमाणित करने के लिए किया गया है। फ़ीचर परिमाणीकरण (FQ) तकनीक अंतर्निहित फ़ीचर मिलान करती है।<ref>Feature Quantization Improves GAN Training https://arxiv.org/abs/2004.02088</ref> यह GAN प्रशिक्षण में सुधार करता है, और विभिन्न लोकप्रिय GAN मॉडलों पर बेहतर प्रदर्शन प्रदान करता है: छवि निर्माण के लिए BigGAN, चेहरे के संश्लेषण के लिए StyleGAN, और बिना पर्यवेक्षित छवि-से-छवि अनुवाद के लिए U-GAT-IT।


== यह भी देखें ==
== यह भी देखें ==
Line 127: Line 123:
{{colend}}
{{colend}}


इस लेख का एक हिस्सा मूल रूप से [[कंप्यूटिंग का निःशुल्क ऑनलाइन शब्दकोश]] की सामग्री पर आधारित था और इसका उपयोग जीएफडीएल के तहत विकिपीडिया:फोल्डॉक लाइसेंस के साथ किया जाता है।
इस लेख का हिस्सा मूल रूप से [[कंप्यूटिंग का निःशुल्क ऑनलाइन शब्दकोश]] की सामग्री पर आधारित था और इसका उपयोग जीएफडीएल के तहत विकिपीडिया:फोल्डॉक लाइसेंस के साथ किया जाता है।


== संदर्भ ==
== संदर्भ ==

Revision as of 09:05, 29 July 2023

वेक्टर परिमाणीकरण (VQ) संकेत आगे बढ़ाना से शास्त्रीय परिमाणीकरण (सिग्नल प्रोसेसिंग) तकनीक है जो प्रोटोटाइप वैक्टर के वितरण द्वारा संभाव्यता घनत्व कार्यों के मॉडलिंग की अनुमति देता है। इसका उपयोग मूल रूप से डेटा संपीड़न के लिए किया गया था। यह बिंदुओं के बड़े समूह (समन्वय वैक्टर) को उन समूहों में विभाजित करके काम करता है जिनके निकटतम बिंदुओं की संख्या लगभग समान होती है। प्रत्येक समूह को उसके केन्द्रक बिंदु द्वारा दर्शाया जाता है, जैसा कि k-साधन और कुछ अन्य क्लस्टर विश्लेषण एल्गोरिदम में होता है।

वेक्टर परिमाणीकरण की घनत्व मिलान संपत्ति शक्तिशाली है, विशेष रूप से बड़े और उच्च-आयामी डेटा के घनत्व की पहचान करने के लिए। चूँकि डेटा बिंदुओं को उनके निकटतम सेंट्रोइड के सूचकांक द्वारा दर्शाया जाता है, आमतौर पर होने वाले डेटा में कम त्रुटि होती है, और दुर्लभ डेटा में उच्च त्रुटि होती है। यही कारण है कि VQ हानिपूर्ण डेटा संपीड़न के लिए उपयुक्त है। इसका उपयोग हानिपूर्ण डेटा सुधार और घनत्व अनुमान के लिए भी किया जा सकता है।

वेक्टर परिमाणीकरण प्रतिस्पर्धी शिक्षण प्रतिमान पर आधारित है, इसलिए यह स्व-संगठित मानचित्र मॉडल और ऑटोएन्कोडर जैसे गहन शिक्षण एल्गोरिदम में उपयोग किए जाने वाले विरल कोडिंग मॉडल से निकटता से संबंधित है।

प्रशिक्षण

वेक्टर परिमाणीकरण के लिए सबसे सरल प्रशिक्षण एल्गोरिदम है:[1]

  1. यादृच्छिक रूप से नमूना बिंदु चुनें
  2. दूरी के छोटे से अंश द्वारा, निकटतम परिमाणीकरण वेक्टर सेंट्रोइड को इस नमूना बिंदु की ओर ले जाएं
  3. दोहराना

एक अधिक परिष्कृत एल्गोरिदम घनत्व मिलान अनुमान में पूर्वाग्रह को कम करता है, और अतिरिक्त संवेदनशीलता पैरामीटर को शामिल करके यह सुनिश्चित करता है कि सभी बिंदुओं का उपयोग किया जाता है[citation needed]:

  1. प्रत्येक केन्द्रक की संवेदनशीलता बढ़ाएँ छोटी राशि से
  2. एक नमूना बिंदु चुनें बिना सोचे समझे
  3. प्रत्येक परिमाणीकरण वेक्टर केन्द्रक के लिए , होने देना की दूरी को निरूपित करें और
  4. केन्द्रक ज्ञात कीजिए जिसके लिए सबसे छोटा है
  5. कदम की ओर दूरी के छोटे से अंश से
  6. तय करना शून्य करने के लिए
  7. दोहराना

अभिसरण उत्पन्न करने के लिए कूलिंग शेड्यूल का उपयोग करना वांछनीय है: तैयार किए हुयी धातु पे पानी चढाने की कला देखें। अन्य (सरल) विधि लिंडे-बुज़ो-ग्रे एल्गोरिदम है जो K- का अर्थ है क्लस्टरिंग |के-मीन्स पर आधारित है।

एल्गोरिदम को डेटा सेट से यादृच्छिक बिंदुओं को चुनने के बजाय 'लाइव' डेटा के साथ पुनरावृत्त रूप से अद्यतन किया जा सकता है, लेकिन यदि डेटा कई नमूनों पर अस्थायी रूप से सहसंबद्ध है तो यह कुछ पूर्वाग्रह पेश करेगा।

अनुप्रयोग

वेक्टर परिमाणीकरण का उपयोग हानिपूर्ण डेटा संपीड़न, हानिपूर्ण डेटा सुधार, पैटर्न पहचान, घनत्व अनुमान और क्लस्टरिंग के लिए किया जाता है।

हानिपूर्ण डेटा सुधार, या भविष्यवाणी, का उपयोग कुछ आयामों से गायब डेटा को पुनर्प्राप्त करने के लिए किया जाता है। यह उपलब्ध डेटा आयामों के साथ निकटतम समूह को ढूंढकर किया जाता है, फिर लापता आयामों के मानों के आधार पर परिणाम की भविष्यवाणी की जाती है, यह मानते हुए कि उनका मान समूह के सेंट्रोइड के समान होगा।

घनत्व अनुमान के लिए, वह क्षेत्र/आयतन जो किसी अन्य की तुलना में किसी विशेष केन्द्रक के करीब है, घनत्व के व्युत्क्रमानुपाती होता है (एल्गोरिदम की घनत्व मिलान संपत्ति के कारण)।

डेटा संपीड़न में उपयोग

सदिश स्थलिमाणीकरण, जिसे ब्लॉक परिमाणीकरण या पैटर्न मिलान परिमाणीकरण भी कहा जाता है, अक्सर हानिपूर्ण डेटा संपीड़न में उपयोग किया जाता है। यह बहुआयामी वेक्टर स्थान से मूल्यों को निचले आयाम के असतत रैखिक उपस्थान से मूल्यों के सीमित सेट में एन्कोडिंग द्वारा काम करता है। निचले-स्थान वाले वेक्टर को कम संग्रहण स्थान की आवश्यकता होती है, इसलिए डेटा संपीड़ित होता है। वेक्टर परिमाणीकरण की घनत्व मिलान संपत्ति के कारण, संपीड़ित डेटा में त्रुटियां होती हैं जो घनत्व के व्युत्क्रमानुपाती होती हैं।

परिवर्तन आमतौर पर प्रक्षेपण (गणित) या कोडबुक का उपयोग करके किया जाता है। कुछ मामलों में, कोडबुक का उपयोग आउटपुट के रूप में उपसर्ग कोडित चर-लंबाई एन्कोडेड मान उत्पन्न करके, उसी चरण में असतत मान को एन्ट्रापी कोड करने के लिए भी किया जा सकता है।

अलग-अलग आयाम स्तरों के सेट को प्रत्येक नमूने को अलग से परिमाणित करने के बजाय संयुक्त रूप से परिमाणित किया जाता है। k-आयामी वेक्टर पर विचार करें आयाम स्तर का. इसे एन-डायमेंशनल वैक्टर के सेट से निकटतम मिलान वाले वेक्टर को चुनकर संपीड़ित किया जाता है , n < k के साथ।

एन-आयामी वेक्टर के सभी संभावित संयोजन उस सदिश समष्टि का निर्माण करें जिससे सभी परिमाणित सदिश संबंधित हों। कोडबुक में परिमाणित मानों के बजाय केवल कोडवर्ड का सूचकांक भेजा जाता है। इससे स्थान की बचत होती है और अधिक संपीड़न प्राप्त होता है।

MPEG-4 (VQF) में TwinVQ#TwinVQ समय डोमेन भारित इंटरलीव्ड वेक्टर परिमाणीकरण से संबंधित MPEG-4 मानक का हिस्सा है।

वेक्टर परिमाणीकरण पर आधारित वीडियो कोडेक्स

वेक्टर परिमाणीकरण पर आधारित वीडियो कोडेक्स के उपयोग में मोशन कंपंसेशन#ब्लॉक मोशन कंपंसेशन पूर्वानुमान के साथ ट्रांसफॉर्म कोडिंग#डिजिटल, जैसे के आधार पर काफी गिरावट आई है। जिन्हें एमपीईजी मानकों में परिभाषित किया गया है, क्योंकि वेक्टर परिमाणीकरण की कम डिकोडिंग जटिलता कम प्रासंगिक हो गई है।

वेक्टर परिमाणीकरण पर आधारित ऑडियो कोडेक्स

पैटर्न पहचान में उपयोग

VQ का उपयोग अस्सी के दशक में भाषण के लिए भी किया जाता था[5] और वक्ता की पहचान[6] हाल ही में इसका उपयोग कुशल निकटतम पड़ोसी खोज के लिए भी किया गया है

[7]

और ऑन-लाइन हस्ताक्षर पहचान।[8] पैटर्न पहचान अनुप्रयोगों में, इस उपयोगकर्ता के ध्वनिक वैक्टर का उपयोग करके प्रत्येक वर्ग (प्रत्येक वर्ग बायोमेट्रिक अनुप्रयोगों में उपयोगकर्ता होता है) के लिए कोडबुक का निर्माण किया जाता है। परीक्षण चरण में प्रशिक्षण चरण में प्राप्त कोडबुक के पूरे सेट के साथ परीक्षण सिग्नल के परिमाणीकरण विरूपण पर काम किया जाता है। कोडबुक जो सबसे छोटी वेक्टर परिमाणीकरण विकृति प्रदान करती है, पहचाने गए उपयोगकर्ता को इंगित करती है।

पैटर्न पहचान में वीक्यू का मुख्य लाभ इसका कम कम्प्यूटेशनल बोझ है जब इसकी तुलना गतिशील समय विरूपण (डीटीडब्ल्यू) और छिपा हुआ मार्कोव मॉडल (एचएमएम) जैसी अन्य तकनीकों से की जाती है। डीटीडब्ल्यू और एचएमएम की तुलना में मुख्य दोष यह है कि यह संकेतों (भाषण, हस्ताक्षर इत्यादि) के अस्थायी विकास को ध्यान में नहीं रखता है क्योंकि सभी वैक्टर मिश्रित होते हैं। इस समस्या को दूर करने के लिए बहु-खंड कोडबुक दृष्टिकोण प्रस्तावित किया गया है।[9] बहु-खंड दृष्टिकोण में कई खंडों के साथ सिग्नल को मॉडलिंग करना शामिल है (उदाहरण के लिए, प्रारंभिक भाग के लिए कोडबुक, केंद्र के लिए और और अंतिम भाग के लिए अंतिम कोडबुक)।

क्लस्टरिंग एल्गोरिदम के रूप में उपयोग करें

चूँकि VQ आस-पास के नमूनों के घनत्व बिंदुओं के रूप में सेंट्रोइड की तलाश कर रहा है, इसे सीधे प्रोटोटाइप-आधारित क्लस्टरिंग विधि के रूप में भी इस्तेमाल किया जा सकता है: प्रत्येक सेंट्रोइड को फिर प्रोटोटाइप के साथ जोड़ा जाता है। अपेक्षित चुकता परिमाणीकरण त्रुटि को कम करने का लक्ष्य रखकर[10] और रॉबिन्स-मोनरो शर्तों को पूरा करते हुए घटते सीखने के लाभ को पेश करते हुए, ठोस लेकिन निश्चित संख्या में प्रोटोटाइप के साथ पूरे डेटा सेट पर कई पुनरावृत्तियों को वृद्धिशील तरीके से के-मीन्स क्लस्टरिंग एल्गोरिदम के समाधान में परिवर्तित किया जाता है।

उत्पादक प्रतिकूल नेटवर्क (जीएएन)

VQ का उपयोग जेनरेटिव प्रतिकूल नेटवर्क के विभेदक में फीचर प्रतिनिधित्व परत को परिमाणित करने के लिए किया गया है। फ़ीचर परिमाणीकरण (FQ) तकनीक अंतर्निहित फ़ीचर मिलान करती है।[11] यह GAN प्रशिक्षण में सुधार करता है, और विभिन्न लोकप्रिय GAN मॉडलों पर बेहतर प्रदर्शन प्रदान करता है: छवि निर्माण के लिए BigGAN, चेहरे के संश्लेषण के लिए StyleGAN, और बिना पर्यवेक्षित छवि-से-छवि अनुवाद के लिए U-GAT-IT।

यह भी देखें

इस लेख का हिस्सा मूल रूप से कंप्यूटिंग का निःशुल्क ऑनलाइन शब्दकोश की सामग्री पर आधारित था और इसका उपयोग जीएफडीएल के तहत विकिपीडिया:फोल्डॉक लाइसेंस के साथ किया जाता है।

संदर्भ

  1. Dana H. Ballard (2000). प्राकृतिक संगणना का परिचय. MIT Press. p. 189. ISBN 978-0-262-02420-4.
  2. "Bink video". Book of Wisdom. 2009-12-27. Retrieved 2013-03-16.
  3. Valin, JM. (October 2012). वीडियो कोडिंग के लिए पिरामिड वेक्टर परिमाणीकरण. IETF. I-D draft-valin-videocodec-pvq-00. Retrieved 2013-12-17.
  4. "Vorbis I Specification". Xiph.org. 2007-03-09. Retrieved 2007-03-09.
  5. Burton, D. K.; Shore, J. E.; Buck, J. T. (1983). "वेक्टर परिमाणीकरण का उपयोग करके पृथक शब्द पहचान का सामान्यीकरण". IEEE International Conference on Acoustics Speech and Signal Processing ICASSP. 8: 1021–1024. doi:10.1109/ICASSP.1983.1171915.
  6. Soong, F.; A. Rosenberg; L. Rabiner; B. Juang (1985). "स्पीकर रिकग्निशन के लिए एक वेक्टर क्वांटिज़ेशन दृष्टिकोण". IEEE Proceedings International Conference on Acoustics, Speech and Signal Processing ICASSP. 1: 387–390. doi:10.1109/ICASSP.1985.1168412. S2CID 8970593.
  7. H. Jegou; M. Douze; C. Schmid (2011). "निकटतम पड़ोसी खोज के लिए उत्पाद परिमाणीकरण" (PDF). IEEE Transactions on Pattern Analysis and Machine Intelligence. 33 (1): 117–128. CiteSeerX 10.1.1.470.8573. doi:10.1109/TPAMI.2010.57. PMID 21088323. S2CID 5850884. Archived (PDF) from the original on 2011-12-17.
  8. Faundez-Zanuy, Marcos (2007). "VQ-DTW पर आधारित ऑफ़लाइन और ऑन-लाइन हस्ताक्षर पहचान". Pattern Recognition. 40 (3): 981–992. doi:10.1016/j.patcog.2006.06.007.
  9. Faundez-Zanuy, Marcos; Juan Manuel Pascual-Gaspar (2011). "मल्टी-सेक्शन वीक्यू पर आधारित कुशल ऑन-लाइन हस्ताक्षर पहचान". Pattern Analysis and Applications. 14 (1): 37–45. doi:10.1007/s10044-010-0176-8. S2CID 24868914.
  10. Gray, R.M. (1984). "वेक्टर परिमाणीकरण". IEEE ASSP Magazine. 1 (2): 4–29. doi:10.1109/massp.1984.1162229.
  11. Feature Quantization Improves GAN Training https://arxiv.org/abs/2004.02088


बाहरी संबंध