वन-हॉट: Difference between revisions
No edit summary |
No edit summary |
||
Line 25: | Line 25: | ||
==अनुप्रयोग== | ==अनुप्रयोग== | ||
===डिजिटल | ===डिजिटल विद्युत् परिपथ तंत्र=== | ||
वन-हॉट एन्कोडिंग का उपयोग अधिकांश [[राज्य मशीन|स्टेट यंत्र]] की स्थिति को निरुपित करने के लिए किया जाता है। [[ बाइनरी संख्या |बाइनरी संख्या]] का उपयोग करते समय, स्थिति निर्धारित करने के लिए [[बाइनरी डिकोडर]] की आवश्यकता होती है। चूँकि, वन-हॉट स्टेट यंत्र को डिकोडर की आवश्यकता नहीं होती है क्योंकि स्टेट यंत्र nवीं स्थिति में होती है यदि, और केवल यदि, nवीं बिट अधिक है। | वन-हॉट एन्कोडिंग का उपयोग अधिकांश [[राज्य मशीन|स्टेट यंत्र]] की स्थिति को निरुपित करने के लिए किया जाता है। [[ बाइनरी संख्या |बाइनरी संख्या]] का उपयोग करते समय, स्थिति निर्धारित करने के लिए [[बाइनरी डिकोडर]] की आवश्यकता होती है। चूँकि, वन-हॉट स्टेट यंत्र को डिकोडर की आवश्यकता नहीं होती है क्योंकि स्टेट यंत्र nवीं स्थिति में होती है यदि, और केवल यदि, nवीं बिट अधिक है। | ||
Line 57: | Line 57: | ||
===[[प्राकृतिक भाषा प्रसंस्करण|नेचुरल लैंग्वेज प्रोसेसिंग]]=== | ===[[प्राकृतिक भाषा प्रसंस्करण|नेचुरल लैंग्वेज प्रोसेसिंग]]=== | ||
नेचुरल लैंग्वेज प्रोसेसिंग में, वन-हॉट सदिश एक 1 × N | नेचुरल लैंग्वेज प्रोसेसिंग में, वन-हॉट सदिश एक 1 × N आव्यूह (सदिश) होता है जिसका उपयोग शब्दावली में प्रत्येक शब्द को शब्दावली में प्रत्येक दूसरे शब्द से भिन्न करने के लिए किया जाता है।<ref>{{cite conference|last1=Arnaud |first1=Émilien |last2=Elbattah |first2=Mahmoud |last3=Gignon |first3=Maxime |last4=Dequen |first4=Gilles |date=August 2021 |pages=548–553 |title=ट्राइएज नोट्स का उपयोग करके अस्पताल में प्रवेश पर चिकित्सा विशिष्टताओं की एनएलपी-आधारित भविष्यवाणी|url=https://ieeexplore.ieee.org/document/9565791 |conference=2021 IEEE 9th International Conference on Healthcare Informatics (ICHI)|access-date=22 May 2022|location=[[Victoria, British Columbia]]|doi=10.1109/ICHI52183.2021.00103}}</ref> शब्द की पहचान करने के लिए विशिष्ट रूप से उपयोग किए जाने वाले सेल में एकल 1 को छोड़कर सदिश में सभी सेल में 0 होते हैं। वन-हॉट एन्कोडिंग यह सुनिश्चित करती है कि यंत्र अधिगम यह न माने कि उच्च संख्याएँ अधिक महत्वपूर्ण हैं। उदाहरण के लिए, मान '8' मान '1' से बड़ा है, किन्तु यह '8' को '1' से अधिक महत्वपूर्ण नहीं बनाता है। यही बात शब्दों के लिए भी सत्य है: 'हँसी' का मूल्य 'हँसी' से अधिक महत्वपूर्ण नहीं है। | ||
===यंत्र अधिगम और आँकड़े=== | ===यंत्र अधिगम और आँकड़े=== | ||
Line 103: | Line 103: | ||
|} श्रेणीबद्ध डेटा या तो नाममात्र या क्रमिक हो सकता है।<ref>Stevens, S. S. (1946). “On the Theory of Scales of Measurement”. Science, New Series, 103.2684, pp. 677–680. http://www.jstor.org/stable/1671815.</ref> ऑर्डिनल डेटा में उसके मानों के लिए क्रमबद्ध क्रम होता है और इसलिए इसे ऑर्डिनल एन्कोडिंग के माध्यम से संख्यात्मक डेटा में परिवर्तित किया जा सकता है।<ref>Brownlee, Jason. (2020). "Ordinal and One-Hot Encodings for Categorical Data". Machinelearningmastery. https://machinelearningmastery.com/one-hot-encoding-for-categorical-data//</ref> क्रमिक डेटा का उदाहरण A से F तक के परीक्षण पर रेटिंग होगी, जिसे 6 से 1 तक की संख्याओं का उपयोग करके रैंक किया जा सकता है। चूंकि नाममात्र वेरिएबल के व्यक्तिगत मानों के बीच कोई मात्रात्मक संबंध नहीं है, इसलिए क्रमिक एन्कोडिंग का उपयोग संभावित रूप से डेटा में एक काल्पनिक क्रमिक संबंध बना सकता है।<ref>Brownlee, Jason. (2020). "Ordinal and One-Hot Encodings for Categorical Data". Machinelearningmastery. https://machinelearningmastery.com/one-hot-encoding-for-categorical-data//</ref> इसलिए, एल्गोरिदम के प्रदर्शन को उत्तम बनाने के लिए, वन-हॉट एन्कोडिंग को अधिकांश नाममात्र वेरिएबल पर प्रायुक्त किया जाता है। | |} श्रेणीबद्ध डेटा या तो नाममात्र या क्रमिक हो सकता है।<ref>Stevens, S. S. (1946). “On the Theory of Scales of Measurement”. Science, New Series, 103.2684, pp. 677–680. http://www.jstor.org/stable/1671815.</ref> ऑर्डिनल डेटा में उसके मानों के लिए क्रमबद्ध क्रम होता है और इसलिए इसे ऑर्डिनल एन्कोडिंग के माध्यम से संख्यात्मक डेटा में परिवर्तित किया जा सकता है।<ref>Brownlee, Jason. (2020). "Ordinal and One-Hot Encodings for Categorical Data". Machinelearningmastery. https://machinelearningmastery.com/one-hot-encoding-for-categorical-data//</ref> क्रमिक डेटा का उदाहरण A से F तक के परीक्षण पर रेटिंग होगी, जिसे 6 से 1 तक की संख्याओं का उपयोग करके रैंक किया जा सकता है। चूंकि नाममात्र वेरिएबल के व्यक्तिगत मानों के बीच कोई मात्रात्मक संबंध नहीं है, इसलिए क्रमिक एन्कोडिंग का उपयोग संभावित रूप से डेटा में एक काल्पनिक क्रमिक संबंध बना सकता है।<ref>Brownlee, Jason. (2020). "Ordinal and One-Hot Encodings for Categorical Data". Machinelearningmastery. https://machinelearningmastery.com/one-hot-encoding-for-categorical-data//</ref> इसलिए, एल्गोरिदम के प्रदर्शन को उत्तम बनाने के लिए, वन-हॉट एन्कोडिंग को अधिकांश नाममात्र वेरिएबल पर प्रायुक्त किया जाता है। | ||
मूल श्रेणीबद्ध | मूल श्रेणीबद्ध स्तंभ में प्रत्येक अद्वितीय मान के लिए, इस विधि में नया स्तंभ बनाया जाता है। ये डमी वेरिएबल फिर शून्य और से भरे (1 का अर्थ सत्य है, 0 का अर्थ असत्य है) जाते हैं।<ref>Dinesh, Yadav. (2019). "Categorical encoding using Label-Encoding and One-Hot-Encoder". Towards Data Science. https://towardsdatascience.com/categorical-encoding-using-label-encoding-and-one-hot-encoder-911ef77fb5bd</ref> क्योंकि यह प्रक्रिया कई नए वैरिएबल बनाती है, यदि मूल स्तंभ में कई अद्वितीय मान हैं तो इससे 'बड़ी P' समस्या (बहुत सारे भविष्यवक्ता) उत्पन्न होने का खतरा है। वन-हॉट एन्कोडिंग का और नकारात्मक पक्ष यह है कि यह भिन्न-भिन्न वेरिएबल के मध्य बहुसंरेखता का कारण बनता है, जो संभावित रूप से मॉडल की शुद्धता को कम करता है।<ref>Andre, Ye. (2020). " Stop One-Hot Encoding Your Categorical Variables. ". Towards Data Science. https://towardsdatascience.com/stop-one-hot-encoding-your-categorical-variables-bbb0fba89809</ref> | ||
साथ ही, यदि श्रेणीगत वेरिएबल आउटपुट वेरिएबल है, तो आप अपने एप्लिकेशन में उन्हें प्रस्तुत करने के लिए मानों को वापस श्रेणीबद्ध रूप में परिवर्तित करना चाह सकते हैं।<ref>Brownlee, Jason. (2017). "Why One-Hot Encode Data in Machine Learning?". Machinelearningmastery. https://machinelearningmastery.com/why-one-hot-encode-data-in-machine-learning/</ref> | साथ ही, यदि श्रेणीगत वेरिएबल आउटपुट वेरिएबल है, तो आप अपने एप्लिकेशन में उन्हें प्रस्तुत करने के लिए मानों को वापस श्रेणीबद्ध रूप में परिवर्तित करना चाह सकते हैं।<ref>Brownlee, Jason. (2017). "Why One-Hot Encode Data in Machine Learning?". Machinelearningmastery. https://machinelearningmastery.com/why-one-hot-encode-data-in-machine-learning/</ref> | ||
व्यावहारिक उपयोग में, यह परिवर्तन अधिकांश सीधे | व्यावहारिक उपयोग में, यह परिवर्तन अधिकांश सीधे फलन द्वारा किया जाता है जो श्रेणीबद्ध डेटा को इनपुट के रूप में लेता है और संबंधित डमी वेरिएबल को आउटपुट करता है। उदाहरण आर में कैरेट लाइब्रेरी का डमीवर्स फलन होगा।<ref>Kuhn, Max. “dummyVars”. RDocumentation. https://www.rdocumentation.org/packages/caret/versions/6.0-86/topics/dummyVars</ref> | ||
Revision as of 13:27, 10 August 2023
Decimal | Binary | Unary | One-hot |
---|---|---|---|
0 | 000 | 00000000 | 00000001 |
1 | 001 | 00000001 | 00000010 |
2 | 010 | 00000011 | 00000100 |
3 | 011 | 00000111 | 00001000 |
4 | 100 | 00001111 | 00010000 |
5 | 101 | 00011111 | 00100000 |
6 | 110 | 00111111 | 01000000 |
7 | 111 | 01111111 | 10000000 |
डिजिटल परिपथ और यंत्र अधिगम में, वन-हॉट बिट्स का एक समूह है जिसके मध्य मानों का नियमबद्ध संयोजन केवल एक उच्च (1) बिट और अन्य सभी निम्न (0) वाले होते हैं।[1] एक समान कार्यान्वयन जिसमें '0' को छोड़कर सभी बिट्स '1' होते हैं, उसे कभी-कभी वन-कोल्ड कहा जाता है।[2] आंकड़ों में, डमी वैरिएबल (सांख्यिकी) श्रेणीबद्ध डेटा का प्रतिनिधित्व करने के लिए समान विधि का प्रतिनिधित्व करते हैं।
अनुप्रयोग
डिजिटल विद्युत् परिपथ तंत्र
वन-हॉट एन्कोडिंग का उपयोग अधिकांश स्टेट यंत्र की स्थिति को निरुपित करने के लिए किया जाता है। बाइनरी संख्या का उपयोग करते समय, स्थिति निर्धारित करने के लिए बाइनरी डिकोडर की आवश्यकता होती है। चूँकि, वन-हॉट स्टेट यंत्र को डिकोडर की आवश्यकता नहीं होती है क्योंकि स्टेट यंत्र nवीं स्थिति में होती है यदि, और केवल यदि, nवीं बिट अधिक है।
15 क्रमिक रूप से क्रमित अवस्थाओं वाला रिंग काउंटर अवस्था यंत्र का उदाहरण है। एक 'वन-हॉट' कार्यान्वयन में श्रृंखला में 15 फ्लिप फ्लॉप (इलेक्ट्रॉनिक्स) होंगे, प्रत्येक फ्लिप फ्लॉप का Q आउटपुट अगले के D इनपुट से जुड़ा होगा और पहले फ्लिप फ्लॉप का डी इनपुट 15वें फ्लिप फ्लॉप के Q आउटपुट से जुड़ा होगा। श्रृंखला में पहला फ्लिप फ्लॉप पहले अवस्था का प्रतिनिधित्व करता है, दूसरा दूसरे अवस्था का प्रतिनिधित्व करता है, और इसी प्रकार 15वां फ्लिप फ्लॉप, जो अंतिम अवस्था का प्रतिनिधित्व करता है। स्टेट यंत्र के रीसेट होने पर श्रृंखला में पहले फ्लिप फ्लॉप को छोड़कर सभी फ्लिप फ्लॉप '0' पर रीसेट हो जाते हैं, जो '1' पर सेट है। फ्लिप फ्लॉप पर पहुंचने वाली अगली घड़ी की एज 'हॉट' बिट को दूसरे फ्लिप फ्लॉप तक आगे बढ़ाती है। 'हॉट' बिट इस प्रकार से 15वीं अवस्था तक आगे बढ़ता है, जिसके बाद अवस्था यंत्र पहली अवस्था में लौट आती है।
एक एड्रेस डिकोडर बाइनरी से वन-हॉट प्रतिनिधित्व में परिवर्तित होता है।
एक प्राथमिकता एनकोडर वन-हॉट प्रतिनिधित्व से बाइनरी में परिवर्तित होता है।
अन्य एन्कोडिंग विधियों के साथ तुलना
लाभ
- फ्लिप-फ्लॉप (इलेक्ट्रॉनिक्स) तक पहुंचने की स्थिति का निर्धारण कम और निरंतर निवेश है
- स्थिति बदलने से दो फ्लिप-फ्लॉप तक पहुंचने की निरंतर निवेश आती है
- डिज़ाइन और संशोधित करना आसान
- नियम विरुद्ध अवस्थाओं का पता लगाना आसान
- क्षेत्र में प्रोग्राम की जा सकने वाली द्वार श्रंखला के प्रचुर फ्लिप-फ्लॉप का लाभ उठाता है
- वन-हॉट कार्यान्वयन का उपयोग सामान्यतः अवस्था यंत्र को उस अवस्था यंत्र के किसी भी अन्य एन्कोडिंग की तुलना में तेज़ घड़ी दर पर चलाने की अनुमति देता है[3]
हानि
- अन्य एन्कोडिंग की तुलना में अधिक फ्लिप-फ्लॉप की आवश्यकता होती है, जिससे यह प्रोग्रामयोग्य ऐरे लॉजिक उपकरणों के लिए अव्यावहारिक हो जाता है
- कई अवस्था नियम विरुद्ध हैं[4]
नेचुरल लैंग्वेज प्रोसेसिंग
नेचुरल लैंग्वेज प्रोसेसिंग में, वन-हॉट सदिश एक 1 × N आव्यूह (सदिश) होता है जिसका उपयोग शब्दावली में प्रत्येक शब्द को शब्दावली में प्रत्येक दूसरे शब्द से भिन्न करने के लिए किया जाता है।[5] शब्द की पहचान करने के लिए विशिष्ट रूप से उपयोग किए जाने वाले सेल में एकल 1 को छोड़कर सदिश में सभी सेल में 0 होते हैं। वन-हॉट एन्कोडिंग यह सुनिश्चित करती है कि यंत्र अधिगम यह न माने कि उच्च संख्याएँ अधिक महत्वपूर्ण हैं। उदाहरण के लिए, मान '8' मान '1' से बड़ा है, किन्तु यह '8' को '1' से अधिक महत्वपूर्ण नहीं बनाता है। यही बात शब्दों के लिए भी सत्य है: 'हँसी' का मूल्य 'हँसी' से अधिक महत्वपूर्ण नहीं है।
यंत्र अधिगम और आँकड़े
यंत्र अधिगम में, श्रेणीबद्ध डेटा से निपटने के लिए वन-हॉट एन्कोडिंग अधिकांश उपयोग की जाने वाली विधि है। क्योंकि कई यंत्र अधिगम मॉडल को अपने इनपुट वैरिएबल को संख्यात्मक श्रेणीबद्ध वैरिएबल के रूप में प्री-प्रोसेसिंग भाग में बदलने की आवश्यकता होती है।[6]
भोजन का नाम | श्रेणीबद्ध # | कैलोरी |
---|---|---|
सेब | 1 | 95 |
चिकन | 2 | 231 |
ब्रॉकली | 3 | 50 |
सेब | चिकन | ब्रॉकली | कैलोरी |
---|---|---|---|
1 | 0 | 0 | 95 |
0 | 1 | 0 | 231 |
0 | 0 | 1 | 50 |
श्रेणीबद्ध डेटा या तो नाममात्र या क्रमिक हो सकता है।[7] ऑर्डिनल डेटा में उसके मानों के लिए क्रमबद्ध क्रम होता है और इसलिए इसे ऑर्डिनल एन्कोडिंग के माध्यम से संख्यात्मक डेटा में परिवर्तित किया जा सकता है।[8] क्रमिक डेटा का उदाहरण A से F तक के परीक्षण पर रेटिंग होगी, जिसे 6 से 1 तक की संख्याओं का उपयोग करके रैंक किया जा सकता है। चूंकि नाममात्र वेरिएबल के व्यक्तिगत मानों के बीच कोई मात्रात्मक संबंध नहीं है, इसलिए क्रमिक एन्कोडिंग का उपयोग संभावित रूप से डेटा में एक काल्पनिक क्रमिक संबंध बना सकता है।[9] इसलिए, एल्गोरिदम के प्रदर्शन को उत्तम बनाने के लिए, वन-हॉट एन्कोडिंग को अधिकांश नाममात्र वेरिएबल पर प्रायुक्त किया जाता है।
मूल श्रेणीबद्ध स्तंभ में प्रत्येक अद्वितीय मान के लिए, इस विधि में नया स्तंभ बनाया जाता है। ये डमी वेरिएबल फिर शून्य और से भरे (1 का अर्थ सत्य है, 0 का अर्थ असत्य है) जाते हैं।[10] क्योंकि यह प्रक्रिया कई नए वैरिएबल बनाती है, यदि मूल स्तंभ में कई अद्वितीय मान हैं तो इससे 'बड़ी P' समस्या (बहुत सारे भविष्यवक्ता) उत्पन्न होने का खतरा है। वन-हॉट एन्कोडिंग का और नकारात्मक पक्ष यह है कि यह भिन्न-भिन्न वेरिएबल के मध्य बहुसंरेखता का कारण बनता है, जो संभावित रूप से मॉडल की शुद्धता को कम करता है।[11]
साथ ही, यदि श्रेणीगत वेरिएबल आउटपुट वेरिएबल है, तो आप अपने एप्लिकेशन में उन्हें प्रस्तुत करने के लिए मानों को वापस श्रेणीबद्ध रूप में परिवर्तित करना चाह सकते हैं।[12]
व्यावहारिक उपयोग में, यह परिवर्तन अधिकांश सीधे फलन द्वारा किया जाता है जो श्रेणीबद्ध डेटा को इनपुट के रूप में लेता है और संबंधित डमी वेरिएबल को आउटपुट करता है। उदाहरण आर में कैरेट लाइब्रेरी का डमीवर्स फलन होगा।[13]
यह भी देखें
- डबल-डिजिट कोडेड डेसीमल
- बाइनरी डिकोडर
- ग्रे कोड
- क्रोनकर डेल्टा
- संकेतक सदिश
- क्रम दशमलव
- एकल-प्रविष्टि सदिश
- एकात्मक अंक प्रणाली
- विशिष्टता मात्रा का ठहराव
- एक्सओआर गेट
संदर्भ
- ↑ Harris, David and Harris, Sarah (7 August 2012). डिजिटल डिज़ाइन और कंप्यूटर वास्तुकला (2nd ed.). San Francisco, Calif.: Morgan Kaufmann. p. 129. ISBN 978-0-12-394424-5.
{{cite book}}
: CS1 maint: multiple names: authors list (link) - ↑ Harrag, Fouzi; Gueliani, Selmene (2020). "खाद्य जोखिम अरबी ग्रंथों में गहन शिक्षा पर आधारित घटना निष्कर्षण". arXiv:2008.05014.
{{cite journal}}
: Cite journal requires|journal=
(help) - ↑ Xilinx. "HDL Synthesis for FPGAs Design Guide". section 3.13: "Encoding State Machines". Appendix A: "Accelerate FPGA Macros with One-Hot Approach". 1995.
- ↑ Cohen, Ben (2002). वेरिलॉग और वीएचडीएल का उपयोग करके वास्तविक चिप डिजाइन और सत्यापन. Palos Verdes Peninsula, CA, US: VhdlCohen Publishing. p. 48. ISBN 0-9705394-2-8.
- ↑ Arnaud, Émilien; Elbattah, Mahmoud; Gignon, Maxime; Dequen, Gilles (August 2021). ट्राइएज नोट्स का उपयोग करके अस्पताल में प्रवेश पर चिकित्सा विशिष्टताओं की एनएलपी-आधारित भविष्यवाणी. 2021 IEEE 9th International Conference on Healthcare Informatics (ICHI). Victoria, British Columbia. pp. 548–553. doi:10.1109/ICHI52183.2021.00103. Retrieved 22 May 2022.
- ↑ Brownlee, Jason. (2017). "Why One-Hot Encode Data in Machine Learning?". Machinelearningmastery. https://machinelearningmastery.com/why-one-hot-encode-data-in-machine-learning/
- ↑ Stevens, S. S. (1946). “On the Theory of Scales of Measurement”. Science, New Series, 103.2684, pp. 677–680. http://www.jstor.org/stable/1671815.
- ↑ Brownlee, Jason. (2020). "Ordinal and One-Hot Encodings for Categorical Data". Machinelearningmastery. https://machinelearningmastery.com/one-hot-encoding-for-categorical-data//
- ↑ Brownlee, Jason. (2020). "Ordinal and One-Hot Encodings for Categorical Data". Machinelearningmastery. https://machinelearningmastery.com/one-hot-encoding-for-categorical-data//
- ↑ Dinesh, Yadav. (2019). "Categorical encoding using Label-Encoding and One-Hot-Encoder". Towards Data Science. https://towardsdatascience.com/categorical-encoding-using-label-encoding-and-one-hot-encoder-911ef77fb5bd
- ↑ Andre, Ye. (2020). " Stop One-Hot Encoding Your Categorical Variables. ". Towards Data Science. https://towardsdatascience.com/stop-one-hot-encoding-your-categorical-variables-bbb0fba89809
- ↑ Brownlee, Jason. (2017). "Why One-Hot Encode Data in Machine Learning?". Machinelearningmastery. https://machinelearningmastery.com/why-one-hot-encode-data-in-machine-learning/
- ↑ Kuhn, Max. “dummyVars”. RDocumentation. https://www.rdocumentation.org/packages/caret/versions/6.0-86/topics/dummyVars