ऑटोएन्कोडर

From Vigyanwiki

एक स्वतः कूटलेखन एक प्रकार का कृत्रिम तंत्रिका जाल है जिसका उपयोग बिना लेबल वाले डेटा (अनियंत्रित शिक्षा) की कुशल कोडिंग को सीखने के लिए किया जाता है।[1][2] एक स्वतः कूटलेखन दो फलन सीखता है: एक कूटलेखन फलन जो इनपुट डेटा को रूपांतरित करता है, और एक कूटवाचन फलन जो कूटलिखित विषयबोधक से इनपुट डेटा को फिर से बनाता है। स्वतः कूटलेखन डेटा के एक समुच्चय के लिए, सामान्यतः आयामीता में कमी के लिए कुशल कोडिंग (कूटलेखन) सीखता है,।

उपयोगी गुण ग्रहण करने के लिए सीखे गए अभ्यावेदन को बाध्य करने के उद्देश्य से परिवर्ती उपलब्ध हैं।[3]उदाहरण नियमित स्वतः कूटलेखन (विरल, डेनोइजिंग और संकोचक) हैं, जो बाद के सांख्यिकीय वर्गीकरण फलन के लिए सीखने के विषयबोधक में प्रभावी हैं,[4]और परिवर्तनशील स्वतः कूटलेखन, प्रजनक मॉडल के रूप में अनुप्रयोगों के साथ।[5] स्वतः कूटलेखन चेहरे की पहचान सहित कई समस्याओं पर लागू होते हैं,[6] विशेष गुण संसूचक,[7] विसंगति का पता लगाना और शब्दों का अर्थ प्राप्त करना।[8][9] स्वतः कूटलेखन भी प्रजनक मॉडल हैं जो बेतरतीब ढंग से नया डेटा उत्पन्न कर सकते हैं जो इनपुट डेटा (प्रशिक्षण डेटा) के समान है।[7]

गणितीय सिद्धांत

परिभाषा

एक स्वतः कूटलेखन को निम्नलिखित घटकों द्वारा परिभाषित किया गया है:

दो समुच्चय: डिकोड किए गए संदेशों का स्थान कूटलिखित संदेशों का स्थान. लगभग सदैव, दोनों और यूक्लिडियन रिक्त स्थान हैं, अर्थात्, कुछ . के लिए

फलन के दो प्राचलीकरण परिवार: कूटलेखक परिवार , द्वारा प्राचलीकरण ; कूटवाचन परिवार , द्वारा प्राचलीकरण

किसी के लिए भी हम सामान्यतः लिखते हैं , और इसे कोड, अव्यक्त चर, अव्यक्त प्रतिनिधित्व, अव्यक्त सदिश, आदि के रूप में देखें। इसके विपरीत, किसी के लिए , हम सामान्यतः लिखते हैं , और इसे (डिकोडेड) संदेश के रूप में देखें।

सामान्यतः , कूटलेखक और कूटवाचन दोनों को बहुपरत परसेप्ट्रॉन के रूप में परिभाषित किया जाता है। उदाहरण के लिए, एक परत एमएलपी कूटलेखक है:

जहाँ अवग्रह फलन या परिशोधित रेखीय इकाई जैसे अवयव-वार सक्रियण फलन है, एक आव्यूह है जिसे वजन कहा जाता है, और एक सदिश है जिसे पूर्वाग्रह कहा जाता है।

एक स्वतः कूटलेखन का प्रशिक्षण

एक स्वतः कूटलेखन, अपने आप में, केवल दो फलन का एक टपल है। इसकी गुणवत्ता का न्याय करने के लिए, हमें एक फलन की आवश्यकता है। एक फलन एक संदर्भ संभाव्यता वितरण द्वारा परिभाषित किया गया है ऊपर , और एक पुनर्निर्माण गुणवत्ता फलन , ऐसा है कि से अलग होना . कितना मापता है।

उन के साथ, हम स्वतः कूटलेखन के लिए हानि फलन को परिभाषित कर सकते हैं।

दिए गए फलन के लिए इष्टतम स्वतः कूटलेखन तब है . इष्टतम स्वतः कूटलेखन की खोज किसी भी गणितीय अनुकूलन तकनीक द्वारा पूरी की जा सकती है, लेकिन सामान्यतः ढाल वंश द्वारा। इस खोज प्रक्रिया को स्वतः कूटलेखन प्रशिक्षण कहा जाता है।

ज्यादातर स्थितियों में, संदर्भ वितरण केवल डेटा समुच्चय द्वारा दिया गया अनुभवजन्य माप है , ताकि

और जहाँ डिरैक माप है, और गुणवत्ता फलन केवल L2 हानि है: . तब इष्टतम स्वतः कूटलेखन की खोज की समस्या सिर्फ एक कम वर्ग है | कम से कम वर्ग अनुकूलन:


व्याख्या

एक मूल स्वतः कूटलेखन का योजनाबद्ध

एक स्वतः कूटलेखन के दो मुख्य भाग होते हैं: एक कूटलेखक जो संदेश को एक कोड में मानचित्रित करता है, और एक कूटवाचन जो कोड से संदेश d का पुनर्निर्माण करता है। एक इष्टतम स्वतः कूटलेखन पुनर्निर्माण गुणवत्ता फलन d द्वारा परिभाषित "बिल्कुल सही के करीब" के साथ यथासंभव पूर्ण पुनर्निर्माण के करीब प्रदर्शन करेगा।

कॉपी करने के फलन को पूरी तरह से करने का सबसे सरल तरीका सिग्नल की नकल करना होगा। इस व्यवहार को दबाने के लिए, कोड स्थान सामान्यतः संदेश स्थान की तुलना में कम आयाम होते हैं ।

ऐसे स्वतः कूटलेखन को अंडरकंप्लीट कहा जाता है। इसे डेटा संपीड़न संदेश, या आयामीता में कमी के रूप में व्याख्या किया जा सकता है।[1][10]

एक आदर्श अपूर्ण स्वतः कूटलेखन की सीमा पर, हर संभव कोड कोड स्थान में किसी संदेश को कूटलेखन करने के लिए उपयोग किया जाता है जो वास्तव में वितरण में दिखाई देता है , और कूटवाचन भी सही है: . इस आदर्श स्वतः कूटलेखन का उपयोग इसके कूटवाचन मनमाने कोड को फीड करके वास्तविक संदेशों से अप्रभेद्य संदेशों को उत्पन्न करने के लिए किया जा सकता है। और ,प्राप्त करना जो एक संदेश .है जो वास्तव में वितरण में प्रकट होता है

यदि कोड स्थान इसका आयाम (अपूर्ण) से बड़ा है, या संदेश स्थान के बराबर है , या छिपी हुई इकाइयों को पर्याप्त क्षमता दी जाती है, एक स्वतः कूटलेखन पहचान फलन सीख सकता है और बेकार हो सकता है। हालाँकि, प्रायोगिक परिणामों में पाया गया कि अधूरे स्वतः कूटलेखन में अभी भी सीखने की सुविधा हो सकती है।[11]

आदर्श समुच्चय सेटिंग में, कोड आयाम और मॉडल क्षमता को मॉडल किए जाने वाले डेटा वितरण की जटिलता के आधार पर समुच्चय किया जा सकता है। ऐसा करने का एक मानक तरीका मूल स्वतः कूटलेखन में संशोधन जोड़ना है, जिसका विवरण नीचे दिया गया है।[3]


इतिहास

क्रेमर द्वारा स्वतः कूटलेखन को पहले प्रधान घटक विश्लेषण (पीसीए) के एक गैर-रैखिक सामान्यीकरण के रूप में प्रस्तावित किया गया था।[1]स्वतः कूटलेखन को ऑटो सहयोगी भी कहा जाता है,[12] या डायबोलो नेटवर्क।[13][11]1990 के दशक की शुरुआत में इसके पहले आवेदन की तारीख।[3][14][15] उनका सबसे पारंपरिक अनुप्रयोग विमीयता समानयन या विशेष गुण लर्निंग था, लेकिन डेटा के प्रजनक मॉडल सीखने के लिए इस अवधारणा का व्यापक रूप से उपयोग किया जाने लगा।[16][17] 2010 के कुछ सबसे शक्तिशाली कृत्रिम एआई में ध्यान लगा के पढ़ना या सीखना न्यूरल नेटवर्क के अंदर स्वतः कूटलेखन सम्मलित थे। [18]






रूपांतर

नियमित स्वतः कूटलेखन

स्वतः कूटलेखन को पहचान फलन सीखने से रोकने और महत्वपूर्ण सूचनाओं को आकर्षित करने और समृद्ध अभ्यावेदन सीखने की उनकी क्षमता में सुधार करने के लिए विभिन्न तकनीकें उपलब्ध हैं।

विरल स्वतः कूटलेखन (एसएई)

तंत्रिकाविज्ञान में विरल कोडिंग परिकल्पना से प्रेरित, विरल स्वतः कूटलेखन स्वतः कूटलेखन के परिवर्ती हैं, जैसे कि कोड संदेशों के लिए विरल कोड होते हैं, अर्थात, अधिकांश प्रविष्टियों में शून्य के करीब है। विरल स्वतः कूटलेखन में इनपुट की तुलना में अधिक (कम के अतिरिक्त ) छिपी हुई इकाइयाँ सम्मलित हो सकती हैं, लेकिन एक ही समय में केवल कुछ ही छिपी हुई इकाइयों को सक्रिय होने की अनुमति है।[19]विरलता को प्रोत्साहित करने से वर्गीकरण फलन के प्रदर्शन में सुधार होता है।[20]

सिंगल-लेयर स्पार्स स्वतः कूटलेखन का सरल स्कीमा। चमकीले पीले रंग में छिपे हुए नोड सक्रिय होते हैं, जबकि हल्के पीले रंग निष्क्रिय होते हैं। सक्रियण इनपुट पर निर्भर करता है।

विरलता को लागू करने के दो मुख्य तरीके हैं। एक तरीका यह है कि अव्यक्त कोड की उच्चतम-के सक्रियता को छोड़कर सभी को शून्य पर दबा दिया जाए। यह के -विरल स्वतः कूटलेखन है।[21]

के -विरल स्वतः कूटलेखन एक मानक स्वतः कूटलेखन की अव्यक्त परत में निम्न के -विरल फलन सम्मिलित करता है:

जहाँ और 0 अन्यथा अगर शीर्ष k में रैंक करता है, ।

बैकप्रोपैगेटिंग के माध्यम से सरल है: के लिए अनुप्रवण को 0 पर समुच्चय करें प्रविष्टियाँ, और के लिए अनुप्रवण रखें प्रविष्टियाँ। यह अनिवार्य रूप से एक सामान्यीकृत शुद्ध करनेवाला (तंत्रिका जाल ) फलन है।[21]

दूसरा तरीका के -विरल स्वतः कूटलेखन का विश्राम (सन्निकटन) है। विरलता को मजबूर करने के अतिरिक्त , हम एक विरल नियमितीकरण हानि जोड़ते हैं, फिर इसके लिए अनुकूलन करते हैं

जहाँ मापता है कि हम कितनी विरलता लागू करना चाहते हैं।[22]

बता दें कि स्वतः कूटलेखन संरचना है परतें। अविरलता नियमितीकरण हानि को परिभाषित करने के लिए, हमें वांछित अविरलता की आवश्यकता होती है प्रत्येक परत के लिए, एक वजन प्रत्येक विरलता और एक फलन को कितना लागू करना है यह मापने के लिए कि दो अविरलता में कितना अंतर है।

प्रत्येक इनपुट के लिए दें , प्रत्येक परत में सक्रियण की वास्तविक विरलता होना

जहाँ -वें न्यूरॉन -वें इनपुट पर परत . में सक्रियता है

इनपुट पर विरलता हानि एक परत के लिए है , और संपूर्ण स्वतः कूटलेखन के लिए विरलता नियमितीकरण हानि विरलता हानियों का अपेक्षित भारित योग है:

सामान्यतः , फलन या तो कुल्बैक-लीब्लर अपसारित है | कुल्बैक-लीब्लर (केएल) विचलन, जैसा कि[20][22][23][24]

या L1 हानि, जैसा , या L2 नुकसान, जैसा .

वैकल्पिक रूप से, अविरलता नियमितीकरण हानि को किसी भी वांछित अविरलता के संदर्भ के बिना परिभाषित किया जा सकता है, लेकिन जितना संभव हो उतना अविरलता को बल दें। इस प्रकरणों में, एक विरल नियमितीकरण हानि के रूप में हो सकता है

जहाँ में सक्रियण सदिश है स्वतः कूटलेखन की -वीं परत। नियम सामान्यतः L1 मानदंड (L1 विरल स्वतः कूटलेखन देता है) या L2 मानदंड (L2 विरल स्वतः कूटलेखन देता है)।

डीनोइजिंग स्वतः कूटलेखन (डीएई)

डीनोइजिंग स्वतः कूटलेखन (डीएई) पुनर्निर्माण मानदंड को बदलकर एक अच्छा विषयबोधक प्राप्त करने का प्रयास करते हैं।[3][4]

एक डीएई को मानक स्वतः कूटलेखन में शोर प्रक्रिया जोड़कर परिभाषित किया जाता है। एक शोर प्रक्रिया को संभाव्यता वितरण द्वारा परिभाषित किया गया है फलन से अधिक . अर्थात फलन संदेश लेता है , और इसे शोर वाले संस्करण .में बदल देता है . कार्यक्रम संभाव्यता वितरण के साथ यादृच्छिक रूप से चुना जाता है

एक दिया हुआ फलन दिया डीएई के प्रशिक्षण की समस्या अनुकूलन समस्या है:

यही है, इष्टतम डीएई को कोई शोर संदेश लेना चाहिए और शोर के बिना मूल संदेश को पुनर्प्राप्त करने का प्रयास करना चाहिए, इस प्रकार इसका नाम डीनोइजिंग होता है। परिवर्तन संबंधी स्वतः कूटलेखन (वीएई) परिवर्तन संबंधी बायेसियन विधियों के परिवारों से संबंधित हैं।

सामान्यतः , शोर प्रक्रिया केवल प्रशिक्षण और परीक्षण के समय लागू किया जाता है, डाउनस्ट्रीम उपयोग के समय नहीं लागू किया जाता है।

डीएई का उपयोग दो मान्यताओं पर निर्भर करता है:

  • उन संदेशों के विषयबोधक उपलब्ध हैं जो अपेक्षाकृत स्थिर हैं और हमारे द्वारा सामना किए जाने वाले शोर के प्रकार के लिए मजबूत हैं;
  • उक्त विषयबोधक इनपुट वितरण में संरचनाओं को आकर्षित करते हैं जो हमारे उद्देश्यों के लिए उपयोगी होते हैं।[4]

उदाहरण शोर प्रक्रियाओं में सम्मलित हैं:

  • योज्य आइसोट्रोपिक योगात्मक सफेद गाऊसी शोर,
  • मास्किंग शोर (इनपुट का एक अंश यादृच्छिक रूप से चुना जाता है और 0 पर समुच्चय होता है)
  • नमक और काली मिर्च का शोर (इनपुट का एक अंश बेतरतीब ढंग से चुना जाता है और बेतरतीब ढंग से इसके न्यूनतम या अधिकतम मूल्य पर समुच्चय किया जाता है)।[4]


संविदात्मक स्वतः कूटलेखन (सीएई)

एक संविदात्मक स्वतः कूटलेखन मानक स्वतः कूटलेखन हानि के लिए संविदात्मक नियमितीकरण हानि जोड़ता है:

जहाँ मापता है कि हम कितना अनुबंधात्मकता लागू करना चाहते हैं। संविदात्मक नियमितीकरण हानि को जैकबियन आव्यूह के अपेक्षित फ्रोबेनियस मानदंड और इनपुट के संबंध में एन्कोडर सक्रियण के निर्धारक के रूप में परिभाषित किया गया है:
क्या समझने के लिए उपाय, इस तथ्य पर ध्यान दें
किसी संदेश के लिए , और इस में छोटी भिन्नता होता है। इस प्रकार, यदि छोटा है, तो इसका तात्पर्य यह है कि संदेश का एक छोटा पड़ोस उसके कोड के एक छोटे से पड़ोस में मानचित्रित करता है। यह एक वांछित संपत्ति है, क्योंकि इसका तात्पर्य यह है कि संदेश में छोटी भिन्नता इसके कोड में छोटी, अनुमानतः शून्य भी भिन्नता की ओर ले जाती है, जैसे कि दो चित्र समान कैसे दिख सकते हैं, भले ही वे बिल्कुल समान न हों।

डीएई को सीएई की एक अतिसूक्ष्म सीमा के रूप में समझा जा सकता है: छोटे गॉसियन इनपुट शोर की सीमा में, डीएई पुनर्निर्माण फलन को छोटे लेकिन परिमित आकार के इनपुट अस्तव्यस्तता का विरोध करते हैं, जबकि सीएई निकाले गए सुविधाओं को अनंत इनपुट अस्तव्यस्तता का विरोध करते हैं।

न्यूनतम विवरण लंबाई स्वतः कूटलेखन

[25]


कंक्रीट स्वतः कूटलेखन

कंक्रीट स्वतः कूटलेखन असतत सुविधा चयन के लिए डिज़ाइन किया गया है।[26] एक ठोस स्वतः कूटलेखन अव्यक्त स्थान को केवल उपयोगकर्ता द्वारा निर्दिष्ट सुविधाओं की संख्या से युक्त करने के लिए बाध्य करता है। कंक्रीट स्वतः कूटलेखन विशेष गुण चयनकर्ता परत के माध्यम से ग्रेडियेंट को पारित करने की अनुमति देने के लिए श्रेणीबद्ध वितरण के निरंतर विश्राम (सन्निकटन) का उपयोग करता है, जो पुनर्निर्माण नुकसान को कम करने वाले इनपुट सुविधाओं के इष्टतम सबसमुच्चय को सीखने के लिए मानक वापस प्रसार का उपयोग करना संभव बनाता है।

परिवर्तनशील स्वतः कूटलेखन (वीएई)

परिवर्तन संबंधी स्वतः कूटलेखन (वीएई) परिवर्तन संबंधी बायेसियन विधियों के परिवारों से संबंधित हैं। बुनियादी स्वतः कूटलेखन के साथ वास्तुशिल्प समानता के बावजूद, वीएई विभिन्न लक्ष्यों के साथ और पूरी तरह से अलग गणितीय सूत्रीकरण के साथ वास्तुकला हैं। अव्यक्त स्थान इस प्रकरणों में एक निश्चित सदिश के अतिरिक्त वितरण के मिश्रण से बना है।

एक इनपुट डेटासमुच्चय दिया गया एक अज्ञात संभाव्यता फलन द्वारा विशेषता और एक बहुभिन्नरूपी अव्यक्त कूटलेखन सदिश , उद्देश्य डेटा को वितरण के रूप में मॉडल करना है , साथ नेटवर्क मापदंडों के समुच्चय के रूप में परिभाषित किया गया है जिससे .

गहराई के लाभ

Autoencoder structure.png

स्वतः कूटलेखन को अक्सर सिंगल लेयर कूटलेखक और सिंगल लेयर कूटवाचन के साथ प्रशिक्षित किया जाता है, लेकिन कई लेयर्ड (डीप) कूटलेखक और कूटवाचन का उपयोग करने से कई फायदे मिलते हैं।[3]

  • गहराई कुछ फलन का विषयबोधक करने की संगणनात्मक लागत को तेजी से कम कर सकती है।[3]* गहराई कुछ फलन को सीखने के लिए आवश्यक प्रशिक्षण डेटा की मात्रा को तेजी से कम कर सकती है।[3]* प्रयोगात्मक रूप से, गहरे स्वतः कूटलेखन उथले या रैखिक स्वतः कूटलेखन की तुलना में बेहतर संपीड़न उत्पन्न करते हैं।[10]


प्रशिक्षण

जेफ्री हिंटन ने कई-स्तरित गहरे स्वतः कूटलेखन के प्रशिक्षण के लिए गहरी विश्वास नेटवर्क तकनीक विकसित की। उनकी पद्धति में दो परतों के प्रत्येक पड़ोसी समुच्चय को एक प्रतिबंधित बोल्ट्जमान मशीन के रूप में इलाज करना सम्मलित है, जिससे पूर्व-प्रशिक्षण एक अच्छे समाधान का अनुमान लगा सके, फिर परिणामों को ठीक करने के लिए बैकप्रोपैजेशन का उपयोग करना इत्यादि सम्मलित है।[10]

शोधकर्ताओं ने इस बात पर बहस की है कि क्या संयुक्त प्रशिक्षण (अर्थात अनुकूलन के लिए एक वैश्विक पुनर्निर्माण उद्देश्य के साथ पूरे संरचना को एक साथ प्रशिक्षण देना) गहरे ऑटो-कूटलेखक के लिए बेहतर होगा।[27] 2015 के एक अध्ययन से पता चला है कि संयुक्त प्रशिक्षण परतवार विधि की तुलना में वर्गीकरण के लिए अधिक प्रतिनिधि सुविधाओं के साथ बेहतर डेटा मॉडल सीखता है।[27]हालांकि, उनके प्रयोगों से पता चला है कि संयुक्त प्रशिक्षण की सफलता अपनाई गई नियमितीकरण रणनीतियों पर बहुत अधिक निर्भर करती है।[27][28]


अनुप्रयोग

स्वतः कूटलेखन के दो मुख्य अनुप्रयोग हैं आयामीता में कमी और सूचना पुनर्प्राप्ति,[3] लेकिन आधुनिक विविधताओं को अन्य फलन में लागू किया गया है।

आयाम में कमी

फ़ैशन MNIST डेटासमुच्चय पर लागू किए गए रैखिक स्वतः कूटलेखन (दाएं) के पहले दो प्रमुख घटकों (बाएं) और दो-आयाम की छिपी हुई परत का प्लॉट।[29] दो मॉडल दोनों रैखिक होने के नाते एक ही उप-स्थान को फैलाना सीखते हैं। डेटा बिंदुओं का प्रक्षेपण वास्तव में समान है, उप-स्थान के रोटेशन के अलावा - जिसके लिए पीसीए अपरिवर्तनीय है।

आयामीता में कमी पहले गहन शिक्षण अनुप्रयोगों में से एक थी।[3]

हिंटन के 2006 के अध्ययन के लिए,[10]उन्होंने प्रतिबंधित बोल्ट्जमैन मशीन के ढेर के साथ एक बहु-परत स्वतः कूटलेखन का पूर्व-प्रशिक्षण दिया और फिर 30 न्यूरॉन्स की बाधा को मारने तक धीरे-धीरे छोटी छिपी परतों के साथ एक गहरे स्वतः कूटलेखन को प्रारंभ करने के लिए अपने वजन का उपयोग किया। कोड के परिणामी 30 आयामों ने एक प्रमुख घटक विश्लेषण (पीसीए) के पहले 30 घटकों की तुलना में एक छोटी पुनर्निर्माण त्रुटि उत्पन्न की, और एक विषयबोधक सीखा जो व्याख्या करने के लिए गुणात्मक रूप से आसान था, डेटा समूहों को स्पष्ट रूप से अलग करनाइत्यादि।[3][10]

आयामों का विषयबोधक वर्गीकरण जैसे फलन पर प्रदर्शन में सुधार कर सकता है।[3]सूचना पुनर्प्राप्ति लाभ विशेष रूप से उस खोज में आयामीता में कमी से कुछ प्रकार के निम्न आयामी स्थानों में अधिक कुशल हो सकते हैं। दरअसल, आयामीता में कमी की पहचान शब्दार्थ से संबंधित उदाहरणों को एक दूसरे के पास रखना है।[30]


प्रमुख घटक विश्लेषण

एक स्वतः कूटलेखन द्वारा 28x28 पिक्सेल छवियों का पुनर्निर्माण दो कोड आकार (दो-इकाइयों छिपी हुई परत) और पीसीए के पहले दो प्रमुख घटकों से पुनर्निर्माण के साथ। छवियां फैशन एमएनआईएसटी डेटासमुच्चय से आती हैं।[29]

यदि रैखिक सक्रियण का उपयोग किया जाता है, या केवल एक सिग्मॉइड छिपी हुई परत होती है, तो एक स्वतः कूटलेखन का इष्टतम समाधान प्रमुख घटक विश्लेषण (पीसीए) से दृढ़ता से संबंधित होता है।[31][32] आकार की एक छिपी हुई परत के साथ एक स्वतः कूटलेखन का वजन (जहाँ इनपुट के आकार से कम है) उसी सदिश सबस्पेस को फैलाते हैं जो पहले द्वारा फैलाया गया था प्रमुख घटक, और स्वतः कूटलेखन का आउटपुट इस उप-स्थान पर एक ऑर्थोगोनल प्रक्षेपण है। स्वतः कूटलेखन वजन प्रमुख घटकों के बराबर नहीं होते हैं, और आम तौर पर ऑर्थोगोनल नहीं होते हैं, फिर भी एकवचन मूल्य अपघटन का उपयोग करके मुख्य घटकों को उनसे पुनर्प्राप्त किया जा सकता है।[33]

हालांकि, स्वतः कूटलेखन की क्षमता उनकी गैर-रैखिकता में रहती है, जिससे मॉडल को पीसीए की तुलना में अधिक शक्तिशाली सामान्यीकरण सीखने की अनुमति मिलती है, और काफी कम सूचना हानि के साथ इनपुट का पुनर्निर्माण करने की अनुमति मिलती है।[10]


सूचना पुनर्प्राप्ति

सूचना पुनर्प्राप्ति लाभ विशेष रूप से उस खोज में आयामीता में कमी से कुछ प्रकार के निम्न आयामी स्थानों में अधिक कुशल हो सकते हैं। 2007 में रस सलाखुतदीनोव और हिंटन द्वारा प्रस्तावित सिमेंटिक हैशिंग के लिए स्वतः कूटलेखन वास्तव में लागू किए गए थे।[30]कम-आयामी बाइनरी कोड बनाने के लिए एल्गोरिदम को प्रशिक्षित करके, सभी डेटाबेस प्रविष्टियों को हैश तालिका मैपिंग बाइनरी कोड वैक्टर में प्रविष्टियों में संग्रहीत किया जा सकता है। यह तालिका तब क्वेरी के समान बाइनरी कोड वाली सभी प्रविष्टियों को लौटाकर या क्वेरी कूटलेखन से कुछ बिट्स को फ़्लिप करके थोड़ी कम समान प्रविष्टियों को वापस करके सूचना पुनर्प्राप्ति का समर्थन करेगी।

विसंगति का पता लगाना

स्वतः कूटलेखन के लिए एक अन्य एप्लिकेशन विसंगति का पता लगाना है।[2][34][35][36][37][38] पहले वर्णित कुछ बाधाओं के तहत प्रशिक्षण डेटा में सबसे मुख्य विशेषताओं को दोहराने के लिए सीखकर, मॉडल को सबसे अधिक बार देखी जाने वाली विशेषताओं को सटीक रूप से पुन: उत्पन्न करने के लिए सीखने के लिए प्रोत्साहित किया जाता है। विसंगतियों का सामना करते समय, मॉडल को अपने पुनर्निर्माण के प्रदर्शन को खराब करना चाहिए। स्वतः कूटलेखन के लिए एक अन्य एप्लिकेशन विसंगति का पता लगाना है। ज्यादातर स्थितियों में, स्वतः कूटलेखन को प्रशिक्षित करने के लिए केवल सामान्य उदाहरणों वाले डेटा का उपयोग किया जाता है; दूसरों में, अवलोकन समुच्चय की तुलना में विसंगतियों की आवृत्ति कम होती है जिससे सीखा विषयबोधक में इसके योगदान को अनदेखा किया जा सके। प्रशिक्षण के बाद, अपरिचित असंगत डेटा के साथ ऐसा करने में विफल होने पर, स्वतः कूटलेखन सामान्य डेटा को सटीक रूप से पुनर्निर्माण करेगा।[36]पुनर्निर्माण त्रुटि (मूल डेटा और इसके निम्न आयामी पुनर्निर्माण के बीच की त्रुटि) का उपयोग विसंगतियों का पता लगाने के लिए एक विसंगति स्कोर के रूप में किया जाता है।[36]

हाल के साहित्य ने हालांकि दिखाया है कि कुछ स्वतः कूटलेखन मॉडल, विपरीत रूप से, विषम उदाहरणों के पुनर्निर्माण में बहुत अच्छे हो सकते हैं और फलस्वरूप विसंगति का पता लगाने में सक्षम नहीं हो सकते हैं।[39][40]


प्रतिबिम्ब प्रसंस्करण

प्रतिबिम्ब प्रसंस्करण में स्वतः कूटलेखन की विशेषताएँ उपयोगी होती हैं।पारंपरिक स्वतः कूटलेखन के विपरीत, आउटपुट इनपुट से मेल नहीं खाता - यह दूसरी भाषा में है।

एक उदाहरण हानिपूर्ण छवि संपीड़न में पाया जा सकता है, जहां स्वतः कूटलेखन ने अन्य तरीकों से बेहतर प्रदर्शन किया और जेपीईजी 2000 के विरूद्ध प्रतिस्पर्धी प्रमाणित हुए।[41][42]

प्रतिबिम्ब प्रीप्रसंस्करण में स्वतः कूटलेखन का एक अन्य उपयोगी अनुप्रयोग छवि डीनोइजिंग है।[43][44][45]

स्वतः कूटलेखन को अधिक मांग वाले संदर्भों में उपयोग किया जाता है जैसे कि मेडिकल इमेजिंग जहां उनका उपयोग प्रतिबिम्ब डीनोइज़िंग के लिए किया गया है[46] साथ ही सुपर संकल्प[47][48] छवि-सहायता निदान में, प्रयोगों ने स्तन कैंसर का पता लगाने के लिए स्वतः कूटलेखन लागू किया है[49] और अल्जाइमर रोग के संज्ञानात्मक गिरावट और एमआरआई के साथ प्रशिक्षित एक स्वतः कूटलेखन की गुप्त विशेषताओं के बीच संबंध मॉडलिंग के लिए स्वतः कूटलेखन लागू किया है।[50]


दवा की खोज

2019 में वैरिएंटल स्वतः कूटलेखन के साथ उत्पन्न अणुओं को चूहों में प्रयोगात्मक रूप से मान्य किया गया था।[51][52]


लोकप्रियता भविष्यवाणी

हाल ही में, एक स्टैक्ड स्वतः कूटलेखन ढांचे ने सोशल मीडिया पोस्ट की लोकप्रियता की भविष्यवाणी करने में आशाजनक परिणाम उत्पन्न किए,[53] जो ऑनलाइन विज्ञापन रणनीतियों के लिए सहायक है।

मशीनी अनुवाद

मशीनी अनुवाद के लिए स्वतः कूटलेखन लागू किया गया है, जिसे सामान्यतः तंत्रिका मशीन अनुवाद (एनएमटी) के रूप में जाना जाता है।[54][55] पारंपरिक स्वतः कूटलेखन के विपरीत, आउटपुट इनपुट से मेल नहीं खाता - यह दूसरी भाषा में है। एनएमटी में, ग्रंथों को सीखने की प्रक्रिया में कूटलेखन किए जाने वाले अनुक्रमों के रूप में माना जाता है, जबकि लक्ष्य भाषा (भाषाओं) में कूटवाचन साइड अनुक्रम उत्पन्न होते हैं। भाषा-विशिष्ट स्वतः कूटलेखन सीखने की प्रक्रिया में और अधिक भाषाई विशेषताओं को सम्मलित करते हैं, जैसे कि चीनी अपघटन सुविधाएँ।[56] मशीन अनुवाद अभी भी अनुमानतः ही कभी स्वतः कूटलेखन के साथ किया जाता है, बल्कि ट्रांसफार्मर (मशीन लर्निंग मॉडल) नेटवर्क के साथ किया जाता है।

यह भी देखें







संदर्भ

  1. Jump up to: 1.0 1.1 1.2 Kramer, Mark A. (1991). "ऑटोएसोसिएटिव न्यूरल नेटवर्क का उपयोग करते हुए नॉनलाइनियर प्रिंसिपल कंपोनेंट एनालिसिस" (PDF). AIChE Journal. 37 (2): 233–243. doi:10.1002/aic.690370209.
  2. Jump up to: 2.0 2.1 Kramer, M. A. (1992-04-01). "Autoassociative तंत्रिका नेटवर्क". Computers & Chemical Engineering. Neutral network applications in chemical engineering (in English). 16 (4): 313–328. doi:10.1016/0098-1354(92)80051-A. ISSN 0098-1354.
  3. Jump up to: 3.00 3.01 3.02 3.03 3.04 3.05 3.06 3.07 3.08 3.09 3.10 Goodfellow, Ian; Bengio, Yoshua; Courville, Aaron (2016). ध्यान लगा के पढ़ना या सीखना. MIT Press. ISBN 978-0262035613.
  4. Jump up to: 4.0 4.1 4.2 4.3 Vincent, Pascal; Larochelle, Hugo (2010). "Stacked Denoising Autoencoders: Learning Useful Representations in a Deep Network with a Local Denoising Criterion". Journal of Machine Learning Research. 11: 3371–3408.
  5. Welling, Max; Kingma, Diederik P. (2019). "परिवर्तनशील ऑटोएन्कोडर का परिचय". Foundations and Trends in Machine Learning. 12 (4): 307–392. arXiv:1906.02691. Bibcode:2019arXiv190602691K. doi:10.1561/2200000056. S2CID 174802445.
  6. Hinton GE, Krizhevsky A, Wang SD. Transforming auto-encoders. In International Conference on Artificial Neural Networks 2011 Jun 14 (pp. 44-51). Springer, Berlin, Heidelberg.
  7. Jump up to: 7.0 7.1 Géron, Aurélien (2019). स्किकिट-लर्न, केरस और टेंसरफ्लो के साथ हैंड्स-ऑन मशीन लर्निंग. Canada: O’Reilly Media, Inc. pp. 739–740.
  8. Liou, Cheng-Yuan; Huang, Jau-Chi; Yang, Wen-Chie (2008). "Elman नेटवर्क का उपयोग करके मॉडलिंग शब्द धारणा". Neurocomputing. 71 (16–18): 3150. doi:10.1016/j.neucom.2008.04.030.
  9. Liou, Cheng-Yuan; Cheng, Wei-Chen; Liou, Jiun-Wei; Liou, Daw-Ran (2014). "शब्दों के लिए ऑटोएन्कोडर". Neurocomputing. 139: 84–96. doi:10.1016/j.neucom.2013.09.055.
  10. Jump up to: 10.0 10.1 10.2 10.3 10.4 10.5 Hinton, G. E.; Salakhutdinov, R.R. (2006-07-28). "न्यूरल नेटवर्क्स के साथ डेटा की डायमेंशनलिटी को कम करना". Science. 313 (5786): 504–507. Bibcode:2006Sci...313..504H. doi:10.1126/science.1127647. PMID 16873662. S2CID 1658773.
  11. Jump up to: 11.0 11.1 Bengio, Y. (2009). "एआई के लिए डीप आर्किटेक्चर सीखना" (PDF). Foundations and Trends in Machine Learning. 2 (8): 1795–7. CiteSeerX 10.1.1.701.9550. doi:10.1561/2200000006. PMID 23946944.
  12. Japkowicz, Nathalie; Hanson, Stephen José; Gluck, Mark A. (2000-03-01). "नॉनलाइनियर ऑटोएसोसिएशन पीसीए के समतुल्य नहीं है". Neural Computation. 12 (3): 531–545. doi:10.1162/089976600300015691. ISSN 0899-7667. PMID 10769321. S2CID 18490972.
  13. Schwenk, Holger; Bengio, Yoshua (1997). "तंत्रिका नेटवर्क के अनुकूली बूस्टिंग के लिए प्रशिक्षण के तरीके". Advances in Neural Information Processing Systems. MIT Press. 10.
  14. Schmidhuber, Jürgen (January 2015). "Deep learning in neural networks: An overview". Neural Networks. 61: 85–117. arXiv:1404.7828. doi:10.1016/j.neunet.2014.09.003. PMID 25462637. S2CID 11715509.
  15. Hinton, G. E., & Zemel, R. S. (1994). Autoencoders, minimum description length and Helmholtz free energy. In Advances in neural information processing systems 6 (pp. 3-10).
  16. Diederik P Kingma; Welling, Max (2013). "ऑटो-एन्कोडिंग वेरिएशनल बेज़". arXiv:1312.6114 [stat.ML].
  17. मशाल के साथ चेहरे बनाना, बोसेन ए, लार्सन एल और सोंडरबी एसके, 2015 {{url|http://torch.ch/blog/2015/11/13/gan.html}
  18. Domingos, Pedro (2015). "4". द मास्टर एल्गोरिथम: हाउ द क्वेस्ट फॉर द अल्टीमेट लर्निंग मशीन विल रीमेक अवर वर्ल्ड. Basic Books. "Deeper into the Brain" subsection. ISBN 978-046506192-1.
  19. Cite error: Invalid <ref> tag; no text was provided for refs named domingos
  20. Jump up to: 20.0 20.1 Frey, Brendan; Makhzani, Alireza (2013-12-19). "के-स्पार्स ऑटोएन्कोडर्स". arXiv:1312.5663. Bibcode:2013arXiv1312.5663M. {{cite journal}}: Cite journal requires |journal= (help)
  21. Jump up to: 21.0 21.1 Makhzani, Alireza; Frey, Brendan (2013). "के-स्पार्स ऑटोएन्कोडर". arXiv:1312.5663 [cs.LG].
  22. Jump up to: 22.0 22.1 Ng, A. (2011). Sparse autoencoder. CS294A Lecture notes, 72(2011), 1-19.
  23. Nair, Vinod; Hinton, Geoffrey E. (2009). "3D Object Recognition with Deep Belief Nets". Proceedings of the 22nd International Conference on Neural Information Processing Systems. NIPS'09. USA: Curran Associates Inc.: 1339–1347. ISBN 9781615679119.
  24. Zeng, Nianyin; Zhang, Hong; Song, Baoye; Liu, Weibo; Li, Yurong; Dobaie, Abdullah M. (2018-01-17). "गहरे विरल ऑटोएन्कोडर्स सीखने के माध्यम से चेहरे की अभिव्यक्ति की पहचान". Neurocomputing. 273: 643–649. doi:10.1016/j.neucom.2017.08.043. ISSN 0925-2312.
  25. Hinton, Geoffrey E; Zemel, Richard (1993). "Autoencoders, न्यूनतम विवरण लंबाई और Helmholtz मुक्त ऊर्जा". Advances in Neural Information Processing Systems. Morgan-Kaufmann. 6.
  26. Abid, Abubakar; Balin, Muhammad Fatih; Zou, James (2019-01-27). "अलग-अलग फ़ीचर चयन और पुनर्निर्माण के लिए कंक्रीट ऑटोएनकोडर". arXiv:1901.09346 [cs.LG].
  27. Jump up to: 27.0 27.1 27.2 Zhou, Yingbo; Arpit, Devansh; Nwogu, Ifeoma; Govindaraju, Venu (2014). "Is Joint Training Better for Deep Auto-Encoders?". arXiv:1405.1380 [stat.ML].
  28. R. Salakhutdinov and G. E. Hinton, “Deep boltzmann machines,” in AISTATS, 2009, pp. 448–455.
  29. Jump up to: 29.0 29.1 "फैशन एमएनआईएसटी". GitHub. 2019-07-12.
  30. Jump up to: 30.0 30.1 Salakhutdinov, Ruslan; Hinton, Geoffrey (2009-07-01). "सिमेंटिक हैशिंग". International Journal of Approximate Reasoning. Special Section on Graphical Models and Information Retrieval. 50 (7): 969–978. doi:10.1016/j.ijar.2008.11.006. ISSN 0888-613X.
  31. Bourlard, H.; Kamp, Y. (1988). "बहुपरत परसेप्ट्रॉन और विलक्षण मूल्य अपघटन द्वारा ऑटो-एसोसिएशन". Biological Cybernetics. 59 (4–5): 291–294. doi:10.1007/BF00332918. PMID 3196773. S2CID 206775335.
  32. Chicco, Davide; Sadowski, Peter; Baldi, Pierre (2014). "Deep autoencoder neural networks for gene ontology annotation predictions". Proceedings of the 5th ACM Conference on Bioinformatics, Computational Biology, and Health Informatics - BCB '14. p. 533. doi:10.1145/2649387.2649442. hdl:11311/964622. ISBN 9781450328944. S2CID 207217210.
  33. Plaut, E (2018). "लीनियर ऑटोएन्कोडर के साथ प्रिंसिपल सबस्पेस से लेकर प्रिंसिपल कंपोनेंट्स तक". arXiv:1804.10253 [stat.ML].
  34. Morales-Forero, A.; Bassetto, S. (December 2019). "Case Study: A Semi-Supervised Methodology for Anomaly Detection and Diagnosis". 2019 IEEE International Conference on Industrial Engineering and Engineering Management (IEEM). Macao, Macao: IEEE: 1031–1037. doi:10.1109/IEEM44572.2019.8978509. ISBN 978-1-7281-3804-6. S2CID 211027131.
  35. Sakurada, Mayu; Yairi, Takehisa (December 2014). "गैर-रैखिक आयाम में कमी के साथ ऑटोएन्कोडर का उपयोग करके विसंगति का पता लगाना". Proceedings of the MLSDA 2014 2nd Workshop on Machine Learning for Sensory Data Analysis - MLSDA'14 (in English). Gold Coast, Australia QLD, Australia: ACM Press: 4–11. doi:10.1145/2689746.2689747. ISBN 978-1-4503-3159-3. S2CID 14613395.
  36. Jump up to: 36.0 36.1 36.2 An, J., & Cho, S. (2015). Variational Autoencoder based Anomaly Detection using Reconstruction Probability. Special Lecture on IE, 2, 1-18.
  37. Zhou, Chong; Paffenroth, Randy C. (2017-08-04). "मजबूत डीप ऑटोएन्कोडर के साथ विसंगति का पता लगाना". Proceedings of the 23rd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining (in English). Halifax NS Canada: ACM: 665–674. doi:10.1145/3097983.3098052. ISBN 978-1-4503-4887-4. S2CID 207557733.
  38. Ribeiro, Manassés; Lazzaretti, André Eugênio; Lopes, Heitor Silvério (2018). "वीडियो में विसंगति का पता लगाने के लिए डीप कन्वेन्शनल ऑटो-एनकोडर का अध्ययन". Pattern Recognition Letters. 105: 13–22. Bibcode:2018PaReL.105...13R. doi:10.1016/j.patrec.2017.07.016.
  39. Nalisnick, Eric; Matsukawa, Akihiro; Teh, Yee Whye; Gorur, Dilan; Lakshminarayanan, Balaji (2019-02-24). "Do Deep Generative Models Know What They Don't Know?". arXiv:1810.09136 [stat.ML].
  40. Xiao, Zhisheng; Yan, Qing; Amit, Yali (2020). "Likelihood Regret: An Out-of-Distribution Detection Score For Variational Auto-encoder". Advances in Neural Information Processing Systems (in English). 33. arXiv:2003.02977.
  41. Theis, Lucas; Shi, Wenzhe; Cunningham, Andrew; Huszár, Ferenc (2017). "कंप्रेसिव ऑटोएन्कोडर्स के साथ हानिपूर्ण छवि संपीड़न". arXiv:1703.00395 [stat.ML].
  42. Balle, J; Laparra, V; Simoncelli, EP (April 2017). "End-to-end optimized image compression". लर्निंग रिप्रेजेंटेशन पर अंतर्राष्ट्रीय सम्मेलन. arXiv:1611.01704.
  43. Cho, K. (2013, February). Simple sparsification improves sparse denoising autoencoders in denoising highly corrupted images. In International Conference on Machine Learning (pp. 432-440).
  44. Cho, Kyunghyun (2013). "इमेज डीनॉइज़िंग के लिए बोल्ट्जमैन मशीनें और डीनोइज़िंग ऑटोएनकोडर्स". arXiv:1301.3468 [stat.ML].
  45. Buades, A.; Coll, B.; Morel, J. M. (2005). "एक नए के साथ इमेज डेनोइजिंग एल्गोरिदम की समीक्षा". Multiscale Modeling & Simulation. 4 (2): 490–530. doi:10.1137/040616024. S2CID 218466166.
  46. Gondara, Lovedeep (December 2016). "कनवॉल्यूशनल डीनोइज़िंग ऑटोएनकोडर्स का उपयोग करके मेडिकल इमेज डीनोइज़िंग". 2016 IEEE 16th International Conference on Data Mining Workshops (ICDMW). Barcelona, Spain: IEEE: 241–246. arXiv:1608.04667. Bibcode:2016arXiv160804667G. doi:10.1109/ICDMW.2016.0041. ISBN 9781509059102. S2CID 14354973.
  47. Zeng, Kun; Yu, Jun; Wang, Ruxin; Li, Cuihua; Tao, Dacheng (January 2017). "सिंगल इमेज सुपर-रिज़ॉल्यूशन के लिए युग्मित डीप ऑटोएन्कोडर". IEEE Transactions on Cybernetics. 47 (1): 27–37. doi:10.1109/TCYB.2015.2501373. ISSN 2168-2267. PMID 26625442. S2CID 20787612.
  48. Tzu-Hsi, Song; Sanchez, Victor; Hesham, EIDaly; Nasir M., Rajpoot (2017). "अस्थि मज्जा ट्रेफिन बायोप्सी छवियों में विभिन्न प्रकार की कोशिकाओं का पता लगाने के लिए कर्वेचर गॉसियन के साथ हाइब्रिड डीप ऑटोएनकोडर". 2017 IEEE 14th International Symposium on Biomedical Imaging (ISBI 2017): 1040–1043. doi:10.1109/ISBI.2017.7950694. ISBN 978-1-5090-1172-8. S2CID 7433130.
  49. Xu, Jun; Xiang, Lei; Liu, Qingshan; Gilmore, Hannah; Wu, Jianzhong; Tang, Jinghai; Madabhushi, Anant (January 2016). "स्तन कैंसर हिस्टोपैथोलॉजी छवियों पर नाभिक जांच के लिए स्टैक्ड स्पार्स ऑटोएन्कोडर (एसएसएई)". IEEE Transactions on Medical Imaging. 35 (1): 119–130. doi:10.1109/TMI.2015.2458702. PMC 4729702. PMID 26208307.
  50. Martinez-Murcia, Francisco J.; Ortiz, Andres; Gorriz, Juan M.; Ramirez, Javier; Castillo-Barnes, Diego (2020). "Studying the Manifold Structure of Alzheimer's Disease: A Deep Learning Approach Using Convolutional Autoencoders". IEEE Journal of Biomedical and Health Informatics. 24 (1): 17–26. doi:10.1109/JBHI.2019.2914970. PMID 31217131. S2CID 195187846.
  51. Zhavoronkov, Alex (2019). "डीप लर्निंग शक्तिशाली DDR1 किनेज अवरोधकों की तेजी से पहचान को सक्षम बनाता है". Nature Biotechnology. 37 (9): 1038–1040. doi:10.1038/s41587-019-0224-x. PMID 31477924. S2CID 201716327.
  52. Gregory, Barber. "एआई द्वारा डिज़ाइन किया गया एक अणु 'ड्रगलाइक' गुण प्रदर्शित करता है". Wired.
  53. De, Shaunak; Maity, Abhishek; Goel, Vritti; Shitole, Sanjay; Bhattacharya, Avik (2017). "Predicting the popularity of instagram posts for a lifestyle magazine using deep learning". 2017 2nd IEEE International Conference on Communication Systems, Computing and IT Applications (CSCITA). pp. 174–177. doi:10.1109/CSCITA.2017.8066548. ISBN 978-1-5090-4381-1. S2CID 35350962.
  54. Cho, Kyunghyun; Bart van Merrienboer; Bahdanau, Dzmitry; Bengio, Yoshua (2014). "On the Properties of Neural Machine Translation: Encoder-Decoder Approaches". arXiv:1409.1259 [cs.CL].
  55. Sutskever, Ilya; Vinyals, Oriol; Le, Quoc V. (2014). "तंत्रिका नेटवर्क के साथ सीक्वेंस टू सीक्वेंस लर्निंग". arXiv:1409.3215 [cs.CL].
  56. Han, Lifeng; Kuang, Shaohui (2018). "Incorporating Chinese Radicals into Neural Machine Translation: Deeper Than Character Level". arXiv:1805.01565 [cs.CL].