दिष्टकारी (तंत्रिका नेटवर्क): Difference between revisions
m (added Category:Vigyan Ready using HotCat) |
No edit summary |
||
(One intermediate revision by one other user not shown) | |||
Line 199: | Line 199: | ||
[[Category:Articles with hatnote templates targeting a nonexistent page]] | [[Category:Articles with hatnote templates targeting a nonexistent page]] | ||
[[Category:CS1 English-language sources (en)]] | |||
[[Category:CS1 maint]] | |||
[[Category:Collapse templates]] | [[Category:Collapse templates]] | ||
[[Category:Created On 08/07/2023]] | [[Category:Created On 08/07/2023]] | ||
[[Category:Lua-based templates]] | |||
[[Category:Machine Translated Page]] | [[Category:Machine Translated Page]] | ||
[[Category:Navigational boxes| ]] | [[Category:Navigational boxes| ]] | ||
Line 208: | Line 211: | ||
[[Category:Pages with reference errors]] | [[Category:Pages with reference errors]] | ||
[[Category:Pages with script errors]] | [[Category:Pages with script errors]] | ||
[[Category:Vigyan Ready]] | [[Category:Templates Translated in Hindi]] | ||
[[Category:Templates Vigyan Ready]] | |||
[[Category:Templates that add a tracking category]] | |||
[[Category:Templates that generate short descriptions]] | |||
[[Category:Templates using TemplateData]] |
Latest revision as of 19:35, 21 July 2023
Part of a series on |
Machine learning and data mining |
---|
कृत्रिम तंत्रिका नेटवर्क के संदर्भ में, रेक्टिफायर या ReLU (रेक्टिफाइड लीनियर यूनिट) सक्रियण फलन[1][2] है जिसे इसके तर्क के अनुसार धनात्मक भाग के रूप में परिभाषित किया गया है:
|
|
जहां x न्यूरॉन का इनपुट है। इसे रैंप समारोह के रूप में भी जाना जाता है, और इस कारण यह विद्युत अभियन्त्रण में आधे-तरंग सुधार के अनुरूप है। यह सक्रियण फलन 1969 में कुनिहिको फुकुशिमा द्वारा पदानुक्रमित तंत्रिका नेटवर्क में दृश्य सुविधा निष्कर्षण के संदर्भ में प्रस्तुत किया गया था।[3][4][5] इसके पश्चात यह तर्क दिया गया कि इसमें शक्तिशाली जैविक प्रेरणाएँ और गणितीय औचित्य भी सम्मिलित हैं।[6][7] इसके आधार पर 2011 में यह पाया गया कि यह गहरे नेटवर्क के उच्चतम प्रशिक्षण को सक्षम बनाता है,[8] इस प्रकार 2011 से पहले व्यापक रूप से उपयोग किए जाने वाले सक्रियण कार्यों की तुलना में उदाहरण के लिए लॉजिस्टिक फलन जो संभाव्यता सिद्धांत से प्रेरित है, जिसके लिए संभार तन्त्र परावर्तन के देखा जा सकता हैं और यह अधिक व्यावहारिक भी है,[9] इसके समकक्ष, अतिशयोक्तिपूर्ण स्पर्शरेखा या दिष्टकारी है, इसकी गहन शिक्षण के लिए सबसे लोकप्रिय सक्रियण फलन उपलब्ध हैं।[10]
रेक्टिफाइड रैखिक इकाइयां कंप्यूटर दृष्टि में अनुप्रयोग को ढूंढती हैं[8]और इसके कारण वाक् पहचान[11][12] मुख्य रूप से गहन शिक्षण और कम्प्यूटेशनल तंत्रिका विज्ञान का उपयोग करता हैं।[13][14][15]
लाभ
- विरल सक्रियण: उदाहरण के लिए, यादृच्छिक रूप से आरंभ किए गए नेटवर्क में, केवल लगभग 50% छिपी हुई इकाइयाँ सक्रिय होती हैं, इस प्रकार यह गैर-शून्य आउटपुट होता है।
- इसके उच्चतम ग्रेडिएंट प्रसार के लिए यह दोनों दिशाओं में संतृप्त सिग्मोइडल सक्रियण कार्यों की तुलना में कम विलुप्त होने वाली ग्रेडिएंट समस्या का हल हैं।[8]
- कुशल गणना: केवल तुलना, जोड़ और गुणा करने में सहायक हैं।
- स्केल-अपरिवर्तनीय: हैं।
तंत्रिका अमूर्त पिरामिड में विशिष्ट उत्तेजना और अनिर्दिष्ट अवरोध को अलग करने के लिए सुधारात्मक सक्रियण कार्यों का उपयोग किया गया था, जिसे कई कंप्यूटर दृष्टि कार्यों को सीखने के लिए पर्यवेक्षित तरीके से प्रशिक्षित किया गया था।[16] इस कारण 2011 में,[8]गैर-रैखिकता के रूप में रेक्टिफायर का उपयोग बिना पर्यवेक्षण के सीखना प्री-ट्रेनिंग की आवश्यकता के बिना गहन पर्यवेक्षित अध्ययन न्यूरल नेटवर्क को प्रशिक्षित करने में सक्षम बनाता है। सिग्मॉइड फलन या समान सक्रियण फलन की तुलना में रेक्टिफाइड रैखिक इकाइयाँ, बड़े और जटिल डेटासेट पर गहरे तंत्रिका आर्किटेक्चर के तेज़ और प्रभावी प्रशिक्षण की अनुमति देती हैं।
संभावित समस्याएँ
- शून्य पर अभेद्य, चूंकि, यह कहीं और भिन्न है, और शून्य पर व्युत्पन्न का मान मनमाने ढंग से 0 या 1 चुना जा सकता है।
- शून्य केन्द्रित नहीं.
- असीमित.
- खत्म होने वाली ReLU समस्याएं: ReLU (सुधारित रैखिक इकाई) मुख्यतः न्यूरॉन्स को कभी-कभी ऐसी स्थिति में धकेल दिया जाता है जहां वे अनिवार्य रूप से सभी इनपुट के लिए निष्क्रिय हो जाते हैं। इस अवस्था में, कोई भी ग्रेडिएंट न्यूरॉन के माध्यम से पीछे की ओर प्रवाहित नहीं होता है, और इसलिए न्यूरॉन सदैव के लिए निष्क्रिय अवस्था में फंस जाता है और खत्म हो जाता है। यह लुप्त हो रही ग्रेडिएंट समस्या का रूप है। कुछ स्थितियों में, नेटवर्क में बड़ी संख्या में न्यूरॉन्स मृत अवस्था में फंस सकते हैं, जिससे प्रभावी रूप से प्रारूप क्षमता कम हो सकती है। यह समस्या सामान्यतः तब उत्पन्न होती है, जब सीखने की दर बहुत अधिक निर्धारित की जाती है। इसके अतिरिक्त लीकी ReLUs का उपयोग करके इसे कम किया जा सकता है, जो x <0 के लिए छोटा सा धनात्मक प्रवणता निर्दिष्ट करता है, चूंकि इसका प्रदर्शन कम हो गया है।
वेरिएंट
टुकड़े-टुकड़े-रैखिक वेरिएंट
लीक ReLU
जब इकाई सक्रिय नहीं होती है तो लीकी ReLUs छोटे, धनात्मक ग्रेडिएंट की अनुमति देते हैं,[12] जो लुप्त होने वाली ग्रेडिएंट समस्या को कम करने में सहायता करता हैं।
|
|
पैरामीट्रिक ReLU
पैरामीट्रिक ReLUs (PReLUs) रिसाव के गुणांक को पैरामीटर में बनाकर इस विचार को आगे ले जाते हैं जिसे अन्य तंत्रिका-नेटवर्क मापदंडों के साथ सीखा जाता है।[17]
|
|
ध्यान दें कि ≤ 1 के लिए, यह इसके बराबर है
और इस प्रकार इसका मैक्सआउट नेटवर्क से संबंध है।[17]
अन्य गैर-रैखिक वेरिएंट
गाऊसी-त्रुटि रैखिक इकाई (GELU)
GELU रेक्टिफायर का सहज फलन है:
|
|
जहां Φ(x) मानक सामान्य वितरण का संचयी वितरण फलन है। इस प्रकार समीकरण प्राप्त होता हैं।
यह सक्रियण फलन इस आलेख के प्रारंभ में दिए गए चित्र में दिखाया गया है। जब x < 0 होता है, तो इसमें गैर-मोनोटोनिक "बम्प" होता है और यह BERT_(भाषा_प्रारूप) जैसे प्रारूपों के लिए डिफ़ॉल्ट सक्रियण के रूप में कार्य करता है।[18]
सिलु
SiLU (सिग्मॉइड लीनियर यूनिट) या स्विश फलन[19] मुख्यतः सहज फलन है, जिसे सबसे पहले GELU पेपर में गढ़ा गया था:[18]
|
|
कहाँ सिग्मॉइड फलन है.
सॉफ्टप्लस
रेक्टिफायर का सहज फलन विश्लेषणात्मक कार्य है
|
|
जिसे सॉफ्टप्लस या स्मूथरेलू फलन कहा जाता है[20][8][21] इस प्रकार बड़े ऋणात्मक मान के लिए यह मुख्य रूप से मान के लिए उपयोग करते है, तो इस प्रकार यह 0 से ठीक ऊपर प्राप्त होता हैं, जबकि इस प्रकार के बड़े धनात्मक मानों के लिए को मुख्य रूप से के ऊपर रखते है, तो इस प्रकार का मान इस प्रकार प्राप्त होता हैं।
एक तीक्ष्णता पैरामीटर सम्मिलित किया जा सकता है:
|
|
सॉफ्टप्लस का व्युत्पन्न लॉजिस्टिक फलन है।
लॉजिस्टिक सिग्मॉइड फलन रेक्टिफायर के व्युत्पन्न, हेविसाइड स्टेप फलन का सहज अनुमान है।
सिंगल-वेरिएबल सॉफ्टप्लस का बहुपरिवर्तनीय सामान्यीकरण LogSumExp है, जिसमें पहला तर्क शून्य पर स्थिर रहता है:
LogSumExp फलन है।
और इसका ग्रेडिएंट सॉफ्टमैक्स फलन है, जो शून्य पर स्थिर किए गए पहले तर्क के साथ सॉफ्टमैक्स लॉजिस्टिक फलन का बहुपरिवर्तनीय सामान्यीकरण है। इसके आधार पर मशीन लर्निंग में LogSumExp और Softmax दोनों का उपयोग किया जाता है।
ईएलयू
घातीय रैखिक इकाइयाँ माध्य सक्रियणों को शून्य को समीप बनाने का प्रयास करती हैं, जिससे सीखने की गति बढ़ती है। यह दिखाया गया है कि ELUs ReLUs की तुलना में उच्च वर्गीकरण सटीकता प्राप्त कर सकते हैं।[22]
|
|
इन सूत्रों में, हाइपरपैरामीटर (मशीन लर्निंग) है | हाइपर-पैरामीटर जिसे बाधा के साथ ट्यून किया जाना है।
ELU को स्थानांतरित ReLU (SReLU) के सुचारू संस्करण के रूप में देखा जा सकता है, जिसका स्वरूप है। इस प्रकार की वही व्याख्या दी गई है।
मिश
मिश फलन का उपयोग रेक्टिफायर के सुचारू फलन के रूप में भी किया जा सकता है।[19] इसे इस प्रकार परिभाषित किया गया है
जहाँ अतिशयोक्तिपूर्ण स्पर्शज्या है, और सॉफ्टप्लस फलन है।
मिश गैर- एकरस और स्व-गेटेड है।[23] यह स्विश (फलन) से प्रेरित था, जो स्वयं ReLU का प्रकार था।[23]
स्क्वायरप्लस
स्क्वायरप्लस[24] फलन है।
जहाँ हाइपरपैरामीटर है जो पास के घुमावदार क्षेत्र का आकार निर्धारित करता है। उदाहरण के लिए, देना ReLU उत्पन्न करता है, और यह मान देता है, जिसके द्वारा धात्विक माध्य फलन प्राप्त होता है।
स्क्वायरप्लस सॉफ्टप्लस के साथ कई गुण साझा करता है: यह मोनोटोनिक फलन है, इसका सख्ती से धनात्मक (गणित), 0 के रूप में तक पहुंचता है, इसकी पहचान के लिए दृष्टिकोण उपयोग किया जाता है, और इसका मान है। जो सुचारू कार्य करने में सफल हैं। चूंकि स्क्वायरप्लस की गणना केवल बीजगणितीय फलन का उपयोग करके की जा सकती है, जिससे यह उन सेटिंग्स के लिए उपयुक्त है, जहां कम्प्यूटेशनल संसाधन या निर्देश सेट सीमित हैं। इसके अतिरिक्त, स्क्वेयरप्लस को संख्यात्मक स्थिरता सुनिश्चित करने के लिए किसी विशेष विचार की आवश्यकता नहीं होती है, जो के मान से अधिक है।
यह भी देखें
- सॉफ्टमैक्स फलन
- सिग्मॉइड फलन
- टोबिट प्रारूप
- परत (गहन शिक्षा)
संदर्भ
- ↑ Brownlee, Jason (8 January 2019). "रेक्टिफाइड लीनियर यूनिट (ReLU) का एक संक्षिप्त परिचय". Machine Learning Mastery. Retrieved 8 April 2021.
- ↑ Liu, Danqing (30 November 2017). "ReLU के लिए एक व्यावहारिक मार्गदर्शिका". Medium (in English). Retrieved 8 April 2021.
- ↑ Fukushima, K. (1969). "एनालॉग थ्रेशोल्ड तत्वों के बहुस्तरीय नेटवर्क द्वारा दृश्य सुविधा निष्कर्षण". IEEE Transactions on Systems Science and Cybernetics. 5 (4): 322–333. doi:10.1109/TSSC.1969.300225.
- ↑ Fukushima, K.; Miyake, S. (1982). "Neocognitron: A self-organizing neural network model for a mechanism of visual pattern recognition". In Competition and Cooperation in Neural Nets. Lecture Notes in Biomathematics. Springer. 45: 267–285. doi:10.1007/978-3-642-46466-9_18. ISBN 978-3-540-11574-8.
- ↑ Schmidhuber, Juergen (2022). "आधुनिक एआई और डीप लर्निंग का एनोटेटेड इतिहास". arXiv:2212.11279 [cs.NE].
- ↑ Hahnloser, R.; Sarpeshkar, R.; Mahowald, M. A.; Douglas, R. J.; Seung, H. S. (2000). "डिजिटल चयन और एनालॉग प्रवर्धन कॉर्टेक्स-प्रेरित सिलिकॉन सर्किट में सह-अस्तित्व में हैं". Nature. 405 (6789): 947–951. Bibcode:2000Natur.405..947H. doi:10.1038/35016072. PMID 10879535. S2CID 4399014.
- ↑ Hahnloser, R.; Seung, H. S. (2001). सममित थ्रेशोल्ड-रैखिक नेटवर्क में अनुमत और निषिद्ध सेट. NIPS 2001.
- ↑ 8.0 8.1 8.2 8.3 8.4 Xavier Glorot; Antoine Bordes; Yoshua Bengio (2011). गहरे विरल दिष्टकारी तंत्रिका नेटवर्क (PDF). AISTATS.
Rectifier and softplus activation functions. The second one is a smooth version of the first.
- ↑ Yann LeCun, Leon Bottou, Genevieve B. Orr and Klaus-Robert Müller (1998). "कुशल बैकप्रॉप" (PDF). In G. Orr; K. Müller (eds.). Neural Networks: Tricks of the Trade. Springer.
{{cite encyclopedia}}
: CS1 maint: uses authors parameter (link) - ↑ Ramachandran, Prajit; Barret, Zoph; Quoc, V. Le (October 16, 2017). "सक्रियण फ़ंक्शंस की खोज". arXiv:1710.05941 [cs.NE].
- ↑ László Tóth (2013). डीप स्पार्स रेक्टिफायर न्यूरल नेटवर्क के साथ फोन की पहचान (PDF). ICASSP.
{{cite conference}}
: CS1 maint: uses authors parameter (link) - ↑ 12.0 12.1 Andrew L. Maas, Awni Y. Hannun, Andrew Y. Ng (2014). Rectifier Nonlinearities Improve Neural Network Acoustic Models.
- ↑ Hansel, D.; van Vreeswijk, C. (2002). "कैट विज़ुअल कॉर्टेक्स में ओरिएंटेशन ट्यूनिंग के विपरीत परिवर्तन में शोर कैसे योगदान देता है". J. Neurosci. 22 (12): 5118–5128. doi:10.1523/JNEUROSCI.22-12-05118.2002. PMC 6757721. PMID 12077207.
- ↑ Kadmon, Jonathan; Sompolinsky, Haim (2015-11-19). "रैंडम न्यूरोनल नेटवर्क में अराजकता की ओर संक्रमण". Physical Review X. 5 (4): 041030. arXiv:1508.06486. Bibcode:2015PhRvX...5d1030K. doi:10.1103/PhysRevX.5.041030. S2CID 7813832.
- ↑ Engelken, Rainer; Wolf, Fred; Abbott, L. F. (2020-06-03). "अराजक आवर्तक तंत्रिका नेटवर्क का ल्यपुनोव स्पेक्ट्रा". arXiv:2006.02427 [nlin.CD].
- ↑ Behnke, Sven (2003). छवि व्याख्या के लिए पदानुक्रमित तंत्रिका नेटवर्क. Lecture Notes in Computer Science. Vol. 2766. Springer. doi:10.1007/b11963. ISBN 978-3-540-40722-5. S2CID 1304548.
- ↑ 17.0 17.1 He, Kaiming; Zhang, Xiangyu; Ren, Shaoqing; Sun, Jian (2015). "Delving Deep into Rectifiers: Surpassing Human-Level Performance on Image Net Classification". arXiv:1502.01852 [cs.CV].
- ↑ 18.0 18.1 Hendrycks, Dan; Gimpel, Kevin (2016). "गाऊसी त्रुटि रैखिक इकाइयाँ (GELUs)". arXiv:1606.08415 [cs.LG].
- ↑ 19.0 19.1 Diganta Misra (23 Aug 2019), Mish: A Self Regularized Non-Monotonic Activation Function (PDF), arXiv:1908.08681v1, retrieved 26 March 2022.
- ↑ Dugas, Charles; Bengio, Yoshua; Bélisle, François; Nadeau, Claude; Garcia, René (2000-01-01). "Incorporating second-order functional knowledge for better option pricing" (PDF). Proceedings of the 13th International Conference on Neural Information Processing Systems (NIPS'00). MIT Press: 451–457.
Since the sigmoid h has a positive first derivative, its primitive, which we call softplus, is convex.
- ↑ "Smooth Rectifier Linear Unit (SmoothReLU) Forward Layer". Developer Guide for Intel Data Analytics Acceleration Library (in English). 2017. Retrieved 2018-12-04.
- ↑ Clevert, Djork-Arné; Unterthiner, Thomas; Hochreiter, Sepp (2015). "एक्सपोनेंशियल लीनियर यूनिट्स (ईएलयू) द्वारा तेज़ और सटीक डीप नेटवर्क लर्निंग". arXiv:1511.07289 [cs.LG].
- ↑ 23.0 23.1 Shaw, Sweta (2020-05-10). "प्रयोगों की तुलना में सक्रियण कार्य". W&B (in English). Retrieved 2022-07-11.
- ↑ Barron, Jonathan T. (22 December 2021). "Squareplus: A Softplus-Like Algebraic Rectifier". arXiv:2112.11687 [cs.NE].