न्यूनतम पूर्ण विचलन: Difference between revisions
No edit summary |
No edit summary |
||
(3 intermediate revisions by 3 users not shown) | |||
Line 1: | Line 1: | ||
{{Regression bar}} | {{Regression bar}} | ||
'''न्यूनतम निरपेक्ष विचलन''' विचलन (एलएडी), जिसे न्यूनतम निरपेक्ष त्रुटियाँ (एलएई), न्यूनतम निरपेक्ष अवशिष्ट (एलएआर), या न्यूनतम निरपेक्ष मान (एलएवी) के रूप में भी जाना जाता है | सांख्यिकीय [[इष्टतमता मानदंड]] और [[मैक्सिमा और मिनिमा]] सांख्यिकीय [[अनुकूलन (गणित)]] विधि होती है जिससे यह पूर्ण विचलन के योग को न्यूनतम करने पर आधारित होती है। यह (पूर्ण अवशिष्टों का योग या पूर्ण त्रुटियों का योग भी होता हैं ) और ऐसे मानो का ''L''<sub>1</sub> मानदंड होता हैं। यह न्यूनतम वर्ग विधि के समान होता है, और इसके अतिरिक्त यह [[वर्ग (बीजगणित)]] मानों के अतिरिक्त निरपेक्ष मानों पर आधारित होता है। यह ऐसे [[फ़ंक्शन (गणित)|फलन (गणित)]] को खोजने का प्रयास करता है जहाँ फलन द्वारा उत्पन्न बिंदुओं और संबंधित डेटा बिंदुओं के मध्य अवशेषों को कम करके डेटा के समुच्चय का सूक्ष्म से अनुमान लगाता है। यदि त्रुटियों में [[लाप्लास वितरण]] होता है तब एलएडी अनुमान अधिकतम संभावना अनुमान के रूप में भी उत्पन्न होता है। इसे 1757 में [[रोजर जोसेफ बोस्कोविच]] द्वारा प्रस्तुत किया गया था।<ref>{{cite book|chapter=Least Absolute Deviation Regression|title=सांख्यिकी का संक्षिप्त विश्वकोश|url=https://archive.org/details/conciseencyclope00dodg|url-access=limited|pages=[https://archive.org/details/conciseencyclope00dodg/page/n299 299]–302|doi=10.1007/978-0-387-32833-1_225|publisher=Springer|date=2008 |isbn=9780387328331}}</ref> | '''न्यूनतम निरपेक्ष विचलन''' विचलन (एलएडी), जिसे न्यूनतम निरपेक्ष त्रुटियाँ (एलएई), न्यूनतम निरपेक्ष अवशिष्ट (एलएआर), या न्यूनतम निरपेक्ष मान (एलएवी) के रूप में भी जाना जाता है | सांख्यिकीय [[इष्टतमता मानदंड]] और [[मैक्सिमा और मिनिमा]] सांख्यिकीय [[अनुकूलन (गणित)]] विधि होती है जिससे यह पूर्ण विचलन के योग को न्यूनतम करने पर आधारित होती है। यह (पूर्ण अवशिष्टों का योग या पूर्ण त्रुटियों का योग भी होता हैं ) और ऐसे मानो का ''L''<sub>1</sub> मानदंड होता हैं। यह न्यूनतम वर्ग विधि के समान होता है, और इसके अतिरिक्त यह [[वर्ग (बीजगणित)]] मानों के अतिरिक्त निरपेक्ष मानों पर आधारित होता है। यह ऐसे [[फ़ंक्शन (गणित)|फलन (गणित)]] को खोजने का प्रयास करता है जहाँ फलन द्वारा उत्पन्न बिंदुओं और संबंधित डेटा बिंदुओं के मध्य अवशेषों को कम करके डेटा के समुच्चय का सूक्ष्म से अनुमान लगाता है। यदि त्रुटियों में [[लाप्लास वितरण]] होता है तब एलएडी अनुमान अधिकतम संभावना अनुमान के रूप में भी उत्पन्न होता है। इसे 1757 में [[रोजर जोसेफ बोस्कोविच]] द्वारा प्रस्तुत किया गया था।<ref>{{cite book|chapter=Least Absolute Deviation Regression|title=सांख्यिकी का संक्षिप्त विश्वकोश|url=https://archive.org/details/conciseencyclope00dodg|url-access=limited|pages=[https://archive.org/details/conciseencyclope00dodg/page/n299 299]–302|doi=10.1007/978-0-387-32833-1_225|publisher=Springer|date=2008 |isbn=9780387328331}}</ref> | ||
==निरूपण== | ==निरूपण == | ||
मान लीजिए कि [[डेटा सेट|डेटा समुच्चय]] में i = 1, 2, ..., n के साथ बिंदु (''x<sub>i</sub>'', ''y<sub>i</sub>'') सम्मिलित होते हैं। और हम ऐसा कोई | मान लीजिए कि [[डेटा सेट|डेटा समुच्चय]] में i = 1, 2, ..., n के साथ बिंदु (''x<sub>i</sub>'', ''y<sub>i</sub>'') सम्मिलित होते हैं। और हम ऐसा कोई <math>f(x_i)\approx y_i.</math> फलन खोजना चाहते हैं | ||
इस लक्ष्य को प्राप्त करने के लिए, हम मानते हैं कि फलन f का विशेष रूप होता है जिसमें कुछ पैरामीटर होते हैं जिन्हें निर्धारित करने की आवश्यकता होती है। इस प्रकार उदाहरण के लिए, सबसे सरल रूप रैखिक होगा ''f''(''x'') = ''bx'' + ''c'', जहां ''b'' और ''c'' ऐसे पैरामीटर होता हैं जिनके मान ज्ञात नहीं होता हैं किन्तु जिनका हम अनुमान लगाना चाहते हैं। और कम सरलता से, मान लें कि f(x) द्विघात होता है, और जिसका अर्थ होता है कि ''f''(''x'') = ''ax''<sup>2</sup> + ''bx'' + ''c'' जहां ''a'', ''b'' और ''c'' अभी तक ज्ञात नहीं हैं। इस प्रकार (सामान्यतः, केवल व्याख्याकार ''x'', नहीं हो सकता है, किंतु अनेक व्याख्याकार हो सकते हैं, सभी फलन ''f'' के तर्क के रूप में दिखाई देते हैं।) | इस लक्ष्य को प्राप्त करने के लिए, हम मानते हैं कि फलन f का विशेष रूप होता है जिसमें कुछ पैरामीटर होते हैं जिन्हें निर्धारित करने की आवश्यकता होती है। इस प्रकार उदाहरण के लिए, सबसे सरल रूप रैखिक होगा ''f''(''x'') = ''bx'' + ''c'', जहां ''b'' और ''c'' ऐसे पैरामीटर होता हैं जिनके मान ज्ञात नहीं होता हैं किन्तु जिनका हम अनुमान लगाना चाहते हैं। और कम सरलता से, मान लें कि f(x) द्विघात होता है, और जिसका अर्थ होता है कि ''f''(''x'') = ''ax''<sup>2</sup> + ''bx'' + ''c'' जहां ''a'', ''b'' और ''c'' अभी तक ज्ञात नहीं हैं। इस प्रकार (सामान्यतः, केवल व्याख्याकार ''x'', नहीं हो सकता है, किंतु अनेक व्याख्याकार हो सकते हैं, सभी फलन ''f'' के तर्क के रूप में दिखाई देते हैं।) | ||
Line 76: | Line 76: | ||
''[http://www.wpi.edu/Pubs/E-project/Available/E-project-050506-091720/unrestricted/IQP_Final_Report.pdf Statistical Teaching Aids]'', Bachelor of Science thesis, [[Worcester Polytechnic Institute]], 2006</ref> संकेतन विधि रैखिक प्रोग्रामिंग में किसी समस्या को हल करने की विधि होती है। सबसे लोकप्रिय एल्गोरिथम बैरोडेल-रॉबर्ट्स संशोधित संकेतन एल्गोरिथम होता है। और यह आईआरएलएस, वेसोलोव्स्की विधि और ली विधि के एल्गोरिदम अन्य विधियों के मध्य के परिशिष्ट ए में पाए जा सकते हैं।<ref name="Pfeil" /> इस प्रकार किन्हीं दो (x,y) डेटा बिंदुओं को पार करने वाली रेखाओं के सभी संयोजनों की जाँच करना न्यूनतम पूर्ण विचलन रेखा को खोजने की विधि होती है। चूँकि यह ज्ञात है कि न्यूनतम निरपेक्ष विचलन रेखा न्यूनतम दो डेटा बिंदुओं को पार करती रहती है, और यह विधि प्रत्येक पंक्ति के सीएई (डेटा बिंदुओं पर सबसे छोटी निरपेक्ष त्रुटि) की तुलना करके और सबसे छोटी सीएई वाली रेखा का चयन करके रेखा को खोज सकते हैं। इसके अतिरिक्त, यदि अनेक रेखाओं में समान, सबसे छोटा एसएई होता है, तब यह रेखाएं अनेक समाधानों के क्षेत्र को रेखांकित करती रहती हैं। चूंकि यह सरल, अंतिम विधि डेटा के बड़े समुच्चय के लिए अक्षम होता है। | ''[http://www.wpi.edu/Pubs/E-project/Available/E-project-050506-091720/unrestricted/IQP_Final_Report.pdf Statistical Teaching Aids]'', Bachelor of Science thesis, [[Worcester Polytechnic Institute]], 2006</ref> संकेतन विधि रैखिक प्रोग्रामिंग में किसी समस्या को हल करने की विधि होती है। सबसे लोकप्रिय एल्गोरिथम बैरोडेल-रॉबर्ट्स संशोधित संकेतन एल्गोरिथम होता है। और यह आईआरएलएस, वेसोलोव्स्की विधि और ली विधि के एल्गोरिदम अन्य विधियों के मध्य के परिशिष्ट ए में पाए जा सकते हैं।<ref name="Pfeil" /> इस प्रकार किन्हीं दो (x,y) डेटा बिंदुओं को पार करने वाली रेखाओं के सभी संयोजनों की जाँच करना न्यूनतम पूर्ण विचलन रेखा को खोजने की विधि होती है। चूँकि यह ज्ञात है कि न्यूनतम निरपेक्ष विचलन रेखा न्यूनतम दो डेटा बिंदुओं को पार करती रहती है, और यह विधि प्रत्येक पंक्ति के सीएई (डेटा बिंदुओं पर सबसे छोटी निरपेक्ष त्रुटि) की तुलना करके और सबसे छोटी सीएई वाली रेखा का चयन करके रेखा को खोज सकते हैं। इसके अतिरिक्त, यदि अनेक रेखाओं में समान, सबसे छोटा एसएई होता है, तब यह रेखाएं अनेक समाधानों के क्षेत्र को रेखांकित करती रहती हैं। चूंकि यह सरल, अंतिम विधि डेटा के बड़े समुच्चय के लिए अक्षम होता है। | ||
===रैखिक प्रोग्रामिंग का उपयोग करके समाधान=== | ===रैखिक प्रोग्रामिंग का उपयोग करके समाधान === | ||
निम्नलिखित समस्या विनिर्देश पर किसी भी रैखिक प्रोग्रामिंग विधि का उपयोग करके समस्या को हल किया जा सकता है। और हम चाहते हैं कि | निम्नलिखित समस्या विनिर्देश पर किसी भी रैखिक प्रोग्रामिंग विधि का उपयोग करके समस्या को हल किया जा सकता है। और हम चाहते हैं कि | ||
:<math> \text{Minimize} \sum_{i=1}^n |y_i - a_0 - a_1x_{i1} - a_2x_{i2} - \cdots - a_kx_{ik}|</math> | :<math> \text{Minimize} \sum_{i=1}^n |y_i - a_0 - a_1x_{i1} - a_2x_{i2} - \cdots - a_kx_{ik}| | ||
</math> | |||
पैरामीटर्स <math>a_0,\ldots, a_k</math> के मानों की पसंद के संबंध में, जहां ''y<sub>i</sub>'' आश्रित चर के ''i''<sup>th</sup> अवलोकन का मान होता है, और यह ''x<sub>ij</sub>'' ''j''<sup>th</sup> वें स्वतंत्र चर के ''i''<sup>th</sup> अवलोकन का मान होता है | इस प्रकार (''j'' = 1,...,''k''). से हम इस समस्या को कृत्रिम चर ''u<sub>i</sub>'' के रूप में फिर से लिखते हैं| | पैरामीटर्स <math>a_0,\ldots, a_k</math> के मानों की पसंद के संबंध में, जहां ''y<sub>i</sub>'' आश्रित चर के ''i''<sup>th</sup> अवलोकन का मान होता है, और यह ''x<sub>ij</sub>'' ''j''<sup>th</sup> वें स्वतंत्र चर के ''i''<sup>th</sup> अवलोकन का मान होता है | इस प्रकार (''j'' = 1,...,''k''). से हम इस समस्या को कृत्रिम चर ''u<sub>i</sub>'' के रूप में फिर से लिखते हैं| | ||
Line 209: | Line 210: | ||
}} | }} | ||
{{DEFAULTSORT:Least Absolute Deviations}} | {{DEFAULTSORT:Least Absolute Deviations}} | ||
[[Category:Created On 07/07/2023|Least Absolute Deviations]] | |||
[[Category:Machine Translated Page|Least Absolute Deviations]] | |||
[[Category: Machine Translated Page]] | [[Category:Pages with empty portal template|Least Absolute Deviations]] | ||
[[Category: | [[Category:Pages with script errors|Least Absolute Deviations]] | ||
[[Category:Portal-inline template with redlinked portals|Least Absolute Deviations]] | |||
[[Category:Templates Vigyan Ready|Least Absolute Deviations]] | |||
[[Category:कम से कम वर्गों|Least Absolute Deviations]] | |||
[[Category:बिंदु अनुमान प्रदर्शन|Least Absolute Deviations]] | |||
[[Category:मजबूत आँकड़े|Least Absolute Deviations]] | |||
[[Category:मजबूत प्रतिगमन|Least Absolute Deviations]] |
Latest revision as of 10:41, 27 July 2023
एक श्रृंखला का हिस्सा |
प्रतिगमन विश्लेषण |
---|
मॉडल |
अनुमान |
पार्श्वभूमि |
|
न्यूनतम निरपेक्ष विचलन विचलन (एलएडी), जिसे न्यूनतम निरपेक्ष त्रुटियाँ (एलएई), न्यूनतम निरपेक्ष अवशिष्ट (एलएआर), या न्यूनतम निरपेक्ष मान (एलएवी) के रूप में भी जाना जाता है | सांख्यिकीय इष्टतमता मानदंड और मैक्सिमा और मिनिमा सांख्यिकीय अनुकूलन (गणित) विधि होती है जिससे यह पूर्ण विचलन के योग को न्यूनतम करने पर आधारित होती है। यह (पूर्ण अवशिष्टों का योग या पूर्ण त्रुटियों का योग भी होता हैं ) और ऐसे मानो का L1 मानदंड होता हैं। यह न्यूनतम वर्ग विधि के समान होता है, और इसके अतिरिक्त यह वर्ग (बीजगणित) मानों के अतिरिक्त निरपेक्ष मानों पर आधारित होता है। यह ऐसे फलन (गणित) को खोजने का प्रयास करता है जहाँ फलन द्वारा उत्पन्न बिंदुओं और संबंधित डेटा बिंदुओं के मध्य अवशेषों को कम करके डेटा के समुच्चय का सूक्ष्म से अनुमान लगाता है। यदि त्रुटियों में लाप्लास वितरण होता है तब एलएडी अनुमान अधिकतम संभावना अनुमान के रूप में भी उत्पन्न होता है। इसे 1757 में रोजर जोसेफ बोस्कोविच द्वारा प्रस्तुत किया गया था।[1]
निरूपण
मान लीजिए कि डेटा समुच्चय में i = 1, 2, ..., n के साथ बिंदु (xi, yi) सम्मिलित होते हैं। और हम ऐसा कोई फलन खोजना चाहते हैं
इस लक्ष्य को प्राप्त करने के लिए, हम मानते हैं कि फलन f का विशेष रूप होता है जिसमें कुछ पैरामीटर होते हैं जिन्हें निर्धारित करने की आवश्यकता होती है। इस प्रकार उदाहरण के लिए, सबसे सरल रूप रैखिक होगा f(x) = bx + c, जहां b और c ऐसे पैरामीटर होता हैं जिनके मान ज्ञात नहीं होता हैं किन्तु जिनका हम अनुमान लगाना चाहते हैं। और कम सरलता से, मान लें कि f(x) द्विघात होता है, और जिसका अर्थ होता है कि f(x) = ax2 + bx + c जहां a, b और c अभी तक ज्ञात नहीं हैं। इस प्रकार (सामान्यतः, केवल व्याख्याकार x, नहीं हो सकता है, किंतु अनेक व्याख्याकार हो सकते हैं, सभी फलन f के तर्क के रूप में दिखाई देते हैं।)
अब हम अज्ञात मापदंडों के अनुमानित मानो की खोज करते हैं जो अवशेषों के निरपेक्ष मानो के योग को कम करते हैं |
समाधान
यद्यपि न्यूनतम निरपेक्ष विचलन प्रतिगमन का विचार न्यूनतम वर्ग प्रतिगमन के समान ही सरल होता है | और न्यूनतम निरपेक्ष विचलन रेखा की कुशलता से गणना करना उतना सरल नहीं होता है। और न्यूनतम वर्ग प्रतिगमन के विपरीत, न्यूनतम निरपेक्ष विचलन प्रतिगमन में विश्लेषणात्मक समाधान विधि नहीं होती है। इसलिए, इसमें पुनरावृत्त दृष्टिकोण की आवश्यकता होती है। इसमें निम्नलिखित कुछ न्यूनतम निरपेक्ष विचलन समाधान विधियों की गणना होती है।
- सिम्प्लेक्स एल्गोरिथ्म विधियाँ (जैसे कि बैरोडेल-रॉबर्ट्स एल्गोरिथम | [2]
- क्योंकि समस्या रैखिक प्रोग्राम है, अनेक रैखिक प्रोग्रामिंग विधिों (सिंप्लेक्स विधि के साथ-साथ अन्य सहित) में से किसी को भी प्रयुक्त किया जा सकता है।
- न्यूनतम वर्गों को पुनरावर्ती रूप से पुनः भारित करें [3]
- वेसोलोव्स्की की प्रत्यक्ष वंश विधि [4]
- ली-आर्स का अधिकतम संभावना दृष्टिकोण [5]
- आयामीता दृष्टिकोण की पुनरावर्ती कमी [6]
- न्यूनतम त्रुटियों के लिए बिंदु-से-बिंदु रेखाओं के सभी संयोजनों की जाँच करें
न्यूनतम निरपेक्ष विचलन समस्या को हल करने के लिए संकेतन-आधारित विधियाँ "अनुकूल" विधि होती हैं।[7] संकेतन विधि रैखिक प्रोग्रामिंग में किसी समस्या को हल करने की विधि होती है। सबसे लोकप्रिय एल्गोरिथम बैरोडेल-रॉबर्ट्स संशोधित संकेतन एल्गोरिथम होता है। और यह आईआरएलएस, वेसोलोव्स्की विधि और ली विधि के एल्गोरिदम अन्य विधियों के मध्य के परिशिष्ट ए में पाए जा सकते हैं।[7] इस प्रकार किन्हीं दो (x,y) डेटा बिंदुओं को पार करने वाली रेखाओं के सभी संयोजनों की जाँच करना न्यूनतम पूर्ण विचलन रेखा को खोजने की विधि होती है। चूँकि यह ज्ञात है कि न्यूनतम निरपेक्ष विचलन रेखा न्यूनतम दो डेटा बिंदुओं को पार करती रहती है, और यह विधि प्रत्येक पंक्ति के सीएई (डेटा बिंदुओं पर सबसे छोटी निरपेक्ष त्रुटि) की तुलना करके और सबसे छोटी सीएई वाली रेखा का चयन करके रेखा को खोज सकते हैं। इसके अतिरिक्त, यदि अनेक रेखाओं में समान, सबसे छोटा एसएई होता है, तब यह रेखाएं अनेक समाधानों के क्षेत्र को रेखांकित करती रहती हैं। चूंकि यह सरल, अंतिम विधि डेटा के बड़े समुच्चय के लिए अक्षम होता है।
रैखिक प्रोग्रामिंग का उपयोग करके समाधान
निम्नलिखित समस्या विनिर्देश पर किसी भी रैखिक प्रोग्रामिंग विधि का उपयोग करके समस्या को हल किया जा सकता है। और हम चाहते हैं कि
पैरामीटर्स के मानों की पसंद के संबंध में, जहां yi आश्रित चर के ith अवलोकन का मान होता है, और यह xij jth वें स्वतंत्र चर के ith अवलोकन का मान होता है | इस प्रकार (j = 1,...,k). से हम इस समस्या को कृत्रिम चर ui के रूप में फिर से लिखते हैं|
- और इसके संबंध में
- विषय के संबंध में
इन बाधाओं का प्रभाव प्रत्येक को न्यूनतम होने पर समान करने के लिए विवश करना होता है, इसलिए उद्देश्य फलन मूल उद्देश्य फलन के समान ही होता है। चूँकि समस्या कथन के इस संस्करण में निरपेक्ष मान ऑपरेटर सम्मिलित नहीं होता है, और यह ऐसे प्रारूप में होता है जिसे किसी भी रैखिक प्रोग्रामिंग पैकेज के साथ हल किया जा सकता है।
गुण
न्यूनतम निरपेक्ष विचलन रेखा में अन्य अद्वितीय गुण उपस्थित होते हैं। जिसमें यह (x,y) डेटा के समुच्चय के स्तिथियों में होता हैं | और सबसे कम निरपेक्ष विचलन रेखा सदैव न्यूनतम दो डेटा बिंदुओं से होकर गुजरती हैं, जब तक कि अनेक समाधान नही होते हैं। यदि इसमें एकाधिक समाधान उपस्थित होते हैं, तब वैध न्यूनतम निरपेक्ष विचलन समाधानों का क्षेत्र न्यूनतम दो रेखाओं से घिरा होता हैं | जिनमें से प्रत्येक न्यूनतम दो डेटा बिंदुओं से होकर गुजरना पड़ता है। इस प्रकार इनमे अधिक सामान्यतः होती हैं, और यदि k प्रतिगामी (स्थिरांक सहित) हैं, तब न्यूनतम इष्टतम प्रतिगमन सतह k डेटा बिंदुओं से होकर गुजरती हैं।[8]: p.936
डेटा बिंदुओं पर लाइन की यह "लैचिंग" "अस्थिरता" संपत्ति को समझने में सहायता कर सकती है | यदि लाइन सदैव न्यूनतम दो बिंदुओं पर श्यानता होती है, तब डेटा बिंदुओं के परिवर्तित होते ही लाइन बिंदुओं के विभिन्न समुच्चयों के मध्य विस्तारित हो जाती हैं। "लैचिंग" "सुदृढ़ता" संपत्ति को समझने में भी सहायता करती है | यदि कोई और बाहरी उपस्थित होती है | तब और न्यूनतम पूर्ण विचलन रेखा दो डेटा बिंदुओं पर होनी चाहिए, तब बाहरी संभवतः उन दो बिंदुओं में से नहीं होगा क्योंकि वह न्यूनतम नहीं होगा और यह अधिकांश स्थितियों में पूर्ण विचलन का योग होता हैं ।
एक ज्ञात स्थिति जिसमें एकाधिक समाधान उपस्थित होते हैं, तब क्षैतिज रेखा के बारे में सममित बिंदुओं का समुच्चय होता है, जैसा कि नीचे चित्र ए में दिखाया गया है।
यह समझने के लिए कि चित्र ए में दिखाए गए स्तिथियों में एकाधिक समाधान क्या होता हैं, इसमें हरे क्षेत्र में गुलाबी रेखा पर विचार करें। इसकी पूर्ण त्रुटियों का योग कुछ मान S के समान होता है। यदि कोई रेखा को हरे क्षेत्र के अंदर रखते हुए थोड़ा ऊपर की ओर झुकाता है, तब त्रुटियों का योग अभी भी S होता हैं। और यह परिवर्तित नहीं होता हैं क्योंकि प्रत्येक बिंदु से दूरी रेखा के तरफ रेखा बढ़ती है, जबकि रेखा के विपरीत दिशा में प्रत्येक बिंदु की दूरी बिल्कुल उसी मात्रा में कम हो जाती है। इस प्रकार पूर्ण त्रुटियों का योग वही रहता है। इसके अतिरिक्त, चूंकि कोई व्यक्ति रेखा को अनंत रूप से छोटे वेतन वृद्धि में कुंचित हो सकता है, इससे यह भी पता चलता है कि इससे अधिक समाधान होता हैं, तब अनंत रूप से अनेक समाधान भी हो सकते हैं।
फायदे और हानि
यह निम्नलिखित तालिका है जिसमें न्यूनतम निरपेक्ष विचलन की विधि के कुछ गुणों की तुलना न्यूनतम वर्ग की विधि (गैर-एकवचन समस्याओं के लिए) से की गई है।[9] [10]
सामान्य न्यूनतम वर्ग प्रतिगमन | न्यूनतम निरपेक्ष विचलन प्रतिगमन | |
---|---|---|
अधिक ससक्त नहीं हैं | सुदृढ़ | |
स्थिर समाधान हैं | अस्थिर समाधान | |
एक उपाय हैं * | संभवतः एकाधिक समाधान |
*परंतु कि डेटा बिंदुओं की संख्या सुविधाओं की संख्या से अधिक या उसके समान होती हैं।
न्यूनतम वर्ग विधि की तुलना में इसकी सुदृढ़ता के कारण, न्यूनतम निरपेक्ष विचलन की विधि अनेक क्षेत्रों में प्रयुक्त होती है। और न्यूनतम निरपेक्ष विचलन इसमें शक्तिशाली होता है कि यह डेटा में बाहरी कारकों के कारण के प्रति प्रतिरोधी होता है। और यह सामान्य न्यूनतम वर्ग (ओएलएस) के विपरीत, एलएडी सभी अवलोकनों पर समान जोर देता है, जो अवशेषों का वर्ग करके, बड़े अवशेषों को अधिक भार देता है, अर्थात, ऐसे बाहरी कारकों के कारण जिनमें पूर्वानुमानित मान वास्तविक अवलोकनों से बहुत दूर होते हैं। यह उन अध्ययनों में सहायक हो सकता है जहां बाहरी कारकों के कारण को अन्य टिप्पणियों की तुलना में अधिक महत्व देने की आवश्यकता नहीं होती है। और यदि बाहरी कारकों के कारण को अधिक भार देना महत्वपूर्ण है, तब न्यूनतम वर्गों की विधि उत्तम विकल्प होती है।
विविधताएं, विस्तार, विशेषज्ञता
यदि अवशिष्टों के निरपेक्ष मानों के योग में कोई निरपेक्ष मान फलन को झुके हुए निरपेक्ष मान फलन में सामान्यीकृत करता रहता है, जिसमें बाईं आधी रेखा पर स्लोप है और दाईं आधी रेखा पर स्लोप होता है और जहां व्यक्ति को मात्रात्मक प्रतिगमन प्राप्त होता है। वहाँ का स्थिति न्यूनतम निरपेक्ष विचलन द्वारा मानक प्रतिगमन देता है और इसे माध्यिका प्रतिगमन के रूप में भी जाना जाता है।
न्यूनतम पूर्ण विचलन समस्या को अनेक व्याख्याकारों, बाधाओं और नियमितीकरण (गणित) को सम्मिलित करने के लिए बढ़ाया जा सकता है, इस प्रकार उदाहरण के लिए, रैखिक बाधाओं वाला रैखिक मॉडल भी होता हैं | [11]
- छोटा करना
- इसके अधीन, उदाहरण के लिए,
जहां अनुमान लगाए जाने वाले गुणांकों का स्तंभ सदिश b है, अनुमान लगाया जाने वाला अवरोधन xi है, विभिन्न व्याख्याकारों पर ith अवलोकनों का स्तंभ सदिश है, yi आश्रित चर पर ith अवलोकन है, और k ज्ञात स्थिरांक होता है |
लैस्सो (सांख्यिकी (न्यूनतम पूर्ण संकोचन और चयन ऑपरेटर) के साथ नियमितीकरण (गणित) को एलएडी के साथ भी जोड़ा जा सकता है।[12]
यह भी देखें
- ज्यामितीय माध्यिका
- मात्रात्मक प्रतिगमन
- प्रतिगमन विश्लेषण
- रेखीय प्रतिगमन मॉडल
- पूर्ण विचलन
- औसत पूर्ण विचलन
- माध्यिका निरपेक्ष विचलन
- सामान्य कम चौकोर
- शक्तिशाली प्रतिगमन
संदर्भ
- ↑ "Least Absolute Deviation Regression". सांख्यिकी का संक्षिप्त विश्वकोश. Springer. 2008. pp. 299–302. doi:10.1007/978-0-387-32833-1_225. ISBN 9780387328331.
- ↑ Barrodale, I.; Roberts, F. D. K. (1973). "An improved algorithm for discrete L1 linear approximation". SIAM Journal on Numerical Analysis. 10 (5): 839–848. Bibcode:1973SJNA...10..839B. doi:10.1137/0710069. hdl:1828/11491. JSTOR 2156318.
- ↑ Schlossmacher, E. J. (December 1973). "An Iterative Technique for Absolute Deviations Curve Fitting". Journal of the American Statistical Association. 68 (344): 857–859. doi:10.2307/2284512. JSTOR 2284512.
- ↑ Wesolowsky, G. O. (1981). "A new descent algorithm for the least absolute value regression problem". Communications in Statistics – Simulation and Computation. B10 (5): 479–491. doi:10.1080/03610918108812224.
- ↑ Li, Yinbo; Arce, Gonzalo R. (2004). "A Maximum Likelihood Approach to Least Absolute Deviation Regression". EURASIP Journal on Applied Signal Processing. 2004 (12): 1762–1769. Bibcode:2004EJASP2004...61L. doi:10.1155/S1110865704401139.
- ↑ Kržić, Ana Sović; Seršić, Damir (2018). "L1 minimization using recursive reduction of dimensionality". Signal Processing. 151: 119–129. doi:10.1016/j.sigpro.2018.05.002.
- ↑ 7.0 7.1 William A. Pfeil, Statistical Teaching Aids, Bachelor of Science thesis, Worcester Polytechnic Institute, 2006
- ↑ Branham, R. L., Jr., "Alternatives to least squares", Astronomical Journal 87, June 1982, 928–937. [1] at SAO/NASA Astrophysics Data System (ADS)
- ↑ For a set of applets that demonstrate these differences, see the following site: http://www.math.wpi.edu/Course_Materials/SAS/lablets/7.3/73_choices.html
- ↑ For a discussion of LAD versus OLS, see these academic papers and reports: http://www.econ.uiuc.edu/~roger/research/rq/QRJEP.pdf and https://www.leeds.ac.uk/educol/documents/00003759.htm
- ↑ Shi, Mingren; Mark A., Lukas (March 2002). "An L1 estimation algorithm with degeneracy and linear constraints". Computational Statistics & Data Analysis. 39 (1): 35–55. doi:10.1016/S0167-9473(01)00049-4.
- ↑ Wang, Li; Gordon, Michael D.; Zhu, Ji (December 2006). "Regularized Least Absolute Deviations Regression and an Efficient Algorithm for Parameter Tuning". Proceedings of the Sixth International Conference on Data Mining. pp. 690–700. doi:10.1109/ICDM.2006.134.
अग्रिम पठन
- Peter Bloomfield and William Steiger (1980). "Least Absolute Deviations Curve-Fitting". SIAM Journal on Scientific Computing. 1 (2): 290–301. doi:10.1137/0901019.
- Subhash C. Narula and John F. Wellington (1982). "The Minimum Sum of Absolute Errors Regression: A State of the Art Survey". International Statistical Review. 50 (3): 317–326. doi:10.2307/1402501. JSTOR 1402501.
- Robert F. Phillips (July 2002). "Least absolute deviations estimation via the EM algorithm". Statistics and Computing. 12 (3): 281–285. doi:10.1023/A:1020759012226.
- Enno Siemsen & Kenneth A. Bollen (2007). "Least Absolute Deviation Estimation in Structural Equation Modeling". Sociological Methods & Research. 36 (2): 227–265. doi:10.1177/0049124107301946.