सामान्यीकृत न्यूनतम वर्ग: Difference between revisions

From Vigyanwiki
(Created page with "{{Short description|Statistical estimation technique}} {{Distinguish|generalized linear model}} {{Tone|date=April 2023}} {{Regression bar}} आंकड़ों में,...")
 
mNo edit summary
Line 1: Line 1:
{{Short description|Statistical estimation technique}}
आंकड़ों में, व्यापक न्यूनतम वर्ग (जीएलएस) एक विधि है जिसका उपयोग रैखिक प्रतिगमन में अज्ञात मापदंडों का अनुमान लगाने के लिए किया जाता है जब प्रतिगमन प्रतिरूपण में अवशेषों के बीच एक निश्चित डिग्री का सहसंबंध होता है। ऐसे मामलों में, सामान्य न्यूनतम वर्ग और भारित न्यूनतम वर्ग को अधिक सांख्यिकीय रूप से कुशल होने की आवश्यकता हो सकती है अन्यथा भ्रामक निष्कर्ष निकल सकते हैं। जीएलएस का वर्णन पहली बार 1935 में [[अलेक्जेंडर ऐटकेन]] द्वारा किया गया था।<ref>{{cite journal | last1 = Aitken | first1 = A. C. | year = 1935 | title = न्यूनतम वर्गों और प्रेक्षणों के रैखिक संयोजनों पर| journal = Proceedings of the Royal Society of Edinburgh | volume = 55 | pages = 42–48 | doi = 10.1017/s0370164600014346 }}</ref>
{{Distinguish|generalized linear model}}
{{Tone|date=April 2023}}
{{Regression bar}}


आंकड़ों में, सामान्यीकृत न्यूनतम वर्ग (जीएलएस) एक विधि है जिसका उपयोग रैखिक प्रतिगमन में अज्ञात मापदंडों का अनुमान लगाने के लिए किया जाता है जब प्रतिगमन मॉडल में अवशेषों के बीच एक निश्चित डिग्री का सहसंबंध होता है। ऐसे मामलों में, सामान्य न्यूनतम वर्ग और भारित न्यूनतम वर्ग को अधिक सांख्यिकीय रूप से कुशल होने की आवश्यकता हो सकती है अन्यथा भ्रामक निष्कर्ष निकल सकते हैं। जीएलएस का वर्णन पहली बार 1935 में [[अलेक्जेंडर ऐटकेन]] द्वारा किया गया था।<ref>{{cite journal | last1 = Aitken | first1 = A. C. | year = 1935 | title = न्यूनतम वर्गों और प्रेक्षणों के रैखिक संयोजनों पर| journal = Proceedings of the Royal Society of Edinburgh | volume = 55 | pages = 42–48 | doi = 10.1017/s0370164600014346 }}</ref>
'''<big><br />विधि रूपरेखा</big>'''


 
मानक रैखिक प्रतिगमन प्रतिरूपण में कोई डेटा का अवलोकन करता है <math>\{y_i,x_{ij}\}_{i=1, \dots, n,j=2, \dots, k}</math> n सांख्यिकीय इकाइयों पर. प्रतिक्रिया मान एक वेक्टर में रखे गए हैं <math>\mathbf{y} = \left( y_{1}, \dots, y_{n} \right)^{\mathsf{T}}</math>, और भविष्यवक्ता मानों को [[डिज़ाइन मैट्रिक्स]] में रखा गया है <math>\mathbf{X} = \left( \mathbf{x}_{1}^{\mathsf{T}}, \dots, \mathbf{x}_{n}^{\mathsf{T}} \right)^{\mathsf{T}}</math>, कहाँ <math>\mathbf{x}_{i} = \left( 1, x_{i2}, \dots, x_{ik} \right)</math> ith इकाई के लिए k भविष्यवक्ता चर (एक स्थिरांक सहित) का एक वेक्टर है। प्रतिरूपण [[सशर्त माध्य]] को बाध्य करता है <math>\mathbf{y}</math> दिया गया <math>\mathbf{X}</math> का एक रैखिक कार्य होना <math>\mathbf{X}</math> और दिए गए त्रुटि पद का सशर्त विचरण मानता है <math>\mathbf{X}</math> एक ज्ञात गैर-एकवचन सहप्रसरण मैट्रिक्स है <math>\mathbf{\Omega}</math>. इसे आमतौर पर ऐसे लिखा जाता है
== विधि रूपरेखा ==
मानक रैखिक प्रतिगमन मॉडल में कोई डेटा का अवलोकन करता है <math>\{y_i,x_{ij}\}_{i=1, \dots, n,j=2, \dots, k}</math> n सांख्यिकीय इकाइयों पर. प्रतिक्रिया मान एक वेक्टर में रखे गए हैं <math>\mathbf{y} = \left( y_{1}, \dots, y_{n} \right)^{\mathsf{T}}</math>, और भविष्यवक्ता मानों को [[डिज़ाइन मैट्रिक्स]] में रखा गया है <math>\mathbf{X} = \left( \mathbf{x}_{1}^{\mathsf{T}}, \dots, \mathbf{x}_{n}^{\mathsf{T}} \right)^{\mathsf{T}}</math>, कहाँ <math>\mathbf{x}_{i} = \left( 1, x_{i2}, \dots, x_{ik} \right)</math> ith इकाई के लिए k भविष्यवक्ता चर (एक स्थिरांक सहित) का एक वेक्टर है। मॉडल [[सशर्त माध्य]] को बाध्य करता है <math>\mathbf{y}</math> दिया गया <math>\mathbf{X}</math> का एक रैखिक कार्य होना <math>\mathbf{X}</math> और दिए गए त्रुटि पद का सशर्त विचरण मानता है <math>\mathbf{X}</math> एक ज्ञात गैर-एकवचन सहप्रसरण मैट्रिक्स है <math>\mathbf{\Omega}</math>. इसे आमतौर पर ऐसे लिखा जाता है
: <math>
: <math>
     \mathbf{y} = \mathbf{X} \mathbf{\beta} + \mathbf{\varepsilon}, \qquad \operatorname{E}[\varepsilon\mid\mathbf{X}]=0,\ \operatorname{Cov}[\varepsilon\mid\mathbf{X}]= \mathbf{\Omega}.
     \mathbf{y} = \mathbf{X} \mathbf{\beta} + \mathbf{\varepsilon}, \qquad \operatorname{E}[\varepsilon\mid\mathbf{X}]=0,\ \operatorname{Cov}[\varepsilon\mid\mathbf{X}]= \mathbf{\Omega}.
Line 14: Line 9:
यहाँ <math>\beta \in \mathbb{R}^k</math> अज्ञात स्थिरांकों का एक वेक्टर है (जिसे "प्रतिगमन गुणांक" के रूप में जाना जाता है) जिसका अनुमान डेटा से लगाया जाना चाहिए।
यहाँ <math>\beta \in \mathbb{R}^k</math> अज्ञात स्थिरांकों का एक वेक्टर है (जिसे "प्रतिगमन गुणांक" के रूप में जाना जाता है) जिसका अनुमान डेटा से लगाया जाना चाहिए।


कल्पना करना <math>\mathbf{b}</math> के लिए एक उम्मीदवार का अनुमान है <math>\mathbf{\beta}</math>. फिर सांख्यिकी वेक्टर में त्रुटियाँ और अवशेष <math>\mathbf{b}</math> होगा <math>\mathbf{y}- \mathbf{X} \mathbf{b}</math>. सामान्यीकृत न्यूनतम वर्ग विधि अनुमान <math>\mathbf{\beta}</math> इस अवशिष्ट वेक्टर की वर्गाकार महालनोबिस दूरी को कम करके:
कल्पना करना <math>\mathbf{b}</math> के लिए एक उम्मीदवार का अनुमान है <math>\mathbf{\beta}</math>. फिर सांख्यिकी वेक्टर में त्रुटियाँ और अवशेष <math>\mathbf{b}</math> होगा <math>\mathbf{y}- \mathbf{X} \mathbf{b}</math>. व्यापक न्यूनतम वर्ग विधि अनुमान <math>\mathbf{\beta}</math> इस अवशिष्ट वेक्टर की वर्गाकार महालनोबिस दूरी को कम करके:
: <math>
: <math>
\begin{align}
\begin{align}
Line 39: Line 34:


=== गुण ===
=== गुण ===
जीएलएस अनुमानक एक अनुमानक, [[सुसंगत अनुमानक]], [[दक्षता (सांख्यिकी)]], और [[स्पर्शोन्मुख वितरण]] का पूर्वाग्रह है <math>\operatorname{E}[\hat\beta\mid\mathbf{X}] = \beta</math> और <math>\operatorname{Cov}[\hat{\beta}\mid\mathbf{X}] = (\mathbf{X}^{\mathsf{T}}\Omega^{-1}\mathbf{X})^{-1}</math>. जीएलएस डेटा के रैखिक रूप से रूपांतरित संस्करण में सामान्य न्यूनतम वर्ग लागू करने के बराबर है। इसे देखने के लिए, कारक <math>\mathbf{\Omega} = \mathbf{C} \mathbf{C}^{\mathsf{T}}</math>उदाहरण के लिए, चोल्स्की अपघटन का उपयोग करना। फिर यदि कोई समीकरण के दोनों पक्षों को पूर्व-गुणा करता है <math>\mathbf{y} = \mathbf{X} \mathbf{\beta} + \mathbf{\varepsilon}</math> द्वारा <math>\mathbf{C}^{-1}</math>, हमें एक समतुल्य रैखिक मॉडल मिलता है <math>\mathbf{y}^{*} = \mathbf{X}^{*} \mathbf{\beta} + \mathbf{\varepsilon}^{*}</math> कहाँ <math>\mathbf{y}^{*} = \mathbf{C}^{-1} \mathbf{y}</math>, <math>\mathbf{X}^{*} = \mathbf{C}^{-1} \mathbf{X}</math>, और <math>\mathbf{\varepsilon}^{*} = \mathbf{C}^{-1} \mathbf{\varepsilon}</math>. इस मॉडल में <math>\operatorname{Var}[\varepsilon^{*}\mid\mathbf{X}]= \mathbf{C}^{-1} \mathbf{\Omega} \left(\mathbf{C}^{-1} \right)^{\mathsf{T}} = \mathbf{I}</math>, कहाँ <math>\mathbf{I}</math> पहचान मैट्रिक्स है. इस प्रकार कोई भी कुशलतापूर्वक अनुमान लगा सकता है <math>\mathbf{\beta}</math> रूपांतरित डेटा में साधारण न्यूनतम वर्ग (ओएलएस) लागू करके, जिसे न्यूनतम करने की आवश्यकता होती है:
जीएलएस अनुमानक एक अनुमानक, [[सुसंगत अनुमानक]], [[दक्षता (सांख्यिकी)]], और [[स्पर्शोन्मुख वितरण]] का पूर्वाग्रह है <math>\operatorname{E}[\hat\beta\mid\mathbf{X}] = \beta</math> और <math>\operatorname{Cov}[\hat{\beta}\mid\mathbf{X}] = (\mathbf{X}^{\mathsf{T}}\Omega^{-1}\mathbf{X})^{-1}</math>. जीएलएस डेटा के रैखिक रूप से रूपांतरित संस्करण में सामान्य न्यूनतम वर्ग लागू करने के बराबर है। इसे देखने के लिए, कारक <math>\mathbf{\Omega} = \mathbf{C} \mathbf{C}^{\mathsf{T}}</math>उदाहरण के लिए, चोल्स्की अपघटन का उपयोग करना। फिर यदि कोई समीकरण के दोनों पक्षों को पूर्व-गुणा करता है <math>\mathbf{y} = \mathbf{X} \mathbf{\beta} + \mathbf{\varepsilon}</math> द्वारा <math>\mathbf{C}^{-1}</math>, हमें एक समतुल्य रैखिक प्रतिरूपण मिलता है <math>\mathbf{y}^{*} = \mathbf{X}^{*} \mathbf{\beta} + \mathbf{\varepsilon}^{*}</math> कहाँ <math>\mathbf{y}^{*} = \mathbf{C}^{-1} \mathbf{y}</math>, <math>\mathbf{X}^{*} = \mathbf{C}^{-1} \mathbf{X}</math>, और <math>\mathbf{\varepsilon}^{*} = \mathbf{C}^{-1} \mathbf{\varepsilon}</math>. इस प्रतिरूपण में <math>\operatorname{Var}[\varepsilon^{*}\mid\mathbf{X}]= \mathbf{C}^{-1} \mathbf{\Omega} \left(\mathbf{C}^{-1} \right)^{\mathsf{T}} = \mathbf{I}</math>, कहाँ <math>\mathbf{I}</math> पहचान मैट्रिक्स है. इस प्रकार कोई भी कुशलतापूर्वक अनुमान लगा सकता है <math>\mathbf{\beta}</math> रूपांतरित डेटा में साधारण न्यूनतम वर्ग (ओएलएस) लागू करके, जिसे न्यूनतम करने की आवश्यकता होती है:


: <math>
: <math>
Line 51: Line 46:




==संभव सामान्यीकृत न्यूनतम वर्ग ==
==संभव व्यापक न्यूनतम वर्ग ==


यदि त्रुटियों का सहप्रसरण <math>\Omega </math> अज्ञात है, कोई इसका सुसंगत अनुमान प्राप्त कर सकता है <math>\Omega </math>, कहना <math>\widehat \Omega </math>,<ref name="Baltagi2008">Baltagi, B. H. (2008). Econometrics (4th ed.). New York: Springer.</ref> जीएलएस के कार्यान्वयन योग्य संस्करण का उपयोग करना जिसे व्यवहार्य सामान्यीकृत न्यूनतम वर्ग के रूप में जाना जाता है<!--"Feasible generalized least squares" redirects here; this is bolded per MOS:BOLD--> (एफजीएलएस) अनुमानक।
यदि त्रुटियों का सहप्रसरण <math>\Omega </math> अज्ञात है, कोई इसका सुसंगत अनुमान प्राप्त कर सकता है <math>\Omega </math>, कहना <math>\widehat \Omega </math>,<ref name="Baltagi2008">Baltagi, B. H. (2008). Econometrics (4th ed.). New York: Springer.</ref> जीएलएस के कार्यान्वयन योग्य संस्करण का उपयोग करना जिसे व्यवहार्य व्यापक न्यूनतम वर्ग के रूप में जाना जाता है<!--"Feasible generalized least squares" redirects here; this is bolded per MOS:BOLD--> (एफजीएलएस) अनुमानक।


FGLS में, मॉडलिंग दो चरणों में आगे बढ़ती है:
FGLS में, प्रतिरूपणिंग दो चरणों में आगे बढ़ती है:


(1) मॉडल का अनुमान ओएलएस या किसी अन्य सुसंगत (लेकिन अकुशल) अनुमानक द्वारा लगाया जाता है और अवशेषों का उपयोग त्रुटि सहप्रसरण मैट्रिक्स के सुसंगत अनुमानक को बनाने के लिए किया जाता है (ऐसा करने के लिए, किसी को अक्सर अतिरिक्त बाधाओं को जोड़कर मॉडल की जांच करने की आवश्यकता होती है, उदाहरण के लिए) यदि त्रुटियाँ एक समय श्रृंखला प्रक्रिया का अनुसरण करती हैं, तो एक सांख्यिकीविद् को आम तौर पर इस प्रक्रिया पर कुछ सैद्धांतिक धारणाओं की आवश्यकता होती है ताकि यह सुनिश्चित हो सके कि एक सुसंगत अनुमानक उपलब्ध है); और
(1) प्रतिरूपण का अनुमान ओएलएस या किसी अन्य सुसंगत (लेकिन अकुशल) अनुमानक द्वारा लगाया जाता है और अवशेषों का उपयोग त्रुटि सहप्रसरण मैट्रिक्स के सुसंगत अनुमानक को बनाने के लिए किया जाता है (ऐसा करने के लिए, किसी को अक्सर अतिरिक्त बाधाओं को जोड़कर प्रतिरूपण की जांच करने की आवश्यकता होती है, उदाहरण के लिए) यदि त्रुटियाँ एक समय श्रृंखला प्रक्रिया का अनुसरण करती हैं, तो एक सांख्यिकीविद् को आम तौर पर इस प्रक्रिया पर कुछ सैद्धांतिक धारणाओं की आवश्यकता होती है ताकि यह सुनिश्चित हो सके कि एक सुसंगत अनुमानक उपलब्ध है); और


(2) त्रुटियों के सहप्रसरण मैट्रिक्स के सुसंगत अनुमानक का उपयोग करके, कोई जीएलएस विचारों को लागू कर सकता है।
(2) त्रुटियों के सहप्रसरण मैट्रिक्स के सुसंगत अनुमानक का उपयोग करके, कोई जीएलएस विचारों को लागू कर सकता है।
Line 63: Line 58:
जबकि जीएलएस विषमलैंगिकता (जिसे विषमलैंगिकता भी कहा जाता है) या ऑटोसहसंबंध के तहत ओएलएस की तुलना में अधिक कुशल है, यह एफजीएलएस के लिए सच नहीं है। व्यवहार्य अनुमानक ''असममित रूप से'' अधिक कुशल है, बशर्ते त्रुटि सहप्रसरण मैट्रिक्स का लगातार अनुमान लगाया जाता है, लेकिन छोटे से मध्यम आकार के नमूने के लिए, यह वास्तव में ओएलएस की तुलना में कम कुशल हो सकता है। यही कारण है कि कुछ लेखक ओएलएस का उपयोग करना पसंद करते हैं, और विषमलैंगिकता या क्रमिक स्वसहसंबंध के लिए मजबूत अनुमानक के विचरण के लिए एक वैकल्पिक अनुमानक पर विचार करके अपने अनुमानों को सुधारते हैं।
जबकि जीएलएस विषमलैंगिकता (जिसे विषमलैंगिकता भी कहा जाता है) या ऑटोसहसंबंध के तहत ओएलएस की तुलना में अधिक कुशल है, यह एफजीएलएस के लिए सच नहीं है। व्यवहार्य अनुमानक ''असममित रूप से'' अधिक कुशल है, बशर्ते त्रुटि सहप्रसरण मैट्रिक्स का लगातार अनुमान लगाया जाता है, लेकिन छोटे से मध्यम आकार के नमूने के लिए, यह वास्तव में ओएलएस की तुलना में कम कुशल हो सकता है। यही कारण है कि कुछ लेखक ओएलएस का उपयोग करना पसंद करते हैं, और विषमलैंगिकता या क्रमिक स्वसहसंबंध के लिए मजबूत अनुमानक के विचरण के लिए एक वैकल्पिक अनुमानक पर विचार करके अपने अनुमानों को सुधारते हैं।
लेकिन बड़े नमूनों के लिए विषमलैंगिकता या क्रमिक सहसंबंध के तहत ओएलएस की तुलना में एफजीएलएस को प्राथमिकता दी जाती है।<ref name="Baltagi2008" /><ref name="Greene2003">Greene, W. H. (2003). Econometric Analysis (5th ed.). Upper Saddle River, NJ: Prentice Hall.</ref> एक चेतावनी वाली बात यह है कि एफजीएलएस अनुमानक हमेशा सुसंगत नहीं होता है। एक मामला जिसमें एफजीएलएस असंगत हो सकता है, यदि व्यक्तिगत विशिष्ट निश्चित प्रभाव हों।<ref>{{Cite journal |last=Hansen |first=Christian B. |title=सीरियल सहसंबंध और निश्चित प्रभावों के साथ पैनल और बहुस्तरीय मॉडल में सामान्यीकृत न्यूनतम वर्ग अनुमान|journal=[[Journal of Econometrics]] |year=2007 |volume=140 |issue=2 |pages=670–694 |doi=10.1016/j.jeconom.2006.07.011 }}</ref>
लेकिन बड़े नमूनों के लिए विषमलैंगिकता या क्रमिक सहसंबंध के तहत ओएलएस की तुलना में एफजीएलएस को प्राथमिकता दी जाती है।<ref name="Baltagi2008" /><ref name="Greene2003">Greene, W. H. (2003). Econometric Analysis (5th ed.). Upper Saddle River, NJ: Prentice Hall.</ref> एक चेतावनी वाली बात यह है कि एफजीएलएस अनुमानक हमेशा सुसंगत नहीं होता है। एक मामला जिसमें एफजीएलएस असंगत हो सकता है, यदि व्यक्तिगत विशिष्ट निश्चित प्रभाव हों।<ref>{{Cite journal |last=Hansen |first=Christian B. |title=सीरियल सहसंबंध और निश्चित प्रभावों के साथ पैनल और बहुस्तरीय मॉडल में सामान्यीकृत न्यूनतम वर्ग अनुमान|journal=[[Journal of Econometrics]] |year=2007 |volume=140 |issue=2 |pages=670–694 |doi=10.1016/j.jeconom.2006.07.011 }}</ref>
सामान्य तौर पर इस अनुमानक में जीएलएस से भिन्न गुण होते हैं। बड़े नमूनों के लिए (यानी, स्पर्शोन्मुख रूप से) सभी गुण (उचित परिस्थितियों में) जीएलएस के संबंध में सामान्य हैं, लेकिन सीमित नमूनों के लिए एफजीएलएस अनुमानकों के गुण अज्ञात हैं: वे प्रत्येक विशेष मॉडल के साथ नाटकीय रूप से भिन्न होते हैं, और एक सामान्य नियम के रूप में उनके सटीक वितरण विश्लेषणात्मक रूप से प्राप्त नहीं किया जा सकता। सीमित नमूनों के लिए, कुछ मामलों में एफजीएलएस ओएलएस से कम कुशल हो सकता है। इस प्रकार, जबकि जीएलएस को व्यवहार्य बनाया जा सकता है, नमूना छोटा होने पर इस पद्धति को लागू करना हमेशा बुद्धिमानी नहीं होती है।
सामान्य तौर पर इस अनुमानक में जीएलएस से भिन्न गुण होते हैं। बड़े नमूनों के लिए (यानी, स्पर्शोन्मुख रूप से) सभी गुण (उचित परिस्थितियों में) जीएलएस के संबंध में सामान्य हैं, लेकिन सीमित नमूनों के लिए एफजीएलएस अनुमानकों के गुण अज्ञात हैं: वे प्रत्येक विशेष प्रतिरूपण के साथ नाटकीय रूप से भिन्न होते हैं, और एक सामान्य नियम के रूप में उनके सटीक वितरण विश्लेषणात्मक रूप से प्राप्त नहीं किया जा सकता। सीमित नमूनों के लिए, कुछ मामलों में एफजीएलएस ओएलएस से कम कुशल हो सकता है। इस प्रकार, जबकि जीएलएस को व्यवहार्य बनाया जा सकता है, नमूना छोटा होने पर इस पद्धति को लागू करना हमेशा बुद्धिमानी नहीं होती है।
परिमित नमूनों में अनुमानकों की सटीकता में सुधार करने के लिए उपयोग की जाने वाली एक विधि पुनरावृत्त करना है, यानी, त्रुटियों के सहप्रसरण अनुमानक को अद्यतन करने के लिए एफजीएलएस से अवशेषों को लेना और फिर एफजीएलएस अनुमान को अद्यतन करना, उसी विचार को पुनरावृत्त रूप से लागू करना जब तक कि अनुमानक कुछ से कम भिन्न न हो जाएं सहनशीलता। लेकिन यदि मूल नमूना छोटा था तो यह विधि अनुमानक की दक्षता में बहुत अधिक सुधार नहीं करती है।
परिमित नमूनों में अनुमानकों की सटीकता में सुधार करने के लिए उपयोग की जाने वाली एक विधि पुनरावृत्त करना है, यानी, त्रुटियों के सहप्रसरण अनुमानक को अद्यतन करने के लिए एफजीएलएस से अवशेषों को लेना और फिर एफजीएलएस अनुमान को अद्यतन करना, उसी विचार को पुनरावृत्त रूप से लागू करना जब तक कि अनुमानक कुछ से कम भिन्न न हो जाएं सहनशीलता। लेकिन यदि मूल नमूना छोटा था तो यह विधि अनुमानक की दक्षता में बहुत अधिक सुधार नहीं करती है।
जब नमूने बहुत बड़े न हों तो एक उचित विकल्प ओएलएस लागू करना है, लेकिन शास्त्रीय विचरण अनुमानक को त्याग देना है
जब नमूने बहुत बड़े न हों तो एक उचित विकल्प ओएलएस लागू करना है, लेकिन शास्त्रीय विचरण अनुमानक को त्याग देना है
Line 76: Line 71:
और अवशेषों का अनुमान <math>\widehat{u}_j= (Y-X\widehat\beta_\text{OLS})_j</math> का निर्माण किया जाता है.
और अवशेषों का अनुमान <math>\widehat{u}_j= (Y-X\widehat\beta_\text{OLS})_j</math> का निर्माण किया जाता है.


सरलता के लिए विषमलैंगिक और गैर-स्वतःसहसंबद्ध त्रुटियों के मॉडल पर विचार करें। मान लें कि विचरण-सहप्रसरण मैट्रिक्स <math> \Omega </math> त्रुटि वेक्टर का विकर्ण है, या समकक्ष है कि अलग-अलग अवलोकनों से त्रुटियां असंबंधित हैं। फिर प्रत्येक विकर्ण प्रविष्टि का अनुमान फिट किए गए अवशेषों द्वारा लगाया जा सकता है <math>\widehat{u}_j</math> इसलिए <math>\widehat{\Omega}_{OLS}</math> द्वारा निर्मित किया जा सकता है
सरलता के लिए विषमलैंगिक और गैर-स्वतःसहसंबद्ध त्रुटियों के प्रतिरूपण पर विचार करें। मान लें कि विचरण-सहप्रसरण मैट्रिक्स <math> \Omega </math> त्रुटि वेक्टर का विकर्ण है, या समकक्ष है कि अलग-अलग अवलोकनों से त्रुटियां असंबंधित हैं। फिर प्रत्येक विकर्ण प्रविष्टि का अनुमान फिट किए गए अवशेषों द्वारा लगाया जा सकता है <math>\widehat{u}_j</math> इसलिए <math>\widehat{\Omega}_{OLS}</math> द्वारा निर्मित किया जा सकता है


:<math>
:<math>
\widehat{\Omega}_\text{OLS} = \operatorname{diag}(\widehat{\sigma}^2_1, \widehat{\sigma}^2_2, \dots , \widehat{\sigma}^2_n).
\widehat{\Omega}_\text{OLS} = \operatorname{diag}(\widehat{\sigma}^2_1, \widehat{\sigma}^2_2, \dots , \widehat{\sigma}^2_n).
</math>
</math>
यह ध्यान रखना महत्वपूर्ण है कि वर्गाकार अवशेषों का उपयोग पिछली अभिव्यक्ति में नहीं किया जा सकता है; हमें त्रुटियों के भिन्नता के अनुमानक की आवश्यकता है। ऐसा करने के लिए, हम एक पैरामीट्रिक हेटेरोस्केडैस्टिसिटी मॉडल, या एक गैर-पैरामीट्रिक अनुमानक का उपयोग कर सकते हैं। एक बार यह चरण पूरा हो जाने पर, हम आगे बढ़ सकते हैं:
यह ध्यान रखना महत्वपूर्ण है कि वर्गाकार अवशेषों का उपयोग पिछली अभिव्यक्ति में नहीं किया जा सकता है; हमें त्रुटियों के भिन्नता के अनुमानक की आवश्यकता है। ऐसा करने के लिए, हम एक पैरामीट्रिक हेटेरोस्केडैस्टिसिटी प्रतिरूपण, या एक गैर-पैरामीट्रिक अनुमानक का उपयोग कर सकते हैं। एक बार यह चरण पूरा हो जाने पर, हम आगे बढ़ सकते हैं:


अनुमान लगाना <math> \beta_{FGLS1}</math> का उपयोग करते हुए <math> \widehat{\Omega}_\text{OLS}</math> का उपयोग करते हुए<ref name="Greene2003" />[[भारित न्यूनतम वर्ग]]
अनुमान लगाना <math> \beta_{FGLS1}</math> का उपयोग करते हुए <math> \widehat{\Omega}_\text{OLS}</math> का उपयोग करते हुए<ref name="Greene2003" />[[भारित न्यूनतम वर्ग]]

Revision as of 22:14, 16 July 2023

आंकड़ों में, व्यापक न्यूनतम वर्ग (जीएलएस) एक विधि है जिसका उपयोग रैखिक प्रतिगमन में अज्ञात मापदंडों का अनुमान लगाने के लिए किया जाता है जब प्रतिगमन प्रतिरूपण में अवशेषों के बीच एक निश्चित डिग्री का सहसंबंध होता है। ऐसे मामलों में, सामान्य न्यूनतम वर्ग और भारित न्यूनतम वर्ग को अधिक सांख्यिकीय रूप से कुशल होने की आवश्यकता हो सकती है अन्यथा भ्रामक निष्कर्ष निकल सकते हैं। जीएलएस का वर्णन पहली बार 1935 में अलेक्जेंडर ऐटकेन द्वारा किया गया था।[1]


विधि रूपरेखा

मानक रैखिक प्रतिगमन प्रतिरूपण में कोई डेटा का अवलोकन करता है n सांख्यिकीय इकाइयों पर. प्रतिक्रिया मान एक वेक्टर में रखे गए हैं , और भविष्यवक्ता मानों को डिज़ाइन मैट्रिक्स में रखा गया है , कहाँ ith इकाई के लिए k भविष्यवक्ता चर (एक स्थिरांक सहित) का एक वेक्टर है। प्रतिरूपण सशर्त माध्य को बाध्य करता है दिया गया का एक रैखिक कार्य होना और दिए गए त्रुटि पद का सशर्त विचरण मानता है एक ज्ञात गैर-एकवचन सहप्रसरण मैट्रिक्स है . इसे आमतौर पर ऐसे लिखा जाता है

यहाँ अज्ञात स्थिरांकों का एक वेक्टर है (जिसे "प्रतिगमन गुणांक" के रूप में जाना जाता है) जिसका अनुमान डेटा से लगाया जाना चाहिए।

कल्पना करना के लिए एक उम्मीदवार का अनुमान है . फिर सांख्यिकी वेक्टर में त्रुटियाँ और अवशेष होगा . व्यापक न्यूनतम वर्ग विधि अनुमान इस अवशिष्ट वेक्टर की वर्गाकार महालनोबिस दूरी को कम करके:

जहां अंतिम दो पद अदिश राशि का मूल्यांकन करते हैं, जिसके परिणामस्वरूप

यह उद्देश्य द्विघात रूप में है .

के संबंध में इस द्विघात रूप का ग्रेडिएंट लेना और इसे शून्य के बराबर करना (कब)। ) देता है

इसलिए, स्पष्ट सूत्र के आधार पर न्यूनतम उद्देश्य फ़ंक्शन की गणना की जा सकती है:

मात्रा परिशुद्धता मैट्रिक्स (या वजन मैट्रिक्स) के रूप में जाना जाता है, जो विकर्ण भार मैट्रिक्स का सामान्यीकरण है।

गुण

जीएलएस अनुमानक एक अनुमानक, सुसंगत अनुमानक, दक्षता (सांख्यिकी), और स्पर्शोन्मुख वितरण का पूर्वाग्रह है और . जीएलएस डेटा के रैखिक रूप से रूपांतरित संस्करण में सामान्य न्यूनतम वर्ग लागू करने के बराबर है। इसे देखने के लिए, कारक उदाहरण के लिए, चोल्स्की अपघटन का उपयोग करना। फिर यदि कोई समीकरण के दोनों पक्षों को पूर्व-गुणा करता है द्वारा , हमें एक समतुल्य रैखिक प्रतिरूपण मिलता है कहाँ , , और . इस प्रतिरूपण में , कहाँ पहचान मैट्रिक्स है. इस प्रकार कोई भी कुशलतापूर्वक अनुमान लगा सकता है रूपांतरित डेटा में साधारण न्यूनतम वर्ग (ओएलएस) लागू करके, जिसे न्यूनतम करने की आवश्यकता होती है:

इसका त्रुटियों के पैमाने को मानकीकृत करने और उन्हें "डी-सहसंबद्ध" करने का प्रभाव है। जब ओएलएस को होमोसेडैस्टिक त्रुटियों वाले डेटा पर लागू किया जाता है, तो गॉस-मार्कोव प्रमेय लागू होता है, और इसलिए जीएलएस अनुमान β के लिए ब्लू (सांख्यिकी) है।

भारित न्यूनतम वर्ग

जीएलएस का एक विशेष मामला जिसे भारित न्यूनतम वर्ग (डब्ल्यूएलएस) कहा जाता है, तब होता है जब Ω की सभी ऑफ-विकर्ण प्रविष्टियां 0 होती हैं। यह स्थिति तब उत्पन्न होती है जब देखे गए मानों के भिन्नताएं असमान होती हैं (यानी, जब विषमलैंगिकता मौजूद होती है), लेकिन जहां कोई सहसंबंध नहीं होता है देखे गए भिन्नताओं के बीच मौजूद हैं। इकाई i के लिए भार इकाई i के लिए प्रतिक्रिया के विचरण के व्युत्क्रम के समानुपाती होता है।[2]


संभव व्यापक न्यूनतम वर्ग

यदि त्रुटियों का सहप्रसरण अज्ञात है, कोई इसका सुसंगत अनुमान प्राप्त कर सकता है , कहना ,[3] जीएलएस के कार्यान्वयन योग्य संस्करण का उपयोग करना जिसे व्यवहार्य व्यापक न्यूनतम वर्ग के रूप में जाना जाता है (एफजीएलएस) अनुमानक।

FGLS में, प्रतिरूपणिंग दो चरणों में आगे बढ़ती है:

(1) प्रतिरूपण का अनुमान ओएलएस या किसी अन्य सुसंगत (लेकिन अकुशल) अनुमानक द्वारा लगाया जाता है और अवशेषों का उपयोग त्रुटि सहप्रसरण मैट्रिक्स के सुसंगत अनुमानक को बनाने के लिए किया जाता है (ऐसा करने के लिए, किसी को अक्सर अतिरिक्त बाधाओं को जोड़कर प्रतिरूपण की जांच करने की आवश्यकता होती है, उदाहरण के लिए) यदि त्रुटियाँ एक समय श्रृंखला प्रक्रिया का अनुसरण करती हैं, तो एक सांख्यिकीविद् को आम तौर पर इस प्रक्रिया पर कुछ सैद्धांतिक धारणाओं की आवश्यकता होती है ताकि यह सुनिश्चित हो सके कि एक सुसंगत अनुमानक उपलब्ध है); और

(2) त्रुटियों के सहप्रसरण मैट्रिक्स के सुसंगत अनुमानक का उपयोग करके, कोई जीएलएस विचारों को लागू कर सकता है।

जबकि जीएलएस विषमलैंगिकता (जिसे विषमलैंगिकता भी कहा जाता है) या ऑटोसहसंबंध के तहत ओएलएस की तुलना में अधिक कुशल है, यह एफजीएलएस के लिए सच नहीं है। व्यवहार्य अनुमानक असममित रूप से अधिक कुशल है, बशर्ते त्रुटि सहप्रसरण मैट्रिक्स का लगातार अनुमान लगाया जाता है, लेकिन छोटे से मध्यम आकार के नमूने के लिए, यह वास्तव में ओएलएस की तुलना में कम कुशल हो सकता है। यही कारण है कि कुछ लेखक ओएलएस का उपयोग करना पसंद करते हैं, और विषमलैंगिकता या क्रमिक स्वसहसंबंध के लिए मजबूत अनुमानक के विचरण के लिए एक वैकल्पिक अनुमानक पर विचार करके अपने अनुमानों को सुधारते हैं। लेकिन बड़े नमूनों के लिए विषमलैंगिकता या क्रमिक सहसंबंध के तहत ओएलएस की तुलना में एफजीएलएस को प्राथमिकता दी जाती है।[3][4] एक चेतावनी वाली बात यह है कि एफजीएलएस अनुमानक हमेशा सुसंगत नहीं होता है। एक मामला जिसमें एफजीएलएस असंगत हो सकता है, यदि व्यक्तिगत विशिष्ट निश्चित प्रभाव हों।[5] सामान्य तौर पर इस अनुमानक में जीएलएस से भिन्न गुण होते हैं। बड़े नमूनों के लिए (यानी, स्पर्शोन्मुख रूप से) सभी गुण (उचित परिस्थितियों में) जीएलएस के संबंध में सामान्य हैं, लेकिन सीमित नमूनों के लिए एफजीएलएस अनुमानकों के गुण अज्ञात हैं: वे प्रत्येक विशेष प्रतिरूपण के साथ नाटकीय रूप से भिन्न होते हैं, और एक सामान्य नियम के रूप में उनके सटीक वितरण विश्लेषणात्मक रूप से प्राप्त नहीं किया जा सकता। सीमित नमूनों के लिए, कुछ मामलों में एफजीएलएस ओएलएस से कम कुशल हो सकता है। इस प्रकार, जबकि जीएलएस को व्यवहार्य बनाया जा सकता है, नमूना छोटा होने पर इस पद्धति को लागू करना हमेशा बुद्धिमानी नहीं होती है। परिमित नमूनों में अनुमानकों की सटीकता में सुधार करने के लिए उपयोग की जाने वाली एक विधि पुनरावृत्त करना है, यानी, त्रुटियों के सहप्रसरण अनुमानक को अद्यतन करने के लिए एफजीएलएस से अवशेषों को लेना और फिर एफजीएलएस अनुमान को अद्यतन करना, उसी विचार को पुनरावृत्त रूप से लागू करना जब तक कि अनुमानक कुछ से कम भिन्न न हो जाएं सहनशीलता। लेकिन यदि मूल नमूना छोटा था तो यह विधि अनुमानक की दक्षता में बहुत अधिक सुधार नहीं करती है। जब नमूने बहुत बड़े न हों तो एक उचित विकल्प ओएलएस लागू करना है, लेकिन शास्त्रीय विचरण अनुमानक को त्याग देना है

(जो इस ढांचे में असंगत है) और इसके बजाय एक एचएसी (हेटरोस्केडैस्टिसिटी और ऑटोकोरेलेशन कंसिस्टेंट) अनुमानक का उपयोग करें। उदाहरण के लिए, स्वसहसंबंध के संदर्भ में हम बार्टलेट अनुमानक का उपयोग कर सकते हैं (अक्सर न्यूए-वेस्ट अनुमानक अनुमानक के रूप में जाना जाता है क्योंकि इन लेखकों ने अपने 1987 इकोनोमेट्रिका लेख में अर्थशास्त्रियों के बीच इस अनुमानक के उपयोग को लोकप्रिय बनाया है), और विषमलैंगिक संदर्भों में हम हेटेरोसेडास्टिकिटी का उपयोग कर सकते हैं -सुसंगत मानक त्रुटियाँ|ईकर-व्हाइट अनुमानक। यह दृष्टिकोण अधिक सुरक्षित है और जब तक नमूना बड़ा न हो, इसे अपनाना उचित मार्ग है, जहां बड़ा होना कभी-कभी एक फिसलन भरा मुद्दा होता है (उदाहरण के लिए यदि त्रुटियों का वितरण असममित है तो आवश्यक नमूना बहुत बड़ा होगा)।

साधारण न्यूनतम वर्ग (ओएलएस) अनुमानक की गणना हमेशा की तरह की जाती है

और अवशेषों का अनुमान का निर्माण किया जाता है.

सरलता के लिए विषमलैंगिक और गैर-स्वतःसहसंबद्ध त्रुटियों के प्रतिरूपण पर विचार करें। मान लें कि विचरण-सहप्रसरण मैट्रिक्स त्रुटि वेक्टर का विकर्ण है, या समकक्ष है कि अलग-अलग अवलोकनों से त्रुटियां असंबंधित हैं। फिर प्रत्येक विकर्ण प्रविष्टि का अनुमान फिट किए गए अवशेषों द्वारा लगाया जा सकता है इसलिए द्वारा निर्मित किया जा सकता है

यह ध्यान रखना महत्वपूर्ण है कि वर्गाकार अवशेषों का उपयोग पिछली अभिव्यक्ति में नहीं किया जा सकता है; हमें त्रुटियों के भिन्नता के अनुमानक की आवश्यकता है। ऐसा करने के लिए, हम एक पैरामीट्रिक हेटेरोस्केडैस्टिसिटी प्रतिरूपण, या एक गैर-पैरामीट्रिक अनुमानक का उपयोग कर सकते हैं। एक बार यह चरण पूरा हो जाने पर, हम आगे बढ़ सकते हैं:

अनुमान लगाना का उपयोग करते हुए का उपयोग करते हुए[4]भारित न्यूनतम वर्ग

प्रक्रिया को दोहराया जा सकता है. पहला पुनरावृत्ति द्वारा दिया गया है

यह अनुमान अभिसरण के लिए पुनरावृत्त किया जा सकता है।

नियमितता शर्तों के तहत एफजीएलएस अनुमानक (या इसके पुनरावृत्तियों का अनुमानक, यदि हम सीमित संख्या में पुनरावृत्त करते हैं) को असम्बद्ध रूप से वितरित किया जाता है

जहां n नमूना आकार है और

यहां पी-लिम का मतलब संभाव्यता की सीमा है।

यह भी देखें

  • आत्मविश्वास क्षेत्र
  • स्वतंत्रता की डिग्री (सांख्यिकी)#स्वतंत्रता की प्रभावी डिग्री
  • स्तुति-विंस्टन अनुमान

संदर्भ

  1. Aitken, A. C. (1935). "न्यूनतम वर्गों और प्रेक्षणों के रैखिक संयोजनों पर". Proceedings of the Royal Society of Edinburgh. 55: 42–48. doi:10.1017/s0370164600014346.
  2. Strutz, T. (2016). डेटा फिटिंग और अनिश्चितता (भारित न्यूनतम वर्ग और उससे आगे का व्यावहारिक परिचय). Springer Vieweg. ISBN 978-3-658-11455-8., chapter 3
  3. 3.0 3.1 Baltagi, B. H. (2008). Econometrics (4th ed.). New York: Springer.
  4. 4.0 4.1 Greene, W. H. (2003). Econometric Analysis (5th ed.). Upper Saddle River, NJ: Prentice Hall.
  5. Hansen, Christian B. (2007). "सीरियल सहसंबंध और निश्चित प्रभावों के साथ पैनल और बहुस्तरीय मॉडल में सामान्यीकृत न्यूनतम वर्ग अनुमान". Journal of Econometrics. 140 (2): 670–694. doi:10.1016/j.jeconom.2006.07.011.


अग्रिम पठन