सामान्यीकृत न्यूनतम वर्ग: Difference between revisions
mNo edit summary |
mNo edit summary |
||
Line 1: | Line 1: | ||
आंकड़ों में, व्यापक न्यूनतम वर्ग (जीएलएस) एक विधि है जिसका उपयोग रैखिक प्रतिगमन में अज्ञात मापदंडों का अनुमान लगाने के लिए किया जाता है जब प्रतिगमन प्रतिरूपण में अवशेषों के बीच एक निश्चित डिग्री का सहसंबंध होता है। ऐसे | आंकड़ों में, व्यापक न्यूनतम वर्ग (जीएलएस) एक विधि है जिसका उपयोग रैखिक प्रतिगमन में अज्ञात मापदंडों का अनुमान लगाने के लिए किया जाता है जब प्रतिगमन प्रतिरूपण में अवशेषों के बीच एक निश्चित डिग्री का सहसंबंध होता है। ऐसे स्तिथियों में, सामान्य न्यूनतम वर्ग और भारित न्यूनतम वर्ग को अधिक सांख्यिकीय रूप से कुशल होने की आवश्यकता हो सकती है अन्यथा भ्रामक निष्कर्ष निकल सकते हैं। जीएलएस का वर्णन पहली बार 1935 में [[अलेक्जेंडर ऐटकेन]] द्वारा किया गया था।<ref>{{cite journal | last1 = Aitken | first1 = A. C. | year = 1935 | title = न्यूनतम वर्गों और प्रेक्षणों के रैखिक संयोजनों पर| journal = Proceedings of the Royal Society of Edinburgh | volume = 55 | pages = 42–48 | doi = 10.1017/s0370164600014346 }}</ref> | ||
'''<big><br />विधि रूपरेखा</big>''' | '''<big><br />विधि रूपरेखा</big>''' | ||
मानक रैखिक प्रतिगमन प्रतिरूपण में कोई डेटा | मानक रैखिक प्रतिगमन प्रतिरूपण में कोई डेटा <math>\{y_i,x_{ij}\}_{i=1, \dots, n,j=2, \dots, k}</math> n सांख्यिकीय इकाइयों पर का अवलोकन करता है। प्रतिक्रिया मान एक सदिश <math>\mathbf{y} = \left( y_{1}, \dots, y_{n} \right)^{\mathsf{T}}</math>में रखे गए हैं और पूर्वानुमानित मानों को [[डिज़ाइन मैट्रिक्स]] <math>\mathbf{X} = \left( \mathbf{x}_{1}^{\mathsf{T}}, \dots, \mathbf{x}_{n}^{\mathsf{T}} \right)^{\mathsf{T}}</math>में रखा गया है, जहाँ <math>\mathbf{x}_{i} = \left( 1, x_{i2}, \dots, x_{ik} \right)</math> ith इकाई k के लिए पूर्वानुमानित चर का एक सदिश है। प्रतिरूपण [[सशर्त माध्य|सप्रतिबन्ध माध्य]] को बाध्य करता है <math>\mathbf{y}</math> दिया गया <math>\mathbf{X}</math> का एक रैखिक कार्य होना <math>\mathbf{X}</math> और दिए गए त्रुटि पद का सशर्त विचरण मानता है <math>\mathbf{X}</math> एक ज्ञात गैर-एकवचन सहप्रसरण मैट्रिक्स है <math>\mathbf{\Omega}</math>. इसे आमतौर पर ऐसे लिखा जाता है | ||
: <math> | : <math> | ||
\mathbf{y} = \mathbf{X} \mathbf{\beta} + \mathbf{\varepsilon}, \qquad \operatorname{E}[\varepsilon\mid\mathbf{X}]=0,\ \operatorname{Cov}[\varepsilon\mid\mathbf{X}]= \mathbf{\Omega}. | \mathbf{y} = \mathbf{X} \mathbf{\beta} + \mathbf{\varepsilon}, \qquad \operatorname{E}[\varepsilon\mid\mathbf{X}]=0,\ \operatorname{Cov}[\varepsilon\mid\mathbf{X}]= \mathbf{\Omega}. | ||
</math> | </math> | ||
यहाँ <math>\beta \in \mathbb{R}^k</math> अज्ञात स्थिरांकों का एक | यहाँ <math>\beta \in \mathbb{R}^k</math> अज्ञात स्थिरांकों का एक सदिश है (जिसे "प्रतिगमन गुणांक" के रूप में जाना जाता है) जिसका अनुमान डेटा से लगाया जाना चाहिए। | ||
कल्पना करना <math>\mathbf{b}</math> के लिए एक | कल्पना करना <math>\mathbf{b}</math> के लिए एक संभावित का अनुमान <math>\mathbf{\beta}</math> है। फिर सांख्यिकी सदिश में त्रुटियाँ और अवशेष <math>\mathbf{b}</math> होगा <math>\mathbf{y}- \mathbf{X} \mathbf{b}</math>. व्यापक न्यूनतम वर्ग विधि अनुमान <math>\mathbf{\beta}</math> इस अवशिष्ट सदिश की वर्गाकार महालनोबिस दूरी को कम करके: | ||
: <math> | : <math> | ||
\begin{align} | \begin{align} | ||
Line 58: | Line 58: | ||
जबकि जीएलएस विषमलैंगिकता (जिसे विषमलैंगिकता भी कहा जाता है) या ऑटोसहसंबंध के तहत ओएलएस की तुलना में अधिक कुशल है, यह एफजीएलएस के लिए सच नहीं है। व्यवहार्य अनुमानक ''असममित रूप से'' अधिक कुशल है, बशर्ते त्रुटि सहप्रसरण मैट्रिक्स का लगातार अनुमान लगाया जाता है, लेकिन छोटे से मध्यम आकार के नमूने के लिए, यह वास्तव में ओएलएस की तुलना में कम कुशल हो सकता है। यही कारण है कि कुछ लेखक ओएलएस का उपयोग करना पसंद करते हैं, और विषमलैंगिकता या क्रमिक स्वसहसंबंध के लिए मजबूत अनुमानक के विचरण के लिए एक वैकल्पिक अनुमानक पर विचार करके अपने अनुमानों को सुधारते हैं। | जबकि जीएलएस विषमलैंगिकता (जिसे विषमलैंगिकता भी कहा जाता है) या ऑटोसहसंबंध के तहत ओएलएस की तुलना में अधिक कुशल है, यह एफजीएलएस के लिए सच नहीं है। व्यवहार्य अनुमानक ''असममित रूप से'' अधिक कुशल है, बशर्ते त्रुटि सहप्रसरण मैट्रिक्स का लगातार अनुमान लगाया जाता है, लेकिन छोटे से मध्यम आकार के नमूने के लिए, यह वास्तव में ओएलएस की तुलना में कम कुशल हो सकता है। यही कारण है कि कुछ लेखक ओएलएस का उपयोग करना पसंद करते हैं, और विषमलैंगिकता या क्रमिक स्वसहसंबंध के लिए मजबूत अनुमानक के विचरण के लिए एक वैकल्पिक अनुमानक पर विचार करके अपने अनुमानों को सुधारते हैं। | ||
लेकिन बड़े नमूनों के लिए विषमलैंगिकता या क्रमिक सहसंबंध के तहत ओएलएस की तुलना में एफजीएलएस को प्राथमिकता दी जाती है।<ref name="Baltagi2008" /><ref name="Greene2003">Greene, W. H. (2003). Econometric Analysis (5th ed.). Upper Saddle River, NJ: Prentice Hall.</ref> एक चेतावनी वाली बात यह है कि एफजीएलएस अनुमानक हमेशा सुसंगत नहीं होता है। एक मामला जिसमें एफजीएलएस असंगत हो सकता है, यदि व्यक्तिगत विशिष्ट निश्चित प्रभाव हों।<ref>{{Cite journal |last=Hansen |first=Christian B. |title=सीरियल सहसंबंध और निश्चित प्रभावों के साथ पैनल और बहुस्तरीय मॉडल में सामान्यीकृत न्यूनतम वर्ग अनुमान|journal=[[Journal of Econometrics]] |year=2007 |volume=140 |issue=2 |pages=670–694 |doi=10.1016/j.jeconom.2006.07.011 }}</ref> | लेकिन बड़े नमूनों के लिए विषमलैंगिकता या क्रमिक सहसंबंध के तहत ओएलएस की तुलना में एफजीएलएस को प्राथमिकता दी जाती है।<ref name="Baltagi2008" /><ref name="Greene2003">Greene, W. H. (2003). Econometric Analysis (5th ed.). Upper Saddle River, NJ: Prentice Hall.</ref> एक चेतावनी वाली बात यह है कि एफजीएलएस अनुमानक हमेशा सुसंगत नहीं होता है। एक मामला जिसमें एफजीएलएस असंगत हो सकता है, यदि व्यक्तिगत विशिष्ट निश्चित प्रभाव हों।<ref>{{Cite journal |last=Hansen |first=Christian B. |title=सीरियल सहसंबंध और निश्चित प्रभावों के साथ पैनल और बहुस्तरीय मॉडल में सामान्यीकृत न्यूनतम वर्ग अनुमान|journal=[[Journal of Econometrics]] |year=2007 |volume=140 |issue=2 |pages=670–694 |doi=10.1016/j.jeconom.2006.07.011 }}</ref> | ||
सामान्य तौर पर इस अनुमानक में जीएलएस से भिन्न गुण होते हैं। बड़े नमूनों के लिए (यानी, स्पर्शोन्मुख रूप से) सभी गुण (उचित परिस्थितियों में) जीएलएस के संबंध में सामान्य हैं, लेकिन सीमित नमूनों के लिए एफजीएलएस अनुमानकों के गुण अज्ञात हैं: वे प्रत्येक विशेष प्रतिरूपण के साथ नाटकीय रूप से भिन्न होते हैं, और एक सामान्य नियम के रूप में उनके सटीक वितरण विश्लेषणात्मक रूप से प्राप्त नहीं किया जा सकता। सीमित नमूनों के लिए, कुछ | सामान्य तौर पर इस अनुमानक में जीएलएस से भिन्न गुण होते हैं। बड़े नमूनों के लिए (यानी, स्पर्शोन्मुख रूप से) सभी गुण (उचित परिस्थितियों में) जीएलएस के संबंध में सामान्य हैं, लेकिन सीमित नमूनों के लिए एफजीएलएस अनुमानकों के गुण अज्ञात हैं: वे प्रत्येक विशेष प्रतिरूपण के साथ नाटकीय रूप से भिन्न होते हैं, और एक सामान्य नियम के रूप में उनके सटीक वितरण विश्लेषणात्मक रूप से प्राप्त नहीं किया जा सकता। सीमित नमूनों के लिए, कुछ स्तिथियों में एफजीएलएस ओएलएस से कम कुशल हो सकता है। इस प्रकार, जबकि जीएलएस को व्यवहार्य बनाया जा सकता है, नमूना छोटा होने पर इस पद्धति को लागू करना हमेशा बुद्धिमानी नहीं होती है। | ||
परिमित नमूनों में अनुमानकों की सटीकता में सुधार करने के लिए उपयोग की जाने वाली एक विधि पुनरावृत्त करना है, यानी, त्रुटियों के सहप्रसरण अनुमानक को अद्यतन करने के लिए एफजीएलएस से अवशेषों को लेना और फिर एफजीएलएस अनुमान को अद्यतन करना, उसी विचार को पुनरावृत्त रूप से लागू करना जब तक कि अनुमानक कुछ से कम भिन्न न हो जाएं सहनशीलता। लेकिन यदि मूल नमूना छोटा था तो यह विधि अनुमानक की दक्षता में बहुत अधिक सुधार नहीं करती है। | परिमित नमूनों में अनुमानकों की सटीकता में सुधार करने के लिए उपयोग की जाने वाली एक विधि पुनरावृत्त करना है, यानी, त्रुटियों के सहप्रसरण अनुमानक को अद्यतन करने के लिए एफजीएलएस से अवशेषों को लेना और फिर एफजीएलएस अनुमान को अद्यतन करना, उसी विचार को पुनरावृत्त रूप से लागू करना जब तक कि अनुमानक कुछ से कम भिन्न न हो जाएं सहनशीलता। लेकिन यदि मूल नमूना छोटा था तो यह विधि अनुमानक की दक्षता में बहुत अधिक सुधार नहीं करती है। | ||
जब नमूने बहुत बड़े न हों तो एक उचित विकल्प ओएलएस लागू करना है, लेकिन शास्त्रीय विचरण अनुमानक को त्याग देना है | जब नमूने बहुत बड़े न हों तो एक उचित विकल्प ओएलएस लागू करना है, लेकिन शास्त्रीय विचरण अनुमानक को त्याग देना है | ||
Line 71: | Line 71: | ||
और अवशेषों का अनुमान <math>\widehat{u}_j= (Y-X\widehat\beta_\text{OLS})_j</math> का निर्माण किया जाता है. | और अवशेषों का अनुमान <math>\widehat{u}_j= (Y-X\widehat\beta_\text{OLS})_j</math> का निर्माण किया जाता है. | ||
सरलता के लिए विषमलैंगिक और गैर-स्वतःसहसंबद्ध त्रुटियों के प्रतिरूपण पर विचार करें। मान लें कि विचरण-सहप्रसरण मैट्रिक्स <math> \Omega </math> त्रुटि | सरलता के लिए विषमलैंगिक और गैर-स्वतःसहसंबद्ध त्रुटियों के प्रतिरूपण पर विचार करें। मान लें कि विचरण-सहप्रसरण मैट्रिक्स <math> \Omega </math> त्रुटि सदिश का विकर्ण है, या समकक्ष है कि अलग-अलग अवलोकनों से त्रुटियां असंबंधित हैं। फिर प्रत्येक विकर्ण प्रविष्टि का अनुमान फिट किए गए अवशेषों द्वारा लगाया जा सकता है <math>\widehat{u}_j</math> इसलिए <math>\widehat{\Omega}_{OLS}</math> द्वारा निर्मित किया जा सकता है | ||
:<math> | :<math> |
Revision as of 22:54, 16 July 2023
आंकड़ों में, व्यापक न्यूनतम वर्ग (जीएलएस) एक विधि है जिसका उपयोग रैखिक प्रतिगमन में अज्ञात मापदंडों का अनुमान लगाने के लिए किया जाता है जब प्रतिगमन प्रतिरूपण में अवशेषों के बीच एक निश्चित डिग्री का सहसंबंध होता है। ऐसे स्तिथियों में, सामान्य न्यूनतम वर्ग और भारित न्यूनतम वर्ग को अधिक सांख्यिकीय रूप से कुशल होने की आवश्यकता हो सकती है अन्यथा भ्रामक निष्कर्ष निकल सकते हैं। जीएलएस का वर्णन पहली बार 1935 में अलेक्जेंडर ऐटकेन द्वारा किया गया था।[1]
विधि रूपरेखा
मानक रैखिक प्रतिगमन प्रतिरूपण में कोई डेटा n सांख्यिकीय इकाइयों पर का अवलोकन करता है। प्रतिक्रिया मान एक सदिश में रखे गए हैं और पूर्वानुमानित मानों को डिज़ाइन मैट्रिक्स में रखा गया है, जहाँ ith इकाई k के लिए पूर्वानुमानित चर का एक सदिश है। प्रतिरूपण सप्रतिबन्ध माध्य को बाध्य करता है दिया गया का एक रैखिक कार्य होना और दिए गए त्रुटि पद का सशर्त विचरण मानता है एक ज्ञात गैर-एकवचन सहप्रसरण मैट्रिक्स है . इसे आमतौर पर ऐसे लिखा जाता है
यहाँ अज्ञात स्थिरांकों का एक सदिश है (जिसे "प्रतिगमन गुणांक" के रूप में जाना जाता है) जिसका अनुमान डेटा से लगाया जाना चाहिए।
कल्पना करना के लिए एक संभावित का अनुमान है। फिर सांख्यिकी सदिश में त्रुटियाँ और अवशेष होगा . व्यापक न्यूनतम वर्ग विधि अनुमान इस अवशिष्ट सदिश की वर्गाकार महालनोबिस दूरी को कम करके:
जहां अंतिम दो पद अदिश राशि का मूल्यांकन करते हैं, जिसके परिणामस्वरूप
यह उद्देश्य द्विघात रूप में है .
के संबंध में इस द्विघात रूप का ग्रेडिएंट लेना और इसे शून्य के बराबर करना (कब)। ) देता है
इसलिए, स्पष्ट सूत्र के आधार पर न्यूनतम उद्देश्य फ़ंक्शन की गणना की जा सकती है:
मात्रा परिशुद्धता मैट्रिक्स (या वजन मैट्रिक्स) के रूप में जाना जाता है, जो विकर्ण भार मैट्रिक्स का सामान्यीकरण है।
गुण
जीएलएस अनुमानक एक अनुमानक, सुसंगत अनुमानक, दक्षता (सांख्यिकी), और स्पर्शोन्मुख वितरण का पूर्वाग्रह है और . जीएलएस डेटा के रैखिक रूप से रूपांतरित संस्करण में सामान्य न्यूनतम वर्ग लागू करने के बराबर है। इसे देखने के लिए, कारक उदाहरण के लिए, चोल्स्की अपघटन का उपयोग करना। फिर यदि कोई समीकरण के दोनों पक्षों को पूर्व-गुणा करता है द्वारा , हमें एक समतुल्य रैखिक प्रतिरूपण मिलता है कहाँ , , और . इस प्रतिरूपण में , कहाँ पहचान मैट्रिक्स है. इस प्रकार कोई भी कुशलतापूर्वक अनुमान लगा सकता है रूपांतरित डेटा में साधारण न्यूनतम वर्ग (ओएलएस) लागू करके, जिसे न्यूनतम करने की आवश्यकता होती है:
इसका त्रुटियों के पैमाने को मानकीकृत करने और उन्हें "डी-सहसंबद्ध" करने का प्रभाव है। जब ओएलएस को होमोसेडैस्टिक त्रुटियों वाले डेटा पर लागू किया जाता है, तो गॉस-मार्कोव प्रमेय लागू होता है, और इसलिए जीएलएस अनुमान β के लिए ब्लू (सांख्यिकी) है।
भारित न्यूनतम वर्ग
जीएलएस का एक विशेष मामला जिसे भारित न्यूनतम वर्ग (डब्ल्यूएलएस) कहा जाता है, तब होता है जब Ω की सभी ऑफ-विकर्ण प्रविष्टियां 0 होती हैं। यह स्थिति तब उत्पन्न होती है जब देखे गए मानों के भिन्नताएं असमान होती हैं (यानी, जब विषमलैंगिकता मौजूद होती है), लेकिन जहां कोई सहसंबंध नहीं होता है देखे गए भिन्नताओं के बीच मौजूद हैं। इकाई i के लिए भार इकाई i के लिए प्रतिक्रिया के विचरण के व्युत्क्रम के समानुपाती होता है।[2]
संभव व्यापक न्यूनतम वर्ग
यदि त्रुटियों का सहप्रसरण अज्ञात है, कोई इसका सुसंगत अनुमान प्राप्त कर सकता है , कहना ,[3] जीएलएस के कार्यान्वयन योग्य संस्करण का उपयोग करना जिसे व्यवहार्य व्यापक न्यूनतम वर्ग के रूप में जाना जाता है (एफजीएलएस) अनुमानक।
FGLS में, प्रतिरूपणिंग दो चरणों में आगे बढ़ती है:
(1) प्रतिरूपण का अनुमान ओएलएस या किसी अन्य सुसंगत (लेकिन अकुशल) अनुमानक द्वारा लगाया जाता है और अवशेषों का उपयोग त्रुटि सहप्रसरण मैट्रिक्स के सुसंगत अनुमानक को बनाने के लिए किया जाता है (ऐसा करने के लिए, किसी को अक्सर अतिरिक्त बाधाओं को जोड़कर प्रतिरूपण की जांच करने की आवश्यकता होती है, उदाहरण के लिए) यदि त्रुटियाँ एक समय श्रृंखला प्रक्रिया का अनुसरण करती हैं, तो एक सांख्यिकीविद् को आम तौर पर इस प्रक्रिया पर कुछ सैद्धांतिक धारणाओं की आवश्यकता होती है ताकि यह सुनिश्चित हो सके कि एक सुसंगत अनुमानक उपलब्ध है); और
(2) त्रुटियों के सहप्रसरण मैट्रिक्स के सुसंगत अनुमानक का उपयोग करके, कोई जीएलएस विचारों को लागू कर सकता है।
जबकि जीएलएस विषमलैंगिकता (जिसे विषमलैंगिकता भी कहा जाता है) या ऑटोसहसंबंध के तहत ओएलएस की तुलना में अधिक कुशल है, यह एफजीएलएस के लिए सच नहीं है। व्यवहार्य अनुमानक असममित रूप से अधिक कुशल है, बशर्ते त्रुटि सहप्रसरण मैट्रिक्स का लगातार अनुमान लगाया जाता है, लेकिन छोटे से मध्यम आकार के नमूने के लिए, यह वास्तव में ओएलएस की तुलना में कम कुशल हो सकता है। यही कारण है कि कुछ लेखक ओएलएस का उपयोग करना पसंद करते हैं, और विषमलैंगिकता या क्रमिक स्वसहसंबंध के लिए मजबूत अनुमानक के विचरण के लिए एक वैकल्पिक अनुमानक पर विचार करके अपने अनुमानों को सुधारते हैं। लेकिन बड़े नमूनों के लिए विषमलैंगिकता या क्रमिक सहसंबंध के तहत ओएलएस की तुलना में एफजीएलएस को प्राथमिकता दी जाती है।[3][4] एक चेतावनी वाली बात यह है कि एफजीएलएस अनुमानक हमेशा सुसंगत नहीं होता है। एक मामला जिसमें एफजीएलएस असंगत हो सकता है, यदि व्यक्तिगत विशिष्ट निश्चित प्रभाव हों।[5] सामान्य तौर पर इस अनुमानक में जीएलएस से भिन्न गुण होते हैं। बड़े नमूनों के लिए (यानी, स्पर्शोन्मुख रूप से) सभी गुण (उचित परिस्थितियों में) जीएलएस के संबंध में सामान्य हैं, लेकिन सीमित नमूनों के लिए एफजीएलएस अनुमानकों के गुण अज्ञात हैं: वे प्रत्येक विशेष प्रतिरूपण के साथ नाटकीय रूप से भिन्न होते हैं, और एक सामान्य नियम के रूप में उनके सटीक वितरण विश्लेषणात्मक रूप से प्राप्त नहीं किया जा सकता। सीमित नमूनों के लिए, कुछ स्तिथियों में एफजीएलएस ओएलएस से कम कुशल हो सकता है। इस प्रकार, जबकि जीएलएस को व्यवहार्य बनाया जा सकता है, नमूना छोटा होने पर इस पद्धति को लागू करना हमेशा बुद्धिमानी नहीं होती है। परिमित नमूनों में अनुमानकों की सटीकता में सुधार करने के लिए उपयोग की जाने वाली एक विधि पुनरावृत्त करना है, यानी, त्रुटियों के सहप्रसरण अनुमानक को अद्यतन करने के लिए एफजीएलएस से अवशेषों को लेना और फिर एफजीएलएस अनुमान को अद्यतन करना, उसी विचार को पुनरावृत्त रूप से लागू करना जब तक कि अनुमानक कुछ से कम भिन्न न हो जाएं सहनशीलता। लेकिन यदि मूल नमूना छोटा था तो यह विधि अनुमानक की दक्षता में बहुत अधिक सुधार नहीं करती है। जब नमूने बहुत बड़े न हों तो एक उचित विकल्प ओएलएस लागू करना है, लेकिन शास्त्रीय विचरण अनुमानक को त्याग देना है
(जो इस ढांचे में असंगत है) और इसके बजाय एक एचएसी (हेटरोस्केडैस्टिसिटी और ऑटोकोरेलेशन कंसिस्टेंट) अनुमानक का उपयोग करें। उदाहरण के लिए, स्वसहसंबंध के संदर्भ में हम बार्टलेट अनुमानक का उपयोग कर सकते हैं (अक्सर न्यूए-वेस्ट अनुमानक अनुमानक के रूप में जाना जाता है क्योंकि इन लेखकों ने अपने 1987 इकोनोमेट्रिका लेख में अर्थशास्त्रियों के बीच इस अनुमानक के उपयोग को लोकप्रिय बनाया है), और विषमलैंगिक संदर्भों में हम हेटेरोसेडास्टिकिटी का उपयोग कर सकते हैं -सुसंगत मानक त्रुटियाँ|ईकर-व्हाइट अनुमानक। यह दृष्टिकोण अधिक सुरक्षित है और जब तक नमूना बड़ा न हो, इसे अपनाना उचित मार्ग है, जहां बड़ा होना कभी-कभी एक फिसलन भरा मुद्दा होता है (उदाहरण के लिए यदि त्रुटियों का वितरण असममित है तो आवश्यक नमूना बहुत बड़ा होगा)।
साधारण न्यूनतम वर्ग (ओएलएस) अनुमानक की गणना हमेशा की तरह की जाती है
और अवशेषों का अनुमान का निर्माण किया जाता है.
सरलता के लिए विषमलैंगिक और गैर-स्वतःसहसंबद्ध त्रुटियों के प्रतिरूपण पर विचार करें। मान लें कि विचरण-सहप्रसरण मैट्रिक्स त्रुटि सदिश का विकर्ण है, या समकक्ष है कि अलग-अलग अवलोकनों से त्रुटियां असंबंधित हैं। फिर प्रत्येक विकर्ण प्रविष्टि का अनुमान फिट किए गए अवशेषों द्वारा लगाया जा सकता है इसलिए द्वारा निर्मित किया जा सकता है
यह ध्यान रखना महत्वपूर्ण है कि वर्गाकार अवशेषों का उपयोग पिछली अभिव्यक्ति में नहीं किया जा सकता है; हमें त्रुटियों के भिन्नता के अनुमानक की आवश्यकता है। ऐसा करने के लिए, हम एक पैरामीट्रिक हेटेरोस्केडैस्टिसिटी प्रतिरूपण, या एक गैर-पैरामीट्रिक अनुमानक का उपयोग कर सकते हैं। एक बार यह चरण पूरा हो जाने पर, हम आगे बढ़ सकते हैं:
अनुमान लगाना का उपयोग करते हुए का उपयोग करते हुए[4]भारित न्यूनतम वर्ग
प्रक्रिया को दोहराया जा सकता है. पहला पुनरावृत्ति द्वारा दिया गया है
यह अनुमान अभिसरण के लिए पुनरावृत्त किया जा सकता है।
नियमितता शर्तों के तहत एफजीएलएस अनुमानक (या इसके पुनरावृत्तियों का अनुमानक, यदि हम सीमित संख्या में पुनरावृत्त करते हैं) को असम्बद्ध रूप से वितरित किया जाता है
जहां n नमूना आकार है और
यहां पी-लिम का मतलब संभाव्यता की सीमा है।
यह भी देखें
- आत्मविश्वास क्षेत्र
- स्वतंत्रता की डिग्री (सांख्यिकी)#स्वतंत्रता की प्रभावी डिग्री
- स्तुति-विंस्टन अनुमान
संदर्भ
- ↑ Aitken, A. C. (1935). "न्यूनतम वर्गों और प्रेक्षणों के रैखिक संयोजनों पर". Proceedings of the Royal Society of Edinburgh. 55: 42–48. doi:10.1017/s0370164600014346.
- ↑ Strutz, T. (2016). डेटा फिटिंग और अनिश्चितता (भारित न्यूनतम वर्ग और उससे आगे का व्यावहारिक परिचय). Springer Vieweg. ISBN 978-3-658-11455-8., chapter 3
- ↑ 3.0 3.1 Baltagi, B. H. (2008). Econometrics (4th ed.). New York: Springer.
- ↑ 4.0 4.1 Greene, W. H. (2003). Econometric Analysis (5th ed.). Upper Saddle River, NJ: Prentice Hall.
- ↑ Hansen, Christian B. (2007). "सीरियल सहसंबंध और निश्चित प्रभावों के साथ पैनल और बहुस्तरीय मॉडल में सामान्यीकृत न्यूनतम वर्ग अनुमान". Journal of Econometrics. 140 (2): 670–694. doi:10.1016/j.jeconom.2006.07.011.
अग्रिम पठन
- Amemiya, Takeshi (1985). "Generalized Least Squares Theory". Advanced Econometrics. Harvard University Press. ISBN 0-674-00560-0.
- Johnston, John (1972). "Generalized Least-squares:". Econometric Methods (Second ed.). New York: McGraw-Hill. pp. 208–242.
- Kmenta, Jan (1986). "Generalized Linear Regression Model and Its Applications". Elements of Econometrics (Second ed.). New York: Macmillan. pp. 607–650. ISBN 0-472-10886-7.
- Beck, Nathaniel; Katz, Jonathan N. (September 1995). "What To Do (and Not to Do) with Time-Series Cross-Section Data". American Political Science Review (in English). 89 (3): 634–647. doi:10.2307/2082979. ISSN 1537-5943. JSTOR 2082979. S2CID 63222945.