क्षणों की सामान्यीकृत विधि: Difference between revisions

From Vigyanwiki
No edit summary
 
(15 intermediate revisions by 3 users not shown)
Line 1: Line 1:
{{Short description|Parameter estimation technique in statistics, particularly econometrics}}[[अर्थमिति]] और सांख्यिकी में, क्षणों की सामान्यीकृत विधि (जीएमएम) [[सांख्यिकीय मॉडल|सांख्यिकीय प्रारूपों]] में [[सांख्यिकीय पैरामीटर|मानदंडों]] का अनुमान लगाने के लिए एक सामान्य विधि है। आमतौर पर इसे [[अर्धपैरामीट्रिक मॉडल|अर्धपैरामीट्रिक प्रारूप]] के संदर्भ में लागू किया जाता है, जहां पैरामीटर मुख्यतः परिमित-आयामी होता है, जबकि डेटा के वितरण फलन का पूर्ण आकार ज्ञात नहीं हो सकता है, और इसलिए [[अधिकतम संभावना अनुमान|अधिकतम प्रायिकता अनुमान]] लागू नहीं होता है।
{{Short description|Parameter estimation technique in statistics, particularly econometrics}}[[अर्थमिति]] और सांख्यिकी में, '''क्षणों की सामान्यीकृत विधि (जीएमएम),''' [[सांख्यिकीय मॉडल|सांख्यिकीय प्रारूपों]] में [[सांख्यिकीय पैरामीटर|मानदंडों]] का अनुमान लगाने के लिए एक सामान्य विधि है। आमतौर पर इसे [[अर्धपैरामीट्रिक मॉडल|अर्धपैरामीट्रिक प्रारूप]] के संदर्भ में लागू किया जाता है, जहां पैरामीटर मुख्यतः परिमित-आयामी होता है, जबकि डेटा के वितरण फलन का पूर्ण आकार ज्ञात नहीं हो सकता है, और इसलिए [[अधिकतम संभावना अनुमान|अधिकतम प्रायिकता अनुमान]] लागू नहीं होता है।


इस विधि में यह आवश्यक है कि प्रारूप के लिए निर्दिष्ट संख्या के "क्षण स्थितियों" को निर्दिष्ट किया जाए। ये क्षण स्थिति प्रारूप, पैरामीटर और डेटा के फलन होते हैं, जिनका [[प्रत्याशित मान|अपेक्षित मान]] पैरामीटर के वास्तविक मान पर शून्य होता है। जीएमएम विधि तब क्षण स्थितियों के प्रारूप औसत के किसी परिमित [[मान]] को कम करती है, और इसलिए इसे न्यूनतम-दूरी अनुमान के एक विशेष परिप्रेक्ष्य के रूप में सोचा जा सकता है।<ref>{{cite book |first=Fumio |last=Hayashi |title=अर्थमिति|publisher=Princeton University Press |year=2000 |isbn=0-691-01018-8 |page=206 |url=https://books.google.com/books?id=QyIW8WUIyzcC&pg=PA206 }}</ref>
इस विधि में यह आवश्यक है कि प्रारूप के लिए निर्दिष्ट संख्या के "क्षण स्थितियों" को निर्दिष्ट किया जाए। ये क्षण स्थिति प्रारूप, पैरामीटर और डेटा के फलन होते हैं, जिनका [[प्रत्याशित मान|अपेक्षित मान]] पैरामीटर के वास्तविक मान पर शून्य होता है। जीएमएम विधि तब क्षण स्थितियों के प्रारूप औसत के किसी परिमित [[मान]] को कम करती है, और इसलिए इसे न्यूनतम-दूरी अनुमान के एक विशेष परिप्रेक्ष्य के रूप में सोचा जा सकता है।<ref>{{cite book |first=Fumio |last=Hayashi |title=अर्थमिति|publisher=Princeton University Press |year=2000 |isbn=0-691-01018-8 |page=206 |url=https://books.google.com/books?id=QyIW8WUIyzcC&pg=PA206 }}</ref>
Line 32: Line 32:
उपयुक्त परिस्थितियों में यह अनुमानक सुसंगत अनुमानक, [[स्पर्शोन्मुख सामान्यता]] और भार आव्यूह के सही विकल्प के साथ <math style="vertical-align:0em">\scriptstyle\hat{W}</math> कुशल अनुमानक भी है।
उपयुक्त परिस्थितियों में यह अनुमानक सुसंगत अनुमानक, [[स्पर्शोन्मुख सामान्यता]] और भार आव्यूह के सही विकल्प के साथ <math style="vertical-align:0em">\scriptstyle\hat{W}</math> कुशल अनुमानक भी है।


[[Category:All articles with unsourced statements]]
 
[[Category:Articles with hatnote templates targeting a nonexistent page]]
 
[[Category:Articles with invalid date parameter in template]]
 
[[Category:Articles with unsourced statements from June 2009]]
 
[[Category:Created On 06/07/2023]]
 
[[Category:Machine Translated Page]]
 
[[Category:Pages with script errors]]
 
[[Category:Short description with empty Wikidata description]]
 
[[Category:Template documentation pages|Short description/doc]]
 
[[Category:Templates Vigyan Ready]]
 


== गुण ==
== गुण ==
Line 60: Line 60:
व्यावहारिक रूप से लागू अर्थशास्त्री प्रायः वास्तव में इसे सिद्ध किए बिना यह मान लेते हैं कि वैश्विक पहचान मान्य है।<ref>{{cite book |last1=Newey |first1=W. |last2=McFadden |first2=D. |year=1994 |chapter=Large sample estimation and hypothesis testing |title=अर्थमिति की पुस्तिका|volume=4 |publisher=Elsevier Science |pages=2111–2245 |doi=10.1016/S1573-4412(05)80005-4 |citeseerx=10.1.1.724.4480 |isbn=9780444887665 }}</ref>{{rp|2127}}
व्यावहारिक रूप से लागू अर्थशास्त्री प्रायः वास्तव में इसे सिद्ध किए बिना यह मान लेते हैं कि वैश्विक पहचान मान्य है।<ref>{{cite book |last1=Newey |first1=W. |last2=McFadden |first2=D. |year=1994 |chapter=Large sample estimation and hypothesis testing |title=अर्थमिति की पुस्तिका|volume=4 |publisher=Elsevier Science |pages=2111–2245 |doi=10.1016/S1573-4412(05)80005-4 |citeseerx=10.1.1.724.4480 |isbn=9780444887665 }}</ref>{{rp|2127}}


[[Category:All articles with unsourced statements]]
[[Category:Articles with hatnote templates targeting a nonexistent page]]
[[Category:Articles with invalid date parameter in template]]
[[Category:Articles with unsourced statements from June 2009]]
[[Category:Created On 06/07/2023]]
[[Category:Machine Translated Page]]
[[Category:Pages with script errors]]
[[Category:Short description with empty Wikidata description]]
[[Category:Template documentation pages|Short description/doc]]
[[Category:Templates Vigyan Ready]]


=== स्पर्शोन्मुख सामान्यता ===
 
एसिम्प्टोटिक सामान्यता एक उपयोगी गुण है, क्योंकि यह हमें अनुमानक के लिए [[विश्वास अंतराल]] बनाने और विभिन्न परीक्षण करने की अनुमति देता है। इससे पहले कि हम जीएमएम अनुमानक के स्पर्शोन्मुख वितरण के बारे में एक बयान दे सकें, हमें दो सहायक आव्यूह को परिभाषित करने की आवश्यकता है:
 
 
 
 
 
 
 
 
 
=== उपगामी सामान्यता ===
उपगामी सामान्यता एक उपयोगी गुण है, क्योंकि यह हमें अनुमानक के लिए [[परिमित अंतराल]] बनाने और विभिन्न परीक्षण करने की अनुमति देता है। इससे पहले कि हम जीएमएम अनुमानक के उपगामी वितरण के बारे में एक बयान दे सकें, हमें दो सहायक आव्यूह को परिभाषित करने की आवश्यकता है:
: <math>G = \operatorname{E}[\,\nabla_{\!\theta}\,g(Y_t,\theta_0)\,], \qquad
: <math>G = \operatorname{E}[\,\nabla_{\!\theta}\,g(Y_t,\theta_0)\,], \qquad
         \Omega = \operatorname{E}[\,g(Y_t,\theta_0)g(Y_t,\theta_0)^{\mathsf{T}}\,]</math>
         \Omega = \operatorname{E}[\,g(Y_t,\theta_0)g(Y_t,\theta_0)^{\mathsf{T}}\,]</math>
फिर नीचे सूचीबद्ध शर्तों 1-6 के तहत, जीएमएम अनुमानक [[वितरण में अभिसरण]] के साथ असम्बद्ध रूप से सामान्य होगा:
फिर नीचे सूचीबद्ध स्थितियों 1-6 के अंतर्गत, जीएमएम अनुमानक [[वितरण में अभिसरण]] के साथ असम्बद्ध रूप से सामान्य होगा:


<math>\sqrt{T}\big(\hat\theta - \theta_0\big)\ \xrightarrow{d}\ \mathcal{N}\big[0, (G^{\mathsf{T}}WG)^{-1}G^{\mathsf{T}}W\Omega W^{\mathsf{T}}G(G^{\mathsf{T}}W^{\mathsf{T}}G)^{-1}\big].</math>
<math>\sqrt{T}\big(\hat\theta - \theta_0\big)\ \xrightarrow{d}\ \mathcal{N}\big[0, (G^{\mathsf{T}}WG)^{-1}G^{\mathsf{T}}W\Omega W^{\mathsf{T}}G(G^{\mathsf{T}}W^{\mathsf{T}}G)^{-1}\big].</math>
स्थितियाँ:
स्थितियाँ:
# <math>\hat\theta</math> सुसंगत है (पिछला अनुभाग देखें),
# <math>\hat\theta</math> सुसंगत है (पिछला अनुभाग देखें),
# संभावित मापदंडों का सेट <math>\Theta \subset \mathbb{R}^{k}</math> कॉम्पैक्ट स्पेस है,
# संभावित मापदंडों का समुच्चय <math>\Theta \subset \mathbb{R}^{k}</math> संयोजी समुच्चय है,
# <math>\,g(Y,\theta)</math> कुछ पड़ोस N में लगातार भिन्न होता है <math>\theta_0</math> प्रायिकता एक के साथ,
# <math>\,g(Y,\theta)</math> अपने निकट N में <math>\theta_0</math> प्रायिकता के साथ सतत भिन्न होता है ,
# <math>\operatorname{E}[\,\lVert g(Y_t,\theta) \rVert^2\,]<\infty,</math>
# <math>\operatorname{E}[\,\lVert g(Y_t,\theta) \rVert^2\,]<\infty,</math>
# <math>\operatorname{E}[\,\textstyle\sup_{\theta\in N}\lVert \nabla_\theta g(Y_t,\theta) \rVert\,]<\infty,</math>
# <math>\operatorname{E}[\,\textstyle\sup_{\theta\in N}\lVert \nabla_\theta g(Y_t,\theta) \rVert\,]<\infty,</math>
# गणित का सवाल <math>G'WG</math> निरर्थक है.
# गणित का प्रश्न <math>G'WG</math> निरर्थक है।
 
 
 
 
 
 
 
 
 
 
 


=== सापेक्ष दक्षता ===
=== सापेक्ष दक्षता ===
अब तक हमने आव्यूह डब्ल्यू की पसंद के बारे में कुछ नहीं कहा है, सिवाय इसके कि यह सकारात्मक अर्ध-निश्चित होना चाहिए। वास्तव में ऐसा कोई भी आव्यूह एक सुसंगत और एसिम्प्टोटिक रूप से सामान्य जीएमएम अनुमानक का उत्पादन करेगा, एकमात्र अंतर उस अनुमानक के एसिम्प्टोटिक विचरण में होगा। इसे लेते हुए दिखाया जा सकता है
अब तक हमने आव्यूह <nowiki>''W''</nowiki> के चयन के बारे में कुछ नहीं कहा है, केवल इतना कहा है कि यह सकारात्मक समीभूत होना चाहिए। वास्तव में, ऐसी कोई भी आव्यूह एक सुसंगत और अनंतिक रूप से सामान्य जीएमएम अनुमापक का निर्माण करेगी, एकमात्र अंतर होगा कि उस अनुमापक की उपगामी चारधिकता में होगा। इसे निम्नलिखित रूप से सिद्ध जा सकता है
: <math> W \propto\ \Omega^{-1} </math>
: <math> W \propto\ \Omega^{-1} </math>
क्षण अनुमानकों की सभी (सामान्यीकृत) विधि की श्रेणी में सबसे कुशल अनुमानक का परिणाम होगा। केवल अनंत संख्या में ऑर्थोगोनल स्थितियों से सबसे छोटा विचरण, क्रैमर-राव बाउंड प्राप्त होता है।
जो क्षण अनुमानकों की सभी सामान्यीकृत विधियों की श्रेणी में सबसे कुशल अनुमानक का परिणाम होगा। केवल अनंत संख्या में ऑर्थोगोनल स्थितियों से सबसे छोटा विचरण, क्रैमर-राव विचरण प्राप्त होता है।


इस मामले में जीएमएम अनुमानक के स्पर्शोन्मुख वितरण का सूत्र सरल हो जाता है
इस परिप्रेक्ष में जीएमएम अनुमानक के उपगामी वितरण का सूत्र सरल हो जाता है
: <math>\sqrt{T}\big(\hat\theta - \theta_0\big)\ \xrightarrow{d}\ \mathcal{N}\big[0, (G^{\mathsf{T}}\,\Omega^{-1}G)^{-1}\big]</math>
: <math>\sqrt{T}\big(\hat\theta - \theta_0\big)\ \xrightarrow{d}\ \mathcal{N}\big[0, (G^{\mathsf{T}}\,\Omega^{-1}G)^{-1}\big]</math>
यह प्रमाण कि वेटिंग आव्यूह का ऐसा विकल्प वास्तव में स्थानीय रूप से इष्टतम है, अन्य अनुमानकों की दक्षता स्थापित करते समय प्रायः मामूली संशोधनों के साथ अपनाया जाता है। सामान्य नियम के रूप में, एक वेटिंग आव्यूह इष्टतमता के करीब इंच बढ़ जाता है जब यह क्रैमर-राव सीमा के करीब एक अभिव्यक्ति में बदल जाता है।
यह प्रमाण कि भार आव्यूह का ऐसा विकल्प वास्तव में स्थानीय रूप से इष्टतम है, अन्य अनुमानकों की दक्षता स्थापित करते समय प्रायः मामूली संशोधनों के साथ अपनाया जाता है। एक नियम के रूप में, जब एक वेटिंग आव्यूह के क्रम के निकट रूप में परिवर्तित होती है, तब वह अनुकरणता की ओर आगे बढ़ती है।


{| style="margin-left:30pt"
{| style="margin-left:30pt"
| colspan="2" | '''''Proof'''''. We will consider the difference between asymptotic variance with arbitrary ''W'' and asymptotic variance with <math>W=\Omega^{-1}</math>. If we can factor this difference into a symmetric product of the form ''CC''' for some matrix ''C'', then it will guarantee that this difference is nonnegative-definite, and thus <math>W=\Omega^{-1}</math> will be optimal by definition.
| colspan="2" | '''''प्रमाण'''''. हम अपरिमित चरणीय विसरण के बीच का अंतर यादृच्छिक ''W'' के साथ और <math>W=\Omega^{-1}</math> के साथ की उपगामी विसरण के बीच की तुलना करेंगे। यदि हम इस अंतर को ''CC''' के रूप में किसी आव्यूह ''C'' के साथ गुणन कर सकते हैं, तो यह यह दावा सिद्ध करेगा कि यह अंतर अविनाशीय असकारात्मक होगा, और इस प्रकार <math>W=\Omega^{-1}</math> परिभाषा के अनुसार सर्वोत्तम होगा।
|-
|-
| <math>\,V(W)-V(\Omega^{-1})</math>
| <math>\,V(W)-V(\Omega^{-1})</math>
Line 107: Line 118:
| || <math>\,=A(I-B)A^{\mathsf{T}},</math>
| || <math>\,=A(I-B)A^{\mathsf{T}},</math>
|-
|-
| colspan="2" | where we introduced matrices ''A'' and ''B'' in order to slightly simplify notation; ''I'' is an [[identity matrix]]. We can see that matrix ''B'' here is symmetric and [[Projection (linear algebra)|idempotent]]: <math>B^2=B</math>. This means ''I−B'' is symmetric and idempotent as well: <math>I-B=(I-B)(I-B)^{\mathsf{T}}</math>. Thus we can continue to factor the previous expression as
| colspan="2" | जहां हमने अक्षरण को थोड़ा सरल बनाने के लिए आव्यूह ''A'' और ''B'' को प्रस्तुत किया है; ''I'' एक [[identity matrix|इकाई आव्यूह]] है। हम देख सकते हैं कि यहां आव्यूह ''B'' सममित और [[Projection (linear algebra)|आइडेम्पोटेंट]] है: <math>B^2=B</math>। इसका अर्थ है कि ''I−B'' भी सममित और आइडेम्पोटेंट होगा: <math>I-B=(I-B)(I-B)^{\mathsf{T}}</math>। इस प्रकार हम पिछले व्यंजकों को गुणा करना जारी रख सकते हैं
|-
|-
| || <math>\,=A(I-B)(I-B)^{\mathsf{T}}A^{\mathsf{T}} = \Big(A(I-B)\Big)\Big(A(I-B)\Big)^{\mathsf{T}} \geq 0</math>
| || <math>\,=A(I-B)(I-B)^{\mathsf{T}}A^{\mathsf{T}} = \Big(A(I-B)\Big)\Big(A(I-B)\Big)^{\mathsf{T}} \geq 0</math>
|}
|}




== कार्यान्वयन ==
== कार्यान्वयन ==
उल्लिखित विधि को लागू करने में एक कठिनाई यह है कि हम इसे नहीं ले सकते {{nowrap|''W'' {{=}} Ω<sup>−1</sup>}} क्योंकि, आव्यूह Ω की परिभाषा के अनुसार, हमें θ का मान जानने की आवश्यकता है<sub>0</sub> इस आव्यूह की गणना करने के लिए, और θ<sub>0</sub> यह बिल्कुल वही मात्रा है जिसे हम नहीं जानते हैं और पहले अनुमान लगाने की कोशिश कर रहे हैं। वाई के मामले में<sub>t</sub> आईआईडी होने के कारण हम डब्ल्यू का अनुमान लगा सकते हैं
आरेखित विधि को लागू करने में एक कठिनाई यह है कि हम {{nowrap|''W'' {{=}} Ω<sup>−1</sup>}} नहीं ले सकते हैं क्योंकि, आव्यूह Ω की परिभाषा के अनुसार, हमें इस आव्यूह को गणना करने के लिए ''θ''<sub>0</sub> की मान को जानने की आवश्यकता होती है, और ''θ''<sub>0</sub> वही मात्रा है जिसे हम नहीं जानते हैं और पहले ही अपेक्षा कर रहे हैं कि हम उसे अनुमानित करेंगे। वाई के परिप्रेक्ष्य में <sub>t</sub> आईआईडी होने के कारण हम डब्ल्यू का अनुमान लगा सकते हैं
: <math>\hat{W}_T(\hat\theta) = \bigg(\frac{1}{T}\sum_{t=1}^T g(Y_t,\hat\theta)g(Y_t,\hat\theta)^{\mathsf{T}}\bigg)^{-1}.</math>
: <math>\hat{W}_T(\hat\theta) = \bigg(\frac{1}{T}\sum_{t=1}^T g(Y_t,\hat\theta)g(Y_t,\hat\theta)^{\mathsf{T}}\bigg)^{-1}.</math>
इस समस्या से निपटने के लिए कई दृष्टिकोण मौजूद हैं, जिनमें से पहला सबसे लोकप्रिय है:
इस समस्या के समाधान के लिए कई दृष्टिकोण उपलब्ध हैं, जिनमें से पहला सबसे लोकप्रिय है:


{{unordered list
{{unordered list
|1= '''Two-step feasible GMM''':
|1= '''दो-चरणीय संभव जीएमएम''':
{{unordered list
{{unordered list
|1= ''Step 1'': Take ''W = I'' (the [[identity matrix]]) or some other positive-definite matrix, and compute preliminary GMM estimate <math style="vertical-align:-.5em">\scriptstyle\hat\theta_{(1)}</math>. This estimator is consistent for ''θ''<sub>0</sub>, although not efficient.
|1= ''चरण 1'': ''W = I'' (इकाई आव्यूह) या कोई अन्य सकारात्मक परिभाषित आव्यूह लें और प्राथमिक जीएमएम अनुमापन <math style="vertical-align:-.5em">\scriptstyle\hat\theta_{(1)}</math> की गणना करें। यह अनुमापक ''θ''<sub>0</sub> के लिए सुसंगत है, यद्यपि प्रभावी नहीं है।
|2= ''Step 2'': <math style="vertical-align:-.5em">\hat{W}_T(\hat\theta_{(1)})</math> converges in probability to Ω<sup>−1</sup> and therefore if we compute <math style="vertical-align:0">\scriptstyle\hat\theta</math> with this weighting matrix, the estimator will be [[Efficiency (statistics)#Asymptotic efficiency|asymptotically efficient]].
|2= ''चरण 2'': <math style="vertical-align:-.5em">\hat{W}T(\hat\theta{(1)})</math> प्रायिकता में Ω<sup>−1</sup> के प्रति संघटित होता है, और इसलिए यदि हम इस वेटिंग मैट्रिक्स के साथ <math style="vertical-align:0">\scriptstyle\hat\theta</math> की गणना करें, तो अनुमापक [[Efficiency (statistics)#Asymptotic efficiency|उपगामी रूप से प्रभावी]] होगा।
}}
}}


|2= '''Iterated GMM'''. Essentially the same procedure as 2-step GMM, except that the matrix&nbsp;  <math>\hat{W}_T</math> is recalculated several times. That is, the estimate obtained in step 2 is used to calculate the weighting matrix for step 3, and so on until some convergence criterion is met.
|2= '''अनुक्रमित जीएमएम'''. मूलतः दो-चरणीय जीएमएम की तरहीं प्रक्रिया होती है, बस इसके बाद आव्यूह <math>\hat{W}_T</math> कई बार पुनर्गणना की जाती है। अर्थात, चरण 2 में प्राप्त अनुमापित मान का उपयोग चरण 3 के लिए भार आव्यूह की गणना के लिए किया जाता है, और इसी प्रकार चरण 4 तक जारी रखा जाता है, जब तक कि कुछ संघटन मापदंड पूरे नहीं हो जाते हैं।
: <math>
: <math>
     \hat\theta_{(i+1)} = \operatorname{arg}\min_{\theta\in\Theta}\bigg(\frac{1}{T}\sum_{t=1}^T g(Y_t,\theta)\bigg)^{\mathsf{T}} \hat{W}_T(\hat\theta_{(i)}) \bigg(\frac{1}{T}\sum_{t=1}^T g(Y_t,\theta)\bigg)
     \hat\theta_{(i+1)} = \operatorname{arg}\min_{\theta\in\Theta}\bigg(\frac{1}{T}\sum_{t=1}^T g(Y_t,\theta)\bigg)^{\mathsf{T}} \hat{W}_T(\hat\theta_{(i)}) \bigg(\frac{1}{T}\sum_{t=1}^T g(Y_t,\theta)\bigg)
   </math>
   </math>
Asymptotically no improvement can be achieved through such iterations, although certain Monte-Carlo experiments suggest that finite-sample properties of this estimator are slightly better.{{Citation needed|date=June 2009}}
ऐसे अनुक्रमितता के माध्यम से असिम्प्टोटिक रूप से कोई सुधार नहीं हो सकता है, यद्यपि कुछ मॉन्टे-कार्लो प्रयोग इस अनुमापक की सीमित-संख्याक गुणों को थोड़ा बेहतर दिखाते हैं।{{Citation needed|date=June 2009}}
|3= '''Continuously updating GMM''' (CUGMM, or CUE). Estimates <math style="vertical-align:0">\scriptstyle\hat\theta</math> simultaneously with estimating the weighting matrix ''W'':
|3= '''सतत अपडेटिंग जीएमएम''' (सीयूजीएमएम, या सीयूई). अनुमापन <math style="vertical-align:0">\scriptstyle\hat\theta</math> और भार आव्यूह ''W'' का एक साथ अनुमापन करता है:
: <math>
: <math>
     \hat\theta = \operatorname{arg}\min_{\theta\in\Theta} \bigg(\frac{1}{T}\sum_{t=1}^T g(Y_t,\theta)\bigg)^{\mathsf{T}} \hat{W}_T(\theta) \bigg(\frac{1}{T}\sum_{t=1}^T g(Y_t,\theta)\bigg)
     \hat\theta = \operatorname{arg}\min_{\theta\in\Theta} \bigg(\frac{1}{T}\sum_{t=1}^T g(Y_t,\theta)\bigg)^{\mathsf{T}} \hat{W}_T(\theta) \bigg(\frac{1}{T}\sum_{t=1}^T g(Y_t,\theta)\bigg)
   </math>
   </math>
In Monte-Carlo experiments this method demonstrated a better performance than the traditional two-step GMM: the estimator has smaller median bias (although fatter tails), and the J-test for overidentifying restrictions in many cases was more reliable.<ref>{{cite journal | last1 = Hansen | first1 = Lars Peter | last2 = Heaton | first2 = John | last3 = Yaron | first3 = Amir | year = 1996 | title = Finite-sample properties of some alternative GMM estimators | journal = Journal of Business & Economic Statistics | volume = 14 | issue = 3 | pages = 262–280 | jstor = 1392442 | doi=10.1080/07350015.1996.10524656 | url = http://dspace.mit.edu/bitstream/1721.1/47970/1/finitesampleprop00hans.pdf| hdl = 1721.1/47970 | hdl-access = free }}</ref>
 
मॉन्टे-कार्लो प्रयोगों में, यह विधि पारंपरिक दो-चरणीय जीएमएम से बेहतर प्रदर्शन करती है: अनुमापक में छोटी माध्यिक भूल और अधिकाधिक स्थितियों में अधिक विश्वसनीय परिमिति बाधाओं के लिए जे-परीक्षण कार्यक्षमता प्रदान करती है।<ref>{{cite journal | last1 = Hansen | first1 = Lars Peter | last2 = Heaton | first2 = John | last3 = Yaron | first3 = Amir | year = 1996 | title = Finite-sample properties of some alternative GMM estimators | journal = Journal of Business & Economic Statistics | volume = 14 | issue = 3 | pages = 262–280 | jstor = 1392442 | doi=10.1080/07350015.1996.10524656 | url = http://dspace.mit.edu/bitstream/1721.1/47970/1/finitesampleprop00hans.pdf| hdl = 1721.1/47970 | hdl-access = free }}</ref>
}}
}}


न्यूनतमकरण प्रक्रिया के कार्यान्वयन में एक और महत्वपूर्ण मुद्दा यह है कि फ़ंक्शन को (संभवतः उच्च-आयामी) पैरामीटर स्पेस Θ के माध्यम से खोजना होता है और θ का मान ढूंढना होता है जो उद्देश्य फ़ंक्शन को न्यूनतम करता है। ऐसी प्रक्रिया के लिए कोई सामान्य अनुशंसा मौजूद नहीं है, यह अपने स्वयं के क्षेत्र, [[संख्यात्मक अनुकूलन]] का विषय है।
न्यूनतमकरण प्रक्रिया के कार्यान्वयन में एक और महत्वपूर्ण विषय यह है कि फलन को (संभवतः उच्च-आयामी) पैरामीटर स्पेस Θ के माध्यम से खोजना होता है और θ का मान ढूंढना होता है जो उद्देश्य फलन को न्यूनतम करता है। ऐसी प्रक्रिया के लिए कोई सामान्य अनुशंसा उपलब्ध नहीं है, यह अपने स्वयं के क्षेत्र, [[संख्यात्मक अनुकूलन]] का विषय है।
 
 
 
 
 
 
 
 
 
 
 


== सर्गन-हैनसेन जे परीक्षण ==
== सर्गन-हैनसेन जे परीक्षण ==
{{main article|Sargan–Hansen test}}
{{main article|सर्गन-हैनसेन जे परीक्षण}}
जब क्षण स्थितियों की संख्या पैरामीटर वेक्टर θ के आयाम से अधिक होती है, तो मॉडल को अति-पहचानित कहा जाता है। सरगन (1958) ने वाद्य चर अनुमानकों के आधार पर अति-पहचान प्रतिबंधों के लिए परीक्षणों का प्रस्ताव रखा, जिन्हें स्वतंत्रता की डिग्री के साथ ची-स्क्वायर चर के रूप में बड़े नमूनों में वितरित किया जाता है जो अति-पहचान प्रतिबंधों की संख्या पर निर्भर करते हैं। इसके बाद, हैनसेन (1982) ने इस परीक्षण को जीएमएम अनुमानकों के गणितीय समकक्ष फॉर्मूलेशन पर लागू किया। हालाँकि, ध्यान दें कि ऐसे आँकड़े अनुभवजन्य अनुप्रयोगों में नकारात्मक हो सकते हैं जहाँ मॉडल गलत निर्दिष्ट हैं, और प्रायिकता अनुपात परीक्षण अंतर्दृष्टि प्राप्त कर सकते हैं क्योंकि मॉडल का अनुमान शून्य और वैकल्पिक दोनों परिकल्पनाओं (भार्गव और सरगन, 1983) के तहत लगाया गया है।
जब क्षण स्थितियों की संख्या पैरामीटर वेक्टर θ के आयाम से अधिक होती है, तो प्रारूप को अति-पहचानित कहा जाता है। सरगन (1958) ने वाद्य चर अनुमानकों के आधार पर अति-पहचान प्रतिबंधों के लिए परीक्षणों का प्रस्ताव रखा, जिन्हें स्वतंत्रता के क्रम के साथ ची-वर्ग चर के रूप में बड़े प्रारूपों में वितरित किया जाता है जो अति-पहचान प्रतिबंधों की संख्या पर निर्भर करते हैं। इसके बाद, हैनसेन (1982) ने इस परीक्षण को जीएमएम अनुमानकों के गणितीय समकक्ष सूत्रण पर लागू किया। यद्यपि, ध्यान दें कि ऐसे आँकड़े अनुभवजन्य अनुप्रयोगों में जहाँ प्रारूप गलत निर्दिष्ट हैं, नकारात्मक हो सकते हैं, और प्रायिकता अनुपात परीक्षण अंतर्दृष्टि प्राप्त कर सकते हैं क्योंकि प्रारूप का अनुमान शून्य और वैकल्पिक दोनों परिकल्पनाओं (भार्गव और सरगन, 1983) के अंतर्गत लगाया गया है।


संकल्पनात्मक रूप से हम जाँच सकते हैं कि क्या <math>\hat{m}(\hat\theta)</math> यह सुझाव देने के लिए शून्य के पर्याप्त करीब है कि मॉडल डेटा को अच्छी तरह से फिट बैठता है। जीएमएम विधि ने समीकरण को हल करने की समस्या का स्थान ले लिया है <math>\hat{m}(\theta)=0</math>, जो चुनता है <math>\theta</math> न्यूनतमकरण गणना द्वारा, प्रतिबंधों का सटीक मिलान करना। न्यूनतमकरण हमेशा नहीं होने पर भी किया जा सकता है <math>\theta_0</math> ऐसा मौजूद है <math>m(\theta_0)=0</math>. जे-टेस्ट यही करता है। जे-परीक्षण को प्रतिबंधों की अधिक पहचान के लिए परीक्षण भी कहा जाता है।
संकल्पनात्मक रूप से हम जाँच सकते हैं कि क्या <math>\hat{m}(\hat\theta)</math> यह सुझाव देने के लिए शून्य के पर्याप्त निकट है कि प्रारूप डेटा को अच्छी तरह से संयोजित करता है। फिर जीएमएम विधि ने समीकरण <math>\hat{m}(\theta)=0</math> को हल करने की समस्या को, जिसमें <math>\theta</math> को पूरी तरह से प्रतिबंधों के साथ मेल खाता है, एक कम से कमीकरण के लिए गणना के द्वारा परिवर्तित कर दिया है। न्यूनतमकरण <math>m(\theta_0)=0</math> के लिए कोई ऐसा <math>\theta_0</math> उपलब्ध न होने के बाद भी, कम से कमीकरण सदैव की जा सकती है। जे-परीक्षण यही करता है। जे-परीक्षण को प्रायः ''प्रतिबंधों के लिए परीक्षण'' कहा जाता है।


औपचारिक रूप से हम दो [[सांख्यिकीय परिकल्पना परीक्षण]] पर विचार करते हैं:
औपचारिक रूप से हम दो [[सांख्यिकीय परिकल्पना परीक्षण]] पर विचार करते हैं:
* <math>H_0:\ m(\theta_0)=0</math>([[शून्य परिकल्पना]] कि मॉडल "वैध" है), और
* <math>H_0:\ m(\theta_0)=0</math>([[शून्य परिकल्पना]] का प्रारूप "वैध" है), और
* <math>H_1:\ m(\theta)\neq 0,\ \forall \theta\in\Theta</math>([[वैकल्पिक परिकल्पना]] कि मॉडल "अमान्य" है; डेटा प्रतिबंधों को पूरा करने के करीब नहीं आता है)
* <math>H_1:\ m(\theta)\neq 0,\ \forall \theta\in\Theta</math>([[वैकल्पिक परिकल्पना]] का प्रारूप "अमान्य" है; जो डेटा प्रतिबंधों को पूरा करने के निकट नहीं आता है)


परिकल्पना के अंतर्गत <math>H_0</math>, निम्नलिखित तथाकथित जे-आँकड़ा स्पर्शोन्मुख रूप से [[ची-वर्ग वितरण]] है | ची-वर्ग स्वतंत्रता की k-l डिग्री के साथ वितरित किया जाता है। J को परिभाषित करें:
परिकल्पना के अंतर्गत <math>H_0</math>, निम्नलिखित तथाकथित जे-डाटा उपगामी रूप से [[ची-वर्ग वितरण]] है | ची-वर्ग स्वतंत्रता के k-l क्रम के साथ वितरित किया जाता है। J को निम्नलिखित रूप से परिभाषित किया जा सकता है:
:<math>J \equiv T \cdot \bigg(\frac{1}{T}\sum_{t=1}^T g(Y_t,\hat\theta)\bigg)^{\mathsf{T}} \hat{W}_T \bigg(\frac{1}{T}\sum_{t=1}^T g(Y_t,\hat\theta)\bigg)\ \xrightarrow{d}\ \chi^2_{k-\ell}</math> अंतर्गत <math>H_0,</math>
:<math>J \equiv T \cdot \bigg(\frac{1}{T}\sum_{t=1}^T g(Y_t,\hat\theta)\bigg)^{\mathsf{T}} \hat{W}_T \bigg(\frac{1}{T}\sum_{t=1}^T g(Y_t,\hat\theta)\bigg)\ \xrightarrow{d}\ \chi^2_{k-\ell}</math> अंतर्गत <math>H_0,</math>
कहाँ <math>\hat\theta</math> पैरामीटर का GMM अनुमानक है <math>\theta_0</math>, k क्षण स्थितियों की संख्या (वेक्टर g का आयाम) है, और l अनुमानित मापदंडों की संख्या (वेक्टर θ का आयाम) है। आव्यूह <math>\hat{W}_T</math> की संभाव्यता में अभिसरण होना चाहिए <math>\Omega^{-1}</math>, कुशल भार आव्यूह (ध्यान दें कि पहले हमें केवल यह आवश्यक था कि W के समानुपाती हो <math>\Omega^{-1}</math> अनुमानक के कुशल होने के लिए; हालाँकि, J-परीक्षण करने के लिए W के बिल्कुल बराबर होना चाहिए <math>\Omega^{-1}</math>, केवल आनुपातिक नहीं)।
जहाँ <math>\hat\theta</math> पैरामीटर का जीएमएम अनुमानक <math>\theta_0</math> है, k क्षण स्थितियों की संख्या (सदिश g का आयाम) है, और l अनुमानित मापदंडों की संख्या (सदिश θ का आयाम) है। मानचित्र <math>\hat{W}_T</math> की प्रायिकता में <math>\Omega^{-1}</math> की ओर संघटित होनी चाहिए, यह प्रभावी भार आव्यूह है। ध्यान दें कि पहले हमने सिर्फ यह चयन किया था कि ''W'' <math>\Omega^{-1}</math> के आनुपातिक होना चाहिए जिससे अनुमापक प्रभावी हो; यद्यपि जे-परीक्षण को आयोजित करने के लिए ''W'' बिल्कुल <math>\Omega^{-1}</math> के बराबर होना चाहिए तथा सिर्फ़ आनुपातिक नहीं होना चाहिए।


वैकल्पिक परिकल्पना के अंतर्गत <math>H_1</math>, जे-आँकड़ा स्पर्शोन्मुख रूप से असीमित है:
वैकल्पिक परिकल्पना के अंतर्गत <math>H_1</math>, जे-डाटा उपगामी रूप से अपरिमित है:
: <math>J\ \xrightarrow{p}\ \infty</math>अंतर्गत <math>H_1</math>
: <math>J\ \xrightarrow{p}\ \infty</math>अंतर्गत <math>H_1</math>
परीक्षण करने के लिए हम डेटा से J के मान की गणना करते हैं। यह एक अऋणात्मक संख्या है. हम इसकी तुलना (उदाहरण के लिए) 0.95 [[ मात्रात्मक ]] से करते हैं
परीक्षण करने के लिए हम डेटा से J के मान की गणना करते हैं। यह एक अऋणात्मक संख्या है. हम इसकी तुलना (उदाहरण के लिए) 0.95 [[ मात्रात्मक ]] रूप से करते हैं।
 
<math>\chi^2_{k-\ell}</math> वितरण:
<math>\chi^2_{k-\ell}</math> वितरण:
* <math>H_0</math> यदि 95% विश्वास स्तर पर खारिज कर दिया जाता है <math> J > q_{0.95}^{\chi^2_{k-\ell}} </math>
* <math>H_0</math> को 95% विश्वसनीयता स्तर पर अस्वीकार कर दिया जाता है यदि <math> J > q_{0.95}^{\chi^2_{k-\ell}} </math>
* <math>H_0</math> यदि 95% विश्वास स्तर पर अस्वीकार नहीं किया जा सकता है <math> J < q_{0.95}^{\chi^2_{k-\ell}} </math>
* <math>H_0</math> को 95% विश्वसनीयता स्तर पर अस्वीकार नहीं किया जा सकता है यदि <math> J < q_{0.95}^{\chi^2_{k-\ell}} </math>




== दायरा ==
 
जीएमएम अनुकूलन के संदर्भ में कई अन्य लोकप्रिय अनुमान तकनीकों को अपनाया जा सकता है:
 
 
 
 
 
 
 
 
 
== विस्तार ==
जीएमएम अनुकूलन के संदर्भ में कई अन्य लोकप्रिय अनुमान विधियों को अपनाया जा सकता है:


{{unordered list
{{unordered list
|1= [[Ordinary least squares#Generalized method of moments|Ordinary least squares]] (OLS) is equivalent to GMM with moment conditions:
|1= [[Ordinary least squares#Generalized method of moments|साधारण अत्यंत न्यून वर्ग]] (ओएलएस) क्षण स्थितियों के साथ जीएमएम के समान होती है:
: <math>\operatorname{E}[\,x_t(y_t - x_t^{\mathsf{T}}\beta)\,]=0</math>
: <math>\operatorname{E}[,x_t(y_t - x_t^{\mathsf{T}}\beta),]=0</math>
|2= [[Weighted least squares]] (WLS)
|2= [[भारित अत्यंत न्यून वर्ग]] (डब्ल्यूएलएस)
: <math>\operatorname{E}[\,x_t(y_t - x_t^{\mathsf{T}}\beta)/\sigma^2(x_t)\,]=0</math>
: <math>\operatorname{E}[,x_t(y_t - x_t^{\mathsf{T}}\beta)/\sigma^2(x_t),]=0</math>
|3= [[Instrumental variable]]s regression (IV)
|3= [[साधारण समकर्मी चर]] रेखांकन (आइवी)
: <math>\operatorname{E}[\,z_t(y_t - x_t^{\mathsf{T}}\beta)\,]=0</math>
: <math>\operatorname{E}[,z_t(y_t - x_t^{\mathsf{T}}\beta),]=0</math>
|4= [[Non-linear least squares]] (NLLS):
|4= [[गैर-रैखिक अत्यंत न्यून वर्ग]] (एनएलएलएस):
: <math>\operatorname{E}[\,\nabla_{\!\beta}\, g(x_t,\beta)\cdot(y_t - g(x_t,\beta))\,]=0</math>
: <math>\operatorname{E}[,\nabla_{!\beta}, g(x_t,\beta)\cdot(y_t - g(x_t,\beta)),]=0</math>
|5= [[Maximum likelihood]] estimation (MLE):
|5= [[अधिकतम प्रायिकता]] अनुमापन (एमएलई):
: <math>\operatorname{E}[\,\nabla_{\!\theta} \ln f(x_t,\theta) \,]=0</math>
: <math>\operatorname{E}[,\nabla_{!\theta} \ln f(x_t,\theta) ,]=0</math>
}}
}}


== कार्यान्वयन ==
== कार्यान्वयन ==
*विकीबुक:आर प्रोग्रामिंग/मेथड ऑफ मोमेंट्स|आर प्रोग्रामिंग विकिबुक, मेथड ऑफ मोमेंट्स
*विकीबुक:आर प्रोग्रामिंग/क्षण की विधियाँ|आर प्रोग्रामिंग विकिबुक, क्षण की विधियाँ
*[https://cran.r-project.org/web/packages/gmm/gmm.pdf आर]
*[https://cran.r-project.org/web/packages/gmm/gmm.pdf आर]
*[https://www.stata.com/manuals15/rgmm.pdf स्टेटा]
*[https://www.stata.com/manuals15/rgmm.pdf स्टेटा]
*[https://web.archive.org/web/20100327141233/http://www.eviews.com/EViews7/ev7features.html EViews]
*[https://web.archive.org/web/20100327141233/http://www.eviews.com/EViews7/ev7features.html ई व्यू]
*[http://support.sas.com/documentation/cdl/en/etsug/60372/HTML/default/viewer.htm#etsug_model_sect035.htm SAS]
*[http://support.sas.com/documentation/cdl/en/etsug/60372/HTML/default/viewer.htm#etsug_model_sect035.htm एसएएस ]
*[http://gretl.sourceforge.net/gretl-help/cmdref.html#gmm ग्रेटल]
*[http://gretl.sourceforge.net/gretl-help/cmdref.html#gmm ग्रेटल]


== यह भी देखें ==
== यह भी देखें ==
Line 223: Line 289:
[[Category:Articles with unsourced statements from June 2009]]
[[Category:Articles with unsourced statements from June 2009]]
[[Category:Created On 06/07/2023]]
[[Category:Created On 06/07/2023]]
[[Category:Lua-based templates]]
[[Category:Machine Translated Page]]
[[Category:Machine Translated Page]]
[[Category:Pages with script errors]]
[[Category:Pages with script errors]]
Line 228: Line 295:
[[Category:Template documentation pages|Short description/doc]]
[[Category:Template documentation pages|Short description/doc]]
[[Category:Templates Vigyan Ready]]
[[Category:Templates Vigyan Ready]]
[[Category:Templates that add a tracking category]]
[[Category:Templates that generate short descriptions]]
[[Category:Templates using TemplateData]]

Latest revision as of 21:32, 15 July 2023

अर्थमिति और सांख्यिकी में, क्षणों की सामान्यीकृत विधि (जीएमएम), सांख्यिकीय प्रारूपों में मानदंडों का अनुमान लगाने के लिए एक सामान्य विधि है। आमतौर पर इसे अर्धपैरामीट्रिक प्रारूप के संदर्भ में लागू किया जाता है, जहां पैरामीटर मुख्यतः परिमित-आयामी होता है, जबकि डेटा के वितरण फलन का पूर्ण आकार ज्ञात नहीं हो सकता है, और इसलिए अधिकतम प्रायिकता अनुमान लागू नहीं होता है।

इस विधि में यह आवश्यक है कि प्रारूप के लिए निर्दिष्ट संख्या के "क्षण स्थितियों" को निर्दिष्ट किया जाए। ये क्षण स्थिति प्रारूप, पैरामीटर और डेटा के फलन होते हैं, जिनका अपेक्षित मान पैरामीटर के वास्तविक मान पर शून्य होता है। जीएमएम विधि तब क्षण स्थितियों के प्रारूप औसत के किसी परिमित मान को कम करती है, और इसलिए इसे न्यूनतम-दूरी अनुमान के एक विशेष परिप्रेक्ष्य के रूप में सोचा जा सकता है।[1] जीएमएम अनुमानकों को सभी अनुमानकों की श्रेणी में सुसंगत अनुमानक, स्पर्शोन्मुख वितरण और सबसे कुशल अनुमानक के रूप में जाना जाता है जो क्षण स्थितियों में निहित जानकारी के अतिरिक्त किसी भी अन्य जानकारी का उपयोग नहीं करते हैं। जीएमएम को 1982 में लार्स पीटर हैंसन द्वारा प्रस्तावित किया गया था, जो क्षण विधि का विस्तार है,[2] जिसे 1894 में कार्ल पियरसन ने प्रस्तुत किया था। यद्यपि, ये अनुमापक गणनाओं के साथ "लंबकोणीयता अवस्था" (सारगान, 1958, 1959) या "अमुख्य अनुमापक समीकरण" (ह्यूबर, 1967; वांग आदि, 1997) पर आधारित उन्नत अनुमापकों के लिए गणितीय रूप से समान होते हैं।

विवरण

मान लीजिए कि उपलब्ध डेटा में टी अवलोकन {Yt }t = 1,...,T, सम्मिलित है जहां प्रत्येक अवलोकन Ytएक एन-आयामी बहुभिन्नरूपी यादृच्छिक चर है। हम मान लेते हैं कि डेटा एक अपरिमित सांख्यिकीय प्रारूप से प्राप्त होता है, जिसे एक अज्ञात पैरामीटर θ ∈ Θ तक परिभाषित किया गया है। अनुमान समस्या का लक्ष्य इस पैरामीटर का "सही" मान, θ0, या कम से कम एक यथोचित निकटतम अनुमान खोजना है।

जीएमएम की एक सामान्य धारणा यह है कि डेटा Yt एक कमजोर स्थिर अभ्यतिप्राय प्रसंभाव्य प्रक्रिया द्वारा उत्पन्न किया जाता है। स्वतंत्र और समान रूप से वितरित चर Yt का परिप्रेक्ष्य इस स्थिति का एक विशेष उदाहरण है।

जीएमएम लागू करने के लिए, हमें क्षण स्थितियों की आवश्यकता है, अर्थात, हमें एक सदिश-मान फलन g(Y,θ) को जानना होगा जैसे कि

जहां E अपेक्षित मान दर्शाता है, और Ytएक सामान्य अवलोकन है. इसके अतिरिक्त, फ़ंक्शन m(θ) शून्य से भिन्न होना चाहिए θθ0, अन्यथा पैरामीटर θ बिंदु-पहचान नहीं होगा।

जीएमएम के पीछे मूल विचार सैद्धांतिक अपेक्षित मान ई[⋅] को उसके अनुभवजन्य एनालॉग-प्रारूप औसत से परिवर्तित करना है:

और फिर θ के संबंध में इस व्यंजक के मानदंड को कम करने के लिए। θ का न्यूनतम मान θ के लिए हमारा अनुमान 0 है.


T के अत्यधिक बड़े मानों के लिए बड़ी संख्या के नियम के अनुसार, होता है, और इसलिए हम अपेक्षा करते हैं कि होगा। क्षणों की सामान्यीकृत विधि एक ऐसे संख्या की खोज करती है जो को शून्य के निकट स्थापित करेगा। गणितीय रूप से, यह एक निश्चित मानक को न्यूनतम करने के बराबर है (m का मान, जिसे ||m|| के रूप में दर्शाया गया है, m और शून्य के बीच की दूरी को मापता है)। ये परिणामी अनुमानक के गुण मानक फलन की विशेष पसंद पर निर्भर होंगे, और इसलिए जीएमएम का सिद्धांत मानदंडों के एक पूरे परिवार पर विचार करता है, जिसे इस प्रकार परिभाषित किया गया है

जहां W एक धनात्मक-परिमित आव्यूह है | धनात्मक-परिमित भार आव्यूह, और स्थानान्तरण को दर्शाता है। व्यवहार में, भार आव्यूह डब्ल्यू की गणना उपलब्ध डेटा समुच्चयों के आधार पर की जाती है, जिसे इस प्रकार दर्शाया जाता है . इस प्रकार, जीएमएम अनुमानकों को इस प्रकार लिखा जा सकता है

उपयुक्त परिस्थितियों में यह अनुमानक सुसंगत अनुमानक, स्पर्शोन्मुख सामान्यता और भार आव्यूह के सही विकल्प के साथ कुशल अनुमानक भी है।







गुण

संगतता

सुसंगत अनुमानक किसी अनुमानक का सांख्यिकीय गुण है जिसमें कहा गया है कि, पर्याप्त संख्या में अवलोकन होने पर, अनुमानक पैरामीटर के वास्तविक मूल्य की प्रायिकता में अभिसरण करेगा:

जीएमएम अनुमानक के संगतता के लिए पर्याप्त स्थितियाँ इस प्रकार हैं:

  1. जहां W एक सकारात्मक समीभूत आव्यूह है,
  2. केवल
  3. संभावित मापदंडों का स्थान सघन स्थान है।
  4. प्रायिकता एक के साथ प्रत्येक θ पर सतत है।

यहां दूसरी स्थिति (तथाकथित वैश्विक पहचान स्थिति) को सत्यापित करना प्रायः विशेष रूप से कठिन होता है। वहाँ सरल आवश्यक परंतु पर्याप्त स्थितियाँ उपलब्ध नहीं हैं, जिनका उपयोग गैर-पहचान समस्या का पता लगाने के लिए किया जा सकता है:

  • क्रम स्थिति. क्षण फलन m(θ) का आयाम कम से कम पैरामीटर सदिश θ के आयाम जितना बड़ा होना चाहिए।
  • स्थानिक पहचान। यदि के पास में g(Y,θ) सतत रूप से अविभाज्य है, तो आरेख का पूर्ण पंक्ति क्रमशः होना चाहिए।

व्यावहारिक रूप से लागू अर्थशास्त्री प्रायः वास्तव में इसे सिद्ध किए बिना यह मान लेते हैं कि वैश्विक पहचान मान्य है।[3]: 2127 







उपगामी सामान्यता

उपगामी सामान्यता एक उपयोगी गुण है, क्योंकि यह हमें अनुमानक के लिए परिमित अंतराल बनाने और विभिन्न परीक्षण करने की अनुमति देता है। इससे पहले कि हम जीएमएम अनुमानक के उपगामी वितरण के बारे में एक बयान दे सकें, हमें दो सहायक आव्यूह को परिभाषित करने की आवश्यकता है:

फिर नीचे सूचीबद्ध स्थितियों 1-6 के अंतर्गत, जीएमएम अनुमानक वितरण में अभिसरण के साथ असम्बद्ध रूप से सामान्य होगा:

स्थितियाँ:

  1. सुसंगत है (पिछला अनुभाग देखें),
  2. संभावित मापदंडों का समुच्चय संयोजी समुच्चय है,
  3. अपने निकट N में प्रायिकता के साथ सतत भिन्न होता है ,
  4. गणित का प्रश्न निरर्थक है।







सापेक्ष दक्षता

अब तक हमने आव्यूह ''W'' के चयन के बारे में कुछ नहीं कहा है, केवल इतना कहा है कि यह सकारात्मक समीभूत होना चाहिए। वास्तव में, ऐसी कोई भी आव्यूह एक सुसंगत और अनंतिक रूप से सामान्य जीएमएम अनुमापक का निर्माण करेगी, एकमात्र अंतर होगा कि उस अनुमापक की उपगामी चारधिकता में होगा। इसे निम्नलिखित रूप से सिद्ध जा सकता है

जो क्षण अनुमानकों की सभी सामान्यीकृत विधियों की श्रेणी में सबसे कुशल अनुमानक का परिणाम होगा। केवल अनंत संख्या में ऑर्थोगोनल स्थितियों से सबसे छोटा विचरण, क्रैमर-राव विचरण प्राप्त होता है।

इस परिप्रेक्ष में जीएमएम अनुमानक के उपगामी वितरण का सूत्र सरल हो जाता है

यह प्रमाण कि भार आव्यूह का ऐसा विकल्प वास्तव में स्थानीय रूप से इष्टतम है, अन्य अनुमानकों की दक्षता स्थापित करते समय प्रायः मामूली संशोधनों के साथ अपनाया जाता है। एक नियम के रूप में, जब एक वेटिंग आव्यूह के क्रम के निकट रूप में परिवर्तित होती है, तब वह अनुकरणता की ओर आगे बढ़ती है।

प्रमाण. हम अपरिमित चरणीय विसरण के बीच का अंतर यादृच्छिक W के साथ और के साथ की उपगामी विसरण के बीच की तुलना करेंगे। यदि हम इस अंतर को CC' के रूप में किसी आव्यूह C के साथ गुणन कर सकते हैं, तो यह यह दावा सिद्ध करेगा कि यह अंतर अविनाशीय असकारात्मक होगा, और इस प्रकार परिभाषा के अनुसार सर्वोत्तम होगा।
जहां हमने अक्षरण को थोड़ा सरल बनाने के लिए आव्यूह A और B को प्रस्तुत किया है; I एक इकाई आव्यूह है। हम देख सकते हैं कि यहां आव्यूह B सममित और आइडेम्पोटेंट है: । इसका अर्थ है कि I−B भी सममित और आइडेम्पोटेंट होगा: । इस प्रकार हम पिछले व्यंजकों को गुणा करना जारी रख सकते हैं







कार्यान्वयन

आरेखित विधि को लागू करने में एक कठिनाई यह है कि हम W = Ω−1 नहीं ले सकते हैं क्योंकि, आव्यूह Ω की परिभाषा के अनुसार, हमें इस आव्यूह को गणना करने के लिए θ0 की मान को जानने की आवश्यकता होती है, और θ0 वही मात्रा है जिसे हम नहीं जानते हैं और पहले ही अपेक्षा कर रहे हैं कि हम उसे अनुमानित करेंगे। वाई के परिप्रेक्ष्य में t आईआईडी होने के कारण हम डब्ल्यू का अनुमान लगा सकते हैं

इस समस्या के समाधान के लिए कई दृष्टिकोण उपलब्ध हैं, जिनमें से पहला सबसे लोकप्रिय है:

  • दो-चरणीय संभव जीएमएम:
    • चरण 1: W = I (इकाई आव्यूह) या कोई अन्य सकारात्मक परिभाषित आव्यूह लें और प्राथमिक जीएमएम अनुमापन की गणना करें। यह अनुमापक θ0 के लिए सुसंगत है, यद्यपि प्रभावी नहीं है।
    • चरण 2: प्रायिकता में Ω−1 के प्रति संघटित होता है, और इसलिए यदि हम इस वेटिंग मैट्रिक्स के साथ की गणना करें, तो अनुमापक उपगामी रूप से प्रभावी होगा।
  • अनुक्रमित जीएमएम. मूलतः दो-चरणीय जीएमएम की तरहीं प्रक्रिया होती है, बस इसके बाद आव्यूह कई बार पुनर्गणना की जाती है। अर्थात, चरण 2 में प्राप्त अनुमापित मान का उपयोग चरण 3 के लिए भार आव्यूह की गणना के लिए किया जाता है, और इसी प्रकार चरण 4 तक जारी रखा जाता है, जब तक कि कुछ संघटन मापदंड पूरे नहीं हो जाते हैं।
    ऐसे अनुक्रमितता के माध्यम से असिम्प्टोटिक रूप से कोई सुधार नहीं हो सकता है, यद्यपि कुछ मॉन्टे-कार्लो प्रयोग इस अनुमापक की सीमित-संख्याक गुणों को थोड़ा बेहतर दिखाते हैं।[citation needed]
  • सतत अपडेटिंग जीएमएम (सीयूजीएमएम, या सीयूई). अनुमापन और भार आव्यूह W का एक साथ अनुमापन करता है:
    मॉन्टे-कार्लो प्रयोगों में, यह विधि पारंपरिक दो-चरणीय जीएमएम से बेहतर प्रदर्शन करती है: अनुमापक में छोटी माध्यिक भूल और अधिकाधिक स्थितियों में अधिक विश्वसनीय परिमिति बाधाओं के लिए जे-परीक्षण कार्यक्षमता प्रदान करती है।[4]

न्यूनतमकरण प्रक्रिया के कार्यान्वयन में एक और महत्वपूर्ण विषय यह है कि फलन को (संभवतः उच्च-आयामी) पैरामीटर स्पेस Θ के माध्यम से खोजना होता है और θ का मान ढूंढना होता है जो उद्देश्य फलन को न्यूनतम करता है। ऐसी प्रक्रिया के लिए कोई सामान्य अनुशंसा उपलब्ध नहीं है, यह अपने स्वयं के क्षेत्र, संख्यात्मक अनुकूलन का विषय है।







सर्गन-हैनसेन जे परीक्षण

जब क्षण स्थितियों की संख्या पैरामीटर वेक्टर θ के आयाम से अधिक होती है, तो प्रारूप को अति-पहचानित कहा जाता है। सरगन (1958) ने वाद्य चर अनुमानकों के आधार पर अति-पहचान प्रतिबंधों के लिए परीक्षणों का प्रस्ताव रखा, जिन्हें स्वतंत्रता के क्रम के साथ ची-वर्ग चर के रूप में बड़े प्रारूपों में वितरित किया जाता है जो अति-पहचान प्रतिबंधों की संख्या पर निर्भर करते हैं। इसके बाद, हैनसेन (1982) ने इस परीक्षण को जीएमएम अनुमानकों के गणितीय समकक्ष सूत्रण पर लागू किया। यद्यपि, ध्यान दें कि ऐसे आँकड़े अनुभवजन्य अनुप्रयोगों में जहाँ प्रारूप गलत निर्दिष्ट हैं, नकारात्मक हो सकते हैं, और प्रायिकता अनुपात परीक्षण अंतर्दृष्टि प्राप्त कर सकते हैं क्योंकि प्रारूप का अनुमान शून्य और वैकल्पिक दोनों परिकल्पनाओं (भार्गव और सरगन, 1983) के अंतर्गत लगाया गया है।

संकल्पनात्मक रूप से हम जाँच सकते हैं कि क्या यह सुझाव देने के लिए शून्य के पर्याप्त निकट है कि प्रारूप डेटा को अच्छी तरह से संयोजित करता है। फिर जीएमएम विधि ने समीकरण को हल करने की समस्या को, जिसमें को पूरी तरह से प्रतिबंधों के साथ मेल खाता है, एक कम से कमीकरण के लिए गणना के द्वारा परिवर्तित कर दिया है। न्यूनतमकरण के लिए कोई ऐसा उपलब्ध न होने के बाद भी, कम से कमीकरण सदैव की जा सकती है। जे-परीक्षण यही करता है। जे-परीक्षण को प्रायः प्रतिबंधों के लिए परीक्षण कहा जाता है।

औपचारिक रूप से हम दो सांख्यिकीय परिकल्पना परीक्षण पर विचार करते हैं:

  • (शून्य परिकल्पना का प्रारूप "वैध" है), और
  • (वैकल्पिक परिकल्पना का प्रारूप "अमान्य" है; जो डेटा प्रतिबंधों को पूरा करने के निकट नहीं आता है)

परिकल्पना के अंतर्गत , निम्नलिखित तथाकथित जे-डाटा उपगामी रूप से ची-वर्ग वितरण है | ची-वर्ग स्वतंत्रता के k-l क्रम के साथ वितरित किया जाता है। J को निम्नलिखित रूप से परिभाषित किया जा सकता है:

अंतर्गत

जहाँ पैरामीटर का जीएमएम अनुमानक है, k क्षण स्थितियों की संख्या (सदिश g का आयाम) है, और l अनुमानित मापदंडों की संख्या (सदिश θ का आयाम) है। मानचित्र की प्रायिकता में की ओर संघटित होनी चाहिए, यह प्रभावी भार आव्यूह है। ध्यान दें कि पहले हमने सिर्फ यह चयन किया था कि W के आनुपातिक होना चाहिए जिससे अनुमापक प्रभावी हो; यद्यपि जे-परीक्षण को आयोजित करने के लिए W बिल्कुल के बराबर होना चाहिए तथा सिर्फ़ आनुपातिक नहीं होना चाहिए।

वैकल्पिक परिकल्पना के अंतर्गत , जे-डाटा उपगामी रूप से अपरिमित है:

अंतर्गत

परीक्षण करने के लिए हम डेटा से J के मान की गणना करते हैं। यह एक अऋणात्मक संख्या है. हम इसकी तुलना (उदाहरण के लिए) 0.95 मात्रात्मक रूप से करते हैं।

वितरण:

  • को 95% विश्वसनीयता स्तर पर अस्वीकार कर दिया जाता है यदि
  • को 95% विश्वसनीयता स्तर पर अस्वीकार नहीं किया जा सकता है यदि







विस्तार

जीएमएम अनुकूलन के संदर्भ में कई अन्य लोकप्रिय अनुमान विधियों को अपनाया जा सकता है:







कार्यान्वयन







यह भी देखें

संदर्भ

  1. Hayashi, Fumio (2000). अर्थमिति. Princeton University Press. p. 206. ISBN 0-691-01018-8.
  2. Hansen, Lars Peter (1982). "Large Sample Properties of Generalized Method of Moments Estimators". Econometrica. 50 (4): 1029–1054. doi:10.2307/1912775. JSTOR 1912775.
  3. Newey, W.; McFadden, D. (1994). "Large sample estimation and hypothesis testing". अर्थमिति की पुस्तिका. Vol. 4. Elsevier Science. pp. 2111–2245. CiteSeerX 10.1.1.724.4480. doi:10.1016/S1573-4412(05)80005-4. ISBN 9780444887665.
  4. Hansen, Lars Peter; Heaton, John; Yaron, Amir (1996). "Finite-sample properties of some alternative GMM estimators" (PDF). Journal of Business & Economic Statistics. 14 (3): 262–280. doi:10.1080/07350015.1996.10524656. hdl:1721.1/47970. JSTOR 1392442.


अग्रिम पठन

  • Huber, P. (1967). The behavior of maximum likelihood estimates under nonstandard conditions. Proceedings of the Fifth Berkeley Symposium on Mathematical Statistics and Probability 1, 221-233.
  • Newey W., McFadden D. (1994). Large sample estimation and hypothesis testing, in Handbook of Econometrics, Ch.36. Elsevier Science.
  • Sargan, J.D. (1958). The estimation of economic relationships using instrumental variables. Econometrica, 26, 393-415.
  • Sargan, J.D. (1959). The estimation of relationships with autocorrelated residuals by the use on instrumental variables. Journal of the Royal Statistical Society B, 21, 91-105.
  • Wang, C.Y., Wang, S., and Carroll, R. (1997). Estimation in choice-based sampling with measurement error and bootstrap analysis. Journal of Econometrics, 77, 65-86.
  • Bhargava, A., and Sargan, J.D. (1983). Estimating dynamic random effects from panel data covering short time periods. Econometrica, 51, 6, 1635-1659.
  • Hayashi, Fumio (2000). Econometrics. Princeton: Princeton University Press. ISBN 0-691-01018-8.
  • Hansen, Lars Peter (2002). "Method of Moments". In Smelser, N. J.; Bates, P. B. (eds.). International Encyclopedia of the Social and Behavior Sciences. Oxford: Pergamon.
  • Hall, Alastair R. (2005). Generalized Method of Moments. Advanced Texts in Econometrics. Oxford University Press. ISBN 0-19-877520-2.
  • Faciane, Kirby Adam Jr. (2006). Statistics for Empirical and Quantitative Finance. Statistics for Empirical and Quantitative Finance. H.C. Baird. ISBN 0-9788208-9-4.
  • Special issues of Journal of Business and Economic Statistics: vol. 14, no. 3 and vol. 20, no. 4.