क्षणों की सामान्यीकृत विधि: Difference between revisions
No edit summary |
(→विवरण) |
||
Line 5: | Line 5: | ||
== विवरण == | == विवरण == | ||
मान लीजिए कि उपलब्ध डेटा में टी अवलोकन | मान लीजिए कि उपलब्ध डेटा में टी अवलोकन {{nowrap|{''Y<sub>t</sub>'' }<sub> ''t'' {{=}} 1,...,''T''</sub>}}, सम्मिलित है जहां प्रत्येक अवलोकन Y<sub>t</sub>एक एन-आयामी [[बहुभिन्नरूपी यादृच्छिक चर]] है। हम मान लेते हैं कि डेटा एक अपरिमित सांख्यिकीय प्रारूप से प्राप्त होता है, जिसे एक अज्ञात [[पैरामीटर]] {{nowrap|''θ'' ∈ Θ}} तक परिभाषित किया गया है। अनुमान समस्या का लक्ष्य इस पैरामीटर का "सही" मान, θ<sub>0</sub>, या कम से कम एक यथोचित निकटतम अनुमान खोजना है। | ||
जीएमएम की एक सामान्य धारणा यह है कि डेटा ''Y<sub>t</sub>'' एक [[स्थिर प्रक्रिया|कमजोर स्थिर]] [[अभ्यतिप्राय प्रक्रिया|अभ्यतिप्राय]] [[प्रसंभाव्य प्रक्रिया]] द्वारा उत्पन्न किया जाता है। [[स्वतंत्र और समान रूप से वितरित यादृच्छिक चर|स्वतंत्र और समान रूप से वितरित]] चर ''Y<sub>t</sub>'' का परिप्रेक्ष्य इस स्थिति का एक विशेष उदाहरण है। | |||
जीएमएम लागू करने के लिए, हमें क्षण | जीएमएम लागू करने के लिए, हमें क्षण स्थितियों की आवश्यकता है, अर्थात, हमें एक [[सदिश-मान फलन]] g(Y,θ) को जानना होगा जैसे कि | ||
: <math> | : <math> | ||
m(\theta_0) \equiv \operatorname{E}[\,g(Y_t,\theta_0)\,]=0, | m(\theta_0) \equiv \operatorname{E}[\,g(Y_t,\theta_0)\,]=0, | ||
</math> | </math> | ||
जहां E अपेक्षित | जहां E अपेक्षित मान दर्शाता है, और Y<sub>t</sub>एक सामान्य अवलोकन है. इसके अतिरिक्त, फ़ंक्शन m(θ) शून्य से भिन्न होना चाहिए {{nowrap|''θ'' ≠ ''θ''<sub>0</sub>}}, अन्यथा पैरामीटर θ बिंदु-[[पहचान]] नहीं होगा। | ||
जीएमएम के पीछे मूल विचार सैद्धांतिक अपेक्षित | जीएमएम के पीछे मूल विचार सैद्धांतिक अपेक्षित मान ई[⋅] को उसके अनुभवजन्य एनालॉग-प्रारूप औसत से परिवर्तित करना है: | ||
: <math> | : <math> | ||
\hat{m}(\theta) \equiv \frac{1}{T}\sum_{t=1}^T g(Y_t,\theta) | \hat{m}(\theta) \equiv \frac{1}{T}\sum_{t=1}^T g(Y_t,\theta) | ||
</math> | </math> | ||
और फिर θ के संबंध में इस | और फिर θ के संबंध में इस व्यंजक के मानदंड को कम करने के लिए। θ का न्यूनतम मान θ के लिए हमारा अनुमान <sub>0</sub> है. | ||
बड़ी संख्या के नियम | |||
''T'' के अत्यधिक बड़े मानों के लिए [[बड़ी संख्या के नियम]] के अनुसार, <math style="vertical-align:-.37em">\scriptstyle\hat{m}(\theta),\approx;\operatorname{E}[g(Y_t,\theta)],=,m(\theta)</math> होता है, और इसलिए हम अपेक्षा करते हैं कि <math style="vertical-align:-.3em">\scriptstyle\hat{m}(\theta_0);\approx;m(\theta_0);=;0</math> होगा। क्षणों की सामान्यीकृत विधि एक ऐसे संख्या <math style="vertical-align:0">\scriptstyle\hat\theta</math> की खोज करती है जो <math style="vertical-align:-.3em">\scriptstyle\hat{m}(\;\!\hat\theta\;\!)</math> को शून्य के निकट स्थापित करेगा। गणितीय रूप से, यह एक निश्चित मानक को न्यूनतम करने के बराबर है <math style="vertical-align:-.3em">\scriptstyle\hat{m}(\theta)</math> (m का मान, जिसे ||m|| के रूप में दर्शाया गया है, m और शून्य के बीच की दूरी को मापता है)। ये परिणामी अनुमानक के गुण मानक फलन की विशेष पसंद पर निर्भर होंगे, और इसलिए जीएमएम का सिद्धांत मानदंडों के एक पूरे परिवार पर विचार करता है, जिसे इस प्रकार परिभाषित किया गया है | |||
: <math> | : <math> | ||
\| \hat{m}(\theta) \|^2_{W} = \hat{m}(\theta)^{\mathsf{T}}\,W\hat{m}(\theta), | \| \hat{m}(\theta) \|^2_{W} = \hat{m}(\theta)^{\mathsf{T}}\,W\hat{m}(\theta), | ||
</math> | </math> | ||
जहां W एक [[ | जहां W एक [[धनात्मक-परिमित आव्यूह]] है | धनात्मक-परिमित भार आव्यूह, और <math>m^{\mathsf{T}}</math> स्थानान्तरण को दर्शाता है। व्यवहार में, भार आव्यूह डब्ल्यू की गणना उपलब्ध डेटा समुच्चयों के आधार पर की जाती है, जिसे इस प्रकार दर्शाया जाता है <math style="vertical-align:0em">\scriptstyle\hat{W}</math>. इस प्रकार, जीएमएम अनुमानकों को इस प्रकार लिखा जा सकता है | ||
: <math> | : <math> | ||
\hat\theta = \operatorname{arg}\min_{\theta\in\Theta} \bigg(\frac{1}{T}\sum_{t=1}^T g(Y_t,\theta)\bigg)^{\mathsf{T}} \hat{W} \bigg(\frac{1}{T}\sum_{t=1}^T g(Y_t,\theta)\bigg) | \hat\theta = \operatorname{arg}\min_{\theta\in\Theta} \bigg(\frac{1}{T}\sum_{t=1}^T g(Y_t,\theta)\bigg)^{\mathsf{T}} \hat{W} \bigg(\frac{1}{T}\sum_{t=1}^T g(Y_t,\theta)\bigg) | ||
</math> | </math> | ||
उपयुक्त परिस्थितियों में यह अनुमानक सुसंगत अनुमानक, [[स्पर्शोन्मुख सामान्यता]] और भार | उपयुक्त परिस्थितियों में यह अनुमानक सुसंगत अनुमानक, [[स्पर्शोन्मुख सामान्यता]] और भार आव्यूह के सही विकल्प के साथ <math style="vertical-align:0em">\scriptstyle\hat{W}</math> कुशल अनुमानक भी है। | ||
[[Category:All articles with unsourced statements]] | |||
[[Category:Articles with hatnote templates targeting a nonexistent page]] | |||
[[Category:Articles with invalid date parameter in template]] | |||
[[Category:Articles with unsourced statements from June 2009]] | |||
[[Category:Created On 06/07/2023]] | |||
[[Category:Machine Translated Page]] | |||
[[Category:Pages with script errors]] | |||
[[Category:Short description with empty Wikidata description]] | |||
[[Category:Template documentation pages|Short description/doc]] | |||
[[Category:Templates Vigyan Ready]] | |||
== गुण == | == गुण == |
Revision as of 23:35, 13 July 2023
अर्थमिति और सांख्यिकी में, क्षणों की सामान्यीकृत विधि (जीएमएम) सांख्यिकीय प्रारूपों में मानदंडों का अनुमान लगाने के लिए एक सामान्य विधि है। आमतौर पर इसे अर्धपैरामीट्रिक प्रारूप के संदर्भ में लागू किया जाता है, जहां पैरामीटर मुख्यतः परिमित-आयामी होता है, जबकि डेटा के वितरण फलन का पूर्ण आकार ज्ञात नहीं हो सकता है, और इसलिए अधिकतम प्रायिकता अनुमान लागू नहीं होता है।
इस विधि में यह आवश्यक है कि प्रारूप के लिए निर्दिष्ट संख्या के "क्षण स्थितियों" को निर्दिष्ट किया जाए। ये क्षण स्थिति प्रारूप, पैरामीटर और डेटा के फलन होते हैं, जिनका अपेक्षित मान पैरामीटर के वास्तविक मान पर शून्य होता है। जीएमएम विधि तब क्षण स्थितियों के प्रारूप औसत के किसी परिमित मान को कम करती है, और इसलिए इसे न्यूनतम-दूरी अनुमान के एक विशेष परिप्रेक्ष्य के रूप में सोचा जा सकता है।[1] जीएमएम अनुमानकों को सभी अनुमानकों की श्रेणी में सुसंगत अनुमानक, स्पर्शोन्मुख वितरण और सबसे कुशल अनुमानक के रूप में जाना जाता है जो क्षण स्थितियों में निहित जानकारी के अतिरिक्त किसी भी अन्य जानकारी का उपयोग नहीं करते हैं। जीएमएम को 1982 में लार्स पीटर हैंसन द्वारा प्रस्तावित किया गया था, जो क्षण विधि का विस्तार है,[2] जिसे 1894 में कार्ल पियरसन ने प्रस्तुत किया था। यद्यपि, ये अनुमापक गणनाओं के साथ "लंबकोणीयता अवस्था" (सारगान, 1958, 1959) या "अमुख्य अनुमापक समीकरण" (ह्यूबर, 1967; वांग आदि, 1997) पर आधारित उन्नत अनुमापकों के लिए गणितीय रूप से समान होते हैं।
विवरण
मान लीजिए कि उपलब्ध डेटा में टी अवलोकन {Yt } t = 1,...,T, सम्मिलित है जहां प्रत्येक अवलोकन Ytएक एन-आयामी बहुभिन्नरूपी यादृच्छिक चर है। हम मान लेते हैं कि डेटा एक अपरिमित सांख्यिकीय प्रारूप से प्राप्त होता है, जिसे एक अज्ञात पैरामीटर θ ∈ Θ तक परिभाषित किया गया है। अनुमान समस्या का लक्ष्य इस पैरामीटर का "सही" मान, θ0, या कम से कम एक यथोचित निकटतम अनुमान खोजना है।
जीएमएम की एक सामान्य धारणा यह है कि डेटा Yt एक कमजोर स्थिर अभ्यतिप्राय प्रसंभाव्य प्रक्रिया द्वारा उत्पन्न किया जाता है। स्वतंत्र और समान रूप से वितरित चर Yt का परिप्रेक्ष्य इस स्थिति का एक विशेष उदाहरण है।
जीएमएम लागू करने के लिए, हमें क्षण स्थितियों की आवश्यकता है, अर्थात, हमें एक सदिश-मान फलन g(Y,θ) को जानना होगा जैसे कि
जहां E अपेक्षित मान दर्शाता है, और Ytएक सामान्य अवलोकन है. इसके अतिरिक्त, फ़ंक्शन m(θ) शून्य से भिन्न होना चाहिए θ ≠ θ0, अन्यथा पैरामीटर θ बिंदु-पहचान नहीं होगा।
जीएमएम के पीछे मूल विचार सैद्धांतिक अपेक्षित मान ई[⋅] को उसके अनुभवजन्य एनालॉग-प्रारूप औसत से परिवर्तित करना है:
और फिर θ के संबंध में इस व्यंजक के मानदंड को कम करने के लिए। θ का न्यूनतम मान θ के लिए हमारा अनुमान 0 है.
T के अत्यधिक बड़े मानों के लिए बड़ी संख्या के नियम के अनुसार, होता है, और इसलिए हम अपेक्षा करते हैं कि होगा। क्षणों की सामान्यीकृत विधि एक ऐसे संख्या की खोज करती है जो को शून्य के निकट स्थापित करेगा। गणितीय रूप से, यह एक निश्चित मानक को न्यूनतम करने के बराबर है (m का मान, जिसे ||m|| के रूप में दर्शाया गया है, m और शून्य के बीच की दूरी को मापता है)। ये परिणामी अनुमानक के गुण मानक फलन की विशेष पसंद पर निर्भर होंगे, और इसलिए जीएमएम का सिद्धांत मानदंडों के एक पूरे परिवार पर विचार करता है, जिसे इस प्रकार परिभाषित किया गया है
जहां W एक धनात्मक-परिमित आव्यूह है | धनात्मक-परिमित भार आव्यूह, और स्थानान्तरण को दर्शाता है। व्यवहार में, भार आव्यूह डब्ल्यू की गणना उपलब्ध डेटा समुच्चयों के आधार पर की जाती है, जिसे इस प्रकार दर्शाया जाता है . इस प्रकार, जीएमएम अनुमानकों को इस प्रकार लिखा जा सकता है
उपयुक्त परिस्थितियों में यह अनुमानक सुसंगत अनुमानक, स्पर्शोन्मुख सामान्यता और भार आव्यूह के सही विकल्प के साथ कुशल अनुमानक भी है।
गुण
संगति
सुसंगत अनुमानक एक अनुमानक की एक सांख्यिकीय संपत्ति है जिसमें कहा गया है कि, पर्याप्त संख्या में अवलोकन होने पर, अनुमानक पैरामीटर के वास्तविक मूल्य की प्रायिकता में अभिसरण करेगा:
GMM अनुमानक के सुसंगत होने के लिए पर्याप्त स्थितियाँ इस प्रकार हैं:
- जहां W एक सकारात्मक निश्चित मैट्रिक्स#नकारात्मक-निश्चित है।2C अर्धनिश्चित और अनिश्चित मैट्रिक्स|सकारात्मक अर्ध-निश्चित मैट्रिक्स,
- केवल
- संभावित मापदंडों का स्थान (गणित)। सघन स्थान है,
- प्रायिकता एक के साथ प्रत्येक θ पर निरंतर है,
यहां दूसरी स्थिति (तथाकथित वैश्विक पहचान स्थिति) को सत्यापित करना अक्सर विशेष रूप से कठिन होता है। वहाँ सरल आवश्यक लेकिन पर्याप्त स्थितियाँ मौजूद नहीं हैं, जिनका उपयोग गैर-पहचान समस्या का पता लगाने के लिए किया जा सकता है:
- आदेश शर्त. मोमेंट फ़ंक्शन m(θ) का आयाम कम से कम पैरामीटर वेक्टर θ के आयाम जितना बड़ा होना चाहिए।
- स्थानीय पहचान. यदि g(Y,θ) के पड़ोस में निरंतर अवकलनीय है , फिर मैट्रिक्स पूर्ण रैंक (रैखिक बीजगणित) होना चाहिए।
व्यावहारिक रूप से लागू अर्थशास्त्री अक्सर यह मान लेते हैं कि वैश्विक पहचान मान्य है, वास्तव में इसे साबित किए बिना।[3]: 2127
स्पर्शोन्मुख सामान्यता
एसिम्प्टोटिक सामान्यता एक उपयोगी गुण है, क्योंकि यह हमें अनुमानक के लिए विश्वास अंतराल बनाने और विभिन्न परीक्षण करने की अनुमति देता है। इससे पहले कि हम जीएमएम अनुमानक के स्पर्शोन्मुख वितरण के बारे में एक बयान दे सकें, हमें दो सहायक मैट्रिक्स को परिभाषित करने की आवश्यकता है:
फिर नीचे सूचीबद्ध शर्तों 1-6 के तहत, जीएमएम अनुमानक वितरण में अभिसरण के साथ असम्बद्ध रूप से सामान्य होगा:
स्थितियाँ:
- सुसंगत है (पिछला अनुभाग देखें),
- संभावित मापदंडों का सेट कॉम्पैक्ट स्पेस है,
- कुछ पड़ोस N में लगातार भिन्न होता है प्रायिकता एक के साथ,
- गणित का सवाल निरर्थक है.
सापेक्ष दक्षता
अब तक हमने मैट्रिक्स डब्ल्यू की पसंद के बारे में कुछ नहीं कहा है, सिवाय इसके कि यह सकारात्मक अर्ध-निश्चित होना चाहिए। वास्तव में ऐसा कोई भी मैट्रिक्स एक सुसंगत और एसिम्प्टोटिक रूप से सामान्य जीएमएम अनुमानक का उत्पादन करेगा, एकमात्र अंतर उस अनुमानक के एसिम्प्टोटिक विचरण में होगा। इसे लेते हुए दिखाया जा सकता है
क्षण अनुमानकों की सभी (सामान्यीकृत) विधि की श्रेणी में सबसे कुशल अनुमानक का परिणाम होगा। केवल अनंत संख्या में ऑर्थोगोनल स्थितियों से सबसे छोटा विचरण, क्रैमर-राव बाउंड प्राप्त होता है।
इस मामले में जीएमएम अनुमानक के स्पर्शोन्मुख वितरण का सूत्र सरल हो जाता है
यह प्रमाण कि वेटिंग मैट्रिक्स का ऐसा विकल्प वास्तव में स्थानीय रूप से इष्टतम है, अन्य अनुमानकों की दक्षता स्थापित करते समय अक्सर मामूली संशोधनों के साथ अपनाया जाता है। सामान्य नियम के रूप में, एक वेटिंग मैट्रिक्स इष्टतमता के करीब इंच बढ़ जाता है जब यह क्रैमर-राव सीमा के करीब एक अभिव्यक्ति में बदल जाता है।
Proof. We will consider the difference between asymptotic variance with arbitrary W and asymptotic variance with . If we can factor this difference into a symmetric product of the form CC' for some matrix C, then it will guarantee that this difference is nonnegative-definite, and thus will be optimal by definition. | |
where we introduced matrices A and B in order to slightly simplify notation; I is an identity matrix. We can see that matrix B here is symmetric and idempotent: . This means I−B is symmetric and idempotent as well: . Thus we can continue to factor the previous expression as | |
कार्यान्वयन
उल्लिखित विधि को लागू करने में एक कठिनाई यह है कि हम इसे नहीं ले सकते W = Ω−1 क्योंकि, मैट्रिक्स Ω की परिभाषा के अनुसार, हमें θ का मान जानने की आवश्यकता है0 इस मैट्रिक्स की गणना करने के लिए, और θ0 यह बिल्कुल वही मात्रा है जिसे हम नहीं जानते हैं और पहले अनुमान लगाने की कोशिश कर रहे हैं। वाई के मामले मेंt आईआईडी होने के कारण हम डब्ल्यू का अनुमान लगा सकते हैं
इस समस्या से निपटने के लिए कई दृष्टिकोण मौजूद हैं, जिनमें से पहला सबसे लोकप्रिय है:
- Two-step feasible GMM:
- Step 1: Take W = I (the identity matrix) or some other positive-definite matrix, and compute preliminary GMM estimate . This estimator is consistent for θ0, although not efficient.
- Step 2: converges in probability to Ω−1 and therefore if we compute with this weighting matrix, the estimator will be asymptotically efficient.
- Iterated GMM. Essentially the same procedure as 2-step GMM, except that the matrix is recalculated several times. That is, the estimate obtained in step 2 is used to calculate the weighting matrix for step 3, and so on until some convergence criterion is met.
- Continuously updating GMM (CUGMM, or CUE). Estimates simultaneously with estimating the weighting matrix W:
न्यूनतमकरण प्रक्रिया के कार्यान्वयन में एक और महत्वपूर्ण मुद्दा यह है कि फ़ंक्शन को (संभवतः उच्च-आयामी) पैरामीटर स्पेस Θ के माध्यम से खोजना होता है और θ का मान ढूंढना होता है जो उद्देश्य फ़ंक्शन को न्यूनतम करता है। ऐसी प्रक्रिया के लिए कोई सामान्य अनुशंसा मौजूद नहीं है, यह अपने स्वयं के क्षेत्र, संख्यात्मक अनुकूलन का विषय है।
सर्गन-हैनसेन जे परीक्षण
जब क्षण स्थितियों की संख्या पैरामीटर वेक्टर θ के आयाम से अधिक होती है, तो मॉडल को अति-पहचानित कहा जाता है। सरगन (1958) ने वाद्य चर अनुमानकों के आधार पर अति-पहचान प्रतिबंधों के लिए परीक्षणों का प्रस्ताव रखा, जिन्हें स्वतंत्रता की डिग्री के साथ ची-स्क्वायर चर के रूप में बड़े नमूनों में वितरित किया जाता है जो अति-पहचान प्रतिबंधों की संख्या पर निर्भर करते हैं। इसके बाद, हैनसेन (1982) ने इस परीक्षण को जीएमएम अनुमानकों के गणितीय समकक्ष फॉर्मूलेशन पर लागू किया। हालाँकि, ध्यान दें कि ऐसे आँकड़े अनुभवजन्य अनुप्रयोगों में नकारात्मक हो सकते हैं जहाँ मॉडल गलत निर्दिष्ट हैं, और प्रायिकता अनुपात परीक्षण अंतर्दृष्टि प्राप्त कर सकते हैं क्योंकि मॉडल का अनुमान शून्य और वैकल्पिक दोनों परिकल्पनाओं (भार्गव और सरगन, 1983) के तहत लगाया गया है।
संकल्पनात्मक रूप से हम जाँच सकते हैं कि क्या यह सुझाव देने के लिए शून्य के पर्याप्त करीब है कि मॉडल डेटा को अच्छी तरह से फिट बैठता है। जीएमएम विधि ने समीकरण को हल करने की समस्या का स्थान ले लिया है , जो चुनता है न्यूनतमकरण गणना द्वारा, प्रतिबंधों का सटीक मिलान करना। न्यूनतमकरण हमेशा नहीं होने पर भी किया जा सकता है ऐसा मौजूद है . जे-टेस्ट यही करता है। जे-परीक्षण को प्रतिबंधों की अधिक पहचान के लिए परीक्षण भी कहा जाता है।
औपचारिक रूप से हम दो सांख्यिकीय परिकल्पना परीक्षण पर विचार करते हैं:
- (शून्य परिकल्पना कि मॉडल "वैध" है), और
- (वैकल्पिक परिकल्पना कि मॉडल "अमान्य" है; डेटा प्रतिबंधों को पूरा करने के करीब नहीं आता है)
परिकल्पना के अंतर्गत , निम्नलिखित तथाकथित जे-आँकड़ा स्पर्शोन्मुख रूप से ची-वर्ग वितरण है | ची-वर्ग स्वतंत्रता की k-l डिग्री के साथ वितरित किया जाता है। J को परिभाषित करें:
- अंतर्गत
कहाँ पैरामीटर का GMM अनुमानक है , k क्षण स्थितियों की संख्या (वेक्टर g का आयाम) है, और l अनुमानित मापदंडों की संख्या (वेक्टर θ का आयाम) है। आव्यूह की संभाव्यता में अभिसरण होना चाहिए , कुशल भार मैट्रिक्स (ध्यान दें कि पहले हमें केवल यह आवश्यक था कि W के समानुपाती हो अनुमानक के कुशल होने के लिए; हालाँकि, J-परीक्षण करने के लिए W के बिल्कुल बराबर होना चाहिए , केवल आनुपातिक नहीं)।
वैकल्पिक परिकल्पना के अंतर्गत , जे-आँकड़ा स्पर्शोन्मुख रूप से असीमित है:
- अंतर्गत
परीक्षण करने के लिए हम डेटा से J के मान की गणना करते हैं। यह एक अऋणात्मक संख्या है. हम इसकी तुलना (उदाहरण के लिए) 0.95 मात्रात्मक से करते हैं वितरण:
- यदि 95% विश्वास स्तर पर खारिज कर दिया जाता है
- यदि 95% विश्वास स्तर पर अस्वीकार नहीं किया जा सकता है
दायरा
जीएमएम अनुकूलन के संदर्भ में कई अन्य लोकप्रिय अनुमान तकनीकों को अपनाया जा सकता है:
- Ordinary least squares (OLS) is equivalent to GMM with moment conditions:
- Weighted least squares (WLS)
- Instrumental variables regression (IV)
- Non-linear least squares (NLLS):
- Maximum likelihood estimation (MLE):
कार्यान्वयन
- विकीबुक:आर प्रोग्रामिंग/मेथड ऑफ मोमेंट्स|आर प्रोग्रामिंग विकिबुक, मेथड ऑफ मोमेंट्स
- आर
- स्टेटा
- EViews
- SAS
- ग्रेटल
यह भी देखें
- अधिकतम प्रायिकता की विधि
- सामान्यीकृत अनुभवजन्य प्रायिकता
- अरेलानो-बॉन्ड अनुमानक
- अनुमानित बायेसियन गणना
संदर्भ
- ↑ Hayashi, Fumio (2000). अर्थमिति. Princeton University Press. p. 206. ISBN 0-691-01018-8.
- ↑ Hansen, Lars Peter (1982). "Large Sample Properties of Generalized Method of Moments Estimators". Econometrica. 50 (4): 1029–1054. doi:10.2307/1912775. JSTOR 1912775.
- ↑ Newey, W.; McFadden, D. (1994). "Large sample estimation and hypothesis testing". अर्थमिति की पुस्तिका. Vol. 4. Elsevier Science. pp. 2111–2245. CiteSeerX 10.1.1.724.4480. doi:10.1016/S1573-4412(05)80005-4. ISBN 9780444887665.
- ↑ Hansen, Lars Peter; Heaton, John; Yaron, Amir (1996). "Finite-sample properties of some alternative GMM estimators" (PDF). Journal of Business & Economic Statistics. 14 (3): 262–280. doi:10.1080/07350015.1996.10524656. hdl:1721.1/47970. JSTOR 1392442.
अग्रिम पठन
- Huber, P. (1967). The behavior of maximum likelihood estimates under nonstandard conditions. Proceedings of the Fifth Berkeley Symposium on Mathematical Statistics and Probability 1, 221-233.
- Newey W., McFadden D. (1994). Large sample estimation and hypothesis testing, in Handbook of Econometrics, Ch.36. Elsevier Science.
- Imbens, Guido W.; Spady, Richard H.; Johnson, Phillip (1998). "Information theoretic approaches to inference in moment condition models" (PDF). Econometrica. 66 (2): 333–357. doi:10.2307/2998561. JSTOR 2998561.
- Sargan, J.D. (1958). The estimation of economic relationships using instrumental variables. Econometrica, 26, 393-415.
- Sargan, J.D. (1959). The estimation of relationships with autocorrelated residuals by the use on instrumental variables. Journal of the Royal Statistical Society B, 21, 91-105.
- Wang, C.Y., Wang, S., and Carroll, R. (1997). Estimation in choice-based sampling with measurement error and bootstrap analysis. Journal of Econometrics, 77, 65-86.
- Bhargava, A., and Sargan, J.D. (1983). Estimating dynamic random effects from panel data covering short time periods. Econometrica, 51, 6, 1635-1659.
- Hayashi, Fumio (2000). Econometrics. Princeton: Princeton University Press. ISBN 0-691-01018-8.
- Hansen, Lars Peter (2002). "Method of Moments". In Smelser, N. J.; Bates, P. B. (eds.). International Encyclopedia of the Social and Behavior Sciences. Oxford: Pergamon.
- Hall, Alastair R. (2005). Generalized Method of Moments. Advanced Texts in Econometrics. Oxford University Press. ISBN 0-19-877520-2.
- Faciane, Kirby Adam Jr. (2006). Statistics for Empirical and Quantitative Finance. Statistics for Empirical and Quantitative Finance. H.C. Baird. ISBN 0-9788208-9-4.
- Special issues of Journal of Business and Economic Statistics: vol. 14, no. 3 and vol. 20, no. 4.