भारित न्यूनतम वर्ग: Difference between revisions
No edit summary |
No edit summary |
||
Line 3: | Line 3: | ||
{{Regression bar}} | {{Regression bar}} | ||
भारित न्यूनतम वर्ग (डब्ल्यूएलएस), जिसे भारित रैखिक प्रतिगमन के रूप में भी जाना जाता है,<ref>{{Cite web| url=https://support.minitab.com/en-us/minitab/18/help-and-how-to/modeling-statistics/regression/supporting-topics/basics/weighted-regression/|title = Weighted regression}}</ref><ref>{{Cite web|url=https://blogs.sas.com/content/iml/2016/10/05/weighted-regression.html|title=Visualize a weighted regression}}</ref> सामान्य न्यूनतम वर्गों और रैखिक प्रतिगमन का सामान्यीकरण है जिसमें अवलोकनों के असमान विचरण ([[विषमलैंगिकता]]) का ज्ञान प्रतिगमन में | भारित न्यूनतम वर्ग (डब्ल्यूएलएस), जिसे भारित रैखिक प्रतिगमन के रूप में भी जाना जाता है,<ref>{{Cite web| url=https://support.minitab.com/en-us/minitab/18/help-and-how-to/modeling-statistics/regression/supporting-topics/basics/weighted-regression/|title = Weighted regression}}</ref><ref>{{Cite web|url=https://blogs.sas.com/content/iml/2016/10/05/weighted-regression.html|title=Visualize a weighted regression}}</ref> सामान्य न्यूनतम वर्गों और रैखिक प्रतिगमन का सामान्यीकरण है, जिसमें अवलोकनों के असमान विचरण ([[विषमलैंगिकता]]) का ज्ञान प्रतिगमन में सम्मिलित किया जाता है। डब्लूएलएस भी [[सामान्यीकृत न्यूनतम वर्ग]] की विशेषज्ञता है, जब त्रुटियों के सहप्रसरण आव्युह की समस्त संवृत विकर्ण प्रविष्टियां शून्य होती हैं। | ||
==सूत्रीकरण== | ==सूत्रीकरण== | ||
Line 9: | Line 9: | ||
<math display="block">r_i(\boldsymbol\beta) = y_i - f(x_i, \boldsymbol\beta).</math> | <math display="block">r_i(\boldsymbol\beta) = y_i - f(x_i, \boldsymbol\beta).</math> | ||
यदि त्रुटियाँ असंबंधित हैं और उनमें समान भिन्नता है, | यदि त्रुटियाँ असंबंधित हैं और उनमें समान भिन्नता है, तब फलन | ||
<math display="block">S(\boldsymbol\beta) = \sum_i r_i(\boldsymbol\beta)^2,</math> | <math display="block">S(\boldsymbol\beta) = \sum_i r_i(\boldsymbol\beta)^2,</math> | ||
<math>\boldsymbol\hat\beta</math> पर इस प्रकार न्यूनतम किया जाता है कि <math>\frac{\partial S}{\partial\beta_j}(\hat\boldsymbol\beta) = 0</math> | <math>\boldsymbol\hat\beta</math> पर इस प्रकार न्यूनतम किया जाता है कि <math>\frac{\partial S}{\partial\beta_j}(\hat\boldsymbol\beta) = 0</math> है। | ||
गॉस-मार्कोव प्रमेय से पता चलता है कि, जब ऐसा होता है, | गॉस-मार्कोव प्रमेय से पता चलता है कि, जब ऐसा होता है, तब <math>\hat{\boldsymbol{\beta}}</math> [[सर्वोत्तम रैखिक निष्पक्ष अनुमानक]] (सर्वोत्तम लीनियर निष्पक्ष अनुमानक) है। | ||
गॉस-मार्कोव प्रमेय से पता चलता है कि, जब ऐसा है, <math>\hat{\boldsymbol{\beta}}</math> [[सर्वोत्तम रैखिक निष्पक्ष अनुमानक]] (सर्वोत्तम लीनियर निष्पक्ष अनुमानक) है। | गॉस-मार्कोव प्रमेय से पता चलता है कि, जब ऐसा है, <math>\hat{\boldsymbol{\beta}}</math> [[सर्वोत्तम रैखिक निष्पक्ष अनुमानक]] (सर्वोत्तम लीनियर निष्पक्ष अनुमानक) है। चूंकि, यदि माप असंबंधित हैं। किन्तु अलग-अलग अनिश्चितताएँ हैं, तब एक संशोधित दृष्टिकोण ग्रहण किया जा सकता है। [[अलेक्जेंडर ऐटकेन]] ने दिखाया कि जब वर्ग अवशिष्टों का भारित योग न्यूनतम किया जाता है, तब 1 नीला होता है यदि प्रत्येक वजन माप के विचरण के व्युत्क्रम के अनुरूप होता है, | ||
<math display="block">\begin{align} | <math display="block">\begin{align} | ||
S &= \sum_{i=1}^n W_{ii}{r_i}^2, & | S &= \sum_{i=1}^n W_{ii}{r_i}^2, & | ||
Line 25: | Line 25: | ||
<math display="block">\sum_{i=1}^n \sum_{k=1}^m X_{ij}W_{ii}X_{ik}\hat{\beta}_k = \sum_{i=1}^n X_{ij}W_{ii}y_i,\quad j = 1, \ldots, m\,.</math> | <math display="block">\sum_{i=1}^n \sum_{k=1}^m X_{ij}W_{ii}X_{ik}\hat{\beta}_k = \sum_{i=1}^n X_{ij}W_{ii}y_i,\quad j = 1, \ldots, m\,.</math> | ||
जब अवलोकन संबंधी त्रुटियां असंबंधित होती हैं और भार | जब अवलोकन संबंधी त्रुटियां असंबंधित होती हैं और भार आव्युह, W=Ω−1, विकर्ण होता है, तब इन्हें इस प्रकार लिखा जा सकता है<math display="block">\mathbf{\left(X^\textsf{T} WX\right)\hat{\boldsymbol{\beta}} = X^\textsf{T}Wy}.</math>यदि त्रुटियों को सहसंबद्ध किया जाता है तब परिणामी अनुमानक नीला होता है यदि भार आव्युह अवलोकनों के [[विचरण-सहप्रसरण मैट्रिक्स|विचरण-सहप्रसरण आव्युह]] के व्युत्क्रम के सामान्य है। | ||
जब त्रुटियां असंबंधित होती हैं, | जब त्रुटियां असंबंधित होती हैं, तब भार आव्युह को <math>w_{ii} = \sqrt{W_{ii}}</math>. के रूप में कारक करने के रूप मे गणना को सहज बनाना सुविधाजनक होता है। तत्पश्चात सामान्य समीकरणों को सामान्य न्यूनतम वर्गों के समान रूप में लिखा जा सकता है:<math display="block">\mathbf{\left(X'^\textsf{T}X'\right)\hat{\boldsymbol{\beta}} = X'^\textsf{T}y'}\,</math> | ||
Line 35: | Line 35: | ||
\mathbf{y'} &= \operatorname{diag}\left(\mathbf{w}\right) \mathbf{y} = \mathbf{y} \oslash \mathbf{\sigma}. | \mathbf{y'} &= \operatorname{diag}\left(\mathbf{w}\right) \mathbf{y} = \mathbf{y} \oslash \mathbf{\sigma}. | ||
\end{align}</math> | \end{align}</math> | ||
यह एक प्रकार का श्वेतक परिवर्तन है; अंतिम अभिव्यक्ति में [[प्रवेशवार विभाजन|प्रविष्टि सतर्कता]] विभाजन | यह एक प्रकार का श्वेतक परिवर्तन है; अंतिम अभिव्यक्ति में [[प्रवेशवार विभाजन|प्रविष्टि सतर्कता]] विभाजन सम्मिलित है। | ||
अ-रेखीय न्यूनतम वर्ग प्रणालियों के रूप मे एक समान तर्क से ज्ञात होता है कि सामान्य समीकरणों को निम्नानुसार संशोधित किया जाना चाहिए। | अ-रेखीय न्यूनतम वर्ग प्रणालियों के रूप मे एक समान तर्क से ज्ञात होता है कि सामान्य समीकरणों को निम्नानुसार संशोधित किया जाना चाहिए। | ||
<math display="block">\mathbf{\left(J^\textsf{T}WJ\right)\, \boldsymbol\Delta\beta = J^\textsf{T}W\, \boldsymbol\Delta y}.\,</math> | <math display="block">\mathbf{\left(J^\textsf{T}WJ\right)\, \boldsymbol\Delta\beta = J^\textsf{T}W\, \boldsymbol\Delta y}.\,</math> | ||
ध्यान दें कि अनुभवजन्य परीक्षणों के रूप मे , उपयुक्त W निश्चित रूप से ज्ञात नहीं है और इसका अनुमान लगाया जाना चाहिए। इसके रूप मे [[व्यवहार्य सामान्यीकृत न्यूनतम वर्ग]] (एफजीएलएस) | ध्यान दें कि अनुभवजन्य परीक्षणों के रूप मे , उपयुक्त W निश्चित रूप से ज्ञात नहीं है और इसका अनुमान लगाया जाना चाहिए। इसके रूप मे [[व्यवहार्य सामान्यीकृत न्यूनतम वर्ग]] (एफजीएलएस) विधियों का उपयोग किया जा सकता है, इस स्थितिे में यह विकर्ण सहप्रसरण आव्युह के रूप मे विशिष्ट है, जिससे व्यवहार्य भारित न्यूनतम वर्ग मे समाधान प्राप्त होता है। | ||
यदि अवलोकनों की अनिश्चितता बाह्य | यदि अवलोकनों की अनिश्चितता बाह्य स्रोतबं से ज्ञात नहीं है तब दिए गए अवलोकनों से भार का अनुमान लगाया जा सकता है। उदाहरण के रूप मे बाह्य प्रभाव की अभिज्ञान करने के रूप मे यह उपयोगी हो सकता है। डेटा समुच्चय से बाह्य प्रभाव निष्काषित कर जाने के पश्चात् भार को एक पर पुनः स्थापित किया जाना चाहिए।<ref name="strutz">{{cite book|last=Strutz | first = T.| title=डेटा फिटिंग और अनिश्चितता (भारित न्यूनतम वर्ग और उससे आगे का व्यावहारिक परिचय)|publisher=Springer Vieweg | year=2016 | isbn= 978-3-658-11455-8 | chapter = 3}}</ref> | ||
==प्रेरणा== | ==प्रेरणा== | ||
कुछ | कुछ स्थितियों में टिप्पणियों को महत्व प्रस्तुत जा सकता है - उदाहरण के रूप मे , वे समान रूप से विश्वसनीय नहीं हो सकते हैं। इस स्थितिे में, कोई भी वर्गों के भारित योग को कम कर सकता है: | ||
<math display="block"> | <math display="block"> | ||
\underset{\boldsymbol\beta}{\operatorname{arg\ min}}\, \sum_{i=1}^{n} w_i \left|y_i - \sum_{j=1}^{m} X_{ij}\beta_j\right|^2 = | \underset{\boldsymbol\beta}{\operatorname{arg\ min}}\, \sum_{i=1}^{n} w_i \left|y_i - \sum_{j=1}^{m} X_{ij}\beta_j\right|^2 = | ||
Line 53: | Line 53: | ||
जिस स्थान पर w<sub>''i''</sub>> 0 वें अवलोकन का भार है, और W ऐसे भारों का [[विकर्ण मैट्रिक्स|विकर्ण आव्युह]] है। | जिस स्थान पर w<sub>''i''</sub>> 0 वें अवलोकन का भार है, और W ऐसे भारों का [[विकर्ण मैट्रिक्स|विकर्ण आव्युह]] है। | ||
आदर्श रूप से, भार माप के विचरण के गुणात्मक व्युत्क्रम के समकक्ष होना चाहिए। (इसका तात्पर्य यह है कि अवलोकन असंबद्ध हैं। यदि अवलोकन [[सहसंबद्ध]] हैं, | आदर्श रूप से, भार माप के विचरण के गुणात्मक व्युत्क्रम के समकक्ष होना चाहिए। (इसका तात्पर्य यह है कि अवलोकन असंबद्ध हैं। यदि अवलोकन [[सहसंबद्ध]] हैं, तब अभिव्यक्ति <math display="inline">S = \sum_k \sum_j r_k W_{kj} r_j\,</math> प्रयुक्त होता है. इस स्थितिे में भार आव्युह आदर्श रूप से अवलोकनों के विचरण-सहप्रसरण आव्युह के व्युत्क्रम के समकक्ष होना चाहिए)।<ref name=strutz/> | ||
सामान्य समीकरण तब हैं: | सामान्य समीकरण तब हैं: | ||
Line 68: | Line 68: | ||
तब | तब | ||
<math display="block">M^\beta = \left(X^\textsf{T} W X\right)^{-1} X^\textsf{T} W M W^\textsf{T} X \left(X^\textsf{T} W^\textsf{T} X\right)^{-1}.</math> | <math display="block">M^\beta = \left(X^\textsf{T} W X\right)^{-1} X^\textsf{T} W M W^\textsf{T} X \left(X^\textsf{T} W^\textsf{T} X\right)^{-1}.</math> | ||
जब {{math|1=''W'' = ''M''<sup>−1</sup>}}, | जब {{math|1=''W'' = ''M''<sup>−1</sup>}}, तब यह सहज हो जाता है | ||
<math display="block">M^\beta = \left(X^\textsf{T} W X\right)^{-1}.</math> | <math display="block">M^\beta = \left(X^\textsf{T} W X\right)^{-1}.</math> | ||
जब इकाई भार का उपयोग किया जाता है ({{math|1=''W'' = ''I''}}, अभिज्ञान आव्युह), यह निहित है कि प्रयोगात्मक त्रुटियां असंबद्ध हैं और समस्त समान हैं: {{math|1=''M'' = ''σ''<sup>2</sup>''I''}}, जिस स्थान पर {{math|''σ''<sup>2</sup>}} अवलोकन का प्राथमिक विचरण है। किसी भी स्थिति में, σ<sup>2</sup> का अनुमान [[कम ची-वर्ग]] <math>\chi^2_\nu</math> के माध्यम से लगाया जाता है | जब इकाई भार का उपयोग किया जाता है ({{math|1=''W'' = ''I''}}, अभिज्ञान आव्युह), यह निहित है कि प्रयोगात्मक त्रुटियां असंबद्ध हैं और समस्त समान हैं: {{math|1=''M'' = ''σ''<sup>2</sup>''I''}}, जिस स्थान पर {{math|''σ''<sup>2</sup>}} अवलोकन का प्राथमिक विचरण है। किसी भी स्थिति में, σ<sup>2</sup> का अनुमान [[कम ची-वर्ग]] <math>\chi^2_\nu</math> के माध्यम से लगाया जाता है | ||
Line 77: | Line 77: | ||
जिस स्थान पर S भारित उद्देश्य फलन का न्यूनतम मान है: | जिस स्थान पर S भारित उद्देश्य फलन का न्यूनतम मान है: | ||
<math display="block">S = r^\textsf{T} W r = \left\|W^\frac{1}{2}\left(\mathbf{y} - X\hat{\boldsymbol\beta}\right)\right\|^2.</math> | <math display="block">S = r^\textsf{T} W r = \left\|W^\frac{1}{2}\left(\mathbf{y} - X\hat{\boldsymbol\beta}\right)\right\|^2.</math> | ||
प्रत्येक, <math>\nu = n - m</math>, [[स्वतंत्रता की डिग्री (सांख्यिकी)|स्वतंत्रता की उपाधि (सांख्यिकी)]] की संख्या है; सहसंबंधित टिप्पणियों के | प्रत्येक, <math>\nu = n - m</math>, [[स्वतंत्रता की डिग्री (सांख्यिकी)|स्वतंत्रता की उपाधि (सांख्यिकी)]] की संख्या है; सहसंबंधित टिप्पणियों के स्थितिे में सामान्यीकरण के रूप मे स्वतंत्रता (सांख्यिकी) की प्रभावी उपाधि देखें। | ||
समस्त | समस्त स्थितियों में, पैरामीटर अनुमान <math>\hat\beta_i</math> का विचरण <math>M^\beta_{ii}</math> के माध्यम से प्रस्तुत गया है और पैरामीटर अनुमान <math>\hat\beta_i</math> और <math>\hat\beta_j</math> के मध्य [[सहप्रसरण]] <math>M^\beta_{ij}</math> के माध्यम से प्रस्तुत गया है। | ||
[[मानक विचलन]] विचरण <math>\sigma_i = \sqrt{M^\beta_{ii}}</math> का वर्गमूल है, और सहसंबंध गुणांक <math>\rho_{ij} = M^\beta_{ij}/(\sigma_i \sigma_j)</math> के माध्यम से प्रस्तुत गया है। ये त्रुटि अनुमान माप में मात्र यादृच्छिक त्रुटियों को दर्शाते हैं। मापदंडों में वास्तविक अनिश्चितता व्यवस्थित त्रुटियों की उपस्थिति के कारण दीर्घतर है, जिसे परिभाषा के अनुसार निर्धारित नहीं किया जा सकता है। ध्यान दें कि | [[मानक विचलन]] विचरण <math>\sigma_i = \sqrt{M^\beta_{ii}}</math> का वर्गमूल है, और सहसंबंध गुणांक <math>\rho_{ij} = M^\beta_{ij}/(\sigma_i \sigma_j)</math> के माध्यम से प्रस्तुत गया है। ये त्रुटि अनुमान माप में मात्र यादृच्छिक त्रुटियों को दर्शाते हैं। मापदंडों में वास्तविक अनिश्चितता व्यवस्थित त्रुटियों की उपस्थिति के कारण दीर्घतर है, जिसे परिभाषा के अनुसार निर्धारित नहीं किया जा सकता है। ध्यान दें कि तथापि अवलोकन असंबंधित हो सकते हैं, पैरामीटर सामान्यतः [[पियर्सन उत्पाद-क्षण सहसंबंध गुणांक|पियर्सन परिणाम महत्व सहसंबंध गुणांक(पीपीएमसीसी)]] होते हैं। | ||
===पैरामीटर विश्वास्यता सीमाएँ=== | ===पैरामीटर विश्वास्यता सीमाएँ=== | ||
{{Main article| विश्वास्यता अंतराल}} | {{Main article| विश्वास्यता अंतराल}} | ||
यह | यह अधिकांशतः किसी ठोस प्रमाण के अभाव में, किन्तु अधिकांशतः [[केंद्रीय सीमा प्रमेय]] के लिए स्वीकृत माना जाता है - [[सामान्य वितरण]] वृत्तांत और अनुप्रयोग देखें - कि प्रत्येक अवलोकन पर त्रुटि शून्य और मानक विचलन <math>\sigma</math> के मध्य सामान्य वितरण से संबंधित है। उस धारणा के अनुसार एकल अदिष्ट पैरामीटर अनुमान के लिए इसकी अनुमानित मानक त्रुटि <math>se_{\beta}</math> (सामान्य न्यूनतम वर्ग) के संदर्भ में निम्नलिखित संभावनाएं प्राप्त की जा सकती हैं: | ||
* 68% कि अंतराल <math>\hat\beta \pm se_\beta</math> वास्तविक गुणांक मान को समाहित करता है। | * 68% कि अंतराल <math>\hat\beta \pm se_\beta</math> वास्तविक गुणांक मान को समाहित करता है। | ||
* 95% कि अंतराल <math>\hat\beta \pm 2se_\beta</math> वास्तविक गुणांक मान को समाहित करता है। | * 95% कि अंतराल <math>\hat\beta \pm 2se_\beta</math> वास्तविक गुणांक मान को समाहित करता है। | ||
* 99% कि अंतराल <math>\hat\beta \pm 2.5se_\beta</math> वास्तविक गुणांक मान को समाहित करता है। | * 99% कि अंतराल <math>\hat\beta \pm 2.5se_\beta</math> वास्तविक गुणांक मान को समाहित करता है। | ||
जब n >> m हो | जब n >> m हो तब यह धारणा अनुचित नहीं है। यदि प्रयोगात्मक त्रुटियों को सामान्य रूप से वितरित किया जाता है तब पैरामीटर n-m उपाधि की स्वतंत्रता (सांख्यिकी) के साथ एक विद्यार्थी के टी-वितरण से संबंधित होंगे। जब n ≫ m विद्यार्थी का टी-वितरण सामान्य वितरण का अनुमान लगाता है। चूंकि, ध्यान दें कि ये विश्वास्यता सीमाएँ व्यवस्थित त्रुटि को ध्यान में नहीं रख सकती हैं। साथ ही, पैरामीटर त्रुटियों को मात्र महत्वपूर्ण अंक तक उद्धृत किया जाना चाहिए, क्योंकि वे [[नमूनाकरण त्रुटि]] के अधीन हैं।<ref>{{cite book |title=प्रायोगिक डेटा का सांख्यिकीय विश्लेषण|last=Mandel |first=John |year=1964 |publisher=Interscience |location=New York }}</ref> | ||
जब अवलोकनों की संख्या अपेक्षाकृत कम होती है, | जब अवलोकनों की संख्या अपेक्षाकृत कम होती है, तब प्रायोगिक त्रुटियों के वितरण के विषय में किसी भी धारणा का ध्यान दिए बिना, चेबीचेव की असमानता का उपयोग संभावनाओं की उच्चतर परिबंध के लिए किया जा सकता है: अधिकतम संभावनाएँ कि पैरामीटर 1, 2, या 3 मानक विचलन से अधिक होगा इसकी अपेक्षा से दूर मान क्रमशः 100%, 25% और 11% हैं। | ||
=== अवशिष्ट मान और सहसंबंध === | === अवशिष्ट मान और सहसंबंध === | ||
Line 107: | Line 107: | ||
जब <math>W = M^{-1}</math>, | जब <math>W = M^{-1}</math>, | ||
<math display="block">M^\mathbf{r} = (I - H) M.</math> | <math display="block">M^\mathbf{r} = (I - H) M.</math> | ||
जब भी आदर्श फलन में स्थिर पद होता है | जब भी आदर्श फलन में स्थिर पद होता है तब भारित अवशिष्ट मानों का योग शून्य के समकक्ष होता है। अवशिष्टों के लिए अभिव्यक्ति को X{{sup|T}} W{{sup|T}} से बाएँ ओर से गुणा करें: | ||
<math display="block">X^\textsf{T} W \hat{\mathbf r} = X^\textsf{T} W \mathbf{y} - X^\textsf{T} W X \hat{\boldsymbol{\beta}} = X^\textsf{T} W \mathbf{y} - \left(X^{\rm T}W X\right) \left(X^\textsf{T} W X\right)^{-1} X^\textsf{T} W \mathbf{y} = \mathbf{0}.</math> | <math display="block">X^\textsf{T} W \hat{\mathbf r} = X^\textsf{T} W \mathbf{y} - X^\textsf{T} W X \hat{\boldsymbol{\beta}} = X^\textsf{T} W \mathbf{y} - \left(X^{\rm T}W X\right) \left(X^\textsf{T} W X\right)^{-1} X^\textsf{T} W \mathbf{y} = \mathbf{0}.</math> | ||
उदाहरण के रूप मे, मान लें कि आदर्श का प्रथम पद स्थिरांक है | उदाहरण के रूप मे, मान लें कि आदर्श का प्रथम पद स्थिरांक है जिससेसमस्त i के लिए <math>X_{i1} = 1</math> है। उस स्थिति में यह उसका अनुसरण करता है | ||
<math display="block">\sum_i^m X_{i1} W_i\hat r_i = \sum_i^m W_i \hat r_i = 0.</math> | <math display="block">\sum_i^m X_{i1} W_i\hat r_i = \sum_i^m W_i \hat r_i = 0.</math> | ||
इस प्रकार, उपरोक्त प्रेरक उदाहरण में, यह तथ्य कि अवशिष्ट मानों का योग शून्य के समकक्ष है, यह आकस्मिक नहीं है, | इस प्रकार, उपरोक्त प्रेरक उदाहरण में, यह तथ्य कि अवशिष्ट मानों का योग शून्य के समकक्ष है, यह आकस्मिक नहीं है, किन्तु आदर्श में स्थिर पद, α की उपस्थिति का परिणाम है। | ||
यदि प्रयोगात्मक त्रुटि सामान्य वितरण का अनुसरण करती है, | यदि प्रयोगात्मक त्रुटि सामान्य वितरण का अनुसरण करती है, तब, अवशिष्टों और अवलोकनों के मध्य रैखिक संबंध के कारण, अवशिष्टों को भी ऐसा ही होना चाहिए,<ref>{{cite book |title=बहुभिन्नरूपी विश्लेषण|last=Mardia |first=K. V. |author2=Kent, J. T. |author3=Bibby, J. M. |year=1979 |publisher=Academic Press |location=New York |isbn=0-12-471250-9 }}</ref> किन्तु चूँकि अवलोकन समस्त संभावित अवलोकनों की जनसंख्या का एक नमूना मात्र हैं, इसलिए अवशिष्ट एक विद्यार्थी के टी-वितरण से संबंधित होने चाहिए। जब कोई विशेष अवशिष्ट अत्यधिक उच्चतर प्रतीत होता है तब विद्यार्थीकृत अवशिष्ट किसी बाह्य के रूप मे सांख्यिकीय परीक्षण करने में उपयोगी होते हैं। | ||
==यह भी देखें== | ==यह भी देखें== |
Revision as of 14:48, 13 July 2023
एक श्रृंखला का हिस्सा |
प्रतिगमन विश्लेषण |
---|
मॉडल |
अनुमान |
पार्श्वभूमि |
|
भारित न्यूनतम वर्ग (डब्ल्यूएलएस), जिसे भारित रैखिक प्रतिगमन के रूप में भी जाना जाता है,[1][2] सामान्य न्यूनतम वर्गों और रैखिक प्रतिगमन का सामान्यीकरण है, जिसमें अवलोकनों के असमान विचरण (विषमलैंगिकता) का ज्ञान प्रतिगमन में सम्मिलित किया जाता है। डब्लूएलएस भी सामान्यीकृत न्यूनतम वर्ग की विशेषज्ञता है, जब त्रुटियों के सहप्रसरण आव्युह की समस्त संवृत विकर्ण प्रविष्टियां शून्य होती हैं।
सूत्रीकरण
किसी डेटा बिंदु पर आदर्श की उपयुक्त को उसके अवशिष्ट , के माध्यम से मापा जाता है, जिसे आश्रित चर के मापीय मान , और आदर्श के माध्यम से अनुमानित मान , : के मध्य अंतर के रूप में परिभाषित किया गया है।
गॉस-मार्कोव प्रमेय से पता चलता है कि, जब ऐसा होता है, तब सर्वोत्तम रैखिक निष्पक्ष अनुमानक (सर्वोत्तम लीनियर निष्पक्ष अनुमानक) है।
गॉस-मार्कोव प्रमेय से पता चलता है कि, जब ऐसा है, सर्वोत्तम रैखिक निष्पक्ष अनुमानक (सर्वोत्तम लीनियर निष्पक्ष अनुमानक) है। चूंकि, यदि माप असंबंधित हैं। किन्तु अलग-अलग अनिश्चितताएँ हैं, तब एक संशोधित दृष्टिकोण ग्रहण किया जा सकता है। अलेक्जेंडर ऐटकेन ने दिखाया कि जब वर्ग अवशिष्टों का भारित योग न्यूनतम किया जाता है, तब 1 नीला होता है यदि प्रत्येक वजन माप के विचरण के व्युत्क्रम के अनुरूप होता है,
जब अवलोकन संबंधी त्रुटियां असंबंधित होती हैं और भार आव्युह, W=Ω−1, विकर्ण होता है, तब इन्हें इस प्रकार लिखा जा सकता है
जब त्रुटियां असंबंधित होती हैं, तब भार आव्युह को . के रूप में कारक करने के रूप मे गणना को सहज बनाना सुविधाजनक होता है। तत्पश्चात सामान्य समीकरणों को सामान्य न्यूनतम वर्गों के समान रूप में लिखा जा सकता है:
जिस स्थान पर हम निम्नलिखित चिह्नित आव्युह और सदिश को परिभाषित करते हैं:
अ-रेखीय न्यूनतम वर्ग प्रणालियों के रूप मे एक समान तर्क से ज्ञात होता है कि सामान्य समीकरणों को निम्नानुसार संशोधित किया जाना चाहिए।
यदि अवलोकनों की अनिश्चितता बाह्य स्रोतबं से ज्ञात नहीं है तब दिए गए अवलोकनों से भार का अनुमान लगाया जा सकता है। उदाहरण के रूप मे बाह्य प्रभाव की अभिज्ञान करने के रूप मे यह उपयोगी हो सकता है। डेटा समुच्चय से बाह्य प्रभाव निष्काषित कर जाने के पश्चात् भार को एक पर पुनः स्थापित किया जाना चाहिए।[3]
प्रेरणा
कुछ स्थितियों में टिप्पणियों को महत्व प्रस्तुत जा सकता है - उदाहरण के रूप मे , वे समान रूप से विश्वसनीय नहीं हो सकते हैं। इस स्थितिे में, कोई भी वर्गों के भारित योग को कम कर सकता है:
आदर्श रूप से, भार माप के विचरण के गुणात्मक व्युत्क्रम के समकक्ष होना चाहिए। (इसका तात्पर्य यह है कि अवलोकन असंबद्ध हैं। यदि अवलोकन सहसंबद्ध हैं, तब अभिव्यक्ति प्रयुक्त होता है. इस स्थितिे में भार आव्युह आदर्श रूप से अवलोकनों के विचरण-सहप्रसरण आव्युह के व्युत्क्रम के समकक्ष होना चाहिए)।[3]
सामान्य समीकरण तब हैं:
समाधान
पैरामीटर त्रुटियां और सहसंबंध
अनुमानित पैरामीटर मान प्रेक्षित मानों के रैखिक संयोजन हैं
तब
समस्त स्थितियों में, पैरामीटर अनुमान का विचरण के माध्यम से प्रस्तुत गया है और पैरामीटर अनुमान और के मध्य सहप्रसरण के माध्यम से प्रस्तुत गया है।
मानक विचलन विचरण का वर्गमूल है, और सहसंबंध गुणांक के माध्यम से प्रस्तुत गया है। ये त्रुटि अनुमान माप में मात्र यादृच्छिक त्रुटियों को दर्शाते हैं। मापदंडों में वास्तविक अनिश्चितता व्यवस्थित त्रुटियों की उपस्थिति के कारण दीर्घतर है, जिसे परिभाषा के अनुसार निर्धारित नहीं किया जा सकता है। ध्यान दें कि तथापि अवलोकन असंबंधित हो सकते हैं, पैरामीटर सामान्यतः पियर्सन परिणाम महत्व सहसंबंध गुणांक(पीपीएमसीसी) होते हैं।
पैरामीटर विश्वास्यता सीमाएँ
यह अधिकांशतः किसी ठोस प्रमाण के अभाव में, किन्तु अधिकांशतः केंद्रीय सीमा प्रमेय के लिए स्वीकृत माना जाता है - सामान्य वितरण वृत्तांत और अनुप्रयोग देखें - कि प्रत्येक अवलोकन पर त्रुटि शून्य और मानक विचलन के मध्य सामान्य वितरण से संबंधित है। उस धारणा के अनुसार एकल अदिष्ट पैरामीटर अनुमान के लिए इसकी अनुमानित मानक त्रुटि (सामान्य न्यूनतम वर्ग) के संदर्भ में निम्नलिखित संभावनाएं प्राप्त की जा सकती हैं:
- 68% कि अंतराल वास्तविक गुणांक मान को समाहित करता है।
- 95% कि अंतराल वास्तविक गुणांक मान को समाहित करता है।
- 99% कि अंतराल वास्तविक गुणांक मान को समाहित करता है।
जब n >> m हो तब यह धारणा अनुचित नहीं है। यदि प्रयोगात्मक त्रुटियों को सामान्य रूप से वितरित किया जाता है तब पैरामीटर n-m उपाधि की स्वतंत्रता (सांख्यिकी) के साथ एक विद्यार्थी के टी-वितरण से संबंधित होंगे। जब n ≫ m विद्यार्थी का टी-वितरण सामान्य वितरण का अनुमान लगाता है। चूंकि, ध्यान दें कि ये विश्वास्यता सीमाएँ व्यवस्थित त्रुटि को ध्यान में नहीं रख सकती हैं। साथ ही, पैरामीटर त्रुटियों को मात्र महत्वपूर्ण अंक तक उद्धृत किया जाना चाहिए, क्योंकि वे नमूनाकरण त्रुटि के अधीन हैं।[4]
जब अवलोकनों की संख्या अपेक्षाकृत कम होती है, तब प्रायोगिक त्रुटियों के वितरण के विषय में किसी भी धारणा का ध्यान दिए बिना, चेबीचेव की असमानता का उपयोग संभावनाओं की उच्चतर परिबंध के लिए किया जा सकता है: अधिकतम संभावनाएँ कि पैरामीटर 1, 2, या 3 मानक विचलन से अधिक होगा इसकी अपेक्षा से दूर मान क्रमशः 100%, 25% और 11% हैं।
अवशिष्ट मान और सहसंबंध
सांख्यिकी में त्रुटियाँ एवं अवशिष्ट किसके के माध्यम से किये गये प्रेक्षणों से सम्बन्धित हैं:
जब ,
यदि प्रयोगात्मक त्रुटि सामान्य वितरण का अनुसरण करती है, तब, अवशिष्टों और अवलोकनों के मध्य रैखिक संबंध के कारण, अवशिष्टों को भी ऐसा ही होना चाहिए,[5] किन्तु चूँकि अवलोकन समस्त संभावित अवलोकनों की जनसंख्या का एक नमूना मात्र हैं, इसलिए अवशिष्ट एक विद्यार्थी के टी-वितरण से संबंधित होने चाहिए। जब कोई विशेष अवशिष्ट अत्यधिक उच्चतर प्रतीत होता है तब विद्यार्थीकृत अवशिष्ट किसी बाह्य के रूप मे सांख्यिकीय परीक्षण करने में उपयोगी होते हैं।
यह भी देखें
- न्यूनतम वर्गों को पुनरावृत्त रूप से पुनः भारित किया गया
- विषमलैंगिकता-संगत मानक त्रुटियाँ
- भारित माध्य
संदर्भ
- ↑ "Weighted regression".
- ↑ "Visualize a weighted regression".
- ↑ 3.0 3.1 Strutz, T. (2016). "3". डेटा फिटिंग और अनिश्चितता (भारित न्यूनतम वर्ग और उससे आगे का व्यावहारिक परिचय). Springer Vieweg. ISBN 978-3-658-11455-8.
- ↑ Mandel, John (1964). प्रायोगिक डेटा का सांख्यिकीय विश्लेषण. New York: Interscience.
- ↑ Mardia, K. V.; Kent, J. T.; Bibby, J. M. (1979). बहुभिन्नरूपी विश्लेषण. New York: Academic Press. ISBN 0-12-471250-9.