दक्षता (सांख्यिकी): Difference between revisions
No edit summary |
|||
Line 1: | Line 1: | ||
{{short description|Quality measure of a statistical method}} | {{short description|Quality measure of a statistical method}} | ||
आंकड़ों में, दक्षता | आंकड़ों में, दक्षता अनुमानक की गुणवत्ता का माप है, प्रायोगिक डिजाइन का,{{sfn|Everitt|2002|p=128}} या [[परिकल्पना परीक्षण]] प्रक्रिया।<ref>{{SpringerEOM | title= Efficiency of a statistical procedure| id=E/e035080 | last=Nikulin | first=M.S.}}</ref> अनिवार्य रूप से, एक अधिक कुशल अनुमानक को क्रैमर-राव बाउंड को प्राप्त करने के लिए कम कुशल अनुमानक की तुलना में कम इनपुट डेटा या अवलोकन की आवश्यकता होती है। | ||
कुशल अनुमानक को सबसे छोटा संभावित विचरण होने की विशेषता है, यह दर्शाता है कि अनुमानित मूल्य और L2 मानक अर्थों में सही मूल्य के बीच छोटा [[विचलन (सांख्यिकी)]] है। {{sfn|Everitt|2002|p=128}} | |||
दो प्रक्रियाओं की सापेक्ष दक्षता उनकी दक्षताओं का अनुपात है, चूंकि अधिकांशतः इस अवधारणा का उपयोग किया जाता है जहां किसी दी गई प्रक्रिया और अनुमानित सर्वोत्तम संभव प्रक्रिया के बीच तुलना की जाती है। दो प्रक्रियाओं की दक्षता और सापेक्ष दक्षता सैद्धांतिक रूप से दी गई प्रक्रिया के लिए उपलब्ध नमूना आकार पर निर्भर करती है, लेकिन अधिकांशतः एसिम्प्टोटिक सापेक्ष दक्षता का उपयोग करना संभव होता है (नमूना आकार बढ़ने पर सापेक्ष क्षमता की सीमा के रूप में परिभाषित) प्रिंसिपल के रूप में तुलना उपाय है। | दो प्रक्रियाओं की सापेक्ष दक्षता उनकी दक्षताओं का अनुपात है, चूंकि अधिकांशतः इस अवधारणा का उपयोग किया जाता है जहां किसी दी गई प्रक्रिया और अनुमानित सर्वोत्तम संभव प्रक्रिया के बीच तुलना की जाती है। दो प्रक्रियाओं की दक्षता और सापेक्ष दक्षता सैद्धांतिक रूप से दी गई प्रक्रिया के लिए उपलब्ध नमूना आकार पर निर्भर करती है, लेकिन अधिकांशतः एसिम्प्टोटिक सापेक्ष दक्षता का उपयोग करना संभव होता है (नमूना आकार बढ़ने पर सापेक्ष क्षमता की सीमा के रूप में परिभाषित) प्रिंसिपल के रूप में तुलना उपाय है। | ||
== अनुमानक == | == अनुमानक == | ||
[[सांख्यिकीय पैरामीटर]] θ के अनुमानक आकलनकर्ता, T के पूर्वाग्रह की दक्षता को परिभाषित किया गया है <ref name=":1">{{cite journal|last1=Fisher|first1=R|title=सैद्धांतिक सांख्यिकी के गणितीय आधार पर|journal=Philosophical Transactions of the Royal Society of London A|date=1921|volume=222|pages=309–368|jstor=91208}}</ref> | |||
:<math> | :<math> | ||
e(T) | e(T) | ||
Line 14: | Line 14: | ||
\frac{1/\mathcal{I}(\theta)}{\operatorname{var}(T)} | \frac{1/\mathcal{I}(\theta)}{\operatorname{var}(T)} | ||
</math> | </math> | ||
जहाँ <math>\mathcal{I}(\theta)</math> नमूने की फिशर जानकारी है। इस प्रकार ई (T) | जहाँ <math>\mathcal{I}(\theta)</math> नमूने की फिशर जानकारी है। इस प्रकार ई (T) निष्पक्ष अनुमानक के लिए न्यूनतम संभव भिन्नता है जो इसके वास्तविक भिन्नता से विभाजित है। क्रैमर-राव बाउंड का उपयोग यह सिद्ध करने के लिए किया जा सकता है कि e (T) ≤ 1। | ||
=== कुशल अनुमानक === | === कुशल अनुमानक === | ||
कुशल अनुमानक एक अनुमानक है जो कुछ "सर्वोत्तम संभव" विधियों से ब्याज की मात्रा का अनुमान लगाता है। "सर्वश्रेष्ठ संभव" की धारणा विशेष हानि फलन की पसंद पर निर्भर करती है - वह कार्य जो विभिन्न परिमाणों की अनुमान त्रुटियों की अवांछनीयता की सापेक्ष डिग्री को मापता है। हानि फलन का सबसे सामान्य विकल्प द्विघात हानि फलन है, जिसके परिणामस्वरूप इष्टतमता का औसत चुकता त्रुटि मानदंड होता है।{{sfn|Everitt|2002|p=[https://archive.org/details/cambridgediction00ever/page/n135 128]}} | |||
सामान्यतः, पैरामीटर θ के आसपास | सामान्यतः, पैरामीटर θ के आसपास अनुमानक का प्रसार अनुमानक दक्षता और प्रदर्शन का उपाय है। इस प्रदर्शन की गणना माध्य चुकता त्रुटि का पता लगाकर की जा सकती है। अधिक औपचारिक रूप से, T को पैरामीटर θ के लिए अनुमानक होने दें। T का माध्य चुकता त्रुटि मान है <math>\operatorname{MSE}(T)=E[(T-\theta)^2]</math>, जिसे इसके विचरण और पूर्वाग्रह के योग के रूप में विघटित किया जा सकता है: | ||
:<math> | :<math> | ||
Line 28: | Line 28: | ||
\end{align} | \end{align} | ||
</math> | </math> | ||
अनुमानक T<sub>1</sub> अनुमानक T<sub>2</sub> से अच्छा प्रदर्शन करता है अगर <math> \operatorname{MSE}(T_1) < \operatorname{MSE}(T_2)</math>.<ref name=":0">{{Cite book|title=A Modern Introduction to Probability and Statistics: Understanding Why and How|url=https://archive.org/details/modernintroducti00dekk_722|url-access=limited|last=Dekking|first=F.M.|publisher=Springer|year=2007|isbn=978-1852338961|pages=[https://archive.org/details/modernintroducti00dekk_722/page/n307 303]–305}}</ref> अधिक विशिष्ट स्थितियों के लिए, यदि T<sub>1</sub> और T<sub>2</sub> एक ही पैरामीटर θ के लिए दो निष्पक्ष अनुमानक हैं, तो प्रदर्शन निर्धारित करने के लिए भिन्नता की तुलना की जा सकती है। इस स्थितियों में T<sub>2</sub> T<sub>1</sub> से अधिक कुशल है यदि <sub>2</sub> का विचरण <sub>1</sub> के विचरण से छोटा है, अर्थात। <math>\operatorname{var}(T_1)>\operatorname{var}(T_2)</math> θ के सभी मूल्यों के लिए। माध्य चुकता त्रुटि के लिए ऊपर दिए गए अधिक सामान्य स्थितियों को सरल करके इस संबंध को निर्धारित किया जा सकता है; चूंकि निष्पक्ष अनुमानक का अपेक्षित मान पैरामीटर मान के बराबर है, <math>\operatorname E[T]=\theta</math>. इसलिए, | अनुमानक T<sub>1</sub> अनुमानक T<sub>2</sub> से अच्छा प्रदर्शन करता है अगर <math> \operatorname{MSE}(T_1) < \operatorname{MSE}(T_2)</math>.<ref name=":0">{{Cite book|title=A Modern Introduction to Probability and Statistics: Understanding Why and How|url=https://archive.org/details/modernintroducti00dekk_722|url-access=limited|last=Dekking|first=F.M.|publisher=Springer|year=2007|isbn=978-1852338961|pages=[https://archive.org/details/modernintroducti00dekk_722/page/n307 303]–305}}</ref> अधिक विशिष्ट स्थितियों के लिए, यदि T<sub>1</sub> और T<sub>2</sub> एक ही पैरामीटर θ के लिए दो निष्पक्ष अनुमानक हैं, तो प्रदर्शन निर्धारित करने के लिए भिन्नता की तुलना की जा सकती है। इस स्थितियों में T<sub>2</sub> T<sub>1</sub> से अधिक कुशल है यदि <sub>2</sub> का विचरण <sub>1</sub> के विचरण से छोटा है, अर्थात। <math>\operatorname{var}(T_1)>\operatorname{var}(T_2)</math> θ के सभी मूल्यों के लिए। माध्य चुकता त्रुटि के लिए ऊपर दिए गए अधिक सामान्य स्थितियों को सरल करके इस संबंध को निर्धारित किया जा सकता है; चूंकि निष्पक्ष अनुमानक का अपेक्षित मान पैरामीटर मान के बराबर है, <math>\operatorname E[T]=\theta</math>. इसलिए, निष्पक्ष अनुमानक के लिए, <math>\operatorname{MSE}(T)=\operatorname{var}(T)</math>, के रूप में <math>(\operatorname E[T]-\theta)^2</math> टर्म 0 के बराबर होने के लिए बाहर हो जाता है।<ref name=":0" /> | ||
यदि | यदि पैरामीटर θ का [[अनुमानक पूर्वाग्रह]] अनुमानक प्राप्त करता है <math>e(T) = 1</math> पैरामीटर के सभी मूल्यों के लिए, अनुमानक को कुशल कहा जाता है।<ref name=":1" /> | ||
समान रूप से, अनुमानक सभी θ के लिए क्रैमर-राव असमानता में समानता प्राप्त करता है। | समान रूप से, अनुमानक सभी θ के लिए क्रैमर-राव असमानता में समानता प्राप्त करता है। क्रैमर-राव लोअर बाउंड निष्पक्ष अनुमानक के प्रसरण का निचला बाउंड है, जो निष्पक्ष अनुमानक का सबसे अच्छा प्रतिनिधित्व कर सकता है। | ||
कुशल अनुमानक भी न्यूनतम भिन्नता निष्पक्ष अनुमानक (एमवीयूई) है। ऐसा इसलिए है क्योंकि कुशल अनुमानक सभी पैरामीटर मानों के लिए क्रैमर-राव असमानता पर समानता बनाए रखता है, जिसका अर्थ है कि यह सभी मापदंडों (एमवीयूई की परिभाषा) के लिए न्यूनतम भिन्नता प्राप्त करता है। एमवीयूई अनुमानक, भले ही यह उपस्थित है, आवश्यक रूप से कुशल नहीं है, क्योंकि न्यूनतम का मतलब क्रैमर-राव असमानता पर समानता नहीं है। | |||
इस प्रकार | इस प्रकार कुशल अनुमानक के उपस्थित होने की आवश्यकता नहीं है, लेकिन यदि ऐसा होता है, तो यह एमवीयूई है। | ||
==== परिमित-नमूना दक्षता ==== | ==== परिमित-नमूना दक्षता ==== | ||
कल्पना करना {{nowrap|{ ''P<sub>θ</sub>'' {{!}} ''θ'' ∈ Θ }}} | कल्पना करना {{nowrap|{ ''P<sub>θ</sub>'' {{!}} ''θ'' ∈ Θ }}} [[पैरामीट्रिक मॉडल]] है और {{nowrap|1=''X'' = (''X''<sub>1</sub>, …, ''X<sub>n</sub>'')}} इस मॉडल से लिए गए डेटा हैं। होने देना {{nowrap|1=''T'' = ''T''(''X'')}} पैरामीटर θ के लिए अनुमानक बनें। यदि यह अनुमानक एक अनुमानक का पूर्वाग्रह है (अर्थात, {{nowrap|1=E[ ''T'' ] = ''θ''}}), तो क्रैमर-राव असमानता बताती है कि इस अनुमानक का प्रसरण नीचे से घिरा हुआ है: | ||
: <math> | : <math> | ||
\operatorname{var}[\,T\,]\ \geq\ \mathcal{I}_\theta^{-1}, | \operatorname{var}[\,T\,]\ \geq\ \mathcal{I}_\theta^{-1}, | ||
</math> | </math> | ||
कहाँ <math>\scriptstyle\mathcal{I}_\theta</math> बिंदु θ पर मॉडल का [[फिशर सूचना मैट्रिक्स]] है। सामान्यतः, विचरण अपने मतलब के आसपास | कहाँ <math>\scriptstyle\mathcal{I}_\theta</math> बिंदु θ पर मॉडल का [[फिशर सूचना मैट्रिक्स]] है। सामान्यतः, विचरण अपने मतलब के आसपास यादृच्छिक चर के फैलाव की डिग्री को मापता है। इस प्रकार छोटे प्रसरण वाले अनुमानक अधिक केंद्रित होते हैं, वे मापदंडों का अधिक सही अनुमान लगाते हैं। हम कहते हैं कि अनुमानक 'परिमित-नमूना कुशल अनुमानक' है (निष्पक्ष अनुमानकों के वर्ग में) यदि यह उपरोक्त क्रैमर-राव असमानता में निचली सीमा तक पहुँचता है, सभी के लिए {{nowrap|''θ'' ∈ Θ}}. कुशल अनुमानक हमेशा [[न्यूनतम-विचरण निष्पक्ष अनुमानक]] होते हैं। चूंकि इसका विलोम असत्य है: वहाँ बिंदु-अनुमान समस्याएँ उपस्थित हैं जिनके लिए न्यूनतम-विचरण माध्य-निष्पक्ष अनुमानक अक्षम है।<ref>{{cite book | ||
| last1 = Romano | first1 = Joseph P. | | last1 = Romano | first1 = Joseph P. | ||
| last2 = Siegel | first2 = Andrew F. | | last2 = Siegel | first2 = Andrew F. | ||
Line 53: | Line 53: | ||
ऐतिहासिक रूप से, परिमित-नमूना दक्षता प्रारंभिक इष्टतमता मानदंड था। चूंकि इस मानदंड की कुछ सीमाएँ हैं: | ऐतिहासिक रूप से, परिमित-नमूना दक्षता प्रारंभिक इष्टतमता मानदंड था। चूंकि इस मानदंड की कुछ सीमाएँ हैं: | ||
* परिमित-नमूना कुशल अनुमानक अत्यंत दुर्लभ हैं। वास्तव में, यह सिद्ध हो गया था कि कुशल अनुमान केवल | * परिमित-नमूना कुशल अनुमानक अत्यंत दुर्लभ हैं। वास्तव में, यह सिद्ध हो गया था कि कुशल अनुमान केवल [[घातीय परिवार]] में ही संभव है, और केवल उस परिवार के प्राकृतिक मापदंडों के लिए।<ref>{{Cite book |last=Van Trees |first=Harry L. |url=https://www.worldcat.org/oclc/851161356 |title=जांच अनुमान और मॉडुलन सिद्धांत।|date=2013 |others=Kristine L. Bell, Zhi Tian |isbn=1-299-66515-2 |edition=Second |location=Hoboken, N.J. |oclc=851161356}}</ref> | ||
* दक्षता की यह धारणा कभी-कभी अनुमानक आकलनकर्ताओं के पूर्वाग्रह के वर्ग तक ही सीमित होती है। (अधिकांशतः ऐसा नहीं होता है।<ref>{{cite book |last1=DeGroot |last2=Schervish |title=प्रायिकता अौर सांख्यिकी|edition=3rd |year=2002 |pages=440–441 }}</ref>) चूंकि अनुमान लगाने वालों के निष्पक्ष होने की आवश्यकता के लिए कोई अच्छा सैद्धांतिक कारण नहीं है, यह प्रतिबंध असुविधाजनक है। वास्तव में, यदि हम | * दक्षता की यह धारणा कभी-कभी अनुमानक आकलनकर्ताओं के पूर्वाग्रह के वर्ग तक ही सीमित होती है। (अधिकांशतः ऐसा नहीं होता है।<ref>{{cite book |last1=DeGroot |last2=Schervish |title=प्रायिकता अौर सांख्यिकी|edition=3rd |year=2002 |pages=440–441 }}</ref>) चूंकि अनुमान लगाने वालों के निष्पक्ष होने की आवश्यकता के लिए कोई अच्छा सैद्धांतिक कारण नहीं है, यह प्रतिबंध असुविधाजनक है। वास्तव में, यदि हम चयन मानदंड के रूप में माध्य चुकता त्रुटि का उपयोग करते हैं, तो कई पक्षपाती अनुमानक "सर्वश्रेष्ठ" निष्पक्ष लोगों से थोड़ा अच्छा प्रदर्शन करेंगे। उदाहरण के लिए, आयाम तीन या अधिक के लिए बहुभिन्नरूपी आँकड़ों में, माध्य-निष्पक्ष अनुमानक, [[नमूना माध्य]], [[स्वीकार्य प्रक्रिया]] है: परिणाम के बावजूद, इसका प्रदर्शन उदाहरण के लिए जेम्स-स्टीन अनुमानक से भी ख़राब है। | ||
* परिमित-नमूना दक्षता भिन्नता पर आधारित है, | * परिमित-नमूना दक्षता भिन्नता पर आधारित है, मानदंड के रूप में जिसके अनुसार अनुमानकों को आंका जाता है। द्विघात कार्यों के अलावा हानि कार्यों का उपयोग करने के लिए एक अधिक सामान्य दृष्टिकोण है, जिस स्थिति में परिमित-नमूना दक्षता अब तैयार नहीं की जा सकती है। | ||
उदाहरण के रूप में, व्यवहार में आने वाले मॉडलों में, कुशल अनुमानक उपस्थित हैं: [[सामान्य वितरण]] का औसत μ (लेकिन भिन्नता σ नहीं)<sup>2</sup>), प्वासों बंटन का पैरामीटर λ, द्विपद बंटन या बहुपद बंटन में प्रायिकता p है। | |||
अज्ञात माध्य लेकिन ज्ञात विचरण के साथ सामान्य वितरण के मॉडल पर विचार करें: {{nowrap|1={ ''P<sub>θ</sub>'' = ''N''(''θ'', ''σ''<sup>2</sup>) {{!}} ''θ'' ∈ '''R''' }.}} डेटा में इस मॉडल से n [[स्वतंत्र और समान रूप से वितरित]] अवलोकन सम्मिलित हैं: {{nowrap|1=''X'' = (''x''<sub>1</sub>, …, ''x<sub>n</sub>'')}}. हम सभी अवलोकनों के नमूना माध्य का उपयोग करके पैरामीटर θ का अनुमान लगाते हैं: | अज्ञात माध्य लेकिन ज्ञात विचरण के साथ सामान्य वितरण के मॉडल पर विचार करें: {{nowrap|1={ ''P<sub>θ</sub>'' = ''N''(''θ'', ''σ''<sup>2</sup>) {{!}} ''θ'' ∈ '''R''' }.}} डेटा में इस मॉडल से n [[स्वतंत्र और समान रूप से वितरित]] अवलोकन सम्मिलित हैं: {{nowrap|1=''X'' = (''x''<sub>1</sub>, …, ''x<sub>n</sub>'')}}. हम सभी अवलोकनों के नमूना माध्य का उपयोग करके पैरामीटर θ का अनुमान लगाते हैं: | ||
Line 69: | Line 69: | ||
==== उदाहरण: माध्यिका | ==== उदाहरण: माध्यिका==== | ||
आकार के | आकार के नमूने पर विचार करें <math>N</math> माध्य के सामान्य वितरण से निकाला गया <math>\mu</math> और इकाई विचरण, यानी, <math>X_n \sim \mathcal{N}(\mu, 1).</math> | ||
नमूना मतलब, <math>\overline{X}</math>, नमूने का <math>X_1, X_2, \ldots, X_N</math>, के रूप में परिभाषित | नमूना मतलब, <math>\overline{X}</math>, नमूने का <math>X_1, X_2, \ldots, X_N</math>, के रूप में परिभाषित | ||
Line 78: | Line 78: | ||
माध्य का प्रसरण, 1/N ([[मानक त्रुटि]] का वर्ग) नमूना से फिशर जानकारी के व्युत्क्रम के बराबर है और इस प्रकार, क्रैमर-राव असमानता द्वारा, नमूना माध्य इस अर्थ में कुशल है कि इसकी दक्षता एकता (100%) है। | माध्य का प्रसरण, 1/N ([[मानक त्रुटि]] का वर्ग) नमूना से फिशर जानकारी के व्युत्क्रम के बराबर है और इस प्रकार, क्रैमर-राव असमानता द्वारा, नमूना माध्य इस अर्थ में कुशल है कि इसकी दक्षता एकता (100%) है। | ||
अब [[नमूना माध्यिका]] पर विचार करें, <math>\widetilde{X}</math>. यह | अब [[नमूना माध्यिका]] पर विचार करें, <math>\widetilde{X}</math>. यह अनुमानक पूर्वाग्रह और संगत अनुमानक आकलनकर्ता है <math>\mu</math>. बड़े के लिए <math>N</math> नमूना माध्य माध्य के साथ लगभग सामान्य वितरण है <math>\mu</math> और विचरण <math>{\pi}/{2N},</math>है<ref>{{cite book |last=Williams |first=D. |year=2001 |title=बाधाओं का वजन|url=https://archive.org/details/weighingoddscour00will |url-access=limited |publisher=Cambridge University Press |isbn=052100618X |page=[https://archive.org/details/weighingoddscour00will/page/n187 165]}}</ref> | ||
:<math>\widetilde{X} \sim \mathcal{N} \left(\mu, \frac \pi {2N}\right).</math> | :<math>\widetilde{X} \sim \mathcal{N} \left(\mu, \frac \pi {2N}\right).</math> | ||
बड़े के लिए माध्यिका की दक्षता <math>N</math> इस प्रकार है | बड़े के लिए माध्यिका की दक्षता <math>N</math> इस प्रकार है | ||
Line 86: | Line 86: | ||
दूसरे शब्दों में, माध्यिका का आपेक्षिक प्रसरण होगा <math>\pi/2 \approx 1.57</math>, या माध्य के विचरण से 57% अधिक - माध्यिका की मानक त्रुटि माध्य से 25% अधिक होगी।<ref>{{Cite book|last1=Maindonald|first1=John|url=https://books.google.com/books?id=8bMj8m-4RDQC&pg=PA104|title=Data Analysis and Graphics Using R: An Example-Based Approach|last2=Braun|first2=W. John|date=2010-05-06|publisher=Cambridge University Press|isbn=978-1-139-48667-5|pages=104|language=en}}</ref> | दूसरे शब्दों में, माध्यिका का आपेक्षिक प्रसरण होगा <math>\pi/2 \approx 1.57</math>, या माध्य के विचरण से 57% अधिक - माध्यिका की मानक त्रुटि माध्य से 25% अधिक होगी।<ref>{{Cite book|last1=Maindonald|first1=John|url=https://books.google.com/books?id=8bMj8m-4RDQC&pg=PA104|title=Data Analysis and Graphics Using R: An Example-Based Approach|last2=Braun|first2=W. John|date=2010-05-06|publisher=Cambridge University Press|isbn=978-1-139-48667-5|pages=104|language=en}}</ref> | ||
ध्यान दें कि यह स्पर्शोन्मुख दक्षता है - अर्थात, नमूना आकार के रूप में सीमा में दक्षता <math>N</math> अनंत की ओर जाता है। के परिमित मूल्यों के लिए <math>N,</math> दक्षता इससे अधिक है (उदाहरण के लिए, 3 का | ध्यान दें कि यह स्पर्शोन्मुख दक्षता है - अर्थात, नमूना आकार के रूप में सीमा में दक्षता <math>N</math> अनंत की ओर जाता है। के परिमित मूल्यों के लिए <math>N,</math> दक्षता इससे अधिक है (उदाहरण के लिए, 3 का नमूना आकार लगभग 74% की दक्षता देता है) | ||
इस प्रकार नमूना माध्य इस उदाहरण में नमूना माध्यिका से अधिक कुशल है। चूंकि, ऐसे उपाय हो सकते हैं जिनके द्वारा माध्यिका अच्छा प्रदर्शन करती है। उदाहरण के लिए, माध्यिका [[ग़ैर]] के लिए कहीं अधिक मजबूत है, इसलिए यदि गॉसियन मॉडल संदिग्ध या अनुमानित है, तो माध्यिका का उपयोग करने के फायदे हो सकते हैं (मजबूत आंकड़े देखें)। | इस प्रकार नमूना माध्य इस उदाहरण में नमूना माध्यिका से अधिक कुशल है। चूंकि, ऐसे उपाय हो सकते हैं जिनके द्वारा माध्यिका अच्छा प्रदर्शन करती है। उदाहरण के लिए, माध्यिका [[ग़ैर]] के लिए कहीं अधिक मजबूत है, इसलिए यदि गॉसियन मॉडल संदिग्ध या अनुमानित है, तो माध्यिका का उपयोग करने के फायदे हो सकते हैं (मजबूत आंकड़े देखें)। | ||
Line 113: | Line 113: | ||
= \frac{\operatorname{var}(T_2)}{\operatorname{var}(T_1)} | = \frac{\operatorname{var}(T_2)}{\operatorname{var}(T_1)} | ||
</math> | </math> | ||
यद्यपि <math>e</math> का | यद्यपि <math>e</math> का कार्य <math>\theta</math> है कई स्थितियों में निर्भरता समाप्त हो जाती है; अगर ऐसा है, <math>e</math> एक से बड़ा होने का अर्थ यह होगा <math>T_1</math> के सही मूल्य की परवाह किए बिना <math>\theta</math> अच्छा है | ||
आकलनकर्ताओं की तुलना करने के लिए सापेक्ष दक्षता का | आकलनकर्ताओं की तुलना करने के लिए सापेक्ष दक्षता का विकल्प, पिटमैन निकटता कसौटी है। यह माध्य-वर्ग-त्रुटियों की तुलना को इस तुलना के साथ प्रतिस्थापित करता है कि एक अनुमानक किसी अन्य अनुमानक की तुलना में कितनी बार वास्तविक मान के समीप अनुमान उत्पन्न करता है। | ||
अगर <math>T_1</math> और <math>T_2</math> पैरामीटर के लिए अनुमानक हैं <math>\theta</math>, तब <math>T_1</math> हावी निर्णय नियम कहा जाता है <math>T_2</math> अगर: | अगर <math>T_1</math> और <math>T_2</math> पैरामीटर के लिए अनुमानक हैं <math>\theta</math>, तब <math>T_1</math> हावी निर्णय नियम कहा जाता है <math>T_2</math> अगर: | ||
Line 144: | Line 144: | ||
=== मजबूती === | === मजबूती === | ||
यदि वितरण बदलता है, अधिकांशतः गिर रहा है, तो अनुमानक की दक्षता महत्वपूर्ण रूप से बदल सकती है। यह मजबूत आँकड़ों की प्रेरणाओं में से एक है - | यदि वितरण बदलता है, अधिकांशतः गिर रहा है, तो अनुमानक की दक्षता महत्वपूर्ण रूप से बदल सकती है। यह मजबूत आँकड़ों की प्रेरणाओं में से एक है - अनुमानक जैसे नमूना माध्य सामान्य वितरण के जनसंख्या माध्य का कुशल अनुमानक है, लेकिन समान के साथ दो सामान्य वितरणों के [[मिश्रण वितरण]] का अक्षम अनुमानक हो सकता है। माध्य और भिन्न उदाहरण के लिए, यदि कोई वितरण 98% N(μ, σ) और 2% N(μ, 10σ) का संयोजन है, तो बाद वाले वितरण से अत्यधिक मूल्यों की उपस्थिति (अधिकांशतः दूषित आउटलेयर) नमूना माध्य की दक्षता को बहुत कम कर देता है μ के अनुमानक के रूप में। इसके विपरीत, सामान्य वितरण के लिए छोटा माध्य कम कुशल है, लेकिन वितरण में परिवर्तन से अधिक मजबूत (यानी, कम प्रभावित) है, और इस प्रकार मिश्रण वितरण के लिए अधिक कुशल हो सकता है। इसी तरह, [[संभाव्यता वितरण का आकार]], जैसे [[तिरछापन]] या भारी-पुच्छ वितरण, उन अनुमानकों की दक्षता को काफी कम कर सकता है जो सममित वितरण या पतली पूंछ मानते हैं। | ||
=== अक्षम अनुमानकों का उपयोग === | === अक्षम अनुमानकों का उपयोग === | ||
{{further|एल-अनुमानक # अनुप्रयोग}} | {{further|एल-अनुमानक # अनुप्रयोग}} | ||
जबकि दक्षता | जबकि दक्षता [[अनुमानक]] का वांछनीय गुण है, इसे अन्य विचारों के विरुद्ध तौला जाना चाहिए, और अनुमानक जो कुछ वितरणों के लिए कुशल है, अन्य वितरणों के लिए अक्षम हो सकता है। सबसे महत्वपूर्ण रूप से, अनुमानक जो साधारण वितरण से साफ डेटा के लिए कुशल हैं, जैसे कि सामान्य वितरण (जो सममित, असमान और पतली पूंछ है) आउटलेयर द्वारा संदूषण के लिए मजबूत नहीं हो सकते हैं, और अधिक जटिल वितरण के लिए अक्षम हो सकते हैं। मजबूत आँकड़ों में, एकल वितरण पर दक्षता के अतिरिक्त वितरण की विस्तृत विविधता के लिए मजबूती और प्रयोज्यता पर अधिक महत्व दिया जाता है। एम-अनुमानक इन चिंताओं से प्रेरित समाधानों का सामान्य वर्ग है, जो मजबूती और उच्च सापेक्ष दक्षता दोनों प्रदान करता है, चूंकि कुछ स्थितियों के लिए पारंपरिक अनुमानकों की तुलना में संभवतः कम दक्षता है। चूंकि, ये संभावित रूप से बहुत कम्प्यूटेशनल रूप से जटिल हैं। | ||
एक अधिक पारंपरिक विकल्प एल-अनुमानक हैं, जो बहुत ही सरल आँकड़े हैं जो गणना और व्याख्या करने में आसान होते हैं, कई स्थितियों में मजबूत होते हैं, और प्रारंभिक अनुमानों के लिए अधिकांशतः पर्याप्त रूप से कुशल होते हैं। आगे की चर्चा के लिए | एक अधिक पारंपरिक विकल्प एल-अनुमानक हैं, जो बहुत ही सरल आँकड़े हैं जो गणना और व्याख्या करने में आसान होते हैं, कई स्थितियों में मजबूत होते हैं, और प्रारंभिक अनुमानों के लिए अधिकांशतः पर्याप्त रूप से कुशल होते हैं। आगे की चर्चा के लिए अनुप्रयोग एल-अनुमानक के अनुप्रयोग देखें। | ||
=== आँकड़ों में दक्षता === | === आँकड़ों में दक्षता === | ||
आँकड़ों में दक्षता महत्वपूर्ण है क्योंकि वे विभिन्न अनुमानकों के प्रदर्शन की तुलना करने की अनुमति देते हैं। चूंकि | आँकड़ों में दक्षता महत्वपूर्ण है क्योंकि वे विभिन्न अनुमानकों के प्रदर्शन की तुलना करने की अनुमति देते हैं। चूंकि निष्पक्ष अनुमानक सामन्रयता पक्षपाती के पक्ष में होता है, एक अधिक कुशल पक्षपाती अनुमानक कभी-कभी कम कुशल निष्पक्ष अनुमानक की तुलना में अधिक मूल्यवान हो सकता है। उदाहरण के लिए, यह तब हो सकता है जब पक्षपाती अनुमानक के मान वास्तविक मान के समीप संख्या के आसपास इकट्ठा होते हैं। इस प्रकार, अनुमानक के प्रदर्शन का अनुमान उनकी माध्य चुकता त्रुटियों या भिन्नताओं की तुलना करके आसानी से लगाया जा सकता है। | ||
== परिकल्पना परीक्षण == | == परिकल्पना परीक्षण == | ||
[[महत्व परीक्षण]]ों की तुलना करने के लिए, किसी दिए गए कार्य [[सांख्यिकीय शक्ति]] को प्राप्त करने के लिए परीक्षण के लिए आवश्यक नमूना आकार के आधार पर दक्षता का | [[महत्व परीक्षण]]ों की तुलना करने के लिए, किसी दिए गए कार्य [[सांख्यिकीय शक्ति]] को प्राप्त करने के लिए परीक्षण के लिए आवश्यक नमूना आकार के आधार पर दक्षता का सार्थक उपाय परिभाषित किया जा सकता है।{{sfn|Everitt|2002|p=321}} | ||
[[पिटमैन दक्षता]]<ref>{{SpringerEOM | title=Efficiency, asymptotic | id=E/e035070 | last=Nikitin | first=Ya.Yu.}}</ref> और [[बहादुर दक्षता]] (या हॉजेस-लेहमन दक्षता)<ref>{{cite web | url=https://www.encyclopediaofmath.org/index.php/Bahadur_efficiency | title=Bahadur efficiency - Encyclopedia of Mathematics }}</ref><ref>Arcones M. A. [http://www.math.binghamton.edu/arcones/prep/pv.pdf "Bahadur efficiency of the likelihood ratio test"] preprint</ref><ref>Canay I. A. & Otsu, T. [http://faculty.wcas.northwestern.edu/~iac879/wp/HL.pdf "Hodges–Lehmann Optimality for Testing Moment Condition Models"]</ref> [[सांख्यिकीय परिकल्पना परीक्षण]] प्रक्रियाओं के प्रदर्शन की तुलना से संबंधित हैं। गणित का विश्वकोश इन तीन मानदंडों का [http://www.encyclopediaofmath.org/index.php/Efficiency,_asymptotic संक्षिप्त विवरण] प्रदान करता है। | [[पिटमैन दक्षता]]<ref>{{SpringerEOM | title=Efficiency, asymptotic | id=E/e035070 | last=Nikitin | first=Ya.Yu.}}</ref> और [[बहादुर दक्षता]] (या हॉजेस-लेहमन दक्षता)<ref>{{cite web | url=https://www.encyclopediaofmath.org/index.php/Bahadur_efficiency | title=Bahadur efficiency - Encyclopedia of Mathematics }}</ref><ref>Arcones M. A. [http://www.math.binghamton.edu/arcones/prep/pv.pdf "Bahadur efficiency of the likelihood ratio test"] preprint</ref><ref>Canay I. A. & Otsu, T. [http://faculty.wcas.northwestern.edu/~iac879/wp/HL.pdf "Hodges–Lehmann Optimality for Testing Moment Condition Models"]</ref> [[सांख्यिकीय परिकल्पना परीक्षण]] प्रक्रियाओं के प्रदर्शन की तुलना से संबंधित हैं। गणित का विश्वकोश इन तीन मानदंडों का [http://www.encyclopediaofmath.org/index.php/Efficiency,_asymptotic संक्षिप्त विवरण] प्रदान करता है। | ||
Line 164: | Line 164: | ||
{{further|इष्टतम डिजाइन}} | {{further|इष्टतम डिजाइन}} | ||
प्रायोगिक डिजाइनों के लिए, दक्षता समय और धन जैसे संसाधनों के न्यूनतम व्यय के साथ अध्ययन के उद्देश्य को प्राप्त करने के लिए | प्रायोगिक डिजाइनों के लिए, दक्षता समय और धन जैसे संसाधनों के न्यूनतम व्यय के साथ अध्ययन के उद्देश्य को प्राप्त करने के लिए डिजाइन की क्षमता से संबंधित है। सरल स्थितियों में, डिज़ाइन की सापेक्ष दक्षता को किसी दिए गए उद्देश्य को प्राप्त करने के लिए आवश्यक नमूना आकार के अनुपात के रूप में व्यक्त किया जा सकता है।<ref name=":2">{{cite book |last=Dodge |first=Y. |year=2006 |title=द ऑक्सफोर्ड डिक्शनरी ऑफ स्टैटिस्टिकल टर्म्स|publisher=Oxford University Press |isbn=0-19-920613-9 |url-access=registration |url=https://archive.org/details/oxforddictionary0000unse }}</ref> | ||
Revision as of 00:47, 29 March 2023
आंकड़ों में, दक्षता अनुमानक की गुणवत्ता का माप है, प्रायोगिक डिजाइन का,[1] या परिकल्पना परीक्षण प्रक्रिया।[2] अनिवार्य रूप से, एक अधिक कुशल अनुमानक को क्रैमर-राव बाउंड को प्राप्त करने के लिए कम कुशल अनुमानक की तुलना में कम इनपुट डेटा या अवलोकन की आवश्यकता होती है।
कुशल अनुमानक को सबसे छोटा संभावित विचरण होने की विशेषता है, यह दर्शाता है कि अनुमानित मूल्य और L2 मानक अर्थों में सही मूल्य के बीच छोटा विचलन (सांख्यिकी) है। [1]
दो प्रक्रियाओं की सापेक्ष दक्षता उनकी दक्षताओं का अनुपात है, चूंकि अधिकांशतः इस अवधारणा का उपयोग किया जाता है जहां किसी दी गई प्रक्रिया और अनुमानित सर्वोत्तम संभव प्रक्रिया के बीच तुलना की जाती है। दो प्रक्रियाओं की दक्षता और सापेक्ष दक्षता सैद्धांतिक रूप से दी गई प्रक्रिया के लिए उपलब्ध नमूना आकार पर निर्भर करती है, लेकिन अधिकांशतः एसिम्प्टोटिक सापेक्ष दक्षता का उपयोग करना संभव होता है (नमूना आकार बढ़ने पर सापेक्ष क्षमता की सीमा के रूप में परिभाषित) प्रिंसिपल के रूप में तुलना उपाय है।
अनुमानक
सांख्यिकीय पैरामीटर θ के अनुमानक आकलनकर्ता, T के पूर्वाग्रह की दक्षता को परिभाषित किया गया है [3]
जहाँ नमूने की फिशर जानकारी है। इस प्रकार ई (T) निष्पक्ष अनुमानक के लिए न्यूनतम संभव भिन्नता है जो इसके वास्तविक भिन्नता से विभाजित है। क्रैमर-राव बाउंड का उपयोग यह सिद्ध करने के लिए किया जा सकता है कि e (T) ≤ 1।
कुशल अनुमानक
कुशल अनुमानक एक अनुमानक है जो कुछ "सर्वोत्तम संभव" विधियों से ब्याज की मात्रा का अनुमान लगाता है। "सर्वश्रेष्ठ संभव" की धारणा विशेष हानि फलन की पसंद पर निर्भर करती है - वह कार्य जो विभिन्न परिमाणों की अनुमान त्रुटियों की अवांछनीयता की सापेक्ष डिग्री को मापता है। हानि फलन का सबसे सामान्य विकल्प द्विघात हानि फलन है, जिसके परिणामस्वरूप इष्टतमता का औसत चुकता त्रुटि मानदंड होता है।[4]
सामान्यतः, पैरामीटर θ के आसपास अनुमानक का प्रसार अनुमानक दक्षता और प्रदर्शन का उपाय है। इस प्रदर्शन की गणना माध्य चुकता त्रुटि का पता लगाकर की जा सकती है। अधिक औपचारिक रूप से, T को पैरामीटर θ के लिए अनुमानक होने दें। T का माध्य चुकता त्रुटि मान है , जिसे इसके विचरण और पूर्वाग्रह के योग के रूप में विघटित किया जा सकता है:
अनुमानक T1 अनुमानक T2 से अच्छा प्रदर्शन करता है अगर .[5] अधिक विशिष्ट स्थितियों के लिए, यदि T1 और T2 एक ही पैरामीटर θ के लिए दो निष्पक्ष अनुमानक हैं, तो प्रदर्शन निर्धारित करने के लिए भिन्नता की तुलना की जा सकती है। इस स्थितियों में T2 T1 से अधिक कुशल है यदि 2 का विचरण 1 के विचरण से छोटा है, अर्थात। θ के सभी मूल्यों के लिए। माध्य चुकता त्रुटि के लिए ऊपर दिए गए अधिक सामान्य स्थितियों को सरल करके इस संबंध को निर्धारित किया जा सकता है; चूंकि निष्पक्ष अनुमानक का अपेक्षित मान पैरामीटर मान के बराबर है, . इसलिए, निष्पक्ष अनुमानक के लिए, , के रूप में टर्म 0 के बराबर होने के लिए बाहर हो जाता है।[5]
यदि पैरामीटर θ का अनुमानक पूर्वाग्रह अनुमानक प्राप्त करता है पैरामीटर के सभी मूल्यों के लिए, अनुमानक को कुशल कहा जाता है।[3]
समान रूप से, अनुमानक सभी θ के लिए क्रैमर-राव असमानता में समानता प्राप्त करता है। क्रैमर-राव लोअर बाउंड निष्पक्ष अनुमानक के प्रसरण का निचला बाउंड है, जो निष्पक्ष अनुमानक का सबसे अच्छा प्रतिनिधित्व कर सकता है।
कुशल अनुमानक भी न्यूनतम भिन्नता निष्पक्ष अनुमानक (एमवीयूई) है। ऐसा इसलिए है क्योंकि कुशल अनुमानक सभी पैरामीटर मानों के लिए क्रैमर-राव असमानता पर समानता बनाए रखता है, जिसका अर्थ है कि यह सभी मापदंडों (एमवीयूई की परिभाषा) के लिए न्यूनतम भिन्नता प्राप्त करता है। एमवीयूई अनुमानक, भले ही यह उपस्थित है, आवश्यक रूप से कुशल नहीं है, क्योंकि न्यूनतम का मतलब क्रैमर-राव असमानता पर समानता नहीं है।
इस प्रकार कुशल अनुमानक के उपस्थित होने की आवश्यकता नहीं है, लेकिन यदि ऐसा होता है, तो यह एमवीयूई है।
परिमित-नमूना दक्षता
कल्पना करना { Pθ | θ ∈ Θ } पैरामीट्रिक मॉडल है और X = (X1, …, Xn) इस मॉडल से लिए गए डेटा हैं। होने देना T = T(X) पैरामीटर θ के लिए अनुमानक बनें। यदि यह अनुमानक एक अनुमानक का पूर्वाग्रह है (अर्थात, E[ T ] = θ), तो क्रैमर-राव असमानता बताती है कि इस अनुमानक का प्रसरण नीचे से घिरा हुआ है:
कहाँ बिंदु θ पर मॉडल का फिशर सूचना मैट्रिक्स है। सामान्यतः, विचरण अपने मतलब के आसपास यादृच्छिक चर के फैलाव की डिग्री को मापता है। इस प्रकार छोटे प्रसरण वाले अनुमानक अधिक केंद्रित होते हैं, वे मापदंडों का अधिक सही अनुमान लगाते हैं। हम कहते हैं कि अनुमानक 'परिमित-नमूना कुशल अनुमानक' है (निष्पक्ष अनुमानकों के वर्ग में) यदि यह उपरोक्त क्रैमर-राव असमानता में निचली सीमा तक पहुँचता है, सभी के लिए θ ∈ Θ. कुशल अनुमानक हमेशा न्यूनतम-विचरण निष्पक्ष अनुमानक होते हैं। चूंकि इसका विलोम असत्य है: वहाँ बिंदु-अनुमान समस्याएँ उपस्थित हैं जिनके लिए न्यूनतम-विचरण माध्य-निष्पक्ष अनुमानक अक्षम है।[6]
ऐतिहासिक रूप से, परिमित-नमूना दक्षता प्रारंभिक इष्टतमता मानदंड था। चूंकि इस मानदंड की कुछ सीमाएँ हैं:
- परिमित-नमूना कुशल अनुमानक अत्यंत दुर्लभ हैं। वास्तव में, यह सिद्ध हो गया था कि कुशल अनुमान केवल घातीय परिवार में ही संभव है, और केवल उस परिवार के प्राकृतिक मापदंडों के लिए।[7]
- दक्षता की यह धारणा कभी-कभी अनुमानक आकलनकर्ताओं के पूर्वाग्रह के वर्ग तक ही सीमित होती है। (अधिकांशतः ऐसा नहीं होता है।[8]) चूंकि अनुमान लगाने वालों के निष्पक्ष होने की आवश्यकता के लिए कोई अच्छा सैद्धांतिक कारण नहीं है, यह प्रतिबंध असुविधाजनक है। वास्तव में, यदि हम चयन मानदंड के रूप में माध्य चुकता त्रुटि का उपयोग करते हैं, तो कई पक्षपाती अनुमानक "सर्वश्रेष्ठ" निष्पक्ष लोगों से थोड़ा अच्छा प्रदर्शन करेंगे। उदाहरण के लिए, आयाम तीन या अधिक के लिए बहुभिन्नरूपी आँकड़ों में, माध्य-निष्पक्ष अनुमानक, नमूना माध्य, स्वीकार्य प्रक्रिया है: परिणाम के बावजूद, इसका प्रदर्शन उदाहरण के लिए जेम्स-स्टीन अनुमानक से भी ख़राब है।
- परिमित-नमूना दक्षता भिन्नता पर आधारित है, मानदंड के रूप में जिसके अनुसार अनुमानकों को आंका जाता है। द्विघात कार्यों के अलावा हानि कार्यों का उपयोग करने के लिए एक अधिक सामान्य दृष्टिकोण है, जिस स्थिति में परिमित-नमूना दक्षता अब तैयार नहीं की जा सकती है।
उदाहरण के रूप में, व्यवहार में आने वाले मॉडलों में, कुशल अनुमानक उपस्थित हैं: सामान्य वितरण का औसत μ (लेकिन भिन्नता σ नहीं)2), प्वासों बंटन का पैरामीटर λ, द्विपद बंटन या बहुपद बंटन में प्रायिकता p है।
अज्ञात माध्य लेकिन ज्ञात विचरण के साथ सामान्य वितरण के मॉडल पर विचार करें: { Pθ = N(θ, σ2) | θ ∈ R }. डेटा में इस मॉडल से n स्वतंत्र और समान रूप से वितरित अवलोकन सम्मिलित हैं: X = (x1, …, xn). हम सभी अवलोकनों के नमूना माध्य का उपयोग करके पैरामीटर θ का अनुमान लगाते हैं:
इस अनुमानक का मतलब θ और का विचरण है σ2 / n, जो नमूने से फिशर की जानकारी के व्युत्क्रम के बराबर है। इस प्रकार, नमूना माध्य सामान्य वितरण के माध्य के लिए परिमित-नमूना कुशल अनुमानक है।
स्पर्शोन्मुख दक्षता
स्पर्शोन्मुख दक्षता के लिए संगति (सांख्यिकी) की आवश्यकता होती है, स्पर्शोन्मुख सामान्य रूप से अनुमानक का वितरण, और स्पर्शोन्मुख विचरण-सहप्रसरण मैट्रिक्स किसी भी अन्य अनुमानक से भी बेकार नहीं है।[9]
उदाहरण: माध्यिका
आकार के नमूने पर विचार करें माध्य के सामान्य वितरण से निकाला गया और इकाई विचरण, यानी, नमूना मतलब, , नमूने का , के रूप में परिभाषित
माध्य का प्रसरण, 1/N (मानक त्रुटि का वर्ग) नमूना से फिशर जानकारी के व्युत्क्रम के बराबर है और इस प्रकार, क्रैमर-राव असमानता द्वारा, नमूना माध्य इस अर्थ में कुशल है कि इसकी दक्षता एकता (100%) है।
अब नमूना माध्यिका पर विचार करें, . यह अनुमानक पूर्वाग्रह और संगत अनुमानक आकलनकर्ता है . बड़े के लिए नमूना माध्य माध्य के साथ लगभग सामान्य वितरण है और विचरण है[10]
बड़े के लिए माध्यिका की दक्षता इस प्रकार है
दूसरे शब्दों में, माध्यिका का आपेक्षिक प्रसरण होगा , या माध्य के विचरण से 57% अधिक - माध्यिका की मानक त्रुटि माध्य से 25% अधिक होगी।[11]
ध्यान दें कि यह स्पर्शोन्मुख दक्षता है - अर्थात, नमूना आकार के रूप में सीमा में दक्षता अनंत की ओर जाता है। के परिमित मूल्यों के लिए दक्षता इससे अधिक है (उदाहरण के लिए, 3 का नमूना आकार लगभग 74% की दक्षता देता है)
इस प्रकार नमूना माध्य इस उदाहरण में नमूना माध्यिका से अधिक कुशल है। चूंकि, ऐसे उपाय हो सकते हैं जिनके द्वारा माध्यिका अच्छा प्रदर्शन करती है। उदाहरण के लिए, माध्यिका ग़ैर के लिए कहीं अधिक मजबूत है, इसलिए यदि गॉसियन मॉडल संदिग्ध या अनुमानित है, तो माध्यिका का उपयोग करने के फायदे हो सकते हैं (मजबूत आंकड़े देखें)।
प्रमुख अनुमानक
अगर और पैरामीटर के लिए अनुमानक हैं , तब हावी निर्णय नियम कहा जाता है अगर:
- इसकी माध्य चुकता त्रुटि (एमएसई) के कम से कम कुछ मान के लिए छोटी है
- एमएसई इससे अधिक नहीं है θ के किसी भी मूल्य के लिए।
औपचारिक रूप से, हावी अगर
सभी के लिए रखता है , कहीं सख्त असमानता के साथ।
सापेक्ष दक्षता
दो निष्पक्ष अनुमानकों की सापेक्ष दक्षता को इस रूप में परिभाषित किया गया है[12]
यद्यपि का कार्य है कई स्थितियों में निर्भरता समाप्त हो जाती है; अगर ऐसा है, एक से बड़ा होने का अर्थ यह होगा के सही मूल्य की परवाह किए बिना अच्छा है
आकलनकर्ताओं की तुलना करने के लिए सापेक्ष दक्षता का विकल्प, पिटमैन निकटता कसौटी है। यह माध्य-वर्ग-त्रुटियों की तुलना को इस तुलना के साथ प्रतिस्थापित करता है कि एक अनुमानक किसी अन्य अनुमानक की तुलना में कितनी बार वास्तविक मान के समीप अनुमान उत्पन्न करता है।
अगर और पैरामीटर के लिए अनुमानक हैं , तब हावी निर्णय नियम कहा जाता है अगर:
- इसकी माध्य चुकता त्रुटि (एमएसई) के कम से कम कुछ मान के लिए छोटी है
- एमएसई इससे अधिक नहीं है θ के किसी भी मूल्य के लिए।
औपचारिक रूप से, हावी अगर
सभी के लिए रखता है , कहीं सख्त असमानता के साथ।
यूआईडी के माध्य के आकलनकर्ता चर
असंबद्ध, समान रूप से वितरित चर के माध्य का अनुमान लगाने में हम इस तथ्य का लाभ उठा सकते हैं कि भिन्नता#असंबद्ध चर का योग (बिनेमे सूत्र)। इस स्थितियों में दक्षता को भिन्नता के गुणांक के वर्ग के रूप में परिभाषित किया जा सकता है, अर्थात,[13]
इस तरह के दो अनुमानकों की सापेक्ष दक्षता को दूसरे की निश्चितता प्राप्त करने के लिए आवश्यक एक के सापेक्ष नमूना आकार के रूप में व्याख्या की जा सकती है। प्रमाण:
अब क्योंकि अपने पास , इसलिए सापेक्ष दक्षता दूसरे के विचरण से मेल खाने के लिए आवश्यक पहले अनुमानक के सापेक्ष नमूना आकार को व्यक्त करती है।
मजबूती
यदि वितरण बदलता है, अधिकांशतः गिर रहा है, तो अनुमानक की दक्षता महत्वपूर्ण रूप से बदल सकती है। यह मजबूत आँकड़ों की प्रेरणाओं में से एक है - अनुमानक जैसे नमूना माध्य सामान्य वितरण के जनसंख्या माध्य का कुशल अनुमानक है, लेकिन समान के साथ दो सामान्य वितरणों के मिश्रण वितरण का अक्षम अनुमानक हो सकता है। माध्य और भिन्न उदाहरण के लिए, यदि कोई वितरण 98% N(μ, σ) और 2% N(μ, 10σ) का संयोजन है, तो बाद वाले वितरण से अत्यधिक मूल्यों की उपस्थिति (अधिकांशतः दूषित आउटलेयर) नमूना माध्य की दक्षता को बहुत कम कर देता है μ के अनुमानक के रूप में। इसके विपरीत, सामान्य वितरण के लिए छोटा माध्य कम कुशल है, लेकिन वितरण में परिवर्तन से अधिक मजबूत (यानी, कम प्रभावित) है, और इस प्रकार मिश्रण वितरण के लिए अधिक कुशल हो सकता है। इसी तरह, संभाव्यता वितरण का आकार, जैसे तिरछापन या भारी-पुच्छ वितरण, उन अनुमानकों की दक्षता को काफी कम कर सकता है जो सममित वितरण या पतली पूंछ मानते हैं।
अक्षम अनुमानकों का उपयोग
जबकि दक्षता अनुमानक का वांछनीय गुण है, इसे अन्य विचारों के विरुद्ध तौला जाना चाहिए, और अनुमानक जो कुछ वितरणों के लिए कुशल है, अन्य वितरणों के लिए अक्षम हो सकता है। सबसे महत्वपूर्ण रूप से, अनुमानक जो साधारण वितरण से साफ डेटा के लिए कुशल हैं, जैसे कि सामान्य वितरण (जो सममित, असमान और पतली पूंछ है) आउटलेयर द्वारा संदूषण के लिए मजबूत नहीं हो सकते हैं, और अधिक जटिल वितरण के लिए अक्षम हो सकते हैं। मजबूत आँकड़ों में, एकल वितरण पर दक्षता के अतिरिक्त वितरण की विस्तृत विविधता के लिए मजबूती और प्रयोज्यता पर अधिक महत्व दिया जाता है। एम-अनुमानक इन चिंताओं से प्रेरित समाधानों का सामान्य वर्ग है, जो मजबूती और उच्च सापेक्ष दक्षता दोनों प्रदान करता है, चूंकि कुछ स्थितियों के लिए पारंपरिक अनुमानकों की तुलना में संभवतः कम दक्षता है। चूंकि, ये संभावित रूप से बहुत कम्प्यूटेशनल रूप से जटिल हैं।
एक अधिक पारंपरिक विकल्प एल-अनुमानक हैं, जो बहुत ही सरल आँकड़े हैं जो गणना और व्याख्या करने में आसान होते हैं, कई स्थितियों में मजबूत होते हैं, और प्रारंभिक अनुमानों के लिए अधिकांशतः पर्याप्त रूप से कुशल होते हैं। आगे की चर्चा के लिए अनुप्रयोग एल-अनुमानक के अनुप्रयोग देखें।
आँकड़ों में दक्षता
आँकड़ों में दक्षता महत्वपूर्ण है क्योंकि वे विभिन्न अनुमानकों के प्रदर्शन की तुलना करने की अनुमति देते हैं। चूंकि निष्पक्ष अनुमानक सामन्रयता पक्षपाती के पक्ष में होता है, एक अधिक कुशल पक्षपाती अनुमानक कभी-कभी कम कुशल निष्पक्ष अनुमानक की तुलना में अधिक मूल्यवान हो सकता है। उदाहरण के लिए, यह तब हो सकता है जब पक्षपाती अनुमानक के मान वास्तविक मान के समीप संख्या के आसपास इकट्ठा होते हैं। इस प्रकार, अनुमानक के प्रदर्शन का अनुमान उनकी माध्य चुकता त्रुटियों या भिन्नताओं की तुलना करके आसानी से लगाया जा सकता है।
परिकल्पना परीक्षण
महत्व परीक्षणों की तुलना करने के लिए, किसी दिए गए कार्य सांख्यिकीय शक्ति को प्राप्त करने के लिए परीक्षण के लिए आवश्यक नमूना आकार के आधार पर दक्षता का सार्थक उपाय परिभाषित किया जा सकता है।[14]
पिटमैन दक्षता[15] और बहादुर दक्षता (या हॉजेस-लेहमन दक्षता)[16][17][18] सांख्यिकीय परिकल्पना परीक्षण प्रक्रियाओं के प्रदर्शन की तुलना से संबंधित हैं। गणित का विश्वकोश इन तीन मानदंडों का संक्षिप्त विवरण प्रदान करता है।
प्रायोगिक डिजाइन
प्रायोगिक डिजाइनों के लिए, दक्षता समय और धन जैसे संसाधनों के न्यूनतम व्यय के साथ अध्ययन के उद्देश्य को प्राप्त करने के लिए डिजाइन की क्षमता से संबंधित है। सरल स्थितियों में, डिज़ाइन की सापेक्ष दक्षता को किसी दिए गए उद्देश्य को प्राप्त करने के लिए आवश्यक नमूना आकार के अनुपात के रूप में व्यक्त किया जा सकता है।[19]
यह भी देखें
- बेयस अनुमानक
- लगातार अनुमानक
- हॉजेस का अनुमानक
- इष्टतम उपकरण
टिप्पणियाँ
- ↑ 1.0 1.1 Everitt 2002, p. 128.
- ↑ Nikulin, M.S. (2001) [1994], "Efficiency of a statistical procedure", Encyclopedia of Mathematics, EMS Press
- ↑ 3.0 3.1 Fisher, R (1921). "सैद्धांतिक सांख्यिकी के गणितीय आधार पर". Philosophical Transactions of the Royal Society of London A. 222: 309–368. JSTOR 91208.
- ↑ Everitt 2002, p. 128.
- ↑ 5.0 5.1 Dekking, F.M. (2007). A Modern Introduction to Probability and Statistics: Understanding Why and How. Springer. pp. 303–305. ISBN 978-1852338961.
- ↑ Romano, Joseph P.; Siegel, Andrew F. (1986). Counterexamples in Probability and Statistics. Chapman and Hall. p. 194.
- ↑ Van Trees, Harry L. (2013). जांच अनुमान और मॉडुलन सिद्धांत।. Kristine L. Bell, Zhi Tian (Second ed.). Hoboken, N.J. ISBN 1-299-66515-2. OCLC 851161356.
{{cite book}}
: CS1 maint: location missing publisher (link) - ↑ DeGroot; Schervish (2002). प्रायिकता अौर सांख्यिकी (3rd ed.). pp. 440–441.
- ↑ Greene, William H. (2012). अर्थमितीय विश्लेषण (7th ed., international ed.). Boston: Pearson. ISBN 978-0-273-75356-8. OCLC 726074601.
- ↑ Williams, D. (2001). बाधाओं का वजन. Cambridge University Press. p. 165. ISBN 052100618X.
- ↑ Maindonald, John; Braun, W. John (2010-05-06). Data Analysis and Graphics Using R: An Example-Based Approach (in English). Cambridge University Press. p. 104. ISBN 978-1-139-48667-5.
- ↑ Wackerly, Dennis D.; Mendenhall, William; Scheaffer, Richard L. (2008). अनुप्रयोगों के साथ गणितीय आँकड़े (Seventh ed.). Belmont, CA: Thomson Brooks/Cole. p. 445. ISBN 9780495110811. OCLC 183886598.
- ↑ Grubbs, Frank (1965). राइफलमैन और मिसाइल इंजीनियरों के लिए सटीकता के सांख्यिकीय उपाय. pp. 26–27.
- ↑ Everitt 2002, p. 321.
- ↑ Nikitin, Ya.Yu. (2001) [1994], "Efficiency, asymptotic", Encyclopedia of Mathematics, EMS Press
- ↑ "Bahadur efficiency - Encyclopedia of Mathematics".
- ↑ Arcones M. A. "Bahadur efficiency of the likelihood ratio test" preprint
- ↑ Canay I. A. & Otsu, T. "Hodges–Lehmann Optimality for Testing Moment Condition Models"
- ↑ Dodge, Y. (2006). द ऑक्सफोर्ड डिक्शनरी ऑफ स्टैटिस्टिकल टर्म्स. Oxford University Press. ISBN 0-19-920613-9.
संदर्भ
- Everitt, Brian S. (2002). The Cambridge Dictionary of Statistics. Cambridge University Press. ISBN 0-521-81099-X.
- Lehmann, Erich L. (1998). Elements of Large-Sample Theory. New York: Springer Verlag. ISBN 978-0-387-98595-4.
अग्रिम पठन
- Lehmann, E.L.; Casella, G. (1998). Theory of Point Estimation (2nd ed.). Springer. ISBN 0-387-98502-6.
- Pfanzagl, Johann; with the assistance of R. Hamböker (1994). Parametric Statistical Theory. Berlin: Walter de Gruyter. ISBN 3-11-013863-8. MR 1291393.