दक्षता (सांख्यिकी): Difference between revisions
No edit summary |
No edit summary |
||
Line 1: | Line 1: | ||
{{short description|Quality measure of a statistical method}} | {{short description|Quality measure of a statistical method}} | ||
आंकड़ों में, दक्षता अनुमानक की गुणवत्ता का माप है, प्रायोगिक डिजाइन का | आंकड़ों में, दक्षता अनुमानक की गुणवत्ता का माप है, प्रायोगिक डिजाइन का{{sfn|Everitt|2002|p=128}} या [[परिकल्पना परीक्षण]] प्रक्रिया<ref>{{SpringerEOM | title= Efficiency of a statistical procedure| id=E/e035080 | last=Nikulin | first=M.S.}}</ref> अनिवार्य रूप से, एक अधिक कुशल अनुमानक को क्रैमर-राव बाउंड को प्राप्त करने के लिए कम कुशल अनुमानक की तुलना में कम इनपुट डेटा या अवलोकन की आवश्यकता होती है कुशल अनुमानक को सबसे छोटा संभावित विचरण होने की विशेषता है, यह दर्शाता है कि अनुमानित मूल्य और L2 मानक अर्थों में सही मूल्य के बीच छोटा [[विचलन (सांख्यिकी)]] है। {{sfn|Everitt|2002|p=128}} | ||
दो प्रक्रियाओं की सापेक्ष दक्षता उनकी दक्षताओं का अनुपात है, चूंकि अधिकांशतः इस अवधारणा का उपयोग किया जाता है जहां किसी दी गई प्रक्रिया और अनुमानित सर्वोत्तम संभव प्रक्रिया के बीच तुलना की जाती है दो प्रक्रियाओं की दक्षता और सापेक्ष दक्षता सैद्धांतिक रूप से दी गई प्रक्रिया के लिए उपलब्ध नमूना आकार पर निर्भर करती है, लेकिन अधिकांशतः एसिम्प्टोटिक सापेक्ष दक्षता का उपयोग करना संभव होता है (नमूना आकार बढ़ने पर सापेक्ष क्षमता की सीमा के रूप में परिभाषित) सिद्धांत के रूप में तुलना उपाय है। | |||
दो प्रक्रियाओं की सापेक्ष दक्षता उनकी दक्षताओं का अनुपात है, चूंकि अधिकांशतः इस अवधारणा का उपयोग किया जाता है जहां किसी दी गई प्रक्रिया और अनुमानित सर्वोत्तम संभव प्रक्रिया के बीच तुलना की जाती | |||
== अनुमानक == | == अनुमानक == | ||
[[सांख्यिकीय पैरामीटर]] θ के अनुमानक आकलनकर्ता | [[सांख्यिकीय पैरामीटर]] θ के अनुमानक आकलनकर्ता T के पूर्वाग्रह की दक्षता को परिभाषित किया गया है। <ref name=":1">{{cite journal|last1=Fisher|first1=R|title=सैद्धांतिक सांख्यिकी के गणितीय आधार पर|journal=Philosophical Transactions of the Royal Society of London A|date=1921|volume=222|pages=309–368|jstor=91208}}</ref> | ||
:<math> | :<math> | ||
e(T) | e(T) | ||
Line 14: | Line 12: | ||
\frac{1/\mathcal{I}(\theta)}{\operatorname{var}(T)} | \frac{1/\mathcal{I}(\theta)}{\operatorname{var}(T)} | ||
</math> | </math> | ||
जहाँ <math>\mathcal{I}(\theta)</math> नमूने की फिशर जानकारी है। इस प्रकार | जहाँ <math>\mathcal{I}(\theta)</math> नमूने की फिशर जानकारी है। इस प्रकार e (T) निष्पक्ष अनुमानक के लिए न्यूनतम संभव भिन्नता है जो इसके वास्तविक भिन्नता से विभाजित है। क्रैमर-राव बाउंड का उपयोग यह सिद्ध करने के लिए किया जा सकता है कि e (T) ≤ 1है। | ||
=== कुशल अनुमानक === | === कुशल अनुमानक === | ||
कुशल अनुमानक एक अनुमानक है जो कुछ "सर्वोत्तम संभव" विधियों से ब्याज की मात्रा का अनुमान लगाता है। "सर्वश्रेष्ठ संभव" की धारणा विशेष हानि फलन की पसंद पर निर्भर करती है - वह कार्य जो विभिन्न परिमाणों की अनुमान त्रुटियों की अवांछनीयता की सापेक्ष डिग्री को मापता है। हानि फलन का सबसे सामान्य विकल्प द्विघात हानि फलन है, जिसके परिणामस्वरूप इष्टतमता का औसत | कुशल अनुमानक एक अनुमानक है जो कुछ "सर्वोत्तम संभव" विधियों से ब्याज की मात्रा का अनुमान लगाता है। "सर्वश्रेष्ठ संभव" की धारणा विशेष हानि फलन की पसंद पर निर्भर करती है - वह कार्य जो विभिन्न परिमाणों की अनुमान त्रुटियों की अवांछनीयता की सापेक्ष डिग्री को मापता है। हानि फलन का सबसे सामान्य विकल्प द्विघात हानि फलन है, जिसके परिणामस्वरूप इष्टतमता का औसत वर्ग त्रुटि मानदंड होता है।{{sfn|Everitt|2002|p=[https://archive.org/details/cambridgediction00ever/page/n135 128]}} | ||
सामान्यतः | सामान्यतः पैरामीटर θ के आसपास अनुमानक का प्रसार अनुमानक दक्षता और प्रदर्शन का उपाय है। इस प्रदर्शन की गणना माध्य वर्ग त्रुटि का पता लगाकर की जा सकती है। अधिक औपचारिक रूप से T को पैरामीटर θ के लिए अनुमानक होने दें T का माध्य वर्ग त्रुटि मान है <math>\operatorname{MSE}(T)=E[(T-\theta)^2]</math> जिसे इसके विचरण और पूर्वाग्रह के योग के रूप में विघटित किया जा सकता है | ||
:<math> | :<math> | ||
Line 28: | Line 26: | ||
\end{align} | \end{align} | ||
</math> | </math> | ||
अनुमानक T<sub>1</sub> अनुमानक T<sub>2</sub> से अच्छा प्रदर्शन करता है अगर <math> \operatorname{MSE}(T_1) < \operatorname{MSE}(T_2)</math>.<ref name=":0">{{Cite book|title=A Modern Introduction to Probability and Statistics: Understanding Why and How|url=https://archive.org/details/modernintroducti00dekk_722|url-access=limited|last=Dekking|first=F.M.|publisher=Springer|year=2007|isbn=978-1852338961|pages=[https://archive.org/details/modernintroducti00dekk_722/page/n307 303]–305}}</ref> अधिक विशिष्ट स्थितियों के लिए, यदि T<sub>1</sub> और T<sub>2</sub> एक ही पैरामीटर θ के लिए दो निष्पक्ष अनुमानक हैं | अनुमानक T<sub>1</sub> अनुमानक T<sub>2</sub> से अच्छा प्रदर्शन करता है अगर <math> \operatorname{MSE}(T_1) < \operatorname{MSE}(T_2)</math>.<ref name=":0">{{Cite book|title=A Modern Introduction to Probability and Statistics: Understanding Why and How|url=https://archive.org/details/modernintroducti00dekk_722|url-access=limited|last=Dekking|first=F.M.|publisher=Springer|year=2007|isbn=978-1852338961|pages=[https://archive.org/details/modernintroducti00dekk_722/page/n307 303]–305}}</ref> अधिक विशिष्ट स्थितियों के लिए, यदि T<sub>1</sub> और T<sub>2</sub> एक ही पैरामीटर θ के लिए दो निष्पक्ष अनुमानक हैं तो प्रदर्शन निर्धारित करने के लिए भिन्नता की तुलना की जा सकती है। इस स्थितियों में T<sub>2</sub> से T<sub>1</sub> अधिक कुशल है यदि T<sub>2</sub> का विचरण T<sub>1</sub> के विचरण से छोटा है, अर्थात <math>\operatorname{var}(T_1)>\operatorname{var}(T_2)</math> θ के सभी मूल्यों के लिए माध्य वर्ग त्रुटि के लिए ऊपर दिए गए अधिक सामान्य स्थितियों को सरल करके इस संबंध को निर्धारित किया जा सकता है; चूंकि निष्पक्ष अनुमानक का अपेक्षित मान पैरामीटर मान के बराबर है, <math>\operatorname E[T]=\theta</math>. इसलिए निष्पक्ष अनुमानक के लिए <math>\operatorname{MSE}(T)=\operatorname{var}(T)</math> के रूप में <math>(\operatorname E[T]-\theta)^2</math> टर्म 0 के बराबर होने के लिए बाहर हो जाता है।<ref name=":0" /> | ||
यदि पैरामीटर θ का [[अनुमानक पूर्वाग्रह]] अनुमानक प्राप्त करता है <math>e(T) = 1</math> पैरामीटर के सभी मूल्यों के लिए, अनुमानक को कुशल कहा जाता है।<ref name=":1" /> | यदि पैरामीटर θ का [[अनुमानक पूर्वाग्रह]] अनुमानक प्राप्त करता है <math>e(T) = 1</math> पैरामीटर के सभी मूल्यों के लिए, अनुमानक को कुशल कहा जाता है।<ref name=":1" /> | ||
समान रूप से, अनुमानक सभी θ के लिए क्रैमर-राव असमानता में समानता प्राप्त करता है। क्रैमर-राव लोअर बाउंड निष्पक्ष अनुमानक के प्रसरण का निचला बाउंड है | समान रूप से, अनुमानक सभी θ के लिए क्रैमर-राव असमानता में समानता प्राप्त करता है। क्रैमर-राव लोअर बाउंड निष्पक्ष अनुमानक के प्रसरण का निचला बाउंड है जो निष्पक्ष अनुमानक का सबसे अच्छा प्रतिनिधित्व कर सकता है। | ||
कुशल अनुमानक भी न्यूनतम भिन्नता निष्पक्ष अनुमानक (एमवीयूई) है। ऐसा इसलिए है क्योंकि कुशल अनुमानक सभी पैरामीटर मानों के लिए क्रैमर-राव असमानता पर समानता बनाए रखता है, जिसका अर्थ है कि यह सभी मापदंडों (एमवीयूई की परिभाषा) के लिए न्यूनतम भिन्नता प्राप्त करता है। एमवीयूई अनुमानक | कुशल अनुमानक भी न्यूनतम भिन्नता निष्पक्ष अनुमानक (एमवीयूई) है। ऐसा इसलिए है क्योंकि कुशल अनुमानक सभी पैरामीटर मानों के लिए क्रैमर-राव असमानता पर समानता बनाए रखता है, जिसका अर्थ है कि यह सभी मापदंडों (एमवीयूई की परिभाषा) के लिए न्यूनतम भिन्नता प्राप्त करता है। एमवीयूई अनुमानक भले ही यह उपस्थित है आवश्यक रूप से कुशल नहीं है क्योंकि न्यूनतम का अर्थ क्रैमर-राव असमानता पर समानता नहीं है। | ||
इस प्रकार कुशल अनुमानक के उपस्थित होने की आवश्यकता नहीं है, लेकिन यदि ऐसा होता है, तो यह एमवीयूई है। | इस प्रकार कुशल अनुमानक के उपस्थित होने की आवश्यकता नहीं है, लेकिन यदि ऐसा होता है, तो यह एमवीयूई है। | ||
==== परिमित-नमूना दक्षता ==== | ==== परिमित-नमूना दक्षता ==== | ||
कल्पना करना {{nowrap|{ ''P<sub>θ</sub>'' {{!}} ''θ'' ∈ Θ }}} [[पैरामीट्रिक मॉडल]] है और {{nowrap|1=''X'' = (''X''<sub>1</sub>, …, ''X<sub>n</sub>'')}} इस मॉडल से लिए गए डेटा | कल्पना करना {{nowrap|{ ''P<sub>θ</sub>'' {{!}} ''θ'' ∈ Θ }}} [[पैरामीट्रिक मॉडल]] है और {{nowrap|1=''X'' = (''X''<sub>1</sub>, …, ''X<sub>n</sub>'')}} इस मॉडल से लिए गए डेटा हैं '''होने देना''' {{nowrap|1=''T'' = ''T''(''X'')}} होने देना पैरामीटर θ के लिए अनुमानक बनें यदि यह अनुमानक एक अनुमानक का पूर्वाग्रह है (अर्थात, {{nowrap|1=E[ ''T'' ] = ''θ''}}), तो क्रैमर-राव असमानता बताती है कि इस अनुमानक का प्रसरण नीचे से घिरा हुआ है: | ||
: <math> | : <math> | ||
\operatorname{var}[\,T\,]\ \geq\ \mathcal{I}_\theta^{-1}, | \operatorname{var}[\,T\,]\ \geq\ \mathcal{I}_\theta^{-1}, | ||
</math> | </math> | ||
जहाँ <math>\scriptstyle\mathcal{I}_\theta</math> बिंदु θ पर मॉडल का [[फिशर सूचना मैट्रिक्स]] है। सामान्यतः विचरण अपने मतलब के आसपास यादृच्छिक चर के फैलाव की डिग्री को मापता है। इस प्रकार छोटे प्रसरण वाले अनुमानक अधिक केंद्रित होते हैं, वे मापदंडों का अधिक सही अनुमान लगाते हैं। हम कहते हैं कि अनुमानक 'परिमित-नमूना कुशल अनुमानक' है (निष्पक्ष अनुमानकों के वर्ग में) यदि यह उपरोक्त क्रैमर-राव असमानता में निचली सीमा तक पहुँचता है, सभी के लिए {{nowrap|''θ'' ∈ Θ}} कुशल अनुमानक हमेशा [[न्यूनतम-विचरण निष्पक्ष अनुमानक]] होते हैं। चूंकि इसका विलोम असत्य है वहाँ बिंदु-अनुमान समस्याएँ उपस्थित हैं जिनके लिए न्यूनतम-विचरण माध्य-निष्पक्ष अनुमानक अक्षम है।<ref>{{cite book | |||
| last1 = Romano | first1 = Joseph P. | | last1 = Romano | first1 = Joseph P. | ||
| last2 = Siegel | first2 = Andrew F. | | last2 = Siegel | first2 = Andrew F. | ||
Line 52: | Line 50: | ||
}}</ref> | }}</ref> | ||
ऐतिहासिक रूप से, परिमित-नमूना दक्षता प्रारंभिक इष्टतमता मानदंड | ऐतिहासिक रूप से, परिमित-नमूना दक्षता प्रारंभिक इष्टतमता मानदंड था चूंकि इस मानदंड की कुछ सीमाएँ हैं: | ||
* परिमित-नमूना कुशल अनुमानक अत्यंत दुर्लभ हैं। वास्तव में, यह सिद्ध हो गया था कि कुशल अनुमान केवल [[घातीय परिवार]] में ही संभव है | * परिमित-नमूना कुशल अनुमानक अत्यंत दुर्लभ हैं। वास्तव में, यह सिद्ध हो गया था कि कुशल अनुमान केवल [[घातीय परिवार]] में ही संभव है और केवल उस परिवार के प्राकृतिक मापदंडों के लिए।<ref>{{Cite book |last=Van Trees |first=Harry L. |url=https://www.worldcat.org/oclc/851161356 |title=जांच अनुमान और मॉडुलन सिद्धांत।|date=2013 |others=Kristine L. Bell, Zhi Tian |isbn=1-299-66515-2 |edition=Second |location=Hoboken, N.J. |oclc=851161356}}</ref> | ||
* दक्षता की यह धारणा कभी-कभी अनुमानक आकलनकर्ताओं के पूर्वाग्रह के वर्ग तक ही सीमित होती | * दक्षता की यह धारणा कभी-कभी अनुमानक आकलनकर्ताओं के पूर्वाग्रह के वर्ग तक ही सीमित होती है।अधिकांशतः ऐसा नहीं होता है<ref>{{cite book |last1=DeGroot |last2=Schervish |title=प्रायिकता अौर सांख्यिकी|edition=3rd |year=2002 |pages=440–441 }}</ref> चूंकि अनुमान लगाने वालों के निष्पक्ष होने की आवश्यकता के लिए कोई अच्छा सैद्धांतिक कारण नहीं है, यह प्रतिबंध असुविधाजनक है। वास्तव में यदि हम चयन मानदंड के रूप में माध्य वर्ग त्रुटि का उपयोग करते हैं, तो कई पक्षपाती अनुमानक "सर्वश्रेष्ठ" निष्पक्ष लोगों से थोड़ा अच्छा प्रदर्शन करेंगे। उदाहरण के लिए आयाम तीन या अधिक के लिए बहुभिन्नरूपी आँकड़ों में, माध्य-निष्पक्ष अनुमानक [[नमूना माध्य]], [[स्वीकार्य प्रक्रिया]] है परिणाम के अतिरिक्त इसका प्रदर्शन उदाहरण के लिए जेम्स-स्टीन अनुमानक से भी ख़राब है। | ||
* परिमित-नमूना दक्षता भिन्नता पर आधारित है, मानदंड के रूप में जिसके अनुसार अनुमानकों को आंका जाता है। द्विघात कार्यों के | * परिमित-नमूना दक्षता भिन्नता पर आधारित है, मानदंड के रूप में जिसके अनुसार अनुमानकों को आंका जाता है। द्विघात कार्यों के अतिरिक्त हानि कार्यों का उपयोग करने के लिए एक अधिक सामान्य दृष्टिकोण है, जिस स्थिति में परिमित-नमूना दक्षता अब तैयार नहीं की जा सकती है। | ||
उदाहरण के रूप में, व्यवहार में आने वाले मॉडलों में, कुशल अनुमानक उपस्थित हैं | उदाहरण के रूप में, व्यवहार में आने वाले मॉडलों में, कुशल अनुमानक उपस्थित हैं [[सामान्य वितरण]] का औसत μ (लेकिन भिन्नता σ नहीं)<sup>2</sup>), प्वासों बंटन का पैरामीटर λ, द्विपद बंटन या बहुपद बंटन में प्रायिकता p है। | ||
अज्ञात माध्य लेकिन ज्ञात विचरण के साथ सामान्य वितरण के मॉडल पर विचार करें | अज्ञात माध्य लेकिन ज्ञात विचरण के साथ सामान्य वितरण के मॉडल पर विचार करें {{nowrap|1={ ''P<sub>θ</sub>'' = ''N''(''θ'', ''σ''<sup>2</sup>) {{!}} ''θ'' ∈ '''R''' }.}} डेटा में इस मॉडल से n [[स्वतंत्र और समान रूप से वितरित]] अवलोकन सम्मिलित हैं {{nowrap|1=''X'' = (''x''<sub>1</sub>, …, ''x<sub>n</sub>'')}} हम सभी अवलोकनों के नमूना माध्य का उपयोग करके पैरामीटर θ का अनुमान लगाते हैं | ||
: <math> | : <math> | ||
T(X) = \frac1n \sum_{i=1}^n x_i\ . | T(X) = \frac1n \sum_{i=1}^n x_i\ . | ||
</math> | </math> | ||
इस अनुमानक का | इस अनुमानक का अर्थ θ और का विचरण है {{nowrap|''σ''<sup>2</sup> / ''n''}}, जो नमूने से फिशर की जानकारी के व्युत्क्रम के बराबर है। इस प्रकार, नमूना माध्य सामान्य वितरण के माध्य के लिए परिमित-नमूना कुशल अनुमानक है। | ||
=== स्पर्शोन्मुख दक्षता === | === स्पर्शोन्मुख दक्षता === | ||
स्पर्शोन्मुख दक्षता के लिए [[संगति (सांख्यिकी)]] की आवश्यकता होती है, स्पर्शोन्मुख सामान्य रूप से अनुमानक का वितरण | स्पर्शोन्मुख दक्षता के लिए [[संगति (सांख्यिकी)]] की आवश्यकता होती है, स्पर्शोन्मुख सामान्य रूप से अनुमानक का वितरण और स्पर्शोन्मुख विचरण-सहप्रसरण मैट्रिक्स किसी भी अन्य अनुमानक से भी ख़राब नहीं है।<ref>{{Cite book |last=Greene |first=William H. |url=https://www.worldcat.org/oclc/726074601 |title=अर्थमितीय विश्लेषण|date=2012 |publisher=Pearson |isbn=978-0-273-75356-8 |edition=7th ed., international |location=Boston |oclc=726074601}}</ref> | ||
==== उदाहरण: माध्यिका==== | ==== उदाहरण: माध्यिका==== | ||
आकार के नमूने पर विचार करें <math>N</math> माध्य के सामान्य वितरण से निकाला गया <math>\mu</math> और इकाई विचरण | आकार के नमूने पर विचार करें <math>N</math> माध्य के सामान्य वितरण से निकाला गया <math>\mu</math> और इकाई विचरण <math>X_n \sim \mathcal{N}(\mu, 1).</math> है | ||
नमूना | |||
नमूना अर्थ <math>\overline{X}</math>, नमूने का <math>X_1, X_2, \ldots, X_N</math> के रूप में परिभाषित है। | |||
:<math> | :<math> | ||
\overline{X} = \frac{1}{N} \sum_{n=1}^{N} X_n \sim \mathcal{N}\left(\mu, \frac{1}{N}\right). | \overline{X} = \frac{1}{N} \sum_{n=1}^{N} X_n \sim \mathcal{N}\left(\mu, \frac{1}{N}\right). | ||
</math> | </math> | ||
माध्य का प्रसरण, 1/N ([[मानक त्रुटि]] का वर्ग) नमूना से फिशर जानकारी के व्युत्क्रम के बराबर है और इस प्रकार | माध्य का प्रसरण, 1/N ([[मानक त्रुटि]] का वर्ग) नमूना से फिशर जानकारी के व्युत्क्रम के बराबर है और इस प्रकार क्रैमर-राव असमानता द्वारा नमूना माध्य इस अर्थ में कुशल है कि इसकी दक्षता एकता (100%) है। | ||
अब [[नमूना माध्यिका]] पर विचार करें | अब [[नमूना माध्यिका]] पर विचार करें <math>\widetilde{X}</math> यह अनुमानक पूर्वाग्रह और संगत अनुमानक आकलनकर्ता है <math>\mu</math>. बड़े के लिए <math>N</math> नमूना माध्य माध्य के साथ लगभग सामान्य वितरण है <math>\mu</math> और विचरण <math>{\pi}/{2N},</math>है।<ref>{{cite book |last=Williams |first=D. |year=2001 |title=बाधाओं का वजन|url=https://archive.org/details/weighingoddscour00will |url-access=limited |publisher=Cambridge University Press |isbn=052100618X |page=[https://archive.org/details/weighingoddscour00will/page/n187 165]}}</ref> | ||
:<math>\widetilde{X} \sim \mathcal{N} \left(\mu, \frac \pi {2N}\right).</math> | :<math>\widetilde{X} \sim \mathcal{N} \left(\mu, \frac \pi {2N}\right).</math> | ||
बड़े के लिए माध्यिका की दक्षता <math>N</math> इस प्रकार है। | बड़े के लिए माध्यिका की दक्षता <math>N</math> इस प्रकार है। | ||
Line 86: | Line 85: | ||
दूसरे शब्दों में, माध्यिका का आपेक्षिक प्रसरण होगा <math>\pi/2 \approx 1.57</math>, या माध्य के विचरण से 57% अधिक - माध्यिका की मानक त्रुटि माध्य से 25% अधिक होगी।<ref>{{Cite book|last1=Maindonald|first1=John|url=https://books.google.com/books?id=8bMj8m-4RDQC&pg=PA104|title=Data Analysis and Graphics Using R: An Example-Based Approach|last2=Braun|first2=W. John|date=2010-05-06|publisher=Cambridge University Press|isbn=978-1-139-48667-5|pages=104|language=en}}</ref> | दूसरे शब्दों में, माध्यिका का आपेक्षिक प्रसरण होगा <math>\pi/2 \approx 1.57</math>, या माध्य के विचरण से 57% अधिक - माध्यिका की मानक त्रुटि माध्य से 25% अधिक होगी।<ref>{{Cite book|last1=Maindonald|first1=John|url=https://books.google.com/books?id=8bMj8m-4RDQC&pg=PA104|title=Data Analysis and Graphics Using R: An Example-Based Approach|last2=Braun|first2=W. John|date=2010-05-06|publisher=Cambridge University Press|isbn=978-1-139-48667-5|pages=104|language=en}}</ref> | ||
ध्यान दें कि यह स्पर्शोन्मुख दक्षता है | ध्यान दें कि यह स्पर्शोन्मुख दक्षता है अर्थात नमूना आकार के रूप में सीमा में दक्षता <math>N</math> अनंत की ओर जाता है। के परिमित मूल्यों के लिए <math>N,</math> दक्षता इससे अधिक है (उदाहरण के लिए, 3 का नमूना आकार लगभग 74% की दक्षता देता है।) | ||
इस प्रकार नमूना माध्य इस उदाहरण में नमूना माध्यिका से अधिक कुशल है। चूंकि, ऐसे उपाय हो सकते हैं जिनके द्वारा माध्यिका अच्छा प्रदर्शन करती है। उदाहरण के लिए | इस प्रकार नमूना माध्य इस उदाहरण में नमूना माध्यिका से अधिक कुशल है। चूंकि, ऐसे उपाय हो सकते हैं जिनके द्वारा माध्यिका अच्छा प्रदर्शन करती है। उदाहरण के लिए माध्यिका [[ग़ैर]] के लिए कहीं अधिक मजबूत है, इसलिए यदि गॉसियन मॉडल संदिग्ध या अनुमानित है, तो माध्यिका का उपयोग करने के लाभ हो सकते हैं (मजबूत आंकड़े देखें)। | ||
=== प्रमुख अनुमानक === | === प्रमुख अनुमानक === | ||
अगर <math>T_1</math> और <math>T_2</math> पैरामीटर के लिए अनुमानक हैं <math>\theta</math>, तब <math>T_1</math> [[हावी निर्णय नियम]] कहा जाता है <math>T_2</math> अगर: | अगर <math>T_1</math> और <math>T_2</math> पैरामीटर के लिए अनुमानक हैं <math>\theta</math>, तब <math>T_1</math> [[हावी निर्णय नियम|प्रबल निर्णय नियम]] कहा जाता है <math>T_2</math> अगर: | ||
# इसकी माध्य | # इसकी माध्य वर्ग त्रुटि (एमएसई) के कम से कम कुछ मान के लिए <math>\theta</math> छोटी है। | ||
# एमएसई इससे अधिक नहीं है <math>T_2</math> θ के किसी भी मूल्य के | # एमएसई इससे अधिक नहीं है <math>T_2</math> θ के किसी भी मूल्य के लिए | ||
औपचारिक रूप से, <math>T_1</math> | औपचारिक रूप से, <math>T_1</math> प्रबल <math>T_2</math> अगर | ||
:<math> | :<math> | ||
\operatorname{E} | \operatorname{E} | ||
Line 103: | Line 102: | ||
[ (T_2-\theta)^2 ] | [ (T_2-\theta)^2 ] | ||
</math> | </math> | ||
सभी के लिए रखता है <math>\theta</math>, कहीं सख्त असमानता के | सभी के लिए रखता है <math>\theta</math>, कहीं सख्त असमानता के साथ | ||
=== सापेक्ष दक्षता === | === सापेक्ष दक्षता === | ||
Line 113: | Line 112: | ||
= \frac{\operatorname{var}(T_2)}{\operatorname{var}(T_1)} | = \frac{\operatorname{var}(T_2)}{\operatorname{var}(T_1)} | ||
</math> | </math> | ||
यद्यपि <math>e</math> का कार्य <math>\theta</math> है कई स्थितियों में निर्भरता समाप्त हो जाती है | यद्यपि <math>e</math> का कार्य <math>\theta</math> है कई स्थितियों में निर्भरता समाप्त हो जाती है अगर ऐसा है <math>e</math> एक से बड़ा होने का अर्थ यह होगा <math>T_1</math> के सही मूल्य की परवाह किए बिना <math>\theta</math> अच्छा है। | ||
आकलनकर्ताओं की तुलना करने के लिए सापेक्ष दक्षता का विकल्प | आकलनकर्ताओं की तुलना करने के लिए सापेक्ष दक्षता का विकल्प पिटमैन निकटता कसौटी है। यह माध्य-वर्ग-त्रुटियों की तुलना को इस तुलना के साथ प्रतिस्थापित करता है कि एक अनुमानक किसी अन्य अनुमानक की तुलना में कितनी बार वास्तविक मान के समीप अनुमान उत्पन्न करता है। | ||
अगर <math>T_1</math> और <math>T_2</math> पैरामीटर के लिए अनुमानक हैं <math>\theta</math>, तब <math>T_1</math> | अगर <math>T_1</math> और <math>T_2</math> पैरामीटर के लिए अनुमानक हैं <math>\theta</math>, तब <math>T_1</math> प्रबल निर्णय नियम कहा जाता है <math>T_2</math> अगर: | ||
# इसकी माध्य | # इसकी माध्य वर्ग त्रुटि (एमएसई) के <math>\theta</math> कम से कम कुछ मान के लिए छोटी है। | ||
# एमएसई इससे अधिक नहीं है <math>T_2</math> θ के किसी भी मूल्य के लिए। | # एमएसई इससे अधिक नहीं है <math>T_2</math> θ के किसी भी मूल्य के लिए। | ||
औपचारिक रूप से, <math>T_1</math> | औपचारिक रूप से, <math>T_1</math> प्रबल <math>T_2</math> अगर | ||
:<math> | :<math> | ||
\mathrm{E} | \mathrm{E} | ||
Line 136: | Line 135: | ||
==== यूआईडी के माध्य के आकलनकर्ता चर ==== | ==== यूआईडी के माध्य के आकलनकर्ता चर ==== | ||
असंबद्ध, समान रूप से वितरित चर के माध्य का अनुमान लगाने में हम इस तथ्य का लाभ उठा सकते हैं कि भिन्नता | असंबद्ध, समान रूप से वितरित चर के माध्य का अनुमान लगाने में हम इस तथ्य का लाभ उठा सकते हैं कि भिन्नता असंबद्ध चर का योग (बिनेमे सूत्र) इस स्थितियों में दक्षता को भिन्नता के गुणांक के वर्ग के रूप में परिभाषित किया जा सकता है। अर्थात<ref>{{cite book |last=Grubbs |first=Frank |title=राइफलमैन और मिसाइल इंजीनियरों के लिए सटीकता के सांख्यिकीय उपाय|date=1965 |pages=26–27}}</ref> | ||
: <math> e \equiv \left(\frac{\sigma }{\mu} \right)^2</math> | : <math> e \equiv \left(\frac{\sigma }{\mu} \right)^2</math> | ||
इस तरह के दो अनुमानकों की सापेक्ष दक्षता को दूसरे की निश्चितता प्राप्त करने के लिए आवश्यक एक के सापेक्ष नमूना आकार के रूप में व्याख्या की जा सकती है। प्रमाण: | इस तरह के दो अनुमानकों की सापेक्ष दक्षता को दूसरे की निश्चितता प्राप्त करने के लिए आवश्यक एक के सापेक्ष नमूना आकार के रूप में व्याख्या की जा सकती है। प्रमाण: | ||
:<math> \frac{e_1}{e_2} = \frac{s_1^2}{s_2^2}.</math> | :<math> \frac{e_1}{e_2} = \frac{s_1^2}{s_2^2}.</math> | ||
अब क्योंकि <math>s_1^2 = n_1 \sigma^2, \, s_2^2 = n_2 \sigma^2</math> अपने पास <math> \frac{e_1}{e_2} = \frac{n_1}{n_2}</math> | अब क्योंकि <math>s_1^2 = n_1 \sigma^2, \, s_2^2 = n_2 \sigma^2</math> अपने पास <math> \frac{e_1}{e_2} = \frac{n_1}{n_2}</math> इसलिए सापेक्ष दक्षता दूसरे के विचरण से मेल खाने के लिए आवश्यक पहले अनुमानक के सापेक्ष नमूना आकार को व्यक्त करती है। | ||
=== मजबूती === | === मजबूती === | ||
यदि वितरण बदलता है | यदि वितरण बदलता है अधिकांशतः गिर रहा है तो अनुमानक की दक्षता महत्वपूर्ण रूप से बदल सकती है। यह मजबूत आँकड़ों की प्रेरणाओं में से एक है - अनुमानक जैसे नमूना माध्य सामान्य वितरण के जनसंख्या माध्य का कुशल अनुमानक है, लेकिन समान के साथ दो सामान्य वितरणों के [[मिश्रण वितरण]] का अक्षम अनुमानक हो सकता है। माध्य और भिन्न उदाहरण के लिए, यदि कोई वितरण 98% N(μ, σ) और 2% N(μ, 10σ) का संयोजन है, तो बाद वाले वितरण से अत्यधिक मूल्यों की उपस्थिति (अधिकांशतः दूषित आउटलेयर) नमूना माध्य की दक्षता को बहुत कम कर देता है μ के अनुमानक के रूप में इसके विपरीत, सामान्य वितरण के लिए छोटा माध्य कम कुशल है, लेकिन वितरण में परिवर्तन से अधिक मजबूत (यानी, कम प्रभावित) है और इस प्रकार मिश्रण वितरण के लिए अधिक कुशल हो सकता है। इसी तरह, [[संभाव्यता वितरण का आकार]], जैसे [[तिरछापन]] या भारी-पुच्छ वितरण उन अनुमानकों की दक्षता को काफी कम कर सकता है जो सममित वितरण या पतली पूंछ मानते हैं। | ||
=== अक्षम अनुमानकों का उपयोग === | === अक्षम अनुमानकों का उपयोग === | ||
{{further|एल-अनुमानक # अनुप्रयोग}} | {{further|एल-अनुमानक # अनुप्रयोग}} | ||
जबकि दक्षता [[अनुमानक]] का वांछनीय गुण है | जबकि दक्षता [[अनुमानक]] का वांछनीय गुण है इसे अन्य विचारों के विरुद्ध तौला जाना चाहिए और अनुमानक जो कुछ वितरणों के लिए कुशल है अन्य वितरणों के लिए अक्षम हो सकता है। सबसे महत्वपूर्ण रूप से अनुमानक जो साधारण वितरण से साफ डेटा के लिए कुशल हैं, जैसे कि सामान्य वितरण (जो सममित, असमान और पतली पूंछ है) आउटलेयर द्वारा संदूषण के लिए मजबूत नहीं हो सकते हैं और अधिक जटिल वितरण के लिए अक्षम हो सकते हैं। मजबूत आँकड़ों में, एकल वितरण पर दक्षता के अतिरिक्त वितरण की विस्तृत विविधता के लिए मजबूती और प्रयोज्यता पर अधिक महत्व दिया जाता है। M-अनुमानक इन चिंताओं से प्रेरित समाधानों का सामान्य वर्ग है जो मजबूती और उच्च सापेक्ष दक्षता दोनों प्रदान करता है, चूंकि कुछ स्थितियों के लिए पारंपरिक अनुमानकों की तुलना में संभवतः कम दक्षता है। चूंकि, ये संभावित रूप से बहुत कम्प्यूटेशनल रूप से जटिल हैं। | ||
एक अधिक पारंपरिक विकल्प | एक अधिक पारंपरिक विकल्प L-अनुमानक हैं, जो बहुत ही सरल आँकड़े हैं जो गणना और व्याख्या करने में सरल होते हैं कई स्थितियों में मजबूत होते हैं और प्रारंभिक अनुमानों के लिए अधिकांशतः पर्याप्त रूप से कुशल होते हैं। आगे की चर्चा के लिए अनुप्रयोग L-अनुमानक के अनुप्रयोग देखें। | ||
=== आँकड़ों में दक्षता === | === आँकड़ों में दक्षता === | ||
आँकड़ों में दक्षता महत्वपूर्ण है क्योंकि वे विभिन्न अनुमानकों के प्रदर्शन की तुलना करने की अनुमति देते हैं। चूंकि निष्पक्ष अनुमानक सामन्रयता पक्षपाती के पक्ष में होता है | आँकड़ों में दक्षता महत्वपूर्ण है क्योंकि वे विभिन्न अनुमानकों के प्रदर्शन की तुलना करने की अनुमति देते हैं। चूंकि निष्पक्ष अनुमानक सामन्रयता पक्षपाती के पक्ष में होता है एक अधिक कुशल पक्षपाती अनुमानक कभी-कभी कम कुशल निष्पक्ष अनुमानक की तुलना में अधिक मूल्यवान हो सकता है। उदाहरण के लिए यह तब हो सकता है जब पक्षपाती अनुमानक के मान वास्तविक मान के समीप संख्या के आसपास इकट्ठा होते हैं। इस प्रकार अनुमानक के प्रदर्शन का अनुमान उनकी माध्य वर्ग त्रुटियों या भिन्नताओं की तुलना करके आसानी से लगाया जा सकता है। | ||
== परिकल्पना परीक्षण == | == परिकल्पना परीक्षण == | ||
[[महत्व परीक्षण]] | [[महत्व परीक्षण]] की तुलना करने के लिए किसी दिए गए कार्य [[सांख्यिकीय शक्ति]] को प्राप्त करने के लिए परीक्षण के लिए आवश्यक नमूना आकार के आधार पर दक्षता का सार्थक उपाय परिभाषित किया जा सकता है।{{sfn|Everitt|2002|p=321}} | ||
[[पिटमैन दक्षता]]<ref>{{SpringerEOM | title=Efficiency, asymptotic | id=E/e035070 | last=Nikitin | first=Ya.Yu.}}</ref> और [[बहादुर दक्षता]] (या हॉजेस-लेहमन दक्षता)<ref>{{cite web | url=https://www.encyclopediaofmath.org/index.php/Bahadur_efficiency | title=Bahadur efficiency - Encyclopedia of Mathematics }}</ref><ref>Arcones M. A. [http://www.math.binghamton.edu/arcones/prep/pv.pdf "Bahadur efficiency of the likelihood ratio test"] preprint</ref><ref>Canay I. A. & Otsu, T. [http://faculty.wcas.northwestern.edu/~iac879/wp/HL.pdf "Hodges–Lehmann Optimality for Testing Moment Condition Models"]</ref> [[सांख्यिकीय परिकल्पना परीक्षण]] प्रक्रियाओं के प्रदर्शन की तुलना से संबंधित हैं। गणित का विश्वकोश इन तीन मानदंडों का [http://www.encyclopediaofmath.org/index.php/Efficiency,_asymptotic संक्षिप्त विवरण] प्रदान करता है। | [[पिटमैन दक्षता]]<ref>{{SpringerEOM | title=Efficiency, asymptotic | id=E/e035070 | last=Nikitin | first=Ya.Yu.}}</ref> और [[बहादुर दक्षता]] (या हॉजेस-लेहमन दक्षता)<ref>{{cite web | url=https://www.encyclopediaofmath.org/index.php/Bahadur_efficiency | title=Bahadur efficiency - Encyclopedia of Mathematics }}</ref><ref>Arcones M. A. [http://www.math.binghamton.edu/arcones/prep/pv.pdf "Bahadur efficiency of the likelihood ratio test"] preprint</ref><ref>Canay I. A. & Otsu, T. [http://faculty.wcas.northwestern.edu/~iac879/wp/HL.pdf "Hodges–Lehmann Optimality for Testing Moment Condition Models"]</ref> [[सांख्यिकीय परिकल्पना परीक्षण]] प्रक्रियाओं के प्रदर्शन की तुलना से संबंधित हैं। गणित का विश्वकोश इन तीन मानदंडों का [http://www.encyclopediaofmath.org/index.php/Efficiency,_asymptotic संक्षिप्त विवरण] प्रदान करता है। |
Revision as of 23:49, 30 March 2023
आंकड़ों में, दक्षता अनुमानक की गुणवत्ता का माप है, प्रायोगिक डिजाइन का[1] या परिकल्पना परीक्षण प्रक्रिया[2] अनिवार्य रूप से, एक अधिक कुशल अनुमानक को क्रैमर-राव बाउंड को प्राप्त करने के लिए कम कुशल अनुमानक की तुलना में कम इनपुट डेटा या अवलोकन की आवश्यकता होती है कुशल अनुमानक को सबसे छोटा संभावित विचरण होने की विशेषता है, यह दर्शाता है कि अनुमानित मूल्य और L2 मानक अर्थों में सही मूल्य के बीच छोटा विचलन (सांख्यिकी) है। [1]
दो प्रक्रियाओं की सापेक्ष दक्षता उनकी दक्षताओं का अनुपात है, चूंकि अधिकांशतः इस अवधारणा का उपयोग किया जाता है जहां किसी दी गई प्रक्रिया और अनुमानित सर्वोत्तम संभव प्रक्रिया के बीच तुलना की जाती है दो प्रक्रियाओं की दक्षता और सापेक्ष दक्षता सैद्धांतिक रूप से दी गई प्रक्रिया के लिए उपलब्ध नमूना आकार पर निर्भर करती है, लेकिन अधिकांशतः एसिम्प्टोटिक सापेक्ष दक्षता का उपयोग करना संभव होता है (नमूना आकार बढ़ने पर सापेक्ष क्षमता की सीमा के रूप में परिभाषित) सिद्धांत के रूप में तुलना उपाय है।
अनुमानक
सांख्यिकीय पैरामीटर θ के अनुमानक आकलनकर्ता T के पूर्वाग्रह की दक्षता को परिभाषित किया गया है। [3]
जहाँ नमूने की फिशर जानकारी है। इस प्रकार e (T) निष्पक्ष अनुमानक के लिए न्यूनतम संभव भिन्नता है जो इसके वास्तविक भिन्नता से विभाजित है। क्रैमर-राव बाउंड का उपयोग यह सिद्ध करने के लिए किया जा सकता है कि e (T) ≤ 1है।
कुशल अनुमानक
कुशल अनुमानक एक अनुमानक है जो कुछ "सर्वोत्तम संभव" विधियों से ब्याज की मात्रा का अनुमान लगाता है। "सर्वश्रेष्ठ संभव" की धारणा विशेष हानि फलन की पसंद पर निर्भर करती है - वह कार्य जो विभिन्न परिमाणों की अनुमान त्रुटियों की अवांछनीयता की सापेक्ष डिग्री को मापता है। हानि फलन का सबसे सामान्य विकल्प द्विघात हानि फलन है, जिसके परिणामस्वरूप इष्टतमता का औसत वर्ग त्रुटि मानदंड होता है।[4]
सामान्यतः पैरामीटर θ के आसपास अनुमानक का प्रसार अनुमानक दक्षता और प्रदर्शन का उपाय है। इस प्रदर्शन की गणना माध्य वर्ग त्रुटि का पता लगाकर की जा सकती है। अधिक औपचारिक रूप से T को पैरामीटर θ के लिए अनुमानक होने दें T का माध्य वर्ग त्रुटि मान है जिसे इसके विचरण और पूर्वाग्रह के योग के रूप में विघटित किया जा सकता है
अनुमानक T1 अनुमानक T2 से अच्छा प्रदर्शन करता है अगर .[5] अधिक विशिष्ट स्थितियों के लिए, यदि T1 और T2 एक ही पैरामीटर θ के लिए दो निष्पक्ष अनुमानक हैं तो प्रदर्शन निर्धारित करने के लिए भिन्नता की तुलना की जा सकती है। इस स्थितियों में T2 से T1 अधिक कुशल है यदि T2 का विचरण T1 के विचरण से छोटा है, अर्थात θ के सभी मूल्यों के लिए माध्य वर्ग त्रुटि के लिए ऊपर दिए गए अधिक सामान्य स्थितियों को सरल करके इस संबंध को निर्धारित किया जा सकता है; चूंकि निष्पक्ष अनुमानक का अपेक्षित मान पैरामीटर मान के बराबर है, . इसलिए निष्पक्ष अनुमानक के लिए के रूप में टर्म 0 के बराबर होने के लिए बाहर हो जाता है।[5]
यदि पैरामीटर θ का अनुमानक पूर्वाग्रह अनुमानक प्राप्त करता है पैरामीटर के सभी मूल्यों के लिए, अनुमानक को कुशल कहा जाता है।[3]
समान रूप से, अनुमानक सभी θ के लिए क्रैमर-राव असमानता में समानता प्राप्त करता है। क्रैमर-राव लोअर बाउंड निष्पक्ष अनुमानक के प्रसरण का निचला बाउंड है जो निष्पक्ष अनुमानक का सबसे अच्छा प्रतिनिधित्व कर सकता है।
कुशल अनुमानक भी न्यूनतम भिन्नता निष्पक्ष अनुमानक (एमवीयूई) है। ऐसा इसलिए है क्योंकि कुशल अनुमानक सभी पैरामीटर मानों के लिए क्रैमर-राव असमानता पर समानता बनाए रखता है, जिसका अर्थ है कि यह सभी मापदंडों (एमवीयूई की परिभाषा) के लिए न्यूनतम भिन्नता प्राप्त करता है। एमवीयूई अनुमानक भले ही यह उपस्थित है आवश्यक रूप से कुशल नहीं है क्योंकि न्यूनतम का अर्थ क्रैमर-राव असमानता पर समानता नहीं है।
इस प्रकार कुशल अनुमानक के उपस्थित होने की आवश्यकता नहीं है, लेकिन यदि ऐसा होता है, तो यह एमवीयूई है।
परिमित-नमूना दक्षता
कल्पना करना { Pθ | θ ∈ Θ } पैरामीट्रिक मॉडल है और X = (X1, …, Xn) इस मॉडल से लिए गए डेटा हैं होने देना T = T(X) होने देना पैरामीटर θ के लिए अनुमानक बनें यदि यह अनुमानक एक अनुमानक का पूर्वाग्रह है (अर्थात, E[ T ] = θ), तो क्रैमर-राव असमानता बताती है कि इस अनुमानक का प्रसरण नीचे से घिरा हुआ है:
जहाँ बिंदु θ पर मॉडल का फिशर सूचना मैट्रिक्स है। सामान्यतः विचरण अपने मतलब के आसपास यादृच्छिक चर के फैलाव की डिग्री को मापता है। इस प्रकार छोटे प्रसरण वाले अनुमानक अधिक केंद्रित होते हैं, वे मापदंडों का अधिक सही अनुमान लगाते हैं। हम कहते हैं कि अनुमानक 'परिमित-नमूना कुशल अनुमानक' है (निष्पक्ष अनुमानकों के वर्ग में) यदि यह उपरोक्त क्रैमर-राव असमानता में निचली सीमा तक पहुँचता है, सभी के लिए θ ∈ Θ कुशल अनुमानक हमेशा न्यूनतम-विचरण निष्पक्ष अनुमानक होते हैं। चूंकि इसका विलोम असत्य है वहाँ बिंदु-अनुमान समस्याएँ उपस्थित हैं जिनके लिए न्यूनतम-विचरण माध्य-निष्पक्ष अनुमानक अक्षम है।[6]
ऐतिहासिक रूप से, परिमित-नमूना दक्षता प्रारंभिक इष्टतमता मानदंड था चूंकि इस मानदंड की कुछ सीमाएँ हैं:
- परिमित-नमूना कुशल अनुमानक अत्यंत दुर्लभ हैं। वास्तव में, यह सिद्ध हो गया था कि कुशल अनुमान केवल घातीय परिवार में ही संभव है और केवल उस परिवार के प्राकृतिक मापदंडों के लिए।[7]
- दक्षता की यह धारणा कभी-कभी अनुमानक आकलनकर्ताओं के पूर्वाग्रह के वर्ग तक ही सीमित होती है।अधिकांशतः ऐसा नहीं होता है[8] चूंकि अनुमान लगाने वालों के निष्पक्ष होने की आवश्यकता के लिए कोई अच्छा सैद्धांतिक कारण नहीं है, यह प्रतिबंध असुविधाजनक है। वास्तव में यदि हम चयन मानदंड के रूप में माध्य वर्ग त्रुटि का उपयोग करते हैं, तो कई पक्षपाती अनुमानक "सर्वश्रेष्ठ" निष्पक्ष लोगों से थोड़ा अच्छा प्रदर्शन करेंगे। उदाहरण के लिए आयाम तीन या अधिक के लिए बहुभिन्नरूपी आँकड़ों में, माध्य-निष्पक्ष अनुमानक नमूना माध्य, स्वीकार्य प्रक्रिया है परिणाम के अतिरिक्त इसका प्रदर्शन उदाहरण के लिए जेम्स-स्टीन अनुमानक से भी ख़राब है।
- परिमित-नमूना दक्षता भिन्नता पर आधारित है, मानदंड के रूप में जिसके अनुसार अनुमानकों को आंका जाता है। द्विघात कार्यों के अतिरिक्त हानि कार्यों का उपयोग करने के लिए एक अधिक सामान्य दृष्टिकोण है, जिस स्थिति में परिमित-नमूना दक्षता अब तैयार नहीं की जा सकती है।
उदाहरण के रूप में, व्यवहार में आने वाले मॉडलों में, कुशल अनुमानक उपस्थित हैं सामान्य वितरण का औसत μ (लेकिन भिन्नता σ नहीं)2), प्वासों बंटन का पैरामीटर λ, द्विपद बंटन या बहुपद बंटन में प्रायिकता p है।
अज्ञात माध्य लेकिन ज्ञात विचरण के साथ सामान्य वितरण के मॉडल पर विचार करें { Pθ = N(θ, σ2) | θ ∈ R }. डेटा में इस मॉडल से n स्वतंत्र और समान रूप से वितरित अवलोकन सम्मिलित हैं X = (x1, …, xn) हम सभी अवलोकनों के नमूना माध्य का उपयोग करके पैरामीटर θ का अनुमान लगाते हैं
इस अनुमानक का अर्थ θ और का विचरण है σ2 / n, जो नमूने से फिशर की जानकारी के व्युत्क्रम के बराबर है। इस प्रकार, नमूना माध्य सामान्य वितरण के माध्य के लिए परिमित-नमूना कुशल अनुमानक है।
स्पर्शोन्मुख दक्षता
स्पर्शोन्मुख दक्षता के लिए संगति (सांख्यिकी) की आवश्यकता होती है, स्पर्शोन्मुख सामान्य रूप से अनुमानक का वितरण और स्पर्शोन्मुख विचरण-सहप्रसरण मैट्रिक्स किसी भी अन्य अनुमानक से भी ख़राब नहीं है।[9]
उदाहरण: माध्यिका
आकार के नमूने पर विचार करें माध्य के सामान्य वितरण से निकाला गया और इकाई विचरण है
नमूना अर्थ , नमूने का के रूप में परिभाषित है।
माध्य का प्रसरण, 1/N (मानक त्रुटि का वर्ग) नमूना से फिशर जानकारी के व्युत्क्रम के बराबर है और इस प्रकार क्रैमर-राव असमानता द्वारा नमूना माध्य इस अर्थ में कुशल है कि इसकी दक्षता एकता (100%) है।
अब नमूना माध्यिका पर विचार करें यह अनुमानक पूर्वाग्रह और संगत अनुमानक आकलनकर्ता है . बड़े के लिए नमूना माध्य माध्य के साथ लगभग सामान्य वितरण है और विचरण है।[10]
बड़े के लिए माध्यिका की दक्षता इस प्रकार है।
दूसरे शब्दों में, माध्यिका का आपेक्षिक प्रसरण होगा , या माध्य के विचरण से 57% अधिक - माध्यिका की मानक त्रुटि माध्य से 25% अधिक होगी।[11]
ध्यान दें कि यह स्पर्शोन्मुख दक्षता है अर्थात नमूना आकार के रूप में सीमा में दक्षता अनंत की ओर जाता है। के परिमित मूल्यों के लिए दक्षता इससे अधिक है (उदाहरण के लिए, 3 का नमूना आकार लगभग 74% की दक्षता देता है।)
इस प्रकार नमूना माध्य इस उदाहरण में नमूना माध्यिका से अधिक कुशल है। चूंकि, ऐसे उपाय हो सकते हैं जिनके द्वारा माध्यिका अच्छा प्रदर्शन करती है। उदाहरण के लिए माध्यिका ग़ैर के लिए कहीं अधिक मजबूत है, इसलिए यदि गॉसियन मॉडल संदिग्ध या अनुमानित है, तो माध्यिका का उपयोग करने के लाभ हो सकते हैं (मजबूत आंकड़े देखें)।
प्रमुख अनुमानक
अगर और पैरामीटर के लिए अनुमानक हैं , तब प्रबल निर्णय नियम कहा जाता है अगर:
- इसकी माध्य वर्ग त्रुटि (एमएसई) के कम से कम कुछ मान के लिए छोटी है।
- एमएसई इससे अधिक नहीं है θ के किसी भी मूल्य के लिए
औपचारिक रूप से, प्रबल अगर
सभी के लिए रखता है , कहीं सख्त असमानता के साथ
सापेक्ष दक्षता
दो निष्पक्ष अनुमानकों की सापेक्ष दक्षता को इस रूप में परिभाषित किया गया है।[12]
यद्यपि का कार्य है कई स्थितियों में निर्भरता समाप्त हो जाती है अगर ऐसा है एक से बड़ा होने का अर्थ यह होगा के सही मूल्य की परवाह किए बिना अच्छा है।
आकलनकर्ताओं की तुलना करने के लिए सापेक्ष दक्षता का विकल्प पिटमैन निकटता कसौटी है। यह माध्य-वर्ग-त्रुटियों की तुलना को इस तुलना के साथ प्रतिस्थापित करता है कि एक अनुमानक किसी अन्य अनुमानक की तुलना में कितनी बार वास्तविक मान के समीप अनुमान उत्पन्न करता है।
अगर और पैरामीटर के लिए अनुमानक हैं , तब प्रबल निर्णय नियम कहा जाता है अगर:
- इसकी माध्य वर्ग त्रुटि (एमएसई) के कम से कम कुछ मान के लिए छोटी है।
- एमएसई इससे अधिक नहीं है θ के किसी भी मूल्य के लिए।
औपचारिक रूप से, प्रबल अगर
सभी के लिए रखता है , कहीं सख्त असमानता के साथ।
यूआईडी के माध्य के आकलनकर्ता चर
असंबद्ध, समान रूप से वितरित चर के माध्य का अनुमान लगाने में हम इस तथ्य का लाभ उठा सकते हैं कि भिन्नता असंबद्ध चर का योग (बिनेमे सूत्र) इस स्थितियों में दक्षता को भिन्नता के गुणांक के वर्ग के रूप में परिभाषित किया जा सकता है। अर्थात[13]
इस तरह के दो अनुमानकों की सापेक्ष दक्षता को दूसरे की निश्चितता प्राप्त करने के लिए आवश्यक एक के सापेक्ष नमूना आकार के रूप में व्याख्या की जा सकती है। प्रमाण:
अब क्योंकि अपने पास इसलिए सापेक्ष दक्षता दूसरे के विचरण से मेल खाने के लिए आवश्यक पहले अनुमानक के सापेक्ष नमूना आकार को व्यक्त करती है।
मजबूती
यदि वितरण बदलता है अधिकांशतः गिर रहा है तो अनुमानक की दक्षता महत्वपूर्ण रूप से बदल सकती है। यह मजबूत आँकड़ों की प्रेरणाओं में से एक है - अनुमानक जैसे नमूना माध्य सामान्य वितरण के जनसंख्या माध्य का कुशल अनुमानक है, लेकिन समान के साथ दो सामान्य वितरणों के मिश्रण वितरण का अक्षम अनुमानक हो सकता है। माध्य और भिन्न उदाहरण के लिए, यदि कोई वितरण 98% N(μ, σ) और 2% N(μ, 10σ) का संयोजन है, तो बाद वाले वितरण से अत्यधिक मूल्यों की उपस्थिति (अधिकांशतः दूषित आउटलेयर) नमूना माध्य की दक्षता को बहुत कम कर देता है μ के अनुमानक के रूप में इसके विपरीत, सामान्य वितरण के लिए छोटा माध्य कम कुशल है, लेकिन वितरण में परिवर्तन से अधिक मजबूत (यानी, कम प्रभावित) है और इस प्रकार मिश्रण वितरण के लिए अधिक कुशल हो सकता है। इसी तरह, संभाव्यता वितरण का आकार, जैसे तिरछापन या भारी-पुच्छ वितरण उन अनुमानकों की दक्षता को काफी कम कर सकता है जो सममित वितरण या पतली पूंछ मानते हैं।
अक्षम अनुमानकों का उपयोग
जबकि दक्षता अनुमानक का वांछनीय गुण है इसे अन्य विचारों के विरुद्ध तौला जाना चाहिए और अनुमानक जो कुछ वितरणों के लिए कुशल है अन्य वितरणों के लिए अक्षम हो सकता है। सबसे महत्वपूर्ण रूप से अनुमानक जो साधारण वितरण से साफ डेटा के लिए कुशल हैं, जैसे कि सामान्य वितरण (जो सममित, असमान और पतली पूंछ है) आउटलेयर द्वारा संदूषण के लिए मजबूत नहीं हो सकते हैं और अधिक जटिल वितरण के लिए अक्षम हो सकते हैं। मजबूत आँकड़ों में, एकल वितरण पर दक्षता के अतिरिक्त वितरण की विस्तृत विविधता के लिए मजबूती और प्रयोज्यता पर अधिक महत्व दिया जाता है। M-अनुमानक इन चिंताओं से प्रेरित समाधानों का सामान्य वर्ग है जो मजबूती और उच्च सापेक्ष दक्षता दोनों प्रदान करता है, चूंकि कुछ स्थितियों के लिए पारंपरिक अनुमानकों की तुलना में संभवतः कम दक्षता है। चूंकि, ये संभावित रूप से बहुत कम्प्यूटेशनल रूप से जटिल हैं।
एक अधिक पारंपरिक विकल्प L-अनुमानक हैं, जो बहुत ही सरल आँकड़े हैं जो गणना और व्याख्या करने में सरल होते हैं कई स्थितियों में मजबूत होते हैं और प्रारंभिक अनुमानों के लिए अधिकांशतः पर्याप्त रूप से कुशल होते हैं। आगे की चर्चा के लिए अनुप्रयोग L-अनुमानक के अनुप्रयोग देखें।
आँकड़ों में दक्षता
आँकड़ों में दक्षता महत्वपूर्ण है क्योंकि वे विभिन्न अनुमानकों के प्रदर्शन की तुलना करने की अनुमति देते हैं। चूंकि निष्पक्ष अनुमानक सामन्रयता पक्षपाती के पक्ष में होता है एक अधिक कुशल पक्षपाती अनुमानक कभी-कभी कम कुशल निष्पक्ष अनुमानक की तुलना में अधिक मूल्यवान हो सकता है। उदाहरण के लिए यह तब हो सकता है जब पक्षपाती अनुमानक के मान वास्तविक मान के समीप संख्या के आसपास इकट्ठा होते हैं। इस प्रकार अनुमानक के प्रदर्शन का अनुमान उनकी माध्य वर्ग त्रुटियों या भिन्नताओं की तुलना करके आसानी से लगाया जा सकता है।
परिकल्पना परीक्षण
महत्व परीक्षण की तुलना करने के लिए किसी दिए गए कार्य सांख्यिकीय शक्ति को प्राप्त करने के लिए परीक्षण के लिए आवश्यक नमूना आकार के आधार पर दक्षता का सार्थक उपाय परिभाषित किया जा सकता है।[14]
पिटमैन दक्षता[15] और बहादुर दक्षता (या हॉजेस-लेहमन दक्षता)[16][17][18] सांख्यिकीय परिकल्पना परीक्षण प्रक्रियाओं के प्रदर्शन की तुलना से संबंधित हैं। गणित का विश्वकोश इन तीन मानदंडों का संक्षिप्त विवरण प्रदान करता है।
प्रायोगिक डिजाइन
प्रायोगिक डिजाइनों के लिए, दक्षता समय और धन जैसे संसाधनों के न्यूनतम व्यय के साथ अध्ययन के उद्देश्य को प्राप्त करने के लिए डिजाइन की क्षमता से संबंधित है। सरल स्थितियों में, डिज़ाइन की सापेक्ष दक्षता को किसी दिए गए उद्देश्य को प्राप्त करने के लिए आवश्यक नमूना आकार के अनुपात के रूप में व्यक्त किया जा सकता है।[19]
यह भी देखें
- बेयस अनुमानक
- लगातार अनुमानक
- हॉजेस का अनुमानक
- इष्टतम उपकरण
टिप्पणियाँ
- ↑ 1.0 1.1 Everitt 2002, p. 128.
- ↑ Nikulin, M.S. (2001) [1994], "Efficiency of a statistical procedure", Encyclopedia of Mathematics, EMS Press
- ↑ 3.0 3.1 Fisher, R (1921). "सैद्धांतिक सांख्यिकी के गणितीय आधार पर". Philosophical Transactions of the Royal Society of London A. 222: 309–368. JSTOR 91208.
- ↑ Everitt 2002, p. 128.
- ↑ 5.0 5.1 Dekking, F.M. (2007). A Modern Introduction to Probability and Statistics: Understanding Why and How. Springer. pp. 303–305. ISBN 978-1852338961.
- ↑ Romano, Joseph P.; Siegel, Andrew F. (1986). Counterexamples in Probability and Statistics. Chapman and Hall. p. 194.
- ↑ Van Trees, Harry L. (2013). जांच अनुमान और मॉडुलन सिद्धांत।. Kristine L. Bell, Zhi Tian (Second ed.). Hoboken, N.J. ISBN 1-299-66515-2. OCLC 851161356.
{{cite book}}
: CS1 maint: location missing publisher (link) - ↑ DeGroot; Schervish (2002). प्रायिकता अौर सांख्यिकी (3rd ed.). pp. 440–441.
- ↑ Greene, William H. (2012). अर्थमितीय विश्लेषण (7th ed., international ed.). Boston: Pearson. ISBN 978-0-273-75356-8. OCLC 726074601.
- ↑ Williams, D. (2001). बाधाओं का वजन. Cambridge University Press. p. 165. ISBN 052100618X.
- ↑ Maindonald, John; Braun, W. John (2010-05-06). Data Analysis and Graphics Using R: An Example-Based Approach (in English). Cambridge University Press. p. 104. ISBN 978-1-139-48667-5.
- ↑ Wackerly, Dennis D.; Mendenhall, William; Scheaffer, Richard L. (2008). अनुप्रयोगों के साथ गणितीय आँकड़े (Seventh ed.). Belmont, CA: Thomson Brooks/Cole. p. 445. ISBN 9780495110811. OCLC 183886598.
- ↑ Grubbs, Frank (1965). राइफलमैन और मिसाइल इंजीनियरों के लिए सटीकता के सांख्यिकीय उपाय. pp. 26–27.
- ↑ Everitt 2002, p. 321.
- ↑ Nikitin, Ya.Yu. (2001) [1994], "Efficiency, asymptotic", Encyclopedia of Mathematics, EMS Press
- ↑ "Bahadur efficiency - Encyclopedia of Mathematics".
- ↑ Arcones M. A. "Bahadur efficiency of the likelihood ratio test" preprint
- ↑ Canay I. A. & Otsu, T. "Hodges–Lehmann Optimality for Testing Moment Condition Models"
- ↑ Dodge, Y. (2006). द ऑक्सफोर्ड डिक्शनरी ऑफ स्टैटिस्टिकल टर्म्स. Oxford University Press. ISBN 0-19-920613-9.
संदर्भ
- Everitt, Brian S. (2002). The Cambridge Dictionary of Statistics. Cambridge University Press. ISBN 0-521-81099-X.
- Lehmann, Erich L. (1998). Elements of Large-Sample Theory. New York: Springer Verlag. ISBN 978-0-387-98595-4.
अग्रिम पठन
- Lehmann, E.L.; Casella, G. (1998). Theory of Point Estimation (2nd ed.). Springer. ISBN 0-387-98502-6.
- Pfanzagl, Johann; with the assistance of R. Hamböker (1994). Parametric Statistical Theory. Berlin: Walter de Gruyter. ISBN 3-11-013863-8. MR 1291393.