दक्षता (सांख्यिकी): Difference between revisions
No edit summary |
No edit summary |
||
Line 8: | Line 8: | ||
== अनुमानक == | == अनुमानक == | ||
[[सांख्यिकीय पैरामीटर]] θ के अनुमानक आकलनकर्ता, T के पूर्वाग्रह की दक्षता को परिभाषित किया गया | [[सांख्यिकीय पैरामीटर]] θ के अनुमानक आकलनकर्ता, T के पूर्वाग्रह की दक्षता को परिभाषित किया गया है। <ref name=":1">{{cite journal|last1=Fisher|first1=R|title=सैद्धांतिक सांख्यिकी के गणितीय आधार पर|journal=Philosophical Transactions of the Royal Society of London A|date=1921|volume=222|pages=309–368|jstor=91208}}</ref> | ||
:<math> | :<math> | ||
e(T) | e(T) | ||
Line 14: | Line 14: | ||
\frac{1/\mathcal{I}(\theta)}{\operatorname{var}(T)} | \frac{1/\mathcal{I}(\theta)}{\operatorname{var}(T)} | ||
</math> | </math> | ||
जहाँ <math>\mathcal{I}(\theta)</math> नमूने की फिशर जानकारी है। इस प्रकार ई (T) निष्पक्ष अनुमानक के लिए न्यूनतम संभव भिन्नता है जो इसके वास्तविक भिन्नता से विभाजित है। क्रैमर-राव बाउंड का उपयोग यह सिद्ध करने के लिए किया जा सकता है कि e (T) ≤ | जहाँ <math>\mathcal{I}(\theta)</math> नमूने की फिशर जानकारी है। इस प्रकार ई (T) निष्पक्ष अनुमानक के लिए न्यूनतम संभव भिन्नता है जो इसके वास्तविक भिन्नता से विभाजित है। क्रैमर-राव बाउंड का उपयोग यह सिद्ध करने के लिए किया जा सकता है कि e (T) ≤ 1है। | ||
=== कुशल अनुमानक === | === कुशल अनुमानक === | ||
Line 71: | Line 71: | ||
==== उदाहरण: माध्यिका==== | ==== उदाहरण: माध्यिका==== | ||
आकार के नमूने पर विचार करें <math>N</math> माध्य के सामान्य वितरण से निकाला गया <math>\mu</math> और इकाई विचरण, यानी, <math>X_n \sim \mathcal{N}(\mu, 1).</math> | आकार के नमूने पर विचार करें <math>N</math> माध्य के सामान्य वितरण से निकाला गया <math>\mu</math> और इकाई विचरण, यानी, <math>X_n \sim \mathcal{N}(\mu, 1).</math> | ||
नमूना मतलब, <math>\overline{X}</math>, नमूने का <math>X_1, X_2, \ldots, X_N</math>, के रूप में परिभाषित | नमूना मतलब, <math>\overline{X}</math>, नमूने का <math>X_1, X_2, \ldots, X_N</math>, के रूप में परिभाषित है। | ||
:<math> | :<math> | ||
Line 78: | Line 78: | ||
माध्य का प्रसरण, 1/N ([[मानक त्रुटि]] का वर्ग) नमूना से फिशर जानकारी के व्युत्क्रम के बराबर है और इस प्रकार, क्रैमर-राव असमानता द्वारा, नमूना माध्य इस अर्थ में कुशल है कि इसकी दक्षता एकता (100%) है। | माध्य का प्रसरण, 1/N ([[मानक त्रुटि]] का वर्ग) नमूना से फिशर जानकारी के व्युत्क्रम के बराबर है और इस प्रकार, क्रैमर-राव असमानता द्वारा, नमूना माध्य इस अर्थ में कुशल है कि इसकी दक्षता एकता (100%) है। | ||
अब [[नमूना माध्यिका]] पर विचार करें, <math>\widetilde{X}</math>. यह अनुमानक पूर्वाग्रह और संगत अनुमानक आकलनकर्ता है <math>\mu</math>. बड़े के लिए <math>N</math> नमूना माध्य माध्य के साथ लगभग सामान्य वितरण है <math>\mu</math> और विचरण <math>{\pi}/{2N},</math> | अब [[नमूना माध्यिका]] पर विचार करें, <math>\widetilde{X}</math>. यह अनुमानक पूर्वाग्रह और संगत अनुमानक आकलनकर्ता है <math>\mu</math>. बड़े के लिए <math>N</math> नमूना माध्य माध्य के साथ लगभग सामान्य वितरण है <math>\mu</math> और विचरण <math>{\pi}/{2N},</math>है।<ref>{{cite book |last=Williams |first=D. |year=2001 |title=बाधाओं का वजन|url=https://archive.org/details/weighingoddscour00will |url-access=limited |publisher=Cambridge University Press |isbn=052100618X |page=[https://archive.org/details/weighingoddscour00will/page/n187 165]}}</ref> | ||
:<math>\widetilde{X} \sim \mathcal{N} \left(\mu, \frac \pi {2N}\right).</math> | :<math>\widetilde{X} \sim \mathcal{N} \left(\mu, \frac \pi {2N}\right).</math> | ||
बड़े के लिए माध्यिका की दक्षता <math>N</math> इस प्रकार | बड़े के लिए माध्यिका की दक्षता <math>N</math> इस प्रकार है। | ||
: <math> e\left(\widetilde{X}\right) = \left(\frac 1 N\right) \left(\frac \pi {2N} \right)^{-1} = 2/\pi \approx 0.64. | : <math> e\left(\widetilde{X}\right) = \left(\frac 1 N\right) \left(\frac \pi {2N} \right)^{-1} = 2/\pi \approx 0.64. | ||
Line 86: | Line 86: | ||
दूसरे शब्दों में, माध्यिका का आपेक्षिक प्रसरण होगा <math>\pi/2 \approx 1.57</math>, या माध्य के विचरण से 57% अधिक - माध्यिका की मानक त्रुटि माध्य से 25% अधिक होगी।<ref>{{Cite book|last1=Maindonald|first1=John|url=https://books.google.com/books?id=8bMj8m-4RDQC&pg=PA104|title=Data Analysis and Graphics Using R: An Example-Based Approach|last2=Braun|first2=W. John|date=2010-05-06|publisher=Cambridge University Press|isbn=978-1-139-48667-5|pages=104|language=en}}</ref> | दूसरे शब्दों में, माध्यिका का आपेक्षिक प्रसरण होगा <math>\pi/2 \approx 1.57</math>, या माध्य के विचरण से 57% अधिक - माध्यिका की मानक त्रुटि माध्य से 25% अधिक होगी।<ref>{{Cite book|last1=Maindonald|first1=John|url=https://books.google.com/books?id=8bMj8m-4RDQC&pg=PA104|title=Data Analysis and Graphics Using R: An Example-Based Approach|last2=Braun|first2=W. John|date=2010-05-06|publisher=Cambridge University Press|isbn=978-1-139-48667-5|pages=104|language=en}}</ref> | ||
ध्यान दें कि यह स्पर्शोन्मुख दक्षता है - अर्थात, नमूना आकार के रूप में सीमा में दक्षता <math>N</math> अनंत की ओर जाता है। के परिमित मूल्यों के लिए <math>N,</math> दक्षता इससे अधिक है (उदाहरण के लिए, 3 का नमूना आकार लगभग 74% की दक्षता देता | ध्यान दें कि यह स्पर्शोन्मुख दक्षता है - अर्थात, नमूना आकार के रूप में सीमा में दक्षता <math>N</math> अनंत की ओर जाता है। के परिमित मूल्यों के लिए <math>N,</math> दक्षता इससे अधिक है (उदाहरण के लिए, 3 का नमूना आकार लगभग 74% की दक्षता देता है।) | ||
इस प्रकार नमूना माध्य इस उदाहरण में नमूना माध्यिका से अधिक कुशल है। चूंकि, ऐसे उपाय हो सकते हैं जिनके द्वारा माध्यिका अच्छा प्रदर्शन करती है। उदाहरण के लिए, माध्यिका [[ग़ैर]] के लिए कहीं अधिक मजबूत है, इसलिए यदि गॉसियन मॉडल संदिग्ध या अनुमानित है, तो माध्यिका का उपयोग करने के | इस प्रकार नमूना माध्य इस उदाहरण में नमूना माध्यिका से अधिक कुशल है। चूंकि, ऐसे उपाय हो सकते हैं जिनके द्वारा माध्यिका अच्छा प्रदर्शन करती है। उदाहरण के लिए, माध्यिका [[ग़ैर]] के लिए कहीं अधिक मजबूत है, इसलिए यदि गॉसियन मॉडल संदिग्ध या अनुमानित है, तो माध्यिका का उपयोग करने के लाभ हो सकते हैं (मजबूत आंकड़े देखें)। | ||
=== प्रमुख अनुमानक === | === प्रमुख अनुमानक === | ||
अगर <math>T_1</math> और <math>T_2</math> पैरामीटर के लिए अनुमानक हैं <math>\theta</math>, तब <math>T_1</math> [[हावी निर्णय नियम]] कहा जाता है <math>T_2</math> अगर: | अगर <math>T_1</math> और <math>T_2</math> पैरामीटर के लिए अनुमानक हैं <math>\theta</math>, तब <math>T_1</math> [[हावी निर्णय नियम]] कहा जाता है <math>T_2</math> अगर: | ||
# इसकी माध्य चुकता त्रुटि (एमएसई) के कम से कम कुछ मान के लिए | # इसकी माध्य चुकता त्रुटि (एमएसई) के कम से कम कुछ मान के लिए <math>\theta</math> छोटी है। | ||
# एमएसई इससे अधिक नहीं है <math>T_2</math> θ के किसी भी मूल्य के लिए। | # एमएसई इससे अधिक नहीं है <math>T_2</math> θ के किसी भी मूल्य के लिए। | ||
Line 106: | Line 106: | ||
=== सापेक्ष दक्षता === | === सापेक्ष दक्षता === | ||
दो निष्पक्ष अनुमानकों की सापेक्ष दक्षता को इस रूप में परिभाषित किया गया | दो निष्पक्ष अनुमानकों की सापेक्ष दक्षता को इस रूप में परिभाषित किया गया है।<ref>{{Cite book |title=अनुप्रयोगों के साथ गणितीय आँकड़े|url=https://archive.org/details/mathematicalstat00wack_691 |url-access=limited |last1=Wackerly |first1=Dennis D. |date=2008 |publisher=Thomson Brooks/Cole |last2=Mendenhall |first2=William |last3=Scheaffer |first3=Richard L. |isbn=9780495110811 |edition=Seventh |location=Belmont, CA |page=[https://archive.org/details/mathematicalstat00wack_691/page/n469 445] |oclc=183886598}}</ref> | ||
:<math> | :<math> | ||
e(T_1,T_2) = \frac | e(T_1,T_2) = \frac | ||
Line 113: | Line 113: | ||
= \frac{\operatorname{var}(T_2)}{\operatorname{var}(T_1)} | = \frac{\operatorname{var}(T_2)}{\operatorname{var}(T_1)} | ||
</math> | </math> | ||
यद्यपि <math>e</math> का कार्य <math>\theta</math> है कई स्थितियों में निर्भरता समाप्त हो जाती है; अगर ऐसा है, <math>e</math> एक से बड़ा होने का अर्थ यह होगा <math>T_1</math> के सही मूल्य की परवाह किए बिना <math>\theta</math> अच्छा | यद्यपि <math>e</math> का कार्य <math>\theta</math> है कई स्थितियों में निर्भरता समाप्त हो जाती है; अगर ऐसा है, <math>e</math> एक से बड़ा होने का अर्थ यह होगा <math>T_1</math> के सही मूल्य की परवाह किए बिना <math>\theta</math> अच्छा है। | ||
आकलनकर्ताओं की तुलना करने के लिए सापेक्ष दक्षता का विकल्प, पिटमैन निकटता कसौटी है। यह माध्य-वर्ग-त्रुटियों की तुलना को इस तुलना के साथ प्रतिस्थापित करता है कि एक अनुमानक किसी अन्य अनुमानक की तुलना में कितनी बार वास्तविक मान के समीप अनुमान उत्पन्न करता है। | आकलनकर्ताओं की तुलना करने के लिए सापेक्ष दक्षता का विकल्प, पिटमैन निकटता कसौटी है। यह माध्य-वर्ग-त्रुटियों की तुलना को इस तुलना के साथ प्रतिस्थापित करता है कि एक अनुमानक किसी अन्य अनुमानक की तुलना में कितनी बार वास्तविक मान के समीप अनुमान उत्पन्न करता है। | ||
अगर <math>T_1</math> और <math>T_2</math> पैरामीटर के लिए अनुमानक हैं <math>\theta</math>, तब <math>T_1</math> हावी निर्णय नियम कहा जाता है <math>T_2</math> अगर: | अगर <math>T_1</math> और <math>T_2</math> पैरामीटर के लिए अनुमानक हैं <math>\theta</math>, तब <math>T_1</math> हावी निर्णय नियम कहा जाता है <math>T_2</math> अगर: | ||
# इसकी माध्य चुकता त्रुटि (एमएसई) के <math>\theta</math> कम से कम कुछ मान के लिए छोटी | # इसकी माध्य चुकता त्रुटि (एमएसई) के <math>\theta</math> कम से कम कुछ मान के लिए छोटी है। | ||
# एमएसई इससे अधिक नहीं है <math>T_2</math> θ के किसी भी मूल्य के लिए। | # एमएसई इससे अधिक नहीं है <math>T_2</math> θ के किसी भी मूल्य के लिए। | ||
Line 136: | Line 136: | ||
==== यूआईडी के माध्य के आकलनकर्ता चर ==== | ==== यूआईडी के माध्य के आकलनकर्ता चर ==== | ||
असंबद्ध, समान रूप से वितरित चर के माध्य का अनुमान लगाने में हम इस तथ्य का लाभ उठा सकते हैं कि भिन्नता#असंबद्ध चर का योग (बिनेमे सूत्र)। इस स्थितियों में दक्षता को भिन्नता के गुणांक के वर्ग के रूप में परिभाषित किया जा सकता | असंबद्ध, समान रूप से वितरित चर के माध्य का अनुमान लगाने में हम इस तथ्य का लाभ उठा सकते हैं कि भिन्नता#असंबद्ध चर का योग (बिनेमे सूत्र)। इस स्थितियों में दक्षता को भिन्नता के गुणांक के वर्ग के रूप में परिभाषित किया जा सकता है।, अर्थात,<ref>{{cite book |last=Grubbs |first=Frank |title=राइफलमैन और मिसाइल इंजीनियरों के लिए सटीकता के सांख्यिकीय उपाय|date=1965 |pages=26–27}}</ref> | ||
: <math> e \equiv \left(\frac{\sigma }{\mu} \right)^2</math> | : <math> e \equiv \left(\frac{\sigma }{\mu} \right)^2</math> | ||
इस तरह के दो अनुमानकों की सापेक्ष दक्षता को दूसरे की निश्चितता प्राप्त करने के लिए आवश्यक एक के सापेक्ष नमूना आकार के रूप में व्याख्या की जा सकती है। प्रमाण: | इस तरह के दो अनुमानकों की सापेक्ष दक्षता को दूसरे की निश्चितता प्राप्त करने के लिए आवश्यक एक के सापेक्ष नमूना आकार के रूप में व्याख्या की जा सकती है। प्रमाण: |
Revision as of 00:51, 29 March 2023
आंकड़ों में, दक्षता अनुमानक की गुणवत्ता का माप है, प्रायोगिक डिजाइन का,[1] या परिकल्पना परीक्षण प्रक्रिया।[2] अनिवार्य रूप से, एक अधिक कुशल अनुमानक को क्रैमर-राव बाउंड को प्राप्त करने के लिए कम कुशल अनुमानक की तुलना में कम इनपुट डेटा या अवलोकन की आवश्यकता होती है।
कुशल अनुमानक को सबसे छोटा संभावित विचरण होने की विशेषता है, यह दर्शाता है कि अनुमानित मूल्य और L2 मानक अर्थों में सही मूल्य के बीच छोटा विचलन (सांख्यिकी) है। [1]
दो प्रक्रियाओं की सापेक्ष दक्षता उनकी दक्षताओं का अनुपात है, चूंकि अधिकांशतः इस अवधारणा का उपयोग किया जाता है जहां किसी दी गई प्रक्रिया और अनुमानित सर्वोत्तम संभव प्रक्रिया के बीच तुलना की जाती है। दो प्रक्रियाओं की दक्षता और सापेक्ष दक्षता सैद्धांतिक रूप से दी गई प्रक्रिया के लिए उपलब्ध नमूना आकार पर निर्भर करती है, लेकिन अधिकांशतः एसिम्प्टोटिक सापेक्ष दक्षता का उपयोग करना संभव होता है (नमूना आकार बढ़ने पर सापेक्ष क्षमता की सीमा के रूप में परिभाषित) प्रिंसिपल के रूप में तुलना उपाय है।
अनुमानक
सांख्यिकीय पैरामीटर θ के अनुमानक आकलनकर्ता, T के पूर्वाग्रह की दक्षता को परिभाषित किया गया है। [3]
जहाँ नमूने की फिशर जानकारी है। इस प्रकार ई (T) निष्पक्ष अनुमानक के लिए न्यूनतम संभव भिन्नता है जो इसके वास्तविक भिन्नता से विभाजित है। क्रैमर-राव बाउंड का उपयोग यह सिद्ध करने के लिए किया जा सकता है कि e (T) ≤ 1है।
कुशल अनुमानक
कुशल अनुमानक एक अनुमानक है जो कुछ "सर्वोत्तम संभव" विधियों से ब्याज की मात्रा का अनुमान लगाता है। "सर्वश्रेष्ठ संभव" की धारणा विशेष हानि फलन की पसंद पर निर्भर करती है - वह कार्य जो विभिन्न परिमाणों की अनुमान त्रुटियों की अवांछनीयता की सापेक्ष डिग्री को मापता है। हानि फलन का सबसे सामान्य विकल्प द्विघात हानि फलन है, जिसके परिणामस्वरूप इष्टतमता का औसत चुकता त्रुटि मानदंड होता है।[4]
सामान्यतः, पैरामीटर θ के आसपास अनुमानक का प्रसार अनुमानक दक्षता और प्रदर्शन का उपाय है। इस प्रदर्शन की गणना माध्य चुकता त्रुटि का पता लगाकर की जा सकती है। अधिक औपचारिक रूप से, T को पैरामीटर θ के लिए अनुमानक होने दें। T का माध्य चुकता त्रुटि मान है , जिसे इसके विचरण और पूर्वाग्रह के योग के रूप में विघटित किया जा सकता है:
अनुमानक T1 अनुमानक T2 से अच्छा प्रदर्शन करता है अगर .[5] अधिक विशिष्ट स्थितियों के लिए, यदि T1 और T2 एक ही पैरामीटर θ के लिए दो निष्पक्ष अनुमानक हैं, तो प्रदर्शन निर्धारित करने के लिए भिन्नता की तुलना की जा सकती है। इस स्थितियों में T2 T1 से अधिक कुशल है यदि 2 का विचरण 1 के विचरण से छोटा है, अर्थात। θ के सभी मूल्यों के लिए। माध्य चुकता त्रुटि के लिए ऊपर दिए गए अधिक सामान्य स्थितियों को सरल करके इस संबंध को निर्धारित किया जा सकता है; चूंकि निष्पक्ष अनुमानक का अपेक्षित मान पैरामीटर मान के बराबर है, . इसलिए, निष्पक्ष अनुमानक के लिए, , के रूप में टर्म 0 के बराबर होने के लिए बाहर हो जाता है।[5]
यदि पैरामीटर θ का अनुमानक पूर्वाग्रह अनुमानक प्राप्त करता है पैरामीटर के सभी मूल्यों के लिए, अनुमानक को कुशल कहा जाता है।[3]
समान रूप से, अनुमानक सभी θ के लिए क्रैमर-राव असमानता में समानता प्राप्त करता है। क्रैमर-राव लोअर बाउंड निष्पक्ष अनुमानक के प्रसरण का निचला बाउंड है, जो निष्पक्ष अनुमानक का सबसे अच्छा प्रतिनिधित्व कर सकता है।
कुशल अनुमानक भी न्यूनतम भिन्नता निष्पक्ष अनुमानक (एमवीयूई) है। ऐसा इसलिए है क्योंकि कुशल अनुमानक सभी पैरामीटर मानों के लिए क्रैमर-राव असमानता पर समानता बनाए रखता है, जिसका अर्थ है कि यह सभी मापदंडों (एमवीयूई की परिभाषा) के लिए न्यूनतम भिन्नता प्राप्त करता है। एमवीयूई अनुमानक, भले ही यह उपस्थित है, आवश्यक रूप से कुशल नहीं है, क्योंकि न्यूनतम का मतलब क्रैमर-राव असमानता पर समानता नहीं है।
इस प्रकार कुशल अनुमानक के उपस्थित होने की आवश्यकता नहीं है, लेकिन यदि ऐसा होता है, तो यह एमवीयूई है।
परिमित-नमूना दक्षता
कल्पना करना { Pθ | θ ∈ Θ } पैरामीट्रिक मॉडल है और X = (X1, …, Xn) इस मॉडल से लिए गए डेटा हैं। होने देना T = T(X) पैरामीटर θ के लिए अनुमानक बनें। यदि यह अनुमानक एक अनुमानक का पूर्वाग्रह है (अर्थात, E[ T ] = θ), तो क्रैमर-राव असमानता बताती है कि इस अनुमानक का प्रसरण नीचे से घिरा हुआ है:
कहाँ बिंदु θ पर मॉडल का फिशर सूचना मैट्रिक्स है। सामान्यतः, विचरण अपने मतलब के आसपास यादृच्छिक चर के फैलाव की डिग्री को मापता है। इस प्रकार छोटे प्रसरण वाले अनुमानक अधिक केंद्रित होते हैं, वे मापदंडों का अधिक सही अनुमान लगाते हैं। हम कहते हैं कि अनुमानक 'परिमित-नमूना कुशल अनुमानक' है (निष्पक्ष अनुमानकों के वर्ग में) यदि यह उपरोक्त क्रैमर-राव असमानता में निचली सीमा तक पहुँचता है, सभी के लिए θ ∈ Θ. कुशल अनुमानक हमेशा न्यूनतम-विचरण निष्पक्ष अनुमानक होते हैं। चूंकि इसका विलोम असत्य है: वहाँ बिंदु-अनुमान समस्याएँ उपस्थित हैं जिनके लिए न्यूनतम-विचरण माध्य-निष्पक्ष अनुमानक अक्षम है।[6]
ऐतिहासिक रूप से, परिमित-नमूना दक्षता प्रारंभिक इष्टतमता मानदंड था। चूंकि इस मानदंड की कुछ सीमाएँ हैं:
- परिमित-नमूना कुशल अनुमानक अत्यंत दुर्लभ हैं। वास्तव में, यह सिद्ध हो गया था कि कुशल अनुमान केवल घातीय परिवार में ही संभव है, और केवल उस परिवार के प्राकृतिक मापदंडों के लिए।[7]
- दक्षता की यह धारणा कभी-कभी अनुमानक आकलनकर्ताओं के पूर्वाग्रह के वर्ग तक ही सीमित होती है। (अधिकांशतः ऐसा नहीं होता है।[8]) चूंकि अनुमान लगाने वालों के निष्पक्ष होने की आवश्यकता के लिए कोई अच्छा सैद्धांतिक कारण नहीं है, यह प्रतिबंध असुविधाजनक है। वास्तव में, यदि हम चयन मानदंड के रूप में माध्य चुकता त्रुटि का उपयोग करते हैं, तो कई पक्षपाती अनुमानक "सर्वश्रेष्ठ" निष्पक्ष लोगों से थोड़ा अच्छा प्रदर्शन करेंगे। उदाहरण के लिए, आयाम तीन या अधिक के लिए बहुभिन्नरूपी आँकड़ों में, माध्य-निष्पक्ष अनुमानक, नमूना माध्य, स्वीकार्य प्रक्रिया है: परिणाम के बावजूद, इसका प्रदर्शन उदाहरण के लिए जेम्स-स्टीन अनुमानक से भी ख़राब है।
- परिमित-नमूना दक्षता भिन्नता पर आधारित है, मानदंड के रूप में जिसके अनुसार अनुमानकों को आंका जाता है। द्विघात कार्यों के अलावा हानि कार्यों का उपयोग करने के लिए एक अधिक सामान्य दृष्टिकोण है, जिस स्थिति में परिमित-नमूना दक्षता अब तैयार नहीं की जा सकती है।
उदाहरण के रूप में, व्यवहार में आने वाले मॉडलों में, कुशल अनुमानक उपस्थित हैं: सामान्य वितरण का औसत μ (लेकिन भिन्नता σ नहीं)2), प्वासों बंटन का पैरामीटर λ, द्विपद बंटन या बहुपद बंटन में प्रायिकता p है।
अज्ञात माध्य लेकिन ज्ञात विचरण के साथ सामान्य वितरण के मॉडल पर विचार करें: { Pθ = N(θ, σ2) | θ ∈ R }. डेटा में इस मॉडल से n स्वतंत्र और समान रूप से वितरित अवलोकन सम्मिलित हैं: X = (x1, …, xn). हम सभी अवलोकनों के नमूना माध्य का उपयोग करके पैरामीटर θ का अनुमान लगाते हैं:
इस अनुमानक का मतलब θ और का विचरण है σ2 / n, जो नमूने से फिशर की जानकारी के व्युत्क्रम के बराबर है। इस प्रकार, नमूना माध्य सामान्य वितरण के माध्य के लिए परिमित-नमूना कुशल अनुमानक है।
स्पर्शोन्मुख दक्षता
स्पर्शोन्मुख दक्षता के लिए संगति (सांख्यिकी) की आवश्यकता होती है, स्पर्शोन्मुख सामान्य रूप से अनुमानक का वितरण, और स्पर्शोन्मुख विचरण-सहप्रसरण मैट्रिक्स किसी भी अन्य अनुमानक से भी बेकार नहीं है।[9]
उदाहरण: माध्यिका
आकार के नमूने पर विचार करें माध्य के सामान्य वितरण से निकाला गया और इकाई विचरण, यानी, नमूना मतलब, , नमूने का , के रूप में परिभाषित है।
माध्य का प्रसरण, 1/N (मानक त्रुटि का वर्ग) नमूना से फिशर जानकारी के व्युत्क्रम के बराबर है और इस प्रकार, क्रैमर-राव असमानता द्वारा, नमूना माध्य इस अर्थ में कुशल है कि इसकी दक्षता एकता (100%) है।
अब नमूना माध्यिका पर विचार करें, . यह अनुमानक पूर्वाग्रह और संगत अनुमानक आकलनकर्ता है . बड़े के लिए नमूना माध्य माध्य के साथ लगभग सामान्य वितरण है और विचरण है।[10]
बड़े के लिए माध्यिका की दक्षता इस प्रकार है।
दूसरे शब्दों में, माध्यिका का आपेक्षिक प्रसरण होगा , या माध्य के विचरण से 57% अधिक - माध्यिका की मानक त्रुटि माध्य से 25% अधिक होगी।[11]
ध्यान दें कि यह स्पर्शोन्मुख दक्षता है - अर्थात, नमूना आकार के रूप में सीमा में दक्षता अनंत की ओर जाता है। के परिमित मूल्यों के लिए दक्षता इससे अधिक है (उदाहरण के लिए, 3 का नमूना आकार लगभग 74% की दक्षता देता है।)
इस प्रकार नमूना माध्य इस उदाहरण में नमूना माध्यिका से अधिक कुशल है। चूंकि, ऐसे उपाय हो सकते हैं जिनके द्वारा माध्यिका अच्छा प्रदर्शन करती है। उदाहरण के लिए, माध्यिका ग़ैर के लिए कहीं अधिक मजबूत है, इसलिए यदि गॉसियन मॉडल संदिग्ध या अनुमानित है, तो माध्यिका का उपयोग करने के लाभ हो सकते हैं (मजबूत आंकड़े देखें)।
प्रमुख अनुमानक
अगर और पैरामीटर के लिए अनुमानक हैं , तब हावी निर्णय नियम कहा जाता है अगर:
- इसकी माध्य चुकता त्रुटि (एमएसई) के कम से कम कुछ मान के लिए छोटी है।
- एमएसई इससे अधिक नहीं है θ के किसी भी मूल्य के लिए।
औपचारिक रूप से, हावी अगर
सभी के लिए रखता है , कहीं सख्त असमानता के साथ।
सापेक्ष दक्षता
दो निष्पक्ष अनुमानकों की सापेक्ष दक्षता को इस रूप में परिभाषित किया गया है।[12]
यद्यपि का कार्य है कई स्थितियों में निर्भरता समाप्त हो जाती है; अगर ऐसा है, एक से बड़ा होने का अर्थ यह होगा के सही मूल्य की परवाह किए बिना अच्छा है।
आकलनकर्ताओं की तुलना करने के लिए सापेक्ष दक्षता का विकल्प, पिटमैन निकटता कसौटी है। यह माध्य-वर्ग-त्रुटियों की तुलना को इस तुलना के साथ प्रतिस्थापित करता है कि एक अनुमानक किसी अन्य अनुमानक की तुलना में कितनी बार वास्तविक मान के समीप अनुमान उत्पन्न करता है।
अगर और पैरामीटर के लिए अनुमानक हैं , तब हावी निर्णय नियम कहा जाता है अगर:
- इसकी माध्य चुकता त्रुटि (एमएसई) के कम से कम कुछ मान के लिए छोटी है।
- एमएसई इससे अधिक नहीं है θ के किसी भी मूल्य के लिए।
औपचारिक रूप से, हावी अगर
सभी के लिए रखता है , कहीं सख्त असमानता के साथ।
यूआईडी के माध्य के आकलनकर्ता चर
असंबद्ध, समान रूप से वितरित चर के माध्य का अनुमान लगाने में हम इस तथ्य का लाभ उठा सकते हैं कि भिन्नता#असंबद्ध चर का योग (बिनेमे सूत्र)। इस स्थितियों में दक्षता को भिन्नता के गुणांक के वर्ग के रूप में परिभाषित किया जा सकता है।, अर्थात,[13]
इस तरह के दो अनुमानकों की सापेक्ष दक्षता को दूसरे की निश्चितता प्राप्त करने के लिए आवश्यक एक के सापेक्ष नमूना आकार के रूप में व्याख्या की जा सकती है। प्रमाण:
अब क्योंकि अपने पास , इसलिए सापेक्ष दक्षता दूसरे के विचरण से मेल खाने के लिए आवश्यक पहले अनुमानक के सापेक्ष नमूना आकार को व्यक्त करती है।
मजबूती
यदि वितरण बदलता है, अधिकांशतः गिर रहा है, तो अनुमानक की दक्षता महत्वपूर्ण रूप से बदल सकती है। यह मजबूत आँकड़ों की प्रेरणाओं में से एक है - अनुमानक जैसे नमूना माध्य सामान्य वितरण के जनसंख्या माध्य का कुशल अनुमानक है, लेकिन समान के साथ दो सामान्य वितरणों के मिश्रण वितरण का अक्षम अनुमानक हो सकता है। माध्य और भिन्न उदाहरण के लिए, यदि कोई वितरण 98% N(μ, σ) और 2% N(μ, 10σ) का संयोजन है, तो बाद वाले वितरण से अत्यधिक मूल्यों की उपस्थिति (अधिकांशतः दूषित आउटलेयर) नमूना माध्य की दक्षता को बहुत कम कर देता है μ के अनुमानक के रूप में। इसके विपरीत, सामान्य वितरण के लिए छोटा माध्य कम कुशल है, लेकिन वितरण में परिवर्तन से अधिक मजबूत (यानी, कम प्रभावित) है, और इस प्रकार मिश्रण वितरण के लिए अधिक कुशल हो सकता है। इसी तरह, संभाव्यता वितरण का आकार, जैसे तिरछापन या भारी-पुच्छ वितरण, उन अनुमानकों की दक्षता को काफी कम कर सकता है जो सममित वितरण या पतली पूंछ मानते हैं।
अक्षम अनुमानकों का उपयोग
जबकि दक्षता अनुमानक का वांछनीय गुण है, इसे अन्य विचारों के विरुद्ध तौला जाना चाहिए, और अनुमानक जो कुछ वितरणों के लिए कुशल है, अन्य वितरणों के लिए अक्षम हो सकता है। सबसे महत्वपूर्ण रूप से, अनुमानक जो साधारण वितरण से साफ डेटा के लिए कुशल हैं, जैसे कि सामान्य वितरण (जो सममित, असमान और पतली पूंछ है) आउटलेयर द्वारा संदूषण के लिए मजबूत नहीं हो सकते हैं, और अधिक जटिल वितरण के लिए अक्षम हो सकते हैं। मजबूत आँकड़ों में, एकल वितरण पर दक्षता के अतिरिक्त वितरण की विस्तृत विविधता के लिए मजबूती और प्रयोज्यता पर अधिक महत्व दिया जाता है। एम-अनुमानक इन चिंताओं से प्रेरित समाधानों का सामान्य वर्ग है, जो मजबूती और उच्च सापेक्ष दक्षता दोनों प्रदान करता है, चूंकि कुछ स्थितियों के लिए पारंपरिक अनुमानकों की तुलना में संभवतः कम दक्षता है। चूंकि, ये संभावित रूप से बहुत कम्प्यूटेशनल रूप से जटिल हैं।
एक अधिक पारंपरिक विकल्प एल-अनुमानक हैं, जो बहुत ही सरल आँकड़े हैं जो गणना और व्याख्या करने में आसान होते हैं, कई स्थितियों में मजबूत होते हैं, और प्रारंभिक अनुमानों के लिए अधिकांशतः पर्याप्त रूप से कुशल होते हैं। आगे की चर्चा के लिए अनुप्रयोग एल-अनुमानक के अनुप्रयोग देखें।
आँकड़ों में दक्षता
आँकड़ों में दक्षता महत्वपूर्ण है क्योंकि वे विभिन्न अनुमानकों के प्रदर्शन की तुलना करने की अनुमति देते हैं। चूंकि निष्पक्ष अनुमानक सामन्रयता पक्षपाती के पक्ष में होता है, एक अधिक कुशल पक्षपाती अनुमानक कभी-कभी कम कुशल निष्पक्ष अनुमानक की तुलना में अधिक मूल्यवान हो सकता है। उदाहरण के लिए, यह तब हो सकता है जब पक्षपाती अनुमानक के मान वास्तविक मान के समीप संख्या के आसपास इकट्ठा होते हैं। इस प्रकार, अनुमानक के प्रदर्शन का अनुमान उनकी माध्य चुकता त्रुटियों या भिन्नताओं की तुलना करके आसानी से लगाया जा सकता है।
परिकल्पना परीक्षण
महत्व परीक्षणों की तुलना करने के लिए, किसी दिए गए कार्य सांख्यिकीय शक्ति को प्राप्त करने के लिए परीक्षण के लिए आवश्यक नमूना आकार के आधार पर दक्षता का सार्थक उपाय परिभाषित किया जा सकता है।[14]
पिटमैन दक्षता[15] और बहादुर दक्षता (या हॉजेस-लेहमन दक्षता)[16][17][18] सांख्यिकीय परिकल्पना परीक्षण प्रक्रियाओं के प्रदर्शन की तुलना से संबंधित हैं। गणित का विश्वकोश इन तीन मानदंडों का संक्षिप्त विवरण प्रदान करता है।
प्रायोगिक डिजाइन
प्रायोगिक डिजाइनों के लिए, दक्षता समय और धन जैसे संसाधनों के न्यूनतम व्यय के साथ अध्ययन के उद्देश्य को प्राप्त करने के लिए डिजाइन की क्षमता से संबंधित है। सरल स्थितियों में, डिज़ाइन की सापेक्ष दक्षता को किसी दिए गए उद्देश्य को प्राप्त करने के लिए आवश्यक नमूना आकार के अनुपात के रूप में व्यक्त किया जा सकता है।[19]
यह भी देखें
- बेयस अनुमानक
- लगातार अनुमानक
- हॉजेस का अनुमानक
- इष्टतम उपकरण
टिप्पणियाँ
- ↑ 1.0 1.1 Everitt 2002, p. 128.
- ↑ Nikulin, M.S. (2001) [1994], "Efficiency of a statistical procedure", Encyclopedia of Mathematics, EMS Press
- ↑ 3.0 3.1 Fisher, R (1921). "सैद्धांतिक सांख्यिकी के गणितीय आधार पर". Philosophical Transactions of the Royal Society of London A. 222: 309–368. JSTOR 91208.
- ↑ Everitt 2002, p. 128.
- ↑ 5.0 5.1 Dekking, F.M. (2007). A Modern Introduction to Probability and Statistics: Understanding Why and How. Springer. pp. 303–305. ISBN 978-1852338961.
- ↑ Romano, Joseph P.; Siegel, Andrew F. (1986). Counterexamples in Probability and Statistics. Chapman and Hall. p. 194.
- ↑ Van Trees, Harry L. (2013). जांच अनुमान और मॉडुलन सिद्धांत।. Kristine L. Bell, Zhi Tian (Second ed.). Hoboken, N.J. ISBN 1-299-66515-2. OCLC 851161356.
{{cite book}}
: CS1 maint: location missing publisher (link) - ↑ DeGroot; Schervish (2002). प्रायिकता अौर सांख्यिकी (3rd ed.). pp. 440–441.
- ↑ Greene, William H. (2012). अर्थमितीय विश्लेषण (7th ed., international ed.). Boston: Pearson. ISBN 978-0-273-75356-8. OCLC 726074601.
- ↑ Williams, D. (2001). बाधाओं का वजन. Cambridge University Press. p. 165. ISBN 052100618X.
- ↑ Maindonald, John; Braun, W. John (2010-05-06). Data Analysis and Graphics Using R: An Example-Based Approach (in English). Cambridge University Press. p. 104. ISBN 978-1-139-48667-5.
- ↑ Wackerly, Dennis D.; Mendenhall, William; Scheaffer, Richard L. (2008). अनुप्रयोगों के साथ गणितीय आँकड़े (Seventh ed.). Belmont, CA: Thomson Brooks/Cole. p. 445. ISBN 9780495110811. OCLC 183886598.
- ↑ Grubbs, Frank (1965). राइफलमैन और मिसाइल इंजीनियरों के लिए सटीकता के सांख्यिकीय उपाय. pp. 26–27.
- ↑ Everitt 2002, p. 321.
- ↑ Nikitin, Ya.Yu. (2001) [1994], "Efficiency, asymptotic", Encyclopedia of Mathematics, EMS Press
- ↑ "Bahadur efficiency - Encyclopedia of Mathematics".
- ↑ Arcones M. A. "Bahadur efficiency of the likelihood ratio test" preprint
- ↑ Canay I. A. & Otsu, T. "Hodges–Lehmann Optimality for Testing Moment Condition Models"
- ↑ Dodge, Y. (2006). द ऑक्सफोर्ड डिक्शनरी ऑफ स्टैटिस्टिकल टर्म्स. Oxford University Press. ISBN 0-19-920613-9.
संदर्भ
- Everitt, Brian S. (2002). The Cambridge Dictionary of Statistics. Cambridge University Press. ISBN 0-521-81099-X.
- Lehmann, Erich L. (1998). Elements of Large-Sample Theory. New York: Springer Verlag. ISBN 978-0-387-98595-4.
अग्रिम पठन
- Lehmann, E.L.; Casella, G. (1998). Theory of Point Estimation (2nd ed.). Springer. ISBN 0-387-98502-6.
- Pfanzagl, Johann; with the assistance of R. Hamböker (1994). Parametric Statistical Theory. Berlin: Walter de Gruyter. ISBN 3-11-013863-8. MR 1291393.