अनुमानक का पूर्वाग्रह: Difference between revisions
No edit summary |
No edit summary |
||
(4 intermediate revisions by 4 users not shown) | |||
Line 1: | Line 1: | ||
{{Short description|Difference between an estimator's expected value from a parameter's true value}} | {{Short description|Difference between an estimator's expected value from a parameter's true value}} | ||
इस | सांख्यिकी में, '''अनुमानक (या अभिनत फलन) का अभिनत''' इस अनुमानक के अपेक्षित मान और अनुमानित पैरामीटर के वास्तविक मान के बीच का अंतर है। शून्य अभिनत वाला अनुमानक या निर्णय नियम अनभिनत कहलाता है। सांख्यिकी में, "अभिनत" एक अनुमानक की एक वस्तुगत गुण है। अभिनत संगति से एक अलग अवधारणा है: सुसंगत अनुमानक संभाव्यता में पैरामीटर के वास्तविक मान में अभिसरण करते हैं, लेकिन अभिनतपूर्ण या अनभिनत हो सकते हैं; अधिक जानकारी के लिए अभिनत बनाम निरंतरता देखें। | ||
अन्य सभी समान होने के कारण, अनभिनत अनुमानक अभिनत अनुमानक के लिए अधिकतम है, हालांकि व्यवहार में, अभिनत अनुमानक (सामान्य रूप से छोटे अभिनत के साथ) प्रायः उपयोग किए जाते हैं। जब अभिनत अनुमानक का उपयोग किया जाता है, तो अभिनत की सीमा की गणना की जाती है। अभिनत अनुमानक का उपयोग विभिन्न कारणों से किया जा सकता है: क्योंकि समष्टि के बारे में और धारणाओं के बिना अनभिनत अनुमानक सम्मिलित नहीं है; क्योंकि एक अनुमानक की गणना करना कठिन है (मानक विचलन के अनभिनत अनुमान के रूप में); क्योंकि [[केंद्रीय प्रवृत्ति]] के विभिन्न समाधानों के संबंध में अभिनत अनुमानक अनभिनत हो सकता है; क्योंकि एक पक्षपाती अनुमानक निष्पक्ष अनुमानकों (विशेष रूप से [[संकोचन अनुमानक|अवमूल्यन अनुमानक]] में) की तुलना में कुछ हानि फलन (विशेष रूप से औसत वर्ग त्रुटि) का कम मान देता है; या क्योंकि कुछ स्थितियों में अनभिनत होना बहुत प्रबल स्थिति है, और सिर्फ अनभिनत अनुमानक उपयोगी नहीं होते हैं। | |||
अभिनत को औसत (अपेक्षित मान) के अतिरिक्त माध्यिका के संबंध में भी मापा जा सकता है, इस स्थिति में सामान्य औसत-निष्पक्षता गुण से औसत-निष्पक्षता को अलग करता है। गैर-रैखिक [[डेटा परिवर्तन (सांख्यिकी)]] के अंतर्गत माध्य-निष्पक्षता संरक्षित नहीं है, हालांकि औसत-निष्पक्षता है (देखें § रूपांतरणों का प्रभाव); उदाहरण के लिए, प्रतिदर्श प्रसरण समष्टि प्रसरण के लिए अभिनत अनुमानक है। ये सभी नीचे सचित्र हैं। | |||
== परिभाषा == | == परिभाषा == | ||
मान लीजिए कि हमारे पास एक [[सांख्यिकीय मॉडल]] है, जिसे वास्तविक संख्या θ द्वारा परिचालित किया गया है, जो देखे गए डेटा , <math>P_\theta(x) = P(x\mid\theta)</math> के लिए प्रायिकता | मान लीजिए कि हमारे पास एक [[सांख्यिकीय मॉडल]] है, जिसे वास्तविक संख्या θ द्वारा परिचालित किया गया है, जो देखे गए डेटा, <math>P_\theta(x) = P(x\mid\theta)</math> के लिए प्रायिकता विभाजन को उत्पन्न करता है और एक आँकड़ा <math>\hat\theta</math> जो किसी भी देखे गए डेटा <math>x</math> के आधार पर θ के अनुमानक के रूप में कार्य करता है अर्थात्, हम मानते हैं कि हमारा डेटा किसी अज्ञात विभाजन <math>P(x\mid\theta)</math> का अनुसरण करता है (जहां θ एक निश्चित, अज्ञात स्थिरांक है जो इस विभाजन का हिस्सा है), और फिर हम कुछ अनुमानक <math>\hat\theta</math> का निर्माण करते हैं मानचित्रों ने डेटा को उन मानों पर देखा जो हम आशा करते हैं कि वे θ के समीप हैं। <math>\hat\theta</math> का 'अभिनत' के सापेक्ष <math>\theta</math> परिभाषित किया जाता है<ref name=":0">{{Cite web|last=Kozdron|first=Michael|date=March 2016|title=Evaluating the Goodness of an Estimator: Bias, Mean-Square Error, Relative Efficiency (Chapter 3)|url=http://stat.math.uregina.ca/~kozdron/Teaching/Regina/252Winter16/Handouts/ch3.pdf|access-date=2020-09-11|website=stat.math.uregina.ca}}</ref> | ||
:<math> \operatorname{Bias}(\hat\theta, \theta) =\operatorname{Bias}_\theta[\,\hat\theta\,] = \operatorname{E}_{x\mid\theta}[\,\hat{\theta}\,]-\theta = \operatorname{E}_{x\mid\theta}[\, \hat\theta - \theta \,],</math> | :<math> \operatorname{Bias}(\hat\theta, \theta) =\operatorname{Bias}_\theta[\,\hat\theta\,] = \operatorname{E}_{x\mid\theta}[\,\hat{\theta}\,]-\theta = \operatorname{E}_{x\mid\theta}[\, \hat\theta - \theta \,],</math> | ||
जहाँ <math>\operatorname{E}_{x\mid\theta}</math> | जहाँ <math>\operatorname{E}_{x\mid\theta}</math> विभाजन पर अपेक्षित मान <math>P(x\mid\theta)</math> दर्शाता है (अर्थात, सभी संभावित अवलोकनों का औसत <math>x</math>) दूसरा समीकरण अनुसरण करता है क्योंकि θ सशर्त विभाजन <math>P(x\mid\theta)</math> के संबंध में मापने योग्य है | ||
अनुमानक को अनभिनत कहा जाता है यदि इसका | अनुमानक को अनभिनत कहा जाता है यदि इसका अभिनत पैरामीटर ''θ'' के सभी मानों के लिए शून्य के बराबर है, या समतुल्य है, यदि अनुमानक का अपेक्षित मान पैरामीटर के समान होता है।<ref name=":1">{{Cite web|last=Taylor|first=Courtney|date=January 13, 2019|title=निष्पक्ष और पक्षपाती अनुमानक|url=https://www.thoughtco.com/what-is-an-unbiased-estimator-3126502|access-date=2020-09-12|website=ThoughtCo|language=en}}</ref> | ||
अनुमानक के गुणों से संबंधित अनुकरण प्रयोग में, अनुमानित अंतर का उपयोग करके अनुमानक के | अनुमानक के गुणों से संबंधित अनुकरण प्रयोग में, अनुमानित अंतर का उपयोग करके अनुमानक के अभिनत का आकलन किया जा सकता है। | ||
== उदाहरण == | == उदाहरण == | ||
=== प्रतिदर्श | === प्रतिदर्श प्रसरण === | ||
{{main|प्रतिदर्श विचरण}} | {{main|प्रतिदर्श विचरण}} | ||
यादृच्छिक चर का प्रतिदर्श प्रसरण अनुमानक | यादृच्छिक चर का प्रतिदर्श प्रसरण अनुमानक अभिनत के दो स्वरूप को प्रदर्शित करता है: सबसे पहले, सहज अनुमानक अभिनत है, जिसे मापन कारक द्वारा सही किया जा सकता है; दूसरा, अनभिनत अनुमानक माध्य औसत वर्ग त्रुटि (एमएसई) के स्थिति में इष्टतम नहीं है, जिसे एक अलग पैमाने के कारक का उपयोग करके कम किया जा सकता है, जिसके परिणामस्वरूप अनभिनत अनुमानक की तुलना में कम एमएसई वाला अभिनत अनुमानक होता है। मूर्त रूप से, सामान्य अनुमानक औसत वर्ग विचलन का योग करते हैं और n से विभाजित होते हैं, जो अभिनत है। इसके अतिरिक्त n − 1 से विभाजित करने पर अनभिनत अनुमानक प्राप्त होता है। इसके विपरीत, माध्य औसत वर्ग त्रुटि को एक अलग संख्या (विभाजन के आधार पर) से विभाजित करके कम किया जा सकता है, लेकिन इसका परिणाम अभिनत अनुमानक होता है। यह संख्या सदैव n − 1 से बड़ी होती है, इसलिए इसे अवमूल्यन अनुमानक के रूप में जाना जाता है, क्योंकि यह अनभिनत अनुमानक को शून्य की ओर अधिसंकुचन है; सामान्य विभाजन के लिए इष्टतम मान n + 1 है। | ||
मान लीजिए कि | मान लीजिए कि ''X''<sub>1</sub>, ..., ''X<sub>n</sub>'' स्वतंत्र हैं और समान रूप से वितरित (i.i.d.) यादृच्छिक चर हैं जिनकी अपेक्षा μ और प्रसरण σ2 है। यदि प्रतिदर्श माध्य और असंशोधित प्रतिदर्श प्रसरण को इस प्रकार परिभाषित किया गया है | ||
:<math>\overline{X}\,=\frac 1 n \sum_{i=1}^n X_i \qquad S^2=\frac 1 n \sum_{i=1}^n\big(X_i-\overline{X}\,\big)^2 \qquad </math> | :<math>\overline{X}\,=\frac 1 n \sum_{i=1}^n X_i \qquad S^2=\frac 1 n \sum_{i=1}^n\big(X_i-\overline{X}\,\big)^2 \qquad </math> | ||
तब S<sup>2</sup> ''σ''<sup>2</sup> का | तब S<sup>2</sup> ''σ''<sup>2</sup> का अभिनत अनुमानक है, क्योंकि | ||
:<math> | :<math> | ||
\begin{align} | \begin{align} | ||
Line 48: | Line 46: | ||
\end{align} | \end{align} | ||
</math> | </math> | ||
जारी रखने के लिए, हम ध्यान दें कि | जारी रखने के लिए, हम ध्यान दें कि <math>\mu</math> घटाकर के दोनों ओर से <math>\overline{X}= \frac 1 n \sum_{i=1}^nX_i</math>, हम पाते हैं | ||
:<math> | :<math> | ||
\begin{align} | \begin{align} | ||
Line 73: | Line 71: | ||
\end{align} | \end{align} | ||
</math> | </math> | ||
यह निम्न सूत्र को ध्यान में रखते हुए देखा जा सकता है, जो ऊपर दिए गए असंशोधित प्रतिदर्श प्रसरण की अपेक्षा के लिए असमानता में पद के लिए, बायनेमे सूत्र से अनुसरण करता है: <math>\operatorname{E}\big[ (\overline{X}-\mu)^2 \big] = \frac 1 n \sigma^2</math>. | |||
दूसरे शब्दों में, असंशोधित प्रतिदर्श प्रसरण का अपेक्षित मान | दूसरे शब्दों में, असंशोधित प्रतिदर्श प्रसरण का अपेक्षित मान समष्टि प्रसरण σ<sup>2</sup> के बराबर नहीं होता है, जब तक कि सामान्यीकरण कारक से गुणा न किया जाए। दूसरी ओर, प्रतिदर्श माध्य अनभिनत है<ref name="JohnsonWichern2007">{{cite book|author1=Richard Arnold Johnson|author2=Dean W. Wichern|title=अनुप्रयुक्त बहुभिन्नरूपी सांख्यिकीय विश्लेषण|url=https://books.google.com/books?id=gFWcQgAACAAJ|access-date=10 August 2012|year=2007|publisher=Pearson Prentice Hall|isbn=978-0-13-187715-3}}</ref> समष्टि माध्य μ का अनुमानक है।<ref name=":1" /> | ||
ध्यान दें कि प्रतिदर्श भिन्नता की सामान्य परिभाषा | ध्यान दें कि प्रतिदर्श भिन्नता की सामान्य परिभाषा <math>S^2=\frac 1 {n-1} \sum_{i=1}^n(X_i-\overline{X}\,)^2</math> है, और यह समष्टि प्रसरण का अनभिनत अनुमानक है। | ||
बीजगणितीय रूप से | बीजगणितीय रूप से, <math> \operatorname{E}[S^2] </math> अनभिनत है क्योंकि: | ||
:<math> | :<math> | ||
\begin{align} | \begin{align} | ||
Line 88: | Line 86: | ||
\end{align} | \end{align} | ||
</math> | </math> | ||
जहां दूसरी पंक्ति में संक्रमण | जहां दूसरी पंक्ति में संक्रमण अभिनत अनुमानक के लिए उपरोक्त व्युत्पन्न परिणाम का उपयोग करता है। इस प्रकार <math>\operatorname{E}[S^2] = \sigma^2</math>, और इसलिए <math>S^2=\frac 1 {n-1}\sum_{i=1}^n(X_i-\overline{X}\,)^2</math> समष्टि प्रसरण का σ<sup>2</sup> अनभिनत अनुमानक है। प्रसरण के अभिनत (असंशोधित) और अनभिनत अनुमानों के बीच के अनुपात को बेसेल के सुधार के रूप में जाना जाता है। | ||
कारण यह है कि एक असंशोधित प्रतिदर्श प्रसरण, S<sup>2</sup>, इस तथ्य से | कारण यह है कि एक असंशोधित प्रतिदर्श प्रसरण, S<sup>2</sup>, इस तथ्य से अभिनत है कि प्रतिदर्श माध्य μ के लिए एक सामान्य न्यूनतम वर्ग (ओएलएस) अनुमानक है: <math>\overline{X}</math> वह संख्या है जो <math>\sum_{i=1}^n (X_i-\overline{X})^2</math> जितना संभव हो उतना छोटा योग बनाती है। अर्थात, जब इस योग में किसी अन्य संख्या को जोड़ा जाता है, तो योग सिर्फ बढ़ सकता है। विशेष रूप से, <math>\mu \ne \overline{X}</math> का विकल्प देता है, | ||
:<math> | :<math> | ||
Line 103: | Line 101: | ||
\end{align} | \end{align} | ||
</math> | </math> | ||
उपरोक्त चर्चा को ज्यामितीय शब्दों में समझा जा सकता है: वेक्टर <math>\vec{C}=(X_1 -\mu, \ldots, X_n-\mu)</math> की दिशा में प्रक्षेपित करके माध्य भाग और | उपरोक्त चर्चा को ज्यामितीय शब्दों में समझा जा सकता है: वेक्टर <math>\vec{C}=(X_1 -\mu, \ldots, X_n-\mu)</math> की दिशा में प्रक्षेपित करके माध्य भाग और प्रसरण भाग <math> \vec{u}=(1,\ldots, 1)</math> और उस दिशा के लंबकोणीयपूरक अधिसमतल में विघटित किया जा सकता है। किसी को <math>\vec{A}=(\overline{X}-\mu, \ldots, \overline{X}-\mu)</math> भाग के लिए <math> \vec{u}</math> और <math>\vec{B}=(X_1-\overline{X}, \ldots, X_n-\overline{X})</math> पूरक भाग के लिए प्राप्त होता है। चूंकि यह एक लंबकोणीय अपघटन है, पाइथागोरस प्रमेय कहता है <math> |\vec{C}|^2= |\vec{A}|^2+ |\vec{B}|^2</math>, और अपेक्षाओं को लेकर हम <math> n \sigma^2 = n \operatorname{E}\left[ (\overline{X}-\mu)^2 \right] +n \operatorname{E}[S^2] </math> प्राप्त करते हैं, जैसा ऊपर (लेकिन <math>n</math> गुना) दिया गया है। यदि <math>\vec{C}</math> का विभाजन घूर्णी रूप से सममित है, जैसे कि जब <math>X_i</math> गॉसियन से प्रतिदर्श लिए जाते हैं, फिर औसतन <math> \vec{u}</math>, साथ में आयाम <math> |\vec{C}|^2</math> करने के लिए योगदान देते है समान रूप से <math>n-1</math> दिशाओं के लिए लंबवत <math> \vec{u}</math>, ताकि <math> \operatorname{E}\left[ (\overline{X}-\mu)^2 \right] =\frac{\sigma^2} n </math> और <math>\operatorname{E}[S^2] =\frac{(n-1)\sigma^2} n </math> यह वास्तव में सामान्य रूप से सत्य है, जैसा कि ऊपर बताया गया है। | ||
यदि | |||
=== प्वासों प्रायिकता का अनुमान लगाना === | === प्वासों प्रायिकता का अनुमान लगाना === | ||
किसी भी अनभिनत अनुमानक की तुलना में | किसी भी अनभिनत अनुमानक की तुलना में अभिनत अनुमानक के अधिकतम होने का एक और अधिक महत्वपूर्ण स्थिति पोइसन विभाजन से उत्पन्न होती है।<ref>J. P. Romano and A. F. Siegel (1986) ''[https://books.google.com/books?id=irKSXZ7kKFgC&q=Poisson Counterexamples in Probability and Statistics]'', Wadsworth & Brooks / Cole, Monterey, California, USA, p. 168</ref><ref>{{Cite journal | first = M.| title = एक प्रबुद्ध प्रति उदाहरण| jstor = 3647938| journal = American Mathematical Monthly| volume = 110| date = 1 March 2003 | issue = 3| pages = 234–238| issn = 0002-9890 | doi = 10.2307/3647938| last = Hardy| arxiv = math/0206006}}</ref> मान लीजिए कि x के पास अपेक्षा λ के साथ पॉइसन विभाजन है। मान लीजिए कि यह अनुमान लगाना चाहता है | ||
:<math>\operatorname{P}(X=0)^2=e^{-2\lambda}\quad</math> | :<math>\operatorname{P}(X=0)^2=e^{-2\lambda}\quad</math> | ||
आकार 1 के एक | आकार 1 के एक प्रतिदर्श के साथ। (उदाहरण के लिए, जब एक टेलीफोन स्विचबोर्ड पर आने वाली कॉल को पॉइसन प्रक्रिया के रूप में मॉडल किया जाता है, और λ प्रति मिनट कॉल की औसत संख्या e<sup>−2λ</sup> है, तो संभावना है कि अगले दो मिनट में कोई कॉल नहीं आएगी।) | ||
चूंकि अनभिनत अनुमानक की अपेक्षा δ(X) अनुमान के बराबर है, अर्थात | चूंकि अनभिनत अनुमानक की अपेक्षा δ(X) अनुमान के बराबर है, अर्थात | ||
:<math>\operatorname E(\delta(X))=\sum_{x=0}^\infty \delta(x) \frac{\lambda^x e^{-\lambda}}{x!} = e^{-2\lambda},</math> | :<math>\operatorname E(\delta(X))=\sum_{x=0}^\infty \delta(x) \frac{\lambda^x e^{-\lambda}}{x!} = e^{-2\lambda},</math> | ||
अनभिनत अनुमानक बनाने वाले डेटा का एकमात्र | अनभिनत अनुमानक बनाने वाले डेटा का एकमात्र फलन है | ||
:<math>\delta(x)=(-1)^x. \, </math> | :<math>\delta(x)=(-1)^x. \, </math> | ||
इसे देखने के लिए, ध्यान दें कि | इसे देखने के लिए, ध्यान दें कि अपेक्षा के लिए उपरोक्त अभिव्यक्ति से e<sup>−''λ''</sup> को विघटित करते समय, शेष राशि e<sup>−''λ''</sup> का टेलर श्रृंखला विस्तार भी है, जिससे e<sup>−''λ''</sup>e<sup>−''λ''</sup> = e<sup>−2''λ''</sup> प्राप्त होता है (घातीय फलन के विवरण देखें)। | ||
यदि | यदि x का प्रेक्षित मान 100 है, तो अनुमान 1 है, हालांकि अनुमानित मात्रा का सही मान 0 के समीप होने की संभावना है, जो विपरीत अधिकतम है। और, यदि X को 101 माना जाता है, तो अनुमान और भी असंगत है: यह -1 है, हालांकि अनुमानित मात्रा धनात्मक होनी चाहिए। | ||
( | (अभिनत) अधिकतम संभावना | ||
:<math>e^{-2{X}}\quad</math> | :<math>e^{-2{X}}\quad</math> | ||
इस अनभिनत अनुमानक से कहीं अधिकतम है। न | इस अनभिनत अनुमानक से कहीं अधिकतम है। न सिर्फ इसका मान सदैव धनात्मक होता है बल्कि यह इस अर्थ में भी अधिक परिशुद्ध होता है कि इसका माध्य औसत वर्ग त्रुटि है | ||
:<math>e^{-4\lambda}-2e^{\lambda(1/e^2-3)}+e^{\lambda(1/e^4-1)} \, </math> | :<math>e^{-4\lambda}-2e^{\lambda(1/e^2-3)}+e^{\lambda(1/e^4-1)} \, </math> | ||
छोटा है; | छोटा है; इसके अनभिनत अनुमानक के माध्य औसत वर्ग त्रुटि की तुलना करें | ||
:<math>1-e^{-4\lambda}. \, </math> | :<math>1-e^{-4\lambda}. \, </math> | ||
माध्य औसत वर्ग त्रुटि वास्तविक मान λ के फलन हैं। अधिकतम-संभावना अनुमानक का अभिनत है: | |||
:<math>e^{-2\lambda}-e^{\lambda(1/e^2-1)}. \, </math> | :<math>e^{-2\lambda}-e^{\lambda(1/e^2-1)}. \, </math> | ||
=== असतत समान | === असतत समान विभाजन का अधिकतम === | ||
{{main| | {{main|असतत समान वितरण का अधिकतम}} | ||
अधिकतम-संभावना अनुमानकों का | |||
अधिकतम-संभावना अनुमानकों का अभिनत पर्याप्त हो सकता है। एक ऐसे स्थिति पर विचार करें जहां 1 से n तक के n टिकटों को एक बॉक्स में रखा गया है और एक को यादृच्छिक रूप से चयन किया गया है, एक मान X दे रहा है। यदि n अज्ञात है, तो n का अधिकतम-संभावना अनुमानक X है, तथापि अपेक्षा X दिया हुआ n सिर्फ (n + 1)/2 है; हम सिर्फ निश्चित हो सकते हैं कि n कम से कम X है और संभव्यता अधिक है। इस स्थिति में, प्राकृतिक अनभिनत अनुमानक 2X − 1 है। | |||
== माध्य-अनभिनत अनुमानक == | == माध्य-अनभिनत अनुमानक == | ||
Line 138: | Line 136: | ||
1947 में जॉर्ज डब्ल्यू ब्राउन द्वारा माध्य-अनभिनत आकलनकर्ताओं के सिद्धांत को पुनर्जीवित किया गया था:<ref>Brown (1947), page 583</ref> | 1947 में जॉर्ज डब्ल्यू ब्राउन द्वारा माध्य-अनभिनत आकलनकर्ताओं के सिद्धांत को पुनर्जीवित किया गया था:<ref>Brown (1947), page 583</ref> | ||
{{blockquote|एक-आयामी पैरामीटर θ का एक अनुमान औसत-निष्पक्ष कहा जाएगा, यदि, निश्चित θ के लिए, अनुमान के वितरण का औसत मान θ पर है; अर्थात, अनुमान उतनी ही बार कम करके निर्धारित किया जाता है जितनी बार यह अधिक अनुमान लगाता है। यह आवश्यकता अधिकांश उद्देश्यों के लिए औसत-निष्पक्ष आवश्यकता को पूरा करने के लिए प्रतीत होती है और इसकी अतिरिक्त | {{blockquote|एक-आयामी पैरामीटर θ का एक अनुमान औसत-निष्पक्ष कहा जाएगा, यदि, निश्चित θ के लिए, अनुमान के वितरण का औसत मान θ पर है; अर्थात, अनुमान उतनी ही बार कम करके निर्धारित किया जाता है जितनी बार यह अधिक अनुमान लगाता है। यह आवश्यकता अधिकांश उद्देश्यों के लिए औसत-निष्पक्ष आवश्यकता को पूरा करने के लिए प्रतीत होती है और इसकी अतिरिक्त गुण है कि यह एक-से-एक परिवर्तन के अंर्तगत अपरिवर्तनीय है।}} | ||
मध्य-अनभिनत आकलनकर्ताओं के और गुणों को लेहमन, बिरनबाउम, वैन डेर वार्ट और फनज़ागल द्वारा नोट किया गया है।{{Citation needed|date=January 2011}} विशेष रूप से, औसत-अनभिनत अनुमानक ऐसे स्थितियों में सम्मिलित होते हैं जहां माध्य-अनभिनत और | मध्य-अनभिनत आकलनकर्ताओं के और गुणों को लेहमन, बिरनबाउम, वैन डेर वार्ट और फनज़ागल द्वारा नोट किया गया है।{{Citation needed|date=January 2011}} विशेष रूप से, औसत-अनभिनत अनुमानक ऐसे स्थितियों में सम्मिलित होते हैं जहां माध्य-अनभिनत और अधिकतम-संभावना अनुमानक सम्मिलित नहीं होते हैं। वे अंतःक्षेपी फलन एक-से-एक परिवर्तन के अंतर्गत अपरिवर्तनीय हैं। | ||
प्रायिकता | प्रायिकता विभाजन के लिए मध्य-अनभिनत अनुमानक के निर्माण के तरीके हैं जिनमें [[मोनोटोन संभावना अनुपात]] है।) जैसे कि एक-पैरामीटर घातीय वर्ग, यह सुनिश्चित करने के लिए कि वे इष्टतम हैं (माध्य-निष्पक्ष अनुमानक के लिए मानी जाने वाली न्यूनतम-विचरण गुण के अनुरूप)।<ref>{{cite journal |last=Pfanzagl |first=Johann |title=उपद्रव मापदंडों की उपस्थिति में इष्टतम औसत निष्पक्ष अनुमानकों पर|journal=The Annals of Statistics |year=1979 |volume=7 |issue=1 |pages=187–193 |doi=10.1214/aos/1176344563 |doi-access=free }}</ref><ref name="BrownEtAl">{{cite journal |last1=Brown |first1=L. D. |last2=Cohen |first2=Arthur |last3=Strawderman |first3=W. E. |title=अनुप्रयोगों के साथ सख्त मोनोटोन संभावना अनुपात के लिए एक पूर्ण वर्ग प्रमेय|journal=Ann. Statist. |volume=4 |year=1976 |issue=4 |pages=712–722 |doi=10.1214/aos/1176343543 |doi-access=free }}</ref> ऐसी ही एक प्रक्रिया माध्य-अनभिनत आकलनकर्ताओं के लिए राव-ब्लैकवेल प्रक्रिया का एक एनालॉग है: माध्य-अनभिनत अनुमान के लिए राव-ब्लैकवेल प्रक्रिया की तुलना में प्रक्रिया प्रायिकता विभाजन के एक छोटे वर्ग के लिए है, लेकिन हानि-फलनों के एक बड़े वर्ग के लिए है।<ref name="BrownEtAl" /> | ||
== अन्य हानि | == अन्य हानि फलनों के संबंध में अभिनत == | ||
कोई न्यूनतम- | कोई न्यूनतम-प्रसरण माध्य-अनभिनत अनुमानक औसत वर्ग-त्रुटि हानि फलन (माध्य-अनभिनत अनुमानकों के बीच) के संबंध में [[जोखिम (सांख्यिकी)]] ([[अपेक्षित हानि]]) को कम करता है, जैसा कि [[गॉस]] द्वारा देखा गया है।<ref name="Dodge">{{cite book |title=Statistical Data Analysis Based on the L<sub>1</sub>-Norm and Related Methods |series=Papers from the First International Conference held at Neuchâtel, August 31–September 4, 1987 |editor-first=Yadolah |editor-last=Dodge |publisher=North-Holland |location=Amsterdam |year=1987 |isbn=0-444-70273-3 }}</ref> एक न्यूनतम-औसत निरपेक्ष विचलन मध्य-अनभिनत आकलनकर्ता पूर्ण मान हानि फलन (मध्य-अनभिनत अनुमानकों के बीच) के संबंध में जोखिम को कम करता है, जैसा कि [[लाप्लास]] द्वारा देखा गया है।<ref name="Dodge" /><ref>{{cite book |last1=Jaynes |first1=E. T. |title=Probability Theory : The Logic of Science |date=2007 |publisher=Cambridge Univ. Press |location=Cambridge |isbn=978-0-521-59271-0 |page=172 }}</ref> अन्य त्रुटि फलनों का उपयोग, विशेष रूप से प्रबल सांख्यिकी में किया जाता है।<ref name="Dodge" /><ref>{{cite book |chapter=Loss Functions and the Theory of Unbiased Estimation |title=सांख्यिकी में मजबूत और गैर-मजबूत मॉडल|first1=Lev B. |last1=Klebanov |first2=Svetlozar T. |last2=Rachev |first3=Frank J. |last3=Fabozzi |publisher=Nova Scientific |location=New York |year=2009 |isbn=978-1-60741-768-2 }}</ref> | ||
== रूपांतरों का प्रभाव == | == रूपांतरों का प्रभाव == | ||
अविभाजित मापदंडों के लिए, मध्य-अनभिनत अनुमानक डेटा परिवर्तन (सांख्यिकी) के अंतर्गत मध्य-अनभिनत रहते हैं जो | अविभाजित मापदंडों के लिए, मध्य-अनभिनत अनुमानक डेटा परिवर्तन (सांख्यिकी) के अंतर्गत मध्य-अनभिनत रहते हैं जो क्रम (या प्रतिवर्त क्रम) को संरक्षित करते हैं। ध्यान दें कि, जब एक माध्य-अनभिनत अनुमानक पर रूपांतरण प्रयुक्त किया जाता है, तो परिणाम को इसके संगत समष्टि सांख्यिकी का माध्य-अनभिनत अनुमानक नहीं होना चाहिए। जेन्सेन की असमानता से, परिवर्तन के रूप में एक उत्तल फलन धनात्मक अभिनत प्रस्तुत करेगा, जबकि एक अवतल फलन ऋणात्मक अभिनत प्रस्तुत करेगा, और मिश्रित उत्तलता का फलन विशिष्ट फलन और विभाजन के आधार पर किसी भी दिशा में अभिनत प्रस्तुत कर सकता है। यह, एक गैर-रैखिक फलन F और पैरामीटर P के एक औसत-अनभिनत अनुमानक U के लिए, समग्र अनुमानक ''f''(''U'') को F(P) का एक औसत-अनभिनत अनुमानक नहीं होना चाहिए। उदाहरण के लिए, समष्टि प्रसरण के अनभिनत अनुमानक का [[वर्गमूल]] है {{em|not}} समष्टि [[मानक विचलन]] का माध्य-अनभिनत अनुमानक: अनभिनत प्रतिदर्श प्रसरण का वर्गमूल, सही [[नमूना मानक विचलन|प्रतिदर्श मानक विचलन]], अभिनत है। अभिनत अनुमानक के प्रतिदर्श विभाजन और परिवर्तन पर निर्भर करता है, और गणना करने के लिए अपेक्षाकृत अधिक सम्मिलित हो सकता है - इस स्थिति में चर्चा के लिए मानक विचलन का अनभिनत अनुमान देखें। | ||
ध्यान दें कि, जब एक माध्य-अनभिनत अनुमानक पर रूपांतरण | |||
== अभिनत, प्रसरण और माध्य औसत वर्ग त्रुटि == | |||
{{Main|अभिनत-प्रसरण समझौता}} | |||
{{See also|शुद्धता (सत्यता और सुस्पष्टता)}} | |||
[[Image:Example when estimator bias is good.svg|thumb|पैरामीटर β<sub>0</sub> के लिए दो वैकल्पिक अनुमानकों का प्रतिदर्शकरण विभाजन है। हालांकि β<sub>1</sub> निष्पक्ष है, यह अभिनत β<sub>2</sub> से स्पष्ट रूप से कम है।रिज प्रतिगमन एक तकनीक का एक उदाहरण है जहां अल्प अभिनत की स्वीकृति देने से विचरण में अधिकतम कमी आ सकती है, और समग्र रूप से अधिक विश्वसनीय अनुमान लग सकते हैं।]]जबकि अभिनत अनुमानक और अंतर्निहित पैरामीटर के बीच अपेक्षित औसत अंतर को मापता है, प्रतिदर्श में यादृच्छिकता के कारण परिमित प्रतिदर्श के आधार पर अनुमानक अतिरिक्त रूप से पैरामीटर से अलग होने की उपेक्षा कर सकता है। | |||
अनुमानक जो अभिनत को कम करता है, आवश्यक रूप से [[औसत वर्ग त्रुटि]] को कम नहीं करेगा। एक माप जिसका उपयोग दोनों प्रकार के अंतरों को दर्शाने के लिए किया जाता है, वह माध्य वर्ग त्रुटि है,<ref name=":0" /> | |||
<math>\operatorname{MSE}(\hat{\theta})=\operatorname{E}\big[(\hat{\theta}-\theta)^2\big].</math> | |||
यह अभिनत के वर्ग के बराबर, साथ ही प्रसरण दिखाया जा सकता है:<ref name=":0" /> | |||
<math>\begin{align} | |||
\operatorname{MSE}(\hat{\theta})= & (\operatorname{E}[\hat{\theta}]-\theta)^2 + \operatorname{E}[\,(\hat{\theta} - \operatorname{E}[\,\hat{\theta}\,])^2\,]\\ | \operatorname{MSE}(\hat{\theta})= & (\operatorname{E}[\hat{\theta}]-\theta)^2 + \operatorname{E}[\,(\hat{\theta} - \operatorname{E}[\,\hat{\theta}\,])^2\,]\\ | ||
= & (\operatorname{Bias}(\hat{\theta},\theta))^2 + \operatorname{Var}(\hat{\theta}) | = & (\operatorname{Bias}(\hat{\theta},\theta))^2 + \operatorname{Var}(\hat{\theta}) | ||
\end{align}</math> | \end{align}</math> | ||
जब पैरामीटर एक वेक्टर होता है, तो एक समान अपघटन | |||
जब पैरामीटर एक वेक्टर होता है, तो एक समान अपघटन प्रयुक्त होता है:<ref name="taboga">{{cite web | last1 = Taboga | first1 = Marco | url = http://www.statlect.com/glossary/mean_squared_error.htm | title = संभाव्यता सिद्धांत और गणितीय सांख्यिकी पर व्याख्यान| year=2010}}</ref> | |||
:<math>\operatorname{MSE}(\hat{\theta }) =\operatorname{trace}(\operatorname{Cov}(\hat{\theta })) | :<math>\operatorname{MSE}(\hat{\theta }) =\operatorname{trace}(\operatorname{Cov}(\hat{\theta })) | ||
+\left\Vert\operatorname{Bias}(\hat{\theta},\theta)\right\Vert^{2}</math> | +\left\Vert\operatorname{Bias}(\hat{\theta},\theta)\right\Vert^{2}</math> | ||
जहाँ <math>\operatorname{trace}(\operatorname{Cov}(\hat{\theta }))</math> अनुमानक के सहप्रसरण | जहाँ <math>\operatorname{trace}(\operatorname{Cov}(\hat{\theta }))</math> अनुमानक के सहप्रसरण आव्यूह का चिन्ह (विकर्ण योग) है और <math>\left\Vert\operatorname{Bias}(\hat{\theta},\theta)\right\Vert^{2}</math> वर्ग [[वेक्टर मानदंड]] है। | ||
=== उदाहरण: | === उदाहरण: समष्टि प्रसरण का अनुमान === | ||
उदाहरण के लिए,<ref>{{cite book |first=Morris H. |last=DeGroot |year=1986 |title=प्रायिकता अौर सांख्यिकी|url=https://archive.org/details/probabilitystati00degr_679 |url-access=limited |edition=2nd |publisher=Addison-Wesley |isbn=0-201-11366-X |pages=[https://archive.org/details/probabilitystati00degr_679/page/n423 414]–5 }} But compare it with, for example, the discussion in {{cite book |last1=Casella |last2=Berger |year=2001 |title=Statistical Inference |edition=2nd |publisher=Duxbury |isbn=0-534-24312-6 |page=332 }}</ref> मान लीजिए | उदाहरण के लिए,<ref>{{cite book |first=Morris H. |last=DeGroot |year=1986 |title=प्रायिकता अौर सांख्यिकी|url=https://archive.org/details/probabilitystati00degr_679 |url-access=limited |edition=2nd |publisher=Addison-Wesley |isbn=0-201-11366-X |pages=[https://archive.org/details/probabilitystati00degr_679/page/n423 414]–5 }} But compare it with, for example, the discussion in {{cite book |last1=Casella |last2=Berger |year=2001 |title=Statistical Inference |edition=2nd |publisher=Duxbury |isbn=0-534-24312-6 |page=332 }}</ref> मान लीजिए प्ररूप का अनुमानक | ||
:<math>T^2 = c \sum_{i=1}^n\left(X_i-\overline{X}\,\right)^2 = c n S^2</math> | :<math>T^2 = c \sum_{i=1}^n\left(X_i-\overline{X}\,\right)^2 = c n S^2</math> | ||
उपरोक्त के अनुसार | उपरोक्त के अनुसार समष्टि प्रसरण के लिए मांगा गया है, लेकिन इस बार एमएसई को कम करने के लिए: | ||
:<math>\begin{align}\operatorname{MSE} = & \operatorname{E}\left[(T^2 - \sigma^2)^2\right] \\ | :<math>\begin{align}\operatorname{MSE} = & \operatorname{E}\left[(T^2 - \sigma^2)^2\right] \\ | ||
= & \left(\operatorname{E}\left[T^2 - \sigma^2\right]\right)^2 + \operatorname{Var}(T^2)\end{align}</math> | = & \left(\operatorname{E}\left[T^2 - \sigma^2\right]\right)^2 + \operatorname{Var}(T^2)\end{align}</math> | ||
यदि चर X<sub>1</sub> ... | यदि चर X<sub>1</sub> ... X<sub>''n''</sub> एक सामान्य विभाजन का अनुसरण करें, फिर ''nS''<sup>2</sup>/σ<sup>2</sup> का n − 1 घात की अबद्धता के साथ काई वर्ग विभाजन है, जो देता है: | ||
:<math>\operatorname{E}[nS^2] = (n-1)\sigma^2\text{ and }\operatorname{Var}(nS^2)=2(n-1)\sigma^4. </math> | :<math>\operatorname{E}[nS^2] = (n-1)\sigma^2\text{ and }\operatorname{Var}(nS^2)=2(n-1)\sigma^4. </math> | ||
Line 184: | Line 186: | ||
:<math>\operatorname{MSE} = (c (n-1) - 1)^2\sigma^4 + 2c^2(n-1)\sigma^4</math> | :<math>\operatorname{MSE} = (c (n-1) - 1)^2\sigma^4 + 2c^2(n-1)\sigma^4</math> | ||
आंशिक बीजगणित के साथ यह पुष्टि की जा सकती है कि यह c = 1/(n + 1) है जो इस संयुक्त त्रुटि फलन को कम करता है, अतिरिक्त c = 1/(n − 1) जो अभिनत के वर्ग को कम करता है। | |||
सामान्य रूप से यह | सामान्य रूप से यह सिर्फ प्रतिबंधित वर्गों की समस्याओं में होता है कि एक अनुमानक होगा जो पैरामीटर मानों से स्वतंत्र रूप से एमएसई को कम करता है। | ||
हालांकि यह बहुत | हालांकि यह बहुत सामान्य है कि अभिनत-प्रसरण समझौता समन्वय को माना जा सकता है, जैसे कि अभिनत में एक छोटी सी वृद्धि भिन्नता में बड़ी कमी के लिए कारोबार की जा सकती है, जिसके परिणामस्वरूप समग्र रूप से अधिक वांछनीय अनुमानक होता है। | ||
== बायेसियन | == बायेसियन दृश्य == | ||
अधिकांश बेयसियन अपने अनुमानों के निष्पक्षता (कम से कम औपचारिक प्रतिदर्शकरण-सिद्धांत के अर्थ में) के बारे में असंबद्ध हैं। उदाहरण के लिए, गेलमैन और कोउथर्स (1995) लिखते हैं: बायेसियन दृष्टिकोण से, निष्पक्षता का सिद्धांत बड़े | अधिकांश बेयसियन अपने अनुमानों के निष्पक्षता (कम से कम औपचारिक प्रतिदर्शकरण-सिद्धांत के अर्थ में) के बारे में असंबद्ध हैं। उदाहरण के लिए, गेलमैन और कोउथर्स (1995) लिखते हैं: बायेसियन दृष्टिकोण से, निष्पक्षता का सिद्धांत बड़े प्रतिदर्शों की सीमा में उपयुक्त है, लेकिन अन्यथा यह संभावित रूप से भ्रामक है।<ref>{{cite book |first1=A. |last1=Gelman |display-authors=1 |first2=John S. |last2=Carlin |first3=Hal S. |last3=Stern |first4=Donald B. |last4=Rubin |year=1995 |title=बायेसियन डेटा विश्लेषण|publisher=Chapman and Hall |isbn=0-412-03991-5 |page=108 }}</ref> | ||
मौलिक रूप से, [[बायेसियन सांख्यिकी]] और उपरोक्त प्रतिदर्शकरण-सिद्धांत दृष्टिकोण के बीच का अंतर यह है कि प्रतिदर्शकरण-सिद्धांत दृष्टिकोण में पैरामीटर को निश्चित रूप में लिया जाता है, और फिर डेटा के पूर्वानुमानित प्रतिदर्श | |||
मौलिक रूप से, [[बायेसियन सांख्यिकी]] और उपरोक्त प्रतिदर्शकरण-सिद्धांत दृष्टिकोण के बीच का अंतर यह है कि प्रतिदर्शकरण-सिद्धांत दृष्टिकोण में पैरामीटर को निश्चित रूप में लिया जाता है, और फिर डेटा के पूर्वानुमानित प्रतिदर्श विभाजन के आधार पर एक आंकड़े के प्रायिकता विभाजन पर विचार किया जाता है। बायेसियन के लिए, हालांकि, यह वह डेटा है जो ज्ञात और निश्चित है, और यह अज्ञात पैरामीटर है जिसके लिए बेयस प्रमेय का उपयोग करके प्रायिकता विभाजन का निर्माण करने का प्रयास किया जाता है: | |||
:<math>p(\theta \mid D, I) \propto p(\theta \mid I) p(D \mid \theta, I)</math> | :<math>p(\theta \mid D, I) \propto p(\theta \mid I) p(D \mid \theta, I)</math> | ||
यहां दूसरा शब्द, अज्ञात पैरामीटर मान θ दिए गए डेटा की संभावना फलन, | यहां दूसरा शब्द, अज्ञात पैरामीटर मान θ दिए गए डेटा की संभावना फलन, सिर्फ प्राप्त डेटा और डेटा उत्पादन प्रक्रिया के मॉडलिंग पर निर्भर करता है। हालाँकि, बायेसियन गणना में पहला शब्द भी सम्मिलित है, θ के लिए [[पूर्व संभावना]], जो डेटा के आने से पहले विश्लेषक को θ के बारे में जानने या संदेह करने वाली हर वस्तु की गणना करता है। यह जानकारी प्रतिदर्शकरण-सिद्धांत दृष्टिकोण में कोई भूमिका नहीं निभाती है; वास्तव में इसे सम्मिलित करने के किसी भी प्रयास को डेटा द्वारा विशुद्ध रूप से बताए गए अभिनत से दूर माना जाएगा। इस हद तक कि बायेसियन गणनाओं में पूर्व सूचना सम्मिलित है, इसलिए यह अनिवार्य रूप से अपरिहार्य है कि उनके परिणाम प्रतिदर्शकरण सिद्धांत के संदर्भ में अनभिनत नहीं होंगे। | ||
लेकिन एक बायेसियन दृष्टिकोण के परिणाम प्रतिदर्शकरण सिद्धांत के दृष्टिकोण से भिन्न हो सकते हैं, | लेकिन एक बायेसियन दृष्टिकोण के परिणाम प्रतिदर्शकरण सिद्धांत के दृष्टिकोण से भिन्न हो सकते हैं, तथापि बायेसियन पूर्व में एक गैर-सूचनात्मक स्वीकार करने का प्रयास करता हो। | ||
उदाहरण के लिए, | उदाहरण के लिए, पुनः अज्ञात माध्य के साथ सामान्य विभाजन का अज्ञात समष्टि प्रसरण σ <sup>2</sup> के अनुमान पर विचार करें, जहां अपेक्षित हानि फलन में c को अनुकूलित करना वांछित है | ||
:<math>\operatorname{Expected Loss} = \operatorname{E}\left[\left(c n S^2 - \sigma^2\right)^2\right] = \operatorname{E}\left[\sigma^4 \left(c n \tfrac{S^2}{\sigma^2} -1 \right)^2\right]</math> | :<math>\operatorname{Expected Loss} = \operatorname{E}\left[\left(c n S^2 - \sigma^2\right)^2\right] = \operatorname{E}\left[\sigma^4 \left(c n \tfrac{S^2}{\sigma^2} -1 \right)^2\right]</math> | ||
इस समस्या के लिए | इस समस्या के लिए बिना जानकारी के पूर्व का एक मानक विकल्प जेफ़रीज़ प्रायर, <math>\scriptstyle{p(\sigma^2) \;\propto\; 1 / \sigma^2}</math> है, जो ln(σ<sup>2</sup>) से पहले एक पुनः मापन-अपरिवर्तनीय समतल भाग को स्वीकृत करने के बराबर है। | ||
इसे पहले | इसे पहले स्वीकृत करने का एक परिणाम यह है कि ''S''<sup>2</sup>/σ<sup>2</sup> एक महत्वपूर्ण परिणाम है, अर्थात ''S''<sup>2</sup>/σ<sup>2</sup> का प्रायिकता विभाजन केवल ''S''<sup>2</sup>/σ<sup>2</sup> पर निर्भर करता है जो ''S''<sup>2</sup> या σ<sup>2</sup> के मान से स्वतंत्र है: | ||
:<math>p\left(\tfrac{S^2}{\sigma^2}\mid S^2\right) = p\left(\tfrac{S^2}{\sigma^2}\mid \sigma^2\right) = g\left(\tfrac{S^2}{\sigma^2}\right)</math> | :<math>p\left(\tfrac{S^2}{\sigma^2}\mid S^2\right) = p\left(\tfrac{S^2}{\sigma^2}\mid \sigma^2\right) = g\left(\tfrac{S^2}{\sigma^2}\right)</math> | ||
Line 213: | Line 216: | ||
:<math>\operatorname{E}_{p(\sigma^2\mid S^2)}\left[\sigma^4 \left(c n \tfrac{S^2}{\sigma^2} -1 \right)^2\right] \neq \sigma^4 \operatorname{E}_{p(\sigma^2\mid S^2)}\left[\left(c n \tfrac{S^2}{\sigma^2} -1 \right)^2\right]</math> | :<math>\operatorname{E}_{p(\sigma^2\mid S^2)}\left[\sigma^4 \left(c n \tfrac{S^2}{\sigma^2} -1 \right)^2\right] \neq \sigma^4 \operatorname{E}_{p(\sigma^2\mid S^2)}\left[\left(c n \tfrac{S^2}{\sigma^2} -1 \right)^2\right]</math> | ||
— जब | — जब उपेक्षा को σ<sup>2</sup> के प्रायिकता विभाजन पर ले लिया जाता है दिया हुआ S<sup>2</sup>, जैसा कि S<sup>2</sup> के अतिरिक्त बायेसियन स्थिति में है दिए गए p<sup>2</sup>, अब कोई σ<sup>4</sup> नहीं ले सकता एक स्थिरांक के रूप में और इसका गुणनखंडन करें। इसका परिणाम यह है कि, प्रतिदर्शकरण-सिद्धांत गणना की तुलना में, बायेसियन गणना σ<sup>2</sup> के बड़े मानों पर अधिक भार डालती है।, सही से ध्यान में रखते हुए (चूंकि प्रतिदर्शकरण-सिद्धांत गणना नहीं कर सकता) कि इस औसत वर्ग-हानि फलन के अंतर्गत σ<sup>2</sup> के बड़े मानों को कम न्यून आकलन के संदर्भ मे σ<sup>2</sup> के छोटे मूल्यों को अधिक आकलन की तुलना में अधिक बहुमूल्य है। | ||
लिखी गई बायेसियन गणना σ<sup>2 के पश्च प्रायिकता विभाजन के लिए अबद्धता की n − 1 घात के साथ एक मापन्ड व्युत्क्रम काई वर्ग विभाजन देता है। प्रत्याशित हानि को न्यूनतम किया जाता है जब ''cnS''<sup>2 = <σ<sup>2>; यह तब होता है जब c = 1/(n − 3) है। | |||
यहां तक कि एक अनौपचारिक पूर्व के साथ, इसलिए, बायेसियन गणना समान प्रतिदर्श-सिद्धांत गणना के समान अपेक्षित- | यहां तक कि एक अनौपचारिक पूर्व के साथ, इसलिए, बायेसियन गणना समान प्रतिदर्श-सिद्धांत गणना के समान अपेक्षित-त्रुटि न्यूनतम परिणाम नहीं दे सकती है। | ||
== यह भी देखें == | == यह भी देखें == | ||
{{Portal|Science|Mathematics}} | {{Portal|Science|Mathematics}} | ||
{{Div col|colwidth=20em}} | {{Div col|colwidth=20em}} | ||
* | * सतत अनुमानक | ||
* [[ | * [[सक्षम अनुमानक]] | ||
* [[अनुमान सिद्धांत]] | * [[अनुमान सिद्धांत]] | ||
*अपेक्षित हानि | *अपेक्षित हानि | ||
* अपेक्षित | * अपेक्षित मान | ||
* | * त्रुटि फलन | ||
* [[न्यूनतम-विचरण निष्पक्ष अनुमानक]] | * [[न्यूनतम-विचरण निष्पक्ष अनुमानक]] | ||
* [[लोप-चर | * [[लोप-चर अभिनत]] | ||
* [[आशावाद | * [[आशावाद अभिनत]] | ||
* [[अनुपात अनुमानक]] | * [[अनुपात अनुमानक]] | ||
* [[सांख्यिकीय निर्णय सिद्धांत]] | * [[सांख्यिकीय निर्णय सिद्धांत]] | ||
Line 253: | Line 256: | ||
==बाहरी संबंध== | ==बाहरी संबंध== | ||
* {{springer|title= | * {{springer|title=निष्पक्ष आकलनकर्ता|id=p/u095070}} {{clarify|date=May 2013}} | ||
{{DEFAULTSORT:Bias of an estimator}} | |||
[[Category: | [[Category:All articles with unsourced statements|Bias of an estimator]] | ||
[[Category:Created On 20/03/2023]] | [[Category:Articles with hatnote templates targeting a nonexistent page|Bias of an estimator]] | ||
[[Category:Articles with unsourced statements from January 2011|Bias of an estimator]] | |||
[[Category:CS1|Bias of an estimator]] | |||
[[Category:CS1 English-language sources (en)]] | |||
[[Category:Created On 20/03/2023|Bias of an estimator]] | |||
[[Category:Lua-based templates|Bias of an estimator]] | |||
[[Category:Machine Translated Page|Bias of an estimator]] | |||
[[Category:Multi-column templates|Bias of an estimator]] | |||
[[Category:Pages using div col with small parameter|Bias of an estimator]] | |||
[[Category:Pages with empty portal template|Bias of an estimator]] | |||
[[Category:Pages with script errors|Bias of an estimator]] | |||
[[Category:Portal templates with redlinked portals|Bias of an estimator]] | |||
[[Category:Short description with empty Wikidata description|Bias of an estimator]] | |||
[[Category:Templates Vigyan Ready|Bias of an estimator]] | |||
[[Category:Templates that add a tracking category|Bias of an estimator]] | |||
[[Category:Templates that generate short descriptions|Bias of an estimator]] | |||
[[Category:Templates using TemplateData|Bias of an estimator]] | |||
[[Category:Templates using under-protected Lua modules|Bias of an estimator]] | |||
[[Category:Wikipedia articles needing clarification from May 2013|Bias of an estimator]] | |||
[[Category:Wikipedia fully protected templates|Div col]] | |||
[[Category:पक्षपात|Bias of an estimator]] | |||
[[Category:परिशुद्धता और यथार्थता|Bias of an estimator]] | |||
[[Category:बिंदु अनुमान प्रदर्शन|Bias of an estimator]] |
Latest revision as of 16:17, 13 April 2023
सांख्यिकी में, अनुमानक (या अभिनत फलन) का अभिनत इस अनुमानक के अपेक्षित मान और अनुमानित पैरामीटर के वास्तविक मान के बीच का अंतर है। शून्य अभिनत वाला अनुमानक या निर्णय नियम अनभिनत कहलाता है। सांख्यिकी में, "अभिनत" एक अनुमानक की एक वस्तुगत गुण है। अभिनत संगति से एक अलग अवधारणा है: सुसंगत अनुमानक संभाव्यता में पैरामीटर के वास्तविक मान में अभिसरण करते हैं, लेकिन अभिनतपूर्ण या अनभिनत हो सकते हैं; अधिक जानकारी के लिए अभिनत बनाम निरंतरता देखें।
अन्य सभी समान होने के कारण, अनभिनत अनुमानक अभिनत अनुमानक के लिए अधिकतम है, हालांकि व्यवहार में, अभिनत अनुमानक (सामान्य रूप से छोटे अभिनत के साथ) प्रायः उपयोग किए जाते हैं। जब अभिनत अनुमानक का उपयोग किया जाता है, तो अभिनत की सीमा की गणना की जाती है। अभिनत अनुमानक का उपयोग विभिन्न कारणों से किया जा सकता है: क्योंकि समष्टि के बारे में और धारणाओं के बिना अनभिनत अनुमानक सम्मिलित नहीं है; क्योंकि एक अनुमानक की गणना करना कठिन है (मानक विचलन के अनभिनत अनुमान के रूप में); क्योंकि केंद्रीय प्रवृत्ति के विभिन्न समाधानों के संबंध में अभिनत अनुमानक अनभिनत हो सकता है; क्योंकि एक पक्षपाती अनुमानक निष्पक्ष अनुमानकों (विशेष रूप से अवमूल्यन अनुमानक में) की तुलना में कुछ हानि फलन (विशेष रूप से औसत वर्ग त्रुटि) का कम मान देता है; या क्योंकि कुछ स्थितियों में अनभिनत होना बहुत प्रबल स्थिति है, और सिर्फ अनभिनत अनुमानक उपयोगी नहीं होते हैं।
अभिनत को औसत (अपेक्षित मान) के अतिरिक्त माध्यिका के संबंध में भी मापा जा सकता है, इस स्थिति में सामान्य औसत-निष्पक्षता गुण से औसत-निष्पक्षता को अलग करता है। गैर-रैखिक डेटा परिवर्तन (सांख्यिकी) के अंतर्गत माध्य-निष्पक्षता संरक्षित नहीं है, हालांकि औसत-निष्पक्षता है (देखें § रूपांतरणों का प्रभाव); उदाहरण के लिए, प्रतिदर्श प्रसरण समष्टि प्रसरण के लिए अभिनत अनुमानक है। ये सभी नीचे सचित्र हैं।
परिभाषा
मान लीजिए कि हमारे पास एक सांख्यिकीय मॉडल है, जिसे वास्तविक संख्या θ द्वारा परिचालित किया गया है, जो देखे गए डेटा, के लिए प्रायिकता विभाजन को उत्पन्न करता है और एक आँकड़ा जो किसी भी देखे गए डेटा के आधार पर θ के अनुमानक के रूप में कार्य करता है अर्थात्, हम मानते हैं कि हमारा डेटा किसी अज्ञात विभाजन का अनुसरण करता है (जहां θ एक निश्चित, अज्ञात स्थिरांक है जो इस विभाजन का हिस्सा है), और फिर हम कुछ अनुमानक का निर्माण करते हैं मानचित्रों ने डेटा को उन मानों पर देखा जो हम आशा करते हैं कि वे θ के समीप हैं। का 'अभिनत' के सापेक्ष परिभाषित किया जाता है[1]
जहाँ विभाजन पर अपेक्षित मान दर्शाता है (अर्थात, सभी संभावित अवलोकनों का औसत ) दूसरा समीकरण अनुसरण करता है क्योंकि θ सशर्त विभाजन के संबंध में मापने योग्य है
अनुमानक को अनभिनत कहा जाता है यदि इसका अभिनत पैरामीटर θ के सभी मानों के लिए शून्य के बराबर है, या समतुल्य है, यदि अनुमानक का अपेक्षित मान पैरामीटर के समान होता है।[2]
अनुमानक के गुणों से संबंधित अनुकरण प्रयोग में, अनुमानित अंतर का उपयोग करके अनुमानक के अभिनत का आकलन किया जा सकता है।
उदाहरण
प्रतिदर्श प्रसरण
यादृच्छिक चर का प्रतिदर्श प्रसरण अनुमानक अभिनत के दो स्वरूप को प्रदर्शित करता है: सबसे पहले, सहज अनुमानक अभिनत है, जिसे मापन कारक द्वारा सही किया जा सकता है; दूसरा, अनभिनत अनुमानक माध्य औसत वर्ग त्रुटि (एमएसई) के स्थिति में इष्टतम नहीं है, जिसे एक अलग पैमाने के कारक का उपयोग करके कम किया जा सकता है, जिसके परिणामस्वरूप अनभिनत अनुमानक की तुलना में कम एमएसई वाला अभिनत अनुमानक होता है। मूर्त रूप से, सामान्य अनुमानक औसत वर्ग विचलन का योग करते हैं और n से विभाजित होते हैं, जो अभिनत है। इसके अतिरिक्त n − 1 से विभाजित करने पर अनभिनत अनुमानक प्राप्त होता है। इसके विपरीत, माध्य औसत वर्ग त्रुटि को एक अलग संख्या (विभाजन के आधार पर) से विभाजित करके कम किया जा सकता है, लेकिन इसका परिणाम अभिनत अनुमानक होता है। यह संख्या सदैव n − 1 से बड़ी होती है, इसलिए इसे अवमूल्यन अनुमानक के रूप में जाना जाता है, क्योंकि यह अनभिनत अनुमानक को शून्य की ओर अधिसंकुचन है; सामान्य विभाजन के लिए इष्टतम मान n + 1 है।
मान लीजिए कि X1, ..., Xn स्वतंत्र हैं और समान रूप से वितरित (i.i.d.) यादृच्छिक चर हैं जिनकी अपेक्षा μ और प्रसरण σ2 है। यदि प्रतिदर्श माध्य और असंशोधित प्रतिदर्श प्रसरण को इस प्रकार परिभाषित किया गया है
तब S2 σ2 का अभिनत अनुमानक है, क्योंकि
जारी रखने के लिए, हम ध्यान दें कि घटाकर के दोनों ओर से , हम पाते हैं
अर्थ, (तिर्यक-गुणन द्वारा) . फिर, पहला बन जाता है:
यह निम्न सूत्र को ध्यान में रखते हुए देखा जा सकता है, जो ऊपर दिए गए असंशोधित प्रतिदर्श प्रसरण की अपेक्षा के लिए असमानता में पद के लिए, बायनेमे सूत्र से अनुसरण करता है: .
दूसरे शब्दों में, असंशोधित प्रतिदर्श प्रसरण का अपेक्षित मान समष्टि प्रसरण σ2 के बराबर नहीं होता है, जब तक कि सामान्यीकरण कारक से गुणा न किया जाए। दूसरी ओर, प्रतिदर्श माध्य अनभिनत है[3] समष्टि माध्य μ का अनुमानक है।[2]
ध्यान दें कि प्रतिदर्श भिन्नता की सामान्य परिभाषा है, और यह समष्टि प्रसरण का अनभिनत अनुमानक है।
बीजगणितीय रूप से, अनभिनत है क्योंकि:
जहां दूसरी पंक्ति में संक्रमण अभिनत अनुमानक के लिए उपरोक्त व्युत्पन्न परिणाम का उपयोग करता है। इस प्रकार , और इसलिए समष्टि प्रसरण का σ2 अनभिनत अनुमानक है। प्रसरण के अभिनत (असंशोधित) और अनभिनत अनुमानों के बीच के अनुपात को बेसेल के सुधार के रूप में जाना जाता है।
कारण यह है कि एक असंशोधित प्रतिदर्श प्रसरण, S2, इस तथ्य से अभिनत है कि प्रतिदर्श माध्य μ के लिए एक सामान्य न्यूनतम वर्ग (ओएलएस) अनुमानक है: वह संख्या है जो जितना संभव हो उतना छोटा योग बनाती है। अर्थात, जब इस योग में किसी अन्य संख्या को जोड़ा जाता है, तो योग सिर्फ बढ़ सकता है। विशेष रूप से, का विकल्प देता है,
और तब
उपरोक्त चर्चा को ज्यामितीय शब्दों में समझा जा सकता है: वेक्टर की दिशा में प्रक्षेपित करके माध्य भाग और प्रसरण भाग और उस दिशा के लंबकोणीयपूरक अधिसमतल में विघटित किया जा सकता है। किसी को भाग के लिए और पूरक भाग के लिए प्राप्त होता है। चूंकि यह एक लंबकोणीय अपघटन है, पाइथागोरस प्रमेय कहता है , और अपेक्षाओं को लेकर हम प्राप्त करते हैं, जैसा ऊपर (लेकिन गुना) दिया गया है। यदि का विभाजन घूर्णी रूप से सममित है, जैसे कि जब गॉसियन से प्रतिदर्श लिए जाते हैं, फिर औसतन , साथ में आयाम करने के लिए योगदान देते है समान रूप से दिशाओं के लिए लंबवत , ताकि और यह वास्तव में सामान्य रूप से सत्य है, जैसा कि ऊपर बताया गया है।
प्वासों प्रायिकता का अनुमान लगाना
किसी भी अनभिनत अनुमानक की तुलना में अभिनत अनुमानक के अधिकतम होने का एक और अधिक महत्वपूर्ण स्थिति पोइसन विभाजन से उत्पन्न होती है।[4][5] मान लीजिए कि x के पास अपेक्षा λ के साथ पॉइसन विभाजन है। मान लीजिए कि यह अनुमान लगाना चाहता है
आकार 1 के एक प्रतिदर्श के साथ। (उदाहरण के लिए, जब एक टेलीफोन स्विचबोर्ड पर आने वाली कॉल को पॉइसन प्रक्रिया के रूप में मॉडल किया जाता है, और λ प्रति मिनट कॉल की औसत संख्या e−2λ है, तो संभावना है कि अगले दो मिनट में कोई कॉल नहीं आएगी।)
चूंकि अनभिनत अनुमानक की अपेक्षा δ(X) अनुमान के बराबर है, अर्थात
अनभिनत अनुमानक बनाने वाले डेटा का एकमात्र फलन है
इसे देखने के लिए, ध्यान दें कि अपेक्षा के लिए उपरोक्त अभिव्यक्ति से e−λ को विघटित करते समय, शेष राशि e−λ का टेलर श्रृंखला विस्तार भी है, जिससे e−λe−λ = e−2λ प्राप्त होता है (घातीय फलन के विवरण देखें)।
यदि x का प्रेक्षित मान 100 है, तो अनुमान 1 है, हालांकि अनुमानित मात्रा का सही मान 0 के समीप होने की संभावना है, जो विपरीत अधिकतम है। और, यदि X को 101 माना जाता है, तो अनुमान और भी असंगत है: यह -1 है, हालांकि अनुमानित मात्रा धनात्मक होनी चाहिए।
(अभिनत) अधिकतम संभावना
इस अनभिनत अनुमानक से कहीं अधिकतम है। न सिर्फ इसका मान सदैव धनात्मक होता है बल्कि यह इस अर्थ में भी अधिक परिशुद्ध होता है कि इसका माध्य औसत वर्ग त्रुटि है
छोटा है; इसके अनभिनत अनुमानक के माध्य औसत वर्ग त्रुटि की तुलना करें
माध्य औसत वर्ग त्रुटि वास्तविक मान λ के फलन हैं। अधिकतम-संभावना अनुमानक का अभिनत है:
असतत समान विभाजन का अधिकतम
अधिकतम-संभावना अनुमानकों का अभिनत पर्याप्त हो सकता है। एक ऐसे स्थिति पर विचार करें जहां 1 से n तक के n टिकटों को एक बॉक्स में रखा गया है और एक को यादृच्छिक रूप से चयन किया गया है, एक मान X दे रहा है। यदि n अज्ञात है, तो n का अधिकतम-संभावना अनुमानक X है, तथापि अपेक्षा X दिया हुआ n सिर्फ (n + 1)/2 है; हम सिर्फ निश्चित हो सकते हैं कि n कम से कम X है और संभव्यता अधिक है। इस स्थिति में, प्राकृतिक अनभिनत अनुमानक 2X − 1 है।
माध्य-अनभिनत अनुमानक
1947 में जॉर्ज डब्ल्यू ब्राउन द्वारा माध्य-अनभिनत आकलनकर्ताओं के सिद्धांत को पुनर्जीवित किया गया था:[6]
एक-आयामी पैरामीटर θ का एक अनुमान औसत-निष्पक्ष कहा जाएगा, यदि, निश्चित θ के लिए, अनुमान के वितरण का औसत मान θ पर है; अर्थात, अनुमान उतनी ही बार कम करके निर्धारित किया जाता है जितनी बार यह अधिक अनुमान लगाता है। यह आवश्यकता अधिकांश उद्देश्यों के लिए औसत-निष्पक्ष आवश्यकता को पूरा करने के लिए प्रतीत होती है और इसकी अतिरिक्त गुण है कि यह एक-से-एक परिवर्तन के अंर्तगत अपरिवर्तनीय है।
मध्य-अनभिनत आकलनकर्ताओं के और गुणों को लेहमन, बिरनबाउम, वैन डेर वार्ट और फनज़ागल द्वारा नोट किया गया है।[citation needed] विशेष रूप से, औसत-अनभिनत अनुमानक ऐसे स्थितियों में सम्मिलित होते हैं जहां माध्य-अनभिनत और अधिकतम-संभावना अनुमानक सम्मिलित नहीं होते हैं। वे अंतःक्षेपी फलन एक-से-एक परिवर्तन के अंतर्गत अपरिवर्तनीय हैं।
प्रायिकता विभाजन के लिए मध्य-अनभिनत अनुमानक के निर्माण के तरीके हैं जिनमें मोनोटोन संभावना अनुपात है।) जैसे कि एक-पैरामीटर घातीय वर्ग, यह सुनिश्चित करने के लिए कि वे इष्टतम हैं (माध्य-निष्पक्ष अनुमानक के लिए मानी जाने वाली न्यूनतम-विचरण गुण के अनुरूप)।[7][8] ऐसी ही एक प्रक्रिया माध्य-अनभिनत आकलनकर्ताओं के लिए राव-ब्लैकवेल प्रक्रिया का एक एनालॉग है: माध्य-अनभिनत अनुमान के लिए राव-ब्लैकवेल प्रक्रिया की तुलना में प्रक्रिया प्रायिकता विभाजन के एक छोटे वर्ग के लिए है, लेकिन हानि-फलनों के एक बड़े वर्ग के लिए है।[8]
अन्य हानि फलनों के संबंध में अभिनत
कोई न्यूनतम-प्रसरण माध्य-अनभिनत अनुमानक औसत वर्ग-त्रुटि हानि फलन (माध्य-अनभिनत अनुमानकों के बीच) के संबंध में जोखिम (सांख्यिकी) (अपेक्षित हानि) को कम करता है, जैसा कि गॉस द्वारा देखा गया है।[9] एक न्यूनतम-औसत निरपेक्ष विचलन मध्य-अनभिनत आकलनकर्ता पूर्ण मान हानि फलन (मध्य-अनभिनत अनुमानकों के बीच) के संबंध में जोखिम को कम करता है, जैसा कि लाप्लास द्वारा देखा गया है।[9][10] अन्य त्रुटि फलनों का उपयोग, विशेष रूप से प्रबल सांख्यिकी में किया जाता है।[9][11]
रूपांतरों का प्रभाव
अविभाजित मापदंडों के लिए, मध्य-अनभिनत अनुमानक डेटा परिवर्तन (सांख्यिकी) के अंतर्गत मध्य-अनभिनत रहते हैं जो क्रम (या प्रतिवर्त क्रम) को संरक्षित करते हैं। ध्यान दें कि, जब एक माध्य-अनभिनत अनुमानक पर रूपांतरण प्रयुक्त किया जाता है, तो परिणाम को इसके संगत समष्टि सांख्यिकी का माध्य-अनभिनत अनुमानक नहीं होना चाहिए। जेन्सेन की असमानता से, परिवर्तन के रूप में एक उत्तल फलन धनात्मक अभिनत प्रस्तुत करेगा, जबकि एक अवतल फलन ऋणात्मक अभिनत प्रस्तुत करेगा, और मिश्रित उत्तलता का फलन विशिष्ट फलन और विभाजन के आधार पर किसी भी दिशा में अभिनत प्रस्तुत कर सकता है। यह, एक गैर-रैखिक फलन F और पैरामीटर P के एक औसत-अनभिनत अनुमानक U के लिए, समग्र अनुमानक f(U) को F(P) का एक औसत-अनभिनत अनुमानक नहीं होना चाहिए। उदाहरण के लिए, समष्टि प्रसरण के अनभिनत अनुमानक का वर्गमूल है not समष्टि मानक विचलन का माध्य-अनभिनत अनुमानक: अनभिनत प्रतिदर्श प्रसरण का वर्गमूल, सही प्रतिदर्श मानक विचलन, अभिनत है। अभिनत अनुमानक के प्रतिदर्श विभाजन और परिवर्तन पर निर्भर करता है, और गणना करने के लिए अपेक्षाकृत अधिक सम्मिलित हो सकता है - इस स्थिति में चर्चा के लिए मानक विचलन का अनभिनत अनुमान देखें।
अभिनत, प्रसरण और माध्य औसत वर्ग त्रुटि
जबकि अभिनत अनुमानक और अंतर्निहित पैरामीटर के बीच अपेक्षित औसत अंतर को मापता है, प्रतिदर्श में यादृच्छिकता के कारण परिमित प्रतिदर्श के आधार पर अनुमानक अतिरिक्त रूप से पैरामीटर से अलग होने की उपेक्षा कर सकता है।
अनुमानक जो अभिनत को कम करता है, आवश्यक रूप से औसत वर्ग त्रुटि को कम नहीं करेगा। एक माप जिसका उपयोग दोनों प्रकार के अंतरों को दर्शाने के लिए किया जाता है, वह माध्य वर्ग त्रुटि है,[1]
यह अभिनत के वर्ग के बराबर, साथ ही प्रसरण दिखाया जा सकता है:[1]
जब पैरामीटर एक वेक्टर होता है, तो एक समान अपघटन प्रयुक्त होता है:[12]
जहाँ अनुमानक के सहप्रसरण आव्यूह का चिन्ह (विकर्ण योग) है और वर्ग वेक्टर मानदंड है।
उदाहरण: समष्टि प्रसरण का अनुमान
उदाहरण के लिए,[13] मान लीजिए प्ररूप का अनुमानक
उपरोक्त के अनुसार समष्टि प्रसरण के लिए मांगा गया है, लेकिन इस बार एमएसई को कम करने के लिए:
यदि चर X1 ... Xn एक सामान्य विभाजन का अनुसरण करें, फिर nS2/σ2 का n − 1 घात की अबद्धता के साथ काई वर्ग विभाजन है, जो देता है:
इसलिए
आंशिक बीजगणित के साथ यह पुष्टि की जा सकती है कि यह c = 1/(n + 1) है जो इस संयुक्त त्रुटि फलन को कम करता है, अतिरिक्त c = 1/(n − 1) जो अभिनत के वर्ग को कम करता है।
सामान्य रूप से यह सिर्फ प्रतिबंधित वर्गों की समस्याओं में होता है कि एक अनुमानक होगा जो पैरामीटर मानों से स्वतंत्र रूप से एमएसई को कम करता है।
हालांकि यह बहुत सामान्य है कि अभिनत-प्रसरण समझौता समन्वय को माना जा सकता है, जैसे कि अभिनत में एक छोटी सी वृद्धि भिन्नता में बड़ी कमी के लिए कारोबार की जा सकती है, जिसके परिणामस्वरूप समग्र रूप से अधिक वांछनीय अनुमानक होता है।
बायेसियन दृश्य
अधिकांश बेयसियन अपने अनुमानों के निष्पक्षता (कम से कम औपचारिक प्रतिदर्शकरण-सिद्धांत के अर्थ में) के बारे में असंबद्ध हैं। उदाहरण के लिए, गेलमैन और कोउथर्स (1995) लिखते हैं: बायेसियन दृष्टिकोण से, निष्पक्षता का सिद्धांत बड़े प्रतिदर्शों की सीमा में उपयुक्त है, लेकिन अन्यथा यह संभावित रूप से भ्रामक है।[14]
मौलिक रूप से, बायेसियन सांख्यिकी और उपरोक्त प्रतिदर्शकरण-सिद्धांत दृष्टिकोण के बीच का अंतर यह है कि प्रतिदर्शकरण-सिद्धांत दृष्टिकोण में पैरामीटर को निश्चित रूप में लिया जाता है, और फिर डेटा के पूर्वानुमानित प्रतिदर्श विभाजन के आधार पर एक आंकड़े के प्रायिकता विभाजन पर विचार किया जाता है। बायेसियन के लिए, हालांकि, यह वह डेटा है जो ज्ञात और निश्चित है, और यह अज्ञात पैरामीटर है जिसके लिए बेयस प्रमेय का उपयोग करके प्रायिकता विभाजन का निर्माण करने का प्रयास किया जाता है:
यहां दूसरा शब्द, अज्ञात पैरामीटर मान θ दिए गए डेटा की संभावना फलन, सिर्फ प्राप्त डेटा और डेटा उत्पादन प्रक्रिया के मॉडलिंग पर निर्भर करता है। हालाँकि, बायेसियन गणना में पहला शब्द भी सम्मिलित है, θ के लिए पूर्व संभावना, जो डेटा के आने से पहले विश्लेषक को θ के बारे में जानने या संदेह करने वाली हर वस्तु की गणना करता है। यह जानकारी प्रतिदर्शकरण-सिद्धांत दृष्टिकोण में कोई भूमिका नहीं निभाती है; वास्तव में इसे सम्मिलित करने के किसी भी प्रयास को डेटा द्वारा विशुद्ध रूप से बताए गए अभिनत से दूर माना जाएगा। इस हद तक कि बायेसियन गणनाओं में पूर्व सूचना सम्मिलित है, इसलिए यह अनिवार्य रूप से अपरिहार्य है कि उनके परिणाम प्रतिदर्शकरण सिद्धांत के संदर्भ में अनभिनत नहीं होंगे।
लेकिन एक बायेसियन दृष्टिकोण के परिणाम प्रतिदर्शकरण सिद्धांत के दृष्टिकोण से भिन्न हो सकते हैं, तथापि बायेसियन पूर्व में एक गैर-सूचनात्मक स्वीकार करने का प्रयास करता हो।
उदाहरण के लिए, पुनः अज्ञात माध्य के साथ सामान्य विभाजन का अज्ञात समष्टि प्रसरण σ 2 के अनुमान पर विचार करें, जहां अपेक्षित हानि फलन में c को अनुकूलित करना वांछित है
इस समस्या के लिए बिना जानकारी के पूर्व का एक मानक विकल्प जेफ़रीज़ प्रायर, है, जो ln(σ2) से पहले एक पुनः मापन-अपरिवर्तनीय समतल भाग को स्वीकृत करने के बराबर है।
इसे पहले स्वीकृत करने का एक परिणाम यह है कि S2/σ2 एक महत्वपूर्ण परिणाम है, अर्थात S2/σ2 का प्रायिकता विभाजन केवल S2/σ2 पर निर्भर करता है जो S2 या σ2 के मान से स्वतंत्र है:
हालांकि, जबकि
इसके विपरीत
— जब उपेक्षा को σ2 के प्रायिकता विभाजन पर ले लिया जाता है दिया हुआ S2, जैसा कि S2 के अतिरिक्त बायेसियन स्थिति में है दिए गए p2, अब कोई σ4 नहीं ले सकता एक स्थिरांक के रूप में और इसका गुणनखंडन करें। इसका परिणाम यह है कि, प्रतिदर्शकरण-सिद्धांत गणना की तुलना में, बायेसियन गणना σ2 के बड़े मानों पर अधिक भार डालती है।, सही से ध्यान में रखते हुए (चूंकि प्रतिदर्शकरण-सिद्धांत गणना नहीं कर सकता) कि इस औसत वर्ग-हानि फलन के अंतर्गत σ2 के बड़े मानों को कम न्यून आकलन के संदर्भ मे σ2 के छोटे मूल्यों को अधिक आकलन की तुलना में अधिक बहुमूल्य है।
लिखी गई बायेसियन गणना σ2 के पश्च प्रायिकता विभाजन के लिए अबद्धता की n − 1 घात के साथ एक मापन्ड व्युत्क्रम काई वर्ग विभाजन देता है। प्रत्याशित हानि को न्यूनतम किया जाता है जब cnS2 = <σ2>; यह तब होता है जब c = 1/(n − 3) है।
यहां तक कि एक अनौपचारिक पूर्व के साथ, इसलिए, बायेसियन गणना समान प्रतिदर्श-सिद्धांत गणना के समान अपेक्षित-त्रुटि न्यूनतम परिणाम नहीं दे सकती है।
यह भी देखें
- सतत अनुमानक
- सक्षम अनुमानक
- अनुमान सिद्धांत
- अपेक्षित हानि
- अपेक्षित मान
- त्रुटि फलन
- न्यूनतम-विचरण निष्पक्ष अनुमानक
- लोप-चर अभिनत
- आशावाद अभिनत
- अनुपात अनुमानक
- सांख्यिकीय निर्णय सिद्धांत
टिप्पणियाँ
- ↑ 1.0 1.1 1.2 Kozdron, Michael (March 2016). "Evaluating the Goodness of an Estimator: Bias, Mean-Square Error, Relative Efficiency (Chapter 3)" (PDF). stat.math.uregina.ca. Retrieved 2020-09-11.
- ↑ 2.0 2.1 Taylor, Courtney (January 13, 2019). "निष्पक्ष और पक्षपाती अनुमानक". ThoughtCo (in English). Retrieved 2020-09-12.
- ↑ Richard Arnold Johnson; Dean W. Wichern (2007). अनुप्रयुक्त बहुभिन्नरूपी सांख्यिकीय विश्लेषण. Pearson Prentice Hall. ISBN 978-0-13-187715-3. Retrieved 10 August 2012.
- ↑ J. P. Romano and A. F. Siegel (1986) Counterexamples in Probability and Statistics, Wadsworth & Brooks / Cole, Monterey, California, USA, p. 168
- ↑ Hardy, M. (1 March 2003). "एक प्रबुद्ध प्रति उदाहरण". American Mathematical Monthly. 110 (3): 234–238. arXiv:math/0206006. doi:10.2307/3647938. ISSN 0002-9890. JSTOR 3647938.
- ↑ Brown (1947), page 583
- ↑ Pfanzagl, Johann (1979). "उपद्रव मापदंडों की उपस्थिति में इष्टतम औसत निष्पक्ष अनुमानकों पर". The Annals of Statistics. 7 (1): 187–193. doi:10.1214/aos/1176344563.
- ↑ 8.0 8.1 Brown, L. D.; Cohen, Arthur; Strawderman, W. E. (1976). "अनुप्रयोगों के साथ सख्त मोनोटोन संभावना अनुपात के लिए एक पूर्ण वर्ग प्रमेय". Ann. Statist. 4 (4): 712–722. doi:10.1214/aos/1176343543.
- ↑ 9.0 9.1 9.2 Dodge, Yadolah, ed. (1987). Statistical Data Analysis Based on the L1-Norm and Related Methods. Papers from the First International Conference held at Neuchâtel, August 31–September 4, 1987. Amsterdam: North-Holland. ISBN 0-444-70273-3.
- ↑ Jaynes, E. T. (2007). Probability Theory : The Logic of Science. Cambridge: Cambridge Univ. Press. p. 172. ISBN 978-0-521-59271-0.
- ↑ Klebanov, Lev B.; Rachev, Svetlozar T.; Fabozzi, Frank J. (2009). "Loss Functions and the Theory of Unbiased Estimation". सांख्यिकी में मजबूत और गैर-मजबूत मॉडल. New York: Nova Scientific. ISBN 978-1-60741-768-2.
- ↑ Taboga, Marco (2010). "संभाव्यता सिद्धांत और गणितीय सांख्यिकी पर व्याख्यान".
- ↑ DeGroot, Morris H. (1986). प्रायिकता अौर सांख्यिकी (2nd ed.). Addison-Wesley. pp. 414–5. ISBN 0-201-11366-X. But compare it with, for example, the discussion in Casella; Berger (2001). Statistical Inference (2nd ed.). Duxbury. p. 332. ISBN 0-534-24312-6.
- ↑ Gelman, A.; et al. (1995). बायेसियन डेटा विश्लेषण. Chapman and Hall. p. 108. ISBN 0-412-03991-5.
संदर्भ
- Brown, George W. "On Small-Sample Estimation." The Annals of Mathematical Statistics, vol. 18, no. 4 (Dec., 1947), pp. 582–585. JSTOR 2236236.
- Lehmann, E. L. "A General Concept of Unbiasedness" The Annals of Mathematical Statistics, vol. 22, no. 4 (Dec., 1951), pp. 587–592. JSTOR 2236928.
- Allan Birnbaum, 1961. "A Unified Theory of Estimation, I", The Annals of Mathematical Statistics, vol. 32, no. 1 (Mar., 1961), pp. 112–135.
- Van der Vaart, H. R., 1961. "Some Extensions of the Idea of Bias" The Annals of Mathematical Statistics, vol. 32, no. 2 (June 1961), pp. 436–447.
- Pfanzagl, Johann. 1994. Parametric Statistical Theory. Walter de Gruyter.
- Stuart, Alan; Ord, Keith; Arnold, Steven [F.] (2010). Classical Inference and the Linear Model. Kendall's Advanced Theory of Statistics. Vol. 2A. Wiley. ISBN 978-0-4706-8924-0..
- Voinov, Vassily [G.]; Nikulin, Mikhail [S.] (1993). Unbiased estimators and their applications. Vol. 1: Univariate case. Dordrect: Kluwer Academic Publishers. ISBN 0-7923-2382-3.
- Voinov, Vassily [G.]; Nikulin, Mikhail [S.] (1996). Unbiased estimators and their applications. Vol. 2: Multivariate case. Dordrect: Kluwer Academic Publishers. ISBN 0-7923-3939-8.
- Klebanov, Lev [B.]; Rachev, Svetlozar [T.]; Fabozzi, Frank [J.] (2009). Robust and Non-Robust Models in Statistics. New York: Nova Scientific Publishers. ISBN 978-1-60741-768-2.
बाहरी संबंध
- "निष्पक्ष आकलनकर्ता", Encyclopedia of Mathematics, EMS Press, 2001 [1994][clarification needed]