पर्याप्त आँकड़ा: Difference between revisions

From Vigyanwiki
No edit summary
No edit summary
Line 52: Line 52:
हॉग और क्रेग के कारण.<ref name="HoggCraig">{{cite book | last = Hogg | first = Robert V. |author2=Craig, Allen T.  | title = गणितीय सांख्यिकी का परिचय| publisher=Prentice Hall | year = 1995 | isbn=978-0-02-355722-4}}</ref> मान लीजिए <math>X_1, X_2, \ldots, X_n</math>, ι < θ < δ के लिए संभाव्यता घनत्व फलन f(x, θ) वाले वितरण से यादृच्छिक प्रतिरूप निरूपित करें। माना Y<sub>1</sub>= I<sub>1</sub>(x<sub>1</sub>, x<sub>2</sub>, ..., x<sub>''n''</sub>) सांख्यिकी बनें जिसका पीडीएफ g<sub>1</sub> है (y<sub>1</sub>; θ). हम जो सिद्ध करना चाहते हैं वह यह है कि Y<sub>1</sub>= I<sub>1</sub>(x<sub>1</sub>, x<sub>2</sub>, ..., x<sub>''n''</sub>) θ के लिए पर्याप्त सांख्यिकी है यदि और केवल यदि, किसी फलन H के लिए है
हॉग और क्रेग के कारण.<ref name="HoggCraig">{{cite book | last = Hogg | first = Robert V. |author2=Craig, Allen T.  | title = गणितीय सांख्यिकी का परिचय| publisher=Prentice Hall | year = 1995 | isbn=978-0-02-355722-4}}</ref> मान लीजिए <math>X_1, X_2, \ldots, X_n</math>, ι < θ < δ के लिए संभाव्यता घनत्व फलन f(x, θ) वाले वितरण से यादृच्छिक प्रतिरूप निरूपित करें। माना Y<sub>1</sub>= I<sub>1</sub>(x<sub>1</sub>, x<sub>2</sub>, ..., x<sub>''n''</sub>) सांख्यिकी बनें जिसका पीडीएफ g<sub>1</sub> है (y<sub>1</sub>; θ). हम जो सिद्ध करना चाहते हैं वह यह है कि Y<sub>1</sub>= I<sub>1</sub>(x<sub>1</sub>, x<sub>2</sub>, ..., x<sub>''n''</sub>) θ के लिए पर्याप्त सांख्यिकी है यदि और केवल यदि, किसी फलन H के लिए है


:<math> \prod_{i=1}^n f(x_i; \theta) = g_1 \left[u_1 (x_1, x_2, \dots, x_n); \theta \right] H(x_1, x_2, \dots, x_n). </math>
:<math> \prod_{i=1}^n f(x_i; \theta) = g_1 \left[u_1 (x_1, x_2, \dots, x_n); \theta \right] H(x_1, x_2, \dots, x_n).                                                         </math>
सबसे पहले, मान लीजिए
सबसे पहले, मान लीजिए
:<math> \prod_{i=1}^n f(x_i; \theta) = g_1 \left[u_1 (x_1, x_2, \dots, x_n); \theta \right] H(x_1, x_2, \dots, x_n). </math>
:<math> \prod_{i=1}^n f(x_i; \theta) = g_1 \left[u_1 (x_1, x_2, \dots, x_n); \theta \right] H(x_1, x_2, \dots, x_n). </math>
Line 98: Line 98:
& = \sum _{x : T(x) = t} a(x) b_\theta(t) \\[5pt]
& = \sum _{x : T(x) = t} a(x) b_\theta(t) \\[5pt]
& = \left( \sum _{x : T(x) = t} a(x) \right) b_\theta(t).
& = \left( \sum _{x : T(x) = t} a(x) \right) b_\theta(t).
\end{align}</math>
\end{align}                                                                                                                                                                                                   </math>
पहली समानता संभाव्यता घनत्व फलन द्वारा अनेक वेरिएबल  के साथ जुड़े संभाव्यता फलन द्वारा, दूसरी उपरोक्त टिप्पणी द्वारा, तीसरी परिकल्पना द्वारा, और चौथी क्योंकि सारांश समाप्त <math>t</math> नहीं हुआ है .
पहली समानता संभाव्यता घनत्व फलन द्वारा अनेक वेरिएबल  के साथ जुड़े संभाव्यता फलन द्वारा, दूसरी उपरोक्त टिप्पणी द्वारा, तीसरी परिकल्पना द्वारा, और चौथी क्योंकि सारांश समाप्त <math>t</math> नहीं हुआ है .


Line 109: Line 109:
& = \frac{a(x) b_\theta(t)}{\left( \sum _{x : T(x) = t} a(x) \right) b_\theta(t)} \\[5pt]
& = \frac{a(x) b_\theta(t)}{\left( \sum _{x : T(x) = t} a(x) \right) b_\theta(t)} \\[5pt]
& = \frac{a(x)}{\sum _{x : T(x) = t} a(x)}.
& = \frac{a(x)}{\sum _{x : T(x) = t} a(x)}.
\end{align}</math>
\end{align}                                                                                                                                                                                             </math>
पहली समानता नियमबद्ध संभाव्यता घनत्व की परिभाषा से, दूसरी उपरोक्त टिप्पणी से, तीसरी समानता ऊपर सिद्ध द्वारा, और चौथी सरलीकरण द्वारा यह अभिव्यक्ति निर्भर नहीं करती <math>\theta</math> और इस तरह <math>T</math> पर्याप्त सांख्यिकी है.<ref>{{cite web | url=http://cnx.org/content/m11480/1.6/ | title=The Fisher–Neyman Factorization Theorem}}. Webpage at Connexions (cnx.org)</ref>
पहली समानता नियमबद्ध संभाव्यता घनत्व की परिभाषा से, दूसरी उपरोक्त टिप्पणी से, तीसरी समानता ऊपर सिद्ध द्वारा, और चौथी सरलीकरण द्वारा यह अभिव्यक्ति निर्भर नहीं करती <math>\theta</math> और इस तरह <math>T</math> पर्याप्त सांख्यिकी है.<ref>{{cite web | url=http://cnx.org/content/m11480/1.6/ | title=The Fisher–Neyman Factorization Theorem}}. Webpage at Connexions (cnx.org)</ref>
==न्यूनतम पर्याप्तता==
==न्यूनतम पर्याप्तता==
Line 233: Line 233:
   &= (2\pi\sigma^2)^{-\frac{n}{2}} \exp \left( -{1\over2\sigma^2} \sum_{i=1}^n (x_i-\overline{x})^2 \right ) \exp \left (-\frac{n}{2\sigma^2} (\theta-\overline{x})^2 \right )
   &= (2\pi\sigma^2)^{-\frac{n}{2}} \exp \left( -{1\over2\sigma^2} \sum_{i=1}^n (x_i-\overline{x})^2 \right ) \exp \left (-\frac{n}{2\sigma^2} (\theta-\overline{x})^2 \right )


\end{align}</math>
\end{align}                                                                                                                                                                         </math>
प्रतिरूप का संयुक्त घनत्व फिशर-नेमैन फैक्टराइजेशन प्रमेय द्वारा आवश्यक रूप लेता है
प्रतिरूप का संयुक्त घनत्व फिशर-नेमैन फैक्टराइजेशन प्रमेय द्वारा आवश्यक रूप लेता है


Line 281: Line 281:
   &= \prod_{i=1}^n \left({1 \over \Gamma(\alpha) \beta^\alpha}\right) x_i^{\alpha -1} e^{(-1/\beta)x_i} \\[5pt]
   &= \prod_{i=1}^n \left({1 \over \Gamma(\alpha) \beta^\alpha}\right) x_i^{\alpha -1} e^{(-1/\beta)x_i} \\[5pt]
   &= \left({1 \over \Gamma(\alpha) \beta^\alpha}\right)^n \left(\prod_{i=1}^n x_i\right)^{\alpha-1} e^{{-1 \over \beta} \sum_{i=1}^n x_i}.
   &= \left({1 \over \Gamma(\alpha) \beta^\alpha}\right)^n \left(\prod_{i=1}^n x_i\right)^{\alpha-1} e^{{-1 \over \beta} \sum_{i=1}^n x_i}.
\end{align}</math>
\end{align}                                                                                                                                                                                                   </math>
प्रतिरूप का संयुक्त घनत्व फिशर-नेमैन फैक्टराइजेशन प्रमेय द्वारा आवश्यक रूप लेता है
प्रतिरूप का संयुक्त घनत्व फिशर-नेमैन फैक्टराइजेशन प्रमेय द्वारा आवश्यक रूप लेता है


Line 287: Line 287:
h(x_1^n)= 1,\,\,\,
h(x_1^n)= 1,\,\,\,
g_{(\alpha \, , \, \beta)}(x_1^n)= \left({1 \over \Gamma(\alpha) \beta^{\alpha}}\right)^n \left(\prod_{i=1}^n x_i\right)^{\alpha-1} e^{{-1 \over \beta} \sum_{i=1}^n x_i}.
g_{(\alpha \, , \, \beta)}(x_1^n)= \left({1 \over \Gamma(\alpha) \beta^{\alpha}}\right)^n \left(\prod_{i=1}^n x_i\right)^{\alpha-1} e^{{-1 \over \beta} \sum_{i=1}^n x_i}.
\end{align}</math>
\end{align}                                                                                                                                               </math>
तब से <math>h(x_1^n)</math> मापदंड पर निर्भर नहीं है <math>(\alpha\, , \, \beta)</math> और <math>g_{(\alpha \, , \, \beta)}(x_1^n)</math> पर <math>x_1^n</math> ही निर्भर करता है फलन के माध्यम से <math>T(x_1^n)= \left( \prod_{i=1}^n x_i, \sum_{i=1}^n x_i \right),</math> फिशर-नेमैन गुणनखंडन प्रमेय का तात्पर्य है <math>T(X_1^n)= \left( \prod_{i=1}^n X_i, \sum_{i=1}^n X_i \right)</math> के लिए पर्याप्त सांख्यिकी <math>(\alpha\, , \, \beta).</math> है  
तब से <math>h(x_1^n)</math> मापदंड पर निर्भर नहीं है <math>(\alpha\, , \, \beta)</math> और <math>g_{(\alpha \, , \, \beta)}(x_1^n)</math> पर <math>x_1^n</math> ही निर्भर करता है फलन के माध्यम से <math>T(x_1^n)= \left( \prod_{i=1}^n x_i, \sum_{i=1}^n x_i \right),</math> फिशर-नेमैन गुणनखंडन प्रमेय का तात्पर्य है <math>T(X_1^n)= \left( \prod_{i=1}^n X_i, \sum_{i=1}^n X_i \right)                                                                                                                   </math> के लिए पर्याप्त सांख्यिकी <math>(\alpha\, , \, \beta).</math> है  





Revision as of 20:44, 30 July 2023

सांख्यिकी में, सांख्यिकी सांख्यिकीय मॉडल और उससे जुड़े अज्ञात मापदंड के संबंध में पर्याप्त होता है यदि कोई अन्य सांख्यिकी जिसकी गणना उसी प्रतिरूप (सांख्यिकी) से नहीं की जा सकती है, मापदंड के मान के बारे में कोई अतिरिक्त जानकारी प्रदान करता है।[1] विशेष रूप से, सांख्यिकी संभाव्यता वितरण के पैरामीट्रिक वर्ग के लिए पर्याप्त है यदि जिस प्रतिरूप से इसकी गणना की जाती है वह सांख्यिकी के अतिरिक्त कोई अतिरिक्त जानकारी नहीं देता है, कि उन संभाव्यता वितरणों में से कौन सा प्रतिरूप वितरण है।

संबंधित अवधारणा रैखिक पर्याप्तता की है, जो पर्याप्तता से अशक्त है किन्तु इसे कुछ स्थितियों में प्रयुक्त किया जा सकता है जहां पर्याप्त सांख्यिकी नहीं हैं, चूँकि यह रैखिक अनुमानकों तक ही सीमित है।[2] कोलमोगोरोव संरचना कार्य व्यक्तिगत परिमित डेटा से संबंधित है; संबंधित धारणा एल्गोरिथम पर्याप्त सांख्यिकी है।

यह अवधारणा 1920 में रोनाल्ड फिशर की देन है। स्Tफन स्टिगलर ने 1973 में उल्लेख किया था कि वितरणात्मक रूप की धारणा पर सशक्त निर्भरता के कारण वर्णनात्मक सांख्यिकी में पर्याप्तता की अवधारणा पक्ष से बाहर हो गई है (देखें xपोनेंशियल वर्ग या पिटमैन-कूपमैन- डार्मोइस प्रमेय नीचे), किन्तु सैद्धांतिक कार्य में बहुत महत्वपूर्ण रहा था।[3]

पृष्ठभूमि

सामान्यतः, समुच्चय दिया गया है अज्ञात मापदंड पर वातानुकूलित स्वतंत्र समान रूप से वितरित डेटा का , पर्याप्त सांख्यिकी फलन है जिसके मान में मापदंड के किसी भी अनुमान की गणना करने के लिए आवश्यक सभी जानकारी सम्मिलित है (उदाहरण के लिए अधिकतम संभावना अनुमान)। गुणनखंडन प्रमेय (फिशर-नेमैन गुणनखंडन प्रमेय) के कारण, पर्याप्त सांख्यिकी के लिए , संभाव्यता घनत्व को इस प्रकार लिखा जा सकता है . इस गुणनखंड से, यह सरलता से देखा जा सकता है कि अधिकतम संभावना का अनुमान है तथा के साथ इंटरैक्ट करेंगे केवल अन्दर से . सामान्यतः, पर्याप्त सांख्यिकी डेटा का सरल कार्य है, उदाहरण सभी डेटा बिंदुओं का योग उपयुक्त होता है.

अधिक सामान्यतः, अज्ञात मापदंड अज्ञात मात्राओं के यूक्लिडियन सदिश का प्रतिनिधित्व कर सकता है या मॉडल के बारे में सब कुछ का प्रतिनिधित्व कर सकता है जो अज्ञात है या पूरी तरह से निर्दिष्ट नहीं है। ऐसे स्थिति में, पर्याप्त सांख्यिकी कार्यों का समूह हो सकता है, जिसे संयुक्त रूप से पर्याप्त सांख्यिकी कहा जाता है। सामान्यतः, जितने मापदंड होते हैं उतने ही फलन होते हैं। उदाहरण के लिए, अज्ञात माध्य और विवेरिएबल ण वाले गाऊसी वितरण के लिए, संयुक्त रूप से पर्याप्त सांख्यिकी, जिससे दोनों मापदंडों की अधिकतम संभावना का अनुमान लगाया जा सकता है, इसमें दो फलन सम्मिलित हैं, सभी डेटा बिंदुओं का योग और सभी वर्ग डेटा बिंदुओं का योग (या समकक्ष, प्रतिरूप माध्य और प्रतिरूप विवेरिएबल ण) है।

दूसरे शब्दों में, 'डेटा का संयुक्त संभाव्यता वितरण मापदंड के लिए पर्याप्त सांख्यिकी के मान को देखते हुए मापदंड से नियमबद्ध रूप से स्वतंत्र है।' सांख्यिकी और अंतर्निहित मापदंड दोनों सदिश हो सकते हैं।

गणितीय परिभाषा

सांख्यिकी t = T(X) 'अंतर्निहित मापदंड θ के लिए पर्याप्त' है, यदि डेटा X का नियमबद्ध संभाव्यता वितरण, सांख्यिकी t = T(X) दिया गया है, मापदंड θ पर निर्भर नहीं करता है।[4] वैकल्पिक रूप से, कोई यह कह सकता है कि सांख्यिकी T(X) θ के लिए पर्याप्त है यदि θ के साथ इसकी पारस्परिक जानकारी X और θ के बीच पारस्परिक जानकारी के समान है।[5] दूसरे शब्दों में, डेटा प्रोसेसिंग असमानता समानता बन जाती है:

उदाहरण

उदाहरण सामान्यतः, प्रतिरूप माध्य ज्ञात विवेरिएबल ण वाले सामान्य वितरण के माध्य (μ) के लिए पर्याप्त है। प्रतिरूप माध्य ज्ञात हो जाने पर, प्रतिरूप से μ के बारे में कोई और जानकारी प्राप्त नहीं की जा सकती है। दूसरी ओर, इच्छानुसार वितरण के लिए माध्य माध्य के लिए पर्याप्त नहीं है: तथापि प्रतिरूप का माध्य ज्ञात होता है, प्रतिरूप जानने से ही जनसंख्या माध्य के बारे में अधिक जानकारी मिल जाती है। उदाहरण के लिए, यदि माध्यिका से कम प्रेक्षण केवल थोड़े कम हैं, किन्तु माध्यिका से अधिक होने वाले प्रेक्षण इससे बड़ी मात्रा में अधिक हैं, तो इसका जनसंख्या माध्य के बारे में किसी के अनुमान पर प्रभाव पड़ता है।

फिशर-नेमैन गुणनखंडन प्रमेय

रोनाल्ड फिशर का गुणनखंडन प्रमेय या गुणनखंडन मानदंड पर्याप्त सांख्यिकी का सुविधाजनक 'लक्षणीकरण' प्रदान करता है। यदि संभाव्यता घनत्व फलन ƒθ(x) है, जिससे T, θ के लिए पर्याप्त है यदि और केवल यदि गैर-ऋणात्मक फलन g और h को ऐसे पाया जा सकता है कि

अर्थात घनत्व ƒ को उत्पाद में इस तरह से विभाजित किया जा सकता है कि कारक, H, θ पर निर्भर नहीं होता है और दूसरा कारक, जो θ पर निर्भर करता है, केवल T(x) के माध्यम से x पर निर्भर करता है। इसका सामान्य प्रमाण हैल्मोस और सैवेज ने दिया था [6] और प्रमेय को कभी-कभी हेल्मोस-सैवेज गुणनखंडन प्रमेय के रूप में जाना जाता है।[7] नीचे दिए गए प्रमाण विशेष स्थितियों को संभालते हैं, किन्तु उसी पंक्तियां पर वैकल्पिक सामान्य प्रमाण भी दिया जा सकता है।[8] यह देखना आसान है कि यदि F(t) वन-से-वन फलन है और T पर्याप्त है सांख्यिकी, तो F(T) पर्याप्त सांख्यिकी है। विशेष रूप से हम a को गुणा कर सकते हैं गैर शून्य स्थिरांक द्वारा पर्याप्त सांख्यिकी और अन्य पर्याप्त सांख्यिकी प्राप्त करते है।

संभावना सिद्धांत व्याख्या

प्रमेय का निहितार्थ यह है कि संभावना-आधारित अनुमान का उपयोग करते समय, पर्याप्त सांख्यिकी T (x) के लिए समान मान उत्पन्न करने वाले डेटा के दो समुच्चय सदैव θ के बारे में समान अनुमान उत्पन्न करते है। गुणनखंडन मानदंड के अनुसार, θ पर संभावना की निर्भरता केवल T(X) के संयोजन में है। चूँकि यह दोनों स्थितियों में समान है, θ पर निर्भरता भी समान होगी, जिससे समान निष्कर्ष निकलते है।

प्रमाण

हॉग और क्रेग के कारण.[9] मान लीजिए , ι < θ < δ के लिए संभाव्यता घनत्व फलन f(x, θ) वाले वितरण से यादृच्छिक प्रतिरूप निरूपित करें। माना Y1= I1(x1, x2, ..., xn) सांख्यिकी बनें जिसका पीडीएफ g1 है (y1; θ). हम जो सिद्ध करना चाहते हैं वह यह है कि Y1= I1(x1, x2, ..., xn) θ के लिए पर्याप्त सांख्यिकी है यदि और केवल यदि, किसी फलन H के लिए है

सबसे पहले, मान लीजिए

हम परिवर्तन करेंगे yi= Ii(x1, x2, ..., xn), i = 1, ..., n के लिए, जिसमें व्युत्क्रम फलन xi= wi(y1, y2, ..., yn), i = 1, ..., n है, और जैकोबियन आव्यूह और निर्धारक के लिए . इस प्रकार,

बाएँ हाथ का सदस्य संयुक्त पीडीएफ g(y)1, y2, ..., yn; θ) का Y1 = u1(x1, ..., xn), ..., yn = un(x1, ..., xn) है. दाहिने हाथ के सदस्य में, का पीडीएफ है, जिससे का भागफल और ; है अर्थात्, यह नियमबद्ध पीडीएफ का है और दिया गया है

किन्तु , और इस तरह , पर निर्भर न रहने के लिए दिया गया था . तब से परिवर्तन में प्रस्तुत नहीं किया गया था और तदनुसार जैकोबियन में नहीं है , यह इस प्रकार है कि पर निर्भर नहीं है ओर वो के लिए पर्याप्त सांख्यिकी हैं .

इसका विपरीत निम्नलिखित लेकर सिद्ध किया जाता है:

जहाँ पर निर्भर नहीं है क्योंकि पर ही निर्भर हैं , जो पर स्वतंत्र हैं जब द्वारा वातानुकूलित किया जाता है , परिकल्पना द्वारा पर्याप्त सांख्यिकी अब दोनों सदस्यों को गैर-लुप्त होने वाले जैकोबियन के पूर्ण मान से विभाजित करें , और प्रतिस्थापित करें कार्यों द्वारा में . यह प्रदान करता है

जहाँ जैकोबियन के साथ है उनके मान के अनुसार प्रतिस्थापित किया गया है बाएँ हाथ का सदस्य आवश्यक रूप से संयुक्त पीडीएफ का है. तब से , और इस तरह , पर निर्भर नहीं है , तब

ऐसा फलन है जो निर्भर नहीं करता है .

और प्रमाण

सरल और अधिक उदाहरणात्मक प्रमाण इस प्रकार है, चूँकि यह केवल भिन्न स्थिति में ही प्रयुक्त होता है।

हम संयुक्त संभाव्यता घनत्व को दर्शाने के लिए शॉर्टहैंड नोटेशन का उपयोग करते हैं इस प्रकार द्वारा . तब से का कार्य है , अपने पास , जब तक कि और अन्यथा शून्य है इसलिए:

पर्याप्त सांख्यिकी की परिभाषा के अनुसार अंतिम समानता सत्य है। इस प्रकार साथ और है

इसके विपरीत, यदि , अपने पास

पहली समानता संभाव्यता घनत्व फलन द्वारा अनेक वेरिएबल के साथ जुड़े संभाव्यता फलन द्वारा, दूसरी उपरोक्त टिप्पणी द्वारा, तीसरी परिकल्पना द्वारा, और चौथी क्योंकि सारांश समाप्त नहीं हुआ है .

मान लीजिए की नियमबद्ध संभाव्यता घनत्व को निरूपित करें दिया गया है तब हम इसके लिए स्पष्ट अभिव्यक्ति प्राप्त कर सकते हैं:

पहली समानता नियमबद्ध संभाव्यता घनत्व की परिभाषा से, दूसरी उपरोक्त टिप्पणी से, तीसरी समानता ऊपर सिद्ध द्वारा, और चौथी सरलीकरण द्वारा यह अभिव्यक्ति निर्भर नहीं करती और इस तरह पर्याप्त सांख्यिकी है.[10]

न्यूनतम पर्याप्तता

पर्याप्त सांख्यिकी न्यूनतम पर्याप्त है यदि इसे किसी अन्य पर्याप्त सांख्यिकी के कार्य के रूप में दर्शाया जा सकता है। दूसरे शब्दों में, S(X) न्यूनतम पर्याप्त है यदि और केवल यदि [11]

  1. S(X) पर्याप्त है, और
  2. यदि T(X) पर्याप्त है, तो फलन f उपस्थित है जैसे कि S(X) = f(T(X)) है।

सामान्यतः, न्यूनतम पर्याप्त सांख्यिकी सबसे कुशलता से मापदंड θ के बारे में सभी संभावित जानकारी प्राप्त करता है।

न्यूनतम पर्याप्तता का उपयोगी लक्षण वर्णन यह है कि जब घनत्व fθ अस्तित्व में है, S(X) 'न्यूनतम पर्याप्त' है यदि और केवल यदि

θ से स्वतंत्र है: s(x) = s(Y)

यह ऊपर बताए गए फिशर-नेमैन गुणनखंडन प्रमेय|फिशर के गुणनखंडन प्रमेय के परिणाम के रूप में अनुसरण करता है।

ऐसा स्थिति जिसमें कोई न्यूनतम पर्याप्त सांख्यिकी नहीं है, बहादुर द्वारा 1954 में दिखाया गया था।[12] चूँकि, हल्की परिस्थितियों में, न्यूनतम पर्याप्त सांख्यिकी सदैव उपस्थित रहता है। विशेष रूप से, यूक्लिडियन अंतरिक्ष में, ये स्थितियाँ सदैव प्रयुक्त रहती हैं यदि यादृच्छिक वेरिएबल (के साथ जुड़े) ) सभी असतत हैं या सभी निरंतर हैं।

यदि कोई न्यूनतम पर्याप्त सांख्यिकी उपस्थित है, और यह सामान्यतः स्थिति है, तो प्रत्येक पूर्णता (सांख्यिकी) पर्याप्त सांख्यिकी आवश्यक रूप से न्यूनतम पर्याप्त है [13] (ध्यान दें कि यह कथन पैथोलॉजिकल स्थिति को बाहर नहीं करता है जिसमें पूर्ण पर्याप्त उपस्थित है जबकि कोई न्यूनतम पर्याप्त सांख्यिकी नहीं है)। चूँकि ऐसे स्थितियों को खोजना कठिन है जिनमें न्यूनतम पर्याप्त सांख्यिकी उपस्थित नहीं है, ऐसे स्थितियों को खोजना इतना कठिन नहीं है जिनमें कोई पूर्ण सांख्यिकी उपस्थित नहीं है।

संभाव्यता अनुपातों का संग्रह के लिए , यदि मापदंड स्थान असतत है तो न्यूनतम पर्याप्त सांख्यिकी है .

उदाहरण

बर्नौली वितरण

यदि x1, ...., xn स्वतंत्र बर्नौली परीक्षण हैं बर्नौली-वितरित यादृच्छिक वेरिएबल अपेक्षित मान p के साथ, फिर योग T(x) = x1+...+xn p के लिए पर्याप्त सांख्यिकी है (यहाँ 'सफलता' xi= 1 से मेल खाती है और x के लिए 'विफलता'; अतः Ti= 0 सफलताओं की कुल संख्या है)

इसे संयुक्त संभाव्यता वितरण पर विचार करके देखा जाता है:

क्योंकि अवलोकन स्वतंत्र हैं, इसे इस प्रकार लिखा जा सकता है

और, p और 1 − p की शक्तियाँ एकत्रित करके, देता है

जो गुणनखंडन मानदंड को पूरा करता है, जिसमें h(x)=1 केवल स्थिरांक है।

महत्वपूर्ण विशेषता पर ध्यान दें: अज्ञात मापदंड p केवल सांख्यिकी T(x) = Σx के माध्यम से डेटा x के साथ इंटरैक्ट करता हैi.

ठोस अनुप्रयोग के रूप में, यह निष्पक्ष सिक्के उचित परिणाम को पक्षपाती सिक्के से भिन्न करने की प्रक्रिया देता है।

यूनिफ़ॉर्म वितरण

यदि x1, ...., xn अंतराल [0,θ] पर स्वतंत्र और समान वितरण (निरंतर) हैं, तो T(X) = max(X)1, ..., xn) θ के लिए पर्याप्त है - प्रतिरूप अधिकतम जनसंख्या अधिकतम के लिए पर्याप्त सांख्यिकी है।

इसे देखने के लिए, X·(X)1,...,xn). के संयुक्त संभाव्यता घनत्व फलन पर विचार करें क्योंकि अवलोकन स्वतंत्र हैं, पीडीएफ को व्यक्तिगत घनत्व के उत्पाद के रूप में लिखा जा सकता है

जहाँ 1{...} सूचक कार्य है. इस प्रकार घनत्व फिशर-नेमैन गुणनखंड प्रमेय द्वारा आवश्यक रूप लेता है, जहां h(x)='1'{min{xi}≥0}, और शेष अभिव्यक्ति केवल θ और T(x)=max{xi} का फलन है.

वास्तव में, θ के लिए न्यूनतम-विवेरिएबल ण निष्पक्ष अनुमानक (एमवीयूई) है

यह प्रतिरूप अधिकतम है, जिसे अनुमानक के पूर्वाग्रह को सही करने के लिए स्केल किया गया है, और लेहमैन-शेफ़े प्रमेय द्वारा एमवीयूई है। अनस्केल्ड प्रतिरूप अधिकतम T(X) θ के लिए अधिकतम संभावना अनुमानक है।

समान वितरण (दो मापदंडों के साथ)

यदि अंतराल पर स्वतंत्र और समान वितरण (निरंतर) हैं (जहाँ और अज्ञात मापदंड हैं), फिर के लिए द्वि-आयामी पर्याप्त सांख्यिकी है .

इसे देखने के लिए, संयुक्त संभाव्यता घनत्व फलन पर विचार करें . क्योंकि अवलोकन स्वतंत्र हैं, पीडीएफ को व्यक्तिगत घनत्व के उत्पाद के रूप में लिखा जा सकता है, अर्थात।

प्रतिरूप का संयुक्त घनत्व फिशर-नेमैन फैक्टराइजेशन प्रमेय द्वारा आवश्यक रूप लेता है

तब से मापदंड पर निर्भर नहीं है और पर ही निर्भर करता है फलन के माध्यम से फिशर-नेमैन गुणनखंडन प्रमेय का तात्पर्य है के लिए पर्याप्त सांख्यिकी है .

पॉइसन वितरण

यदि x1, ...., xn स्वतंत्र हैं और मापदंड λ के साथ पॉइसन वितरण है, तो योग T(X) = X1+...+xn λ के लिए पर्याप्त सांख्यिकी है।

इसे देखने के लिए, संयुक्त संभाव्यता वितरण पर विचार करें:

क्योंकि अवलोकन स्वतंत्र हैं, इसे इस प्रकार लिखा जा सकता है

जिसे इस प्रकार लिखा जा सकता है

जो दर्शाता है कि गुणनखंडन मानदंड संतुष्ट है, जहां h(x) भाज्य के उत्पाद का व्युत्क्रम है। ध्यान दें कि मापदंड λ केवल इसके योग T(X) के माध्यम से डेटा के साथ इंटरैक्ट करता है।

सामान्य वितरण

यदि अपेक्षित मान के साथ स्वतंत्र और सामान्य वितरण हैं ( मापदंड) और ज्ञात परिमित विवेरिएबल ण है तब

के लिए पर्याप्त सांख्यिकी है इसे देखने के लिए, संयुक्त संभाव्यता घनत्व फलन पर विचार करें . क्योंकि अवलोकन स्वतंत्र हैं, पीडीएफ को व्यक्तिगत घनत्व के उत्पाद के रूप में लिखा जा सकता है, अर्थात।

प्रतिरूप का संयुक्त घनत्व फिशर-नेमैन फैक्टराइजेशन प्रमेय द्वारा आवश्यक रूप लेता है

तब से मापदंड पर निर्भर नहीं है इस प्रकार और पर ही निर्भर करता है फलन के माध्यम से

फिशर-नेमैन गुणनखंडन प्रमेय का तात्पर्य है के लिए पर्याप्त सांख्यिकी है .

यदि अज्ञात है और तब से , उपरोक्त संभावना को इस प्रकार पुनः लिखा जा सकता है

फिशर-नेमैन गुणनखंडन प्रमेय अभी भी कायम है और इसका तात्पर्य है के लिए संयुक्त पर्याप्त सांख्यिकी है .

घातांकीय वितरण

यदि अपेक्षित मान θ ( अज्ञात वास्तविक-मूल्यवान सकारात्मक मापदंड) के साथ स्वतंत्र और घातीय वितरण हैं θ के लिए पर्याप्त सांख्यिकी है।

इसे देखने के लिए, संयुक्त संभाव्यता घनत्व फलन पर विचार करें . क्योंकि अवलोकन स्वतंत्र हैं, पीडीएफ को व्यक्तिगत घनत्व के उत्पाद के रूप में लिखा जा सकता है, अर्थात।

प्रतिरूप का संयुक्त घनत्व फिशर-नेमैन फैक्टराइजेशन प्रमेय द्वारा आवश्यक रूप लेता है

तब से मापदंड पर निर्भर नहीं है और पर ही निर्भर करता है फलन के माध्यम से फिशर-नेमैन गुणनखंडन प्रमेय का तात्पर्य है के लिए पर्याप्त सांख्यिकी है .

गामा वितरण

यदि स्वतंत्र हैं और गामा वितरण के रूप में वितरित हैं , जहाँ और तो, गामा वितरण के अज्ञात मापदंड हैं के लिए द्वि-आयामी पर्याप्त सांख्यिकी है .

इसे देखने के लिए, संयुक्त संभाव्यता घनत्व फलन पर विचार करें . क्योंकि अवलोकन स्वतंत्र हैं, पीडीएफ को व्यक्तिगत घनत्व के उत्पाद के रूप में लिखा जा सकता है, अर्थात।

प्रतिरूप का संयुक्त घनत्व फिशर-नेमैन फैक्टराइजेशन प्रमेय द्वारा आवश्यक रूप लेता है

तब से मापदंड पर निर्भर नहीं है और पर ही निर्भर करता है फलन के माध्यम से फिशर-नेमैन गुणनखंडन प्रमेय का तात्पर्य है के लिए पर्याप्त सांख्यिकी है


राव-ब्लैकवेल प्रमेय

पर्याप्तता को राव-ब्लैकवेल प्रमेय में उपयोगी अनुप्रयोग मिलता है, जिसमें कहा गया है कि यदि g(X) θ का किसी भी प्रकार का अनुमानक है, तो सामान्यतः g की नियमबद्ध अपेक्षा '(X) को पर्याप्त सांख्यिकी दिया गया है T(X) θ का उत्तम (कम विवेरिएबल ण के अर्थ में) अनुमानक है, और कभी भी व्यर्थ नहीं होता है। कभी-कभी कोई बहुत सरलता से बहुत ही अपरिष्कृत अनुमानक g(x) का निर्माण कर सकता है, और फिर अनुमानक प्राप्त करने के लिए उस नियमबद्ध अपेक्षित मान का मूल्यांकन कर सकता है जो विभिन्न अर्थों में इष्टतम है।

घातांकीय वर्ग

पिटमैन-कूपमैन-डार्मोइस प्रमेय के अनुसार, संभाव्यता वितरण के वर्गों के बीच जिनका डोमेन अनुमानित मापदंड के साथ भिन्न नहीं होता है, केवल घातीय वर्ग में पर्याप्त सांख्यिकी होता है जिसका आयाम प्रतिरूप आकार बढ़ने के साथ सीमित रहता है। सहज रूप से, यह बताता है कि वास्तविक रेखा पर वितरण के गैर-घातीय वर्गों को डेटा में जानकारी को पूरी तरह से पकड़ने के लिए गैर-पैरामीट्रिक सांख्यिकी की आवश्यकता होती है।

कम संक्षेप में, मान लीजिए स्वतंत्र समान रूप से वितरित वास्तविक यादृच्छिक वेरिएबल हैं जिनका वितरण संभाव्यता वितरण के कुछ वर्ग में जाना जाता है, इसके द्वारा पैरामीट्रिज्ड , कुछ तकनीकी नियमितता नियमो को पूरा करते हुए, वह वर्ग घातीय वर्ग है यदि और केवल यदि कोई है -मूल्यांकित पर्याप्त सांख्यिकी जिसके अदिश घटकों की संख्या प्रतिरूप आकार n बढ़ने पर वृद्धि नहीं होती है।[14]

यह प्रमेय दर्शाता है कि परिमित-आयामी, वास्तविक-सदिश-मूल्यवान पर्याप्त सांख्यिकी का अस्तित्व वास्तविक रेखा पर वितरण के वर्ग के संभावित रूपों को तेजी से प्रतिबंधित करता है।

जब मापदंड या यादृच्छिक वेरिएबल वास्तविक-मूल्यवान नहीं रह जाते हैं, तो स्थिति अधिक सम्मिश्र हो जाती है।[15]

अन्य प्रकार की पर्याप्तता

बायेसियन पर्याप्तता

इस नियम का वैकल्पिक सूत्रीकरण कि सांख्यिकी पर्याप्त हो, बायेसियन संदर्भ में समुच्चय किया गया है, जिसमें पूर्ण डेटा-समुच्चय का उपयोग करके और केवल सांख्यिकी का उपयोग करके प्राप्त किए गए पश्च वितरण सम्मिलित हैं। इस प्रकार आवश्यकता यह है कि, लगभग प्रत्येक x के लिए,

अधिक सामान्यतः, पैरामीट्रिक मॉडल को माने बिना, हम कह सकते हैं कि सांख्यिकी T पर्याप्त रूप से पूर्वानुमानित है

यह पता चला है कि यह बायेसियन पर्याप्तता उपरोक्त सूत्रीकरण का परिणाम है,[16] चूँकि वे अनंत-आयामी स्थिति में सीधे समकक्ष नहीं हैं।[17] बायेसियन संदर्भ में पर्याप्तता के लिए सैद्धांतिक परिणामों की श्रृंखला उपलब्ध है।[18]

रैखिक पर्याप्तता

रैखिक पर्याप्तता नामक अवधारणा बायेसियन संदर्भ में तैयार की जा सकती है,[19] और अधिक सामान्यतः.[20] पहले X के आधार पर सदिश Y के सर्वश्रेष्ठ रैखिक पूर्वानुमान को परिभाषित करें . तब रैखिक सांख्यिकी T(x) पर्याप्त रैखिक है [21] यदि

यह भी देखें

  • सांख्यिकी की संपूर्णता (सांख्यिकी)।
  • पूर्ण पर्याप्त और सहायक सांख्यिकी की स्वतंत्रता पर बसु का प्रमेय
  • लेहमैन-शेफ़े प्रमेय: पूर्ण पर्याप्त अनुमानक अपनी अपेक्षा का सबसे अच्छा अनुमानक है
  • राव-ब्लैकवेल प्रमेय
  • चेनत्सोव का प्रमेय
  • पर्याप्त आयाम में कमी
  • सहायक सांख्यिकी

टिप्पणियाँ

  1. Fisher, R.A. (1922). "On the mathematical foundations of theoretical statistics". Philosophical Transactions of the Royal Society A. 222 (594–604): 309–368. Bibcode:1922RSPTA.222..309F. doi:10.1098/rsta.1922.0009. JFM 48.1280.02. JSTOR 91208.
  2. Dodge, Y. (2003) — entry for linear sufficiency
  3. Stigler, Stephen (December 1973). "Studies in the History of Probability and Statistics. XXXII: Laplace, Fisher and the Discovery of the Concept of Sufficiency". Biometrika. 60 (3): 439–445. doi:10.1093/biomet/60.3.439. JSTOR 2334992. MR 0326872.
  4. Casella, George; Berger, Roger L. (2002). Statistical Inference, 2nd ed. Duxbury Press.
  5. Cover, Thomas M. (2006). सूचना सिद्धांत के तत्व. Joy A. Thomas (2nd ed.). Hoboken, N.J.: Wiley-Interscience. p. 36. ISBN 0-471-24195-4. OCLC 59879802.
  6. Halmos, P. R.; Savage, L. J. (1949). "पर्याप्त सांख्यिकी के सिद्धांत के लिए रेडॉन-निकोडिम प्रमेय का अनुप्रयोग". The Annals of Mathematical Statistics (in English). 20 (2): 225–241. doi:10.1214/aoms/1177730032. ISSN 0003-4851.
  7. "गुणनखंडन प्रमेय - गणित का विश्वकोश". encyclopediaofmath.org. Retrieved 2022-09-07.
  8. Taraldsen, G. (2022). "पर्याप्तता के लिए गुणनखंडन प्रमेय". Preprint (in English). doi:10.13140/RG.2.2.15068.87687.
  9. Hogg, Robert V.; Craig, Allen T. (1995). गणितीय सांख्यिकी का परिचय. Prentice Hall. ISBN 978-0-02-355722-4.
  10. "The Fisher–Neyman Factorization Theorem".. Webpage at Connexions (cnx.org)
  11. Dodge (2003) — entry for minimal sufficient statistics
  12. Lehmann and Casella (1998), Theory of Point Estimation, 2nd Edition, Springer, p 37
  13. Lehmann and Casella (1998), Theory of Point Estimation, 2nd Edition, Springer, page 42
  14. Tikochinsky, Y.; Tishby, N. Z.; Levine, R. D. (1984-11-01). "अधिकतम-एन्ट्रापी अनुमान के लिए वैकल्पिक दृष्टिकोण". Physical Review A. 30 (5): 2638–2644. Bibcode:1984PhRvA..30.2638T. doi:10.1103/physreva.30.2638. ISSN 0556-2791.
  15. Andersen, Erling Bernhard (September 1970). "पृथक नमूना स्थानों के लिए पर्याप्तता और घातांकीय परिवार". Journal of the American Statistical Association. 65 (331): 1248–1255. doi:10.1080/01621459.1970.10481160. ISSN 0162-1459.
  16. Bernardo, J.M.; Smith, A.F.M. (1994). "Section 5.1.4". Bayesian Theory. Wiley. ISBN 0-471-92416-4.
  17. Blackwell, D.; Ramamoorthi, R. V. (1982). "A Bayes but not classically sufficient statistic". Annals of Statistics. 10 (3): 1025–1026. doi:10.1214/aos/1176345895. MR 0663456. Zbl 0485.62004.
  18. Nogales, A.G.; Oyola, J.A.; Perez, P. (2000). "On conditional independence and the relationship between sufficiency and invariance under the Bayesian point of view". Statistics & Probability Letters. 46 (1): 75–84. doi:10.1016/S0167-7152(99)00089-9. MR 1731351. Zbl 0964.62003.
  19. Goldstein, M.; O'Hagan, A. (1996). "बेयस रैखिक पर्याप्तता और विशेषज्ञ पश्चवर्ती मूल्यांकन की प्रणालियाँ". Journal of the Royal Statistical Society. Series B. 58 (2): 301–316. JSTOR 2345978.
  20. Godambe, V. P. (1966). "परिमित जनसंख्या से नमूना लेने का एक नया दृष्टिकोण। II वितरण-मुक्त पर्याप्तता". Journal of the Royal Statistical Society. Series B. 28 (2): 320–328. JSTOR 2984375.
  21. Witting, T. (1987). "विश्वसनीयता सिद्धांत में रैखिक मार्कोव संपत्ति". ASTIN Bulletin. 17 (1): 71–84. doi:10.2143/ast.17.1.2014984.

संदर्भ