जैकनाइफ क्रॉस-वैलिडेशन: Difference between revisions

From Vigyanwiki
(text)
(text)
Line 14: Line 14:


:<math>\bar{x} =\frac{1}{n} \sum_{i=1}^{n} x_i =\frac{1}{n} \sum_{i \in [n]} x_i,</math>
:<math>\bar{x} =\frac{1}{n} \sum_{i=1}^{n} x_i =\frac{1}{n} \sum_{i \in [n]} x_i,</math>
जहां अंतिम योग यह इंगित करने के लिए अन्य तरीके का उपयोग करता है कि सूचकांक '''आई समुच्चय पर चलता है.<math>[n] = \{ 1,\ldots,n\}</math>'''
जहां अंतिम योग यह इंगित करने के लिए अन्य तरीके का उपयोग करता है कि सूचकांक आई समुच्चय पर चलता है.<math>[n] = \{ 1,\ldots,n\}</math>


फिर हम इस प्रकार आगे बढ़ते हैं: प्रत्येक के लिए <math>i \in [n]</math> हम माध्य की गणना करते हैं <math>\bar{x}_{(i)}</math> जैकनाइफ़ उपनमूना में के अलावा सभी शामिल हैं<math>i</math>-वां डेटा बिंदु, और इसे कहा जाता है <math>i</math>-वें जैकनाइफ़ प्रतिकृति:
फिर हम निम्नानुसार आगे बढ़ते हैं:प्रत्येक <math>i \in [n]</math> के लिए हम आई-वें आंकड़े बिंदु को छोड़कर सभी से युक्त जैकनाइफ उप- के माध्य <math>\bar{x}_{(i)}</math>की गणना करते हैं, और इसे आई-वें जैकनाइफ प्रतिकृति कहा जाता है:


:<math>\bar{x}_{(i)} =\frac{1}{n-1} \sum_{j \in [n], j\ne i} x_j, \quad \quad i=1, \dots ,n.</math>
:<math>\bar{x}_{(i)} =\frac{1}{n-1} \sum_{j \in [n], j\ne i} x_j, \quad \quad i=1, \dots ,n.</math>
यह सोचने में मदद मिल सकती है कि ये<math>n</math>जैकनाइफ़ प्रतिकृति बनाता है <math>\bar{x}_{(1)},\ldots,\bar{x}_{(n)}</math> हमें नमूना माध्य के वितरण का एक अनुमान दीजिए <math>\bar{x}</math> और उतना ही बड़ा <math>n</math> यह अनुमान उतना ही बेहतर होगा. फिर अंततः जैकनाइफ़ अनुमानक प्राप्त करने के लिए हम इनका औसत निकालते हैं <math>n</math> जैकनाइफ़ प्रतिकृति:
यह सोचने में मदद मिल सकती है कि ये <math>n</math> जैकनाइफ़ <math>\bar{x}_{(1)},\ldots,\bar{x}_{(n)}</math> की प्रतिकृति बनाते हैं, जो हमें प्रतिरूप माध्य के वितरण का एक अनुमान देते हैं, <math>\bar{x}</math> और <math>n</math> जितना बड़ा होगा, यह अनुमान उतना ही बेहतर होगा। फिर अंततः जैकनाइफ अनुमानक प्राप्त करने के लिए हम इन <math>n</math> जैकनाइफ प्रतिकृति'''यों का औसत लेते हैं:'''


:<math>\bar{x}_{\mathrm{jack}} = \frac{1}{n}\sum_{i=1}^n \bar{x}_{(i)}.</math>
:<math>\bar{x}_{\mathrm{jack}} = \frac{1}{n}\sum_{i=1}^n \bar{x}_{(i)}.</math>
कोई पूर्वाग्रह और भिन्नता के बारे में पूछ सकता है <math>\bar{x}_{\mathrm{jack}}</math>. की परिभाषा से <math>\bar{x}_{\mathrm{jack}}</math> जैसा कि जैकनाइफ़ के औसत की प्रतिकृति से कोई स्पष्ट रूप से गणना करने का प्रयास कर सकता है, और पूर्वाग्रह एक तुच्छ गणना है लेकिन इसका विचरण <math>\bar{x}_{\mathrm{jack}}</math> अधिक शामिल है क्योंकि जैकनाइफ़ प्रतिकृति स्वतंत्र नहीं हैं।
कोई पूर्वाग्रह और भिन्नता के बारे में पूछ सकता है <math>\bar{x}_{\mathrm{jack}}</math>. की परिभाषा से <math>\bar{x}_{\mathrm{jack}}</math> जैसा कि जैकनाइफ़ के औसत की प्रतिकृति से कोई स्पष्ट रूप से गणना करने का प्रयास कर सकता है, और पूर्वाग्रह एक तुच्छ गणना है लेकिन इसका विचरण <math>\bar{x}_{\mathrm{jack}}</math> अधिक सम्मिलित है क्योंकि जैकनाइफ़ प्रतिकृति स्वतंत्र नहीं हैं।


माध्य के विशेष मामले के लिए, कोई स्पष्ट रूप से दिखा सकता है कि जैकनाइफ़ अनुमान सामान्य अनुमान के बराबर है:
माध्य के विशेष मामले के लिए, कोई स्पष्ट रूप से दिखा सकता है कि जैकनाइफ़ अनुमान सामान्य अनुमान के बराबर है:
Line 42: Line 42:
जैकनाइफ तकनीक का उपयोग पूरे प्रतिरूपपर गणना किए गए अनुमानक के पूर्वाग्रह का अनुमान लगाने (और सही करने) के लिए किया जा सकता है।
जैकनाइफ तकनीक का उपयोग पूरे प्रतिरूपपर गणना किए गए अनुमानक के पूर्वाग्रह का अनुमान लगाने (और सही करने) के लिए किया जा सकता है।


कल्पना करना <math>\theta</math> रुचि का लक्ष्यमापदण्ड है, जिसे वितरण के कुछ कार्यात्मक माना जाता है <math>x</math>. अवलोकनों के एक सीमित समुच्चयपर आधारित <math>x_1, ..., x_n</math>, जिसमें आई.आई.डी. शामिल माना जाता है। की प्रतियाँ <math>x</math>, अनुमानक <math>\hat{\theta}</math> निर्माण किया है:
कल्पना करना <math>\theta</math> रुचि का लक्ष्यमापदण्ड है, जिसे वितरण के कुछ कार्यात्मक माना जाता है <math>x</math>. अवलोकनों के एक सीमित समुच्चयपर आधारित <math>x_1, ..., x_n</math>, जिसमें आई.आई.डी. सम्मिलित माना जाता है। की प्रतियाँ <math>x</math>, अनुमानक <math>\hat{\theta}</math> निर्माण किया है:


:<math>\hat{\theta} =f_n(x_1,\ldots,x_n).</math>
:<math>\hat{\theta} =f_n(x_1,\ldots,x_n).</math>
Line 58: Line 58:
:<math>\vdots</math>
:<math>\vdots</math>
:<math>\hat{\theta}_{(n)} =f_{n-1}(x_1,x_{2},\ldots,x_{n-1})</math>
:<math>\hat{\theta}_{(n)} =f_{n-1}(x_1,x_{2},\ldots,x_{n-1})</math>
जहां प्रत्येक प्रतिकृति जैकनाइफ सबसैंपल के आधार पर एक लीव-वन-आउट अनुमान है, जिसमें डेटा बिंदुओं में से एक को छोड़कर सभी शामिल हैं:
जहां प्रत्येक प्रतिकृति जैकनाइफ सबसैंपल के आधार पर एक लीव-वन-आउट अनुमान है, जिसमें डेटा बिंदुओं में से एक को छोड़कर सभी सम्मिलित हैं:


:<math>\hat{\theta}_{(i)} =f_{n-1}(x_{1},\ldots,x_{i-1},x_{i+1},\ldots,x_{n}) \quad \quad i=1, \dots,n.</math>
:<math>\hat{\theta}_{(i)} =f_{n-1}(x_{1},\ldots,x_{i-1},x_{i+1},\ldots,x_{n}) \quad \quad i=1, \dots,n.</math>

Revision as of 00:14, 5 August 2023

आँकड़ों में, जैकनाइफ़ (जैकनाइफ़ अंतः वैधीकरण) एक अंतः वैधीकरण तकनीक है और इसलिए, यह पुनः प्रतिचयन का एक रूप है।

यह पूर्वाग्रह और भिन्नता अनुमान के लिए विशेष रूप से उपयोगी है। जैकनाइफ़ बूटस्ट्रैप (सांख्यिकी) जैसी अन्य सामान्य पुन: प्रतिचयन विधियों को पूर्व-दिनांकित करता है। आकार n के एक प्रतिरूप को देखते हुए, एक अवलोकन को छोड़कर प्राप्त आकार (n-1) के प्रत्येक उप-प्रतिरूप से मापदण्ड अनुमान को एकत्रित करके एक जैकनाइफ अनुमानक बनाया जा सकता है। [1]

जैकनाइफ तकनीक को मौरिस क्वेनोइल (1924-1973) द्वारा 1949 में विकसित किया गया था और 1956 में परिष्कृत किया गया था। जॉन तुकी ने 1958 में इस तकनीक का विस्तार किया और "जैकनाइफ" नाम प्रस्तावित किया, क्योंकि एक भौतिक जैक-नाइफ (एक कॉम्पैक्ट फोल्डिंग चाकू) की तरह, यह एक काम चलाऊ उपकरण है जो विभिन्न प्रकार की समस्याओं के लिए भी समाधान निकाल सकता है। हालाँकि उद्देश्य-डिज़ाइन किए गए उपकरण से विशिष्ट समस्याओं को अधिक निपूणता से हल किया जा सकता है। [2]

जैकनाइफ़ बूटस्ट्रैप (सांख्यिकी) का एक रैखिक सादृश्य है। [2]

एक सरल उदाहरण: माध्य अनुमान

एक मापदण्ड का जैकनाइफ अनुमानक एक आंकड़े समुच्चय से प्रत्येक अवलोकन को व्यवस्थित रूप से छोड़कर और शेष अवलोकनों पर मापदण्ड अनुमान की गणना करके और फिर इन गणनाओं को एकत्रित करके पाया जाता है।

उदाहरण के लिए, यदि अनुमान लगाया जाने वाला मापदण्ड यादृच्छिक चर x का जनसंख्या माध्य है,फिर आई.आई.डी. के दिए गए समुच्चय के लिए प्रेक्षण प्राकृतिक अनुमानक प्रतिरूप माध्य है:

जहां अंतिम योग यह इंगित करने के लिए अन्य तरीके का उपयोग करता है कि सूचकांक आई समुच्चय पर चलता है.

फिर हम निम्नानुसार आगे बढ़ते हैं:प्रत्येक के लिए हम आई-वें आंकड़े बिंदु को छोड़कर सभी से युक्त जैकनाइफ उप- के माध्य की गणना करते हैं, और इसे आई-वें जैकनाइफ प्रतिकृति कहा जाता है:

यह सोचने में मदद मिल सकती है कि ये जैकनाइफ़ की प्रतिकृति बनाते हैं, जो हमें प्रतिरूप माध्य के वितरण का एक अनुमान देते हैं, और जितना बड़ा होगा, यह अनुमान उतना ही बेहतर होगा। फिर अंततः जैकनाइफ अनुमानक प्राप्त करने के लिए हम इन जैकनाइफ प्रतिकृतियों का औसत लेते हैं:

कोई पूर्वाग्रह और भिन्नता के बारे में पूछ सकता है . की परिभाषा से जैसा कि जैकनाइफ़ के औसत की प्रतिकृति से कोई स्पष्ट रूप से गणना करने का प्रयास कर सकता है, और पूर्वाग्रह एक तुच्छ गणना है लेकिन इसका विचरण अधिक सम्मिलित है क्योंकि जैकनाइफ़ प्रतिकृति स्वतंत्र नहीं हैं।

माध्य के विशेष मामले के लिए, कोई स्पष्ट रूप से दिखा सकता है कि जैकनाइफ़ अनुमान सामान्य अनुमान के बराबर है:

इससे पहचान स्थापित होती है . फिर उम्मीदें लेकर हम मिलते हैं , इसलिए निष्पक्ष है, भिन्नता लेते हुए हमें मिलता है . हालाँकि, ये गुण सामान्य रूप से माध्य के अलावा अन्य मापदंडों के लिए मान्य नहीं हैं।

माध्य अनुमान के मामले के लिए यह सरल उदाहरण केवल जैकनाइफ अनुमानक के निर्माण को दर्शाने के लिए है, जबकि वास्तविक सूक्ष्मताएं (और उपयोगिता) अन्य मापदंडों के अनुमान के मामले में उभरती हैं, जैसे कि माध्य से अधिक क्षण या वितरण के अन्य कार्य।

ध्यान दें कि के पूर्वाग्रह का अनुभवजन्य अनुमान बनाने के लिए इस्तेमाल किया जा सकता है , अर्थात् कुछ उपयुक्त कारक के साथ , हालाँकि इस मामले में हम यह जानते हैं इसलिए यह निर्माण कोई सार्थक ज्ञान नहीं जोड़ता है, लेकिन यह ध्यान देने योग्य है कि यह पूर्वाग्रह का सही अनुमान देता है (जो शून्य है)।

के विचरण का एक जैकनाइफ़ अनुमान जैकनाइफ प्रतिकृति के विचरण से गणना की जा सकती है :[3][4]

बाईं समानता अनुमानक को परिभाषित करती है और सही समानता एक पहचान है जिसे सीधे सत्यापित किया जा सकता है। फिर उम्मीदें लेकर हम मिलते हैं , इसलिए यह विचरण का एक निष्पक्ष अनुमानक है .

आकलनकर्ता के पूर्वाग्रह का अनुमान लगाना

जैकनाइफ तकनीक का उपयोग पूरे प्रतिरूपपर गणना किए गए अनुमानक के पूर्वाग्रह का अनुमान लगाने (और सही करने) के लिए किया जा सकता है।

कल्पना करना रुचि का लक्ष्यमापदण्ड है, जिसे वितरण के कुछ कार्यात्मक माना जाता है . अवलोकनों के एक सीमित समुच्चयपर आधारित , जिसमें आई.आई.डी. सम्मिलित माना जाता है। की प्रतियाँ , अनुमानक निर्माण किया है:

का मान है नमूना-निर्भर है, इसलिए यह मान एक यादृच्छिक प्रतिरूपसे दूसरे में बदल जाएगा।

परिभाषा के अनुसार, का पूर्वाग्रह इस प्रकार है:

कोई व्यक्ति कई मानों की गणना करना चाह सकता है अनुभवजन्य अनुमान की गणना करने के लिए, कई नमूनों से, और उनका औसत निकालें , लेकिन यह तब असंभव है जब उपलब्ध अवलोकनों के पूरे समुच्चयमें कोई अन्य प्रतिरूपन हों गणना करने के लिए प्रयोग किया जाता था . इस तरह की स्थिति में जैकनाइफ रीसैंपलिंग तकनीक मददगार हो सकती है।

हम जैकनाइफ प्रतिकृति का निर्माण करते हैं:

जहां प्रत्येक प्रतिकृति जैकनाइफ सबसैंपल के आधार पर एक लीव-वन-आउट अनुमान है, जिसमें डेटा बिंदुओं में से एक को छोड़कर सभी सम्मिलित हैं:

फिर हम उनका औसत परिभाषित करते हैं:

जैकनाइफ़ के पूर्वाग्रह का अनुमान द्वारा दिया गया है:

और परिणामी पूर्वाग्रह-सुधारित जैकनाइफ़ अनुमान द्वारा दिया गया है:

यह उस विशेष मामले में पूर्वाग्रह को दूर करता है जो पूर्वाग्रह है और इसे कम कर देता है अन्य मामलों में।[2]

एक अनुमानक के विचरण का अनुमान लगाना

जैकनाइफ तकनीक का उपयोग पूरे प्रतिरूपपर गणना किए गए अनुमानक के विचरण का अनुमान लगाने के लिए भी किया जा सकता है।

यह भी देखें

साहित्य

टिप्पणियाँ

  1. Efron 1982, p. 2.
  2. 2.0 2.1 2.2 Cameron & Trivedi 2005, p. 375.
  3. Efron 1982, p. 14.
  4. McIntosh, Avery I. "जैकनाइफ़ आकलन विधि" (PDF). Boston University. Avery I. McIntosh. Archived from the original (PDF) on 2016-05-14. Retrieved 2016-04-30.: p. 3.


संदर्भ