गुडनेस ऑफ़ फिट

From Vigyanwiki
Revision as of 00:30, 8 August 2023 by alpha>KishanNayak

किसी सांख्यिकीय मॉडल का गुडनेस ऑफ़ फिट बताता है कि यह अवलोकनों के एक समुच्चय पर कितनी अच्छी तरह फिट होता है। गुडनेस ऑफ़ फिट के उपाय सामान्यतः अवलोकन मान और प्रश्न में मॉडल के अंतर्गत अपेक्षित मानों के बीच विसंगति को संक्षेप में प्रस्तुत करते हैं। ऐसे उपायों का उपयोग सांख्यिकीय परिकल्पना परीक्षण, उदाहरण के लिए आँकड़ों में त्रुटियों और अवशेषों की सामान्यता परीक्षण के लिएमें किया जा सकता है, यह परीक्षण करने के लिए कि क्या दो प्रारूप समान वितरण से लिए गए हैं (कोलमोगोरोव-स्मिरनोव परीक्षण देखें), या क्या परिणाम आवृत्तियाँ एक निर्दिष्ट वितरण का पालन करती हैं (पियर्सन का ची-स्क्वायर परीक्षण देखें)। प्रसरण के विश्लेषण में, उन घटकों में से एक जिसमें प्रसरण को विभाजित किया गया है, वर्गों का फिट न होने वाला योग हो सकता है।

वितरण के फ़िट

यह आकलन करने में कि क्या कोई दिया गया वितरण डेटा-समुच्चय के लिए उपयुक्त है, निम्नलिखित सांख्यिकीय परिकल्पना परीक्षण और उनके फिट के अंतर्निहित उपायों का उपयोग किया जा सकता है:


प्रतिगमन विश्लेषण

प्रतिगमन विश्लेषण में, विशेष रूप से प्रतिगमन सत्यापन में, निम्नलिखित विषय गुडनेस ऑफ़ फिट से संबंधित हैं:

श्रेणीबद्ध डेटा

निम्नलिखित उदाहरण हैं जो श्रेणीबद्ध डेटा के संदर्भ में उत्पन्न होते हैं।

पियर्सन का ची-स्क्वायर परीक्षण

पियर्सन का ची-स्क्वायर परीक्षण गुडनेस ऑफ़ फिट के माप का उपयोग करता है जो प्रेक्षित और अपेक्षित मूल्य आवृत्तियों (अर्थात, अवलोकनों की गिनती) के बीच अंतर का योग है, प्रत्येक वर्ग और अनुमानों से विभाजित होता है:

जहाँ:

  • Oi = bin i के लिए एक प्रेक्षित गणना
  • Ei = bin i के लिए एक अपेक्षित गिनती, जो शून्य परिकल्पना द्वारा बताई गई है।

अपेक्षित आवृत्ति की गणना इस प्रकार की जाती है:

जहाँ:

  • F = परीक्षण किए जा रहे संभाव्यता वितरण के लिए संचयी वितरण फ़ंक्शन।
  • Yu= कक्षा I के लिए ऊपरी सीमा,
  • Yl= कक्षा I के लिए निचली सीमा, और
  • N = प्रारूप आकार

गुडनेस ऑफ़ फिट निर्धारित करने के लिए परिणामी मान की तुलना ची-स्क्वायर वितरण से की जा सकती है। ची-स्क्वायर वितरण में (k - c) स्वतंत्रता की डिग्री है, जहां k गैर-रिक्त खंडों की संख्या है और c वितरण प्लस वन के लिए अनुमानित मापदंडों की संख्या है। उदाहरण के लिए, 3-पैरामीटर वेइबुल वितरण के लिए, c = 4 होगा।

उदाहरण: पुरुषों और महिलाओं की समान आवृत्तियाँ

उदाहरण के लिए, इस परिकल्पना का परीक्षण करने के लिए कि 100 लोगों का एक यादृच्छिक प्रारूप किसी जनसंख्या से लिया गया है जिसमें पुरुषों और महिलाओं की आवृत्ति समान है, पुरुषों और महिलाओं की देखी गई संख्या की तुलना 50 पुरुषों और 50 महिलाओं की सैद्धांतिक आवृत्तियों से की जाएगी। यदि प्रारूप में 44 पुरुष और 56 महिलाएँ थीं, तो

यदि शून्य परिकल्पना सत्य है (अर्थात, पुरुषों और महिलाओं को प्रारूप में समान संभावना के साथ चुना जाता है), तो परीक्षण आँकड़ा स्वतंत्रता की एक डिग्री के साथ ची-स्क्वायर वितरण से लिया जाएगा। यद्यपि कोई स्वतंत्रता की दो डिग्री (पुरुषों और महिलाओं के लिए एक-एक) की उम्मीद कर सकता है, हमें यह ध्यान में रखना चाहिए कि पुरुषों और महिलाओं की कुल संख्या सीमित है (100), और इस प्रकार स्वतंत्रता की केवल एक डिग्री है (2 − 1)। दूसरे शब्दों में, यदि पुरुष गणना ज्ञात है तो महिला गणना निर्धारित की जाती है, और यदि महिला गणना ज्ञात है तों पुरुषों की संख्या निर्धारित की जा सकती है।

1 डिग्री की स्वतंत्रता के लिए चाइ-स्क्वायर वितरण की परामर्श के अनुसार, यदि पुरुष और महिलाएँ जनसंख्या में समान संख्या में हैं, तो से अधिक अंतर देखने की कुल संभावना लगभग 0.23 है। यह संभावना सामान्यतः सांख्यिकीय महत्वपूर्णता के लिए स्वीकृत मानक मापदंडों (0.001-0.05 की संभावना) से ऊपर है, इसलिए सामान्य रूप से हम निराकरण करते हैं कि पुरुषों की संख्या और महिलाओं की संख्या में कोई अंतर नहीं है अर्थात् हम एक 50/50 पुरुष/महिला अनुपात के लिए हमारा प्रारूप उस सीमा के भीतर मानेंगे जो हम आशा करते हैं।

इस धारणा पर ध्यान दें कि जिस तंत्र ने प्रारूप तैयार किया है वह यादृच्छिक है, समान संभावना के साथ स्वतंत्र यादृच्छिक चयन के अर्थ में, यहां पुरुषों और महिलाओं दोनों के लिए 0.5 है। यदि, उदाहरण के लिए, चुने गए 44 पुरुषों में से प्रत्येक एक पुरुष मित्र लाया, और 56 महिलाओं में से प्रत्येक एक महिला मित्र लाई, तो प्रत्येक जबकि प्रत्येक में 4 गुना वृद्धि होगी 2 गुना बढ़ जाएगी। सांख्यिकी का मान दोगुना होकर 2.88 हो जाएगा। इस अंतर्निहित तंत्र को जानते हुए, हमें निश्चित रूप से जोड़ियों की गिनती करनी चाहिए। सामान्यतः , तंत्र, यदि रक्षात्मक रूप से यादृच्छिक नहीं है, तो ज्ञात नहीं होगा। तदनुसार, जिस वितरण को परीक्षण आँकड़ा संदर्भित किया जाना चाहिए, वह ची-स्क्वायर से बहुत भिन्न हो सकता है।[7]

द्विपद स्थिति

द्विपद प्रयोग स्वतंत्र परीक्षणों का एक क्रम है जिसमें परीक्षणों के परिणामस्वरूप दो परिणामों में से एक हो सकता है, सफलता या विफलता। ऐसे n परीक्षण हैं जिनमें से प्रत्येक की सफलता की संभावना है, जिसे p द्वारा दर्शाया गया है। बशर्ते कि npi ≫ 1 प्रत्येक i के लिए 1 हो (जहां i = 1, 2, ...,k), फिर

इसमें लगभग k-1 डिग्री स्वतंत्रता के साथ एक ची-स्क्वायर वितरण है। तथ्य यह है कि स्वतंत्रता की k-1 डिग्री प्रतिबंध का परिणाम है। हम जानते हैं कि k अवलोकित खंड गणनाएँ हैं, यद्यपि, एक बार k − 1 ज्ञात हो जाने पर, शेष को विशिष्ट रूप से निर्धारित किया जाता है। मूल रूप से, हम कह सकतें है की केवल k − 1 स्वतंत्र रूप से निर्धारित खंड गणना होती है, इस प्रकार k − 1 डिग्री की स्वतंत्रता होती है।

जी-परीक्षण

जी-परीक्षण सांख्यिकीय महत्व के संभावना अनुपात परीक्षण हैं जिनका उपयोग उन स्थितियों में तीव्रता से किया जा रहा है जहां पहले पियर्सन के ची-स्क्वायर परीक्षणों को प्रस्तावित किया गया था।[8]

G का सामान्य सूत्र है

जहाँ और ची-स्क्वायर परीक्षण के समान ही हैं, प्राकृतिक लघुगणक को दर्शाता है, और योग सभी गैर-रिक्त खंडों पर लिया जाता है। इसके अतिरिक्त, कुल देखी गई गिनती कुल अपेक्षित गिनती के बराबर होनी चाहिए:

जहाँ प्रेक्षणों की कुल संख्या है.

रॉबर्ट आर. सोकल और एफ. जेम्स रोहल्फ़ की लोकप्रिय सांख्यिकी पाठ्यपुस्तक के कम से कम 1981 संस्करण के बाद से ही जी-परीक्षणों को प्रस्तावित किया गया है।[9]


यह भी देखें

संदर्भ

  1. Berk, Robert H.; Jones, Douglas H. (1979). "फिट-की-फिट परीक्षण आँकड़े जो कोलमोगोरोव आँकड़ों पर हावी हैं". Zeitschrift für Wahrscheinlichkeitstheorie und Verwandte Gebiete. 47 (1): 47–59. doi:10.1007/BF00533250.
  2. Moscovich, Amit; Nadler, Boaz; Spiegelman, Clifford (2016). "सटीक बर्क-जोन्स आँकड़े और उनकी पी-वैल्यू गणना पर". Electronic Journal of Statistics. 10 (2). doi:10.1214/16-EJS1172.
  3. Liu, Qiang; Lee, Jason; Jordan, Michael (20 June 2016). "अच्छाई-की-फिट परीक्षणों के लिए एक कर्नेलाइज्ड स्टीन विसंगति". Proceedings of the 33rd International Conference on Machine Learning. The 33rd International Conference on Machine Learning. New York, New York, USA: Proceedings of Machine Learning Research. pp. 276–284.
  4. Chwialkowski, Kacper; Strathmann, Heiko; Gretton, Arthur (20 June 2016). "फिट की अच्छाई का एक कर्नेल परीक्षण". Proceedings of the 33rd International Conference on Machine Learning. The 33rd International Conference on Machine Learning. New York, New York, USA: Proceedings of Machine Learning Research. pp. 2606–2615.
  5. Zhang, Jin (2002). "संभावना अनुपात के आधार पर शक्तिशाली अच्छाई-की-फिट परीक्षण" (PDF). J. R. Stat. Soc. B. 64 (2): 281–294. doi:10.1111/1467-9868.00337. Retrieved 5 November 2018.
  6. Vexler, Albert; Gurevich, Gregory (2010). "अनुभवजन्य संभावना अनुपात नमूना एन्ट्रॉपी के आधार पर फिट-ऑफ-फिट परीक्षणों पर लागू होता है". Computational Statistics and Data Analysis. 54 (2): 531–545. doi:10.1016/j.csda.2009.09.025.
  7. Maindonald, J. H.; Braun, W. J. (2010). आर का उपयोग करके डेटा विश्लेषण और ग्राफिक्स। एक उदाहरण-आधारित दृष्टिकोण। (Third ed.). New York: Cambridge University Press. pp. 116-118. ISBN 978-0-521-76293-9.
  8. McDonald, J.H. (2014). "G–test of goodness-of-fit". जैविक सांख्यिकी की पुस्तिका (Third ed.). Baltimore, Maryland: Sparky House Publishing. pp. 53–58.
  9. Sokal, R. R.; Rohlf, F. J. (1981). Biometry: The Principles and Practice of Statistics in Biological Research (Second ed.). W. H. Freeman. ISBN 0-7167-2411-1.


अग्रिम पठन

  • Huber-Carol, C.; Balakrishnan, N.; Nikulin, M. S.; Mesbah, M., eds. (2002), Goodness-of-Fit Tests and Model Validity, Springer
  • Ingster, Yu. I.; Suslina, I. A. (2003), Nonparametric Goodness-of-Fit Testing Under Gaussian Models, Springer
  • Rayner, J. C. W.; Thas, O.; Best, D. J. (2009), Smooth Tests of Goodness of Fit (2nd ed.), Wiley
  • Vexler, Albert; Gurevich, Gregory (2010), "Empirical likelihood ratios applied to goodness-of-fit tests based on sample entropy", Computational Statistics & Data Analysis, 54 (2): 531–545, doi:10.1016/j.csda.2009.09.025