सीमांत संभावना: Difference between revisions

From Vigyanwiki
No edit summary
No edit summary
Line 3: Line 3:


==अवधारणा==
==अवधारणा==
[[स्वतंत्र रूप से समान रूप से वितरित|स्वतंत्र समान रूप से वितरित]] डेटा बिंदुओं के एक समूह को देखते हुए <math>\mathbf{X}=(x_1,\ldots,x_n),</math> जहाँ <math>x_i \sim p(x|\theta)</math> कुछ संभाव्यता वितरण के अनुसार <math>\theta</math> द्वारा पैरामीटर किया गया है जहां <math>\theta</math> स्वयं एक वितरण द्वारा वर्णित एक यादृच्छिक चर है, अर्थात <math>\theta \sim p(\theta\mid\alpha),</math> सामान्यतः सीमांत संभावना पूछती है कि संभावना <math>p(\mathbf{X}\mid\alpha)</math> क्या है, जहां <math>\theta</math> [[सीमांत वितरण]] (एकीकृत) किया गया है:
[[स्वतंत्र रूप से समान रूप से वितरित|स्वतंत्र समान रूप से वितरित]] डेटा बिंदुओं के एक समूह को देखते हुए <math>\mathbf{X}=(x_1,\ldots,x_n),</math> जहाँ <math>x_i \sim p(x|\theta)</math> कुछ संभाव्यता वितरण के अनुसार <math>\theta</math> द्वारा पैरामीटर किया गया है जहां <math>\theta</math> स्वयं एक वितरण द्वारा वर्णित एक यादृच्छिक वेरिएबल है, अर्थात <math>\theta \sim p(\theta\mid\alpha),</math> सामान्यतः सीमांत संभावना पूछती है कि संभावना <math>p(\mathbf{X}\mid\alpha)</math> क्या है, जहां <math>\theta</math> [[सीमांत वितरण]] (एकीकृत) किया गया है:


:<math>p(\mathbf{X}\mid\alpha) = \int_\theta p(\mathbf{X}\mid\theta) \, p(\theta\mid\alpha)\ \operatorname{d}\!\theta </math>
:<math>p(\mathbf{X}\mid\alpha) = \int_\theta p(\mathbf{X}\mid\theta) \, p(\theta\mid\alpha)\ \operatorname{d}\!\theta </math>
उपरोक्त परिभाषा बायेसियन सांख्यिकी के संदर्भ में व्यक्त की गई है, जिस स्थिति में <math>p(\theta\mid\alpha)</math> को पूर्व घनत्व कहा जाता है और <math>p(\mathbf{X}\mid\theta)</math> संभावना है। सीमांत संभावना एक ज्यामितीय अर्थ में डेटा और पूर्व के मध्य सहमति की मात्रा निर्धारित करती है, जिसे डे कार्वाल्हो एट अल में स्पष्ट बनाया गया है। (2019) मौलिक (फ़्रीक्वेंटिस्ट) आँकड़ों में, सीमांत संभावना की अवधारणा एक संयुक्त पैरामीटर <math>\theta = (\psi,\lambda)</math> के संदर्भ में होती है जहाँ <math>\psi</math> ब्याज का वास्तविक पैरामीटर है, और <math>\lambda</math> एक गैर-दिलचस्प [[उपद्रव पैरामीटर]] है। यदि <math>\lambda</math> के लिए संभाव्यता वितरण उपस्थित है, तो अधिकांशतः <math>\lambda</math> को हाशिए पर रखकर केवल <math>\psi</math> के संदर्भ में संभावना फलन पर विचार करना वांछनीय होता है:
उपरोक्त परिभाषा बायेसियन सांख्यिकी के संदर्भ में व्यक्त की गई है, जिस स्थिति में <math>p(\theta\mid\alpha)</math> को पूर्व घनत्व कहा जाता है और <math>p(\mathbf{X}\mid\theta)</math> संभावना है। सीमांत संभावना एक ज्यामितीय अर्थ में डेटा और पूर्व के मध्य सहमति की मात्रा निर्धारित करती है, जिसे डे कार्वाल्हो एट अल में स्पष्ट बनाया गया है। (2019) मौलिक (फ़्रीक्वेंटिस्ट) आँकड़ों में, सीमांत संभावना की अवधारणा एक संयुक्त पैरामीटर <math>\theta = (\psi,\lambda)</math> के संदर्भ में होती है जहाँ <math>\psi</math> ब्याज का वास्तविक पैरामीटर है, और <math>\lambda</math> एक गैर-रोचक [[उपद्रव पैरामीटर]] है। यदि <math>\lambda</math> के लिए संभाव्यता वितरण उपस्थित है, तो अधिकांशतः <math>\lambda</math> को सीमांत पर रखकर केवल <math>\psi</math> के संदर्भ में संभावना फलन पर विचार करना वांछनीय होता है:
:<math>\mathcal{L}(\psi;\mathbf{X}) = p(\mathbf{X}\mid\psi) = \int_\lambda p(\mathbf{X}\mid\lambda,\psi) \, p(\lambda\mid\psi) \ \operatorname{d}\!\lambda </math>
:<math>\mathcal{L}(\psi;\mathbf{X}) = p(\mathbf{X}\mid\psi) = \int_\lambda p(\mathbf{X}\mid\lambda,\psi) \, p(\lambda\mid\psi) \ \operatorname{d}\!\lambda </math>
दुर्भाग्य से, सीमांत संभावनाओं की गणना करना सामान्यतः कठिन होता है। स्पष्ट समाधान वितरण के छोटे वर्ग के लिए जाने जाते हैं, विशेषतः जब हाशिए पर रखा गया पैरामीटर डेटा के वितरण से पहले संयुग्मित होता है। अन्य स्थितियों में, किसी प्रकार की [[संख्यात्मक एकीकरण]] विधि की आवश्यकता होती है, या तब सामान्य विधि जैसे गॉसियन एकीकरण या [[मोंटे कार्लो विधि]], या सांख्यिकीय समस्याओं के लिए विशेष विधि जैसे [[लाप्लास सन्निकटन]], [[गिब्स नमूनाकरण]]/मेट्रोपोलिस-हेस्टिंग्स_एल्गोरिदम नमूनाकरण, या [[ईएम एल्गोरिदम]] के लिए विशेष विधि की आवश्यकता होती है।
दुर्भाग्य से, सीमांत संभावनाओं की गणना करना सामान्यतः कठिन होता है। स्पष्ट समाधान वितरण के छोटे वर्ग के लिए जाने जाते हैं, विशेषतः जब सीमांत पर रखा गया पैरामीटर डेटा के वितरण से पहले संयुग्मित होता है। अन्य स्थितियों में, किसी प्रकार की [[संख्यात्मक एकीकरण]] विधि की आवश्यकता होती है, या तब सामान्य विधि जैसे गॉसियन एकीकरण या [[मोंटे कार्लो विधि]], या सांख्यिकीय समस्याओं के लिए विशेष विधि जैसे [[लाप्लास सन्निकटन]], [[गिब्स नमूनाकरण]]/मेट्रोपोलिस-हेस्टिंग्स_एल्गोरिदम नमूनाकरण, या [[ईएम एल्गोरिदम]] के लिए विशेष विधि की आवश्यकता होती है।


उपरोक्त विचारों को एकल यादृच्छिक चर (डेटा बिंदु) <math>x</math> पर क्रियान्वित करना भी संभव है, बायेसियन संदर्भ में, अवलोकनों के समूह के अतिरिक्त, यह डेटा बिंदु के [[पूर्व पूर्वानुमानित वितरण]] के सामान्तर है।
उपरोक्त विचारों को एकल यादृच्छिक वेरिएबल (डेटा बिंदु) <math>x</math> पर क्रियान्वित करना भी संभव है, बायेसियन संदर्भ में, अवलोकनों के समूह के अतिरिक्त, यह डेटा बिंदु के [[पूर्व पूर्वानुमानित वितरण]] के सामान्तर है।


== अनुप्रयोग ==
== अनुप्रयोग ==


=== [[बायेसियन मॉडल तुलना]] ===
=== [[बायेसियन मॉडल तुलना]] ===
बायेसियन मॉडल तुलना में, सीमांत चर <math>\theta</math> एक विशेष प्रकार के मॉडल के लिए पैरामीटर हैं, और शेष चर <math>M</math> मॉडल की पहचान है। इस स्थितियों में, सीमांत संभावना मॉडल प्रकार दिए गए डेटा की संभावना है जो किसी विशेष मॉडल पैरामीटर को नहीं मानती है। मॉडल मापदंडों के लिए <math>\theta</math> लिखना, मॉडल <math>M</math> के लिए सीमांत संभावना है
बायेसियन मॉडल तुलना में, सीमांत वेरिएबल <math>\theta</math> एक विशेष प्रकार के मॉडल के लिए पैरामीटर हैं, और शेष वेरिएबल <math>M</math> मॉडल की पहचान है। इस स्थितियों में, सीमांत संभावना मॉडल प्रकार दिए गए डेटा की संभावना है जो किसी विशेष मॉडल पैरामीटर को नहीं मानती है। मॉडल मापदंडों के लिए <math>\theta</math> लिखना, मॉडल <math>M</math> के लिए सीमांत संभावना है
:<math> p(\mathbf{X}\mid M) = \int p(\mathbf{X}\mid\theta, M) \, p(\theta\mid M) \, \operatorname{d}\!\theta </math>
:<math> p(\mathbf{X}\mid M) = \int p(\mathbf{X}\mid\theta, M) \, p(\theta\mid M) \, \operatorname{d}\!\theta </math>
इसी संदर्भ में मॉडल साक्ष्य शब्द का प्रयोग सामान्यतः किया जाता है। यह मात्रा महत्वपूर्ण है क्योंकि एक मॉडल ''M''<sub>1</sub> के विरुद्ध दूसरे मॉडल ''M''<sub>2</sub> के लिए पश्च विषम अनुपात में सीमांत संभावनाओं का अनुपात सम्मिलित होता है, तथाकथित बेयस कारक:
इसी संदर्भ में मॉडल साक्ष्य शब्द का प्रयोग सामान्यतः किया जाता है। यह मात्रा महत्वपूर्ण है क्योंकि एक मॉडल ''M''<sub>1</sub> के विरुद्ध दूसरे मॉडल ''M''<sub>2</sub> के लिए पश्च विषम अनुपात में सीमांत संभावनाओं का अनुपात सम्मिलित होता है, तथाकथित बेयस कारक:

Revision as of 13:51, 19 July 2023

सीमांत संभावना एक संभावना फलन है जिसे पैरामीटर स्थान पर एकीकृत किया गया है। बायेसियन सांख्यिकी में, यह पूर्व संभाव्यता से नमूनाकरण (सांख्यिकी) उत्पन्न करने की संभावना का प्रतिनिधित्व करता है और इसलिए इसे अधिकांशतः मॉडल साक्ष्य या केवल साक्ष्य के रूप में जाना जाता है।

अवधारणा

स्वतंत्र समान रूप से वितरित डेटा बिंदुओं के एक समूह को देखते हुए जहाँ कुछ संभाव्यता वितरण के अनुसार द्वारा पैरामीटर किया गया है जहां स्वयं एक वितरण द्वारा वर्णित एक यादृच्छिक वेरिएबल है, अर्थात सामान्यतः सीमांत संभावना पूछती है कि संभावना क्या है, जहां सीमांत वितरण (एकीकृत) किया गया है:

उपरोक्त परिभाषा बायेसियन सांख्यिकी के संदर्भ में व्यक्त की गई है, जिस स्थिति में को पूर्व घनत्व कहा जाता है और संभावना है। सीमांत संभावना एक ज्यामितीय अर्थ में डेटा और पूर्व के मध्य सहमति की मात्रा निर्धारित करती है, जिसे डे कार्वाल्हो एट अल में स्पष्ट बनाया गया है। (2019) मौलिक (फ़्रीक्वेंटिस्ट) आँकड़ों में, सीमांत संभावना की अवधारणा एक संयुक्त पैरामीटर के संदर्भ में होती है जहाँ ब्याज का वास्तविक पैरामीटर है, और एक गैर-रोचक उपद्रव पैरामीटर है। यदि के लिए संभाव्यता वितरण उपस्थित है, तो अधिकांशतः को सीमांत पर रखकर केवल के संदर्भ में संभावना फलन पर विचार करना वांछनीय होता है:

दुर्भाग्य से, सीमांत संभावनाओं की गणना करना सामान्यतः कठिन होता है। स्पष्ट समाधान वितरण के छोटे वर्ग के लिए जाने जाते हैं, विशेषतः जब सीमांत पर रखा गया पैरामीटर डेटा के वितरण से पहले संयुग्मित होता है। अन्य स्थितियों में, किसी प्रकार की संख्यात्मक एकीकरण विधि की आवश्यकता होती है, या तब सामान्य विधि जैसे गॉसियन एकीकरण या मोंटे कार्लो विधि, या सांख्यिकीय समस्याओं के लिए विशेष विधि जैसे लाप्लास सन्निकटन, गिब्स नमूनाकरण/मेट्रोपोलिस-हेस्टिंग्स_एल्गोरिदम नमूनाकरण, या ईएम एल्गोरिदम के लिए विशेष विधि की आवश्यकता होती है।

उपरोक्त विचारों को एकल यादृच्छिक वेरिएबल (डेटा बिंदु) पर क्रियान्वित करना भी संभव है, बायेसियन संदर्भ में, अवलोकनों के समूह के अतिरिक्त, यह डेटा बिंदु के पूर्व पूर्वानुमानित वितरण के सामान्तर है।

अनुप्रयोग

बायेसियन मॉडल तुलना

बायेसियन मॉडल तुलना में, सीमांत वेरिएबल एक विशेष प्रकार के मॉडल के लिए पैरामीटर हैं, और शेष वेरिएबल मॉडल की पहचान है। इस स्थितियों में, सीमांत संभावना मॉडल प्रकार दिए गए डेटा की संभावना है जो किसी विशेष मॉडल पैरामीटर को नहीं मानती है। मॉडल मापदंडों के लिए लिखना, मॉडल के लिए सीमांत संभावना है

इसी संदर्भ में मॉडल साक्ष्य शब्द का प्रयोग सामान्यतः किया जाता है। यह मात्रा महत्वपूर्ण है क्योंकि एक मॉडल M1 के विरुद्ध दूसरे मॉडल M2 के लिए पश्च विषम अनुपात में सीमांत संभावनाओं का अनुपात सम्मिलित होता है, तथाकथित बेयस कारक:

जिसे योजनाबद्ध रूप से इस प्रकार बताया जा सकता है

पोस्टीरियर ऑड्स = पूर्व ऑड्स × बेयस फैक्टर

यह भी देखें

संदर्भ

  • Charles S. Bos. "A comparison of marginal likelihood computation methods". In W. Härdle and B. Ronz, editors, COMPSTAT 2002: Proceedings in Computational Statistics, pp. 111–117. 2002. (Available as a preprint on the web: [1])
  • de Carvalho, Miguel; Page, Garritt; Barney, Bradley (2019). "On the geometry of Bayesian inference". Bayesian Analysis. 14 (4): 1013‒1036. (Available as a preprint on the web: [2])
  • Lambert, Ben (2018). "The devil is in the denominator". A Student's Guide to Bayesian Statistics. Sage. pp. 109–120. ISBN 978-1-4739-1636-4.
  • The on-line textbook: Information Theory, Inference, and Learning Algorithms, by David J.C. MacKay.