सीमांत संभावना: Difference between revisions

From Vigyanwiki
No edit summary
No edit summary
Line 1: Line 1:
{{Bayesian statistics}}
{{Bayesian statistics}}
'''सीमांत संभावना''' एक संभावना फ़ंक्शन है जिसे [[ पैरामीटर स्थान ]] पर [[ अभिन्न | एकीकृत]] किया गया है। बायेसियन सांख्यिकी में, यह पूर्व संभाव्यता से [[नमूनाकरण (सांख्यिकी)]] उत्पन्न करने की संभावना का प्रतिनिधित्व करता है और इसलिए इसे अधिकांशतः  मॉडल साक्ष्य या केवल साक्ष्य के रूप में जाना जाता है।
'''सीमांत संभावना''' एक संभावना फलन है जिसे [[ पैरामीटर स्थान ]] पर [[ अभिन्न | एकीकृत]] किया गया है। बायेसियन सांख्यिकी में, यह पूर्व संभाव्यता से [[नमूनाकरण (सांख्यिकी)]] उत्पन्न करने की संभावना का प्रतिनिधित्व करता है और इसलिए इसे अधिकांशतः  मॉडल साक्ष्य या केवल साक्ष्य के रूप में जाना जाता है।
 
'''है और इसलिए इसे अधिकांशतः  मॉ।'''


==अवधारणा==
==अवधारणा==
Line 8: Line 6:


:<math>p(\mathbf{X}\mid\alpha) = \int_\theta p(\mathbf{X}\mid\theta) \, p(\theta\mid\alpha)\ \operatorname{d}\!\theta </math>
:<math>p(\mathbf{X}\mid\alpha) = \int_\theta p(\mathbf{X}\mid\theta) \, p(\theta\mid\alpha)\ \operatorname{d}\!\theta </math>
उपरोक्त परिभाषा किस मामले में बायेसियन सांख्यिकी के संदर्भ में व्यक्त की गई है <math>p(\theta\mid\alpha)</math> पूर्व घनत्व कहा जाता है और <math>p(\mathbf{X}\mid\theta)</math> संभावना है. सीमांत संभावना सटीक ज्यामितीय अर्थ में डेटा और पूर्व के बीच समझौते की मात्रा निर्धारित करती है{{How|date=February 2023}} डी कार्वाल्हो एट अल में। (2019)। शास्त्रीय (बारंबारतावादी सांख्यिकी) आँकड़ों में, सीमांत संभावना की अवधारणा संयुक्त पैरामीटर के संदर्भ में होती है <math>\theta = (\psi,\lambda)</math>, कहाँ <math>\psi</math> रुचि का वास्तविक पैरामीटर है, और <math>\lambda</math> एक गैर-दिलचस्प [[उपद्रव पैरामीटर]] है। यदि इसके लिए संभाव्यता वितरण मौजूद है <math>\lambda</math>{{Dubious|1=Frequentist_marginal_likelihood|reason=Parameters do not have distributions in frequentists statistics|date=February 2023}}, अधिकांशतः संभावना फ़ंक्शन पर केवल के संदर्भ में विचार करना वांछनीय होता है <math>\psi</math>, हाशिए पर रखकर <math>\lambda</math>:
उपरोक्त परिभाषा बायेसियन सांख्यिकी के संदर्भ में व्यक्त की गई है, जिस स्थिति में <math>p(\theta\mid\alpha)</math> को पूर्व घनत्व कहा जाता है और <math>p(\mathbf{X}\mid\theta)</math> संभावना है। सीमांत संभावना एक ज्यामितीय अर्थ में डेटा और पूर्व के मध्य सहमति की मात्रा निर्धारित करती है, जिसे डे कार्वाल्हो एट अल में स्पष्ट बनाया गया है। (2019) मौलिक (फ़्रीक्वेंटिस्ट) आँकड़ों में, सीमांत संभावना की अवधारणा एक संयुक्त पैरामीटर <math>\theta = (\psi,\lambda)</math> के संदर्भ में होती है जहाँ <math>\psi</math> ब्याज का वास्तविक पैरामीटर है, और <math>\lambda</math> एक गैर-दिलचस्प [[उपद्रव पैरामीटर]] है। यदि <math>\lambda</math> के लिए संभाव्यता वितरण उपस्थित है, तो अधिकांशतः <math>\lambda</math> को हाशिए पर रखकर केवल <math>\psi</math> के संदर्भ में संभावना फलन पर विचार करना वांछनीय होता है:
 
 
उपरोक्त परिभाषा बायेसियन सांख्यिकी के संदर्भ में व्यक्त की गई है, जिस स्थिति में एफ1 को पूर्व घनत्व कहा जाता है और एफ2 संभावना है। सीमांत संभावना एक ज्यामितीय अर्थ में डेटा और पूर्व के बीच समझौते की मात्रा निर्धारित करती है, जिसे डे कार्वाल्हो एट अल में सटीक [कैसे?] बनाया गया है। (2019) शास्त्रीय (फ़्रीक्वेंटिस्ट) आँकड़ों में, सीमांत संभावना की अवधारणा एक संयुक्त पैरामीटर फ़3 के संदर्भ में होती है जहाँ v ब्याज का वास्तविक पैरामीटर है, और एक्स एक गैर-दिलचस्प उपद्रव पैरामीटर है। यदि x के लिए संभाव्यता वितरण मौजूद है, तो अक्सर x को हाशिए पर रखकर केवल v के संदर्भ में संभावना फ़ंक्शन पर विचार करना वांछनीय होता है:
:<math>\mathcal{L}(\psi;\mathbf{X}) = p(\mathbf{X}\mid\psi) = \int_\lambda p(\mathbf{X}\mid\lambda,\psi) \, p(\lambda\mid\psi) \ \operatorname{d}\!\lambda </math>
:<math>\mathcal{L}(\psi;\mathbf{X}) = p(\mathbf{X}\mid\psi) = \int_\lambda p(\mathbf{X}\mid\lambda,\psi) \, p(\lambda\mid\psi) \ \operatorname{d}\!\lambda </math>
दुर्भाग्य से, सीमांत संभावनाओं की गणना करना आम तौर पर कठिन होता है। सटीक समाधान वितरण के  छोटे वर्ग के लिए जाने जाते हैं, खासकर जब हाशिए पर रखा गया पैरामीटर डेटा के वितरण से पहले संयुग्मित होता है। अन्य मामलों में, किसी प्रकार की [[संख्यात्मक एकीकरण]] विधि की आवश्यकता होती है, या तो  सामान्य विधि जैसे गॉसियन एकीकरण या [[मोंटे कार्लो विधि]], या सांख्यिकीय समस्याओं के लिए विशेष विधि जैसे [[लाप्लास सन्निकटन]], [[गिब्स नमूनाकरण]]/मेट्रोपोलिस-हेस्टिंग्स_एल्गोरिदम नमूनाकरण, या [[ईएम एल्गोरिदम]].
दुर्भाग्य से, सीमांत संभावनाओं की गणना करना आम तौर पर कठिन होता है। स्पष्ट समाधान वितरण के  छोटे वर्ग के लिए जाने जाते हैं, खासकर जब हाशिए पर रखा गया पैरामीटर डेटा के वितरण से पहले संयुग्मित होता है। अन्य मामलों में, किसी प्रकार की [[संख्यात्मक एकीकरण]] विधि की आवश्यकता होती है, या तो  सामान्य विधि जैसे गॉसियन एकीकरण या [[मोंटे कार्लो विधि]], या सांख्यिकीय समस्याओं के लिए विशेष विधि जैसे [[लाप्लास सन्निकटन]], [[गिब्स नमूनाकरण]]/मेट्रोपोलिस-हेस्टिंग्स_एल्गोरिदम नमूनाकरण, या [[ईएम एल्गोरिदम]].


उपरोक्त विचारों को एकल यादृच्छिक चर (डेटा बिंदु) पर लागू करना भी संभव है <math>x</math>, अवलोकनों के  समूह के बजाय। बायेसियन संदर्भ में, यह डेटा बिंदु के [[पूर्व पूर्वानुमानित वितरण]] के बराबर है।
उपरोक्त विचारों को एकल यादृच्छिक चर (डेटा बिंदु) पर लागू करना भी संभव है <math>x</math>, अवलोकनों के  समूह के बजाय। बायेसियन संदर्भ में, यह डेटा बिंदु के [[पूर्व पूर्वानुमानित वितरण]] के बराबर है।

Revision as of 16:30, 12 July 2023

सीमांत संभावना एक संभावना फलन है जिसे पैरामीटर स्थान पर एकीकृत किया गया है। बायेसियन सांख्यिकी में, यह पूर्व संभाव्यता से नमूनाकरण (सांख्यिकी) उत्पन्न करने की संभावना का प्रतिनिधित्व करता है और इसलिए इसे अधिकांशतः मॉडल साक्ष्य या केवल साक्ष्य के रूप में जाना जाता है।

अवधारणा

स्वतंत्र समान रूप से वितरित डेटा बिंदुओं के एक समूह को देखते हुए जहाँ कुछ संभाव्यता वितरण के अनुसार द्वारा पैरामीटर किया गया है जहां स्वयं एक वितरण द्वारा वर्णित एक यादृच्छिक चर है, अर्थात सामान्यतः सीमांत संभावना पूछती है कि संभावना क्या है, जहां सीमांत वितरण (एकीकृत) किया गया है:

उपरोक्त परिभाषा बायेसियन सांख्यिकी के संदर्भ में व्यक्त की गई है, जिस स्थिति में को पूर्व घनत्व कहा जाता है और संभावना है। सीमांत संभावना एक ज्यामितीय अर्थ में डेटा और पूर्व के मध्य सहमति की मात्रा निर्धारित करती है, जिसे डे कार्वाल्हो एट अल में स्पष्ट बनाया गया है। (2019) मौलिक (फ़्रीक्वेंटिस्ट) आँकड़ों में, सीमांत संभावना की अवधारणा एक संयुक्त पैरामीटर के संदर्भ में होती है जहाँ ब्याज का वास्तविक पैरामीटर है, और एक गैर-दिलचस्प उपद्रव पैरामीटर है। यदि के लिए संभाव्यता वितरण उपस्थित है, तो अधिकांशतः को हाशिए पर रखकर केवल के संदर्भ में संभावना फलन पर विचार करना वांछनीय होता है:

दुर्भाग्य से, सीमांत संभावनाओं की गणना करना आम तौर पर कठिन होता है। स्पष्ट समाधान वितरण के छोटे वर्ग के लिए जाने जाते हैं, खासकर जब हाशिए पर रखा गया पैरामीटर डेटा के वितरण से पहले संयुग्मित होता है। अन्य मामलों में, किसी प्रकार की संख्यात्मक एकीकरण विधि की आवश्यकता होती है, या तो सामान्य विधि जैसे गॉसियन एकीकरण या मोंटे कार्लो विधि, या सांख्यिकीय समस्याओं के लिए विशेष विधि जैसे लाप्लास सन्निकटन, गिब्स नमूनाकरण/मेट्रोपोलिस-हेस्टिंग्स_एल्गोरिदम नमूनाकरण, या ईएम एल्गोरिदम.

उपरोक्त विचारों को एकल यादृच्छिक चर (डेटा बिंदु) पर लागू करना भी संभव है , अवलोकनों के समूह के बजाय। बायेसियन संदर्भ में, यह डेटा बिंदु के पूर्व पूर्वानुमानित वितरण के बराबर है।

अनुप्रयोग

बायेसियन मॉडल तुलना

बायेसियन मॉडल तुलना में, सीमांत चर एक विशेष प्रकार के मॉडल और शेष चर के लिए पैरामीटर हैं मॉडल की पहचान ही है. इस मामले में, सीमांत संभावना मॉडल प्रकार दिए गए डेटा की संभावना है, किसी विशेष मॉडल पैरामीटर को नहीं मानते हुए। लिखना मॉडल मापदंडों के लिए, मॉडल एम के लिए सीमांत संभावना है

इसी संदर्भ में मॉडल साक्ष्य शब्द का प्रयोग आम तौर पर किया जाता है। यह मात्रा महत्वपूर्ण है क्योंकि मॉडल एम के लिए पश्च विषम अनुपात1 एक अन्य मॉडल एम के विरुद्ध2 इसमें सीमांत संभावनाओं का अनुपात शामिल है, तथाकथित बेयस कारक:

जिसे योजनाबद्ध रूप से इस प्रकार बताया जा सकता है

पोस्टीरियर कठिनाइयाँ = पूर्व ऑड्स × बेयस फैक्टर

यह भी देखें

संदर्भ

  • Charles S. Bos. "A comparison of marginal likelihood computation methods". In W. Härdle and B. Ronz, editors, COMPSTAT 2002: Proceedings in Computational Statistics, pp. 111–117. 2002. (Available as a preprint on the web: [1])
  • de Carvalho, Miguel; Page, Garritt; Barney, Bradley (2019). "On the geometry of Bayesian inference". Bayesian Analysis. 14 (4): 1013‒1036. (Available as a preprint on the web: [2])
  • Lambert, Ben (2018). "The devil is in the denominator". A Student's Guide to Bayesian Statistics. Sage. pp. 109–120. ISBN 978-1-4739-1636-4.
  • The on-line textbook: Information Theory, Inference, and Learning Algorithms, by David J.C. MacKay.