सीमांत संभावना: Difference between revisions
No edit summary |
No edit summary |
||
Line 1: | Line 1: | ||
{{Bayesian statistics}} | {{Bayesian statistics}} | ||
'''सीमांत संभावना''' एक संभावना फलन है जिसे [[ पैरामीटर स्थान ]] पर [[ अभिन्न | एकीकृत]] किया गया है। बायेसियन सांख्यिकी में, यह पूर्व संभाव्यता से [[नमूनाकरण (सांख्यिकी)]] उत्पन्न करने की संभावना का प्रतिनिधित्व करता है और इसलिए इसे अधिकांशतः | '''सीमांत संभावना''' एक संभावना फलन है जिसे [[ पैरामीटर स्थान |पैरामीटर स्थान]] पर [[ अभिन्न |एकीकृत]] किया गया है। बायेसियन सांख्यिकी में, यह पूर्व संभाव्यता से [[नमूनाकरण (सांख्यिकी)]] उत्पन्न करने की संभावना का प्रतिनिधित्व करता है और इसलिए इसे अधिकांशतः मॉडल साक्ष्य या केवल साक्ष्य के रूप में जाना जाता है। | ||
==अवधारणा== | ==अवधारणा== | ||
[[स्वतंत्र रूप से समान रूप से वितरित|स्वतंत्र | [[स्वतंत्र रूप से समान रूप से वितरित|स्वतंत्र समान रूप से वितरित]] डेटा बिंदुओं के एक समूह को देखते हुए <math>\mathbf{X}=(x_1,\ldots,x_n),</math> जहाँ <math>x_i \sim p(x|\theta)</math> कुछ संभाव्यता वितरण के अनुसार <math>\theta</math> द्वारा पैरामीटर किया गया है जहां <math>\theta</math> स्वयं एक वितरण द्वारा वर्णित एक यादृच्छिक चर है, अर्थात <math>\theta \sim p(\theta\mid\alpha),</math> सामान्यतः सीमांत संभावना पूछती है कि संभावना <math>p(\mathbf{X}\mid\alpha)</math> क्या है, जहां <math>\theta</math> [[सीमांत वितरण]] (एकीकृत) किया गया है: | ||
:<math>p(\mathbf{X}\mid\alpha) = \int_\theta p(\mathbf{X}\mid\theta) \, p(\theta\mid\alpha)\ \operatorname{d}\!\theta </math> | :<math>p(\mathbf{X}\mid\alpha) = \int_\theta p(\mathbf{X}\mid\theta) \, p(\theta\mid\alpha)\ \operatorname{d}\!\theta </math> | ||
उपरोक्त परिभाषा बायेसियन सांख्यिकी के संदर्भ में व्यक्त की गई है, जिस स्थिति में <math>p(\theta\mid\alpha)</math> को पूर्व घनत्व कहा जाता है और <math>p(\mathbf{X}\mid\theta)</math> संभावना है। सीमांत संभावना एक ज्यामितीय अर्थ में डेटा और पूर्व के मध्य सहमति की मात्रा निर्धारित करती है, जिसे डे कार्वाल्हो एट अल में स्पष्ट बनाया गया है। (2019) मौलिक (फ़्रीक्वेंटिस्ट) आँकड़ों में, सीमांत संभावना की अवधारणा एक संयुक्त पैरामीटर <math>\theta = (\psi,\lambda)</math> के संदर्भ में होती है जहाँ <math>\psi</math> ब्याज का वास्तविक पैरामीटर है, और <math>\lambda</math> एक गैर-दिलचस्प [[उपद्रव पैरामीटर]] है। यदि <math>\lambda</math> के लिए संभाव्यता वितरण उपस्थित है, तो अधिकांशतः <math>\lambda</math> को हाशिए पर रखकर केवल <math>\psi</math> के संदर्भ में संभावना फलन पर विचार करना वांछनीय होता है: | उपरोक्त परिभाषा बायेसियन सांख्यिकी के संदर्भ में व्यक्त की गई है, जिस स्थिति में <math>p(\theta\mid\alpha)</math> को पूर्व घनत्व कहा जाता है और <math>p(\mathbf{X}\mid\theta)</math> संभावना है। सीमांत संभावना एक ज्यामितीय अर्थ में डेटा और पूर्व के मध्य सहमति की मात्रा निर्धारित करती है, जिसे डे कार्वाल्हो एट अल में स्पष्ट बनाया गया है। (2019) मौलिक (फ़्रीक्वेंटिस्ट) आँकड़ों में, सीमांत संभावना की अवधारणा एक संयुक्त पैरामीटर <math>\theta = (\psi,\lambda)</math> के संदर्भ में होती है जहाँ <math>\psi</math> ब्याज का वास्तविक पैरामीटर है, और <math>\lambda</math> एक गैर-दिलचस्प [[उपद्रव पैरामीटर]] है। यदि <math>\lambda</math> के लिए संभाव्यता वितरण उपस्थित है, तो अधिकांशतः <math>\lambda</math> को हाशिए पर रखकर केवल <math>\psi</math> के संदर्भ में संभावना फलन पर विचार करना वांछनीय होता है: | ||
:<math>\mathcal{L}(\psi;\mathbf{X}) = p(\mathbf{X}\mid\psi) = \int_\lambda p(\mathbf{X}\mid\lambda,\psi) \, p(\lambda\mid\psi) \ \operatorname{d}\!\lambda </math> | :<math>\mathcal{L}(\psi;\mathbf{X}) = p(\mathbf{X}\mid\psi) = \int_\lambda p(\mathbf{X}\mid\lambda,\psi) \, p(\lambda\mid\psi) \ \operatorname{d}\!\lambda </math> | ||
दुर्भाग्य से, सीमांत संभावनाओं की गणना करना सामान्यतः कठिन होता है। स्पष्ट समाधान वितरण के | दुर्भाग्य से, सीमांत संभावनाओं की गणना करना सामान्यतः कठिन होता है। स्पष्ट समाधान वितरण के छोटे वर्ग के लिए जाने जाते हैं, विशेषतः जब हाशिए पर रखा गया पैरामीटर डेटा के वितरण से पहले संयुग्मित होता है। अन्य स्थितियों में, किसी प्रकार की [[संख्यात्मक एकीकरण]] विधि की आवश्यकता होती है, या तब सामान्य विधि जैसे गॉसियन एकीकरण या [[मोंटे कार्लो विधि]], या सांख्यिकीय समस्याओं के लिए विशेष विधि जैसे [[लाप्लास सन्निकटन]], [[गिब्स नमूनाकरण]]/मेट्रोपोलिस-हेस्टिंग्स_एल्गोरिदम नमूनाकरण, या [[ईएम एल्गोरिदम]] के लिए विशेष विधि की आवश्यकता होती है। | ||
उपरोक्त विचारों को एकल यादृच्छिक चर (डेटा बिंदु) <math>x</math> पर क्रियान्वित करना भी संभव है, बायेसियन संदर्भ में, अवलोकनों के | उपरोक्त विचारों को एकल यादृच्छिक चर (डेटा बिंदु) <math>x</math> पर क्रियान्वित करना भी संभव है, बायेसियन संदर्भ में, अवलोकनों के समूह के अतिरिक्त, यह डेटा बिंदु के [[पूर्व पूर्वानुमानित वितरण]] के सामान्तर है। | ||
== अनुप्रयोग == | == अनुप्रयोग == | ||
Line 23: | Line 21: | ||
जिसे योजनाबद्ध रूप से इस प्रकार बताया जा सकता है | जिसे योजनाबद्ध रूप से इस प्रकार बताया जा सकता है | ||
:पोस्टीरियर [[कठिनाइयाँ]] = पूर्व ऑड्स × बेयस फैक्टर | :पोस्टीरियर [[कठिनाइयाँ|ऑड्स]] = पूर्व ऑड्स × बेयस फैक्टर | ||
==यह भी देखें== | ==यह भी देखें== |
Revision as of 17:06, 12 July 2023
Part of a series on |
Bayesian statistics |
---|
Posterior = Likelihood × Prior ÷ Evidence |
Background |
Model building |
Posterior approximation |
Estimators |
Evidence approximation |
Model evaluation |
|
सीमांत संभावना एक संभावना फलन है जिसे पैरामीटर स्थान पर एकीकृत किया गया है। बायेसियन सांख्यिकी में, यह पूर्व संभाव्यता से नमूनाकरण (सांख्यिकी) उत्पन्न करने की संभावना का प्रतिनिधित्व करता है और इसलिए इसे अधिकांशतः मॉडल साक्ष्य या केवल साक्ष्य के रूप में जाना जाता है।
अवधारणा
स्वतंत्र समान रूप से वितरित डेटा बिंदुओं के एक समूह को देखते हुए जहाँ कुछ संभाव्यता वितरण के अनुसार द्वारा पैरामीटर किया गया है जहां स्वयं एक वितरण द्वारा वर्णित एक यादृच्छिक चर है, अर्थात सामान्यतः सीमांत संभावना पूछती है कि संभावना क्या है, जहां सीमांत वितरण (एकीकृत) किया गया है:
उपरोक्त परिभाषा बायेसियन सांख्यिकी के संदर्भ में व्यक्त की गई है, जिस स्थिति में को पूर्व घनत्व कहा जाता है और संभावना है। सीमांत संभावना एक ज्यामितीय अर्थ में डेटा और पूर्व के मध्य सहमति की मात्रा निर्धारित करती है, जिसे डे कार्वाल्हो एट अल में स्पष्ट बनाया गया है। (2019) मौलिक (फ़्रीक्वेंटिस्ट) आँकड़ों में, सीमांत संभावना की अवधारणा एक संयुक्त पैरामीटर के संदर्भ में होती है जहाँ ब्याज का वास्तविक पैरामीटर है, और एक गैर-दिलचस्प उपद्रव पैरामीटर है। यदि के लिए संभाव्यता वितरण उपस्थित है, तो अधिकांशतः को हाशिए पर रखकर केवल के संदर्भ में संभावना फलन पर विचार करना वांछनीय होता है:
दुर्भाग्य से, सीमांत संभावनाओं की गणना करना सामान्यतः कठिन होता है। स्पष्ट समाधान वितरण के छोटे वर्ग के लिए जाने जाते हैं, विशेषतः जब हाशिए पर रखा गया पैरामीटर डेटा के वितरण से पहले संयुग्मित होता है। अन्य स्थितियों में, किसी प्रकार की संख्यात्मक एकीकरण विधि की आवश्यकता होती है, या तब सामान्य विधि जैसे गॉसियन एकीकरण या मोंटे कार्लो विधि, या सांख्यिकीय समस्याओं के लिए विशेष विधि जैसे लाप्लास सन्निकटन, गिब्स नमूनाकरण/मेट्रोपोलिस-हेस्टिंग्स_एल्गोरिदम नमूनाकरण, या ईएम एल्गोरिदम के लिए विशेष विधि की आवश्यकता होती है।
उपरोक्त विचारों को एकल यादृच्छिक चर (डेटा बिंदु) पर क्रियान्वित करना भी संभव है, बायेसियन संदर्भ में, अवलोकनों के समूह के अतिरिक्त, यह डेटा बिंदु के पूर्व पूर्वानुमानित वितरण के सामान्तर है।
अनुप्रयोग
बायेसियन मॉडल तुलना
बायेसियन मॉडल तुलना में, सीमांत चर एक विशेष प्रकार के मॉडल के लिए पैरामीटर हैं, और शेष चर मॉडल की पहचान है। इस स्थितियों में, सीमांत संभावना मॉडल प्रकार दिए गए डेटा की संभावना है जो किसी विशेष मॉडल पैरामीटर को नहीं मानती है। मॉडल मापदंडों के लिए लिखना, मॉडल के लिए सीमांत संभावना है
इसी संदर्भ में मॉडल साक्ष्य शब्द का प्रयोग सामान्यतः किया जाता है। यह मात्रा महत्वपूर्ण है क्योंकि एक मॉडल M1 के विरुद्ध दूसरे मॉडल M2 के लिए पश्च विषम अनुपात में सीमांत संभावनाओं का अनुपात सम्मिलित होता है, तथाकथित बेयस कारक:
जिसे योजनाबद्ध रूप से इस प्रकार बताया जा सकता है
- पोस्टीरियर ऑड्स = पूर्व ऑड्स × बेयस फैक्टर
यह भी देखें
- अनुभवजन्य बेयस विधियाँ
- लिंडले का विरोधाभास
- सीमांत संभाव्यता
- बायेसियन सूचना मानदंड
संदर्भ
- Charles S. Bos. "A comparison of marginal likelihood computation methods". In W. Härdle and B. Ronz, editors, COMPSTAT 2002: Proceedings in Computational Statistics, pp. 111–117. 2002. (Available as a preprint on the web: [1])
- de Carvalho, Miguel; Page, Garritt; Barney, Bradley (2019). "On the geometry of Bayesian inference". Bayesian Analysis. 14 (4): 1013‒1036. (Available as a preprint on the web: [2])
- Lambert, Ben (2018). "The devil is in the denominator". A Student's Guide to Bayesian Statistics. Sage. pp. 109–120. ISBN 978-1-4739-1636-4.
- The on-line textbook: Information Theory, Inference, and Learning Algorithms, by David J.C. MacKay.