सीमांत संभावना: Difference between revisions

From Vigyanwiki
No edit summary
No edit summary
Line 5: Line 5:


==अवधारणा==
==अवधारणा==
[[स्वतंत्र रूप से समान रूप से वितरित]] डेटा बिंदुओं का एक सेट दिया गया है <math>\mathbf{X}=(x_1,\ldots,x_n),</math> कहाँ <math>x_i \sim p(x|\theta)</math> द्वारा पैरामीटरीकृत कुछ संभाव्यता वितरण के अनुसार <math>\theta</math>, कहाँ <math>\theta</math> स्वयं वितरण द्वारा वर्णित एक यादृच्छिक चर है, अर्थात <math>\theta \sim p(\theta\mid\alpha),</math> सामान्य तौर पर सीमांत संभावना पूछती है कि संभावना क्या है <math>p(\mathbf{X}\mid\alpha)</math> कहां है <math>\theta</math> [[सीमांत वितरण]] (एकीकृत) किया गया है:
[[स्वतंत्र रूप से समान रूप से वितरित]] डेटा बिंदुओं का सेट दिया गया है <math>\mathbf{X}=(x_1,\ldots,x_n),</math> कहाँ <math>x_i \sim p(x|\theta)</math> द्वारा पैरामीटरीकृत कुछ संभाव्यता वितरण के अनुसार <math>\theta</math>, कहाँ <math>\theta</math> स्वयं वितरण द्वारा वर्णित यादृच्छिक चर है, अर्थात <math>\theta \sim p(\theta\mid\alpha),</math> सामान्य तौर पर सीमांत संभावना पूछती है कि संभावना क्या है <math>p(\mathbf{X}\mid\alpha)</math> कहां है <math>\theta</math> [[सीमांत वितरण]] (एकीकृत) किया गया है:


:<math>p(\mathbf{X}\mid\alpha) = \int_\theta p(\mathbf{X}\mid\theta) \, p(\theta\mid\alpha)\ \operatorname{d}\!\theta </math>
:<math>p(\mathbf{X}\mid\alpha) = \int_\theta p(\mathbf{X}\mid\theta) \, p(\theta\mid\alpha)\ \operatorname{d}\!\theta </math>
उपरोक्त परिभाषा किस मामले में बायेसियन सांख्यिकी के संदर्भ में व्यक्त की गई है <math>p(\theta\mid\alpha)</math> पूर्व घनत्व कहा जाता है और <math>p(\mathbf{X}\mid\theta)</math> संभावना है. सीमांत संभावना सटीक ज्यामितीय अर्थ में डेटा और पूर्व के बीच समझौते की मात्रा निर्धारित करती है{{How|date=February 2023}} डी कार्वाल्हो एट अल में। (2019)। शास्त्रीय (बारंबारतावादी सांख्यिकी) आँकड़ों में, सीमांत संभावना की अवधारणा एक संयुक्त पैरामीटर के संदर्भ में होती है <math>\theta = (\psi,\lambda)</math>, कहाँ <math>\psi</math> रुचि का वास्तविक पैरामीटर है, और <math>\lambda</math> एक गैर-दिलचस्प [[उपद्रव पैरामीटर]] है। यदि इसके लिए संभाव्यता वितरण मौजूद है <math>\lambda</math>{{Dubious|1=Frequentist_marginal_likelihood|reason=Parameters do not have distributions in frequentists statistics|date=February 2023}}, अधिकांशतः  संभावना फ़ंक्शन पर केवल के संदर्भ में विचार करना वांछनीय होता है <math>\psi</math>, हाशिए पर रखकर <math>\lambda</math>:
उपरोक्त परिभाषा किस मामले में बायेसियन सांख्यिकी के संदर्भ में व्यक्त की गई है <math>p(\theta\mid\alpha)</math> पूर्व घनत्व कहा जाता है और <math>p(\mathbf{X}\mid\theta)</math> संभावना है. सीमांत संभावना सटीक ज्यामितीय अर्थ में डेटा और पूर्व के बीच समझौते की मात्रा निर्धारित करती है{{How|date=February 2023}} डी कार्वाल्हो एट अल में। (2019)। शास्त्रीय (बारंबारतावादी सांख्यिकी) आँकड़ों में, सीमांत संभावना की अवधारणा संयुक्त पैरामीटर के संदर्भ में होती है <math>\theta = (\psi,\lambda)</math>, कहाँ <math>\psi</math> रुचि का वास्तविक पैरामीटर है, और <math>\lambda</math> एक गैर-दिलचस्प [[उपद्रव पैरामीटर]] है। यदि इसके लिए संभाव्यता वितरण मौजूद है <math>\lambda</math>{{Dubious|1=Frequentist_marginal_likelihood|reason=Parameters do not have distributions in frequentists statistics|date=February 2023}}, अधिकांशतः  संभावना फ़ंक्शन पर केवल के संदर्भ में विचार करना वांछनीय होता है <math>\psi</math>, हाशिए पर रखकर <math>\lambda</math>:
:<math>\mathcal{L}(\psi;\mathbf{X}) = p(\mathbf{X}\mid\psi) = \int_\lambda p(\mathbf{X}\mid\lambda,\psi) \, p(\lambda\mid\psi) \ \operatorname{d}\!\lambda </math>
:<math>\mathcal{L}(\psi;\mathbf{X}) = p(\mathbf{X}\mid\psi) = \int_\lambda p(\mathbf{X}\mid\lambda,\psi) \, p(\lambda\mid\psi) \ \operatorname{d}\!\lambda </math>
दुर्भाग्य से, सीमांत संभावनाओं की गणना करना आम तौर पर कठिन होता है। सटीक समाधान वितरण के एक छोटे वर्ग के लिए जाने जाते हैं, खासकर जब हाशिए पर रखा गया पैरामीटर डेटा के वितरण से पहले संयुग्मित होता है। अन्य मामलों में, किसी प्रकार की [[संख्यात्मक एकीकरण]] विधि की आवश्यकता होती है, या तो एक सामान्य विधि जैसे गॉसियन एकीकरण या [[मोंटे कार्लो विधि]], या सांख्यिकीय समस्याओं के लिए विशेष विधि जैसे [[लाप्लास सन्निकटन]], [[गिब्स नमूनाकरण]]/मेट्रोपोलिस-हेस्टिंग्स_एल्गोरिदम नमूनाकरण, या [[ईएम एल्गोरिदम]].
दुर्भाग्य से, सीमांत संभावनाओं की गणना करना आम तौर पर कठिन होता है। सटीक समाधान वितरण के छोटे वर्ग के लिए जाने जाते हैं, खासकर जब हाशिए पर रखा गया पैरामीटर डेटा के वितरण से पहले संयुग्मित होता है। अन्य मामलों में, किसी प्रकार की [[संख्यात्मक एकीकरण]] विधि की आवश्यकता होती है, या तो सामान्य विधि जैसे गॉसियन एकीकरण या [[मोंटे कार्लो विधि]], या सांख्यिकीय समस्याओं के लिए विशेष विधि जैसे [[लाप्लास सन्निकटन]], [[गिब्स नमूनाकरण]]/मेट्रोपोलिस-हेस्टिंग्स_एल्गोरिदम नमूनाकरण, या [[ईएम एल्गोरिदम]].


उपरोक्त विचारों को एकल यादृच्छिक चर (डेटा बिंदु) पर लागू करना भी संभव है <math>x</math>, अवलोकनों के एक सेट के बजाय। बायेसियन संदर्भ में, यह डेटा बिंदु के [[पूर्व पूर्वानुमानित वितरण]] के बराबर है।
उपरोक्त विचारों को एकल यादृच्छिक चर (डेटा बिंदु) पर लागू करना भी संभव है <math>x</math>, अवलोकनों के सेट के बजाय। बायेसियन संदर्भ में, यह डेटा बिंदु के [[पूर्व पूर्वानुमानित वितरण]] के बराबर है।


== अनुप्रयोग ==
== अनुप्रयोग ==
Line 32: Line 32:
* [[सीमांत संभाव्यता]]
* [[सीमांत संभाव्यता]]
* [[बायेसियन सूचना मानदंड]]
* [[बायेसियन सूचना मानदंड]]
{{No footnotes|date=July 2010}}


== संदर्भ ==
== संदर्भ ==

Revision as of 15:20, 12 July 2023

सीमांत संभावना एक संभावना फ़ंक्शन है जिसे पैरामीटर स्थान पर एकीकृत किया गया है। बायेसियन सांख्यिकी में, यह पूर्व संभाव्यता से नमूनाकरण (सांख्यिकी) उत्पन्न करने की संभावना का प्रतिनिधित्व करता है और इसलिए इसे अधिकांशतः मॉडल साक्ष्य या केवल साक्ष्य के रूप में जाना जाता है।

है और इसलिए इसे अधिकांशतः मॉडल साक्ष्य या केवल साक्ष्य के रूप में जाना जाता है।

अवधारणा

स्वतंत्र रूप से समान रूप से वितरित डेटा बिंदुओं का सेट दिया गया है कहाँ द्वारा पैरामीटरीकृत कुछ संभाव्यता वितरण के अनुसार , कहाँ स्वयं वितरण द्वारा वर्णित यादृच्छिक चर है, अर्थात सामान्य तौर पर सीमांत संभावना पूछती है कि संभावना क्या है कहां है सीमांत वितरण (एकीकृत) किया गया है:

उपरोक्त परिभाषा किस मामले में बायेसियन सांख्यिकी के संदर्भ में व्यक्त की गई है पूर्व घनत्व कहा जाता है और संभावना है. सीमांत संभावना सटीक ज्यामितीय अर्थ में डेटा और पूर्व के बीच समझौते की मात्रा निर्धारित करती है[how?] डी कार्वाल्हो एट अल में। (2019)। शास्त्रीय (बारंबारतावादी सांख्यिकी) आँकड़ों में, सीमांत संभावना की अवधारणा संयुक्त पैरामीटर के संदर्भ में होती है , कहाँ रुचि का वास्तविक पैरामीटर है, और एक गैर-दिलचस्प उपद्रव पैरामीटर है। यदि इसके लिए संभाव्यता वितरण मौजूद है [dubious ], अधिकांशतः संभावना फ़ंक्शन पर केवल के संदर्भ में विचार करना वांछनीय होता है , हाशिए पर रखकर :

दुर्भाग्य से, सीमांत संभावनाओं की गणना करना आम तौर पर कठिन होता है। सटीक समाधान वितरण के छोटे वर्ग के लिए जाने जाते हैं, खासकर जब हाशिए पर रखा गया पैरामीटर डेटा के वितरण से पहले संयुग्मित होता है। अन्य मामलों में, किसी प्रकार की संख्यात्मक एकीकरण विधि की आवश्यकता होती है, या तो सामान्य विधि जैसे गॉसियन एकीकरण या मोंटे कार्लो विधि, या सांख्यिकीय समस्याओं के लिए विशेष विधि जैसे लाप्लास सन्निकटन, गिब्स नमूनाकरण/मेट्रोपोलिस-हेस्टिंग्स_एल्गोरिदम नमूनाकरण, या ईएम एल्गोरिदम.

उपरोक्त विचारों को एकल यादृच्छिक चर (डेटा बिंदु) पर लागू करना भी संभव है , अवलोकनों के सेट के बजाय। बायेसियन संदर्भ में, यह डेटा बिंदु के पूर्व पूर्वानुमानित वितरण के बराबर है।

अनुप्रयोग

बायेसियन मॉडल तुलना

बायेसियन मॉडल तुलना में, सीमांत चर एक विशेष प्रकार के मॉडल और शेष चर के लिए पैरामीटर हैं मॉडल की पहचान ही है. इस मामले में, सीमांत संभावना मॉडल प्रकार दिए गए डेटा की संभावना है, किसी विशेष मॉडल पैरामीटर को नहीं मानते हुए। लिखना मॉडल मापदंडों के लिए, मॉडल एम के लिए सीमांत संभावना है

इसी संदर्भ में मॉडल साक्ष्य शब्द का प्रयोग आम तौर पर किया जाता है। यह मात्रा महत्वपूर्ण है क्योंकि मॉडल एम के लिए पश्च विषम अनुपात1 एक अन्य मॉडल एम के विरुद्ध2 इसमें सीमांत संभावनाओं का अनुपात शामिल है, तथाकथित बेयस कारक:

जिसे योजनाबद्ध रूप से इस प्रकार बताया जा सकता है

पोस्टीरियर कठिनाइयाँ = पूर्व ऑड्स × बेयस फैक्टर

यह भी देखें

संदर्भ

  • Charles S. Bos. "A comparison of marginal likelihood computation methods". In W. Härdle and B. Ronz, editors, COMPSTAT 2002: Proceedings in Computational Statistics, pp. 111–117. 2002. (Available as a preprint on the web: [1])
  • de Carvalho, Miguel; Page, Garritt; Barney, Bradley (2019). "On the geometry of Bayesian inference". Bayesian Analysis. 14 (4): 1013‒1036. (Available as a preprint on the web: [2])
  • Lambert, Ben (2018). "The devil is in the denominator". A Student's Guide to Bayesian Statistics. Sage. pp. 109–120. ISBN 978-1-4739-1636-4.
  • The on-line textbook: Information Theory, Inference, and Learning Algorithms, by David J.C. MacKay.