सीमांत संभावना: Difference between revisions

From Vigyanwiki
(Created page with "{{Bayesian statistics}} सीमांत संभावना एक संभावना फ़ंक्शन है जो [[ पैरामीटर स्थान ]...")
 
No edit summary
 
(18 intermediate revisions by 3 users not shown)
Line 1: Line 1:
{{Bayesian statistics}}
{{Bayesian statistics}}
सीमांत संभावना एक संभावना फ़ंक्शन है जो [[ पैरामीटर स्थान ]] पर [[ अभिन्न ]] रही है। बायेसियन सांख्यिकी में, यह पूर्व संभाव्यता से [[नमूनाकरण (सांख्यिकी)]] उत्पन्न करने की संभावना का प्रतिनिधित्व करता है और इसलिए इसे अक्सर मॉडल साक्ष्य या केवल साक्ष्य के रूप में जाना जाता है।
'''सीमांत संभावना''' एक संभावना फलन है जिसे [[ पैरामीटर स्थान |पैरामीटर स्थान]] पर [[ अभिन्न |एकीकृत]] किया गया है। यह बायेसियन सांख्यिकी में होता हैं, यह पूर्व संभाव्यता से [[नमूनाकरण (सांख्यिकी)|प्रतिरूप (सांख्यिकी)]] उत्पन्न करने की संभावना का प्रतिनिधित्व करता है और इसलिए इसे अधिकांशतः मॉडल साक्ष्य या केवल साक्ष्य के रूप में जाना जाता है।  


==अवधारणा==
==अवधारणा==
[[स्वतंत्र रूप से समान रूप से वितरित]] डेटा बिंदुओं का एक सेट दिया गया है <math>\mathbf{X}=(x_1,\ldots,x_n),</math> कहाँ <math>x_i \sim p(x|\theta)</math> द्वारा पैरामीटरीकृत कुछ संभाव्यता वितरण के अनुसार <math>\theta</math>, कहाँ <math>\theta</math> स्वयं वितरण द्वारा वर्णित एक यादृच्छिक चर है, अर्थात <math>\theta \sim p(\theta\mid\alpha),</math> सामान्य तौर पर सीमांत संभावना पूछती है कि संभावना क्या है <math>p(\mathbf{X}\mid\alpha)</math> कहां है <math>\theta</math> [[सीमांत वितरण]] (एकीकृत) किया गया है:
[[स्वतंत्र रूप से समान रूप से वितरित|स्वतंत्र समान रूप से वितरित]] डेटा बिंदुओं के समूह को देखते हुए <math>\mathbf{X}=(x_1,\ldots,x_n),</math> हैं जहाँ <math>x_i \sim p(x|\theta)</math> कुछ संभाव्यता वितरण के अनुसार <math>\theta</math> द्वारा पैरामीटर किया गया है और जहां <math>\theta</math> स्वयं एक वितरण द्वारा वर्णित एक यादृच्छिक वेरिएबल होता है, अर्थात <math>\theta \sim p(\theta\mid\alpha),                                                                                                       </math> सामान्यतः सीमांत संभावना पूछती है कि संभावना <math>p(\mathbf{X}\mid\alpha)</math> क्या है, जहां <math>\theta</math> [[सीमांत वितरण]] (एकीकृत) किया गया है |


:<math>p(\mathbf{X}\mid\alpha) = \int_\theta p(\mathbf{X}\mid\theta) \, p(\theta\mid\alpha)\ \operatorname{d}\!\theta </math>
:<math>p(\mathbf{X}\mid\alpha) = \int_\theta p(\mathbf{X}\mid\theta) \, p(\theta\mid\alpha)\ \operatorname{d}\!\theta                                               </math>  
उपरोक्त परिभाषा किस मामले में बायेसियन सांख्यिकी के संदर्भ में व्यक्त की गई है <math>p(\theta\mid\alpha)</math> पूर्व घनत्व कहा जाता है और <math>p(\mathbf{X}\mid\theta)</math> संभावना है. सीमांत संभावना सटीक ज्यामितीय अर्थ में डेटा और पूर्व के बीच समझौते की मात्रा निर्धारित करती है{{How|date=February 2023}} डी कार्वाल्हो एट अल में। (2019)। शास्त्रीय (बारंबारतावादी सांख्यिकी) आँकड़ों में, सीमांत संभावना की अवधारणा एक संयुक्त पैरामीटर के संदर्भ में होती है <math>\theta = (\psi,\lambda)</math>, कहाँ <math>\psi</math> रुचि का वास्तविक पैरामीटर है, और <math>\lambda</math> एक गैर-दिलचस्प [[उपद्रव पैरामीटर]] है। यदि इसके लिए संभाव्यता वितरण मौजूद है <math>\lambda</math>{{Dubious|1=Frequentist_marginal_likelihood|reason=Parameters do not have distributions in frequentists statistics|date=February 2023}}, अक्सर संभावना फ़ंक्शन पर केवल के संदर्भ में विचार करना वांछनीय होता है <math>\psi</math>, हाशिए पर रखकर <math>\lambda</math>:
उपरोक्त परिभाषा बायेसियन सांख्यिकी के संदर्भ में व्यक्त की गई है, जिस स्थिति में <math>p(\theta\mid\alpha)</math> को पूर्व घनत्व कहा जाता है और <math>p(\mathbf{X}\mid\theta)</math> संभावना है। सीमांत संभावना एक ज्यामितीय अर्थ में डेटा और पूर्व के मध्य सहमति की मात्रा निर्धारित करती है, जिसे डे कार्वाल्हो एट अल में स्पष्ट बनाया गया है। यह (2019) के मौलिक (फ़्रीक्वेंटिस्ट) आँकड़ों में होता हैं, सीमांत संभावना की अवधारणा एक संयुक्त पैरामीटर <math>\theta = (\psi,\lambda)</math> के संदर्भ में होती है जहाँ <math>\psi</math> ब्याज का वास्तविक पैरामीटर है, और <math>\lambda</math> एक गैर-रोचक [[उपद्रव पैरामीटर]] होता है। यदि <math>\lambda</math> के लिए संभाव्यता वितरण उपस्थित है, तब अधिकांशतः <math>\lambda</math> को सीमांत पर रखकर केवल <math>\psi</math> के संदर्भ में संभावना फलन पर विचार करना वांछनीय होता है |
:<math>\mathcal{L}(\psi;\mathbf{X}) = p(\mathbf{X}\mid\psi) = \int_\lambda p(\mathbf{X}\mid\lambda,\psi) \, p(\lambda\mid\psi) \ \operatorname{d}\!\lambda </math>
:<math>\mathcal{L}(\psi;\mathbf{X}) = p(\mathbf{X}\mid\psi) = \int_\lambda p(\mathbf{X}\mid\lambda,\psi) \, p(\lambda\mid\psi) \ \operatorname{d}\!\lambda </math>
दुर्भाग्य से, सीमांत संभावनाओं की गणना करना आम तौर पर कठिन होता है। सटीक समाधान वितरण के एक छोटे वर्ग के लिए जाने जाते हैं, खासकर जब हाशिए पर रखा गया पैरामीटर डेटा के वितरण से पहले संयुग्मित होता है। अन्य मामलों में, किसी प्रकार की [[संख्यात्मक एकीकरण]] विधि की आवश्यकता होती है, या तो एक सामान्य विधि जैसे गॉसियन एकीकरण या [[मोंटे कार्लो विधि]], या सांख्यिकीय समस्याओं के लिए विशेष विधि जैसे [[लाप्लास सन्निकटन]], [[गिब्स नमूनाकरण]]/मेट्रोपोलिस-हेस्टिंग्स_एल्गोरिदम नमूनाकरण, या [[ईएम एल्गोरिदम]].
इस प्रकार दुर्भाग्य से, सीमांत संभावनाओं की गणना करना सामान्यतः कठिन होती है। स्पष्ट समाधान वितरण के लघु वर्ग के लिए जाने जाते हैं, विशेषतः जब सीमांत पर रखा गया पैरामीटर डेटा के वितरण से पहले संयुग्मित होता है। और अन्य स्थितियों में, किसी प्रकार की [[संख्यात्मक एकीकरण]] विधि की आवश्यकता होती है, या तब सामान्य विधि जैसे गॉसियन एकीकरण या [[मोंटे कार्लो विधि]], या सांख्यिकीय समस्याओं के लिए विशेष विधि जैसे [[लाप्लास सन्निकटन]], [[गिब्स नमूनाकरण|गिब्स प्रतिरूप]]/मेट्रोपोलिस-हेस्टिंग्स_एल्गोरिदम प्रतिरूप, या [[ईएम एल्गोरिदम]] के लिए विशेष विधि की आवश्यकता होती है।


उपरोक्त विचारों को एकल यादृच्छिक चर (डेटा बिंदु) पर लागू करना भी संभव है <math>x</math>, अवलोकनों के एक सेट के बजाय। बायेसियन संदर्भ में, यह डेटा बिंदु के [[पूर्व पूर्वानुमानित वितरण]] के बराबर है।
उपरोक्त विचारों को एकल यादृच्छिक वेरिएबल (डेटा बिंदु) <math>x</math> पर क्रियान्वित करना भी संभव होता है, बायेसियन संदर्भ में, अवलोकनों के समूह के अतिरिक्त, यह डेटा बिंदु के [[पूर्व पूर्वानुमानित वितरण]] के सामान्तर होते है।


== अनुप्रयोग ==
== अनुप्रयोग ==


=== [[बायेसियन मॉडल तुलना]] ===
=== [[बायेसियन मॉडल तुलना]] ===
बायेसियन मॉडल तुलना में, सीमांत चर <math>\theta</math> एक विशेष प्रकार के मॉडल और शेष चर के लिए पैरामीटर हैं <math>M</math> मॉडल की पहचान ही है. इस मामले में, सीमांत संभावना मॉडल प्रकार दिए गए डेटा की संभावना है, किसी विशेष मॉडल पैरामीटर को नहीं मानते हुए। लिखना <math>\theta</math> मॉडल मापदंडों के लिए, मॉडल एम के लिए सीमांत संभावना है
बायेसियन मॉडल तुलना में, सीमांत वेरिएबल <math>\theta</math> एक विशेष प्रकार के मॉडल के लिए पैरामीटर होता हैं, और शेष वेरिएबल <math>M</math> मॉडल की पहचान होता है इन स्थितियों में, सीमांत संभावना मॉडल प्रकार दिए गए हैं जिसमे डेटा की संभावना होती है जो किसी विशेष मॉडल पैरामीटर को नहीं मानती है। मॉडल मापदंडों के लिए <math>\theta</math> लिखना, मॉडल <math>M</math> के लिए सीमांत संभावना होती है |
 
:<math> p(\mathbf{X}\mid M) = \int p(\mathbf{X}\mid\theta, M) \, p(\theta\mid M) \, \operatorname{d}\!\theta </math>
:<math> p(\mathbf{X}\mid M) = \int p(\mathbf{X}\mid\theta, M) \, p(\theta\mid M) \, \operatorname{d}\!\theta </math>
इसी संदर्भ में मॉडल साक्ष्य शब्द का प्रयोग आम तौर पर किया जाता है। यह मात्रा महत्वपूर्ण है क्योंकि मॉडल एम के लिए पश्च विषम अनुपात<sub>1</sub> एक अन्य मॉडल एम के विरुद्ध<sub>2</sub> इसमें सीमांत संभावनाओं का अनुपात शामिल है, तथाकथित बेयस कारक:
इसी संदर्भ में मॉडल साक्ष्य शब्द का प्रयोग सामान्यतः किया जाता है। यह मात्रा महत्वपूर्ण है क्योंकि मॉडल ''M''<sub>1</sub> के विरुद्ध दूसरे मॉडल ''M''<sub>2</sub> के लिए पश्च विषम अनुपात में सीमांत संभावनाओं का अनुपात सम्मिलित होता है, तथाकथित बेयस कारक हैं |
:<math> \frac{p(M_1\mid \mathbf{X})}{p(M_2\mid \mathbf{X})} = \frac{p(M_1)}{p(M_2)} \, \frac{p(\mathbf{X}\mid M_1)}{p(\mathbf{X}\mid M_2)}                       
                                                                                                                                </math>
जिसे योजनाबद्ध रूप से इस प्रकार बताया जा सकता है


:<math> \frac{p(M_1\mid \mathbf{X})}{p(M_2\mid \mathbf{X})} = \frac{p(M_1)}{p(M_2)} \, \frac{p(\mathbf{X}\mid M_1)}{p(\mathbf{X}\mid M_2)} </math>
:पोस्टीरियर [[कठिनाइयाँ|ऑड्स]] = पूर्व ऑड्स × बेयस फैक्टर
जिसे योजनाबद्ध रूप से इस प्रकार बताया जा सकता है


:पोस्टीरियर [[कठिनाइयाँ]] = पूर्व ऑड्स × बेयस फैक्टर
==यह भी देखें         ==
 
==यह भी देखें==
* [[अनुभवजन्य बेयस विधियाँ]]
* [[अनुभवजन्य बेयस विधियाँ]]
* लिंडले का विरोधाभास
* लिंडले का विरोधाभास
* [[सीमांत संभाव्यता]]
* [[सीमांत संभाव्यता]]
* [[बायेसियन सूचना मानदंड]]
* [[बायेसियन सूचना मानदंड]]
{{No footnotes|date=July 2010}}


== संदर्भ ==
== संदर्भ ==
Line 39: Line 36:
* {{cite book |first=Ben |last=Lambert |chapter=The devil is in the denominator |pages=109–120 |title=A Student's Guide to Bayesian Statistics |location= |publisher=Sage |year=2018 |isbn=978-1-4739-1636-4 }}
* {{cite book |first=Ben |last=Lambert |chapter=The devil is in the denominator |pages=109–120 |title=A Student's Guide to Bayesian Statistics |location= |publisher=Sage |year=2018 |isbn=978-1-4739-1636-4 }}
* [http://www.inference.phy.cam.ac.uk/mackay/itila/ The on-line textbook: Information Theory, Inference, and Learning Algorithms], by [[David J.C. MacKay]].
* [http://www.inference.phy.cam.ac.uk/mackay/itila/ The on-line textbook: Information Theory, Inference, and Learning Algorithms], by [[David J.C. MacKay]].
[[Category: बायेसियन आँकड़े]]


[[Category: Machine Translated Page]]
[[Category:Created On 07/07/2023]]
[[Category:Created On 07/07/2023]]
[[Category:Machine Translated Page]]
[[Category:Pages with empty portal template]]
[[Category:Portal-inline template with redlinked portals]]
[[Category:Templates Vigyan Ready]]
[[Category:बायेसियन आँकड़े]]

Latest revision as of 14:05, 3 August 2023

सीमांत संभावना एक संभावना फलन है जिसे पैरामीटर स्थान पर एकीकृत किया गया है। यह बायेसियन सांख्यिकी में होता हैं, यह पूर्व संभाव्यता से प्रतिरूप (सांख्यिकी) उत्पन्न करने की संभावना का प्रतिनिधित्व करता है और इसलिए इसे अधिकांशतः मॉडल साक्ष्य या केवल साक्ष्य के रूप में जाना जाता है।

अवधारणा

स्वतंत्र समान रूप से वितरित डेटा बिंदुओं के समूह को देखते हुए हैं जहाँ कुछ संभाव्यता वितरण के अनुसार द्वारा पैरामीटर किया गया है और जहां स्वयं एक वितरण द्वारा वर्णित एक यादृच्छिक वेरिएबल होता है, अर्थात सामान्यतः सीमांत संभावना पूछती है कि संभावना क्या है, जहां सीमांत वितरण (एकीकृत) किया गया है |

उपरोक्त परिभाषा बायेसियन सांख्यिकी के संदर्भ में व्यक्त की गई है, जिस स्थिति में को पूर्व घनत्व कहा जाता है और संभावना है। सीमांत संभावना एक ज्यामितीय अर्थ में डेटा और पूर्व के मध्य सहमति की मात्रा निर्धारित करती है, जिसे डे कार्वाल्हो एट अल में स्पष्ट बनाया गया है। यह (2019) के मौलिक (फ़्रीक्वेंटिस्ट) आँकड़ों में होता हैं, सीमांत संभावना की अवधारणा एक संयुक्त पैरामीटर के संदर्भ में होती है जहाँ ब्याज का वास्तविक पैरामीटर है, और एक गैर-रोचक उपद्रव पैरामीटर होता है। यदि के लिए संभाव्यता वितरण उपस्थित है, तब अधिकांशतः को सीमांत पर रखकर केवल के संदर्भ में संभावना फलन पर विचार करना वांछनीय होता है |

इस प्रकार दुर्भाग्य से, सीमांत संभावनाओं की गणना करना सामान्यतः कठिन होती है। स्पष्ट समाधान वितरण के लघु वर्ग के लिए जाने जाते हैं, विशेषतः जब सीमांत पर रखा गया पैरामीटर डेटा के वितरण से पहले संयुग्मित होता है। और अन्य स्थितियों में, किसी प्रकार की संख्यात्मक एकीकरण विधि की आवश्यकता होती है, या तब सामान्य विधि जैसे गॉसियन एकीकरण या मोंटे कार्लो विधि, या सांख्यिकीय समस्याओं के लिए विशेष विधि जैसे लाप्लास सन्निकटन, गिब्स प्रतिरूप/मेट्रोपोलिस-हेस्टिंग्स_एल्गोरिदम प्रतिरूप, या ईएम एल्गोरिदम के लिए विशेष विधि की आवश्यकता होती है।

उपरोक्त विचारों को एकल यादृच्छिक वेरिएबल (डेटा बिंदु) पर क्रियान्वित करना भी संभव होता है, बायेसियन संदर्भ में, अवलोकनों के समूह के अतिरिक्त, यह डेटा बिंदु के पूर्व पूर्वानुमानित वितरण के सामान्तर होते है।

अनुप्रयोग

बायेसियन मॉडल तुलना

बायेसियन मॉडल तुलना में, सीमांत वेरिएबल एक विशेष प्रकार के मॉडल के लिए पैरामीटर होता हैं, और शेष वेरिएबल मॉडल की पहचान होता है इन स्थितियों में, सीमांत संभावना मॉडल प्रकार दिए गए हैं जिसमे डेटा की संभावना होती है जो किसी विशेष मॉडल पैरामीटर को नहीं मानती है। मॉडल मापदंडों के लिए लिखना, मॉडल के लिए सीमांत संभावना होती है |

इसी संदर्भ में मॉडल साक्ष्य शब्द का प्रयोग सामान्यतः किया जाता है। यह मात्रा महत्वपूर्ण है क्योंकि मॉडल M1 के विरुद्ध दूसरे मॉडल M2 के लिए पश्च विषम अनुपात में सीमांत संभावनाओं का अनुपात सम्मिलित होता है, तथाकथित बेयस कारक हैं |

जिसे योजनाबद्ध रूप से इस प्रकार बताया जा सकता है

पोस्टीरियर ऑड्स = पूर्व ऑड्स × बेयस फैक्टर

यह भी देखें

संदर्भ

  • Charles S. Bos. "A comparison of marginal likelihood computation methods". In W. Härdle and B. Ronz, editors, COMPSTAT 2002: Proceedings in Computational Statistics, pp. 111–117. 2002. (Available as a preprint on the web: [1])
  • de Carvalho, Miguel; Page, Garritt; Barney, Bradley (2019). "On the geometry of Bayesian inference". Bayesian Analysis. 14 (4): 1013‒1036. (Available as a preprint on the web: [2])
  • Lambert, Ben (2018). "The devil is in the denominator". A Student's Guide to Bayesian Statistics. Sage. pp. 109–120. ISBN 978-1-4739-1636-4.
  • The on-line textbook: Information Theory, Inference, and Learning Algorithms, by David J.C. MacKay.