सीमांत संभावना

From Vigyanwiki
Revision as of 16:10, 12 July 2023 by alpha>Saurabh

सीमांत संभावना एक संभावना फ़ंक्शन है जिसे पैरामीटर स्थान पर एकीकृत किया गया है। बायेसियन सांख्यिकी में, यह पूर्व संभाव्यता से नमूनाकरण (सांख्यिकी) उत्पन्न करने की संभावना का प्रतिनिधित्व करता है और इसलिए इसे अधिकांशतः मॉडल साक्ष्य या केवल साक्ष्य के रूप में जाना जाता है।

है और इसलिए इसे अधिकांशतः मॉ।

अवधारणा

स्वतंत्र समान रूप से वितरित डेटा बिंदुओं के एक समूह को देखते हुए जहाँ कुछ संभाव्यता वितरण के अनुसार द्वारा पैरामीटर किया गया है जहां स्वयं एक वितरण द्वारा वर्णित एक यादृच्छिक चर है, अर्थात सामान्यतः सीमांत संभावना पूछती है कि संभावना क्या है, जहां सीमांत वितरण (एकीकृत) किया गया है:

उपरोक्त परिभाषा किस मामले में बायेसियन सांख्यिकी के संदर्भ में व्यक्त की गई है पूर्व घनत्व कहा जाता है और संभावना है. सीमांत संभावना सटीक ज्यामितीय अर्थ में डेटा और पूर्व के बीच समझौते की मात्रा निर्धारित करती है[how?] डी कार्वाल्हो एट अल में। (2019)। शास्त्रीय (बारंबारतावादी सांख्यिकी) आँकड़ों में, सीमांत संभावना की अवधारणा संयुक्त पैरामीटर के संदर्भ में होती है , कहाँ रुचि का वास्तविक पैरामीटर है, और एक गैर-दिलचस्प उपद्रव पैरामीटर है। यदि इसके लिए संभाव्यता वितरण मौजूद है [dubious ], अधिकांशतः संभावना फ़ंक्शन पर केवल के संदर्भ में विचार करना वांछनीय होता है , हाशिए पर रखकर :


उपरोक्त परिभाषा बायेसियन सांख्यिकी के संदर्भ में व्यक्त की गई है, जिस स्थिति में एफ1 को पूर्व घनत्व कहा जाता है और एफ2 संभावना है। सीमांत संभावना एक ज्यामितीय अर्थ में डेटा और पूर्व के बीच समझौते की मात्रा निर्धारित करती है, जिसे डे कार्वाल्हो एट अल में सटीक [कैसे?] बनाया गया है। (2019) शास्त्रीय (फ़्रीक्वेंटिस्ट) आँकड़ों में, सीमांत संभावना की अवधारणा एक संयुक्त पैरामीटर फ़3 के संदर्भ में होती है जहाँ v ब्याज का वास्तविक पैरामीटर है, और एक्स एक गैर-दिलचस्प उपद्रव पैरामीटर है। यदि x के लिए संभाव्यता वितरण मौजूद है, तो अक्सर x को हाशिए पर रखकर केवल v के संदर्भ में संभावना फ़ंक्शन पर विचार करना वांछनीय होता है:

दुर्भाग्य से, सीमांत संभावनाओं की गणना करना आम तौर पर कठिन होता है। सटीक समाधान वितरण के छोटे वर्ग के लिए जाने जाते हैं, खासकर जब हाशिए पर रखा गया पैरामीटर डेटा के वितरण से पहले संयुग्मित होता है। अन्य मामलों में, किसी प्रकार की संख्यात्मक एकीकरण विधि की आवश्यकता होती है, या तो सामान्य विधि जैसे गॉसियन एकीकरण या मोंटे कार्लो विधि, या सांख्यिकीय समस्याओं के लिए विशेष विधि जैसे लाप्लास सन्निकटन, गिब्स नमूनाकरण/मेट्रोपोलिस-हेस्टिंग्स_एल्गोरिदम नमूनाकरण, या ईएम एल्गोरिदम.

उपरोक्त विचारों को एकल यादृच्छिक चर (डेटा बिंदु) पर लागू करना भी संभव है , अवलोकनों के समूह के बजाय। बायेसियन संदर्भ में, यह डेटा बिंदु के पूर्व पूर्वानुमानित वितरण के बराबर है।

अनुप्रयोग

बायेसियन मॉडल तुलना

बायेसियन मॉडल तुलना में, सीमांत चर एक विशेष प्रकार के मॉडल और शेष चर के लिए पैरामीटर हैं मॉडल की पहचान ही है. इस मामले में, सीमांत संभावना मॉडल प्रकार दिए गए डेटा की संभावना है, किसी विशेष मॉडल पैरामीटर को नहीं मानते हुए। लिखना मॉडल मापदंडों के लिए, मॉडल एम के लिए सीमांत संभावना है

इसी संदर्भ में मॉडल साक्ष्य शब्द का प्रयोग आम तौर पर किया जाता है। यह मात्रा महत्वपूर्ण है क्योंकि मॉडल एम के लिए पश्च विषम अनुपात1 एक अन्य मॉडल एम के विरुद्ध2 इसमें सीमांत संभावनाओं का अनुपात शामिल है, तथाकथित बेयस कारक:

जिसे योजनाबद्ध रूप से इस प्रकार बताया जा सकता है

पोस्टीरियर कठिनाइयाँ = पूर्व ऑड्स × बेयस फैक्टर

यह भी देखें

संदर्भ

  • Charles S. Bos. "A comparison of marginal likelihood computation methods". In W. Härdle and B. Ronz, editors, COMPSTAT 2002: Proceedings in Computational Statistics, pp. 111–117. 2002. (Available as a preprint on the web: [1])
  • de Carvalho, Miguel; Page, Garritt; Barney, Bradley (2019). "On the geometry of Bayesian inference". Bayesian Analysis. 14 (4): 1013‒1036. (Available as a preprint on the web: [2])
  • Lambert, Ben (2018). "The devil is in the denominator". A Student's Guide to Bayesian Statistics. Sage. pp. 109–120. ISBN 978-1-4739-1636-4.
  • The on-line textbook: Information Theory, Inference, and Learning Algorithms, by David J.C. MacKay.