बायेसियन रैखिक प्रतिगमन: Difference between revisions

From Vigyanwiki
(Created page with "{{Short description|Method of statistical analysis}} {{Bayesian statistics}} {{Regression bar}} {{Distinguish|Bayes linear statistics}} बायेसियन रैखि...")
 
(text)
Line 2: Line 2:
{{Bayesian statistics}}
{{Bayesian statistics}}
{{Regression bar}}
{{Regression bar}}
{{Distinguish|Bayes linear statistics}}
{{Distinguish|बेयस रैखिक सांख्यिकी}}
बायेसियन रैखिक प्रतिगमन एक प्रकार का [[सशर्त मॉडल]]िंग है जिसमें एक चर का माध्य अन्य चर के रैखिक फ़ंक्शन द्वारा वर्णित किया जाता है, जिसका लक्ष्य प्रतिगमन गुणांक की पिछली संभावना प्राप्त करना है (साथ ही संभाव्यता वितरण का वर्णन करने वाले अन्य पैरामीटर भी प्राप्त करना है) regressand) और अंततः :wikt:regressand (अक्सर लेबल किया गया) की [[नमूना से बाहर]] भविष्यवाणी की अनुमति देता है <math>y</math>) [[सशर्त अपेक्षा]] प्रतिगामी मूल्यों का अवलोकन करती है (आमतौर पर)। <math>X</math>). इस मॉडल का सबसे सरल और सबसे व्यापक रूप से उपयोग किया जाने वाला संस्करण सामान्य रैखिक मॉडल है, जिसमें <math>y</math> दिया गया <math>X</math> [[सामान्य वितरण]] वितरित किया जाता है। इस मॉडल में, और मापदंडों के लिए पूर्व संभाव्यता की एक विशेष पसंद के तहत - तथाकथित संयुग्मित पूर्व - पश्च भाग को विश्लेषणात्मक रूप से पाया जा सकता है। अधिक मनमाने ढंग से चुने गए पूर्ववर्तियों के साथ, आमतौर पर पीछे वाले का अनुमान लगाना पड़ता है।
 
'''बायेसियन रैखिक प्रतिगमन''' एक प्रकार का [[सशर्त मॉडल|विभेदक मॉडल]] है जिसमें चर का माध्य अन्य चर के रैखिक फलन द्वारा वर्णित किया जाता है, जिसका लक्ष्य प्रतिगमन गुणांक की पिछली संभावना प्राप्त करना है (साथ ही संभाव्यता वितरण का वर्णन करने वाले अन्य पैरामीटर भी प्राप्त करना है) regressand) और अंततः :wikt:regressand (अक्सर लेबल किया गया) की [[नमूना से बाहर]] भविष्यवाणी की अनुमति देता है <math>y</math>) [[सशर्त अपेक्षा]] प्रतिगामी मूल्यों का अवलोकन करती है (आमतौर पर)। <math>X</math>). इस मॉडल का सबसे सरल और सबसे व्यापक रूप से उपयोग किया जाने वाला संस्करण सामान्य रैखिक मॉडल है, जिसमें <math>y</math> दिया गया <math>X</math> [[सामान्य वितरण]] वितरित किया जाता है। इस मॉडल में, और मापदंडों के लिए पूर्व संभाव्यता की एक विशेष पसंद के तहत - तथाकथित संयुग्मित पूर्व - पश्च भाग को विश्लेषणात्मक रूप से पाया जा सकता है। अधिक मनमाने ढंग से चुने गए पूर्ववर्तियों के साथ, आमतौर पर पीछे वाले का अनुमान लगाना पड़ता है।


==मॉडल सेटअप==
==मॉडल सेटअप==
Line 10: Line 11:
कहाँ <math>\boldsymbol\beta</math> एक है <math>k \times 1</math> वेक्टर, और <math>\varepsilon_i</math> क्या आई.आई.डी. [[सामान्य रूप से वितरित]] यादृच्छिक चर:
कहाँ <math>\boldsymbol\beta</math> एक है <math>k \times 1</math> वेक्टर, और <math>\varepsilon_i</math> क्या आई.आई.डी. [[सामान्य रूप से वितरित]] यादृच्छिक चर:
<math display="block">\varepsilon_{i} \sim N(0, \sigma^2).</math>
<math display="block">\varepsilon_{i} \sim N(0, \sigma^2).</math>
यह निम्नलिखित संभावना फ़ंक्शन से मेल खाता है:
यह निम्नलिखित संभावना फलन से मेल खाता है:


<math display="block">\rho(\mathbf{y}\mid\mathbf{X},\boldsymbol\beta,\sigma^{2}) \propto (\sigma^2)^{-n/2} \exp\left(-\frac{1}{2\sigma^2} (\mathbf{y}- \mathbf{X} \boldsymbol\beta)^\mathsf{T}(\mathbf{y}- \mathbf{X} \boldsymbol\beta)\right).</math>
<math display="block">\rho(\mathbf{y}\mid\mathbf{X},\boldsymbol\beta,\sigma^{2}) \propto (\sigma^2)^{-n/2} \exp\left(-\frac{1}{2\sigma^2} (\mathbf{y}- \mathbf{X} \boldsymbol\beta)^\mathsf{T}(\mathbf{y}- \mathbf{X} \boldsymbol\beta)\right).</math>
Line 17: Line 18:
कहाँ <math>\mathbf{X}</math> है <math>n \times k</math> [[डिज़ाइन मैट्रिक्स]], जिसकी प्रत्येक पंक्ति एक भविष्यवक्ता वेक्टर है <math>\mathbf{x}_i^\mathsf{T}</math>; और <math>\mathbf{y}</math> स्तंभ है <math>n</math>-वेक्टर <math>[y_1 \; \cdots \; y_n]^\mathsf{T}</math>.
कहाँ <math>\mathbf{X}</math> है <math>n \times k</math> [[डिज़ाइन मैट्रिक्स]], जिसकी प्रत्येक पंक्ति एक भविष्यवक्ता वेक्टर है <math>\mathbf{x}_i^\mathsf{T}</math>; और <math>\mathbf{y}</math> स्तंभ है <math>n</math>-वेक्टर <math>[y_1 \; \cdots \; y_n]^\mathsf{T}</math>.


यह एक बारंबारवादी दृष्टिकोण है, और यह मानता है कि कुछ सार्थक कहने के लिए पर्याप्त माप हैं <math>\boldsymbol\beta</math>. [[बायेसियन अनुमान]] दृष्टिकोण में, डेटा को [[पूर्व संभाव्यता वितरण]] के रूप में अतिरिक्त जानकारी के साथ पूरक किया जाता है। मापदंडों के बारे में पिछली संभावना प्राप्त करने के लिए [[बेयस प्रमेय]] के अनुसार मापदंडों के बारे में पूर्व धारणा को डेटा की संभावना फ़ंक्शन के साथ जोड़ा जाता है। <math>\boldsymbol\beta</math> और <math>\sigma</math>. डोमेन और प्राथमिकता के आधार पर उपलब्ध जानकारी के आधार पर पूर्व अलग-अलग कार्यात्मक रूप ले सकता है।
यह एक बारंबारवादी दृष्टिकोण है, और यह मानता है कि कुछ सार्थक कहने के लिए पर्याप्त माप हैं <math>\boldsymbol\beta</math>. [[बायेसियन अनुमान]] दृष्टिकोण में, डेटा को [[पूर्व संभाव्यता वितरण]] के रूप में अतिरिक्त जानकारी के साथ पूरक किया जाता है। मापदंडों के बारे में पिछली संभावना प्राप्त करने के लिए [[बेयस प्रमेय]] के अनुसार मापदंडों के बारे में पूर्व धारणा को डेटा की संभावना फलन के साथ जोड़ा जाता है। <math>\boldsymbol\beta</math> और <math>\sigma</math>. डोमेन और प्राथमिकता के आधार पर उपलब्ध जानकारी के आधार पर पूर्व अलग-अलग कार्यात्मक रूप ले सकता है।


चूंकि डेटा में दोनों शामिल हैं <math>\mathbf{y}</math> और <math>\mathbf{X}</math>के वितरण पर ही फोकस है <math>\mathbf{y}</math> सशर्त <math>\mathbf{X}</math> औचित्य की आवश्यकता है. वास्तव में, पूर्ण बायेसियन विश्लेषण के लिए एक संयुक्त संभावना की आवश्यकता होगी <math>\rho(\mathbf{y},\mathbf{X}\mid\boldsymbol\beta,\sigma^{2},\gamma)</math> एक पूर्व के साथ <math>\rho(\beta,\sigma^{2},\gamma)</math>, कहाँ <math>\gamma</math> के वितरण के मापदंडों का प्रतीक है <math>\mathbf{X}</math>. केवल (कमजोर) बहिर्जातता की धारणा के तहत ही संयुक्त संभावना को शामिल किया जा सकता है <math>\rho(\mathbf{y}\mid\boldsymbol\mathbf{X},\beta,\sigma^{2})\rho(\mathbf{X}\mid\gamma)</math>.<ref>See Jackman (2009), p. 101.</ref> बाद वाले हिस्से को आमतौर पर असंयुक्त पैरामीटर सेट की धारणा के तहत नजरअंदाज कर दिया जाता है। इससे भी अधिक, क्लासिक धारणाओं के तहत <math>\mathbf{X}</math> चुने हुए माने जाते हैं (उदाहरण के लिए, एक डिज़ाइन किए गए प्रयोग में) और इसलिए मापदंडों के बिना एक ज्ञात संभावना होती है।<ref>See Gelman et al. (2013), p. 354.</ref>
चूंकि डेटा में दोनों शामिल हैं <math>\mathbf{y}</math> और <math>\mathbf{X}</math>के वितरण पर ही फोकस है <math>\mathbf{y}</math> सशर्त <math>\mathbf{X}</math> औचित्य की आवश्यकता है. वास्तव में, पूर्ण बायेसियन विश्लेषण के लिए एक संयुक्त संभावना की आवश्यकता होगी <math>\rho(\mathbf{y},\mathbf{X}\mid\boldsymbol\beta,\sigma^{2},\gamma)</math> एक पूर्व के साथ <math>\rho(\beta,\sigma^{2},\gamma)</math>, कहाँ <math>\gamma</math> के वितरण के मापदंडों का प्रतीक है <math>\mathbf{X}</math>. केवल (कमजोर) बहिर्जातता की धारणा के तहत ही संयुक्त संभावना को शामिल किया जा सकता है <math>\rho(\mathbf{y}\mid\boldsymbol\mathbf{X},\beta,\sigma^{2})\rho(\mathbf{X}\mid\gamma)</math>.<ref>See Jackman (2009), p. 101.</ref> बाद वाले हिस्से को आमतौर पर असंयुक्त पैरामीटर सेट की धारणा के तहत नजरअंदाज कर दिया जाता है। इससे भी अधिक, क्लासिक धारणाओं के तहत <math>\mathbf{X}</math> चुने हुए माने जाते हैं (उदाहरण के लिए, एक डिज़ाइन किए गए प्रयोग में) और इसलिए मापदंडों के बिना एक ज्ञात संभावना होती है।<ref>See Gelman et al. (2013), p. 354.</ref>
Line 27: Line 28:
मनमाने पूर्व वितरण के लिए, [[पश्च वितरण]] के लिए कोई विश्लेषणात्मक समाधान नहीं हो सकता है। इस खंड में, हम एक तथाकथित संयुग्म पूर्व पर विचार करेंगे जिसके लिए पश्च वितरण विश्लेषणात्मक रूप से प्राप्त किया जा सकता है।
मनमाने पूर्व वितरण के लिए, [[पश्च वितरण]] के लिए कोई विश्लेषणात्मक समाधान नहीं हो सकता है। इस खंड में, हम एक तथाकथित संयुग्म पूर्व पर विचार करेंगे जिसके लिए पश्च वितरण विश्लेषणात्मक रूप से प्राप्त किया जा सकता है।


पहले से <math>\rho(\boldsymbol\beta,\sigma^{2})</math> इस संभावना फ़ंक्शन से पहले संयुग्मित है यदि इसके संबंध में समान कार्यात्मक रूप है <math>\boldsymbol\beta</math> और <math>\sigma</math>. चूँकि लॉग-संभावना द्विघात है <math>\boldsymbol\beta</math>, लॉग-संभावना को फिर से लिखा जाता है ताकि संभावना सामान्य हो जाए <math>(\boldsymbol\beta-\hat{\boldsymbol\beta})</math>. लिखना
पहले से <math>\rho(\boldsymbol\beta,\sigma^{2})</math> इस संभावना फलन से पहले संयुग्मित है यदि इसके संबंध में समान कार्यात्मक रूप है <math>\boldsymbol\beta</math> और <math>\sigma</math>. चूँकि लॉग-संभावना द्विघात है <math>\boldsymbol\beta</math>, लॉग-संभावना को फिर से लिखा जाता है ताकि संभावना सामान्य हो जाए <math>(\boldsymbol\beta-\hat{\boldsymbol\beta})</math>. लिखना


<math display="block">\begin{align}
<math display="block">\begin{align}
Line 79: Line 80:


===[[मॉडल साक्ष्य]]===
===[[मॉडल साक्ष्य]]===
मॉडल साक्ष्य <math>p(\mathbf{y}\mid m)</math> मॉडल दिए गए डेटा की संभावना है <math>m</math>. इसे [[सीमांत संभावना]] और पूर्व पूर्वानुमानित घनत्व के रूप में भी जाना जाता है। यहां, मॉडल को संभावना फ़ंक्शन द्वारा परिभाषित किया गया है <math>p(\mathbf{y}\mid\mathbf{X},\boldsymbol\beta,\sigma)</math> और मापदंडों पर पूर्व वितरण, यानी। <math>p(\boldsymbol\beta,\sigma)</math>. मॉडल साक्ष्य एक ही संख्या में कैप्चर करता है कि ऐसा मॉडल टिप्पणियों को कितनी अच्छी तरह समझाता है। इस खंड में प्रस्तुत बायेसियन रैखिक प्रतिगमन मॉडल के मॉडल साक्ष्य का उपयोग [[बायेसियन मॉडल तुलना]] द्वारा प्रतिस्पर्धी रैखिक मॉडल की तुलना करने के लिए किया जा सकता है। ये मॉडल भविष्यवक्ता चर की संख्या और मूल्यों के साथ-साथ मॉडल मापदंडों पर उनके पूर्ववर्तियों में भिन्न हो सकते हैं। मॉडल साक्ष्य द्वारा मॉडल जटिलता को पहले से ही ध्यान में रखा गया है, क्योंकि यह एकीकृत करके मापदंडों को हाशिए पर रख देता है <math>p(\mathbf{y},\boldsymbol\beta,\sigma\mid\mathbf{X})</math> के सभी संभावित मूल्यों पर <math>\boldsymbol\beta</math> और <math>\sigma</math>.
मॉडल साक्ष्य <math>p(\mathbf{y}\mid m)</math> मॉडल दिए गए डेटा की संभावना है <math>m</math>. इसे [[सीमांत संभावना]] और पूर्व पूर्वानुमानित घनत्व के रूप में भी जाना जाता है। यहां, मॉडल को संभावना फलन द्वारा परिभाषित किया गया है <math>p(\mathbf{y}\mid\mathbf{X},\boldsymbol\beta,\sigma)</math> और मापदंडों पर पूर्व वितरण, यानी। <math>p(\boldsymbol\beta,\sigma)</math>. मॉडल साक्ष्य एक ही संख्या में कैप्चर करता है कि ऐसा मॉडल टिप्पणियों को कितनी अच्छी तरह समझाता है। इस खंड में प्रस्तुत बायेसियन रैखिक प्रतिगमन मॉडल के मॉडल साक्ष्य का उपयोग [[बायेसियन मॉडल तुलना]] द्वारा प्रतिस्पर्धी रैखिक मॉडल की तुलना करने के लिए किया जा सकता है। ये मॉडल भविष्यवक्ता चर की संख्या और मूल्यों के साथ-साथ मॉडल मापदंडों पर उनके पूर्ववर्तियों में भिन्न हो सकते हैं। मॉडल साक्ष्य द्वारा मॉडल जटिलता को पहले से ही ध्यान में रखा गया है, क्योंकि यह एकीकृत करके मापदंडों को हाशिए पर रख देता है <math>p(\mathbf{y},\boldsymbol\beta,\sigma\mid\mathbf{X})</math> के सभी संभावित मूल्यों पर <math>\boldsymbol\beta</math> और <math>\sigma</math>.
<math display="block">p(\mathbf{y}|m)=\int p(\mathbf{y}\mid\mathbf{X},\boldsymbol\beta,\sigma)\, p(\boldsymbol\beta,\sigma)\, d\boldsymbol\beta\, d\sigma</math>
<math display="block">p(\mathbf{y}|m)=\int p(\mathbf{y}\mid\mathbf{X},\boldsymbol\beta,\sigma)\, p(\boldsymbol\beta,\sigma)\, d\boldsymbol\beta\, d\sigma</math>
इस अभिन्न की गणना विश्लेषणात्मक रूप से की जा सकती है और समाधान निम्नलिखित समीकरण में दिया गया है।<ref>The intermediate steps of this computation can be found in O'Hagan (1994) on page 257.</ref>
इस अभिन्न की गणना विश्लेषणात्मक रूप से की जा सकती है और समाधान निम्नलिखित समीकरण में दिया गया है।<ref>The intermediate steps of this computation can be found in O'Hagan (1994) on page 257.</ref>
<math display="block">p(\mathbf{y}\mid m)=\frac{1}{(2\pi)^{n/2}}\sqrt{\frac{\det(\boldsymbol\Lambda_0)}{\det(\boldsymbol\Lambda_n)}} \cdot \frac{b_0^{a_0}}{b_n^{a_n}} \cdot \frac{\Gamma(a_n)}{\Gamma(a_0)}</math>
<math display="block">p(\mathbf{y}\mid m)=\frac{1}{(2\pi)^{n/2}}\sqrt{\frac{\det(\boldsymbol\Lambda_0)}{\det(\boldsymbol\Lambda_n)}} \cdot \frac{b_0^{a_0}}{b_n^{a_n}} \cdot \frac{\Gamma(a_n)}{\Gamma(a_0)}</math>
यहाँ <math>\Gamma</math> [[गामा फ़ंक्शन]] को दर्शाता है। क्योंकि हमने पहले एक संयुग्म चुना है, सीमांत संभावना की गणना मनमाने मूल्यों के लिए निम्नलिखित समानता का मूल्यांकन करके आसानी से की जा सकती है <math>\boldsymbol\beta</math> और <math>\sigma</math>.
यहाँ <math>\Gamma</math> [[गामा फ़ंक्शन|गामा फलन]] को दर्शाता है। क्योंकि हमने पहले एक संयुग्म चुना है, सीमांत संभावना की गणना मनमाने मूल्यों के लिए निम्नलिखित समानता का मूल्यांकन करके आसानी से की जा सकती है <math>\boldsymbol\beta</math> और <math>\sigma</math>.
<math display="block">p(\mathbf{y}\mid m)=\frac{p(\boldsymbol\beta,\sigma|m)\, p(\mathbf{y} \mid \mathbf{X}, \boldsymbol\beta,\sigma,m)}{p(\boldsymbol\beta, \sigma \mid \mathbf{y},\mathbf{X},m)}</math>
<math display="block">p(\mathbf{y}\mid m)=\frac{p(\boldsymbol\beta,\sigma|m)\, p(\mathbf{y} \mid \mathbf{X}, \boldsymbol\beta,\sigma,m)}{p(\boldsymbol\beta, \sigma \mid \mathbf{y},\mathbf{X},m)}</math>
ध्यान दें कि यह समीकरण बेयस प्रमेय की पुनर्व्यवस्था के अलावा और कुछ नहीं है। पूर्व, संभावना और पश्च के लिए सूत्र सम्मिलित करने और परिणामी अभिव्यक्ति को सरल बनाने से ऊपर दी गई विश्लेषणात्मक अभिव्यक्ति प्राप्त होती है।
ध्यान दें कि यह समीकरण बेयस प्रमेय की पुनर्व्यवस्था के अलावा और कुछ नहीं है। पूर्व, संभावना और पश्च के लिए सूत्र सम्मिलित करने और परिणामी अभिव्यक्ति को सरल बनाने से ऊपर दी गई विश्लेषणात्मक अभिव्यक्ति प्राप्त होती है।

Revision as of 12:01, 16 July 2023

बायेसियन रैखिक प्रतिगमन एक प्रकार का विभेदक मॉडल है जिसमें चर का माध्य अन्य चर के रैखिक फलन द्वारा वर्णित किया जाता है, जिसका लक्ष्य प्रतिगमन गुणांक की पिछली संभावना प्राप्त करना है (साथ ही संभाव्यता वितरण का वर्णन करने वाले अन्य पैरामीटर भी प्राप्त करना है) regressand) और अंततः :wikt:regressand (अक्सर लेबल किया गया) की नमूना से बाहर भविष्यवाणी की अनुमति देता है ) सशर्त अपेक्षा प्रतिगामी मूल्यों का अवलोकन करती है (आमतौर पर)। ). इस मॉडल का सबसे सरल और सबसे व्यापक रूप से उपयोग किया जाने वाला संस्करण सामान्य रैखिक मॉडल है, जिसमें दिया गया सामान्य वितरण वितरित किया जाता है। इस मॉडल में, और मापदंडों के लिए पूर्व संभाव्यता की एक विशेष पसंद के तहत - तथाकथित संयुग्मित पूर्व - पश्च भाग को विश्लेषणात्मक रूप से पाया जा सकता है। अधिक मनमाने ढंग से चुने गए पूर्ववर्तियों के साथ, आमतौर पर पीछे वाले का अनुमान लगाना पड़ता है।

मॉडल सेटअप

एक मानक रैखिक प्रतिगमन समस्या पर विचार करें, जिसमें के लिए हम सशर्त संभाव्यता वितरण का माध्य निर्दिष्ट करते हैं एक दिया गया भविष्यवक्ता वेक्टर :

कहाँ एक है वेक्टर, और क्या आई.आई.डी. सामान्य रूप से वितरित यादृच्छिक चर:
यह निम्नलिखित संभावना फलन से मेल खाता है:

सामान्य न्यूनतम वर्ग समाधान का उपयोग मूर-पेनरोज़ स्यूडोइनवर्स का उपयोग करके गुणांक वेक्टर का अनुमान लगाने के लिए किया जाता है:
कहाँ है डिज़ाइन मैट्रिक्स, जिसकी प्रत्येक पंक्ति एक भविष्यवक्ता वेक्टर है ; और स्तंभ है -वेक्टर .

यह एक बारंबारवादी दृष्टिकोण है, और यह मानता है कि कुछ सार्थक कहने के लिए पर्याप्त माप हैं . बायेसियन अनुमान दृष्टिकोण में, डेटा को पूर्व संभाव्यता वितरण के रूप में अतिरिक्त जानकारी के साथ पूरक किया जाता है। मापदंडों के बारे में पिछली संभावना प्राप्त करने के लिए बेयस प्रमेय के अनुसार मापदंडों के बारे में पूर्व धारणा को डेटा की संभावना फलन के साथ जोड़ा जाता है। और . डोमेन और प्राथमिकता के आधार पर उपलब्ध जानकारी के आधार पर पूर्व अलग-अलग कार्यात्मक रूप ले सकता है।

चूंकि डेटा में दोनों शामिल हैं और के वितरण पर ही फोकस है सशर्त औचित्य की आवश्यकता है. वास्तव में, पूर्ण बायेसियन विश्लेषण के लिए एक संयुक्त संभावना की आवश्यकता होगी एक पूर्व के साथ , कहाँ के वितरण के मापदंडों का प्रतीक है . केवल (कमजोर) बहिर्जातता की धारणा के तहत ही संयुक्त संभावना को शामिल किया जा सकता है .[1] बाद वाले हिस्से को आमतौर पर असंयुक्त पैरामीटर सेट की धारणा के तहत नजरअंदाज कर दिया जाता है। इससे भी अधिक, क्लासिक धारणाओं के तहत चुने हुए माने जाते हैं (उदाहरण के लिए, एक डिज़ाइन किए गए प्रयोग में) और इसलिए मापदंडों के बिना एक ज्ञात संभावना होती है।[2]


संयुग्मित पुजारियों के साथ

संयुग्मित पूर्व वितरण

मनमाने पूर्व वितरण के लिए, पश्च वितरण के लिए कोई विश्लेषणात्मक समाधान नहीं हो सकता है। इस खंड में, हम एक तथाकथित संयुग्म पूर्व पर विचार करेंगे जिसके लिए पश्च वितरण विश्लेषणात्मक रूप से प्राप्त किया जा सकता है।

पहले से इस संभावना फलन से पहले संयुग्मित है यदि इसके संबंध में समान कार्यात्मक रूप है और . चूँकि लॉग-संभावना द्विघात है , लॉग-संभावना को फिर से लिखा जाता है ताकि संभावना सामान्य हो जाए . लिखना

संभावना को अब इस रूप में पुनः लिखा गया है
कहाँ
कहाँ प्रतिगमन गुणांकों की संख्या है.

यह पूर्व के लिए एक फॉर्म सुझाता है:

कहाँ एक व्युत्क्रम-गामा वितरण है
व्युत्क्रम-गामा वितरण लेख में प्रस्तुत संकेतन में, यह एक का घनत्व है के साथ वितरण और साथ और के पूर्व मूल्यों के रूप में और , क्रमश। समान रूप से, इसे स्केल्ड व्युत्क्रम ची-वर्ग वितरण के रूप में भी वर्णित किया जा सकता है, आगे सशर्त पूर्व घनत्व एक सामान्य वितरण है,

सामान्य वितरण के अंकन में, सशर्त पूर्व वितरण है


पश्च वितरण

पूर्व अब निर्दिष्ट के साथ, पश्च वितरण को इस प्रकार व्यक्त किया जा सकता है

कुछ पुनर्व्यवस्था के साथ,[3] पश्च को फिर से लिखा जा सकता है ताकि पश्च का मतलब हो पैरामीटर वेक्टर का न्यूनतम वर्ग अनुमानक के रूप में व्यक्त किया जा सकता है और पूर्व माध्य , पूर्व परिशुद्धता मैट्रिक्स द्वारा इंगित पूर्व की ताकत के साथ

उसे उचित ठहराने के लिए वास्तव में पिछला माध्य है, घातांक में द्विघात शब्दों को द्विघात रूप (सांख्यिकी) के रूप में फिर से व्यवस्थित किया जा सकता है .[4]

अब पश्च भाग को व्युत्क्रम-गामा वितरण के समय सामान्य वितरण के रूप में व्यक्त किया जा सकता है:

इसलिए, पश्च वितरण को निम्नानुसार पैरामीट्रिज्ड किया जा सकता है।
जहां दो कारक के घनत्व के अनुरूप हैं और वितरण, इनके द्वारा दिए गए मापदंडों के साथ

जो बायेसियन अनुमान को पूर्व में निहित जानकारी और नमूने में निहित जानकारी के बीच एक समझौता दर्शाता है।

मॉडल साक्ष्य

मॉडल साक्ष्य मॉडल दिए गए डेटा की संभावना है . इसे सीमांत संभावना और पूर्व पूर्वानुमानित घनत्व के रूप में भी जाना जाता है। यहां, मॉडल को संभावना फलन द्वारा परिभाषित किया गया है और मापदंडों पर पूर्व वितरण, यानी। . मॉडल साक्ष्य एक ही संख्या में कैप्चर करता है कि ऐसा मॉडल टिप्पणियों को कितनी अच्छी तरह समझाता है। इस खंड में प्रस्तुत बायेसियन रैखिक प्रतिगमन मॉडल के मॉडल साक्ष्य का उपयोग बायेसियन मॉडल तुलना द्वारा प्रतिस्पर्धी रैखिक मॉडल की तुलना करने के लिए किया जा सकता है। ये मॉडल भविष्यवक्ता चर की संख्या और मूल्यों के साथ-साथ मॉडल मापदंडों पर उनके पूर्ववर्तियों में भिन्न हो सकते हैं। मॉडल साक्ष्य द्वारा मॉडल जटिलता को पहले से ही ध्यान में रखा गया है, क्योंकि यह एकीकृत करके मापदंडों को हाशिए पर रख देता है के सभी संभावित मूल्यों पर और .

इस अभिन्न की गणना विश्लेषणात्मक रूप से की जा सकती है और समाधान निम्नलिखित समीकरण में दिया गया है।[5]
यहाँ गामा फलन को दर्शाता है। क्योंकि हमने पहले एक संयुग्म चुना है, सीमांत संभावना की गणना मनमाने मूल्यों के लिए निम्नलिखित समानता का मूल्यांकन करके आसानी से की जा सकती है और .
ध्यान दें कि यह समीकरण बेयस प्रमेय की पुनर्व्यवस्था के अलावा और कुछ नहीं है। पूर्व, संभावना और पश्च के लिए सूत्र सम्मिलित करने और परिणामी अभिव्यक्ति को सरल बनाने से ऊपर दी गई विश्लेषणात्मक अभिव्यक्ति प्राप्त होती है।

अन्य मामले

सामान्य तौर पर, विश्लेषणात्मक रूप से पश्च वितरण प्राप्त करना असंभव या अव्यावहारिक हो सकता है। हालाँकि, मोंटे कार्लो नमूनाकरण जैसी अनुमानित बायेसियन गणना विधि द्वारा पश्च भाग का अनुमान लगाना संभव है[6] या वैरिएबल बेयस

विशेष मामला रिज प्रतिगमन कहा जाता है।

एक समान विश्लेषण बहुभिन्नरूपी प्रतिगमन के सामान्य मामले के लिए किया जा सकता है और इसका एक हिस्सा सहप्रसरण मैट्रिक्स के बायेसियन अनुमान के लिए प्रदान करता है: बायेसियन बहुभिन्नरूपी रैखिक प्रतिगमन देखें।

यह भी देखें

टिप्पणियाँ

  1. See Jackman (2009), p. 101.
  2. See Gelman et al. (2013), p. 354.
  3. The intermediate steps of this computation can be found in O'Hagan (1994) at the beginning of the chapter on Linear models.
  4. The intermediate steps are in Fahrmeir et al. (2009) on page 188.
  5. The intermediate steps of this computation can be found in O'Hagan (1994) on page 257.
  6. Carlin and Louis(2008) and Gelman, et al. (2003) explain how to use sampling methods for Bayesian linear regression.


संदर्भ

  • Box, G. E. P.; Tiao, G. C. (1973). Bayesian Inference in Statistical Analysis. Wiley. ISBN 0-471-57428-7.
  • Carlin, Bradley P.; Louis, Thomas A. (2008). Bayesian Methods for Data Analysis (Third ed.). Boca Raton, FL: Chapman and Hall/CRC. ISBN 1-58488-697-8.
  • Fahrmeir, L.; Kneib, T.; Lang, S. (2009). Regression. Modelle, Methoden und Anwendungen (Second ed.). Heidelberg: Springer. doi:10.1007/978-3-642-01837-4. ISBN 978-3-642-01836-7.
  • Gelman, Andrew; et al. (2013). "Introduction to regression models". Bayesian Data Analysis (Third ed.). Boca Raton, FL: Chapman and Hall/CRC. pp. 353–380. ISBN 978-1-4398-4095-5.
  • Jackman, Simon (2009). "Regression models". Bayesian Analysis for the Social Sciences. Wiley. pp. 99–124. ISBN 978-0-470-01154-6.
  • Rossi, Peter E.; Allenby, Greg M.; McCulloch, Robert (2006). Bayesian Statistics and Marketing. John Wiley & Sons. ISBN 0470863676.
  • O'Hagan, Anthony (1994). Bayesian Inference. Kendall's Advanced Theory of Statistics. Vol. 2B (First ed.). Halsted. ISBN 0-340-52922-9.


बाहरी संबंध