डिरिचलेट-बहुपद वितरण: Difference between revisions
No edit summary |
No edit summary |
||
Line 32: | Line 32: | ||
जब ''n'' = 1 होता है तो यह विशेष स्तिथियों के रूप में [[श्रेणीबद्ध वितरण]] को कम कर देता है। यह उच्च ''α'' के लिए स्वैच्छिक रूप से बहुपद वितरण का भी अनुमान लगाता है। डिरिचलेट-बहुपद वितरण बीटा-[[द्विपद वितरण]] का बहुभिन्नरूपी विस्तार है, क्योंकि बहुपद और डिरिचलेट वितरण क्रमशः द्विपद वितरण और [[बीटा वितरण]] के बहुभिन्नरूपी संस्करण हैं। | जब ''n'' = 1 होता है तो यह विशेष स्तिथियों के रूप में [[श्रेणीबद्ध वितरण]] को कम कर देता है। यह उच्च ''α'' के लिए स्वैच्छिक रूप से बहुपद वितरण का भी अनुमान लगाता है। डिरिचलेट-बहुपद वितरण बीटा-[[द्विपद वितरण]] का बहुभिन्नरूपी विस्तार है, क्योंकि बहुपद और डिरिचलेट वितरण क्रमशः द्विपद वितरण और [[बीटा वितरण]] के बहुभिन्नरूपी संस्करण हैं। | ||
==विनिर्देश== | ==विनिर्देश == | ||
===डिरिचलेट-बहुपद वितरण [[यौगिक वितरण]] के रूप में=== | ===डिरिचलेट-बहुपद वितरण [[यौगिक वितरण]] के रूप में=== | ||
Line 40: | Line 40: | ||
:<math>\Pr(\mathbf{x}\mid n,\boldsymbol{\alpha})=\int_{\mathbf{p}}\mathrm{Mult}(\mathbf{x}\mid n,\mathbf{p})\mathrm{Dir}(\mathbf{p}\mid\boldsymbol{\alpha})\textrm{d}\mathbf{p}</math> | :<math>\Pr(\mathbf{x}\mid n,\boldsymbol{\alpha})=\int_{\mathbf{p}}\mathrm{Mult}(\mathbf{x}\mid n,\mathbf{p})\mathrm{Dir}(\mathbf{p}\mid\boldsymbol{\alpha})\textrm{d}\mathbf{p}</math> | ||
जिसके परिणामस्वरूप निम्नलिखित स्पष्ट सूत्र प्राप्त होता है: | जिसके परिणामस्वरूप निम्नलिखित स्पष्ट सूत्र प्राप्त होता है: | ||
:<math>\Pr(\mathbf{x}\mid n, \boldsymbol{\alpha})=\frac{\Gamma\left(\alpha_0\right)\Gamma\left(n+1\right)} | :<math>\Pr(\mathbf{x}\mid n, \boldsymbol{\alpha})=\frac{\Gamma\left(\alpha_0\right)\Gamma\left(n+1\right)} | ||
Line 50: | Line 50: | ||
</math> | </math> | ||
इसके अतिरिक्त | इसके अतिरिक्त रूप से इस तथ्य पर जोर देता है कि गणना में शून्य गिनती श्रेणियों को अनदेखा किया जा सकता है - उपयोगी तथ्य जब श्रेणियों की संख्या अधिक उच्च है और [[विरल मैट्रिक्स|विरल आव्युह]] (उदाहरण के लिए डाक्यूमेंट्स में शब्द गिनती)। | ||
ध्यान दें कि पीडीएफ बीटा-द्विपद वितरण है जब <math>K=2</math> यह भी दिखाया जा सकता है कि यह बहुपद वितरण तक पहुंचता है क्योंकि <math>\alpha_{0}</math> अनंत तक पहुंचता है। पैरामीटर <math>\alpha_{0}</math> बहुपद के सापेक्ष | ध्यान दें कि पीडीएफ बीटा-द्विपद वितरण है जब <math>K=2</math> यह भी दिखाया जा सकता है कि यह बहुपद वितरण तक पहुंचता है क्योंकि <math>\alpha_{0}</math> अनंत तक पहुंचता है। पैरामीटर <math>\alpha_{0}</math> बहुपद के सापेक्ष अतिविस्तार या विस्फोट की डिग्री को नियंत्रित करता है। साहित्य में पाए गए <math>\alpha_{0}</math> को दर्शाने के लिए वैकल्पिक विकल्प ''S'' और ''A'' हैं। | ||
===डिरिचलेट-बहुपद वितरण [[कलश मॉडल]] के रूप में=== | ===डिरिचलेट-बहुपद वितरण [[कलश मॉडल]] के रूप में === | ||
इस प्रकार से डिरिचलेट-बहुपद वितरण को सदिश α के धनात्मक-अर्धनिश्चित [[पूर्णांक]] मानों के लिए एक कलश मॉडल के माध्यम से भी प्रेरित किया जा सकता है, जिसे पॉली कलश मॉडल के रूप में जाना जाता है। विशेष रूप से, एक कलश की कल्पना करें जिसमें ith रंग के लिए <math>\alpha_{i}</math> क्रमांकित ''K'' रंगों की गेंदें हों, जहां यादृच्छिक ड्रॉ बनाए जाते हैं। जब एक गेंद को यादृच्छिक रूप से निकाला जाता है और उसका अवलोकन किया जाता है, तो एक ही रंग की दो गेंदें कलश में वापस आ जाती हैं। यदि इसे n बार किया जाता है, तो रंग गणना के यादृच्छिक सदिश <math>x</math> को देखने की संभावना पैरामीटर ''n'' और ''α'' के साथ एक डिरिचलेट-बहुपद वितरण है। | इस प्रकार से डिरिचलेट-बहुपद वितरण को सदिश α के धनात्मक-अर्धनिश्चित [[पूर्णांक]] मानों के लिए एक कलश मॉडल के माध्यम से भी प्रेरित किया जा सकता है, जिसे पॉली कलश मॉडल के रूप में जाना जाता है। विशेष रूप से, एक कलश की कल्पना करें जिसमें ith रंग के लिए <math>\alpha_{i}</math> क्रमांकित ''K'' रंगों की गेंदें हों, जहां यादृच्छिक ड्रॉ बनाए जाते हैं। जब एक गेंद को यादृच्छिक रूप से निकाला जाता है और उसका अवलोकन किया जाता है, तो एक ही रंग की दो गेंदें कलश में वापस आ जाती हैं। यदि इसे n बार किया जाता है, तो रंग गणना के यादृच्छिक सदिश <math>x</math> को देखने की संभावना पैरामीटर ''n'' और ''α'' के साथ एक डिरिचलेट-बहुपद वितरण है। | ||
यदि यादृच्छिक ड्रॉ सरल प्रतिस्थापन के साथ होते हैं (अवलोकित गेंद के ऊपर और ऊपर कोई भी गेंद कलश में नहीं जोड़ी जाती है), तो वितरण बहुपद वितरण का अनुसरण करता है और यदि यादृच्छिक ड्रॉ प्रतिस्थापन के बिना किया जाता है, तो वितरण बहुभिन्नरूपी हाइपरज्यामितीय वितरण का अनुसरण करता है। | यदि यादृच्छिक ड्रॉ सरल प्रतिस्थापन के साथ होते हैं (अवलोकित गेंद के ऊपर और ऊपर कोई भी गेंद कलश में नहीं जोड़ी जाती है), तो वितरण बहुपद वितरण का अनुसरण करता है और यदि यादृच्छिक ड्रॉ प्रतिस्थापन के बिना किया जाता है, तो वितरण बहुभिन्नरूपी हाइपरज्यामितीय वितरण का अनुसरण करता है। | ||
==गुण== | ==गुण == | ||
===क्षण=== | ===क्षण=== | ||
पुनः फिर, मान लीजिए <math>\alpha_0 = \sum \alpha_k</math> और मान लीजिए <math>p_i =\frac{\alpha_i}{\sum \alpha_k}=\frac{\alpha_i}{\alpha_0}</math> तो अपेक्षित संख्या यह है कि ''n'' परीक्षणों में i का परिणाम की अपेक्षित मान संख्या है | |||
:<math>\operatorname{E}(X_i) = n p_i=n\frac{\alpha_i}{\alpha_0}.\,</math> | :<math>\operatorname{E}(X_i) = n p_i=n\frac{\alpha_i}{\alpha_0}.\,</math> | ||
: | : | ||
सहप्रसरण आव्युह इस प्रकार है। प्रत्येक विकर्ण प्रविष्टि बीटा-द्विपदीय रूप से वितरित यादृच्छिक | सहप्रसरण आव्युह इस प्रकार है। प्रत्येक विकर्ण प्रविष्टि बीटा-द्विपदीय रूप से वितरित यादृच्छिक वेरिएबल का विचरण है, और इसलिए है | ||
:<math>\operatorname{var}(X_i)=np_i(1-p_i)\left(\frac{n+\sum \alpha_k}{1+\sum \alpha_k}\right)=n\frac{\alpha_i}{\alpha_0}\left(1-\frac{\alpha_i}{\alpha_0}\right)\left(\frac{n+\alpha_0}{1+\alpha_0}\right).\,</math> | :<math>\operatorname{var}(X_i)=np_i(1-p_i)\left(\frac{n+\sum \alpha_k}{1+\sum \alpha_k}\right)=n\frac{\alpha_i}{\alpha_0}\left(1-\frac{\alpha_i}{\alpha_0}\right)\left(\frac{n+\alpha_0}{1+\alpha_0}\right).\,</math> | ||
Line 75: | Line 75: | ||
i, j के लिए विशिष्ट है। | i, j के लिए विशिष्ट है। | ||
सभी सहप्रसरण ऋणात्मक हैं क्योंकि निश्चित n के लिए, डिरिचलेट-बहुपद वितरण सदिश के | सभी सहप्रसरण ऋणात्मक हैं क्योंकि निश्चित n के लिए, डिरिचलेट-बहुपद वितरण सदिश के अवयव में वृद्धि के लिए दूसरे अवयव में कमी की आवश्यकता होती है। | ||
यह [[रैंक (रैखिक बीजगणित)]] K - 1 का K × K धनात्मक-अर्धनिश्चित आव्युह है। | यह [[रैंक (रैखिक बीजगणित)]] K - 1 का K × K धनात्मक-अर्धनिश्चित आव्युह है। | ||
Line 85: | Line 85: | ||
नमूना आकार इस अभिव्यक्ति से बाहर हो जाता है। | नमूना आकार इस अभिव्यक्ति से बाहर हो जाता है। | ||
प्रत्येक k | प्रत्येक k अवयव में भिन्न -भिन्न बीटा-द्विपद वितरण होता है। | ||
डिरिचलेट-बहुपद वितरण का [[समर्थन (गणित)]] समुच्चय है | डिरिचलेट-बहुपद वितरण का [[समर्थन (गणित)]] समुच्चय है | ||
: <math>\{(n_1,\dots,n_k)\in \mathbb{N}^{k}| n_1+\cdots+n_k=n\}.\,</math> | : <math>\{(n_1,\dots,n_k)\in \mathbb{N}^{k}| n_1+\cdots+n_k=n\}.\,</math> | ||
इसके | इसके अवयवों की संख्या है | ||
: <math>{n+k-1 \choose k-1}.</math> | : <math>{n+k-1 \choose k-1}.</math> | ||
Line 106: | Line 106: | ||
:<math>\operatorname{var}(\mathbf{X}) = n \lbrace \operatorname{diag}(\mathbf{p}) - \mathbf{p}\mathbf{p}^{\rm T} \rbrace (1+\rho^2(n-1)) ,\,</math> | :<math>\operatorname{var}(\mathbf{X}) = n \lbrace \operatorname{diag}(\mathbf{p}) - \mathbf{p}\mathbf{p}^{\rm T} \rbrace (1+\rho^2(n-1)) ,\,</math> | ||
पैरामीटर <math> \rho \!</math> इसे इंट्रा क्लास या इंट्रा क्लस्टर सहसंबंध के रूप में जाना जाता है। यह धनात्मक-अर्धनिश्चित सहसंबंध है जो बहुपद वितरण के सापेक्ष | पैरामीटर <math> \rho \!</math> इसे इंट्रा क्लास या इंट्रा क्लस्टर सहसंबंध के रूप में जाना जाता है। यह धनात्मक-अर्धनिश्चित सहसंबंध है जो बहुपद वितरण के सापेक्ष अति विस्तार को उत्पन्न करता है। | ||
===एकत्रीकरण=== | ===एकत्रीकरण=== | ||
Line 118: | Line 118: | ||
==संभावना फलन == | ==संभावना फलन == | ||
वैचारिक रूप से, हम K श्रेणियों के साथ श्रेणीबद्ध वितरण से N स्वतंत्र ड्रॉ बना रहे हैं। आइए हम स्वतंत्र ड्रा को यादृच्छिक श्रेणीगत वेरिएबल के रूप में प्रस्तुत करें <math>z_n</math> के लिए <math>n = 1 \dots N</math>. आइए हम किसी विशेष श्रेणी <math>k</math> को कितनी बार निरूपित करें ( <math>k = 1 \dots K</math>के लिए) देखा गया है सभी श्रेणीगत वेरिएबल के मध्य <math>n_k</math>, और <math>\sum_k n_k = N</math>. फिर, इस समस्या पर हमारे दो | वैचारिक रूप से, हम K श्रेणियों के साथ श्रेणीबद्ध वितरण से N स्वतंत्र ड्रॉ बना रहे हैं। आइए हम स्वतंत्र ड्रा को यादृच्छिक श्रेणीगत वेरिएबल के रूप में प्रस्तुत करें <math>z_n</math> के लिए <math>n = 1 \dots N</math>. आइए हम किसी विशेष श्रेणी <math>k</math> को कितनी बार निरूपित करें ( <math>k = 1 \dots K</math>के लिए) देखा गया है सभी श्रेणीगत वेरिएबल के मध्य <math>n_k</math>, और <math>\sum_k n_k = N</math>. फिर, इस समस्या पर हमारे दो भिन्न -भिन्न विचार हैं: | ||
# | # <math>N</math> का समुच्चय श्रेणीगत वेरिएबल <math>z_1,\dots,z_N</math>. | ||
# एकल सदिश-मान वान वेरिएबल <math>\mathbf{x}=(n_1,\dots,n_K)</math>, बहुपद वितरण के अनुसार वितरित है । | # एकल सदिश-मान वान वेरिएबल <math>\mathbf{x}=(n_1,\dots,n_K)</math>, बहुपद वितरण के अनुसार वितरित है । | ||
पहला स्तिथि यादृच्छिक वेरिएबल का समुच्चय है जो प्रत्येक व्यक्तिगत परिणाम को निर्दिष्ट करता है, इसके पश्चात वाला वेरिएबल है जो प्रत्येक के श्रेणियों के परिणामों की संख्या निर्दिष्ट करता है। अंतर महत्वपूर्ण है, क्योंकि दोनों स्तिथियों में संगत रूप से | पहला स्तिथि यादृच्छिक वेरिएबल का समुच्चय है जो प्रत्येक व्यक्तिगत परिणाम को निर्दिष्ट करता है, इसके पश्चात वाला वेरिएबल है जो प्रत्येक के श्रेणियों के परिणामों की संख्या निर्दिष्ट करता है। अंतर महत्वपूर्ण है, क्योंकि दोनों स्तिथियों में संगत रूप से भिन्न -भिन्न संभाव्यता वितरण हैं। | ||
श्रेणीबद्ध वितरण का पैरामीटर <math>\mathbf{p} = (p_1,p_2,\dots,p_K),</math> है जहाँ <math>p_k</math> मान <math>k</math> निकालने की संभावना | श्रेणीबद्ध वितरण का पैरामीटर <math>\mathbf{p} = (p_1,p_2,\dots,p_K),</math> है जहाँ <math>p_k</math> मान <math>k</math> निकालने की संभावना <math>\mathbf{p}</math> है ; इसी प्रकार बहुपद वितरण <math>P(\mathbf{x}|\mathbf{p})</math> का पैरामीटर भी है . निर्दिष्ट करने के अतिरिक्त <math>\mathbf{p}</math> सामान्यता पर , हम इसे संयुग्मित पूर्व वितरण देते हैं, और इसलिए इसे पैरामीटर सदिश <math>\boldsymbol\alpha=(\alpha_1,\alpha_2,\ldots,\alpha_K)</math> के साथ डिरिचलेट वितरण से लिया जाता है . | ||
एकीकृत करके <math>\mathbf{p}</math>, हम मिश्रित वितरण प्राप्त करते हैं। चूंकि , वितरण का स्वरूप इस पर निर्भर करता है कि हम कौन सा दृष्टिकोण उसके आधार पर वितरण का रूप भिन्न होता हैं। | एकीकृत करके <math>\mathbf{p}</math>, हम मिश्रित वितरण प्राप्त करते हैं। चूंकि , वितरण का स्वरूप इस पर निर्भर करता है कि हम कौन सा दृष्टिकोण उसके आधार पर वितरण का रूप भिन्न होता हैं। | ||
Line 148: | Line 148: | ||
:<math>\Pr(z_n=k\mid\mathbb{Z}^{(-n)},\boldsymbol{\alpha}) \propto n_k^{(-n)} + \alpha_k</math> | :<math>\Pr(z_n=k\mid\mathbb{Z}^{(-n)},\boldsymbol{\alpha}) \propto n_k^{(-n)} + \alpha_k</math> | ||
जहाँ <math>n_k^{(-n)}</math> श्रेणी की गिनती की संख्या निर्दिष्ट करता है <math>k</math> के अतिरिक्त सभी वेरिएबल्स | जहाँ <math>n_k^{(-n)}</math> श्रेणी की गिनती की संख्या निर्दिष्ट करता है <math>k</math> के अतिरिक्त सभी वेरिएबल्स <math>z_n</math> में देखा जाता है . | ||
यह दिखाना उपयोगी हो सकता है कि इस सूत्र को कैसे प्राप्त किया जाए। सामान्यतः पर , [[सशर्त वितरण]] संबंधित संयुक्त वितरण के लिए आनुपातिक होते हैं, इसलिए हम सभी <math>z_1,\dots,z_N</math> मानों के संयुक्त वितरण के लिए उपरोक्त सूत्र से प्रारंभ करते हैं और फिर किसी भी कारक को समाप्त कर देते हैं जो प्रश्न में विशेष <math>z_n</math> पर निर्भर नहीं होता है। ऐसा करने के लिए, हम ऊपर परिभाषित नोटेशन <math>n_k^{(-n)}</math> का उपयोग करते हैं, और | यह दिखाना उपयोगी हो सकता है कि इस सूत्र को कैसे प्राप्त किया जाए। सामान्यतः इस पर , [[सशर्त वितरण]] संबंधित संयुक्त वितरण के लिए आनुपातिक होते हैं, इसलिए हम सभी <math>z_1,\dots,z_N</math> मानों के संयुक्त वितरण के लिए उपरोक्त सूत्र से प्रारंभ करते हैं और फिर किसी भी कारक को समाप्त कर देते हैं जो प्रश्न में विशेष <math>z_n</math> पर निर्भर नहीं होता है। ऐसा करने के लिए, हम ऊपर परिभाषित नोटेशन <math>n_k^{(-n)}</math> का उपयोग करते हैं, और | ||
:<math> | :<math> | ||
Line 176: | Line 176: | ||
\end{align} | \end{align} | ||
</math> | </math> | ||
सामान्यतः पर, सशर्त वितरण के लिए समीकरण प्राप्त करते समय [[सामान्यीकरण स्थिरांक]] के बारे में चिंता करना आवश्यक नहीं है। सामान्यीकरण स्थिरांक को वितरण से नमूने के लिए एल्गोरिदम के भाग के रूप में निर्धारित किया जाएगा (श्रेणीबद्ध वितरण | सामान्यतः पर, सशर्त वितरण के लिए समीकरण प्राप्त करते समय [[सामान्यीकरण स्थिरांक]] के बारे में चिंता करना आवश्यक नहीं है। सामान्यीकरण स्थिरांक को वितरण से नमूने के लिए एल्गोरिदम के भाग के रूप में निर्धारित किया जाएगा (श्रेणीबद्ध वितरण या नमूनाकरण देखें)। चूंकि , जब सशर्त वितरण ऊपर सरल रूप में लिखा जाता है, तो यह पता चलता है कि सामान्यीकरण स्थिरांक सरल रूप धारण करता है: | ||
:<math>\sum_k \left( n_k^{(-n)} + \alpha_k \right) = A + \sum_k n_k^{(-n)} = A + N - 1</math> | :<math>\sum_k \left( n_k^{(-n)} + \alpha_k \right) = A + \sum_k n_k^{(-n)} = A + N - 1</math> | ||
Line 184: | Line 184: | ||
यह फ़ॉर्मूला [[चीनी रेस्तरां प्रक्रिया]] से निकटता से संबंधित है, जो <math>K \to \infty</math> सीमा को इस रूप में लेने से उत्पन्न होता है . | यह फ़ॉर्मूला [[चीनी रेस्तरां प्रक्रिया]] से निकटता से संबंधित है, जो <math>K \to \infty</math> सीमा को इस रूप में लेने से उत्पन्न होता है . | ||
====[[बायेसियन नेटवर्क]] में==== | ====[[बायेसियन नेटवर्क]] में ==== | ||
इस प्रकार से उच्च बायेसियन नेटवर्क में, जिसमें श्रेणीबद्ध (या तथाकथित बहुपद) वितरण उच्च नेटवर्क के भागो के रूप में डिरिचलेट वितरण प्रायर के साथ होते हैं, सभी डिरिचलेट प्रायर को संक्षिप्त किया जा सकता है, चूंकि उन पर निर्भर एकमात्र नोड श्रेणीबद्ध वितरण पर निर्भर हो सकता है। पतन प्रत्येक डिरिचलेट-वितरण नोड के लिए दूसरों से | इस प्रकार से उच्च बायेसियन नेटवर्क में, जिसमें श्रेणीबद्ध (या तथाकथित बहुपद) वितरण उच्च नेटवर्क के भागो के रूप में डिरिचलेट वितरण प्रायर के साथ होते हैं, सभी डिरिचलेट प्रायर को संक्षिप्त किया जा सकता है, चूंकि उन पर निर्भर एकमात्र नोड श्रेणीबद्ध वितरण पर निर्भर हो सकता है। पतन प्रत्येक डिरिचलेट-वितरण नोड के लिए दूसरों से भिन्न होता है, और किसी भी अन्य नोड की अधीन होता है जो श्रेणीबद्ध वितरण पर निर्भर हो सकता है। यह इस तथ्य के अधीन किए बिना भी होता है कि क्या श्रेणीबद्ध वितरण डिरिचलेट प्रायर के अतिरिक्त नोड्स पर निर्भर करते हैं (चूंकि ऐसे स्तिथियों में, उन अन्य नोड्स को अतिरिक्त कंडीशनिंग कारकों के रूप में रहना चाहिए)। अनिवार्य रूप से, किसी दिए गए डिरिचलेट-वितरण नोड के आधार पर सभी श्रेणीबद्ध वितरण उपरोक्त सूत्र द्वारा परिभाषित एकल डिरिचलेट-बहुपद वितरण संयुक्त वितरण में जुड़ जाते हैं। इस प्रकार से परिभाषित संयुक्त वितरण एकीकृत-आउट डिरिचेट पूर्व नोड्स के मूल पर निर्भर करता है , साथ ही डिरिचलेट पूर्व नोड्स के अतिरिक्त श्रेणीबद्ध नोड्स के किसी भी मूल पर निर्भर करता है । | ||
निम्नलिखित अनुभागों में, हम सामान्यतः बायेसियन नेटवर्क में पाए जाने वाले विभिन्न कॉन्फ़िगरेशन पर | निम्नलिखित अनुभागों में, हम सामान्यतः बायेसियन नेटवर्क में पाए जाने वाले विभिन्न कॉन्फ़िगरेशन पर चर्चा करते हैं। हम ऊपर से संभाव्यता घनत्व दोहराते हैं, और इसे प्रतीक <math>\operatorname{DirMult}(\mathbb{Z}\mid\boldsymbol{\alpha})</math> का उपयोग करके परिभाषित करते हैं : | ||
:<math>\Pr(\mathbb{Z}\mid\boldsymbol{\alpha})=\operatorname{DirMult}(\mathbb{Z}\mid\boldsymbol{\alpha})=\frac{\Gamma\left(\sum_k \alpha_k\right)} | :<math>\Pr(\mathbb{Z}\mid\boldsymbol{\alpha})=\operatorname{DirMult}(\mathbb{Z}\mid\boldsymbol{\alpha})=\frac{\Gamma\left(\sum_k \alpha_k\right)} | ||
Line 204: | Line 204: | ||
\end{array} | \end{array} | ||
</math> | </math> | ||
इस प्रकार के स्तिथियों में, हमारे पास अनेक डिरिचेट प्रायर हैं, जिनमें से प्रत्येक कुछ संख्या में श्रेणीबद्ध अवलोकन उत्पन्न करता है (संभवतः प्रत्येक पूर्व के लिए | इस प्रकार के स्तिथियों में, हमारे पास अनेक डिरिचेट प्रायर हैं, जिनमें से प्रत्येक कुछ संख्या में श्रेणीबद्ध अवलोकन उत्पन्न करता है (संभवतः प्रत्येक पूर्व के लिए भिन्न संख्या)। तथ्य यह है कि वे सभी ही हाइपरप्रायर पर निर्भर हैं, तथापि यह ऊपर जैसा यादृच्छिक वेरिएबल हो, इससे कोई भिन्नता नहीं है । डिरिचलेट पूर्व को एकीकृत करने का प्रभाव उस पूर्व से जुड़े श्रेणीबद्ध वेरिएबल को जोड़ता है, जिसका संयुक्त वितरण बस डिरिचलेट पूर्व के किसी भी कंडीशनिंग कारकों को प्राप्त करता है। तथ्य यह है कि अनेक प्रायर हाइपरप्रियर साझा कर सकते हैं, इससे कोई भिन्नता नहीं है : | ||
:<math>\Pr(\mathbb{Z}\mid\boldsymbol\alpha) = \prod_d \operatorname{DirMult}(\mathbb{Z}_d\mid\boldsymbol\alpha)</math> | :<math>\Pr(\mathbb{Z}\mid\boldsymbol\alpha) = \prod_d \operatorname{DirMult}(\mathbb{Z}_d\mid\boldsymbol\alpha)</math> | ||
Line 218: | Line 218: | ||
=====ही हाइपरप्रियर वाले एकाधिक डिरिचलेट प्रायर , आश्रित चिल्ड्रेन ही ===== | =====ही हाइपरप्रियर वाले एकाधिक डिरिचलेट प्रायर , आश्रित चिल्ड्रेन ही ===== | ||
अब थोड़ा अधिक | अब थोड़ा अधिक सम्मिश्र पदानुक्रमित मॉडल की कल्पना इस प्रकार करें: | ||
:<math> | :<math> | ||
Line 236: | Line 236: | ||
केवल उनके पैरेंट्स और प्रायरों पर निर्भर श्रेणीगत वेरिएबल का सशर्त वितरण सरल स्तिथियों में उपरोक्त के समान रूप होगा। चूंकि , गिब्स नमूने में किसी दिए गए नोड के सशर्त वितरण <math>z_{dn}</math> को निर्धारित करना आवश्यक है केवल <math>\mathbb{Z}^{(-dn)}</math> पर निर्भर नहीं है और प्रायर जैसे <math>\alpha</math> किन्तु अन्य सभी मापदंडों पर भिन्न होते है । | केवल उनके पैरेंट्स और प्रायरों पर निर्भर श्रेणीगत वेरिएबल का सशर्त वितरण सरल स्तिथियों में उपरोक्त के समान रूप होगा। चूंकि , गिब्स नमूने में किसी दिए गए नोड के सशर्त वितरण <math>z_{dn}</math> को निर्धारित करना आवश्यक है केवल <math>\mathbb{Z}^{(-dn)}</math> पर निर्भर नहीं है और प्रायर जैसे <math>\alpha</math> किन्तु अन्य सभी मापदंडों पर भिन्न होते है । | ||
सशर्त वितरण के लिए सरलीकृत अभिव्यक्ति ऊपर संयुक्त संभाव्यता के लिए अभिव्यक्ति को फिर से लिखकर और निरंतर कारकों को हटाकर प्राप्त की गई है। इसलिए, वही सरलीकरण उच्च संयुक्त संभाव्यता अभिव्यक्ति में प्रयुक्त होगा जैसे कि इस मॉडल में, डिरिचलेट-बहुपद वितरण घनत्व और श्रेणीबद्ध वेरिएबल के मान पर निर्भर | सशर्त वितरण के लिए सरलीकृत अभिव्यक्ति ऊपर संयुक्त संभाव्यता के लिए अभिव्यक्ति को फिर से लिखकर और निरंतर कारकों को हटाकर प्राप्त की गई है। इसलिए, वही सरलीकरण उच्च संयुक्त संभाव्यता अभिव्यक्ति में प्रयुक्त होगा जैसे कि इस मॉडल में, डिरिचलेट-बहुपद वितरण घनत्व और श्रेणीबद्ध वेरिएबल के मान पर निर्भर अनेक अन्य यादृच्छिक वेरिएबल के कारकों से बना है। | ||
: | इससे निम्नलिखित परिणाम मिलते हैं: | ||
:<math>\Pr(z_{dn}=k\mid\mathbb{Z}^{(-dn)},\mathbb{W},\boldsymbol\alpha,\boldsymbol\phi)\ \propto\ (n_{k,d}^{(-n)} + \alpha_k) \operatorname{F}(w_{dn}\mid z_{dn},\boldsymbol\phi)</math> | |||
यहाँ की संभाव्यता घनत्व <math>\operatorname{F}</math> प्रत्यक्ष रूप से प्रकट होता है. मान लीजिये <math>z_{dn}</math> [[छद्म-यादृच्छिक संख्या नमूनाकरण]] करने के लिए , हम सभी संभावनाओं के लिए K असामान्य संभावनाओं की गणना करेंगे उपरोक्त सूत्र <math>z_{dn}</math> का उपयोग करके, फिर उन्हें सामान्य करें और श्रेणीबद्ध वितरण आलेख में वर्णित एल्गोरिदम का उपयोग करके सामान्य रूप से आगे बढ़ेंगे। | |||
सही प्रकार से कहें तो, सशर्त वितरण में दिखाई देने वाला अतिरिक्त कारक मॉडल विनिर्देश से नहीं किन्तु सीधे संयुक्त वितरण से प्राप्त होता है। यह अंतर उन मॉडलों पर विचार करते समय महत्वपूर्ण है जहां डिरिचलेट-पूर्व पैरेंट्स के साथ दिए गए नोड में | सही प्रकार से कहें तो, सशर्त वितरण में दिखाई देने वाला अतिरिक्त कारक मॉडल विनिर्देश से नहीं किन्तु सीधे संयुक्त वितरण से प्राप्त होता है। यह अंतर उन मॉडलों पर विचार करते समय महत्वपूर्ण है जहां डिरिचलेट-पूर्व पैरेंट्स के साथ दिए गए नोड में अनेक आश्रित चिल्ड्रेन हैं, विशेषकर जब वे चिल्ड्रेन एक-दूसरे पर निर्भर होते हैं (उदाहरण के लिए यदि वे पैरेंट्स को साझा करते हैं जो भिन्न हो गए हैं)। इस पर नीचे अधिक वेरिएबल की गई है। | ||
=====पूर्व सदस्यता परिवर्तन के साथ एकाधिक डिरिचलेट प्रायर===== | =====पूर्व सदस्यता परिवर्तन के साथ एकाधिक डिरिचलेट प्रायर===== | ||
Line 261: | Line 260: | ||
यहां हमारे पास यह कठिन स्थिति है जहां हमारे पास पहले की तरह अनेक डिरिचलेट पूर्व और आश्रित श्रेणीगत वेरिएबल का समुच्चय है, किन्तु पहले के विपरीत, पूर्व और आश्रित वेरिएबल के मध्य संबंध स्थापित नहीं है। इसके अतिरिक्त , उपयोग से पहले का चुनाव किसी अन्य यादृच्छिक श्रेणीबद्ध वेरिएबल पर निर्भर है। ऐसा होता है, उदाहरण के लिए, विषय मॉडल में, और वास्तव में उपरोक्त वेरिएबल के नाम [[अव्यक्त डिरिचलेट आवंटन]] के अनुरूप होते हैं। इस स्तिथियों <math>\mathbb{W}</math> में, समुच्चय शब्दों का समूह है, जिनमें से प्रत्येक शब्द किसी से लिया गया है संभावित विषय, जहां प्रत्येक <math>K</math> विषय की शब्दावली से पहले डिरिचलेट है <math>V</math> संभावित शब्द, विषय में विभिन्न शब्दों की आवृत्ति निर्दिष्ट करते हुए। चूंकि , किसी दिए गए शब्द की विषय सदस्यता निश्चित नहीं है; किन्तु , यह [[अव्यक्त चर|अव्यक्त वेरिएबल]] के समुच्चय से निर्धारित होता है <math>\mathbb{Z}</math>. प्रति शब्द अव्यक्त वेरिएबल है, जहाँ <math>K</math> -आयामी श्रेणीबद्ध वेरिएबल उस विषय को निर्दिष्ट करता है जिससे शब्द संबंधित है। | यहां हमारे पास यह कठिन स्थिति है जहां हमारे पास पहले की तरह अनेक डिरिचलेट पूर्व और आश्रित श्रेणीगत वेरिएबल का समुच्चय है, किन्तु पहले के विपरीत, पूर्व और आश्रित वेरिएबल के मध्य संबंध स्थापित नहीं है। इसके अतिरिक्त , उपयोग से पहले का चुनाव किसी अन्य यादृच्छिक श्रेणीबद्ध वेरिएबल पर निर्भर है। ऐसा होता है, उदाहरण के लिए, विषय मॉडल में, और वास्तव में उपरोक्त वेरिएबल के नाम [[अव्यक्त डिरिचलेट आवंटन]] के अनुरूप होते हैं। इस स्तिथियों <math>\mathbb{W}</math> में, समुच्चय शब्दों का समूह है, जिनमें से प्रत्येक शब्द किसी से लिया गया है संभावित विषय, जहां प्रत्येक <math>K</math> विषय की शब्दावली से पहले डिरिचलेट है <math>V</math> संभावित शब्द, विषय में विभिन्न शब्दों की आवृत्ति निर्दिष्ट करते हुए। चूंकि , किसी दिए गए शब्द की विषय सदस्यता निश्चित नहीं है; किन्तु , यह [[अव्यक्त चर|अव्यक्त वेरिएबल]] के समुच्चय से निर्धारित होता है <math>\mathbb{Z}</math>. प्रति शब्द अव्यक्त वेरिएबल है, जहाँ <math>K</math> -आयामी श्रेणीबद्ध वेरिएबल उस विषय को निर्दिष्ट करता है जिससे शब्द संबंधित है। | ||
इस स्तिथियों में, किसी दिए गए पूर्व पर निर्भर सभी वेरिएबल समूह में साथ बंधे हुए हैं (अर्थात [[सहसंबद्ध]]), पहले की तरह - विशेष रूप से, किसी दिए गए विषय से संबंधित सभी शब्द जुड़े हुए हैं। चूंकि , इस स्तिथियों में, समूह की सदस्यता परिवर्तित की जाती है, जिसमें शब्द किसी दिए गए विषय पर नियम नहीं होते हैं, किन्तु विषय शब्द से जुड़े अव्यक्त वेरिएबल के मान पर निर्भर करता है। चूंकि , डिरिचलेट-बहुपद वितरण घनत्व की परिभाषा वास्तव में किसी समूह में श्रेणीबद्ध वेरिएबल की संख्या (अर्थात किसी दिए गए विषय से उत्पन्न | इस स्तिथियों में, किसी दिए गए पूर्व पर निर्भर सभी वेरिएबल समूह में साथ बंधे हुए हैं (अर्थात [[सहसंबद्ध]]), पहले की तरह - विशेष रूप से, किसी दिए गए विषय से संबंधित सभी शब्द जुड़े हुए हैं। चूंकि, इस स्तिथियों में, समूह की सदस्यता परिवर्तित की जाती है, जिसमें शब्द किसी दिए गए विषय पर नियम नहीं होते हैं, किन्तु विषय शब्द से जुड़े अव्यक्त वेरिएबल के मान पर निर्भर करता है। चूंकि, डिरिचलेट-बहुपद वितरण घनत्व की परिभाषा वास्तव में किसी समूह में श्रेणीबद्ध वेरिएबल की संख्या (अर्थात किसी दिए गए विषय से उत्पन्न डाक्यूमेंट्स में शब्दों की संख्या) पर निर्भर नहीं करती है, किन्तु केवल इस तथ्य पर निर्भर करती है कि इसमें कितने वेरिएबल हैं समूह का दिया हुआ मान होता है (अर्थात किसी दिए गए विषय से उत्पन्न सभी शब्द टोकन के मध्य , उनमें से कितने दिए गए शब्द हैं)। इसलिए, हम अभी भी संयुक्त वितरण के लिए स्पष्ट सूत्र लिख सकते हैं: | ||
:<math>\Pr(\mathbb{W}\mid\boldsymbol\alpha,\mathbb{Z}) = \prod_{k=1}^K \operatorname{DirMult}(\mathbb{W}_k\mid\mathbb{Z},\boldsymbol\alpha) = \prod_{k=1}^K \left[\frac{\Gamma\left(\sum_v \alpha_v\right)} | :<math>\Pr(\mathbb{W}\mid\boldsymbol\alpha,\mathbb{Z}) = \prod_{k=1}^K \operatorname{DirMult}(\mathbb{W}_k\mid\mathbb{Z},\boldsymbol\alpha) = \prod_{k=1}^K \left[\frac{\Gamma\left(\sum_v \alpha_v\right)} | ||
Line 300: | Line 299: | ||
\end{array} | \end{array} | ||
</math> | </math> | ||
यहां हमने शब्दों की संख्या और विषयों की संख्या को स्पष्ट रूप से | यहां हमने शब्दों की संख्या और विषयों की संख्या को स्पष्ट रूप से भिन्न करने के लिए गिनती को अधिक स्पष्ट रूप से परिभाषित किया है: | ||
:<math> | :<math> | ||
Line 308: | Line 307: | ||
\end{array} | \end{array} | ||
</math> | </math> | ||
आश्रित चिल्ड्रेन ही श्रेणीबद्ध वेरिएबल के साथ उपरोक्त परिदृश्य में, उन आश्रित चिल्ड्रेन की सशर्त संभावना पैरेंट्स की सशर्त संभावना की परिभाषा में दिखाई देती है। इस स्तिथियों में, प्रत्येक अव्यक्त वेरिएबल में केवल ही आश्रित उपसर्ग शब्द होता है, इसलिए ऐसा केवल ही शब्द प्रकट होता है। (यदि एकाधिक आश्रित चिल्ड्रेन हों, तो सभी को पैरेंट्स की सशर्त संभाव्यता में उपस्थित होना होगा, तथापि | आश्रित चिल्ड्रेन ही श्रेणीबद्ध वेरिएबल के साथ उपरोक्त परिदृश्य में, उन आश्रित चिल्ड्रेन की सशर्त संभावना पैरेंट्स की सशर्त संभावना की परिभाषा में दिखाई देती है। इस स्तिथियों में, प्रत्येक अव्यक्त वेरिएबल में केवल ही आश्रित उपसर्ग शब्द होता है, इसलिए ऐसा केवल ही शब्द प्रकट होता है। (यदि एकाधिक आश्रित चिल्ड्रेन हों, तो सभी को पैरेंट्स की सशर्त संभाव्यता में उपस्थित होना होगा, तथापि भिन्न -भिन्न पैरेंट्स और समान चिल्ड्रेन के मध्य ओवरलैप हो, अर्थात इस तथ्य के अधीन किए बिना कि किसी दिए गए है और पैरेंट्स के आश्रित चिल्ड्रेन के अन्य पैरेंट्स भी हैं या नहीं। ऐसा स्तिथि जहां चिल्ड्रेन के अनेक पैरेंट्स हों, उस चिल्ड्रेन की सशर्त संभाव्यता उसके प्रत्येक पैरेंट्स की सशर्त संभाव्यता परिभाषा में दिखाई देती है।) | ||
उपरोक्त परिभाषा केवल शब्दों की असामान्यीकृत सशर्त संभाव्यता को निर्दिष्ट करती है, जबकि विषय सशर्त संभाव्यता के लिए वास्तविक (अर्थात सामान्यीकृत) संभाव्यता की आवश्यकता होती है। इसलिए हमें सभी शब्द प्रतीकों को जोड़कर सामान्य बनाना होगा: | उपरोक्त परिभाषा केवल शब्दों की असामान्यीकृत सशर्त संभाव्यता को निर्दिष्ट करती है, जबकि विषय सशर्त संभाव्यता के लिए वास्तविक (अर्थात सामान्यीकृत) संभाव्यता की आवश्यकता होती है। इसलिए हमें सभी शब्द प्रतीकों को जोड़कर सामान्य बनाना होगा: | ||
Line 327: | Line 326: | ||
\end{array} | \end{array} | ||
</math> | </math> | ||
यह और बिंदु को विस्तार से बताने लायक भी है, जो सशर्त संभाव्यता में उपरोक्त दूसरे कारक से संबंधित है। याद रखें कि सामान्य रूप से सशर्त वितरण संयुक्त वितरण से प्राप्त होता है, और सशर्त के डोमेन (ऊर्ध्वाधर पट्टी के बाईं ओर का भाग) पर निर्भर नहीं होने वाले शब्दों को हटाकर इसे सरल बनाया जाता है। जब नोड <math>z</math> आश्रित चिल्ड्रेन हैं, तो या अधिक कारक <math>\operatorname{F}(\dots\mid z)</math> जिन पर निर्भर हैं संयुक्त वितरण में जो <math>z</math> निर्भर हैं . सामान्यतः प्रत्येक आश्रित नोड के लिए कारक होता है, और इसमें गणितीय परिभाषा में दिखाई देने वाले वितरण के समान घनत्व कार्य होता है। चूंकि , यदि आश्रित नोड में अन्य अभिभावक ( सह-अभिभावक) भी है, और वह सह-अभिभावक समाप्त हो गया है, तो नोड उस सह-अभिभावक को साझा करने वाले अन्य सभी नोड्स पर निर्भर हो जाएगा, और इसके लिए | यह और बिंदु को विस्तार से बताने लायक भी है, जो सशर्त संभाव्यता में उपरोक्त दूसरे कारक से संबंधित है। याद रखें कि सामान्य रूप से सशर्त वितरण संयुक्त वितरण से प्राप्त होता है, और सशर्त के डोमेन (ऊर्ध्वाधर पट्टी के बाईं ओर का भाग) पर निर्भर नहीं होने वाले शब्दों को हटाकर इसे सरल बनाया जाता है। जब नोड <math>z</math> आश्रित चिल्ड्रेन हैं, तो या अधिक कारक <math>\operatorname{F}(\dots\mid z)</math> जिन पर निर्भर हैं संयुक्त वितरण में जो <math>z</math> निर्भर हैं . सामान्यतः प्रत्येक आश्रित नोड के लिए कारक होता है, और इसमें गणितीय परिभाषा में दिखाई देने वाले वितरण के समान घनत्व कार्य होता है। चूंकि , यदि आश्रित नोड में अन्य अभिभावक ( सह-अभिभावक) भी है, और वह सह-अभिभावक समाप्त हो गया है, तो नोड उस सह-अभिभावक को साझा करने वाले अन्य सभी नोड्स पर निर्भर हो जाएगा, और इसके लिए अनेक नियम के स्थान पर ऐसे प्रत्येक नोड, संयुक्त वितरण में केवल संयुक्त पद होगा। हमारे यहाँ बिल्कुल वैसी ही स्थिति है। चाहे <math>z_{dn}</math> केवल चिल्ड्रेन है , उस चिल्ड्रेन <math>w_{dn}</math> के पास डिरिचलेट सह-अभिभावक है जिसे हमने भिन्न कर दिया है, जो नोड्स के पूरे समुच्चय पर डिरिचलेट-बहुपद वितरण <math>\mathbb{W}^{k}</math> उत्पन्न करता है . | ||
इस स्तिथियों में ऐसा होता है कि यह नियम उच्च समस्याओं का कारण नहीं बनता है, ठीक मध्य में एक-से- संबंध के कारण <math>z_{dn}</math> और <math>w_{dn}</math>. हम संयुक्त वितरण को इस प्रकार पुनः लिख सकते हैं: | इस स्तिथियों में ऐसा होता है कि यह नियम उच्च समस्याओं का कारण नहीं बनता है, ठीक मध्य में एक-से- संबंध के कारण <math>z_{dn}</math> और <math>w_{dn}</math>. हम संयुक्त वितरण को इस प्रकार पुनः लिख सकते हैं: | ||
Line 340: | Line 339: | ||
समुच्चय में जहाँ <math>\mathbb{W}^{k,(-dn)}</math> (अर्थात नोड्स का समुच्चय <math>\mathbb{W}^{k}</math> के सिवा <math>w_{dn}</math> ), किसी भी नोड में नहीं है पैरेंट्स <math>z_{dn}</math> के रूप में. इसलिए इसे कंडीशनिंग कारक (पंक्ति 2) के रूप में समाप्त किया जा सकता है, जिसका अर्थ है कि पूरे कारक को सशर्त वितरण (पंक्ति 3) से समाप्त किया जा सकता है। | समुच्चय में जहाँ <math>\mathbb{W}^{k,(-dn)}</math> (अर्थात नोड्स का समुच्चय <math>\mathbb{W}^{k}</math> के सिवा <math>w_{dn}</math> ), किसी भी नोड में नहीं है पैरेंट्स <math>z_{dn}</math> के रूप में. इसलिए इसे कंडीशनिंग कारक (पंक्ति 2) के रूप में समाप्त किया जा सकता है, जिसका अर्थ है कि पूरे कारक को सशर्त वितरण (पंक्ति 3) से समाप्त किया जा सकता है। | ||
=====दूसरा उदाहरण: नाइव बेयस [[दस्तावेज़ क्लस्टरिंग]]===== | =====दूसरा उदाहरण: नाइव बेयस [[दस्तावेज़ क्लस्टरिंग|डाक्यूमेंट्स क्लस्टरिंग]]===== | ||
यहां और मॉडल है, जिसमें मुद्दों का | यहां और मॉडल है, जिसमें मुद्दों का भिन्न समुच्चय है। यह डाक्यूमेंट्स क्लस्टरिंग के लिए अप्रकाशित नाइव बेयस मॉडल का कार्यान्वयन है। अर्थात्, हम पाठ्य सामग्री के आधार पर अनेक श्रेणियों (उदाहरण के लिए [[स्पैम (इलेक्ट्रॉनिक)]] या गैर-स्पैम, या वैज्ञानिक जर्नल लेख, वित्त के बारे में समाचार पत्र लेख, राजनीति के बारे में समाचार पत्र लेख, प्रेम पत्र) में वर्गीकरण का दस्तावेजीकरण करना चाहेंगे। चूंकि , हम पहले से ही किसी डाक्यूमेंट्स की सही श्रेणी नहीं जानते हैं; इसके अतिरिक्त , हम आपसी समानता के आधार पर उन्हें क्लस्टर करने का दस्तावेजीकरण करना चाहते हैं। (उदाहरण के लिए, वैज्ञानिक लेखों का समुच्चय शब्द प्रयोग में एक-दूसरे के समान होगा किन्तु प्रेम पत्रों के समुच्चय से बहुत भिन्न होगा।) यह प्रकार की बिना पर्यवेक्षित शिक्षा है। (उसी विधियों का उपयोग [[अर्ध-पर्यवेक्षित शिक्षण]] करने के लिए किया जा सकता है, अर्थात जहां हम डाक्यूमेंट्स के कुछ अंश की सही श्रेणी जानते हैं और शेष डाक्यूमेंट्स को क्लस्टर करने में सहायता के लिए इस ज्ञान का उपयोग करना चाहेंगे।) | ||
मॉडल इस प्रकार है: | मॉडल इस प्रकार है: | ||
Line 356: | Line 355: | ||
\end{array} | \end{array} | ||
</math> | </math> | ||
इस प्रकार से , यह मॉडल ऊपर वर्णित अव्यक्त डिरिचलेट आवंटन विषय मॉडल के समान है, किन्तु यह प्रति शब्द विषय के अतिरिक्त प्रति | इस प्रकार से , यह मॉडल ऊपर वर्णित अव्यक्त डिरिचलेट आवंटन विषय मॉडल के समान है, किन्तु यह प्रति शब्द विषय के अतिरिक्त प्रति डाक्यूमेंट्स विषय मानता है, जिसमें डाक्यूमेंट्स में विषयों का मिश्रण होता है। इसे उपरोक्त मॉडल में स्पष्ट रूप से देखा जा सकता है, जो एलडीए मॉडल के समान है, इसके अतिरिक्त कि प्रति डाक्यूमेंट्स शब्द के अतिरिक्त केवल अव्यक्त वेरिएबल है। और पुनः , हम मानते हैं कि हम डिरिचलेट के सभी पूर्ववर्तियों को ध्वस्त कर रहे हैं। | ||
किसी दिए गए शब्द के लिए सशर्त संभाव्यता एलडीए स्तिथियों के लगभग समान है। और पुनः, उसी डिरिचलेट पूर्व द्वारा उत्पन्न सभी शब्द अन्योन्याश्रित हैं। इस स्तिथियों में, इसका अर्थ है कि दिए गए लेबल वाले सभी | किसी दिए गए शब्द के लिए सशर्त संभाव्यता एलडीए स्तिथियों के लगभग समान है। और पुनः, उसी डिरिचलेट पूर्व द्वारा उत्पन्न सभी शब्द अन्योन्याश्रित हैं। इस स्तिथियों में, इसका अर्थ है कि दिए गए लेबल वाले सभी डाक्यूमेंट्स के शब्द - फिर से, यह लेबल असाइनमेंट के आधार पर भिन्न हो सकता है, किन्तु हमें केवल कुल गिनती की अधीरता है। इस तरह: | ||
:<math> | :<math> | ||
Line 372: | Line 371: | ||
\end{array} | \end{array} | ||
</math> | </math> | ||
चूंकि , लेबल असाइनमेंट के लिए अव्यक्त वेरिएबल के सशर्त वितरण में महत्वपूर्ण अंतर है, जो यह है कि किसी दिए गए लेबल वेरिएबल में केवल के अतिरिक्त | चूंकि , लेबल असाइनमेंट के लिए अव्यक्त वेरिएबल के सशर्त वितरण में महत्वपूर्ण अंतर है, जो यह है कि किसी दिए गए लेबल वेरिएबल में केवल के अतिरिक्त अनेक चिल्ड्रेन के नोड होते हैं - विशेष रूप से, लेबल के डाक्यूमेंट्स में सभी शब्दों के लिए नोड्स। यह कारक के बारे में उपरोक्त वेरिएबल <math>\operatorname{F}(\dots\mid z_d)</math> से निकटता से संबंधित है जो संयुक्त वितरण से उत्पन्न होता है। इस स्तिथियों में, संयुक्त वितरण को सभी डाक्यूमेंट्स में सभी शब्दों पर ले जाने की आवश्यकता है जिसमें मान <math>z_d</math> के समान लेबल असाइनमेंट सम्मिलित है , और इसमें डिरिचलेट-बहुपद वितरण का मान है। इसके अतिरिक्त , हम इस संयुक्त वितरण को शब्द पर सशर्त वितरण तक सीमित नहीं कर सकते। इसके अतिरिक्त , हम इसे केवल प्रश्न में लेबल के लिए डाक्यूमेंट्स में शब्दों पर छोटे से संयुक्त सशर्त वितरण तक कम कर सकते हैं, और इसलिए हम उपरोक्त ट्रिक का उपयोग करके इसे सरल नहीं बना सकते हैं जो अपेक्षित गणना और पूर्व का सरल योग प्राप्त करता है। यद्यपि वास्तव में इसे ऐसे व्यक्तिगत योगों के उत्पाद के रूप में फिर से लिखना संभव है, कारकों की संख्या अधिक उच्च है, और डिरिचलेट-बहुपद वितरण संभावना की सीधे गणना करने की तुलना में स्पष्ट रूप से अधिक कुशल नहीं है। | ||
==संबंधित वितरण== | ==संबंधित वितरण == | ||
डिरिचलेट-बहुपद वितरण के एक-आयामी संस्करण को बीटा-द्विपद वितरण के रूप में जाना जाता है। | डिरिचलेट-बहुपद वितरण के एक-आयामी संस्करण को बीटा-द्विपद वितरण के रूप में जाना जाता है। | ||
डिरिचलेट-बहुपद वितरण का संबंध [[नकारात्मक द्विपद|ऋणात्मक द्विपद]] वितरण के साथ है, जो पॉइसन वितरण के साथ बहुपद वितरण के संबंध के अनुरूप है।<ref name=Zhou2018>Theorem 1 of {{cite journal |last1=Zhou |first=M.|year=2018|title=Nonparametric Bayesian Negative Binomial Factor Analysis |journal=Bayesian Analysis |volume=13 |issue=4|pages=1065–1093|doi=10.1214/17-BA1070 |doi-access=free }}</ref> | डिरिचलेट-बहुपद वितरण का संबंध [[नकारात्मक द्विपद|ऋणात्मक द्विपद]] वितरण के साथ है, जो पॉइसन वितरण के साथ बहुपद वितरण के संबंध के अनुरूप है।<ref name=Zhou2018>Theorem 1 of {{cite journal |last1=Zhou |first=M.|year=2018|title=Nonparametric Bayesian Negative Binomial Factor Analysis |journal=Bayesian Analysis |volume=13 |issue=4|pages=1065–1093|doi=10.1214/17-BA1070 |doi-access=free }}</ref> | ||
==उपयोग== | ==उपयोग == | ||
डिरिचलेट-बहुपद वितरण का उपयोग स्वचालित | डिरिचलेट-बहुपद वितरण का उपयोग स्वचालित डाक्यूमेंट्स वर्गीकरण और क्लस्टरिंग, [[आनुवंशिकी]], [[अर्थव्यवस्था]], प्रतिद्विंद्विता मॉडलिंग और मात्रात्मक विपणन में किया जाता है। | ||
==यह भी देखें== | ==यह भी देखें== | ||
Line 407: | Line 406: | ||
श्रेणी:बहुभिन्नरूपी असतत वितरण | श्रेणी:बहुभिन्नरूपी असतत वितरण | ||
श्रेणी: | श्रेणी:भिन्न -भिन्न वितरण | ||
यौगिक संभाव्यता वितरण | यौगिक संभाव्यता वितरण |
Revision as of 20:18, 30 July 2023
Notation | |||
---|---|---|---|
Parameters |
number of trials (positive integer) | ||
Support |
| ||
Unknown type | [1] | ||
Mean | |||
Unknown type |
| ||
MGF |
with [1] | ||
CF |
| ||
PGF |
|
संभाव्यता सिद्धांत और आंकड़ों में, डिरिचलेट-बहुपद वितरण गैर-ऋणात्मक पूर्णांकों के सीमित समर्थन पर असतत बहुभिन्नरूपी संभाव्यता वितरण का वर्ग है। इसे डिरिचलेट यौगिक संभाव्यता वितरण (डीसीएम) या मल्टीवेरिएट प्रायिकता वितरण (जॉर्ज पोलिया के पश्चात् ) भी कहा जाता है। यह मिश्रित संभाव्यता वितरण है, जहां पैरामीटर सदिश p के साथ डिरिचलेट वितरण से संभाव्यता सदिश निकाला जाता है , और संभाव्यता सदिश p और परीक्षणों की संख्या n के साथ बहुपद वितरण से लिया गया अवलोकन है । डिरिचलेट पैरामीटर सदिश स्थिति के पश्चात् पूर्व धारणा को दर्शाता है और इसे छद्मगणना के रूप में देखा जा सकता है: वास्तविक डेटा एकत्र होने से पहले होने वाले प्रत्येक परिणाम का अवलोकन है । और कंपाउंडिंग पोल्या कलश मॉडल|पोल्या कलश योजना से दर्शाया गया है। यह बायेसियन सांख्यिकी, यंत्र अधिगम , अनुभवजन्य बेयस विधियों और शास्त्रीय सांख्यिकी में अतिविस्तारित बहुपद वितरण के रूप में अधिकांशतः सामने आता है।
जब n = 1 होता है तो यह विशेष स्तिथियों के रूप में श्रेणीबद्ध वितरण को कम कर देता है। यह उच्च α के लिए स्वैच्छिक रूप से बहुपद वितरण का भी अनुमान लगाता है। डिरिचलेट-बहुपद वितरण बीटा-द्विपद वितरण का बहुभिन्नरूपी विस्तार है, क्योंकि बहुपद और डिरिचलेट वितरण क्रमशः द्विपद वितरण और बीटा वितरण के बहुभिन्नरूपी संस्करण हैं।
विनिर्देश
डिरिचलेट-बहुपद वितरण यौगिक वितरण के रूप में
इस प्रकार से डिरिचलेट वितरण बहुपद वितरण का संयुग्मित वितरण है। यह तथ्य विश्लेषणात्मक रूप से सुव्यवस्थित यौगिक वितरण की ओर ले जाता है।
श्रेणी गणना के यादृच्छिक सदिश के लिए , बहुपद वितरण के अनुसार वितरित, सीमांत वितरण p के लिए वितरण पर एकीकृत करके प्राप्त किया जाता है जिसे डिरिचलेट वितरण के पश्चात यादृच्छिक सदिश के रूप में माना जा सकता है:
जिसके परिणामस्वरूप निम्नलिखित स्पष्ट सूत्र प्राप्त होता है:
जहाँ योग के रूप में परिभाषित किया गया है . इसी यौगिक वितरण का दूसरा रूप, जिसे बीटा फलन , B के संदर्भ में अधिक संक्षिप्त रूप से लिखा गया है, इस प्रकार है:
इसके अतिरिक्त रूप से इस तथ्य पर जोर देता है कि गणना में शून्य गिनती श्रेणियों को अनदेखा किया जा सकता है - उपयोगी तथ्य जब श्रेणियों की संख्या अधिक उच्च है और विरल आव्युह (उदाहरण के लिए डाक्यूमेंट्स में शब्द गिनती)।
ध्यान दें कि पीडीएफ बीटा-द्विपद वितरण है जब यह भी दिखाया जा सकता है कि यह बहुपद वितरण तक पहुंचता है क्योंकि अनंत तक पहुंचता है। पैरामीटर बहुपद के सापेक्ष अतिविस्तार या विस्फोट की डिग्री को नियंत्रित करता है। साहित्य में पाए गए को दर्शाने के लिए वैकल्पिक विकल्प S और A हैं।
डिरिचलेट-बहुपद वितरण कलश मॉडल के रूप में
इस प्रकार से डिरिचलेट-बहुपद वितरण को सदिश α के धनात्मक-अर्धनिश्चित पूर्णांक मानों के लिए एक कलश मॉडल के माध्यम से भी प्रेरित किया जा सकता है, जिसे पॉली कलश मॉडल के रूप में जाना जाता है। विशेष रूप से, एक कलश की कल्पना करें जिसमें ith रंग के लिए क्रमांकित K रंगों की गेंदें हों, जहां यादृच्छिक ड्रॉ बनाए जाते हैं। जब एक गेंद को यादृच्छिक रूप से निकाला जाता है और उसका अवलोकन किया जाता है, तो एक ही रंग की दो गेंदें कलश में वापस आ जाती हैं। यदि इसे n बार किया जाता है, तो रंग गणना के यादृच्छिक सदिश को देखने की संभावना पैरामीटर n और α के साथ एक डिरिचलेट-बहुपद वितरण है।
यदि यादृच्छिक ड्रॉ सरल प्रतिस्थापन के साथ होते हैं (अवलोकित गेंद के ऊपर और ऊपर कोई भी गेंद कलश में नहीं जोड़ी जाती है), तो वितरण बहुपद वितरण का अनुसरण करता है और यदि यादृच्छिक ड्रॉ प्रतिस्थापन के बिना किया जाता है, तो वितरण बहुभिन्नरूपी हाइपरज्यामितीय वितरण का अनुसरण करता है।
गुण
क्षण
पुनः फिर, मान लीजिए और मान लीजिए तो अपेक्षित संख्या यह है कि n परीक्षणों में i का परिणाम की अपेक्षित मान संख्या है
सहप्रसरण आव्युह इस प्रकार है। प्रत्येक विकर्ण प्रविष्टि बीटा-द्विपदीय रूप से वितरित यादृच्छिक वेरिएबल का विचरण है, और इसलिए है
ऑफ-विकर्ण प्रविष्टियाँ सहप्रसरण हैं:
i, j के लिए विशिष्ट है।
सभी सहप्रसरण ऋणात्मक हैं क्योंकि निश्चित n के लिए, डिरिचलेट-बहुपद वितरण सदिश के अवयव में वृद्धि के लिए दूसरे अवयव में कमी की आवश्यकता होती है।
यह रैंक (रैखिक बीजगणित) K - 1 का K × K धनात्मक-अर्धनिश्चित आव्युह है।
संगत सहसंबंध आव्युह या सहसंबंध आव्युह की प्रविष्टियाँ हैं
नमूना आकार इस अभिव्यक्ति से बाहर हो जाता है।
प्रत्येक k अवयव में भिन्न -भिन्न बीटा-द्विपद वितरण होता है।
डिरिचलेट-बहुपद वितरण का समर्थन (गणित) समुच्चय है
इसके अवयवों की संख्या है
आव्युह संकेतन
आव्युह संकेतन में,
और
साथ pT = स्तंभ सदिश का पंक्ति सदिश व्स्था नान्तरण . दे
- , हम वैकल्पिक रूप से लिख सकते हैं
पैरामीटर इसे इंट्रा क्लास या इंट्रा क्लस्टर सहसंबंध के रूप में जाना जाता है। यह धनात्मक-अर्धनिश्चित सहसंबंध है जो बहुपद वितरण के सापेक्ष अति विस्तार को उत्पन्न करता है।
एकत्रीकरण
यदि
फिर, यदि सबस्क्रिप्ट i और j वाले यादृच्छिक वेरिएबल को सदिश से हटा दिया जाता है और उनके योग से प्रतिस्थापित कर दिया जाता है,
इस एकत्रीकरण गुण का उपयोग सीमांत वितरण प्राप्त करने के लिए किया जा सकता है .
संभावना फलन
वैचारिक रूप से, हम K श्रेणियों के साथ श्रेणीबद्ध वितरण से N स्वतंत्र ड्रॉ बना रहे हैं। आइए हम स्वतंत्र ड्रा को यादृच्छिक श्रेणीगत वेरिएबल के रूप में प्रस्तुत करें के लिए . आइए हम किसी विशेष श्रेणी को कितनी बार निरूपित करें ( के लिए) देखा गया है सभी श्रेणीगत वेरिएबल के मध्य , और . फिर, इस समस्या पर हमारे दो भिन्न -भिन्न विचार हैं:
- का समुच्चय श्रेणीगत वेरिएबल .
- एकल सदिश-मान वान वेरिएबल , बहुपद वितरण के अनुसार वितरित है ।
पहला स्तिथि यादृच्छिक वेरिएबल का समुच्चय है जो प्रत्येक व्यक्तिगत परिणाम को निर्दिष्ट करता है, इसके पश्चात वाला वेरिएबल है जो प्रत्येक के श्रेणियों के परिणामों की संख्या निर्दिष्ट करता है। अंतर महत्वपूर्ण है, क्योंकि दोनों स्तिथियों में संगत रूप से भिन्न -भिन्न संभाव्यता वितरण हैं।
श्रेणीबद्ध वितरण का पैरामीटर है जहाँ मान निकालने की संभावना है ; इसी प्रकार बहुपद वितरण का पैरामीटर भी है . निर्दिष्ट करने के अतिरिक्त सामान्यता पर , हम इसे संयुग्मित पूर्व वितरण देते हैं, और इसलिए इसे पैरामीटर सदिश के साथ डिरिचलेट वितरण से लिया जाता है .
एकीकृत करके , हम मिश्रित वितरण प्राप्त करते हैं। चूंकि , वितरण का स्वरूप इस पर निर्भर करता है कि हम कौन सा दृष्टिकोण उसके आधार पर वितरण का रूप भिन्न होता हैं।
व्यक्तिगत परिणामों के समुच्चय के लिए
संयुक्त वितरण
श्रेणीबद्ध वेरिएबल के लिए सीमांत वितरण संयुक्त वितरण को एकीकृत करके प्राप्त किया जाता है :
जिसके परिणामस्वरूप निम्नलिखित स्पष्ट सूत्र प्राप्त होता है:
जहाँ गामा फलन है, के साथ:
प्रत्येक श्रेणी के अन्दर गिनती पर संभावना के अतिरिक्त श्रेणीबद्ध वेरिएबल के अनुक्रम की संभावना के बारे में सूत्र होने के कारण बहुपद गुणांक की अनुपस्थिति पर ध्यान दें।
यद्यपि वेरिएबल उपरोक्त सूत्र में स्पष्ट रूप से प्रकट नहीं होते हैं, वे इसके माध्यम से प्रवेश करते हैं मानों के माध्यम से प्रवेश करते हैं। .
सशर्त वितरण
अन्य उपयोगी सूत्र, विशेष रूप से गिब्स नमूने के संदर्भ में, ज्ञात किया गया है कि किसी दिए गए वेरिएबल का सशर्त घनत्व क्या है अन्य सभी वेरिएबल (जिन्हें हम निरूपित करेंगे) पर आधारित है. इसका स्वरूप अत्यंत सरल है:
जहाँ श्रेणी की गिनती की संख्या निर्दिष्ट करता है के अतिरिक्त सभी वेरिएबल्स में देखा जाता है .
यह दिखाना उपयोगी हो सकता है कि इस सूत्र को कैसे प्राप्त किया जाए। सामान्यतः इस पर , सशर्त वितरण संबंधित संयुक्त वितरण के लिए आनुपातिक होते हैं, इसलिए हम सभी मानों के संयुक्त वितरण के लिए उपरोक्त सूत्र से प्रारंभ करते हैं और फिर किसी भी कारक को समाप्त कर देते हैं जो प्रश्न में विशेष पर निर्भर नहीं होता है। ऐसा करने के लिए, हम ऊपर परिभाषित नोटेशन का उपयोग करते हैं, और
हम भी इस तथ्य का उपयोग करते हैं
तब:
सामान्यतः पर, सशर्त वितरण के लिए समीकरण प्राप्त करते समय सामान्यीकरण स्थिरांक के बारे में चिंता करना आवश्यक नहीं है। सामान्यीकरण स्थिरांक को वितरण से नमूने के लिए एल्गोरिदम के भाग के रूप में निर्धारित किया जाएगा (श्रेणीबद्ध वितरण या नमूनाकरण देखें)। चूंकि , जब सशर्त वितरण ऊपर सरल रूप में लिखा जाता है, तो यह पता चलता है कि सामान्यीकरण स्थिरांक सरल रूप धारण करता है:
अत:
यह फ़ॉर्मूला चीनी रेस्तरां प्रक्रिया से निकटता से संबंधित है, जो सीमा को इस रूप में लेने से उत्पन्न होता है .
बायेसियन नेटवर्क में
इस प्रकार से उच्च बायेसियन नेटवर्क में, जिसमें श्रेणीबद्ध (या तथाकथित बहुपद) वितरण उच्च नेटवर्क के भागो के रूप में डिरिचलेट वितरण प्रायर के साथ होते हैं, सभी डिरिचलेट प्रायर को संक्षिप्त किया जा सकता है, चूंकि उन पर निर्भर एकमात्र नोड श्रेणीबद्ध वितरण पर निर्भर हो सकता है। पतन प्रत्येक डिरिचलेट-वितरण नोड के लिए दूसरों से भिन्न होता है, और किसी भी अन्य नोड की अधीन होता है जो श्रेणीबद्ध वितरण पर निर्भर हो सकता है। यह इस तथ्य के अधीन किए बिना भी होता है कि क्या श्रेणीबद्ध वितरण डिरिचलेट प्रायर के अतिरिक्त नोड्स पर निर्भर करते हैं (चूंकि ऐसे स्तिथियों में, उन अन्य नोड्स को अतिरिक्त कंडीशनिंग कारकों के रूप में रहना चाहिए)। अनिवार्य रूप से, किसी दिए गए डिरिचलेट-वितरण नोड के आधार पर सभी श्रेणीबद्ध वितरण उपरोक्त सूत्र द्वारा परिभाषित एकल डिरिचलेट-बहुपद वितरण संयुक्त वितरण में जुड़ जाते हैं। इस प्रकार से परिभाषित संयुक्त वितरण एकीकृत-आउट डिरिचेट पूर्व नोड्स के मूल पर निर्भर करता है , साथ ही डिरिचलेट पूर्व नोड्स के अतिरिक्त श्रेणीबद्ध नोड्स के किसी भी मूल पर निर्भर करता है ।
निम्नलिखित अनुभागों में, हम सामान्यतः बायेसियन नेटवर्क में पाए जाने वाले विभिन्न कॉन्फ़िगरेशन पर चर्चा करते हैं। हम ऊपर से संभाव्यता घनत्व दोहराते हैं, और इसे प्रतीक का उपयोग करके परिभाषित करते हैं :
ही हाइपरप्रायर के साथ एकाधिक डिरिचलेट प्रायर
अतः कल्पना कीजिए कि हमारे पास इस प्रकार पदानुक्रमित मॉडल है:
इस प्रकार के स्तिथियों में, हमारे पास अनेक डिरिचेट प्रायर हैं, जिनमें से प्रत्येक कुछ संख्या में श्रेणीबद्ध अवलोकन उत्पन्न करता है (संभवतः प्रत्येक पूर्व के लिए भिन्न संख्या)। तथ्य यह है कि वे सभी ही हाइपरप्रायर पर निर्भर हैं, तथापि यह ऊपर जैसा यादृच्छिक वेरिएबल हो, इससे कोई भिन्नता नहीं है । डिरिचलेट पूर्व को एकीकृत करने का प्रभाव उस पूर्व से जुड़े श्रेणीबद्ध वेरिएबल को जोड़ता है, जिसका संयुक्त वितरण बस डिरिचलेट पूर्व के किसी भी कंडीशनिंग कारकों को प्राप्त करता है। तथ्य यह है कि अनेक प्रायर हाइपरप्रियर साझा कर सकते हैं, इससे कोई भिन्नता नहीं है :
जहाँ यह केवल पूर्व d पर निर्भर श्रेणीगत वेरिएबल का संग्रह है।
तदनुसार, सशर्त संभाव्यता वितरण निम्नानुसार लिखा जा सकता है:
जहाँ विशेष रूप से समुच्चय के मध्य वेरिएबल की संख्या का अर्थ है, को छोड़कर स्वयं, जिसका मान है .
केवल k मान वाले वेरिएबल्स को गिनना आवश्यक है जो समान पूर्व होने के कारण प्रश्न में वेरिएबल से साथ बंधे हैं। हम k मान वाले किसी अन्य वेरिएबल को भी गिनना नहीं चाहते हैं।
ही हाइपरप्रियर वाले एकाधिक डिरिचलेट प्रायर , आश्रित चिल्ड्रेन ही
अब थोड़ा अधिक सम्मिश्र पदानुक्रमित मॉडल की कल्पना इस प्रकार करें:
यह मॉडल ऊपर जैसा ही है, किन्तु इसके अतिरिक्त , प्रत्येक श्रेणीगत वेरिएबल पर चाइल्ड वेरिएबल निर्भर होता है। यह मिश्रण मॉडल की प्रमुखता है.
फिर से, संयुक्त वितरण में, केवल उसी पूर्व पर निर्भर श्रेणीबद्ध वेरिएबल एकल डिरिचलेट-बहुपद वितरण में जुड़े हुए हैं:
केवल उनके पैरेंट्स और प्रायरों पर निर्भर श्रेणीगत वेरिएबल का सशर्त वितरण सरल स्तिथियों में उपरोक्त के समान रूप होगा। चूंकि , गिब्स नमूने में किसी दिए गए नोड के सशर्त वितरण को निर्धारित करना आवश्यक है केवल पर निर्भर नहीं है और प्रायर जैसे किन्तु अन्य सभी मापदंडों पर भिन्न होते है ।
सशर्त वितरण के लिए सरलीकृत अभिव्यक्ति ऊपर संयुक्त संभाव्यता के लिए अभिव्यक्ति को फिर से लिखकर और निरंतर कारकों को हटाकर प्राप्त की गई है। इसलिए, वही सरलीकरण उच्च संयुक्त संभाव्यता अभिव्यक्ति में प्रयुक्त होगा जैसे कि इस मॉडल में, डिरिचलेट-बहुपद वितरण घनत्व और श्रेणीबद्ध वेरिएबल के मान पर निर्भर अनेक अन्य यादृच्छिक वेरिएबल के कारकों से बना है।
इससे निम्नलिखित परिणाम मिलते हैं:
यहाँ की संभाव्यता घनत्व प्रत्यक्ष रूप से प्रकट होता है. मान लीजिये छद्म-यादृच्छिक संख्या नमूनाकरण करने के लिए , हम सभी संभावनाओं के लिए K असामान्य संभावनाओं की गणना करेंगे उपरोक्त सूत्र का उपयोग करके, फिर उन्हें सामान्य करें और श्रेणीबद्ध वितरण आलेख में वर्णित एल्गोरिदम का उपयोग करके सामान्य रूप से आगे बढ़ेंगे।
सही प्रकार से कहें तो, सशर्त वितरण में दिखाई देने वाला अतिरिक्त कारक मॉडल विनिर्देश से नहीं किन्तु सीधे संयुक्त वितरण से प्राप्त होता है। यह अंतर उन मॉडलों पर विचार करते समय महत्वपूर्ण है जहां डिरिचलेट-पूर्व पैरेंट्स के साथ दिए गए नोड में अनेक आश्रित चिल्ड्रेन हैं, विशेषकर जब वे चिल्ड्रेन एक-दूसरे पर निर्भर होते हैं (उदाहरण के लिए यदि वे पैरेंट्स को साझा करते हैं जो भिन्न हो गए हैं)। इस पर नीचे अधिक वेरिएबल की गई है।
पूर्व सदस्यता परिवर्तन के साथ एकाधिक डिरिचलेट प्रायर
अब कल्पना करें कि हमारे पास इस प्रकार पदानुक्रमित मॉडल है:
यहां हमारे पास यह कठिन स्थिति है जहां हमारे पास पहले की तरह अनेक डिरिचलेट पूर्व और आश्रित श्रेणीगत वेरिएबल का समुच्चय है, किन्तु पहले के विपरीत, पूर्व और आश्रित वेरिएबल के मध्य संबंध स्थापित नहीं है। इसके अतिरिक्त , उपयोग से पहले का चुनाव किसी अन्य यादृच्छिक श्रेणीबद्ध वेरिएबल पर निर्भर है। ऐसा होता है, उदाहरण के लिए, विषय मॉडल में, और वास्तव में उपरोक्त वेरिएबल के नाम अव्यक्त डिरिचलेट आवंटन के अनुरूप होते हैं। इस स्तिथियों में, समुच्चय शब्दों का समूह है, जिनमें से प्रत्येक शब्द किसी से लिया गया है संभावित विषय, जहां प्रत्येक विषय की शब्दावली से पहले डिरिचलेट है संभावित शब्द, विषय में विभिन्न शब्दों की आवृत्ति निर्दिष्ट करते हुए। चूंकि , किसी दिए गए शब्द की विषय सदस्यता निश्चित नहीं है; किन्तु , यह अव्यक्त वेरिएबल के समुच्चय से निर्धारित होता है . प्रति शब्द अव्यक्त वेरिएबल है, जहाँ -आयामी श्रेणीबद्ध वेरिएबल उस विषय को निर्दिष्ट करता है जिससे शब्द संबंधित है।
इस स्तिथियों में, किसी दिए गए पूर्व पर निर्भर सभी वेरिएबल समूह में साथ बंधे हुए हैं (अर्थात सहसंबद्ध), पहले की तरह - विशेष रूप से, किसी दिए गए विषय से संबंधित सभी शब्द जुड़े हुए हैं। चूंकि, इस स्तिथियों में, समूह की सदस्यता परिवर्तित की जाती है, जिसमें शब्द किसी दिए गए विषय पर नियम नहीं होते हैं, किन्तु विषय शब्द से जुड़े अव्यक्त वेरिएबल के मान पर निर्भर करता है। चूंकि, डिरिचलेट-बहुपद वितरण घनत्व की परिभाषा वास्तव में किसी समूह में श्रेणीबद्ध वेरिएबल की संख्या (अर्थात किसी दिए गए विषय से उत्पन्न डाक्यूमेंट्स में शब्दों की संख्या) पर निर्भर नहीं करती है, किन्तु केवल इस तथ्य पर निर्भर करती है कि इसमें कितने वेरिएबल हैं समूह का दिया हुआ मान होता है (अर्थात किसी दिए गए विषय से उत्पन्न सभी शब्द टोकन के मध्य , उनमें से कितने दिए गए शब्द हैं)। इसलिए, हम अभी भी संयुक्त वितरण के लिए स्पष्ट सूत्र लिख सकते हैं:
यहां हम संकेतन का उपयोग करते हैं उन शब्द टोकनों की संख्या को दर्शाने के लिए जिनका मान शब्द प्रतीक v है और जो विषय k से संबंधित हैं।
सशर्त वितरण का रूप अभी भी वही है:
यहां फिर से, किसी दिए गए विषय से संबंधित शब्दों के लिए केवल श्रेणीबद्ध वेरिएबल जुड़े हुए हैं (तथापि यह लिंकिंग अव्यक्त वेरिएबल के असाइनमेंट पर निर्भर करेगी), और इसलिए शब्द गणना केवल किसी दिए गए विषय से उत्पन्न शब्दों से अधिक होनी चाहिए। इसलिए प्रतीक , जो कि शब्द प्रतीक v वाले शब्द टोकन की गिनती है, किन्तु विषय k द्वारा उत्पन्न लोगों में से 'केवल' है, और उस शब्द को छोड़कर जिसके वितरण का वर्णन किया जा रहा है।
(जिस कारण से शब्द को बाहर करना आवश्यक है, और यह बिल्कुल भी समझ में क्यों आता है, वह यह है कि गिब्स नमूना संदर्भ में, हम सभी पिछले वेरिएबल के माध्यम से चलने और नमूना लेने के पश्चात , प्रत्येक यादृच्छिक वेरिएबल के मान को बार-बार पुन: नमूना करते हैं। इसलिए वेरिएबल का पहले से ही एक मूल्य है, और हमें इस उपस्तिथ मान को उन विभिन्न गणनाओं से बाहर करने की आवश्यकता है जिनका हम उपयोग करते हैं।)
संयुक्त उदाहरण: एलडीए विषय मॉडल
अब हम दिखाते हैं कि उपरोक्त कुछ परिदृश्यों को कैसे संयोजित किया जाए ताकि यह प्रदर्शित किया जा सके कि गिब्स वास्तविक प्रमुख्य मॉडल, विशेष रूप से स्मूथ लेटेंट डिरिचलेट आवंटन (एलडीए) विषय मॉडल का नमूना कैसे ले सकते हैं।
मॉडल इस प्रकार है:
अनिवार्य रूप से हम पिछले तीन परिदृश्यों को जोड़ते हैं: हमारे पास श्रेणीबद्ध वेरिएबल हैं जो हाइपरप्रायर साझा करने वाले अनेक प्रायर पर निर्भर हैं; हमारे पास आश्रित चिल्ड्रेन ही श्रेणीगत वेरिएबल हैं (अव्यक्त वेरिएबल विषय पहचान); और हमारे पास हाइपरप्रायर साझा करने वाले अनेक प्रायर में सदस्यता परिवर्तन के साथ श्रेणीबद्ध वेरिएबल हैं। मानक एलडीए मॉडल में, शब्दों का पूर्ण प्रकार से अवलोकन किया जाता है, और इसलिए हमें उन्हें दोबारा नमूना लेने की आवश्यकता नहीं होती है। (चूंकि , गिब्स नमूनाकरण समान रूप से संभव होगा यदि केवल कुछ या कोई भी शब्द नहीं देखा गया हो। ऐसे स्तिथियों में, हम कुछ उचित विधियों से शब्दों पर वितरण प्रारंभ करना चाहेंगे - उदाहरण के लिए कुछ प्रक्रिया के आउटपुट से जो वाक्य उत्पन्न करता है , जैसे कि मशीनी अनुवाद मॉडल - परिणामी पश्च वितरण अव्यक्त वेरिएबल वितरण के लिए कोई अर्थ निकालने के लिए।)
उपरोक्त सूत्रों का उपयोग करके, हम सशर्त संभावनाओं को सीधे लिख सकते हैं:
यहां हमने शब्दों की संख्या और विषयों की संख्या को स्पष्ट रूप से भिन्न करने के लिए गिनती को अधिक स्पष्ट रूप से परिभाषित किया है:
आश्रित चिल्ड्रेन ही श्रेणीबद्ध वेरिएबल के साथ उपरोक्त परिदृश्य में, उन आश्रित चिल्ड्रेन की सशर्त संभावना पैरेंट्स की सशर्त संभावना की परिभाषा में दिखाई देती है। इस स्तिथियों में, प्रत्येक अव्यक्त वेरिएबल में केवल ही आश्रित उपसर्ग शब्द होता है, इसलिए ऐसा केवल ही शब्द प्रकट होता है। (यदि एकाधिक आश्रित चिल्ड्रेन हों, तो सभी को पैरेंट्स की सशर्त संभाव्यता में उपस्थित होना होगा, तथापि भिन्न -भिन्न पैरेंट्स और समान चिल्ड्रेन के मध्य ओवरलैप हो, अर्थात इस तथ्य के अधीन किए बिना कि किसी दिए गए है और पैरेंट्स के आश्रित चिल्ड्रेन के अन्य पैरेंट्स भी हैं या नहीं। ऐसा स्तिथि जहां चिल्ड्रेन के अनेक पैरेंट्स हों, उस चिल्ड्रेन की सशर्त संभाव्यता उसके प्रत्येक पैरेंट्स की सशर्त संभाव्यता परिभाषा में दिखाई देती है।)
उपरोक्त परिभाषा केवल शब्दों की असामान्यीकृत सशर्त संभाव्यता को निर्दिष्ट करती है, जबकि विषय सशर्त संभाव्यता के लिए वास्तविक (अर्थात सामान्यीकृत) संभाव्यता की आवश्यकता होती है। इसलिए हमें सभी शब्द प्रतीकों को जोड़कर सामान्य बनाना होगा:
जहाँ
यह और बिंदु को विस्तार से बताने लायक भी है, जो सशर्त संभाव्यता में उपरोक्त दूसरे कारक से संबंधित है। याद रखें कि सामान्य रूप से सशर्त वितरण संयुक्त वितरण से प्राप्त होता है, और सशर्त के डोमेन (ऊर्ध्वाधर पट्टी के बाईं ओर का भाग) पर निर्भर नहीं होने वाले शब्दों को हटाकर इसे सरल बनाया जाता है। जब नोड आश्रित चिल्ड्रेन हैं, तो या अधिक कारक जिन पर निर्भर हैं संयुक्त वितरण में जो निर्भर हैं . सामान्यतः प्रत्येक आश्रित नोड के लिए कारक होता है, और इसमें गणितीय परिभाषा में दिखाई देने वाले वितरण के समान घनत्व कार्य होता है। चूंकि , यदि आश्रित नोड में अन्य अभिभावक ( सह-अभिभावक) भी है, और वह सह-अभिभावक समाप्त हो गया है, तो नोड उस सह-अभिभावक को साझा करने वाले अन्य सभी नोड्स पर निर्भर हो जाएगा, और इसके लिए अनेक नियम के स्थान पर ऐसे प्रत्येक नोड, संयुक्त वितरण में केवल संयुक्त पद होगा। हमारे यहाँ बिल्कुल वैसी ही स्थिति है। चाहे केवल चिल्ड्रेन है , उस चिल्ड्रेन के पास डिरिचलेट सह-अभिभावक है जिसे हमने भिन्न कर दिया है, जो नोड्स के पूरे समुच्चय पर डिरिचलेट-बहुपद वितरण उत्पन्न करता है .
इस स्तिथियों में ऐसा होता है कि यह नियम उच्च समस्याओं का कारण नहीं बनता है, ठीक मध्य में एक-से- संबंध के कारण और . हम संयुक्त वितरण को इस प्रकार पुनः लिख सकते हैं:
समुच्चय में जहाँ (अर्थात नोड्स का समुच्चय के सिवा ), किसी भी नोड में नहीं है पैरेंट्स के रूप में. इसलिए इसे कंडीशनिंग कारक (पंक्ति 2) के रूप में समाप्त किया जा सकता है, जिसका अर्थ है कि पूरे कारक को सशर्त वितरण (पंक्ति 3) से समाप्त किया जा सकता है।
दूसरा उदाहरण: नाइव बेयस डाक्यूमेंट्स क्लस्टरिंग
यहां और मॉडल है, जिसमें मुद्दों का भिन्न समुच्चय है। यह डाक्यूमेंट्स क्लस्टरिंग के लिए अप्रकाशित नाइव बेयस मॉडल का कार्यान्वयन है। अर्थात्, हम पाठ्य सामग्री के आधार पर अनेक श्रेणियों (उदाहरण के लिए स्पैम (इलेक्ट्रॉनिक) या गैर-स्पैम, या वैज्ञानिक जर्नल लेख, वित्त के बारे में समाचार पत्र लेख, राजनीति के बारे में समाचार पत्र लेख, प्रेम पत्र) में वर्गीकरण का दस्तावेजीकरण करना चाहेंगे। चूंकि , हम पहले से ही किसी डाक्यूमेंट्स की सही श्रेणी नहीं जानते हैं; इसके अतिरिक्त , हम आपसी समानता के आधार पर उन्हें क्लस्टर करने का दस्तावेजीकरण करना चाहते हैं। (उदाहरण के लिए, वैज्ञानिक लेखों का समुच्चय शब्द प्रयोग में एक-दूसरे के समान होगा किन्तु प्रेम पत्रों के समुच्चय से बहुत भिन्न होगा।) यह प्रकार की बिना पर्यवेक्षित शिक्षा है। (उसी विधियों का उपयोग अर्ध-पर्यवेक्षित शिक्षण करने के लिए किया जा सकता है, अर्थात जहां हम डाक्यूमेंट्स के कुछ अंश की सही श्रेणी जानते हैं और शेष डाक्यूमेंट्स को क्लस्टर करने में सहायता के लिए इस ज्ञान का उपयोग करना चाहेंगे।)
मॉडल इस प्रकार है:
इस प्रकार से , यह मॉडल ऊपर वर्णित अव्यक्त डिरिचलेट आवंटन विषय मॉडल के समान है, किन्तु यह प्रति शब्द विषय के अतिरिक्त प्रति डाक्यूमेंट्स विषय मानता है, जिसमें डाक्यूमेंट्स में विषयों का मिश्रण होता है। इसे उपरोक्त मॉडल में स्पष्ट रूप से देखा जा सकता है, जो एलडीए मॉडल के समान है, इसके अतिरिक्त कि प्रति डाक्यूमेंट्स शब्द के अतिरिक्त केवल अव्यक्त वेरिएबल है। और पुनः , हम मानते हैं कि हम डिरिचलेट के सभी पूर्ववर्तियों को ध्वस्त कर रहे हैं।
किसी दिए गए शब्द के लिए सशर्त संभाव्यता एलडीए स्तिथियों के लगभग समान है। और पुनः, उसी डिरिचलेट पूर्व द्वारा उत्पन्न सभी शब्द अन्योन्याश्रित हैं। इस स्तिथियों में, इसका अर्थ है कि दिए गए लेबल वाले सभी डाक्यूमेंट्स के शब्द - फिर से, यह लेबल असाइनमेंट के आधार पर भिन्न हो सकता है, किन्तु हमें केवल कुल गिनती की अधीरता है। इस तरह:
जहाँ
चूंकि , लेबल असाइनमेंट के लिए अव्यक्त वेरिएबल के सशर्त वितरण में महत्वपूर्ण अंतर है, जो यह है कि किसी दिए गए लेबल वेरिएबल में केवल के अतिरिक्त अनेक चिल्ड्रेन के नोड होते हैं - विशेष रूप से, लेबल के डाक्यूमेंट्स में सभी शब्दों के लिए नोड्स। यह कारक के बारे में उपरोक्त वेरिएबल से निकटता से संबंधित है जो संयुक्त वितरण से उत्पन्न होता है। इस स्तिथियों में, संयुक्त वितरण को सभी डाक्यूमेंट्स में सभी शब्दों पर ले जाने की आवश्यकता है जिसमें मान के समान लेबल असाइनमेंट सम्मिलित है , और इसमें डिरिचलेट-बहुपद वितरण का मान है। इसके अतिरिक्त , हम इस संयुक्त वितरण को शब्द पर सशर्त वितरण तक सीमित नहीं कर सकते। इसके अतिरिक्त , हम इसे केवल प्रश्न में लेबल के लिए डाक्यूमेंट्स में शब्दों पर छोटे से संयुक्त सशर्त वितरण तक कम कर सकते हैं, और इसलिए हम उपरोक्त ट्रिक का उपयोग करके इसे सरल नहीं बना सकते हैं जो अपेक्षित गणना और पूर्व का सरल योग प्राप्त करता है। यद्यपि वास्तव में इसे ऐसे व्यक्तिगत योगों के उत्पाद के रूप में फिर से लिखना संभव है, कारकों की संख्या अधिक उच्च है, और डिरिचलेट-बहुपद वितरण संभावना की सीधे गणना करने की तुलना में स्पष्ट रूप से अधिक कुशल नहीं है।
संबंधित वितरण
डिरिचलेट-बहुपद वितरण के एक-आयामी संस्करण को बीटा-द्विपद वितरण के रूप में जाना जाता है।
डिरिचलेट-बहुपद वितरण का संबंध ऋणात्मक द्विपद वितरण के साथ है, जो पॉइसन वितरण के साथ बहुपद वितरण के संबंध के अनुरूप है।[2]
उपयोग
डिरिचलेट-बहुपद वितरण का उपयोग स्वचालित डाक्यूमेंट्स वर्गीकरण और क्लस्टरिंग, आनुवंशिकी, अर्थव्यवस्था, प्रतिद्विंद्विता मॉडलिंग और मात्रात्मक विपणन में किया जाता है।
यह भी देखें
- बीटा-द्विपद वितरण
- चीनी रेस्तरां प्रक्रिया
- डिरिचलेट प्रक्रिया
- सामान्यीकृत डिरिचलेट वितरण
- क्रिचेव्स्की-ट्रोफिमोव अनुमानक
- डिरिचलेट ऋणात्मक बहुपद वितरण
संदर्भ
उद्धरण
- ↑ 1.0 1.1 1.2 1.3 Glüsenkamp, T. (2018). "Probabilistic treatment of the uncertainty from the finite size of weighted Monte Carlo data". EPJ Plus. 133 (6): 218. arXiv:1712.01293. Bibcode:2018EPJP..133..218G. doi:10.1140/epjp/i2018-12042-x. S2CID 125665629.
- ↑ Theorem 1 of Zhou, M. (2018). "Nonparametric Bayesian Negative Binomial Factor Analysis". Bayesian Analysis. 13 (4): 1065–1093. doi:10.1214/17-BA1070.
स्रोत
- एल्कन, सी. (2006) डिरिचलेट कंपाउंड मल्टीनोमियल डिस्ट्रीब्यूशन के एक घातीय-पारिवारिक सन्निकटन के साथ क्लस्टरिंग दस्तावेज़। आईसीएमएल, 289-296।
- जॉनसन, एन.एल., कोट्ज़, एस. और बालाकृष्णन, एन. (1997) डिस्क्रीट मल्टीवेरिएट डिस्ट्रीब्यूशन (वॉल्यूम 165)। न्यूयॉर्क: विली.
- क्वाम, पी. और डे, डी. (2001) युद्ध मॉडलिंग में बहुभिन्नरूपी पोलिया वितरण। नौसेना अनुसंधान रसद, 48, 1-17।
- मैडसेन, आर.ई., कौचक, डी. और एल्कन, सी. (2005) डिरिचलेट डिस्ट्रीब्यूशन का उपयोग करके मॉडलिंग वर्ड बर्स्टनेस। आईसीएमएल, 545-552।
- मिंका, टी. (2003) एक डिरिचलेट वितरण का अनुमान लगाना। तकनीकी रिपोर्ट माइक्रोसॉफ्ट रिसर्च। डेटा में वितरण को फ़िट करने के लिए मैटलैब कोड शामिल है।
- मोसिमन, जे. ई. (1962) मिश्रित बहुपद वितरण, बहुभिन्नरूपी β-वितरण, और अनुपातों के बीच सहसंबंध। बायोमेट्रिक, 49(1-2), 65-82।
- वैगनर, यू. और टॉड्स, ए. (1986) ब्रांड चॉइस और खरीद घटना का एक बहुभिन्नरूपी पोलिया मॉडल। विपणन विज्ञान, 5(3), 219-244।
श्रेणी:बहुभिन्नरूपी असतत वितरण
श्रेणी:भिन्न -भिन्न वितरण
यौगिक संभाव्यता वितरण