गिब्स सैंपलिंग: Difference between revisions
No edit summary |
No edit summary |
||
Line 2: | Line 2: | ||
{{Bayesian statistics}} | {{Bayesian statistics}} | ||
[[आंकड़ों]] में, गिब्स प्रतिचयन या गिब्स प्रतिदर्शी एक [[मार्कोव चेन मोंटे कार्लो|मार्कोव शृंखला मोंटे कार्लो]] (एमसीएमसी)[[ कलन विधि ]]है, जो अवलोकनों का एक क्रम प्राप्त करने के लिए होता है, तथा जो तब एक निर्दिष्ट [[बहुभिन्नरूपी वितरण|बहुभिन्नरूपी]] [[संभाव्यता वितरण]] से अनुमानित होता है, जब प्रत्यक्ष प्रतिचयन कठिन होता है। इस अनुक्रम का उपयोग संयुक्त वितरण को अनुमानित करने के लिए किया जा सकता है (उदाहरण के लिए, वितरण का आयत चित्र उत्पन्न करने के लिए) | [[आंकड़ों]] में, गिब्स प्रतिचयन या गिब्स प्रतिदर्शी एक [[मार्कोव चेन मोंटे कार्लो|मार्कोव शृंखला मोंटे कार्लो]] (एमसीएमसी)[[ कलन विधि ]]है, जो अवलोकनों का एक क्रम प्राप्त करने के लिए होता है, तथा जो तब एक निर्दिष्ट [[बहुभिन्नरूपी वितरण|बहुभिन्नरूपी]] [[संभाव्यता वितरण]] से अनुमानित होता है, जब प्रत्यक्ष प्रतिचयन कठिन होता है। इस अनुक्रम का उपयोग संयुक्त वितरण को अनुमानित करने के लिए किया जा सकता है (उदाहरण के लिए, वितरण का आयत चित्र उत्पन्न करने के लिए), किसी एक चर, या चर के कुछ उपसमुच्चय (उदाहरण के लिए, अज्ञात [[पैरामीटर|प्राचल]] या [[अव्यक्त चर|अंतर्निहित चर]]) के [[सीमांत वितरण]] का अनुमान लगाने के लिए, या एक [[अभिन्न]] की गणना करने के लिए (जैसे चर में से एक का [[अपेक्षित मूल्य|प्रत्याशित मान]])। आमतौर पर, कुछ चर उन टिप्पणियों के अनुरूप होते हैं जिनके मान ज्ञात होते हैं, और इसलिए उन्हें प्रतिरूप लेने की आवश्यकता नहीं होती है। | ||
गिब्स | गिब्स प्रतिचयन आमतौर पर [[सांख्यिकीय अनुमिती]] यानी विशेष रूप से [[बेजअनुमिति]] के साधन के रूप में प्रयोग किया जाता है। यह एक [[यादृच्छिक कलन विधि]] है (अर्थात एक कलन विधि जो [[यादृच्छिक संख्याओं]] का उपयोग करता है), और [[अपेक्षा-अधिकतमकरण कलन विधि]] (ईएम) जैसे सांख्यिकीय अनुमिती के लिए [[नियतात्मक कलन विधि]] का एक विकल्प है। | ||
अन्य एमसीएमसी | अन्य एमसीएमसी कलन विधि के साथ, गिब्स प्रतिचयन प्रतिरूप की [[मार्कोव श्रृंखला]] उत्पन्न करता है, जिनमें से प्रत्येक पास के प्रतिरूप से [[संबंधित|सहसंबंधित]] है। नतीजतन, अगर स्वतंत्र प्रतिरूप वांछित हैं तो देखभाल की जानी चाहिए। आम तौर पर, श्रृंखला की शुरुआत ("अमिट होने की अवधि") से प्रतिरूप वांछित वितरण का सटीक रूप से प्रतिनिधित्व नहीं कर सकते हैं और आमतौर पर पदच्युत कर दिए जाते हैं। | ||
== परिचय == | == परिचय == | ||
सैंपलिंग (सांख्यिकी) | सैंपलिंग (सांख्यिकी) कलन विधि और [[सांख्यिकीय भौतिकी]] के बीच समानता के संदर्भ में गिब्स सैंपलिंग का नाम भौतिक विज्ञानी [[योशिय्याह विलार्ड गिब्स]] के नाम पर रखा गया है। गिब्स की मृत्यु के लगभग आठ दशक बाद 1984 में भाइयों [[ स्टुअर्ट जेमन ]] और [[ डोनाल्ड जेमन ]] द्वारा कलन विधि का वर्णन किया गया था।<ref>{{Cite journal | ||
| first1=S. |last1=Geman |author-link1=Stuart Geman | | first1=S. |last1=Geman |author-link1=Stuart Geman | ||
| first2=D. |last2=Geman |author-link2=Donald Geman | | first2=D. |last2=Geman |author-link2=Donald Geman | ||
Line 19: | Line 19: | ||
| doi = 10.1109/TPAMI.1984.4767596 | pmid=22499653 | | doi = 10.1109/TPAMI.1984.4767596 | pmid=22499653 | ||
}}</ref> और सीमांत संभाव्यता वितरण, विशेष रूप से पश्च वितरण की गणना के लिए सांख्यिकी समुदाय में लोकप्रिय हो गया।<ref>{{Cite journal |last=Gelfand |first=Alan E. |last2=Smith |first2=Adrian F. M. |date=1990-06-01 |title=सीमांत घनत्व की गणना करने के लिए नमूना-आधारित दृष्टिकोण|url=https://www.tandfonline.com/doi/abs/10.1080/01621459.1990.10476213 |journal=Journal of the American Statistical Association |volume=85 |issue=410 |pages=398–409 |doi=10.1080/01621459.1990.10476213 |issn=0162-1459}}</ref> | }}</ref> और सीमांत संभाव्यता वितरण, विशेष रूप से पश्च वितरण की गणना के लिए सांख्यिकी समुदाय में लोकप्रिय हो गया।<ref>{{Cite journal |last=Gelfand |first=Alan E. |last2=Smith |first2=Adrian F. M. |date=1990-06-01 |title=सीमांत घनत्व की गणना करने के लिए नमूना-आधारित दृष्टिकोण|url=https://www.tandfonline.com/doi/abs/10.1080/01621459.1990.10476213 |journal=Journal of the American Statistical Association |volume=85 |issue=410 |pages=398–409 |doi=10.1080/01621459.1990.10476213 |issn=0162-1459}}</ref> | ||
अपने मूल संस्करण में, गिब्स सैंपलिंग मेट्रोपोलिस-हेस्टिंग्स | अपने मूल संस्करण में, गिब्स सैंपलिंग मेट्रोपोलिस-हेस्टिंग्स कलन विधि का एक विशेष मामला है। हालांकि, इसके विस्तारित संस्करणों में (#विविधताएं और एक्सटेंशन देखें), इसे प्रत्येक चर (या कुछ मामलों में, चर के प्रत्येक समूह) को बदले में नमूना करके चर के एक बड़े सेट से प्रतिरूप के लिए एक सामान्य रूपरेखा माना जा सकता है, और इसमें शामिल हो सकता है एक या अधिक नमूनाकरण चरणों को लागू करने के लिए मेट्रोपोलिस-हेस्टिंग्स कलन विधि (या [[ टुकड़ा नमूनाकरण ]] जैसी विधियाँ)। | ||
गिब्स | गिब्स प्रतिचयन तब लागू होता है जब संयुक्त वितरण स्पष्ट रूप से ज्ञात नहीं होता है या सीधे से नमूना लेना मुश्किल होता है, लेकिन प्रत्येक चर का [[सशर्त वितरण]] ज्ञात होता है और नमूना के लिए आसान (या कम से कम, आसान) होता है। गिब्स सैंपलिंग कलन विधि बदले में प्रत्येक चर के वितरण से एक उदाहरण उत्पन्न करता है, अन्य चर के वर्तमान मूल्यों पर सशर्त। यह दिखाया जा सकता है कि नमूनों का अनुक्रम एक मार्कोव श्रृंखला का गठन करता है, और उस मार्कोव श्रृंखला का स्थिर वितरण केवल वांछित संयुक्त वितरण है।<ref>{{Cite book|title=बायेसियन डेटा विश्लेषण|last=Gelman|first=Andrew and Carlin, John B and Stern, Hal S and Dunson, David B and Vehtari, Aki and Rubin, Donald B|publisher=CRC press Boca Raton|year=2014|volume=2|location=FL}}</ref> | ||
गिब्स | गिब्स प्रतिचयन विशेष रूप से [[बायेसियन नेटवर्क]] की पिछली संभावना का नमूना लेने के लिए अनुकूलित है, क्योंकि बायेसियन नेटवर्क आमतौर पर सशर्त वितरण के संग्रह के रूप में निर्दिष्ट होते हैं। | ||
== कार्यान्वयन == | == कार्यान्वयन == | ||
गिब्स सैंपलिंग, अपने मूल अवतार में, मेट्रोपोलिस-हेस्टिंग्स | गिब्स सैंपलिंग, अपने मूल अवतार में, मेट्रोपोलिस-हेस्टिंग्स कलन विधि का एक विशेष मामला है। गिब्स प्रतिचयन का मुद्दा यह है कि एक बहुभिन्नरूपी वितरण दिया गया है, यह एक [[संयुक्त वितरण]] पर एकीकृत करके सीमांत वितरण की तुलना में एक सशर्त वितरण से नमूना लेना आसान है। मान लीजिए हम प्राप्त करना चाहते हैं <math>\left.k\right.</math> के प्रतिरूप <math>\mathbf{X} = (x_1, \dots, x_n)</math> एक संयुक्त वितरण से <math> p(x_1, \dots, x_n) </math>. निरूपित करें <math>i</math>वें नमूना द्वारा <math>\mathbf{X}^{(i)} = \left(x_1^{(i)}, \dots, x_n^{(i)}\right)</math>. हम निम्नानुसार आगे बढ़ते हैं: | ||
# हम कुछ प्रारंभिक मूल्य से शुरू करते हैं <math>\mathbf{X}^{(0)}</math>. | # हम कुछ प्रारंभिक मूल्य से शुरू करते हैं <math>\mathbf{X}^{(0)}</math>. | ||
#हम अगला नमूना चाहते हैं। इसे अगला नमूना कहें <math>\mathbf{X}^{(i+1)}</math>. तब से <math>\mathbf{X}^{(i+1)} = \left(x_1^{(i+1)}, x_2^{(i+1)}, \dots, x_n^{(i+1)}\right)</math> एक वेक्टर है, हम वेक्टर के प्रत्येक घटक का नमूना लेते हैं, <math>x_j^{(i+1)}</math>, उस घटक के वितरण से जो अब तक | #हम अगला नमूना चाहते हैं। इसे अगला नमूना कहें <math>\mathbf{X}^{(i+1)}</math>. तब से <math>\mathbf{X}^{(i+1)} = \left(x_1^{(i+1)}, x_2^{(i+1)}, \dots, x_n^{(i+1)}\right)</math> एक वेक्टर है, हम वेक्टर के प्रत्येक घटक का नमूना लेते हैं, <math>x_j^{(i+1)}</math>, उस घटक के वितरण से जो अब तक प्रतिरूप लिए गए अन्य सभी घटकों पर सशर्त है। लेकिन एक पकड़ है: हम शर्त रखते हैं <math>\mathbf{X}^{(i+1)}</math>के घटक तक <math>x_{j-1}^{(i+1)}</math>, और उसके बाद की स्थिति <math>\mathbf{X}^{(i)}</math>के घटक, से शुरू <math>x_{j+1}^{(i)}</math> को <math>x_n^{(i)}</math>. इसे प्राप्त करने के लिए, हम पहले घटक से शुरू करते हुए, क्रम में घटकों का नमूना लेते हैं। अधिक औपचारिक रूप से, नमूना लेने के लिए <math>x_j^{(i+1)}</math>, हम इसे द्वारा निर्दिष्ट वितरण के अनुसार अद्यतन करते हैं <math>p\left(x_j^{(i+1)}|x_1^{(i+1)},\dots,x_{j-1}^{(i+1)},x_{j+1}^{(i)},\dots,x_n^{(i)}\right)</math>. हम उस मान का उपयोग करते हैं जो <math>(j+1)</math>घटक में है <math>i</math>वें नमूना, नहीं <math>(i+1)</math>वें नमूना। | ||
#उपरोक्त चरण को दोहराएं <math>k</math> बार। | #उपरोक्त चरण को दोहराएं <math>k</math> बार। | ||
== गुण == | == गुण == | ||
यदि इस तरह का नमूना लिया जाता है, तो ये महत्वपूर्ण तथ्य हैं: | यदि इस तरह का नमूना लिया जाता है, तो ये महत्वपूर्ण तथ्य हैं: | ||
* | * प्रतिरूप सभी चरों के संयुक्त वितरण का अनुमान लगाते हैं। | ||
* चरों के किसी भी उपसमुच्चय के सीमांत वितरण का अनुमान लगाया जा सकता है, केवल चरों के उस उपसमुच्चय के लिए नमूनों पर विचार करके, शेष को अनदेखा कर सकते हैं। | * चरों के किसी भी उपसमुच्चय के सीमांत वितरण का अनुमान लगाया जा सकता है, केवल चरों के उस उपसमुच्चय के लिए नमूनों पर विचार करके, शेष को अनदेखा कर सकते हैं। | ||
* किसी भी चर के अपेक्षित मूल्य को सभी नमूनों के औसत से अनुमानित किया जा सकता है। | * किसी भी चर के अपेक्षित मूल्य को सभी नमूनों के औसत से अनुमानित किया जा सकता है। | ||
नमूनाकरण करते समय: | नमूनाकरण करते समय: | ||
*चरों के प्रारंभिक मूल्यों को बेतरतीब ढंग से या कुछ अन्य | *चरों के प्रारंभिक मूल्यों को बेतरतीब ढंग से या कुछ अन्य कलन विधि जैसे कि [[अपेक्षा-अधिकतमकरण]] द्वारा निर्धारित किया जा सकता है। | ||
* पहले चर के | * पहले चर के प्रतिरूप के लिए प्रारंभिक मान निर्धारित करना वास्तव में आवश्यक नहीं है। | ||
*शुरुआत (तथाकथित बर्न-इन अवधि) में कुछ नमूनों की संख्या को अनदेखा करना आम बात है, और फिर केवल प्रत्येक पर विचार करें <math>n</math>वां नमूना जब एक अपेक्षा की गणना करने के लिए मूल्यों का औसत निकाला जाता है। उदाहरण के लिए, पहले 1,000 नमूनों को नजरअंदाज किया जा सकता है, और फिर हर 100वें | *शुरुआत (तथाकथित बर्न-इन अवधि) में कुछ नमूनों की संख्या को अनदेखा करना आम बात है, और फिर केवल प्रत्येक पर विचार करें <math>n</math>वां नमूना जब एक अपेक्षा की गणना करने के लिए मूल्यों का औसत निकाला जाता है। उदाहरण के लिए, पहले 1,000 नमूनों को नजरअंदाज किया जा सकता है, और फिर हर 100वें प्रतिरूप का औसत निकाला जाता है, बाकी सभी को निकाल दिया जाता है। इसका कारण यह है कि (1) मार्कोव श्रृंखला का [[स्थिर वितरण]] चरों पर वांछित संयुक्त वितरण है, लेकिन उस स्थिर वितरण तक पहुंचने में कुछ समय लग सकता है; (2) क्रमिक प्रतिरूप एक दूसरे से स्वतंत्र नहीं होते हैं लेकिन कुछ मात्रा में सहसंबंध के साथ एक मार्कोव श्रृंखला बनाते हैं। कभी-कभी, कलन विधि का उपयोग प्रतिरूप और मूल्य के बीच स्वत: सहसंबंध की मात्रा निर्धारित करने के लिए किया जा सकता है <math>n</math> (सैम्पल के बीच की अवधि जो वास्तव में उपयोग की जाती है) की गणना इससे की जाती है, लेकिन व्यवहार में इसमें उचित मात्रा में [[काला जादू (प्रोग्रामिंग)]] शामिल होता है। | ||
* [[ तैयार किए हुयी धातु पे पानी चढाने की कला ]] की प्रक्रिया का उपयोग अक्सर सैंपलिंग प्रक्रिया के शुरुआती भाग में [[ यादृच्छिक चाल ]] व्यवहार को कम करने के लिए किया जाता है (यानी सैंपल स्पेस के चारों ओर धीरे-धीरे घूमने की प्रवृत्ति, नमूनों के बीच उच्च मात्रा में स्वतःसंबंध के साथ, जल्दी से घूमने के बजाय, जैसी इच्छा हो)। अन्य तकनीकें जो स्वत:सहसंबंध को कम कर सकती हैं, गिब्स | * [[ तैयार किए हुयी धातु पे पानी चढाने की कला ]] की प्रक्रिया का उपयोग अक्सर सैंपलिंग प्रक्रिया के शुरुआती भाग में [[ यादृच्छिक चाल ]] व्यवहार को कम करने के लिए किया जाता है (यानी सैंपल स्पेस के चारों ओर धीरे-धीरे घूमने की प्रवृत्ति, नमूनों के बीच उच्च मात्रा में स्वतःसंबंध के साथ, जल्दी से घूमने के बजाय, जैसी इच्छा हो)। अन्य तकनीकें जो स्वत:सहसंबंध को कम कर सकती हैं, गिब्स प्रतिचयन, अवरुद्ध गिब्स प्रतिचयन, और अतिविश्राम का आदेश दिया गया है; नीचे देखें। | ||
=== सशर्त वितरण और संयुक्त वितरण का संबंध === | === सशर्त वितरण और संयुक्त वितरण का संबंध === | ||
Line 54: | Line 54: | ||
== निष्कर्ष == | == निष्कर्ष == | ||
गिब्स | गिब्स प्रतिचयन आमतौर पर सांख्यिकीय अनुमिती के लिए उपयोग किया जाता है (उदाहरण के लिए पैरामीटर का सर्वोत्तम मूल्य निर्धारित करना, जैसे कि किसी विशेष स्टोर पर किसी विशेष स्टोर पर खरीदारी करने वाले लोगों की संख्या का निर्धारण करना, उम्मीदवार को मतदाता सबसे अधिक वोट देगा, आदि) . विचार यह है कि देखे गए डेटा के प्रत्येक टुकड़े के लिए अलग-अलग चर बनाकर और उन चरों से प्रतिरूप लेने के बजाय, उनके देखे गए मूल्यों के लिए चर को ठीक करके नमूनाकरण प्रक्रिया में शामिल किया गया है। शेष चरों का वितरण प्रभावी रूप से प्रेक्षित डेटा पर वातानुकूलित [[पश्च वितरण]] है। | ||
एक वांछित पैरामीटर ([[मोड (सांख्यिकी)]]) का सबसे संभावित मूल्य तब नमूना मान चुनकर चुना जा सकता है जो आमतौर पर सबसे अधिक होता है; यह अनिवार्य रूप से एक पैरामीटर के अधिकतम पोस्टीरियर अनुमान के बराबर है। (चूंकि पैरामीटर आमतौर पर निरंतर होते हैं, इसलिए मोड का एक सार्थक अनुमान प्राप्त करने के लिए नमूनाकृत मानों को परिमित संख्या में श्रेणियों या बिनों में से एक में बिन करना आवश्यक होता है।) अधिक सामान्यतः, हालांकि, अपेक्षित मूल्य (माध्य या औसत) नमूना मूल्यों का चयन किया जाता है; यह एक [[बेयस अनुमानक]] है जो पूरे वितरण के बारे में अतिरिक्त डेटा का लाभ उठाता है जो कि बायेसियन सैंपलिंग से उपलब्ध है, जबकि [[ अपेक्षा अधिकतमकरण ]] (ईएम) जैसे अधिकतमकरण | एक वांछित पैरामीटर ([[मोड (सांख्यिकी)]]) का सबसे संभावित मूल्य तब नमूना मान चुनकर चुना जा सकता है जो आमतौर पर सबसे अधिक होता है; यह अनिवार्य रूप से एक पैरामीटर के अधिकतम पोस्टीरियर अनुमान के बराबर है। (चूंकि पैरामीटर आमतौर पर निरंतर होते हैं, इसलिए मोड का एक सार्थक अनुमान प्राप्त करने के लिए नमूनाकृत मानों को परिमित संख्या में श्रेणियों या बिनों में से एक में बिन करना आवश्यक होता है।) अधिक सामान्यतः, हालांकि, अपेक्षित मूल्य (माध्य या औसत) नमूना मूल्यों का चयन किया जाता है; यह एक [[बेयस अनुमानक]] है जो पूरे वितरण के बारे में अतिरिक्त डेटा का लाभ उठाता है जो कि बायेसियन सैंपलिंग से उपलब्ध है, जबकि [[ अपेक्षा अधिकतमकरण ]] (ईएम) जैसे अधिकतमकरण कलन विधि वितरण से केवल एक बिंदु वापस करने में सक्षम है। उदाहरण के लिए, एक असमान वितरण के लिए माध्य (अपेक्षित मान) आमतौर पर मोड (सबसे सामान्य मान) के समान होता है, लेकिन यदि वितरण एक दिशा में तिरछा है, तो माध्य उस दिशा में ले जाया जाएगा, जो प्रभावी रूप से अतिरिक्त उस दिशा में संभाव्यता द्रव्यमान। (यदि कोई वितरण मल्टीमोडल है, तो अपेक्षित मान सार्थक बिंदु नहीं लौटा सकता है, और कोई भी मोड आमतौर पर बेहतर विकल्प होता है।) | ||
हालाँकि कुछ चर आम तौर पर रुचि के मापदंडों के अनुरूप होते हैं, अन्य चर के बीच संबंधों को ठीक से व्यक्त करने के लिए मॉडल में पेश किए गए अरुचिकर (उपद्रव) चर हैं। हालांकि नमूना मूल्य सभी चर पर संयुक्त वितरण का प्रतिनिधित्व करते हैं, अपेक्षित मूल्यों या मोड की गणना करते समय उपद्रव चर को आसानी से अनदेखा किया जा सकता है; यह उपद्रव चर पर सीमांत वितरण के बराबर है। जब एकाधिक चर के लिए एक मान वांछित होता है, तो अपेक्षित मान की गणना प्रत्येक चर पर अलग से की जाती है। (मोड की गणना करते समय, हालांकि, सभी चरों को एक साथ माना जाना चाहिए।) | हालाँकि कुछ चर आम तौर पर रुचि के मापदंडों के अनुरूप होते हैं, अन्य चर के बीच संबंधों को ठीक से व्यक्त करने के लिए मॉडल में पेश किए गए अरुचिकर (उपद्रव) चर हैं। हालांकि नमूना मूल्य सभी चर पर संयुक्त वितरण का प्रतिनिधित्व करते हैं, अपेक्षित मूल्यों या मोड की गणना करते समय उपद्रव चर को आसानी से अनदेखा किया जा सकता है; यह उपद्रव चर पर सीमांत वितरण के बराबर है। जब एकाधिक चर के लिए एक मान वांछित होता है, तो अपेक्षित मान की गणना प्रत्येक चर पर अलग से की जाती है। (मोड की गणना करते समय, हालांकि, सभी चरों को एक साथ माना जाना चाहिए।) | ||
Line 64: | Line 64: | ||
अवलोकन किए गए डेटा के लिए, प्रत्येक अवलोकन के लिए एक चर होगा- उदाहरण के लिए, अवलोकन के एक सेट के [[नमूना माध्य]] या नमूना भिन्नता के अनुरूप एक चर। वास्तव में, आम तौर पर नमूना माध्य या नमूना भिन्नता जैसी अवधारणाओं के अनुरूप कोई भी चर नहीं होगा। इसके बजाय, ऐसे मामले में अज्ञात वास्तविक माध्य और वास्तविक भिन्नता का प्रतिनिधित्व करने वाले चर होंगे, और इन चरों के लिए नमूना मानों का निर्धारण स्वचालित रूप से गिब्स सैम्पलर के संचालन से होता है। | अवलोकन किए गए डेटा के लिए, प्रत्येक अवलोकन के लिए एक चर होगा- उदाहरण के लिए, अवलोकन के एक सेट के [[नमूना माध्य]] या नमूना भिन्नता के अनुरूप एक चर। वास्तव में, आम तौर पर नमूना माध्य या नमूना भिन्नता जैसी अवधारणाओं के अनुरूप कोई भी चर नहीं होगा। इसके बजाय, ऐसे मामले में अज्ञात वास्तविक माध्य और वास्तविक भिन्नता का प्रतिनिधित्व करने वाले चर होंगे, और इन चरों के लिए नमूना मानों का निर्धारण स्वचालित रूप से गिब्स सैम्पलर के संचालन से होता है। | ||
[[सामान्यीकृत रैखिक मॉडल]] (यानी रैखिक प्रतिगमन की विविधताएं) कभी-कभी गिब्स | [[सामान्यीकृत रैखिक मॉडल]] (यानी रैखिक प्रतिगमन की विविधताएं) कभी-कभी गिब्स प्रतिचयन द्वारा भी नियंत्रित किए जा सकते हैं। उदाहरण के लिए, दिए गए बाइनरी (हां/नहीं) विकल्प की संभावना निर्धारित करने के लिए [[ प्रोबिट प्रतिगमन ]], प्रतिगमन गुणांकों पर रखे गए [[सामान्य वितरण]] पुरोहितों के साथ, गिब्स सैंपलिंग के साथ लागू किया जा सकता है क्योंकि अतिरिक्त चर जोड़ना और [[पूर्व संयुग्मन]] का लाभ उठाना संभव है। . हालाँकि, [[ संभार तन्त्र परावर्तन ]] को इस तरह से हैंडल नहीं किया जा सकता है। एक संभावना सामान्य वितरण के मिश्रण (आमतौर पर 7-9) के साथ [[रसद समारोह]] को अनुमानित करना है। अधिक सामान्यतः, कैसेकभी, गिब्स प्रतिरूप के बजाय मेट्रोपोलिस-हेस्टिंग्स का उपयोग किया जाता है। | ||
== गणितीय पृष्ठभूमि == | == गणितीय पृष्ठभूमि == | ||
Line 104: | Line 104: | ||
:<math>\pi(\theta_i|\theta_{-i},y)=\pi(\theta_i|\theta_1, \cdots, \theta_{i-1},\theta_{i+1},\cdots, \theta_{K},y)</math>. | :<math>\pi(\theta_i|\theta_{-i},y)=\pi(\theta_i|\theta_1, \cdots, \theta_{i-1},\theta_{i+1},\cdots, \theta_{K},y)</math>. | ||
[[File:Gibbs sampler picture.jpg|thumb|500px|गिब्स सैंपलिंग | [[File:Gibbs sampler picture.jpg|thumb|500px|गिब्स सैंपलिंग कलन विधि का सचित्र विवरण <ref name="Lee2008">{{Cite journal |last=Lee|first=Se Yoon| title = Gibbs sampler and coordinate ascent variational inference: A set-theoretical review|journal=Communications in Statistics - Theory and Methods|year=2021|doi=10.1080/03610926.2021.1921214|arxiv=2008.01006}}</ref>]] | ||
[[File:Gibbs sampling info eq.jpg|thumb|500px|एक चक्र के भीतर i-वें चरण में गिब्स सैम्पलर से जुड़ी सूचना समानता का योजनाबद्ध विवरण <ref name="Lee2008" />]]निम्नलिखित | [[File:Gibbs sampling info eq.jpg|thumb|500px|एक चक्र के भीतर i-वें चरण में गिब्स सैम्पलर से जुड़ी सूचना समानता का योजनाबद्ध विवरण <ref name="Lee2008" />]]निम्नलिखित कलन विधि एक सामान्य गिब्स सैंपलर का विवरण देता है: | ||
<math>\text{Initialize: pick arbitrary starting value}\,\, \theta^{(1)} = (\theta_1^{(1)},\theta_2^{(1)},\cdots,\theta_i^{(1)},\theta_{i+1}^{(1)},\cdots,\theta_K^{(1)}) </math> | <math>\text{Initialize: pick arbitrary starting value}\,\, \theta^{(1)} = (\theta_1^{(1)},\theta_2^{(1)},\cdots,\theta_i^{(1)},\theta_{i+1}^{(1)},\cdots,\theta_K^{(1)}) </math> | ||
Line 128: | Line 128: | ||
<math>\text{end Iterate}</math> | <math>\text{end Iterate}</math> | ||
ध्यान दें कि गिब्स सैम्पलर एक चक्र के भीतर पुनरावृत्त मोंटे कार्लो योजना द्वारा संचालित होता है। <math>S</math> एच> नमूनों की संख्या <math>\{\theta^{(s)} \}_{s=1}^{S}</math> उपरोक्त | ध्यान दें कि गिब्स सैम्पलर एक चक्र के भीतर पुनरावृत्त मोंटे कार्लो योजना द्वारा संचालित होता है। <math>S</math> एच> नमूनों की संख्या <math>\{\theta^{(s)} \}_{s=1}^{S}</math> उपरोक्त कलन विधि द्वारा तैयार किए गए मार्कोव चेन को लक्ष्य घनत्व के रूप में अपरिवर्तनीय वितरण के साथ तैयार किया गया है <math>\pi(\theta|y)</math>. | ||
अब, प्रत्येक के लिए <math>i=1,\cdots,K</math>, निम्नलिखित सूचना सैद्धांतिक मात्रा को परिभाषित करें: | अब, प्रत्येक के लिए <math>i=1,\cdots,K</math>, निम्नलिखित सूचना सैद्धांतिक मात्रा को परिभाषित करें: | ||
Line 152: | Line 152: | ||
=== अवरुद्ध गिब्स नमूना === | === अवरुद्ध गिब्स नमूना === | ||
*एक अवरुद्ध गिब्स सैम्पलर दो या दो से अधिक चरों को एक साथ समूहित करता है और उनके संयुक्त वितरण से | *एक अवरुद्ध गिब्स सैम्पलर दो या दो से अधिक चरों को एक साथ समूहित करता है और उनके संयुक्त वितरण से प्रतिरूप अलग-अलग प्रत्येक से नमूना लेने के बजाय अन्य सभी चरों पर सशर्त होता है। उदाहरण के लिए, एक छिपे [[छिपा हुआ मार्कोव मॉडल]] में, एक अवरुद्ध गिब्स सैम्पलर [[ आगे-पीछे एल्गोरिदम | आगे-पीछे कलन विधि]] का उपयोग करके मार्कोव श्रृंखला बनाने वाले सभी अव्यक्त चर से नमूना ले सकता है। | ||
=== संकुचित गिब्स नमूना === | === संकुचित गिब्स नमूना === | ||
*किसी अन्य चर के लिए नमूना लेते समय एक ढह गया गिब्स नमूना एक या अधिक चर (सीमांत वितरण) को एकीकृत करता है। उदाहरण के लिए, कल्पना करें कि एक मॉडल में तीन चर ''ए'', ''बी'' और ''सी'' शामिल हैं। एक साधारण गिब्स सैम्पलर ''p''(''A'' | ''B'',''C''), फिर ''p''(''B'' | ''A'' से नमूना लेगा ,''C''), फिर ''p''(''C'' | ''A'',''B'')। एक संक्षिप्त गिब्स सैंपलर ''A'' के लिए नमूना चरण को सीमांत वितरण ''p''(''A'' | ''C'') से लिए गए | *किसी अन्य चर के लिए नमूना लेते समय एक ढह गया गिब्स नमूना एक या अधिक चर (सीमांत वितरण) को एकीकृत करता है। उदाहरण के लिए, कल्पना करें कि एक मॉडल में तीन चर ''ए'', ''बी'' और ''सी'' शामिल हैं। एक साधारण गिब्स सैम्पलर ''p''(''A'' | ''B'',''C''), फिर ''p''(''B'' | ''A'' से नमूना लेगा ,''C''), फिर ''p''(''C'' | ''A'',''B'')। एक संक्षिप्त गिब्स सैंपलर ''A'' के लिए नमूना चरण को सीमांत वितरण ''p''(''A'' | ''C'') से लिए गए प्रतिरूप से बदल सकता है, जिसमें वेरिएबल 'B'' एकीकृत है इस मामले में बाहर। वैकल्पिक रूप से, चर ''B'' को पूरी तरह से संक्षिप्त किया जा सकता है, वैकल्पिक रूप से ''p''(''A'' | ''C'') और ''p''(''C'' | '' से नमूना लिया जा सकता है A'') और ''B'' पर नमूनाकरण बिल्कुल नहीं। एक चर ''ए'' पर वितरण जो मूल चर ''बी'' के ढहने पर उत्पन्न होता है, एक [[यौगिक वितरण]] कहलाता है; इस वितरण से नमूना आम तौर पर ट्रैक्टेबल होता है जब 'बी' 'ए' के लिए पूर्ववर्ती संयुग्म होता है, खासकर जब 'ए' और 'बी' [[घातीय परिवार]] के सदस्य होते हैं। अधिक जानकारी के लिए, यौगिक वितरण या लियू (1994) पर लेख देखें।<ref>{{cite journal | last = Liu | first = Jun S. |date=September 1994 | title = The Collapsed Gibbs Sampler in Bayesian Computations with Applications to a Gene Regulation Problem | jstor = 2290921 | journal = Journal of the American Statistical Association | volume = 89 | issue = 427 | pages = 958–966 | doi = 10.2307/2290921 }}</ref> | ||
| last = Liu | |||
| first = Jun S. | |||
|date=September 1994 | |||
| title = The Collapsed Gibbs Sampler in Bayesian Computations with Applications to a Gene Regulation Problem | |||
| jstor = 2290921 | |||
| journal = Journal of the American Statistical Association | |||
| volume = 89 | |||
| issue = 427 | |||
| pages = 958–966 | |||
| doi = 10.2307/2290921 | |||
}}</ref> | |||
Line 173: | Line 162: | ||
===== [[डिरिचलेट वितरण]] का ढहना ===== | ===== [[डिरिचलेट वितरण]] का ढहना ===== | ||
[[श्रेणीबद्ध वितरण]] के साथ [[पदानुक्रमित बायेसियन मॉडल]] में, जैसे [[अव्यक्त डिरिचलेट आवंटन]] और [[प्राकृतिक भाषा प्रसंस्करण]] में उपयोग किए जाने वाले विभिन्न अन्य मॉडल, डिरिचलेट वितरण को समाप्त करना काफी आम है जो आमतौर पर श्रेणीबद्ध चर पर [[पूर्व वितरण]] के रूप में उपयोग किया जाता है। इस ढहने का परिणाम किसी दिए गए डिरिचलेट पर निर्भर सभी स्पष्ट चर के बीच निर्भरता का परिचय देता है, और ढहने के बाद इन चरों का संयुक्त वितरण एक [[डिरिचलेट-बहुराष्ट्रीय वितरण]] है। इस वितरण में दिए गए श्रेणीबद्ध चर का सशर्त वितरण, दूसरों पर वातानुकूलित, एक अत्यंत सरल रूप ग्रहण करता है जो गिब्स | [[श्रेणीबद्ध वितरण]] के साथ [[पदानुक्रमित बायेसियन मॉडल]] में, जैसे [[अव्यक्त डिरिचलेट आवंटन]] और [[प्राकृतिक भाषा प्रसंस्करण]] में उपयोग किए जाने वाले विभिन्न अन्य मॉडल, डिरिचलेट वितरण को समाप्त करना काफी आम है जो आमतौर पर श्रेणीबद्ध चर पर [[पूर्व वितरण]] के रूप में उपयोग किया जाता है। इस ढहने का परिणाम किसी दिए गए डिरिचलेट पर निर्भर सभी स्पष्ट चर के बीच निर्भरता का परिचय देता है, और ढहने के बाद इन चरों का संयुक्त वितरण एक [[डिरिचलेट-बहुराष्ट्रीय वितरण]] है। इस वितरण में दिए गए श्रेणीबद्ध चर का सशर्त वितरण, दूसरों पर वातानुकूलित, एक अत्यंत सरल रूप ग्रहण करता है जो गिब्स प्रतिचयन को और भी आसान बना देता है, यदि ढहना नहीं किया गया होता। नियम इस प्रकार हैं: | ||
# एक डिरिचलेट पूर्व नोड को समाप्त करने से केवल पूर्व के माता-पिता और बच्चों के नोड प्रभावित होते हैं। चूंकि माता-पिता अक्सर स्थिर होते हैं, आमतौर पर केवल बच्चों के बारे में हमें चिंता करने की आवश्यकता होती है। | # एक डिरिचलेट पूर्व नोड को समाप्त करने से केवल पूर्व के माता-पिता और बच्चों के नोड प्रभावित होते हैं। चूंकि माता-पिता अक्सर स्थिर होते हैं, आमतौर पर केवल बच्चों के बारे में हमें चिंता करने की आवश्यकता होती है। | ||
#Collapsing a Dirichlet प्रायर उस पूर्व पर निर्भर सभी स्पष्ट बच्चों के बीच निर्भरता का परिचय देता है - लेकिन किसी भी अन्य श्रेणीबद्ध बच्चों के बीच कोई अतिरिक्त निर्भरता नहीं है। (यह ध्यान रखना महत्वपूर्ण है, उदाहरण के लिए, जब एक ही हाइपरप्रियर से संबंधित कई डिरिचलेट प्रीयर होते हैं। प्रत्येक डिरिचलेट पूर्व को स्वतंत्र रूप से ध्वस्त किया जा सकता है और केवल इसके प्रत्यक्ष बच्चों को प्रभावित करता है।) | #Collapsing a Dirichlet प्रायर उस पूर्व पर निर्भर सभी स्पष्ट बच्चों के बीच निर्भरता का परिचय देता है - लेकिन किसी भी अन्य श्रेणीबद्ध बच्चों के बीच कोई अतिरिक्त निर्भरता नहीं है। (यह ध्यान रखना महत्वपूर्ण है, उदाहरण के लिए, जब एक ही हाइपरप्रियर से संबंधित कई डिरिचलेट प्रीयर होते हैं। प्रत्येक डिरिचलेट पूर्व को स्वतंत्र रूप से ध्वस्त किया जा सकता है और केवल इसके प्रत्यक्ष बच्चों को प्रभावित करता है।) | ||
Line 195: | Line 184: | ||
=== ऑर्डर किए गए ओवररिलैक्सेशन के साथ गिब्स सैंपलर === | === ऑर्डर किए गए ओवररिलैक्सेशन के साथ गिब्स सैंपलर === | ||
* एक गिब्स सैम्पलर ने आदेशित ओवररिलैक्सेशन के लिए एक विषम संख्या में उम्मीदवार मूल्यों के लिए | * एक गिब्स सैम्पलर ने आदेशित ओवररिलैक्सेशन के लिए एक विषम संख्या में उम्मीदवार मूल्यों के लिए प्रतिरूप लिए <math>x_j^{(i)}</math> किसी दिए गए चरण पर और उन्हें एकल मान के साथ क्रमबद्ध करें <math>x_j^{(i-1)}</math> कुछ अच्छी तरह से परिभाषित आदेश के अनुसार। अगर <math>x_j^{(i-1)}</math> एस है<sup>th</sup> क्रमबद्ध सूची में सबसे छोटा तो the <math>x_j^{(i)}</math> एस के रूप में चुना गया है<sup>वें</sup> क्रमबद्ध सूची में सबसे बड़ा। अधिक जानकारी के लिए, नील (1995) देखें।<ref>{{cite techreport | ||
| first = Radford M. | | first = Radford M. | ||
| last = Neal | | last = Neal | ||
Line 207: | Line 196: | ||
=== अन्य एक्सटेंशन === | === अन्य एक्सटेंशन === | ||
गिब्स | गिब्स प्रतिचयन को विभिन्न तरीकों से विस्तारित करना भी संभव है। उदाहरण के लिए, वेरिएबल्स के मामले में जिनके सशर्त वितरण से नमूना लेना आसान नहीं है, स्लाइस सैंपलिंग या मेट्रोपोलिस-हेस्टिंग्स कलन विधि का एक एकल पुनरावृत्ति प्रश्न में वेरिएबल्स से नमूना लेने के लिए इस्तेमाल किया जा सकता है। | ||
उन चरों को शामिल करना भी संभव है जो [[यादृच्छिक चर]] नहीं हैं, लेकिन जिनका मान निश्चित रूप से अन्य चरों से गणना किया जाता है। [[सामान्यीकृत रैखिक मॉडल]], उदा। लॉजिस्टिक रिग्रेशन (उर्फ [[अधिकतम एन्ट्रापी वर्गीकारक]] मॉडल), इस तरह से शामिल किया जा सकता है। (बीयूजीएस, उदाहरण के लिए, मॉडल के इस प्रकार के मिश्रण की अनुमति देता है।) | उन चरों को शामिल करना भी संभव है जो [[यादृच्छिक चर]] नहीं हैं, लेकिन जिनका मान निश्चित रूप से अन्य चरों से गणना किया जाता है। [[सामान्यीकृत रैखिक मॉडल]], उदा। लॉजिस्टिक रिग्रेशन (उर्फ [[अधिकतम एन्ट्रापी वर्गीकारक]] मॉडल), इस तरह से शामिल किया जा सकता है। (बीयूजीएस, उदाहरण के लिए, मॉडल के इस प्रकार के मिश्रण की अनुमति देता है।) | ||
== विफलता मोड == | == विफलता मोड == | ||
गिब्स | गिब्स प्रतिचयन दो तरीकों से विफल हो सकता है। पहला तब होता है जब उच्च-संभावना वाले राज्यों के द्वीप होते हैं, जिनके बीच कोई रास्ता नहीं होता है। उदाहरण के लिए, 2-बिट सदिशों पर प्रायिकता वितरण पर विचार करें, जहाँ सदिशों (0,0) और (1,1) प्रत्येक की प्रायिकता ½ है, लेकिन अन्य दो सदिशों (0,1) और (1,0) की प्रायिकता है शून्य। गिब्स सैंपलिंग दो उच्च संभावना वाले वैक्टर में से एक में फंस जाएगा, और दूसरे तक कभी नहीं पहुंचेगा। अधिक आम तौर पर, उच्च-आयामी, वास्तविक-मूल्य वाले वैक्टर पर किसी भी वितरण के लिए, यदि वेक्टर के दो विशेष तत्व पूरी तरह से सहसंबद्ध (या पूरी तरह से विरोधी-सहसंबंध) हैं, तो वे दो तत्व अटक जाएंगे, और गिब्स प्रतिचयन कभी भी बदलने में सक्षम नहीं होगा उन्हें। | ||
दूसरी समस्या तब भी हो सकती है जब सभी राज्यों में संभावना शून्य न हो और उच्च संभावना वाले राज्यों का केवल एक ही द्वीप हो। उदाहरण के लिए, 100-बिट सदिशों पर प्रायिकता वितरण पर विचार करें, जहां सभी शून्य सदिश संभाव्यता ½ के साथ होता है, और अन्य सभी सदिश समान रूप से संभाव्य हैं, और इसलिए इसकी प्रायिकता है <math>\frac{1}{2(2^{100}-1)}</math> प्रत्येक। यदि आप शून्य सदिश की प्रायिकता का अनुमान लगाना चाहते हैं, तो सही वितरण से 100 या 1000 | दूसरी समस्या तब भी हो सकती है जब सभी राज्यों में संभावना शून्य न हो और उच्च संभावना वाले राज्यों का केवल एक ही द्वीप हो। उदाहरण के लिए, 100-बिट सदिशों पर प्रायिकता वितरण पर विचार करें, जहां सभी शून्य सदिश संभाव्यता ½ के साथ होता है, और अन्य सभी सदिश समान रूप से संभाव्य हैं, और इसलिए इसकी प्रायिकता है <math>\frac{1}{2(2^{100}-1)}</math> प्रत्येक। यदि आप शून्य सदिश की प्रायिकता का अनुमान लगाना चाहते हैं, तो सही वितरण से 100 या 1000 प्रतिरूप लेना पर्याप्त होगा। यह लगभग ½ के करीब उत्तर देने की संभावना है। लेकिन आपको शायद इससे ज्यादा लेना होगा <math>2^{100}</math> समान परिणाम प्राप्त करने के लिए गिब्स के प्रतिरूप से प्रतिरूप। कोई भी कंप्यूटर जीवन भर ऐसा नहीं कर सकता था। | ||
यह समस्या तब होती है जब बर्न-इन अवधि कितनी भी लंबी हो। ऐसा इसलिए है क्योंकि सही वितरण में, शून्य वेक्टर आधा समय होता है, और उन घटनाओं को गैर-शून्य वैक्टरों के साथ यादृच्छिक रूप से मिश्रित किया जाता है। यहां तक कि एक छोटा सा नमूना भी शून्य और अशून्य दोनों सदिशों को देखेगा। लेकिन गिब्स सैंपलिंग लंबी अवधि के लिए केवल शून्य वेक्टर वापस करने के बीच वैकल्पिक होगा (लगभग <math>2^{99}</math> एक पंक्ति में), फिर लंबी अवधि के लिए केवल अशून्य वैक्टर (लगभग <math>2^{99}</math> एक पंक्ति में)। इस प्रकार सही वितरण के लिए अभिसरण बेहद धीमा है, इसके लिए बहुत अधिक की आवश्यकता होती है <math>2^{99}</math> कदम; उचित समय अवधि में इतने सारे कदम उठाना कम्प्यूटेशनल रूप से संभव नहीं है। यहाँ धीमे अभिसरण को आयामीता के अभिशाप के परिणाम के रूप में देखा जा सकता है। | यह समस्या तब होती है जब बर्न-इन अवधि कितनी भी लंबी हो। ऐसा इसलिए है क्योंकि सही वितरण में, शून्य वेक्टर आधा समय होता है, और उन घटनाओं को गैर-शून्य वैक्टरों के साथ यादृच्छिक रूप से मिश्रित किया जाता है। यहां तक कि एक छोटा सा नमूना भी शून्य और अशून्य दोनों सदिशों को देखेगा। लेकिन गिब्स सैंपलिंग लंबी अवधि के लिए केवल शून्य वेक्टर वापस करने के बीच वैकल्पिक होगा (लगभग <math>2^{99}</math> एक पंक्ति में), फिर लंबी अवधि के लिए केवल अशून्य वैक्टर (लगभग <math>2^{99}</math> एक पंक्ति में)। इस प्रकार सही वितरण के लिए अभिसरण बेहद धीमा है, इसके लिए बहुत अधिक की आवश्यकता होती है <math>2^{99}</math> कदम; उचित समय अवधि में इतने सारे कदम उठाना कम्प्यूटेशनल रूप से संभव नहीं है। यहाँ धीमे अभिसरण को आयामीता के अभिशाप के परिणाम के रूप में देखा जा सकता है। | ||
इस तरह की समस्या को एक बार में पूरे 100-बिट वेक्टर को ब्लॉक सैंपलिंग द्वारा हल किया जा सकता है। (यह मानता है कि 100-बिट वेक्टर चर के एक बड़े सेट का हिस्सा है। यदि यह वेक्टर केवल एक चीज है जिसका नमूना लिया जा रहा है, तो ब्लॉक नमूनाकरण गिब्स | इस तरह की समस्या को एक बार में पूरे 100-बिट वेक्टर को ब्लॉक सैंपलिंग द्वारा हल किया जा सकता है। (यह मानता है कि 100-बिट वेक्टर चर के एक बड़े सेट का हिस्सा है। यदि यह वेक्टर केवल एक चीज है जिसका नमूना लिया जा रहा है, तो ब्लॉक नमूनाकरण गिब्स प्रतिचयन बिल्कुल नहीं करने के बराबर है, जो परिकल्पना द्वारा कठिन होगा।) | ||
== सॉफ्टवेयर == | == सॉफ्टवेयर == |
Revision as of 07:20, 9 June 2023
Part of a series on |
Bayesian statistics |
---|
![]() |
Posterior = Likelihood × Prior ÷ Evidence |
Background |
Model building |
Posterior approximation |
Estimators |
Evidence approximation |
Model evaluation |
|
आंकड़ों में, गिब्स प्रतिचयन या गिब्स प्रतिदर्शी एक मार्कोव शृंखला मोंटे कार्लो (एमसीएमसी)कलन विधि है, जो अवलोकनों का एक क्रम प्राप्त करने के लिए होता है, तथा जो तब एक निर्दिष्ट बहुभिन्नरूपी संभाव्यता वितरण से अनुमानित होता है, जब प्रत्यक्ष प्रतिचयन कठिन होता है। इस अनुक्रम का उपयोग संयुक्त वितरण को अनुमानित करने के लिए किया जा सकता है (उदाहरण के लिए, वितरण का आयत चित्र उत्पन्न करने के लिए), किसी एक चर, या चर के कुछ उपसमुच्चय (उदाहरण के लिए, अज्ञात प्राचल या अंतर्निहित चर) के सीमांत वितरण का अनुमान लगाने के लिए, या एक अभिन्न की गणना करने के लिए (जैसे चर में से एक का प्रत्याशित मान)। आमतौर पर, कुछ चर उन टिप्पणियों के अनुरूप होते हैं जिनके मान ज्ञात होते हैं, और इसलिए उन्हें प्रतिरूप लेने की आवश्यकता नहीं होती है।
गिब्स प्रतिचयन आमतौर पर सांख्यिकीय अनुमिती यानी विशेष रूप से बेजअनुमिति के साधन के रूप में प्रयोग किया जाता है। यह एक यादृच्छिक कलन विधि है (अर्थात एक कलन विधि जो यादृच्छिक संख्याओं का उपयोग करता है), और अपेक्षा-अधिकतमकरण कलन विधि (ईएम) जैसे सांख्यिकीय अनुमिती के लिए नियतात्मक कलन विधि का एक विकल्प है।
अन्य एमसीएमसी कलन विधि के साथ, गिब्स प्रतिचयन प्रतिरूप की मार्कोव श्रृंखला उत्पन्न करता है, जिनमें से प्रत्येक पास के प्रतिरूप से सहसंबंधित है। नतीजतन, अगर स्वतंत्र प्रतिरूप वांछित हैं तो देखभाल की जानी चाहिए। आम तौर पर, श्रृंखला की शुरुआत ("अमिट होने की अवधि") से प्रतिरूप वांछित वितरण का सटीक रूप से प्रतिनिधित्व नहीं कर सकते हैं और आमतौर पर पदच्युत कर दिए जाते हैं।
परिचय
सैंपलिंग (सांख्यिकी) कलन विधि और सांख्यिकीय भौतिकी के बीच समानता के संदर्भ में गिब्स सैंपलिंग का नाम भौतिक विज्ञानी योशिय्याह विलार्ड गिब्स के नाम पर रखा गया है। गिब्स की मृत्यु के लगभग आठ दशक बाद 1984 में भाइयों स्टुअर्ट जेमन और डोनाल्ड जेमन द्वारा कलन विधि का वर्णन किया गया था।[1] और सीमांत संभाव्यता वितरण, विशेष रूप से पश्च वितरण की गणना के लिए सांख्यिकी समुदाय में लोकप्रिय हो गया।[2] अपने मूल संस्करण में, गिब्स सैंपलिंग मेट्रोपोलिस-हेस्टिंग्स कलन विधि का एक विशेष मामला है। हालांकि, इसके विस्तारित संस्करणों में (#विविधताएं और एक्सटेंशन देखें), इसे प्रत्येक चर (या कुछ मामलों में, चर के प्रत्येक समूह) को बदले में नमूना करके चर के एक बड़े सेट से प्रतिरूप के लिए एक सामान्य रूपरेखा माना जा सकता है, और इसमें शामिल हो सकता है एक या अधिक नमूनाकरण चरणों को लागू करने के लिए मेट्रोपोलिस-हेस्टिंग्स कलन विधि (या टुकड़ा नमूनाकरण जैसी विधियाँ)।
गिब्स प्रतिचयन तब लागू होता है जब संयुक्त वितरण स्पष्ट रूप से ज्ञात नहीं होता है या सीधे से नमूना लेना मुश्किल होता है, लेकिन प्रत्येक चर का सशर्त वितरण ज्ञात होता है और नमूना के लिए आसान (या कम से कम, आसान) होता है। गिब्स सैंपलिंग कलन विधि बदले में प्रत्येक चर के वितरण से एक उदाहरण उत्पन्न करता है, अन्य चर के वर्तमान मूल्यों पर सशर्त। यह दिखाया जा सकता है कि नमूनों का अनुक्रम एक मार्कोव श्रृंखला का गठन करता है, और उस मार्कोव श्रृंखला का स्थिर वितरण केवल वांछित संयुक्त वितरण है।[3] गिब्स प्रतिचयन विशेष रूप से बायेसियन नेटवर्क की पिछली संभावना का नमूना लेने के लिए अनुकूलित है, क्योंकि बायेसियन नेटवर्क आमतौर पर सशर्त वितरण के संग्रह के रूप में निर्दिष्ट होते हैं।
कार्यान्वयन
गिब्स सैंपलिंग, अपने मूल अवतार में, मेट्रोपोलिस-हेस्टिंग्स कलन विधि का एक विशेष मामला है। गिब्स प्रतिचयन का मुद्दा यह है कि एक बहुभिन्नरूपी वितरण दिया गया है, यह एक संयुक्त वितरण पर एकीकृत करके सीमांत वितरण की तुलना में एक सशर्त वितरण से नमूना लेना आसान है। मान लीजिए हम प्राप्त करना चाहते हैं के प्रतिरूप एक संयुक्त वितरण से . निरूपित करें वें नमूना द्वारा . हम निम्नानुसार आगे बढ़ते हैं:
- हम कुछ प्रारंभिक मूल्य से शुरू करते हैं .
- हम अगला नमूना चाहते हैं। इसे अगला नमूना कहें . तब से एक वेक्टर है, हम वेक्टर के प्रत्येक घटक का नमूना लेते हैं, , उस घटक के वितरण से जो अब तक प्रतिरूप लिए गए अन्य सभी घटकों पर सशर्त है। लेकिन एक पकड़ है: हम शर्त रखते हैं के घटक तक , और उसके बाद की स्थिति के घटक, से शुरू को . इसे प्राप्त करने के लिए, हम पहले घटक से शुरू करते हुए, क्रम में घटकों का नमूना लेते हैं। अधिक औपचारिक रूप से, नमूना लेने के लिए , हम इसे द्वारा निर्दिष्ट वितरण के अनुसार अद्यतन करते हैं . हम उस मान का उपयोग करते हैं जो घटक में है वें नमूना, नहीं वें नमूना।
- उपरोक्त चरण को दोहराएं बार।
गुण
यदि इस तरह का नमूना लिया जाता है, तो ये महत्वपूर्ण तथ्य हैं:
- प्रतिरूप सभी चरों के संयुक्त वितरण का अनुमान लगाते हैं।
- चरों के किसी भी उपसमुच्चय के सीमांत वितरण का अनुमान लगाया जा सकता है, केवल चरों के उस उपसमुच्चय के लिए नमूनों पर विचार करके, शेष को अनदेखा कर सकते हैं।
- किसी भी चर के अपेक्षित मूल्य को सभी नमूनों के औसत से अनुमानित किया जा सकता है।
नमूनाकरण करते समय:
- चरों के प्रारंभिक मूल्यों को बेतरतीब ढंग से या कुछ अन्य कलन विधि जैसे कि अपेक्षा-अधिकतमकरण द्वारा निर्धारित किया जा सकता है।
- पहले चर के प्रतिरूप के लिए प्रारंभिक मान निर्धारित करना वास्तव में आवश्यक नहीं है।
- शुरुआत (तथाकथित बर्न-इन अवधि) में कुछ नमूनों की संख्या को अनदेखा करना आम बात है, और फिर केवल प्रत्येक पर विचार करें वां नमूना जब एक अपेक्षा की गणना करने के लिए मूल्यों का औसत निकाला जाता है। उदाहरण के लिए, पहले 1,000 नमूनों को नजरअंदाज किया जा सकता है, और फिर हर 100वें प्रतिरूप का औसत निकाला जाता है, बाकी सभी को निकाल दिया जाता है। इसका कारण यह है कि (1) मार्कोव श्रृंखला का स्थिर वितरण चरों पर वांछित संयुक्त वितरण है, लेकिन उस स्थिर वितरण तक पहुंचने में कुछ समय लग सकता है; (2) क्रमिक प्रतिरूप एक दूसरे से स्वतंत्र नहीं होते हैं लेकिन कुछ मात्रा में सहसंबंध के साथ एक मार्कोव श्रृंखला बनाते हैं। कभी-कभी, कलन विधि का उपयोग प्रतिरूप और मूल्य के बीच स्वत: सहसंबंध की मात्रा निर्धारित करने के लिए किया जा सकता है (सैम्पल के बीच की अवधि जो वास्तव में उपयोग की जाती है) की गणना इससे की जाती है, लेकिन व्यवहार में इसमें उचित मात्रा में काला जादू (प्रोग्रामिंग) शामिल होता है।
- तैयार किए हुयी धातु पे पानी चढाने की कला की प्रक्रिया का उपयोग अक्सर सैंपलिंग प्रक्रिया के शुरुआती भाग में यादृच्छिक चाल व्यवहार को कम करने के लिए किया जाता है (यानी सैंपल स्पेस के चारों ओर धीरे-धीरे घूमने की प्रवृत्ति, नमूनों के बीच उच्च मात्रा में स्वतःसंबंध के साथ, जल्दी से घूमने के बजाय, जैसी इच्छा हो)। अन्य तकनीकें जो स्वत:सहसंबंध को कम कर सकती हैं, गिब्स प्रतिचयन, अवरुद्ध गिब्स प्रतिचयन, और अतिविश्राम का आदेश दिया गया है; नीचे देखें।
सशर्त वितरण और संयुक्त वितरण का संबंध
इसके अलावा, अन्य सभी दिए गए एक चर का सशर्त वितरण संयुक्त वितरण के समानुपाती होता है:
इस मामले में आनुपातिक का अर्थ है कि भाजक का कार्य नहीं है और इस प्रकार के सभी मूल्यों के लिए समान है ; यह वितरण ओवर के लिए सामान्यीकरण स्थिरांक का हिस्सा बनता है . व्यवहार में, एक कारक के सशर्त वितरण की प्रकृति का निर्धारण करने के लिए , चर पर ग्राफिकल मॉडल द्वारा परिभाषित अलग-अलग सशर्त वितरण के अनुसार संयुक्त वितरण को कारक बनाना सबसे आसान है, उन सभी कारकों को अनदेखा करें जो कार्य नहीं हैं (इनमें से सभी, ऊपर के भाजक के साथ मिलकर सामान्यीकरण स्थिरांक का गठन करते हैं), और फिर आवश्यकतानुसार सामान्यीकरण स्थिरांक को अंत में बहाल करते हैं। व्यवहार में, इसका मतलब तीन चीजों में से एक करना है:
- यदि बंटन असतत है, तो के सभी संभव मानों की अलग-अलग प्रायिकताएँ गणना की जाती है, और फिर सामान्यीकरण स्थिरांक खोजने के लिए अभिव्यक्त किया जाता है।
- यदि वितरण निरंतर है और ज्ञात रूप का है, तो सामान्यीकरण स्थिरांक भी ज्ञात होगा।
- अन्य मामलों में, सामान्यीकरण स्थिरांक को आमतौर पर अनदेखा किया जा सकता है, क्योंकि अधिकांश नमूनाकरण विधियों को इसकी आवश्यकता नहीं होती है।
निष्कर्ष
गिब्स प्रतिचयन आमतौर पर सांख्यिकीय अनुमिती के लिए उपयोग किया जाता है (उदाहरण के लिए पैरामीटर का सर्वोत्तम मूल्य निर्धारित करना, जैसे कि किसी विशेष स्टोर पर किसी विशेष स्टोर पर खरीदारी करने वाले लोगों की संख्या का निर्धारण करना, उम्मीदवार को मतदाता सबसे अधिक वोट देगा, आदि) . विचार यह है कि देखे गए डेटा के प्रत्येक टुकड़े के लिए अलग-अलग चर बनाकर और उन चरों से प्रतिरूप लेने के बजाय, उनके देखे गए मूल्यों के लिए चर को ठीक करके नमूनाकरण प्रक्रिया में शामिल किया गया है। शेष चरों का वितरण प्रभावी रूप से प्रेक्षित डेटा पर वातानुकूलित पश्च वितरण है।
एक वांछित पैरामीटर (मोड (सांख्यिकी)) का सबसे संभावित मूल्य तब नमूना मान चुनकर चुना जा सकता है जो आमतौर पर सबसे अधिक होता है; यह अनिवार्य रूप से एक पैरामीटर के अधिकतम पोस्टीरियर अनुमान के बराबर है। (चूंकि पैरामीटर आमतौर पर निरंतर होते हैं, इसलिए मोड का एक सार्थक अनुमान प्राप्त करने के लिए नमूनाकृत मानों को परिमित संख्या में श्रेणियों या बिनों में से एक में बिन करना आवश्यक होता है।) अधिक सामान्यतः, हालांकि, अपेक्षित मूल्य (माध्य या औसत) नमूना मूल्यों का चयन किया जाता है; यह एक बेयस अनुमानक है जो पूरे वितरण के बारे में अतिरिक्त डेटा का लाभ उठाता है जो कि बायेसियन सैंपलिंग से उपलब्ध है, जबकि अपेक्षा अधिकतमकरण (ईएम) जैसे अधिकतमकरण कलन विधि वितरण से केवल एक बिंदु वापस करने में सक्षम है। उदाहरण के लिए, एक असमान वितरण के लिए माध्य (अपेक्षित मान) आमतौर पर मोड (सबसे सामान्य मान) के समान होता है, लेकिन यदि वितरण एक दिशा में तिरछा है, तो माध्य उस दिशा में ले जाया जाएगा, जो प्रभावी रूप से अतिरिक्त उस दिशा में संभाव्यता द्रव्यमान। (यदि कोई वितरण मल्टीमोडल है, तो अपेक्षित मान सार्थक बिंदु नहीं लौटा सकता है, और कोई भी मोड आमतौर पर बेहतर विकल्प होता है।)
हालाँकि कुछ चर आम तौर पर रुचि के मापदंडों के अनुरूप होते हैं, अन्य चर के बीच संबंधों को ठीक से व्यक्त करने के लिए मॉडल में पेश किए गए अरुचिकर (उपद्रव) चर हैं। हालांकि नमूना मूल्य सभी चर पर संयुक्त वितरण का प्रतिनिधित्व करते हैं, अपेक्षित मूल्यों या मोड की गणना करते समय उपद्रव चर को आसानी से अनदेखा किया जा सकता है; यह उपद्रव चर पर सीमांत वितरण के बराबर है। जब एकाधिक चर के लिए एक मान वांछित होता है, तो अपेक्षित मान की गणना प्रत्येक चर पर अलग से की जाती है। (मोड की गणना करते समय, हालांकि, सभी चरों को एक साथ माना जाना चाहिए।)
पर्यवेक्षित अध्ययन , अनियंत्रित शिक्षा और अर्ध-पर्यवेक्षित शिक्षा (उर्फ लर्निंग विद मिसिंग वैल्यूज) सभी को उन सभी वेरिएबल्स के मानों को ठीक करके नियंत्रित किया जा सकता है, जिनके मूल्य ज्ञात हैं, और शेष से नमूना लेना।
अवलोकन किए गए डेटा के लिए, प्रत्येक अवलोकन के लिए एक चर होगा- उदाहरण के लिए, अवलोकन के एक सेट के नमूना माध्य या नमूना भिन्नता के अनुरूप एक चर। वास्तव में, आम तौर पर नमूना माध्य या नमूना भिन्नता जैसी अवधारणाओं के अनुरूप कोई भी चर नहीं होगा। इसके बजाय, ऐसे मामले में अज्ञात वास्तविक माध्य और वास्तविक भिन्नता का प्रतिनिधित्व करने वाले चर होंगे, और इन चरों के लिए नमूना मानों का निर्धारण स्वचालित रूप से गिब्स सैम्पलर के संचालन से होता है।
सामान्यीकृत रैखिक मॉडल (यानी रैखिक प्रतिगमन की विविधताएं) कभी-कभी गिब्स प्रतिचयन द्वारा भी नियंत्रित किए जा सकते हैं। उदाहरण के लिए, दिए गए बाइनरी (हां/नहीं) विकल्प की संभावना निर्धारित करने के लिए प्रोबिट प्रतिगमन , प्रतिगमन गुणांकों पर रखे गए सामान्य वितरण पुरोहितों के साथ, गिब्स सैंपलिंग के साथ लागू किया जा सकता है क्योंकि अतिरिक्त चर जोड़ना और पूर्व संयुग्मन का लाभ उठाना संभव है। . हालाँकि, संभार तन्त्र परावर्तन को इस तरह से हैंडल नहीं किया जा सकता है। एक संभावना सामान्य वितरण के मिश्रण (आमतौर पर 7-9) के साथ रसद समारोह को अनुमानित करना है। अधिक सामान्यतः, कैसेकभी, गिब्स प्रतिरूप के बजाय मेट्रोपोलिस-हेस्टिंग्स का उपयोग किया जाता है।
गणितीय पृष्ठभूमि
मान लीजिए कि एक नमूना पैरामीटर वेक्टर के आधार पर वितरण से लिया जाता है लंबाई का , पूर्व वितरण के साथ . यह हो सकता है कि बहुत बड़ा है और उस संख्यात्मक एकीकरण के सीमांत घनत्व को खोजने के लिए कम्प्यूटेशनल रूप से महंगा होगा। फिर सीमांत घनत्व की गणना करने का एक वैकल्पिक तरीका अंतरिक्ष पर एक मार्कोव श्रृंखला बनाना है इन दो चरणों को दोहरा कर:
- एक यादृच्छिक सूचकांक चुनें
- के लिए एक नया मान चुनें के अनुसार
ये चरण वांछित अपरिवर्तनीय वितरण के साथ एक मार्कोव श्रृंखला#प्रतिवर्ती मार्कोव श्रृंखला को परिभाषित करते हैं . यह निम्नानुसार सिद्ध किया जा सकता है। परिभाषित करना अगर सभी के लिए और जाने से कूदने की संभावना को निरूपित करें को . फिर, संक्रमण संभावनाएं हैं
इसलिए
तब से एक तुल्यता संबंध है। इस प्रकार विस्तृत संतुलन समीकरण संतुष्ट हैं, जिसका अर्थ है कि श्रृंखला उत्क्रमणीय है और इसमें अपरिवर्तनीय वितरण है .
व्यवहार में, index यादृच्छिक रूप से नहीं चुना जाता है, और अनुक्रमित के माध्यम से श्रृंखला चक्र क्रम में होता है। सामान्य तौर पर यह एक गैर-स्थिर मार्कोव प्रक्रिया देता है, लेकिन प्रत्येक व्यक्तिगत चरण अभी भी प्रतिवर्ती होगा, और समग्र प्रक्रिया में अभी भी वांछित स्थिर वितरण होगा (जब तक कि श्रृंखला निश्चित क्रम के तहत सभी राज्यों तक पहुंच सकती है)।
बायेसियन अनुमान में गिब्स सैम्पलर और सूचना सिद्धांत से इसका संबंध
होने देना नमूना वितरण से उत्पन्न टिप्पणियों को निरूपित करें और पैरामीटर स्पेस पर पूर्व समर्थित हो . फिर बायेसियन आँकड़ों का एक केंद्रीय लक्ष्य पश्च घनत्व का अनुमान लगाना है
जहां मामूली संभावना है सभी के लिए परिमित माना जाता है .
गिब्स सैंपलर की व्याख्या करने के लिए, हम अतिरिक्त रूप से मान लेते हैं कि पैरामीटर स्पेस रूप में विघटित हो जाता है
- ,
कहाँ कार्टेशियन उत्पाद का प्रतिनिधित्व करता है। प्रत्येक घटक पैरामीटर स्थान स्केलर घटकों, सबवेक्टर या मैट्रिसेस का एक सेट हो सकता है।
समुच्चय को परिभाषित कीजिए जो पूरक करता है . गिब्स सैम्पलर की आवश्यक सामग्री है प्रत्येक के लिए -वाँ पूर्ण सशर्त पश्च वितरण
- .
![](https://upload.wikimedia.org/wikipedia/commons/thumb/3/37/Gibbs_sampler_picture.jpg/500px-Gibbs_sampler_picture.jpg)
![](https://upload.wikimedia.org/wikipedia/commons/thumb/6/62/Gibbs_sampling_info_eq.jpg/500px-Gibbs_sampling_info_eq.jpg)
निम्नलिखित कलन विधि एक सामान्य गिब्स सैंपलर का विवरण देता है:
ध्यान दें कि गिब्स सैम्पलर एक चक्र के भीतर पुनरावृत्त मोंटे कार्लो योजना द्वारा संचालित होता है। एच> नमूनों की संख्या उपरोक्त कलन विधि द्वारा तैयार किए गए मार्कोव चेन को लक्ष्य घनत्व के रूप में अपरिवर्तनीय वितरण के साथ तैयार किया गया है .
अब, प्रत्येक के लिए , निम्नलिखित सूचना सैद्धांतिक मात्रा को परिभाषित करें:
अर्थात्, पश्च पारस्परिक सूचना, पश्च अंतर एन्ट्रापी, और पश्च सशर्त अंतर एन्ट्रापी, क्रमशः। हम इसी तरह सूचना सिद्धांतिक मात्राओं को परिभाषित कर सकते हैं , , और अदला-बदली करके और परिभाषित मात्रा में। फिर, निम्नलिखित समीकरण कायम हैं।[4]
.
आपसी जानकारी यादृच्छिक मात्रा की अनिश्चितता में कमी की मात्रा निर्धारित करता है एक बार हम जानते हैं , वापस। यह गायब हो जाता है अगर और केवल अगर और आंशिक रूप से स्वतंत्र हैं, एक पश्च। आपसी जानकारी से प्रसारित होने वाली मात्रा के रूप में व्याख्या की जा सकती है -वें चरण के लिए गिब्स सैम्पलर के एकल चक्र के भीतर -वाँ चरण।
रूपांतर और विस्तार
बुनियादी गिब्स सैम्पलर के कई रूप मौजूद हैं। इन विविधताओं का लक्ष्य किसी भी अतिरिक्त कम्प्यूटेशनल लागतों को दूर करने के लिए पर्याप्त रूप से नमूनों के बीच स्वत: संबंध को कम करना है।
अवरुद्ध गिब्स नमूना
- एक अवरुद्ध गिब्स सैम्पलर दो या दो से अधिक चरों को एक साथ समूहित करता है और उनके संयुक्त वितरण से प्रतिरूप अलग-अलग प्रत्येक से नमूना लेने के बजाय अन्य सभी चरों पर सशर्त होता है। उदाहरण के लिए, एक छिपे छिपा हुआ मार्कोव मॉडल में, एक अवरुद्ध गिब्स सैम्पलर आगे-पीछे कलन विधि का उपयोग करके मार्कोव श्रृंखला बनाने वाले सभी अव्यक्त चर से नमूना ले सकता है।
संकुचित गिब्स नमूना
- किसी अन्य चर के लिए नमूना लेते समय एक ढह गया गिब्स नमूना एक या अधिक चर (सीमांत वितरण) को एकीकृत करता है। उदाहरण के लिए, कल्पना करें कि एक मॉडल में तीन चर ए, बी और सी शामिल हैं। एक साधारण गिब्स सैम्पलर p(A | B,C), फिर p(B | A से नमूना लेगा ,C), फिर p(C | A,B)। एक संक्षिप्त गिब्स सैंपलर A के लिए नमूना चरण को सीमांत वितरण p(A | C) से लिए गए प्रतिरूप से बदल सकता है, जिसमें वेरिएबल 'B एकीकृत है इस मामले में बाहर। वैकल्पिक रूप से, चर B को पूरी तरह से संक्षिप्त किया जा सकता है, वैकल्पिक रूप से p(A | C) और p(C | से नमूना लिया जा सकता है A) और B पर नमूनाकरण बिल्कुल नहीं। एक चर ए पर वितरण जो मूल चर बी के ढहने पर उत्पन्न होता है, एक यौगिक वितरण कहलाता है; इस वितरण से नमूना आम तौर पर ट्रैक्टेबल होता है जब 'बी' 'ए' के लिए पूर्ववर्ती संयुग्म होता है, खासकर जब 'ए' और 'बी' घातीय परिवार के सदस्य होते हैं। अधिक जानकारी के लिए, यौगिक वितरण या लियू (1994) पर लेख देखें।[5]
एक ढह चुके गिब्स सैंपलर को लागू करना
डिरिचलेट वितरण का ढहना
श्रेणीबद्ध वितरण के साथ पदानुक्रमित बायेसियन मॉडल में, जैसे अव्यक्त डिरिचलेट आवंटन और प्राकृतिक भाषा प्रसंस्करण में उपयोग किए जाने वाले विभिन्न अन्य मॉडल, डिरिचलेट वितरण को समाप्त करना काफी आम है जो आमतौर पर श्रेणीबद्ध चर पर पूर्व वितरण के रूप में उपयोग किया जाता है। इस ढहने का परिणाम किसी दिए गए डिरिचलेट पर निर्भर सभी स्पष्ट चर के बीच निर्भरता का परिचय देता है, और ढहने के बाद इन चरों का संयुक्त वितरण एक डिरिचलेट-बहुराष्ट्रीय वितरण है। इस वितरण में दिए गए श्रेणीबद्ध चर का सशर्त वितरण, दूसरों पर वातानुकूलित, एक अत्यंत सरल रूप ग्रहण करता है जो गिब्स प्रतिचयन को और भी आसान बना देता है, यदि ढहना नहीं किया गया होता। नियम इस प्रकार हैं:
- एक डिरिचलेट पूर्व नोड को समाप्त करने से केवल पूर्व के माता-पिता और बच्चों के नोड प्रभावित होते हैं। चूंकि माता-पिता अक्सर स्थिर होते हैं, आमतौर पर केवल बच्चों के बारे में हमें चिंता करने की आवश्यकता होती है।
- Collapsing a Dirichlet प्रायर उस पूर्व पर निर्भर सभी स्पष्ट बच्चों के बीच निर्भरता का परिचय देता है - लेकिन किसी भी अन्य श्रेणीबद्ध बच्चों के बीच कोई अतिरिक्त निर्भरता नहीं है। (यह ध्यान रखना महत्वपूर्ण है, उदाहरण के लिए, जब एक ही हाइपरप्रियर से संबंधित कई डिरिचलेट प्रीयर होते हैं। प्रत्येक डिरिचलेट पूर्व को स्वतंत्र रूप से ध्वस्त किया जा सकता है और केवल इसके प्रत्यक्ष बच्चों को प्रभावित करता है।)
- ढहने के बाद, एक आश्रित बच्चों का दूसरों पर सशर्त वितरण एक बहुत ही सरल रूप ग्रहण करता है: किसी दिए गए मूल्य को देखने की संभावना इस मूल्य के लिए संबंधित हाइपरप्रियर के योग के समानुपाती होती है, और अन्य सभी आश्रित नोड्स की गिनती समान मान मानकर। समान पूर्व पर निर्भर नहीं होने वाले नोड्स की गणना नहीं की जानी चाहिए। यही नियम अन्य पुनरावृत्त अनुमान विधियों में भी लागू होता है, जैसे वैरिएबल बेज़ या अपेक्षा अधिकतमीकरण; हालाँकि, यदि विधि में आंशिक गणना रखना शामिल है, तो विचाराधीन मान के लिए आंशिक गणना को अन्य सभी आश्रित नोड्स में सम्मिलित किया जाना चाहिए। कभी-कभी इस सारांशित आंशिक गणना को अपेक्षित गणना या समान कहा जाता है। संभाव्यता परिणामी मान के समानुपाती होती है; वास्तविक संभाव्यता को उन सभी संभावित मानों के सामान्यीकरण द्वारा निर्धारित किया जाना चाहिए जो श्रेणीबद्ध चर ले सकते हैं (अर्थात श्रेणीबद्ध चर के प्रत्येक संभावित मान के लिए परिकलित परिणाम जोड़ना, और इस योग से सभी परिकलित परिणामों को विभाजित करना)।
- यदि किसी दिए गए श्रेणीबद्ध नोड में आश्रित बच्चे हैं (उदाहरण के लिए जब यह मिश्रण मॉडल में एक अव्यक्त चर है), पिछले चरण में गणना की गई मान (अपेक्षित गणना प्लस पूर्व, या जो कुछ भी गणना की गई है) को वास्तविक सशर्त संभावनाओं से गुणा किया जाना चाहिए ( सभी बच्चों को उनके माता-पिता को दिए गए संभाव्यता के समानुपातिक नहीं है। विस्तृत चर्चा के लिए डिरिचलेट-बहुराष्ट्रीय बंटन पर लेख देखें।
- ऐसे मामले में जहां किसी दिए गए डिरिचलेट पूर्व पर निर्भर नोड्स की समूह सदस्यता कुछ अन्य चर के आधार पर गतिशील रूप से बदल सकती है (उदाहरण के लिए एक विषय मॉडल के रूप में एक अन्य अव्यक्त श्रेणीबद्ध चर द्वारा अनुक्रमित एक श्रेणीबद्ध चर), वही अपेक्षित गणना अभी भी हैं परिकलित, लेकिन सावधानी से करने की आवश्यकता है ताकि चरों का सही सेट शामिल किया जा सके। विषय मॉडल के संदर्भ सहित, अधिक चर्चा के लिए डिरिचलेट-बहुराष्ट्रीय वितरण पर लेख देखें।
अन्य संयुग्मी पुरोहितों का समाप्त होना
सामान्य तौर पर, किसी भी संयुग्म को पूर्व में ध्वस्त किया जा सकता है, यदि उसके एकमात्र बच्चों के वितरण संयुग्म हैं। यौगिक वितरण पर लेख में प्रासंगिक गणित पर चर्चा की गई है। यदि केवल एक चाइल्ड नोड है, तो परिणाम अक्सर एक ज्ञात वितरण मान लेगा। उदाहरण के लिए, एक एकल पॉसों वितरण चाइल्ड के साथ एक नेटवर्क के बाहर एक उलटा गामा वितरण|इनवर्स-गामा-डिस्ट्रीब्यूटेड झगड़ा को कोलैप्स करने से स्टूडेंट का टी-डिस्ट्रीब्यूशन मिलेगा। (उस मामले के लिए, एक एकल गॉसियन बच्चे के माध्य और विचरण दोनों को ढहाने से अभी भी एक छात्र का टी-वितरण प्राप्त होगा, बशर्ते दोनों संयुग्मित हों, यानी गॉसियन माध्य, व्युत्क्रम-गामा विचरण।)
यदि कई बच्चे नोड हैं, तो वे सभी निर्भर हो जाएंगे, जैसा कि डिरिचलेट वितरण-श्रेणीबद्ध वितरण मामले में है। परिणामी संयुक्त वितरण का एक बंद रूप होगा जो कुछ मायनों में यौगिक वितरण जैसा दिखता है, हालांकि इसमें कई कारकों का उत्पाद होगा, प्रत्येक बच्चे के नोड के लिए एक।
इसके अलावा, और सबसे महत्वपूर्ण बात यह है कि दूसरों को दिए गए चाइल्ड नोड्स में से एक के परिणामस्वरूप सशर्त वितरण (और ढह गए नोड के माता-पिता को भी दिया गया है, लेकिन चाइल्ड नोड्स के बच्चों को नहीं दिया गया है) के समान घनत्व होगा शेष सभी चाइल्ड नोड्स का पश्च भविष्य कहनेवाला वितरण । इसके अलावा, पश्च भविष्यवाणिय वितरण में एकल नोड के मूल यौगिक वितरण के समान घनत्व है, हालांकि विभिन्न मापदंडों के साथ। यौगिक वितरण पर लेख में सामान्य सूत्र दिया गया है।
उदाहरण के लिए, सशर्त रूप से स्वतंत्र समान रूप से वितरित गॉसियन वितरण के एक सेट के साथ एक बेयस नेटवर्क दिया गया है। गाऊसी-वितरित नोड्स के साथ संयुग्मित पूर्व वितरण माध्य और भिन्नता पर रखा गया है, एक नोड का सशर्त वितरण दूसरों को माध्य और विचरण दोनों को संयोजित करने के बाद दिया गया है। एक छात्र का टी-वितरण होगा। इसी तरह, कई पॉसॉन वितरण से पहले [[गाऊसी वितरण]] को कंपाउंडिंग करने का परिणाम | पॉइसन-वितरित नोड्स एक नोड के सशर्त वितरण का कारण बनता है, जिससे अन्य एक नकारात्मक द्विपद वितरण मान लेते हैं।
इन मामलों में जहां कंपाउंडिंग एक प्रसिद्ध वितरण का उत्पादन करता है, कुशल नमूनाकरण प्रक्रियाएं अक्सर मौजूद होती हैं, और उनका उपयोग करना अक्सर (हालांकि जरूरी नहीं) ढहने से अधिक कुशल होगा, और इसके बजाय पूर्व और बच्चे दोनों नोड्स को अलग-अलग नमूना लेना होगा। हालाँकि, ऐसे मामले में जहां यौगिक वितरण अच्छी तरह से ज्ञात नहीं है, इसका नमूना लेना आसान नहीं हो सकता है, क्योंकि यह आम तौर पर घातीय परिवार से संबंधित नहीं होगा और आमतौर पर लघुगणकीय रूप से अवतल कार्य नहीं होगा। अनुकूली अस्वीकृति नमूनाकरण का उपयोग करके नमूना लेना आसान है, क्योंकि एक बंद रूप हमेशा मौजूद रहता है)।
ऐसे मामले में जहां ढह गए नोड्स के बच्चे नोड्स में बच्चे हैं, इन बच्चों के नोड्स में से एक का सशर्त वितरण ग्राफ में अन्य सभी नोड्स को इन दूसरे स्तर के बच्चों के वितरण को ध्यान में रखना होगा। विशेष रूप से, परिणामी सशर्त वितरण संयुक्त वितरण के एक उत्पाद के समानुपाती होगा जैसा कि ऊपर परिभाषित किया गया है, और सभी बच्चे नोड्स के सशर्त वितरण उनके माता-पिता को दिए गए हैं (लेकिन अपने स्वयं के बच्चों को नहीं दिए गए हैं)। यह इस तथ्य से अनुसरण करता है कि पूर्ण सशर्त वितरण संयुक्त वितरण के समानुपाती होता है। यदि ढह गए नोड्स के बच्चे के नोड्स निरंतर वितरण हैं, तो यह वितरण आम तौर पर एक ज्ञात रूप का नहीं होगा, और इस तथ्य के बावजूद नमूना बनाना मुश्किल हो सकता है कि एक बंद फॉर्म लिखा जा सकता है, ऊपर वर्णित कारणों के लिए गैर-ज्ञात यौगिक वितरण। हालाँकि, विशेष मामले में कि बच्चे के नोड असतत वितरण हैं, नमूना संभव है, भले ही इन बच्चे के नोड के बच्चे निरंतर होंअसतत या असतत। वास्तव में, यहां शामिल सिद्धांत को डिरिचलेट-बहुराष्ट्रीय वितरण पर लेख में उचित विवरण में वर्णित किया गया है।
ऑर्डर किए गए ओवररिलैक्सेशन के साथ गिब्स सैंपलर
- एक गिब्स सैम्पलर ने आदेशित ओवररिलैक्सेशन के लिए एक विषम संख्या में उम्मीदवार मूल्यों के लिए प्रतिरूप लिए किसी दिए गए चरण पर और उन्हें एकल मान के साथ क्रमबद्ध करें कुछ अच्छी तरह से परिभाषित आदेश के अनुसार। अगर एस हैth क्रमबद्ध सूची में सबसे छोटा तो the एस के रूप में चुना गया हैवें क्रमबद्ध सूची में सबसे बड़ा। अधिक जानकारी के लिए, नील (1995) देखें।[6]
अन्य एक्सटेंशन
गिब्स प्रतिचयन को विभिन्न तरीकों से विस्तारित करना भी संभव है। उदाहरण के लिए, वेरिएबल्स के मामले में जिनके सशर्त वितरण से नमूना लेना आसान नहीं है, स्लाइस सैंपलिंग या मेट्रोपोलिस-हेस्टिंग्स कलन विधि का एक एकल पुनरावृत्ति प्रश्न में वेरिएबल्स से नमूना लेने के लिए इस्तेमाल किया जा सकता है। उन चरों को शामिल करना भी संभव है जो यादृच्छिक चर नहीं हैं, लेकिन जिनका मान निश्चित रूप से अन्य चरों से गणना किया जाता है। सामान्यीकृत रैखिक मॉडल, उदा। लॉजिस्टिक रिग्रेशन (उर्फ अधिकतम एन्ट्रापी वर्गीकारक मॉडल), इस तरह से शामिल किया जा सकता है। (बीयूजीएस, उदाहरण के लिए, मॉडल के इस प्रकार के मिश्रण की अनुमति देता है।)
विफलता मोड
गिब्स प्रतिचयन दो तरीकों से विफल हो सकता है। पहला तब होता है जब उच्च-संभावना वाले राज्यों के द्वीप होते हैं, जिनके बीच कोई रास्ता नहीं होता है। उदाहरण के लिए, 2-बिट सदिशों पर प्रायिकता वितरण पर विचार करें, जहाँ सदिशों (0,0) और (1,1) प्रत्येक की प्रायिकता ½ है, लेकिन अन्य दो सदिशों (0,1) और (1,0) की प्रायिकता है शून्य। गिब्स सैंपलिंग दो उच्च संभावना वाले वैक्टर में से एक में फंस जाएगा, और दूसरे तक कभी नहीं पहुंचेगा। अधिक आम तौर पर, उच्च-आयामी, वास्तविक-मूल्य वाले वैक्टर पर किसी भी वितरण के लिए, यदि वेक्टर के दो विशेष तत्व पूरी तरह से सहसंबद्ध (या पूरी तरह से विरोधी-सहसंबंध) हैं, तो वे दो तत्व अटक जाएंगे, और गिब्स प्रतिचयन कभी भी बदलने में सक्षम नहीं होगा उन्हें।
दूसरी समस्या तब भी हो सकती है जब सभी राज्यों में संभावना शून्य न हो और उच्च संभावना वाले राज्यों का केवल एक ही द्वीप हो। उदाहरण के लिए, 100-बिट सदिशों पर प्रायिकता वितरण पर विचार करें, जहां सभी शून्य सदिश संभाव्यता ½ के साथ होता है, और अन्य सभी सदिश समान रूप से संभाव्य हैं, और इसलिए इसकी प्रायिकता है प्रत्येक। यदि आप शून्य सदिश की प्रायिकता का अनुमान लगाना चाहते हैं, तो सही वितरण से 100 या 1000 प्रतिरूप लेना पर्याप्त होगा। यह लगभग ½ के करीब उत्तर देने की संभावना है। लेकिन आपको शायद इससे ज्यादा लेना होगा समान परिणाम प्राप्त करने के लिए गिब्स के प्रतिरूप से प्रतिरूप। कोई भी कंप्यूटर जीवन भर ऐसा नहीं कर सकता था।
यह समस्या तब होती है जब बर्न-इन अवधि कितनी भी लंबी हो। ऐसा इसलिए है क्योंकि सही वितरण में, शून्य वेक्टर आधा समय होता है, और उन घटनाओं को गैर-शून्य वैक्टरों के साथ यादृच्छिक रूप से मिश्रित किया जाता है। यहां तक कि एक छोटा सा नमूना भी शून्य और अशून्य दोनों सदिशों को देखेगा। लेकिन गिब्स सैंपलिंग लंबी अवधि के लिए केवल शून्य वेक्टर वापस करने के बीच वैकल्पिक होगा (लगभग एक पंक्ति में), फिर लंबी अवधि के लिए केवल अशून्य वैक्टर (लगभग एक पंक्ति में)। इस प्रकार सही वितरण के लिए अभिसरण बेहद धीमा है, इसके लिए बहुत अधिक की आवश्यकता होती है कदम; उचित समय अवधि में इतने सारे कदम उठाना कम्प्यूटेशनल रूप से संभव नहीं है। यहाँ धीमे अभिसरण को आयामीता के अभिशाप के परिणाम के रूप में देखा जा सकता है। इस तरह की समस्या को एक बार में पूरे 100-बिट वेक्टर को ब्लॉक सैंपलिंग द्वारा हल किया जा सकता है। (यह मानता है कि 100-बिट वेक्टर चर के एक बड़े सेट का हिस्सा है। यदि यह वेक्टर केवल एक चीज है जिसका नमूना लिया जा रहा है, तो ब्लॉक नमूनाकरण गिब्स प्रतिचयन बिल्कुल नहीं करने के बराबर है, जो परिकल्पना द्वारा कठिन होगा।)
सॉफ्टवेयर
- OpenBUGS सॉफ़्टवेयर (गिब्स सैम्पलिंग का उपयोग करके बायेसियन अनुमान) मार्कोव श्रृंखला मोंटे कार्लो का उपयोग करके जटिल सांख्यिकीय मॉडल का बायेसियन विश्लेषण करता है।
- बस एक और गिब्स सैंपलर (बस एक और गिब्स नमूना) मार्कोव चेन मोंटे कार्लो का उपयोग करके बायेसियन पदानुक्रमित मॉडल के विश्लेषण के लिए एक जीपीएल कार्यक्रम है।
- चर्च (प्रोग्रामिंग भाषा) मनमाना वितरण पर गिब्स अनुमान लगाने के लिए मुफ्त सॉफ्टवेयर है जो कि संभाव्य कार्यक्रमों के रूप में निर्दिष्ट हैं।
- PyMC सामान्य ग्राफिकल मॉडल के बायेसियन सीखने के लिए एक ओपन सोर्स पायथन (प्रोग्रामिंग लैंग्वेज) लाइब्रेरी है।
- Turing संभाव्य प्रोग्रामिंग का उपयोग करके बायेसियन अनुमान के लिए एक खुला स्रोत जूलिया (प्रोग्रामिंग भाषा) पुस्तकालय है।
टिप्पणियाँ
- ↑ Geman, S.; Geman, D. (1984). "Stochastic Relaxation, Gibbs Distributions, and the Bayesian Restoration of Images". IEEE Transactions on Pattern Analysis and Machine Intelligence. 6 (6): 721–741. doi:10.1109/TPAMI.1984.4767596. PMID 22499653.
- ↑ Gelfand, Alan E.; Smith, Adrian F. M. (1990-06-01). "सीमांत घनत्व की गणना करने के लिए नमूना-आधारित दृष्टिकोण". Journal of the American Statistical Association. 85 (410): 398–409. doi:10.1080/01621459.1990.10476213. ISSN 0162-1459.
- ↑ Gelman, Andrew and Carlin, John B and Stern, Hal S and Dunson, David B and Vehtari, Aki and Rubin, Donald B (2014). बायेसियन डेटा विश्लेषण. Vol. 2. FL: CRC press Boca Raton.
{{cite book}}
: CS1 maint: multiple names: authors list (link) - ↑ 4.0 4.1 4.2 Lee, Se Yoon (2021). "Gibbs sampler and coordinate ascent variational inference: A set-theoretical review". Communications in Statistics - Theory and Methods. arXiv:2008.01006. doi:10.1080/03610926.2021.1921214.
- ↑ Liu, Jun S. (September 1994). "The Collapsed Gibbs Sampler in Bayesian Computations with Applications to a Gene Regulation Problem". Journal of the American Statistical Association. 89 (427): 958–966. doi:10.2307/2290921. JSTOR 2290921.
- ↑ Neal, Radford M. (1995). Suppressing Random Walks in Markov Chain Monte Carlo Using Ordered Overrelaxation (Technical report). University of Toronto, Department of Statistics. arXiv:bayes-an/9506004. Bibcode:1995bayes.an..6004N.
संदर्भ
- Bishop, Christopher M. (2006), Pattern Recognition and Machine Learning, Springer, ISBN 978-0-387-31073-2
- Bolstad, William M. (2010), Understanding Computational Bayesian Statistics, John Wiley ISBN 978-0-470-04609-8
- Casella, G.; George, E. I. (1992). "Explaining the Gibbs Sampler". The American Statistician. 46 (3): 167. CiteSeerX 10.1.1.554.3993. doi:10.2307/2685208. JSTOR 2685208. (Contains a basic summary and many references.)
- Gelfand, Alan E.; Smith, Adrian F. M. (1990), "Sampling-Based Approaches to Calculating Marginal Densities", Journal of the American Statistical Association, 85 (410): 398–409, doi:10.2307/2289776, JSTOR 2289776, MR 1141740
- Gelman, A., Carlin J. B., Stern H. S., Dunson D., Vehtari A., Rubin D. B. (2013), Bayesian Data Analysis, third edition. London: Chapman & Hall.
- Levin, David A.; Peres, Yuval; Wilmer, Elizabeth L. (2008), "Markov Chains and Mixing Times", American Mathematical Society.
- Robert, C. P.; Casella, G. (2004), Monte Carlo Statistical Methods (second edition), Springer-Verlag.