बायेसियन प्रोग्रामिंग: Difference between revisions

From Vigyanwiki
No edit summary
No edit summary
Line 2: Line 2:
{{Bayesian statistics}}{{Probability fundamentals}}
{{Bayesian statistics}}{{Probability fundamentals}}


'''बायेसियन प्रोग्रामिंग''' औपचारिकता और संभाव्यता वितरण को निर्दिष्ट करने और आवश्यक जानकारी से कम जानकारी उपलब्ध होने पर समस्याओं को हल करने की तकनीक रखने की पद्धति है।
'''बायेसियन प्रोग्रामिंग''' औपचारिकता और संभाव्यता वितरण को निर्दिष्ट करने और आवश्यक जानकारी से कम जानकारी उपलब्ध होने पर समस्याओं को हल करने की तकनीक रखने की पद्धति है।
 
एडविन थॉम्पसन जेन्स या  एडविन टी. जेन्स ने प्रस्तावित किया कि अपूर्ण और अनिश्चित जानकारी के साथ तर्कसंगत तर्क के लिए संभाव्यता को  विकल्प और तर्क के विस्तार के रूप में माना जा सकता है। उनकी संस्थापक पुस्तक ''प्रोबेबिलिटी थ्योरी: द लॉजिक ऑफ साइंस'' में <ref name="Jaynes2003">{{cite book|first=E. T. |last=Jaynes|title=Probability Theory: The Logic of Science|url={{google books |plainurl=y |id=UjsgAwAAQBAJ}}|date=10 April 2003|publisher=Cambridge University Press|isbn=978-1-139-43516-1}}</ref> उन्होंने इस सिद्धांत को विकसित किया था और प्रस्तावित किया जिसे उन्होंने "रोबोट" कहा, जो नहीं था
 
भौतिक उपकरण, किन्तु संभाव्य तर्क को स्वचालित करने के लिए  [[अनुमान इंजन]] - तर्क के अतिरिक्त संभाव्यता के लिए  प्रकार का [[प्रोलॉग]] बायेसियन प्रोग्रामिंग <ref name="BessiereMazer2013">{{cite book|first1=Pierre |last1=Bessiere|first2=Emmanuel |last2=Mazer|first3=Juan |last3=Manuel Ahuactzin|first4=Kamel |last4=Mekhnacha|title=बायेसियन प्रोग्रामिंग|url={{google books |plainurl=y |id=4XtcAgAAQBAJ}}|date=20 December 2013|publisher=CRC Press|isbn=978-1-4398-8032-6}}</ref> यह इस रोबोट का औपचारिक और ठोस कार्यान्वयन है।
 
बायेसियन प्रोग्रामिंग को [[ चित्रमय मॉडल | ग्राफ़िकल मॉडल]] को निर्दिष्ट करने के लिए बीजगणितीय औपचारिकता के रूप में भी देखा जा सकता है, उदाहरण के लिए, [[बायेसियन नेटवर्क]], [[गतिशील बायेसियन नेटवर्क]], [[कलमन फ़िल्टर]] या  [[छिपा हुआ मार्कोव मॉडल|हिडन मार्कोव मॉडल]]  बायेसियन प्रोग्रामिंग बायेसियन नेटवर्क की तुलना में अधिक सामान्य है और इसमें संभाव्य [[कारक ग्राफ]] के सामान्य अभिव्यक्ति की शक्ति है।<ref>{{Cite web|url=http://bcf.usc.edu/~rosenblo/Pubs/agi15_demski.pdf|title=Expression Graphs: Unifying Factor Graphs and Sum-Product Networks|website=bcf.usc.edu}}</ref>


एडविन थॉम्पसन जेन्स या एडविन टी. जेन्स ने प्रस्तावित किया कि अपूर्ण और अनिश्चित जानकारी के साथ तर्कसंगत तर्क के लिए संभाव्यता को विकल्प और तर्क के विस्तार के रूप में माना जा सकता है। उनकी संस्थापक पुस्तक ''प्रोबेबिलिटी थ्योरी: द लॉजिक ऑफ साइंस'' में <ref name="Jaynes2003">{{cite book|first=E. T. |last=Jaynes|title=Probability Theory: The Logic of Science|url={{google books |plainurl=y |id=UjsgAwAAQBAJ}}|date=10 April 2003|publisher=Cambridge University Press|isbn=978-1-139-43516-1}}</ref> उन्होंने इस सिद्धांत को विकसित किया था और प्रस्तावित किया जिसे उन्होंने "रोबोट" कहा, जो नहीं था


भौतिक उपकरण, किन्तु संभाव्य तर्क को स्वचालित करने के लिए [[अनुमान इंजन]] - तर्क के अतिरिक्त संभाव्यता के लिए प्रकार का [[प्रोलॉग]] बायेसियन प्रोग्रामिंग <ref name="BessiereMazer2013">{{cite book|first1=Pierre |last1=Bessiere|first2=Emmanuel |last2=Mazer|first3=Juan |last3=Manuel Ahuactzin|first4=Kamel |last4=Mekhnacha|title=बायेसियन प्रोग्रामिंग|url={{google books |plainurl=y |id=4XtcAgAAQBAJ}}|date=20 December 2013|publisher=CRC Press|isbn=978-1-4398-8032-6}}</ref> यह इस रोबोट का औपचारिक और ठोस कार्यान्वयन है।


बायेसियन प्रोग्रामिंग को [[ चित्रमय मॉडल |ग्राफ़िकल मॉडल]] को निर्दिष्ट करने के लिए बीजगणितीय औपचारिकता के रूप में भी देखा जा सकता है, उदाहरण के लिए, [[बायेसियन नेटवर्क]], [[गतिशील बायेसियन नेटवर्क]], [[कलमन फ़िल्टर]] या [[छिपा हुआ मार्कोव मॉडल|हिडन मार्कोव मॉडल]] बायेसियन प्रोग्रामिंग बायेसियन नेटवर्क की तुलना में अधिक सामान्य है और इसमें संभाव्य [[कारक ग्राफ]] के सामान्य अभिव्यक्ति की शक्ति है।<ref>{{Cite web|url=http://bcf.usc.edu/~rosenblo/Pubs/agi15_demski.pdf|title=Expression Graphs: Unifying Factor Graphs and Sum-Product Networks|website=bcf.usc.edu}}</ref>
== औपचारिकता ==
== औपचारिकता ==


बायेसियन प्रोग्राम संभाव्यता वितरण के वर्ग को निर्दिष्ट करने का साधन है।
बायेसियन प्रोग्राम संभाव्यता वितरण के वर्ग को निर्दिष्ट करने का साधन है।


बायेसियन प्रोग्राम के घटक तत्व नीचे प्रस्तुत किए गए हैं:<ref>{{Cite web|url=https://ocw.mit.edu/courses/sloan-school-of-management/15-097-prediction-machine-learning-and-statistics-spring-2012/lecture-notes/MIT15_097S12_lec15.pdf|title=संभाव्य मॉडलिंग और बायेसियन विश्लेषण|website=ocw.mit.edu}}</ref>
बायेसियन प्रोग्राम के घटक तत्व नीचे प्रस्तुत किए गए हैं:<ref>{{Cite web|url=https://ocw.mit.edu/courses/sloan-school-of-management/15-097-prediction-machine-learning-and-statistics-spring-2012/lecture-notes/MIT15_097S12_lec15.pdf|title=संभाव्य मॉडलिंग और बायेसियन विश्लेषण|website=ocw.mit.edu}}</ref>
Line 33: Line 30:
\end{cases}
\end{cases}
</math>
</math>
# प्रोग्राम का निर्माण विवरण और प्रश्न से होता है.
# प्रोग्राम का निर्माण विवरण और प्रश्न से होता है.
# विवरण कुछ विशिष्टताओं (<math>\pi</math>) का उपयोग करके बनाया गया है जैसा कि प्रोग्रामर द्वारा दिया गया है और डेटा समुच्चय का उपयोग करके विनिर्देश द्वारा पूरी तरह से निर्दिष्ट नहीं किए गए मापदंडों के लिए मान्यता या सीखने की प्रक्रिया (<math>\delta</math>) है
# विवरण कुछ विशिष्टताओं (<math>\pi</math>) का उपयोग करके बनाया गया है जैसा कि प्रोग्रामर द्वारा दिया गया है और डेटा समुच्चय का उपयोग करके विनिर्देश द्वारा पूरी तरह से निर्दिष्ट नहीं किए गए मापदंडों के लिए मान्यता या सीखने की प्रक्रिया (<math>\delta</math>) है
# विनिर्देश का निर्माण प्रासंगिक चर, अपघटन और रूपों के समुच्चय से किया जाता है।
# विनिर्देश का निर्माण प्रासंगिक चर, अपघटन और रूपों के समुच्चय से किया जाता है।
# फॉर्म या तो पैरामीट्रिक फॉर्म हैं या अन्य बायेसियन प्रोग्रामों के प्रश्न हैं।
# फॉर्म या तो पैरामीट्रिक फॉर्म हैं या अन्य बायेसियन प्रोग्रामों के प्रश्न हैं।
# प्रश्न निर्दिष्ट करता है कि किस संभाव्यता वितरण की गणना की जानकारी है।
# प्रश्न निर्दिष्ट करता है कि किस संभाव्यता वितरण की गणना की जानकारी है।
Line 41: Line 38:
=== विवरण ===
=== विवरण ===


विवरण का उद्देश्य [[संयुक्त संभाव्यता वितरण]] की गणना करने की प्रभावी विधि निर्दिष्ट करना है यादृच्छिक चर के समुच्चय पर <math>\left\{ X_{1},X_{2},\cdots,X_{N}\right\}</math> प्रायोगिक डेटा <math>\delta</math> का समुच्चय दिया गया और कुछ विनिर्देश <math>\pi</math>. इस संयुक्त संभाव्यता वितरण <math>P\left(X_{1}\wedge X_{2}\wedge\cdots\wedge X_{N}\mid\delta\wedge\pi\right)</math> को इस प्रकार दर्शाया गया है:<ref>{{Cite web|url=http://www.cs.brandeis.edu/~cs134/K_F_Ch3.pdf|title=बायेसियन नेटवर्क|website=cs.brandeis.edu}}</ref>
विवरण का उद्देश्य [[संयुक्त संभाव्यता वितरण]] की गणना करने की प्रभावी विधि निर्दिष्ट करना है यादृच्छिक चर के समुच्चय पर <math>\left\{ X_{1},X_{2},\cdots,X_{N}\right\}</math> प्रायोगिक डेटा <math>\delta</math> का समुच्चय दिया गया और कुछ विनिर्देश <math>\pi</math>. इस संयुक्त संभाव्यता वितरण <math>P\left(X_{1}\wedge X_{2}\wedge\cdots\wedge X_{N}\mid\delta\wedge\pi\right)</math> को इस प्रकार दर्शाया गया है:<ref>{{Cite web|url=http://www.cs.brandeis.edu/~cs134/K_F_Ch3.pdf|title=बायेसियन नेटवर्क|website=cs.brandeis.edu}}</ref>


प्रारंभिक ज्ञान निर्दिष्ट करने के लिए <math>\pi</math>, प्रोग्रामर को निम्नलिखित कार्य करने होंगे:
प्रारंभिक ज्ञान निर्दिष्ट करने के लिए <math>\pi</math>, प्रोग्रामर को निम्नलिखित कार्य करने होंगे:


# प्रासंगिक यादृच्छिक चर <math>\left\{ X_{1},X_{2},\cdots,X_{N}\right\}</math> के समुच्चय को परिभाषित करें जिस पर संयुक्त वितरण परिभाषित किया गया है।
# प्रासंगिक यादृच्छिक चर <math>\left\{ X_{1},X_{2},\cdots,X_{N}\right\}</math> के समुच्चय को परिभाषित करें जिस पर संयुक्त वितरण परिभाषित किया गया है।
# संयुक्त वितरण को विघटित करें (इसे प्रासंगिक [[स्वतंत्रता (संभावना सिद्धांत)|इन्डीपेंडेंस (संभाव्यता सिद्धांत)]] या [[सशर्त संभाव्यता|सनियम संभाव्यता]] में तोड़ें)।
# संयुक्त वितरण को विघटित करें (इसे प्रासंगिक [[स्वतंत्रता (संभावना सिद्धांत)|इन्डीपेंडेंस (संभाव्यता सिद्धांत)]] या [[सशर्त संभाव्यता|सनियम संभाव्यता]] में तोड़ें)।
# प्रत्येक वितरण के रूपों को परिभाषित करें (उदाहरण के लिए, प्रत्येक चर के लिए, [[संभाव्यता वितरण की सूची]] में से एक)।
# प्रत्येक वितरण के रूपों को परिभाषित करें (उदाहरण के लिए, प्रत्येक चर के लिए, [[संभाव्यता वितरण की सूची]] में से एक)।
Line 51: Line 48:
==== अपघटन ====
==== अपघटन ====


<math>\left\{ X_{1},X_{2},\ldots,X_{N}\right\}</math> का विभाजन दिया गया है युक्त <math>K</math> उपसमुच्चय, <math>K</math> चर परिभाषित हैं , प्रत्येक इन उपसमुच्चयों <math>L_{1},\cdots,L_{K}</math> में अनुरूप है।
<math>\left\{ X_{1},X_{2},\ldots,X_{N}\right\}</math> का विभाजन दिया गया है युक्त <math>K</math> उपसमुच्चय, <math>K</math> चर परिभाषित हैं , प्रत्येक इन उपसमुच्चयों <math>L_{1},\cdots,L_{K}</math> में अनुरूप है।


प्रत्येक चर <math>L_{k}</math> चरों के संयोजन के रूप में प्राप्त किया जाता है <math>\left\{ X_{k_{1}},X_{k_{2}},\cdots\right\}</math> से संबंधित <math>k^{th}</math> सबसमुच्चय बेयस प्रमेय के पुनरावर्ती अनुप्रयोग की ओर जाता है:
प्रत्येक चर <math>L_{k}</math> चरों के संयोजन के रूप में प्राप्त किया जाता है <math>\left\{ X_{k_{1}},X_{k_{2}},\cdots\right\}</math> से संबंधित <math>k^{th}</math> सबसमुच्चय बेयस प्रमेय के पुनरावर्ती अनुप्रयोग की ओर जाता है:
Line 61: Line 58:
={} & P\left(L_{1}\mid\delta\wedge\pi\right)\times P\left(L_{2}\mid L_{1}\wedge\delta\wedge\pi\right) \times\cdots\times P\left(L_{K}\mid L_{K-1}\wedge\cdots\wedge L_{1}\wedge\delta\wedge\pi\right)\end{align}
={} & P\left(L_{1}\mid\delta\wedge\pi\right)\times P\left(L_{2}\mid L_{1}\wedge\delta\wedge\pi\right) \times\cdots\times P\left(L_{K}\mid L_{K-1}\wedge\cdots\wedge L_{1}\wedge\delta\wedge\pi\right)\end{align}
</math>
</math>
[[सशर्त स्वतंत्रता|सनियम इन्डीपेंडेंस]] परिकल्पना तब और अधिक सरलीकरण की अनुमति देती है। सनियम चर के लिए इन्डीपेंडेंस परिकल्पना <math>L_{k}</math> कुछ वेरिएबल <math>X_{n}</math> द्वारा परिभाषित किया गया है संयोजन में प्रदर्शित होने वाले चरों के बीच <math>L_{k-1}\wedge\cdots\wedge L_{2}\wedge L_{1}</math>, लेबलिंग <math>R_{k}</math> के रूप में इन चुने हुए चर और समुच्चयिंग का संयोजन है:
[[सशर्त स्वतंत्रता|सनियम इन्डीपेंडेंस]] परिकल्पना तब और अधिक सरलीकरण की अनुमति देती है। सनियम चर के लिए इन्डीपेंडेंस परिकल्पना <math>L_{k}</math> कुछ वेरिएबल <math>X_{n}</math> द्वारा परिभाषित किया गया है संयोजन में प्रदर्शित होने वाले चरों के बीच <math>L_{k-1}\wedge\cdots\wedge L_{2}\wedge L_{1}</math>, लेबलिंग <math>R_{k}</math> के रूप में इन चुने हुए चर और समुच्चयिंग का संयोजन है:


: <math>
: <math>
Line 75: Line 72:
सरल वितरणों के उत्पाद के रूप में संयुक्त वितरण का ऐसा सरलीकरण है [[श्रृंखला नियम (संभावना)|श्रृंखला नियम (संभाव्यता)]] का उपयोग करके प्राप्त अपघटन कहा जाता है।
सरल वितरणों के उत्पाद के रूप में संयुक्त वितरण का ऐसा सरलीकरण है [[श्रृंखला नियम (संभावना)|श्रृंखला नियम (संभाव्यता)]] का उपयोग करके प्राप्त अपघटन कहा जाता है।


यह सुनिश्चित करता है कि प्रत्येक चर कंडीशनिंग के बाईं ओर अधिकतम बार दिखाई दे जो गणितीय रूप से मान्य लिखने के लिए आवश्यक और पर्याप्त नियम है
यह सुनिश्चित करता है कि प्रत्येक चर कंडीशनिंग के बाईं ओर अधिकतम बार दिखाई दे जो गणितीय रूप से मान्य लिखने के लिए आवश्यक और पर्याप्त नियम है


==== प्रपत्र ====
==== प्रपत्र ====


प्रत्येक वितरण <math>P\left(L_{k}\mid R_{k}\wedge\delta\wedge\pi\right)</math> फिर उत्पाद में दिखाई देना संबद्ध हो जाता है या तो पैरामीट्रिक फॉर्म के साथ (अर्थात, फलन <math>f_{\mu}\left(L_{k}\right)</math>) या किसी अन्य बायेसियन प्रोग्राम के लिए है <math>P\left(L_{k}\mid R_{k} \wedge \delta \wedge \pi \right) = P\left(L\mid R\wedge\widehat{\delta}\wedge\widehat{\pi}\right)</math>.
प्रत्येक वितरण <math>P\left(L_{k}\mid R_{k}\wedge\delta\wedge\pi\right)</math> फिर उत्पाद में दिखाई देना संबद्ध हो जाता है या तो पैरामीट्रिक फॉर्म के साथ (अर्थात, फलन <math>f_{\mu}\left(L_{k}\right)</math>) या किसी अन्य बायेसियन प्रोग्राम के लिए है <math>P\left(L_{k}\mid R_{k} \wedge \delta \wedge \pi \right) = P\left(L\mid R\wedge\widehat{\delta}\wedge\widehat{\pi}\right)</math>.


जब यह <math>f_{\mu}\left(L_{k}\right)</math> रूप है , सामान्य रूप में, <math>\mu</math> मापदंड का सदिश है जिस पर निर्भर हो सकता है <math>R_{k}</math> या <math>\delta</math> अथवा दोनों सीखना तब होता है जब इनमें से कुछ मापदंडों की गणना डेटा समुच्चय <math>\delta</math> का उपयोग करके की जाती है .
जब यह <math>f_{\mu}\left(L_{k}\right)</math> रूप है , सामान्य रूप में, <math>\mu</math> मापदंड का सदिश है जिस पर निर्भर हो सकता है <math>R_{k}</math> या <math>\delta</math> अथवा दोनों सीखना तब होता है जब इनमें से कुछ मापदंडों की गणना डेटा समुच्चय <math>\delta</math> का उपयोग करके की जाती है .


बायेसियन प्रोग्रामिंग की महत्वपूर्ण विशेषता नए बायेसियन प्रोग्राम की परिभाषा के घटकों के रूप में अन्य बायेसियन प्रोग्रामों के प्रश्नों <math>P\left(L_{k}\mid R_{k}\wedge\delta\wedge\pi\right)</math> का उपयोग करने की क्षमता है। विनिर्देशों द्वारा परिभाषित किसी अन्य बायेसियन प्रोग्राम द्वारा किए गए कुछ अनुमानों <math>\widehat{\pi}</math> और डेटा <math>\widehat{\delta}</math> द्वारा प्राप्त किया जाता है. यह मौलिक प्रोग्रामिंग में सबरूटीन को कॉल करने के समान है और बायेसियन नेटवर्क पदानुक्रमित मॉडल बनाने का सरल विधि प्रदान करता है।
बायेसियन प्रोग्रामिंग की महत्वपूर्ण विशेषता नए बायेसियन प्रोग्राम की परिभाषा के घटकों के रूप में अन्य बायेसियन प्रोग्रामों के प्रश्नों <math>P\left(L_{k}\mid R_{k}\wedge\delta\wedge\pi\right)</math> का उपयोग करने की क्षमता है। विनिर्देशों द्वारा परिभाषित किसी अन्य बायेसियन प्रोग्राम द्वारा किए गए कुछ अनुमानों <math>\widehat{\pi}</math> और डेटा <math>\widehat{\delta}</math> द्वारा प्राप्त किया जाता है. यह मौलिक प्रोग्रामिंग में सबरूटीन को कॉल करने के समान है और बायेसियन नेटवर्क पदानुक्रमित मॉडल बनाने का सरल विधि प्रदान करता है।


=== प्रश्न ===
=== प्रश्न ===


विवरण दिया गया है (अर्थात्, <math>P\left(X_{1}\wedge X_{2}\wedge\cdots\wedge X_{N}\mid\delta\wedge\pi\right)</math>), विभाजन <math>\left\{ X_{1},X_{2},\cdots,X_{N}\right\}</math> द्वारा प्रश्न प्राप्त किया जाता है तीन समुच्चयों में: खोजे गए चर, ज्ञात चर और मुक्त चर.
विवरण दिया गया है (अर्थात्, <math>P\left(X_{1}\wedge X_{2}\wedge\cdots\wedge X_{N}\mid\delta\wedge\pi\right)</math>), विभाजन <math>\left\{ X_{1},X_{2},\cdots,X_{N}\right\}</math> द्वारा प्रश्न प्राप्त किया जाता है तीन समुच्चयों में: खोजे गए चर, ज्ञात चर और मुक्त चर.


3 चर <math>Searched</math>, <math>Known</math> और <math>Free</math> के रूप में परिभाषित किया गया है ये समुच्चय.
3 चर <math>Searched</math>, <math>Known</math> और <math>Free</math> के रूप में परिभाषित किया गया है ये समुच्चय.
Line 101: Line 98:
P\left(\text{Searched}\mid\text{Known}\wedge\delta\wedge\pi\right)
P\left(\text{Searched}\mid\text{Known}\wedge\delta\wedge\pi\right)
</math>
</math>
=== अनुमान ===
=== अनुमान ===


Line 116: Line 111:
={} & \frac{1}{Z}\times\sum_\text{Free}\left[P\left(\text{Searched}\wedge \text{Free} \wedge \text{Known} \mid \delta\wedge\pi\right)\right]\end{align}
={} & \frac{1}{Z}\times\sum_\text{Free}\left[P\left(\text{Searched}\wedge \text{Free} \wedge \text{Known} \mid \delta\wedge\pi\right)\right]\end{align}
</math>
</math>
जहां पहली समानता हाशिए के नियम से उत्पन्न होती है, वहीं दूसरी बेयस प्रमेय के परिणाम और तीसरा हाशिए के दूसरे अनुप्रयोग से मेल खाता है। प्रत्येक सामान्यीकरण शब्द प्रतीत होता है और इसे स्थिरांक <math>Z</math> द्वारा प्रतिस्थापित किया जा सकता है .
जहां पहली समानता हाशिए के नियम से उत्पन्न होती है, वहीं दूसरी बेयस प्रमेय के परिणाम और तीसरा हाशिए के दूसरे अनुप्रयोग से मेल खाता है। प्रत्येक सामान्यीकरण शब्द प्रतीत होता है और इसे स्थिरांक <math>Z</math> द्वारा प्रतिस्थापित किया जा सकता है .


सैद्धांतिक रूप से, यह किसी भी बायेसियन अनुमान समस्या को हल करने की अनुमति देता है। व्यवहार में, चूँकि, गणना <math>P\left(\text{Searched} \mid \text{Known} \wedge\delta\wedge\pi\right)</math> की निवेश विस्तृत और स्पष्ट है लगभग सभी स्थितियों में बहुत सही है.
सैद्धांतिक रूप से, यह किसी भी बायेसियन अनुमान समस्या को हल करने की अनुमति देता है। व्यवहार में, चूँकि, गणना <math>P\left(\text{Searched} \mid \text{Known} \wedge\delta\wedge\pi\right)</math> की निवेश विस्तृत और स्पष्ट है लगभग सभी स्थितियों में बहुत सही है.


संयुक्त वितरण को उसके अपघटन द्वारा प्रतिस्थापित करने पर हमें प्राप्त होता है:
संयुक्त वितरण को उसके अपघटन द्वारा प्रतिस्थापित करने पर हमें प्राप्त होता है:
Line 128: Line 123:
\end{align}
\end{align}
</math>
</math>
जो सामान्यतः गणना करने के लिए बहुत ही सरल अभिव्यक्ति है, क्योंकि निम्न आयाम वितरण के उत्पाद में अपघटन से समस्या की आयामीता अधिक कम हो जाती है।
जो सामान्यतः गणना करने के लिए बहुत ही सरल अभिव्यक्ति है, क्योंकि निम्न आयाम वितरण के उत्पाद में अपघटन से समस्या की आयामीता अधिक कम हो जाती है।


== उदाहरण ==
== उदाहरण ==
Line 136: Line 131:
[[बायेसियन स्पैम फ़िल्टरिंग]] का उद्देश्य जंक ई-मेल को ख़त्म करना है।
[[बायेसियन स्पैम फ़िल्टरिंग]] का उद्देश्य जंक ई-मेल को ख़त्म करना है।


समस्या को सूत्रबद्ध करना बहुत सरल है. ई-मेल को वर्गीकृत किया जाना चाहिए दो श्रेणियों में से में: गैर-स्पैम या स्पैम ई-मेल को वर्गीकृत करने के लिए एकमात्र उपलब्ध जानकारी उनकी कंटेंट है: शब्दों का समुच्चय क्रम को ध्यान में रखे बिना इन शब्दों का उपयोग करना सामान्यतः [[शब्दों का थैला|शब्दों का बैग मॉडल]] कहा जाता है।
समस्या को सूत्रबद्ध करना बहुत सरल है. ई-मेल को वर्गीकृत किया जाना चाहिए दो श्रेणियों में से में: गैर-स्पैम या स्पैम ई-मेल को वर्गीकृत करने के लिए एकमात्र उपलब्ध जानकारी उनकी कंटेंट है: शब्दों का समुच्चय क्रम को ध्यान में रखे बिना इन शब्दों का उपयोग करना सामान्यतः [[शब्दों का थैला|शब्दों का बैग मॉडल]] कहा जाता है।


क्लासिफायरियर को इसके अतिरिक्त अपने उपयोगकर्ता के अनुकूल होने और सीखने में सक्षम होना चाहिए अनुभव से प्रारंभिक मानक समुच्चयिंग से प्रारंभ करते हुए, क्लासिफायरियर को ऐसा करना चाहिए  
क्लासिफायरियर को इसके अतिरिक्त अपने उपयोगकर्ता के अनुकूल होने और सीखने में सक्षम होना चाहिए अनुभव से प्रारंभिक मानक समुच्चयिंग से प्रारंभ करते हुए, क्लासिफायरियर को ऐसा करना चाहिए  
Line 145: Line 140:


इस प्रोग्राम को लिखने के लिए आवश्यक वेरिएबल इस प्रकार हैं:
इस प्रोग्राम को लिखने के लिए आवश्यक वेरिएबल इस प्रकार हैं:
# <math>Spam</math>: बाइनरी वैरिएबल, यदि ई-मेल स्पैम नहीं है तो गलत और अन्यथा सत्य।
# <math>Spam</math>: बाइनरी वैरिएबल, यदि ई-मेल स्पैम नहीं है तो गलत और अन्यथा सत्य।
# <math>W_0,W_1, \ldots, W_{N-1}</math>: <math>N</math> [[बाइनरी डेटा]] <math>W_n</math> सत्य है यदि <math>n^{th}</math> शब्दकोश का शब्द टेक्स्ट में उपस्थित है।
# <math>W_0,W_1, \ldots, W_{N-1}</math>: <math>N</math> [[बाइनरी डेटा]] <math>W_n</math> सत्य है यदि <math>n^{th}</math> शब्दकोश का शब्द टेक्स्ट में उपस्थित है।


Line 161: Line 156:
  & \times P\left(W_{N-1}\mid\text{Spam}\wedge W_{0}\wedge\cdots\wedge W_{N-2}\right)\end{align}
  & \times P\left(W_{N-1}\mid\text{Spam}\wedge W_{0}\wedge\cdots\wedge W_{N-2}\right)\end{align}
</math>
</math>
यह स्पष्ट गणितीय अभिव्यक्ति है.
यह स्पष्ट गणितीय अभिव्यक्ति है.


इसे यह मानकर अधिक सरल बनाया जा सकता है कि टेक्स्ट की प्रकृति (स्पैम या नहीं) को जानते हुए किसी शब्द के प्रकट होने की संभाव्यता दूसरे शब्दों के प्रकट होने से स्वतंत्र है। यह बेयस की धारणा है और यह इस स्पैम फ़िल्टर को बेयस मॉडल कों अनुभवहीन बनाती है।
इसे यह मानकर अधिक सरल बनाया जा सकता है कि टेक्स्ट की प्रकृति (स्पैम या नहीं) को जानते हुए किसी शब्द के प्रकट होने की संभाव्यता दूसरे शब्दों के प्रकट होने से स्वतंत्र है। यह बेयस की धारणा है और यह इस स्पैम फ़िल्टर को बेयस मॉडल कों अनुभवहीन बनाती है।
Line 183: Line 178:


# <math>P(\text{Spam})</math> उदाहरण के लिए, पूर्व परिभाषित है <math>P([\text{Spam}=1]) = 0.75 </math>
# <math>P(\text{Spam})</math> उदाहरण के लिए, पूर्व परिभाषित है <math>P([\text{Spam}=1]) = 0.75 </math>
# प्रत्येक <math>N</math> फार्म <math>P(W_n\mid\text{Spam})</math> उत्तराधिकार के लाप्लास नियम का उपयोग करके निर्दिष्ट किया जा सकता है (यह [[पीपीएम संपीड़न एल्गोरिदम]] का मुकाबला करने के लिए छद्म गिनती-आधारित एन-ग्राम स्मूथिंग तकनीक है। शब्दों की शून्य-आवृत्ति समस्या जो पहले कभी नहीं देखी गई):
# प्रत्येक <math>N</math> फार्म <math>P(W_n\mid\text{Spam})</math> उत्तराधिकार के लाप्लास नियम का उपयोग करके निर्दिष्ट किया जा सकता है (यह [[पीपीएम संपीड़न एल्गोरिदम]] का मुकाबला करने के लिए छद्म गिनती-आधारित एन-ग्राम स्मूथिंग तकनीक है। शब्दों की शून्य-आवृत्ति समस्या जो पहले कभी नहीं देखी गई):
## <math>P(W_n\mid[\text{Spam}=\text{false}])=\frac{1+a^n_f}{2+a_f}</math>
## <math>P(W_n\mid[\text{Spam}=\text{false}])=\frac{1+a^n_f}{2+a_f}</math>
## <math>P(W_n\mid[\text{Spam}=\text{true}])=\frac{1+a^n_t}{2+a_t}</math>
## <math>P(W_n\mid[\text{Spam}=\text{true}])=\frac{1+a^n_t}{2+a_t}</math>
Line 190: Line 185:
मान्यता <math>N</math> h> प्रपत्र <math>P(W_n\mid\text{Spam})</math> अभी तक पूरी तरह से निर्दिष्ट नहीं हैं क्योंकि <math>2N + 2</math> मापदंड <math>a_f^{n=0, \ldots, N-1}</math>, <math>a_t^{n=0, \ldots, N-1}</math>, <math>a_f</math> और <math>a_t</math> अभी तक कोई मूल्य नहीं है.
मान्यता <math>N</math> h> प्रपत्र <math>P(W_n\mid\text{Spam})</math> अभी तक पूरी तरह से निर्दिष्ट नहीं हैं क्योंकि <math>2N + 2</math> मापदंड <math>a_f^{n=0, \ldots, N-1}</math>, <math>a_t^{n=0, \ldots, N-1}</math>, <math>a_f</math> और <math>a_t</math> अभी तक कोई मूल्य नहीं है.


इन मापदंडों की मान्यता या तो वर्गीकृत ई-मेल की श्रृंखला के बैच प्रसंस्करण द्वारा या ई-मेल के आने पर उपयोगकर्ता के वर्गीकरण का उपयोग करके मापदंडों के वृद्धिशील अद्यतन द्वारा की जा सकती है।
इन मापदंडों की मान्यता या तो वर्गीकृत ई-मेल की श्रृंखला के बैच प्रसंस्करण द्वारा या ई-मेल के आने पर उपयोगकर्ता के वर्गीकरण का उपयोग करके मापदंडों के वृद्धिशील अद्यतन द्वारा की जा सकती है।


दोनों विधियों को जोड़ा जा सकता है: सिस्टम सामान्य डेटाबेस से जारी किए गए इन मापदंडों के प्रारंभिक मानक मूल्यों के साथ प्रारंभ हो सकता है, फिर कुछ वृद्धिशील शिक्षा प्रत्येक व्यक्तिगत उपयोगकर्ता के लिए क्लासिफायरियर को अनुकूलित करती है।
दोनों विधियों को जोड़ा जा सकता है: सिस्टम सामान्य डेटाबेस से जारी किए गए इन मापदंडों के प्रारंभिक मानक मूल्यों के साथ प्रारंभ हो सकता है, फिर कुछ वृद्धिशील शिक्षा प्रत्येक व्यक्तिगत उपयोगकर्ता के लिए क्लासिफायरियर को अनुकूलित करती है।


==== प्रश्न ====
==== प्रश्न ====
Line 206: Line 201:
  & P(\text{Spam}\mid w_{0}\wedge\cdots\wedge w_{N-1} )\\
  & P(\text{Spam}\mid w_{0}\wedge\cdots\wedge w_{N-1} )\\
={} & \frac{\displaystyle P(\text{Spam}) \prod_{n=0}^{N-1} [ P(w_{n}\mid\text{Spam})]}{\displaystyle \sum_\text{Spam} [P(\text{Spam}) \prod_{n=0}^{N-1}  [P (w_{n}\mid\text{Spam})]]}\end{align}</math>
={} & \frac{\displaystyle P(\text{Spam}) \prod_{n=0}^{N-1} [ P(w_{n}\mid\text{Spam})]}{\displaystyle \sum_\text{Spam} [P(\text{Spam}) \prod_{n=0}^{N-1}  [P (w_{n}\mid\text{Spam})]]}\end{align}</math>
प्रत्येक सामान्यीकृत स्थिरांक प्रतीत होता है। यह तय करने के लिए कि हम स्पैम से निपट रहे हैं या नहीं, इसकी गणना करना आवश्यक नहीं है। उदाहरण के लिए, अनुपात की गणना करना सरल तरकीब है:
प्रत्येक सामान्यीकृत स्थिरांक प्रतीत होता है। यह तय करने के लिए कि हम स्पैम से निपट रहे हैं या नहीं, इसकी गणना करना आवश्यक नहीं है। उदाहरण के लिए, अनुपात की गणना करना सरल तरकीब है:


: <math>
: <math>
Line 213: Line 208:
={} & \frac{P([ \text{Spam}=\text{true} ] )}{P([ \text{Spam} =\text{false} ])}\times\prod_{n=0}^{N-1} \left[\frac{P(w_n\mid [\text{Spam}=\text{true}])}{P(w_n\mid [\text{Spam} = \text{false}])}\right] \end{align}
={} & \frac{P([ \text{Spam}=\text{true} ] )}{P([ \text{Spam} =\text{false} ])}\times\prod_{n=0}^{N-1} \left[\frac{P(w_n\mid [\text{Spam}=\text{true}])}{P(w_n\mid [\text{Spam} = \text{false}])}\right] \end{align}
</math>
</math>
यह गणना तेज़ और सरल है क्योंकि <math>2N</math> के लिए केवल आवश्यकता होती है .
यह गणना तेज़ और सरल है क्योंकि <math>2N</math> के लिए केवल आवश्यकता होती है .


==== बायेसियन प्रोग्राम ====
==== बायेसियन प्रोग्राम ====
Line 261: Line 256:
==== चर ====
==== चर ====


* चर <math>S^{0},\ldots,S^{T}</math> स्तर चर की समय श्रृंखला है जिसे <math>0</math> को <math>T</math>. समय क्षितिज पर माना जाता है
* चर <math>S^{0},\ldots,S^{T}</math> स्तर चर की समय श्रृंखला है जिसे <math>0</math> को <math>T</math>. समय क्षितिज पर माना जाता है
* चर <math>O^{0},\ldots,O^{T}</math> ही क्षितिज पर अवलोकन चर की समय श्रृंखला है।
* चर <math>O^{0},\ldots,O^{T}</math> ही क्षितिज पर अवलोकन चर की समय श्रृंखला है।


==== अपघटन ====
==== अपघटन ====


अपघटन आधारित है:
अपघटन आधारित है:
* <math>P(S^t \mid S^{t-1})</math> पर , जिसे सिस्टम मॉडल, संक्रमण मॉडल या गतिशील मॉडल कहा जाता है, जो <math>t-1</math> समय पर स्तर के लिए <math>t</math> समय पर स्तर से संक्रमण को औपचारिक बनाता है;
* <math>P(S^t \mid S^{t-1})</math> पर , जिसे सिस्टम मॉडल, संक्रमण मॉडल या गतिशील मॉडल कहा जाता है, जो <math>t-1</math> समय पर स्तर के लिए <math>t</math> समय पर स्तर से संक्रमण को औपचारिक बनाता है;
* <math>P(O^t\mid S^t)</math> पर , जिसे अवलोकन मॉडल कहा जाता है, जो <math>t</math> जब सिस्टम स्थिति में हो <math>S^t</math> व्यक्त करता है कि समय पर क्या देखा जा सकता है;
* <math>P(O^t\mid S^t)</math> पर , जिसे अवलोकन मॉडल कहा जाता है, जो <math>t</math> जब सिस्टम स्थिति में हो <math>S^t</math> व्यक्त करता है कि समय पर क्या देखा जा सकता है;
* <math>P(S^0 \wedge O^0)</math> समय पर प्रारंभिक अवस्था <math>0</math> में : .
* <math>P(S^0 \wedge O^0)</math> समय पर प्रारंभिक अवस्था <math>0</math> में : .


Line 285: Line 280:
अधिक जटिल प्रश्न भी पूछे जा सकते हैं जैसा कि नीचे एचएमएम अनुभाग में दिखाया गया है।
अधिक जटिल प्रश्न भी पूछे जा सकते हैं जैसा कि नीचे एचएमएम अनुभाग में दिखाया गया है।


बायेसियन फ़िल्टर <math>(k=0)</math> इनमें बहुत ही रोचक पुनरावर्ती गुण होता है, जो उनके आकर्षण में बहुत योगदान देता है। <math>P\left(S^{t}|O^{0}\wedge\cdots\wedge O^{t}\right)</math> से सरली से गणना की जा सकती है <math>P\left(S^{t-1}\mid O^0 \wedge \cdots \wedge O^{t-1}\right)</math> निम्नलिखित सूत्र के साथ:
बायेसियन फ़िल्टर <math>(k=0)</math> इनमें बहुत ही रोचक पुनरावर्ती गुण होता है, जो उनके आकर्षण में बहुत योगदान देता है। <math>P\left(S^{t}|O^{0}\wedge\cdots\wedge O^{t}\right)</math> से सरली से गणना की जा सकती है <math>P\left(S^{t-1}\mid O^0 \wedge \cdots \wedge O^{t-1}\right)</math> निम्नलिखित सूत्र के साथ:


: <math>
: <math>
Line 292: Line 287:
= & P\left(O^{t}|S^{t}\right)\times\sum_{S^{t-1}}\left[P\left(S^{t}|S^{t-1}\right)\times P\left(S^{t-1}|O^{0}\wedge\cdots\wedge O^{t-1}\right)\right]\end{array}
= & P\left(O^{t}|S^{t}\right)\times\sum_{S^{t-1}}\left[P\left(S^{t}|S^{t-1}\right)\times P\left(S^{t-1}|O^{0}\wedge\cdots\wedge O^{t-1}\right)\right]\end{array}
</math>
</math>
इस समीकरण के लिए और रोचक दृष्टिकोण यह विचार करना है कि इसके दो चरण हैं: a पूर्वानुमान चरण और अनुमान चरण:
इस समीकरण के लिए और रोचक दृष्टिकोण यह विचार करना है कि इसके दो चरण हैं: a पूर्वानुमान चरण और अनुमान चरण:
* पूर्वानुमान चरण के समय, गतिशील मॉडल और पिछले क्षण में स्तर के अनुमान का उपयोग करके स्तर की पूर्वानुमान की जाती है:
* पूर्वानुमान चरण के समय, गतिशील मॉडल और पिछले क्षण में स्तर के अनुमान का उपयोग करके स्तर की पूर्वानुमान की जाती है:


Line 335: Line 330:
\left(k<0\right)\equiv \text{Smoothing} \end{array}\end{cases}\end{cases}
\left(k<0\right)\equiv \text{Smoothing} \end{array}\end{cases}\end{cases}
</math>
</math>


====कलमन फ़िल्टर====
====कलमन फ़िल्टर====


बहुत प्रसिद्ध कलमैन फ़िल्टर <ref>{{cite journal|last=Kalman|first=R. E.|s2cid=1242324|title=रेखीय छानने और भविष्यवाणी की समस्याओं के लिए एक नया दृष्टिकोण|journal= Journal of Basic Engineering|year=1960|volume=82|pages=33–45|doi=10.1115/1.3662552}}</ref> बायेसियन का विशेष स्थिति है.
बहुत प्रसिद्ध कलमैन फ़िल्टर <ref>{{cite journal|last=Kalman|first=R. E.|s2cid=1242324|title=रेखीय छानने और भविष्यवाणी की समस्याओं के लिए एक नया दृष्टिकोण|journal= Journal of Basic Engineering|year=1960|volume=82|pages=33–45|doi=10.1115/1.3662552}}</ref> बायेसियन का विशेष स्थिति है.


इन्हें निम्नलिखित बायेसियन प्रोग्राम द्वारा परिभाषित किया गया है:
इन्हें निम्नलिखित बायेसियन प्रोग्राम द्वारा परिभाषित किया गया है:
Line 366: Line 360:
* संक्रमण मॉडल <math>P(S^t \mid S^{t-1}\wedge\pi)</math> और अवलोकन मॉडल <math>P(O^t \mid S^t \wedge\pi)</math> दोनों को गॉसियन नियमो का उपयोग करके ऐसे साधनों के साथ निर्दिष्ट किया गया है जो कंडीशनिंग चर के रैखिक कार्य हैं।
* संक्रमण मॉडल <math>P(S^t \mid S^{t-1}\wedge\pi)</math> और अवलोकन मॉडल <math>P(O^t \mid S^t \wedge\pi)</math> दोनों को गॉसियन नियमो का उपयोग करके ऐसे साधनों के साथ निर्दिष्ट किया गया है जो कंडीशनिंग चर के रैखिक कार्य हैं।


इन परिकल्पनाओं के साथ और पुनरावर्ती सूत्र का उपयोग करके, इसे हल करना संभव है सामान्य रूप से उत्तर देने के लिए विश्लेषणात्मक रूप से अनुमान समस्या <math>P(S^T \mid O^0 \wedge\cdots\wedge O^T \wedge\pi)</math> सवाल यह बेहद कुशल एल्गोरिदम की ओर ले जाता है, जो कलमन फिल्टर की लोकप्रियता और उनके अनुप्रयोगों की संख्या को बताता है।
इन परिकल्पनाओं के साथ और पुनरावर्ती सूत्र का उपयोग करके, इसे हल करना संभव है सामान्य रूप से उत्तर देने के लिए विश्लेषणात्मक रूप से अनुमान समस्या <math>P(S^T \mid O^0 \wedge\cdots\wedge O^T \wedge\pi)</math> सवाल यह बेहद कुशल एल्गोरिदम की ओर ले जाता है, जो कलमन फिल्टर की लोकप्रियता और उनके अनुप्रयोगों की संख्या को बताता है।


जब कोई स्पष्ट रैखिक संक्रमण और अवलोकन मॉडल नहीं होते हैं, तब भी यह अधिकांशतः होता है
जब कोई स्पष्ट रैखिक संक्रमण और अवलोकन मॉडल नहीं होते हैं, तब भी यह अधिकांशतः होता है
Line 374: Line 368:
====हिडन मार्कोव मॉडल====
====हिडन मार्कोव मॉडल====


हिडन मार्कोव मॉडल (एचएमएम) बायेसियन फिल्टर का और बहुत लोकप्रिय विशेषज्ञता है।
हिडन मार्कोव मॉडल (एचएमएम) बायेसियन फिल्टर का और बहुत लोकप्रिय विशेषज्ञता है।


इन्हें निम्नलिखित बायेसियन प्रोग्राम द्वारा परिभाषित किया गया है:
इन्हें निम्नलिखित बायेसियन प्रोग्राम द्वारा परिभाषित किया गया है:
Line 408: Line 402:
अतीत की टिप्पणियों को जानते हुए, वर्तमान स्थिति की ओर ले जाने वाली स्थितियों की सबसे संभावित श्रृंखला क्या है?
अतीत की टिप्पणियों को जानते हुए, वर्तमान स्थिति की ओर ले जाने वाली स्थितियों की सबसे संभावित श्रृंखला क्या है?


इस विशेष प्रश्न का उत्तर विशिष्ट और बहुत कुशल एल्गोरिदम के साथ दिया जा सकता है [[विटर्बी एल्गोरिदम]] कहा जाता है।
इस विशेष प्रश्न का उत्तर विशिष्ट और बहुत कुशल एल्गोरिदम के साथ दिया जा सकता है [[विटर्बी एल्गोरिदम]] कहा जाता है।


एचएमएम के लिए बॉम-वेल्च एल्गोरिदम विकसित किया गया है .
एचएमएम के लिए बॉम-वेल्च एल्गोरिदम विकसित किया गया है .
Line 515: Line 509:
  }}
  }}
</ref> [[वीडियो गेम]] अवतार प्रोग्रामिंग और प्रशिक्षण <ref>{{cite journal|last=Le Hy|first=R. |author2=Arrigoni, A. |author3=Bessière, P. |author4=Lebetel, O.|title=वीडियो गेम के पात्रों को बायेसियन व्यवहार सिखाना|journal=Robotics and Autonomous Systems|year=2004|volume=47|pages=177–185|doi=10.1016/j.robot.2004.03.012|issue=2–3|s2cid=16415524 |url=http://cogprints.org/3744/1/lehy04.pdf }}</ref> और वास्तविक समय रणनीति खेल (एआई) है।<ref>{{cite book|title=मल्टीप्लेयर वीडियो गेम के लिए बायेसियन प्रोग्रामिंग और लर्निंग|last=Synnaeve|first=G.|year=2012|url=http://tel.archives-ouvertes.fr/docs/00/78/06/35/PDF/29588_SYNNAEVE_2012_archivage.pdf}}</ref>
</ref> [[वीडियो गेम]] अवतार प्रोग्रामिंग और प्रशिक्षण <ref>{{cite journal|last=Le Hy|first=R. |author2=Arrigoni, A. |author3=Bessière, P. |author4=Lebetel, O.|title=वीडियो गेम के पात्रों को बायेसियन व्यवहार सिखाना|journal=Robotics and Autonomous Systems|year=2004|volume=47|pages=177–185|doi=10.1016/j.robot.2004.03.012|issue=2–3|s2cid=16415524 |url=http://cogprints.org/3744/1/lehy04.pdf }}</ref> और वास्तविक समय रणनीति खेल (एआई) है।<ref>{{cite book|title=मल्टीप्लेयर वीडियो गेम के लिए बायेसियन प्रोग्रामिंग और लर्निंग|last=Synnaeve|first=G.|year=2012|url=http://tel.archives-ouvertes.fr/docs/00/78/06/35/PDF/29588_SYNNAEVE_2012_archivage.pdf}}</ref>
==== जीवन विज्ञान ====
==== जीवन विज्ञान ====


जीवन विज्ञान में, गति से आकार का पुनर्निर्माण करने के लिए दृष्टि में बायेसियन प्रोग्रामिंग का उपयोग किया गया था,<ref>{{cite journal|last=Colas|first=F. |author2=Droulez, J. |author3=Wexler, M. |author4=Bessière, P.|title=ऑप्टिक प्रवाह से त्रि-आयामी संरचना की धारणा का एक एकीकृत संभाव्य मॉडल|journal=Biological Cybernetics|volume=97 |issue=5–6 |year=2008|pages=461–77|doi=10.1007/s00422-007-0183-z|pmid=17987312 |citeseerx=10.1.1.215.1491 |s2cid=215821150 }}</ref> विज़ुओ-वेस्टिबुलर इंटरैक्शन को मॉडल करने के लिए <ref>{{cite journal|last=Laurens|first=J.|author2=Droulez, J.|title=वेस्टिबुलर जानकारी का बायेसियन प्रसंस्करण|journal=Biological Cybernetics|year=2007|volume=96|pages=389–404|doi=10.1007/s00422-006-0133-1|pmid=17146661|issue=4|s2cid=18138027}}</ref> और [[सैकेड]] नेत्र गतिविधियों का अध्ययन करना;<ref>{{cite journal|last=Colas|first=F. |author2=Flacher, F. |author3=Tanner, T. |author4=Bessière, P. |author5=Girard, B.|title=रेटिनोटोपिक मानचित्रों के साथ नेत्र गति चयन के बायेसियन मॉडल|journal=Biological Cybernetics|year=2009|volume=100|issue=3|pages=203–214|doi=10.1007/s00422-009-0292-y|pmid=19212780 |s2cid=5906668 |url=https://hal.archives-ouvertes.fr/hal-00384515/file/main.pdf|doi-access=free}}</ref> प्रारंभिक [[भाषण अधिग्रहण]] का अध्ययन करने के लिए भाषण धारणा और नियंत्रण में <ref>{{cite journal|last=Serkhane|first=J. |author2=Schwartz, J-L. |author3=Bessière, P. |title=बात करने वाले शिशु रोबोट का निर्माण भाषण अधिग्रहण और विकास के अध्ययन में एक योगदान|journal=Interaction Studies|year=2005|volume=6|issue=2|pages=253–286|doi=10.1075/is.6.2.06ser|url=https://hal.archives-ouvertes.fr/hal-00186575/file/Serkhane_Interaction_Studies_2005.pdf }}</ref> और कलात्मक-ध्वनिक प्रणालियों का उद्भव;<ref>{{cite journal|last=Moulin-Frier|first=C. |author2=Laurent, R. |author3=Bessière, P. |author4=Schwartz, J-L. |author5=Diard, J. |title=Adverse conditions improve distinguishability of auditory, motor and percep-tuo-motor theories of speech perception: an exploratory Bayesian modeling study|journal=Language and Cognitive Processes|year=2012|volume=27|issue=7–8|pages=1240–1263|doi=10.1080/01690965.2011.645313|s2cid=55504109 |url=https://hal.archives-ouvertes.fr/hal-01059179/file/moulin-frier12.pdf }}</ref> और लिखावट धारणा और नियंत्रण को मॉडल प्रस्तुत करना है।<ref>{{cite journal|last=Gilet|first=E. |author2=Diard, J. |author3=Bessière, P.|title=Bayesian Action–Perception Computational Model: Interaction of Production and Recognition of Cursive Letters|journal=PLOS ONE|year=2011|volume=6|issue=6|page=e20387|bibcode=2011PLoSO...620387G|doi=10.1371/journal.pone.0020387|editor1-last=Sporns|editor1-first=Olaf|pmid=21674043|pmc=3106017|doi-access=free }}</ref>
जीवन विज्ञान में, गति से आकार का पुनर्निर्माण करने के लिए दृष्टि में बायेसियन प्रोग्रामिंग का उपयोग किया गया था,<ref>{{cite journal|last=Colas|first=F. |author2=Droulez, J. |author3=Wexler, M. |author4=Bessière, P.|title=ऑप्टिक प्रवाह से त्रि-आयामी संरचना की धारणा का एक एकीकृत संभाव्य मॉडल|journal=Biological Cybernetics|volume=97 |issue=5–6 |year=2008|pages=461–77|doi=10.1007/s00422-007-0183-z|pmid=17987312 |citeseerx=10.1.1.215.1491 |s2cid=215821150 }}</ref> विज़ुओ-वेस्टिबुलर इंटरैक्शन को मॉडल करने के लिए <ref>{{cite journal|last=Laurens|first=J.|author2=Droulez, J.|title=वेस्टिबुलर जानकारी का बायेसियन प्रसंस्करण|journal=Biological Cybernetics|year=2007|volume=96|pages=389–404|doi=10.1007/s00422-006-0133-1|pmid=17146661|issue=4|s2cid=18138027}}</ref> और [[सैकेड]] नेत्र गतिविधियों का अध्ययन करना;<ref>{{cite journal|last=Colas|first=F. |author2=Flacher, F. |author3=Tanner, T. |author4=Bessière, P. |author5=Girard, B.|title=रेटिनोटोपिक मानचित्रों के साथ नेत्र गति चयन के बायेसियन मॉडल|journal=Biological Cybernetics|year=2009|volume=100|issue=3|pages=203–214|doi=10.1007/s00422-009-0292-y|pmid=19212780 |s2cid=5906668 |url=https://hal.archives-ouvertes.fr/hal-00384515/file/main.pdf|doi-access=free}}</ref> प्रारंभिक [[भाषण अधिग्रहण]] का अध्ययन करने के लिए भाषण धारणा और नियंत्रण में <ref>{{cite journal|last=Serkhane|first=J. |author2=Schwartz, J-L. |author3=Bessière, P. |title=बात करने वाले शिशु रोबोट का निर्माण भाषण अधिग्रहण और विकास के अध्ययन में एक योगदान|journal=Interaction Studies|year=2005|volume=6|issue=2|pages=253–286|doi=10.1075/is.6.2.06ser|url=https://hal.archives-ouvertes.fr/hal-00186575/file/Serkhane_Interaction_Studies_2005.pdf }}</ref> और कलात्मक-ध्वनिक प्रणालियों का उद्भव;<ref>{{cite journal|last=Moulin-Frier|first=C. |author2=Laurent, R. |author3=Bessière, P. |author4=Schwartz, J-L. |author5=Diard, J. |title=Adverse conditions improve distinguishability of auditory, motor and percep-tuo-motor theories of speech perception: an exploratory Bayesian modeling study|journal=Language and Cognitive Processes|year=2012|volume=27|issue=7–8|pages=1240–1263|doi=10.1080/01690965.2011.645313|s2cid=55504109 |url=https://hal.archives-ouvertes.fr/hal-01059179/file/moulin-frier12.pdf }}</ref> और लिखावट धारणा और नियंत्रण को मॉडल प्रस्तुत करना है।<ref>{{cite journal|last=Gilet|first=E. |author2=Diard, J. |author3=Bessière, P.|title=Bayesian Action–Perception Computational Model: Interaction of Production and Recognition of Cursive Letters|journal=PLOS ONE|year=2011|volume=6|issue=6|page=e20387|bibcode=2011PLoSO...620387G|doi=10.1371/journal.pone.0020387|editor1-last=Sporns|editor1-first=Olaf|pmid=21674043|pmc=3106017|doi-access=free }}</ref>
=== पैटर्न मान्यता ===
=== पैटर्न मान्यता ===
बायेसियन प्रोग्राम लर्निंग में भाषण मान्यता और संश्लेषण, [[छवि पहचान|इमेज मान्यता]] और प्राकृतिक भाषा प्रसंस्करण के संभावित अनुप्रयोग हैं। यह रचनाशीलता (भागों से अमूर्त अभ्यावेदन का निर्माण), कारणता (भागों से जटिलता का निर्माण) और सीखना (नई अवधारणाओं के निर्माण को सरल बनाने के लिए पहले से मान्यता प्राप्त अवधारणाओं का उपयोग करना) के सिद्धांतों को नियोजित करता है।<ref>{{Cite web|title = नया एल्गोरिदम मशीनों को इंसानों की तरह तेजी से सीखने में मदद करता है|url = http://www.gizmag.com/artificial-intelligence-algorithm-learning/41448|website = www.gizmag.com|access-date = 2016-01-23|date = 2016-01-22}}</ref>
बायेसियन प्रोग्राम लर्निंग में भाषण मान्यता और संश्लेषण, [[छवि पहचान|इमेज मान्यता]] और प्राकृतिक भाषा प्रसंस्करण के संभावित अनुप्रयोग हैं। यह रचनाशीलता (भागों से अमूर्त अभ्यावेदन का निर्माण), कारणता (भागों से जटिलता का निर्माण) और सीखना (नई अवधारणाओं के निर्माण को सरल बनाने के लिए पहले से मान्यता प्राप्त अवधारणाओं का उपयोग करना) के सिद्धांतों को नियोजित करता है।<ref>{{Cite web|title = नया एल्गोरिदम मशीनों को इंसानों की तरह तेजी से सीखने में मदद करता है|url = http://www.gizmag.com/artificial-intelligence-algorithm-learning/41448|website = www.gizmag.com|access-date = 2016-01-23|date = 2016-01-22}}</ref>
==संभाव्यता सिद्धांत==
==संभाव्यता सिद्धांत==


Line 532: Line 520:
संभाव्यता सिद्धांत जैसे, उदाहरण के लिए, [[फजी सेट|फजी समुच्चय]],<ref>{{cite q | Q25938993 |last1=Zadeh |first1=L.A. | author-link1 = Lotfi A. Zadeh | journal = [[Information and Computation|Information and Control]] | doi-access = free }}</ref> [[फजी लॉजिक]]<ref>{{cite q | Q57275767 |last1=Zadeh |first1=L.A. | author-link1 = Lotfi A. Zadeh | publisher = [[Springer Science+Business Media|Springer]] }}</ref> और [[संभावना सिद्धांत|संभाव्यता सिद्धांत]] <ref>{{cite journal|last=Dubois|first=D.|author2=Prade, H.|title=Possibility Theory, Probability Theory and Multiple-Valued Logics: A Clarification|journal=Ann. Math. Artif. Intell.|year=2001|volume=32|issue=1–4|pages=35–66|doi=10.1023/A:1016740830286|s2cid=10271476|url=ftp://ftp.irit.fr/IRIT/ADRIA/AMAI-Dub.Pra.revised.pdf}}</ref> मॉडल अनिश्चितता के लिए संभाव्यता के विकल्प हैं। उनका तर्क है कि अपूर्ण/अनिश्चित ज्ञान के कुछ तथ्यों को मॉडल करने के लिए संभाव्यता अपर्याप्त या असुविधाजनक है।
संभाव्यता सिद्धांत जैसे, उदाहरण के लिए, [[फजी सेट|फजी समुच्चय]],<ref>{{cite q | Q25938993 |last1=Zadeh |first1=L.A. | author-link1 = Lotfi A. Zadeh | journal = [[Information and Computation|Information and Control]] | doi-access = free }}</ref> [[फजी लॉजिक]]<ref>{{cite q | Q57275767 |last1=Zadeh |first1=L.A. | author-link1 = Lotfi A. Zadeh | publisher = [[Springer Science+Business Media|Springer]] }}</ref> और [[संभावना सिद्धांत|संभाव्यता सिद्धांत]] <ref>{{cite journal|last=Dubois|first=D.|author2=Prade, H.|title=Possibility Theory, Probability Theory and Multiple-Valued Logics: A Clarification|journal=Ann. Math. Artif. Intell.|year=2001|volume=32|issue=1–4|pages=35–66|doi=10.1023/A:1016740830286|s2cid=10271476|url=ftp://ftp.irit.fr/IRIT/ADRIA/AMAI-Dub.Pra.revised.pdf}}</ref> मॉडल अनिश्चितता के लिए संभाव्यता के विकल्प हैं। उनका तर्क है कि अपूर्ण/अनिश्चित ज्ञान के कुछ तथ्यों को मॉडल करने के लिए संभाव्यता अपर्याप्त या असुविधाजनक है।


संभाव्यता की रक्षा मुख्य रूप से कॉक्स प्रमेय पर आधारित है, जो अनिश्चितता की उपस्थिति में तर्कसंगत तर्क से संबंधित चार अभिधारणाओं से प्रारंभ होती है। यह दर्शाता है कि एकमात्र गणितीय प्रारुप जो इन अभिधारणाओं को संतुष्ट करता है वह संभाव्यता सिद्धांत है। तर्क यह है कि संभाव्यता के अतिरिक्त कोई भी दृष्टिकोण आवश्यक रूप से इनमें से किसी अभिधारणा और उस उल्लंघन के मूल्य का उल्लंघन करता है।
संभाव्यता की रक्षा मुख्य रूप से कॉक्स प्रमेय पर आधारित है, जो अनिश्चितता की उपस्थिति में तर्कसंगत तर्क से संबंधित चार अभिधारणाओं से प्रारंभ होती है। यह दर्शाता है कि एकमात्र गणितीय प्रारुप जो इन अभिधारणाओं को संतुष्ट करता है वह संभाव्यता सिद्धांत है। तर्क यह है कि संभाव्यता के अतिरिक्त कोई भी दृष्टिकोण आवश्यक रूप से इनमें से किसी अभिधारणा और उस उल्लंघन के मूल्य का उल्लंघन करता है।


== संभाव्य प्रोग्रामिंग ==
== संभाव्य प्रोग्रामिंग ==
Line 540: Line 528:
विस्तारित मौलिक प्रोग्रामिंग भाषाओं में [[अपहरणात्मक तर्क प्रोग्रामिंग]] में प्रस्तावित तार्किक भाषाएं सम्मिलित हैं,<ref>{{cite journal|last=Poole|first=D.|title=संभाव्य हॉर्न अपहरण और बायेसियन नेटवर्क|journal=Artificial Intelligence|year=1993|volume=64|pages=81–129|doi=10.1016/0004-3702(93)90061-F}}</ref> स्वतंत्र विकल्प तर्क,<ref>{{cite journal|last=Poole|first=D.|title=अनिश्चितता के तहत कई एजेंटों के मॉडलिंग के लिए स्वतंत्र विकल्प तर्क|journal=Artificial Intelligence|year=1997|volume=94|issue=1–2|pages=7–56|doi=10.1016/S0004-3702(97)00027-1|doi-access=free}}</ref> प्रिज्म,<ref>{{cite journal|last=Sato|first=T.|author2=Kameya, Y.|title=प्रतीकात्मक-सांख्यिकीय मॉडलिंग के लिए तर्क कार्यक्रमों का पैरामीटर सीखना|journal=Journal of Artificial Intelligence Research|year=2001|volume=15|issue=2001|pages=391–454|url=http://www.jair.org/media/912/live-912-2013-jair.pdf|bibcode=2011arXiv1106.1797S|arxiv=1106.1797|doi=10.1613/jair.912|s2cid=7857569|access-date=2015-10-18|archive-url=https://web.archive.org/web/20140712033447/http://www.jair.org/media/912/live-912-2013-jair.pdf|archive-date=2014-07-12|url-status=dead}}</ref> और प्रोलॉग जो प्रोलॉग के विस्तार का प्रस्ताव करता है।
विस्तारित मौलिक प्रोग्रामिंग भाषाओं में [[अपहरणात्मक तर्क प्रोग्रामिंग]] में प्रस्तावित तार्किक भाषाएं सम्मिलित हैं,<ref>{{cite journal|last=Poole|first=D.|title=संभाव्य हॉर्न अपहरण और बायेसियन नेटवर्क|journal=Artificial Intelligence|year=1993|volume=64|pages=81–129|doi=10.1016/0004-3702(93)90061-F}}</ref> स्वतंत्र विकल्प तर्क,<ref>{{cite journal|last=Poole|first=D.|title=अनिश्चितता के तहत कई एजेंटों के मॉडलिंग के लिए स्वतंत्र विकल्प तर्क|journal=Artificial Intelligence|year=1997|volume=94|issue=1–2|pages=7–56|doi=10.1016/S0004-3702(97)00027-1|doi-access=free}}</ref> प्रिज्म,<ref>{{cite journal|last=Sato|first=T.|author2=Kameya, Y.|title=प्रतीकात्मक-सांख्यिकीय मॉडलिंग के लिए तर्क कार्यक्रमों का पैरामीटर सीखना|journal=Journal of Artificial Intelligence Research|year=2001|volume=15|issue=2001|pages=391–454|url=http://www.jair.org/media/912/live-912-2013-jair.pdf|bibcode=2011arXiv1106.1797S|arxiv=1106.1797|doi=10.1613/jair.912|s2cid=7857569|access-date=2015-10-18|archive-url=https://web.archive.org/web/20140712033447/http://www.jair.org/media/912/live-912-2013-jair.pdf|archive-date=2014-07-12|url-status=dead}}</ref> और प्रोलॉग जो प्रोलॉग के विस्तार का प्रस्ताव करता है।


यह [[कार्यात्मक प्रोग्रामिंग]] (अनिवार्य रूप से [[लिस्प (प्रोग्रामिंग भाषा)]] और स्कीम (प्रोग्रामिंग भाषा)) जैसे आईबीएएल या चर्च का विस्तार भी हो सकता है। अंतर्निहित प्रोग्रामिंग भाषाएँ ब्लॉग और फ़ैक्टरी की तरह ऑब्जेक्ट-ओरिएंटेड हो सकती हैं या सीईएस और फिगारो की तरह अधिक मानक भाषाएँ हो सकती हैं।<ref>{{github|p2t2/figaro}}</ref> बायेसियन प्रोग्रामिंग का उद्देश्य अलग है। जेन्स के तर्क के रूप में संभाव्यता के सिद्धांत का तर्क है कि संभाव्यता तर्क का विस्तार और विकल्प है जिसके ऊपर तर्कसंगतता, गणना और प्रोग्रामिंग का पूरा सिद्धांत फिर से बनाया जा सकता है।<ref name="Jaynes2003"/> बायेसियन प्रोग्रामिंग मौलिक भाषाओं को संभाव्यता पर आधारित प्रोग्रामिंग दृष्टिकोण से बदलने का प्रयास करती है जो [[पूर्णता (तर्क)]] और अनिश्चितता मात्रा निर्धारण पर विचार करती है।
यह [[कार्यात्मक प्रोग्रामिंग]] (अनिवार्य रूप से [[लिस्प (प्रोग्रामिंग भाषा)]] और स्कीम (प्रोग्रामिंग भाषा)) जैसे आईबीएएल या चर्च का विस्तार भी हो सकता है। अंतर्निहित प्रोग्रामिंग भाषाएँ ब्लॉग और फ़ैक्टरी की तरह ऑब्जेक्ट-ओरिएंटेड हो सकती हैं या सीईएस और फिगारो की तरह अधिक मानक भाषाएँ हो सकती हैं।<ref>{{github|p2t2/figaro}}</ref> बायेसियन प्रोग्रामिंग का उद्देश्य अलग है। जेन्स के तर्क के रूप में संभाव्यता के सिद्धांत का तर्क है कि संभाव्यता तर्क का विस्तार और विकल्प है जिसके ऊपर तर्कसंगतता, गणना और प्रोग्रामिंग का पूरा सिद्धांत फिर से बनाया जा सकता है।<ref name="Jaynes2003"/> बायेसियन प्रोग्रामिंग मौलिक भाषाओं को संभाव्यता पर आधारित प्रोग्रामिंग दृष्टिकोण से बदलने का प्रयास करती है जो [[पूर्णता (तर्क)]] और अनिश्चितता मात्रा निर्धारण पर विचार करती है।


बायेसियन और संभाव्य प्रोग्रामिंग के शब्दार्थ और अभिव्यक्ति की शक्ति के बीच स्पष्ट तुलना खुला प्रश्न है।
बायेसियन और संभाव्य प्रोग्रामिंग के शब्दार्थ और अभिव्यक्ति की शक्ति के बीच स्पष्ट तुलना खुला प्रश्न है।


== यह भी देखें                                                                          ==
== यह भी देखें                                                                          ==
Line 568: Line 556:
== संदर्भ                                                                                                                                                                                                                  ==
== संदर्भ                                                                                                                                                                                                                  ==
{{Reflist|2}}
{{Reflist|2}}
==अग्रिम पठन==
==अग्रिम पठन==
* {{cite book|title=Bayesian Programming|author=Kamel Mekhnacha|publisher=Chapman and Hall/CRC|year=2013|isbn=978-1-4398-8032-6|doi=10.1201/b16111}}
* {{cite book|title=Bayesian Programming|author=Kamel Mekhnacha|publisher=Chapman and Hall/CRC|year=2013|isbn=978-1-4398-8032-6|doi=10.1201/b16111}}
== बाहरी संबंध ==
== बाहरी संबंध ==
* [https://archive.today/20131123162733/http://www.probayes.com/Bayesian-Programming-Book A companion site to the ''Bayesian programming'' book where to download ProBT an inference engine dedicated to Bayesian programming.]
* [https://archive.today/20131123162733/http://www.probayes.com/Bayesian-Programming-Book A companion site to the ''Bayesian programming'' book where to download ProBT an inference engine dedicated to Bayesian programming.]

Revision as of 10:04, 12 July 2023

बायेसियन प्रोग्रामिंग औपचारिकता और संभाव्यता वितरण को निर्दिष्ट करने और आवश्यक जानकारी से कम जानकारी उपलब्ध होने पर समस्याओं को हल करने की तकनीक रखने की पद्धति है।

एडविन थॉम्पसन जेन्स या एडविन टी. जेन्स ने प्रस्तावित किया कि अपूर्ण और अनिश्चित जानकारी के साथ तर्कसंगत तर्क के लिए संभाव्यता को विकल्प और तर्क के विस्तार के रूप में माना जा सकता है। उनकी संस्थापक पुस्तक प्रोबेबिलिटी थ्योरी: द लॉजिक ऑफ साइंस में [1] उन्होंने इस सिद्धांत को विकसित किया था और प्रस्तावित किया जिसे उन्होंने "रोबोट" कहा, जो नहीं था

भौतिक उपकरण, किन्तु संभाव्य तर्क को स्वचालित करने के लिए अनुमान इंजन - तर्क के अतिरिक्त संभाव्यता के लिए प्रकार का प्रोलॉग बायेसियन प्रोग्रामिंग [2] यह इस रोबोट का औपचारिक और ठोस कार्यान्वयन है।

बायेसियन प्रोग्रामिंग को ग्राफ़िकल मॉडल को निर्दिष्ट करने के लिए बीजगणितीय औपचारिकता के रूप में भी देखा जा सकता है, उदाहरण के लिए, बायेसियन नेटवर्क, गतिशील बायेसियन नेटवर्क, कलमन फ़िल्टर या हिडन मार्कोव मॉडल बायेसियन प्रोग्रामिंग बायेसियन नेटवर्क की तुलना में अधिक सामान्य है और इसमें संभाव्य कारक ग्राफ के सामान्य अभिव्यक्ति की शक्ति है।[3]

औपचारिकता

बायेसियन प्रोग्राम संभाव्यता वितरण के वर्ग को निर्दिष्ट करने का साधन है।

बायेसियन प्रोग्राम के घटक तत्व नीचे प्रस्तुत किए गए हैं:[4]

  1. प्रोग्राम का निर्माण विवरण और प्रश्न से होता है.
  2. विवरण कुछ विशिष्टताओं () का उपयोग करके बनाया गया है जैसा कि प्रोग्रामर द्वारा दिया गया है और डेटा समुच्चय का उपयोग करके विनिर्देश द्वारा पूरी तरह से निर्दिष्ट नहीं किए गए मापदंडों के लिए मान्यता या सीखने की प्रक्रिया () है
  3. विनिर्देश का निर्माण प्रासंगिक चर, अपघटन और रूपों के समुच्चय से किया जाता है।
  4. फॉर्म या तो पैरामीट्रिक फॉर्म हैं या अन्य बायेसियन प्रोग्रामों के प्रश्न हैं।
  5. प्रश्न निर्दिष्ट करता है कि किस संभाव्यता वितरण की गणना की जानकारी है।

विवरण

विवरण का उद्देश्य संयुक्त संभाव्यता वितरण की गणना करने की प्रभावी विधि निर्दिष्ट करना है यादृच्छिक चर के समुच्चय पर प्रायोगिक डेटा का समुच्चय दिया गया और कुछ विनिर्देश . इस संयुक्त संभाव्यता वितरण को इस प्रकार दर्शाया गया है:[5]

प्रारंभिक ज्ञान निर्दिष्ट करने के लिए , प्रोग्रामर को निम्नलिखित कार्य करने होंगे:

  1. प्रासंगिक यादृच्छिक चर के समुच्चय को परिभाषित करें जिस पर संयुक्त वितरण परिभाषित किया गया है।
  2. संयुक्त वितरण को विघटित करें (इसे प्रासंगिक इन्डीपेंडेंस (संभाव्यता सिद्धांत) या सनियम संभाव्यता में तोड़ें)।
  3. प्रत्येक वितरण के रूपों को परिभाषित करें (उदाहरण के लिए, प्रत्येक चर के लिए, संभाव्यता वितरण की सूची में से एक)।

अपघटन

का विभाजन दिया गया है युक्त उपसमुच्चय, चर परिभाषित हैं , प्रत्येक इन उपसमुच्चयों में अनुरूप है।

प्रत्येक चर चरों के संयोजन के रूप में प्राप्त किया जाता है से संबंधित सबसमुच्चय बेयस प्रमेय के पुनरावर्ती अनुप्रयोग की ओर जाता है:

सनियम इन्डीपेंडेंस परिकल्पना तब और अधिक सरलीकरण की अनुमति देती है। सनियम चर के लिए इन्डीपेंडेंस परिकल्पना कुछ वेरिएबल द्वारा परिभाषित किया गया है संयोजन में प्रदर्शित होने वाले चरों के बीच , लेबलिंग के रूप में इन चुने हुए चर और समुच्चयिंग का संयोजन है:

फिर हम प्राप्त करते हैं:

सरल वितरणों के उत्पाद के रूप में संयुक्त वितरण का ऐसा सरलीकरण है श्रृंखला नियम (संभाव्यता) का उपयोग करके प्राप्त अपघटन कहा जाता है।

यह सुनिश्चित करता है कि प्रत्येक चर कंडीशनिंग के बाईं ओर अधिकतम बार दिखाई दे जो गणितीय रूप से मान्य लिखने के लिए आवश्यक और पर्याप्त नियम है

प्रपत्र

प्रत्येक वितरण फिर उत्पाद में दिखाई देना संबद्ध हो जाता है या तो पैरामीट्रिक फॉर्म के साथ (अर्थात, फलन ) या किसी अन्य बायेसियन प्रोग्राम के लिए है .

जब यह रूप है , सामान्य रूप में, मापदंड का सदिश है जिस पर निर्भर हो सकता है या अथवा दोनों सीखना तब होता है जब इनमें से कुछ मापदंडों की गणना डेटा समुच्चय का उपयोग करके की जाती है .

बायेसियन प्रोग्रामिंग की महत्वपूर्ण विशेषता नए बायेसियन प्रोग्राम की परिभाषा के घटकों के रूप में अन्य बायेसियन प्रोग्रामों के प्रश्नों का उपयोग करने की क्षमता है। विनिर्देशों द्वारा परिभाषित किसी अन्य बायेसियन प्रोग्राम द्वारा किए गए कुछ अनुमानों और डेटा द्वारा प्राप्त किया जाता है. यह मौलिक प्रोग्रामिंग में सबरूटीन को कॉल करने के समान है और बायेसियन नेटवर्क पदानुक्रमित मॉडल बनाने का सरल विधि प्रदान करता है।

प्रश्न

विवरण दिया गया है (अर्थात्, ), विभाजन द्वारा प्रश्न प्राप्त किया जाता है तीन समुच्चयों में: खोजे गए चर, ज्ञात चर और मुक्त चर.

3 चर , और के रूप में परिभाषित किया गया है ये समुच्चय.

प्रश्न को समुच्चय के रूप में परिभाषित किया गया है

के कार्डिनल के रूप में कई त्वरित प्रश्नों से बना है ,प्रत्येक तात्कालिक प्रश्न वितरण है:

अनुमान

संयुक्त वितरण को देखते हुए , निम्नलिखित सामान्य अनुमान का उपयोग करके किसी भी संभावित प्रश्न की गणना करना सदैव संभव है:

जहां पहली समानता हाशिए के नियम से उत्पन्न होती है, वहीं दूसरी बेयस प्रमेय के परिणाम और तीसरा हाशिए के दूसरे अनुप्रयोग से मेल खाता है। प्रत्येक सामान्यीकरण शब्द प्रतीत होता है और इसे स्थिरांक द्वारा प्रतिस्थापित किया जा सकता है .

सैद्धांतिक रूप से, यह किसी भी बायेसियन अनुमान समस्या को हल करने की अनुमति देता है। व्यवहार में, चूँकि, गणना की निवेश विस्तृत और स्पष्ट है लगभग सभी स्थितियों में बहुत सही है.

संयुक्त वितरण को उसके अपघटन द्वारा प्रतिस्थापित करने पर हमें प्राप्त होता है:

जो सामान्यतः गणना करने के लिए बहुत ही सरल अभिव्यक्ति है, क्योंकि निम्न आयाम वितरण के उत्पाद में अपघटन से समस्या की आयामीता अधिक कम हो जाती है।

उदाहरण

बायेसियन स्पैम का पता लगाना

बायेसियन स्पैम फ़िल्टरिंग का उद्देश्य जंक ई-मेल को ख़त्म करना है।

समस्या को सूत्रबद्ध करना बहुत सरल है. ई-मेल को वर्गीकृत किया जाना चाहिए दो श्रेणियों में से में: गैर-स्पैम या स्पैम ई-मेल को वर्गीकृत करने के लिए एकमात्र उपलब्ध जानकारी उनकी कंटेंट है: शब्दों का समुच्चय क्रम को ध्यान में रखे बिना इन शब्दों का उपयोग करना सामान्यतः शब्दों का बैग मॉडल कहा जाता है।

क्लासिफायरियर को इसके अतिरिक्त अपने उपयोगकर्ता के अनुकूल होने और सीखने में सक्षम होना चाहिए अनुभव से प्रारंभिक मानक समुच्चयिंग से प्रारंभ करते हुए, क्लासिफायरियर को ऐसा करना चाहिए

जब उपयोगकर्ता अपने निर्णय से असहमत हो तो अपने आंतरिक मापदंडों को संशोधित करें। इसलिए यह गैर-स्पैम और के बीच अंतर करने के लिए उपयोगकर्ता के मानदंडों के अनुकूल होता है अवांछित ईमेल यह अपने परिणामों में सुधार करेगा क्योंकि इसे तेजी से वर्गीकृत ई-मेल का सामना करना पड़ेगा।

चर

इस प्रोग्राम को लिखने के लिए आवश्यक वेरिएबल इस प्रकार हैं:

  1. : बाइनरी वैरिएबल, यदि ई-मेल स्पैम नहीं है तो गलत और अन्यथा सत्य।
  2. : बाइनरी डेटा सत्य है यदि शब्दकोश का शब्द टेक्स्ट में उपस्थित है।

इन बाइनरी वैरिएबल ई-मेल के बारे में सारी जानकारी को संक्षेप में प्रस्तुत करते हैं.

अपघटन

संयुक्त वितरण से प्रारंभ करने और बेयस प्रमेय को पुनरावर्ती रूप से प्रयुक्त करने से हमें प्राप्त होता है:

यह स्पष्ट गणितीय अभिव्यक्ति है.

इसे यह मानकर अधिक सरल बनाया जा सकता है कि टेक्स्ट की प्रकृति (स्पैम या नहीं) को जानते हुए किसी शब्द के प्रकट होने की संभाव्यता दूसरे शब्दों के प्रकट होने से स्वतंत्र है। यह बेयस की धारणा है और यह इस स्पैम फ़िल्टर को बेयस मॉडल कों अनुभवहीन बनाती है।

उदाहरण के लिए, प्रोग्रामर यह मान सकता है:

अंततः प्राप्त करने के लिए:

इस प्रकार की धारणा को नाइव बेयस क्लासिफायर|नाइव बेयस धारणा के रूप में जाना जाता है। यह इस अर्थ में अनुभवहीन है कि शब्दों के बीच की इन्डीपेंडेंस स्पष्ट रूप से पूर्णतः सत्य नहीं है। उदाहरण के लिए, यह पूरी तरह से उपेक्षा करता है कि शब्दों के जोड़े की उपस्थिति पृथक उपस्थिति से अधिक महत्वपूर्ण हो सकती है। चूँकि, प्रोग्रामर इस परिकल्पना को मान सकता है और यह परीक्षण करने के लिए मॉडल और संबंधित निष्कर्ष विकसित कर सकता है कि यह कितना विश्वसनीय और कुशल है।

पैरामीट्रिक फॉर्म

संयुक्त वितरण की गणना करने में सक्षम होने के लिए, प्रोग्रामर को अब निर्दिष्ट करना होगा अपघटन में प्रकट होने वाले वितरण:

  1. उदाहरण के लिए, पूर्व परिभाषित है
  2. प्रत्येक फार्म उत्तराधिकार के लाप्लास नियम का उपयोग करके निर्दिष्ट किया जा सकता है (यह पीपीएम संपीड़न एल्गोरिदम का मुकाबला करने के लिए छद्म गिनती-आधारित एन-ग्राम स्मूथिंग तकनीक है। शब्दों की शून्य-आवृत्ति समस्या जो पहले कभी नहीं देखी गई):

जहाँ की उपस्थिति की संख्या को दर्शाता है गैर-स्पैम ई-मेल में शब्द और गैर-स्पैम ई-मेल की कुल संख्या को दर्शाता है। इसी प्रकार, की उपस्थिति की संख्या को दर्शाता है स्पैम ई-मेल में शब्द और स्पैम ई-मेल की कुल संख्या को दर्शाता है।

मान्यता h> प्रपत्र अभी तक पूरी तरह से निर्दिष्ट नहीं हैं क्योंकि मापदंड , , और अभी तक कोई मूल्य नहीं है.

इन मापदंडों की मान्यता या तो वर्गीकृत ई-मेल की श्रृंखला के बैच प्रसंस्करण द्वारा या ई-मेल के आने पर उपयोगकर्ता के वर्गीकरण का उपयोग करके मापदंडों के वृद्धिशील अद्यतन द्वारा की जा सकती है।

दोनों विधियों को जोड़ा जा सकता है: सिस्टम सामान्य डेटाबेस से जारी किए गए इन मापदंडों के प्रारंभिक मानक मूल्यों के साथ प्रारंभ हो सकता है, फिर कुछ वृद्धिशील शिक्षा प्रत्येक व्यक्तिगत उपयोगकर्ता के लिए क्लासिफायरियर को अनुकूलित करती है।

प्रश्न

प्रोग्राम से पूछा गया प्रश्न यह है: किसी दिए गए टेक्स्ट के स्पैम होने की क्या संभाव्यता है, यह जानते हुए कि इस टेक्स्ट में कौन से शब्द दिखाई देते हैं और कौन से शब्द दिखाई नहीं देते हैं?

इसे इसके द्वारा औपचारिक रूप दिया जा सकता है:

जिसकी गणना इस प्रकार की जा सकती है:

प्रत्येक सामान्यीकृत स्थिरांक प्रतीत होता है। यह तय करने के लिए कि हम स्पैम से निपट रहे हैं या नहीं, इसकी गणना करना आवश्यक नहीं है। उदाहरण के लिए, अनुपात की गणना करना सरल तरकीब है:

यह गणना तेज़ और सरल है क्योंकि के लिए केवल आवश्यकता होती है .

बायेसियन प्रोग्राम

बायेसियन स्पैम फ़िल्टर प्रोग्राम पूरी तरह से परिभाषित है:


बायेसियन फ़िल्टर, कलमैन फ़िल्टर और हिडन मार्कोव मॉडल

बायेसियन फिल्टर (अधिकांशतः पुनरावर्ती बायेसियन अनुमान कहा जाता है) समय विकसित होने वाली प्रक्रियाओं के लिए सामान्य संभाव्य मॉडल हैं। कई मॉडल इस सामान्य दृष्टिकोण के विशेष उदाहरण हैं, उदाहरण के लिए: कलमैन फ़िल्टर या हिडन मार्कोव मॉडल (एचएमएम)।

चर

  • चर स्तर चर की समय श्रृंखला है जिसे को . समय क्षितिज पर माना जाता है
  • चर ही क्षितिज पर अवलोकन चर की समय श्रृंखला है।

अपघटन

अपघटन आधारित है:

  • पर , जिसे सिस्टम मॉडल, संक्रमण मॉडल या गतिशील मॉडल कहा जाता है, जो समय पर स्तर के लिए समय पर स्तर से संक्रमण को औपचारिक बनाता है;
  • पर , जिसे अवलोकन मॉडल कहा जाता है, जो जब सिस्टम स्थिति में हो व्यक्त करता है कि समय पर क्या देखा जा सकता है;
  • समय पर प्रारंभिक अवस्था में : .

पैरामीट्रिकल फॉर्म

पैरामीट्रिकल फॉर्म सीमित नहीं हैं और अलग-अलग विकल्प अलग-अलग प्रसिद्ध मॉडल की ओर ले जाते हैं: नीचे कलमैन फिल्टर और हिडन मार्कोव मॉडल देखें।

प्रश्न

ऐसे मॉडलों के लिए सामान्य प्रश्न है : अवलोकनों को तुरंत जानना को समय पर स्तर के लिए संभाव्यता वितरण क्या है?

सबसे सामान्य स्थिति बायेसियन फ़िल्टरिंग का है , जो पिछली टिप्पणियों को जानकर, वर्तमान स्थिति की खोज करता है।

चूँकि, यह भी संभव है , अतीत की टिप्पणियों से भविष्य की स्थिति का अनुमान लगाना, या स्मूथिंग करना , उस क्षण से पहले या बाद में किए गए अवलोकनों से पिछली स्थिति को पुनर्प्राप्त करना।

अधिक जटिल प्रश्न भी पूछे जा सकते हैं जैसा कि नीचे एचएमएम अनुभाग में दिखाया गया है।

बायेसियन फ़िल्टर इनमें बहुत ही रोचक पुनरावर्ती गुण होता है, जो उनके आकर्षण में बहुत योगदान देता है। से सरली से गणना की जा सकती है निम्नलिखित सूत्र के साथ:

इस समीकरण के लिए और रोचक दृष्टिकोण यह विचार करना है कि इसके दो चरण हैं: a पूर्वानुमान चरण और अनुमान चरण:

  • पूर्वानुमान चरण के समय, गतिशील मॉडल और पिछले क्षण में स्तर के अनुमान का उपयोग करके स्तर की पूर्वानुमान की जाती है:
  • अनुमान चरण के समय, अंतिम अवलोकन का उपयोग करके पूर्वानुमान की या तो पुष्टि की जाती है या अमान्य:


बायेसियन प्रोग्राम

कलमन फ़िल्टर

बहुत प्रसिद्ध कलमैन फ़िल्टर [6] बायेसियन का विशेष स्थिति है.

इन्हें निम्नलिखित बायेसियन प्रोग्राम द्वारा परिभाषित किया गया है:

  • चर निरंतर होते हैं.
  • संक्रमण मॉडल और अवलोकन मॉडल दोनों को गॉसियन नियमो का उपयोग करके ऐसे साधनों के साथ निर्दिष्ट किया गया है जो कंडीशनिंग चर के रैखिक कार्य हैं।

इन परिकल्पनाओं के साथ और पुनरावर्ती सूत्र का उपयोग करके, इसे हल करना संभव है सामान्य रूप से उत्तर देने के लिए विश्लेषणात्मक रूप से अनुमान समस्या सवाल यह बेहद कुशल एल्गोरिदम की ओर ले जाता है, जो कलमन फिल्टर की लोकप्रियता और उनके अनुप्रयोगों की संख्या को बताता है।

जब कोई स्पष्ट रैखिक संक्रमण और अवलोकन मॉडल नहीं होते हैं, तब भी यह अधिकांशतः होता है

प्रथम-क्रम टेलर के विस्तार का उपयोग करके, इन मॉडलों को स्थानीय रूप से रैखिक माना जा सकता है। इस सामान्यीकरण को सामान्यतः विस्तारित कलमैन फ़िल्टर कहा जाता है।

हिडन मार्कोव मॉडल

हिडन मार्कोव मॉडल (एचएमएम) बायेसियन फिल्टर का और बहुत लोकप्रिय विशेषज्ञता है।

इन्हें निम्नलिखित बायेसियन प्रोग्राम द्वारा परिभाषित किया गया है:

  • चरों को असतत माना जाता है।
  • संक्रमण मॉडल और अवलोकन मॉडल हैं

दोनों को संभाव्यता आव्यूह का उपयोग करके निर्दिष्ट किया गया है।

  • एचएमएम से सबसे अधिक बार पूछा जाने वाला प्रश्न है:

अतीत की टिप्पणियों को जानते हुए, वर्तमान स्थिति की ओर ले जाने वाली स्थितियों की सबसे संभावित श्रृंखला क्या है?

इस विशेष प्रश्न का उत्तर विशिष्ट और बहुत कुशल एल्गोरिदम के साथ दिया जा सकता है विटर्बी एल्गोरिदम कहा जाता है।

एचएमएम के लिए बॉम-वेल्च एल्गोरिदम विकसित किया गया है .

अनुप्रयोग

शैक्षणिक अनुप्रयोग

2000 से, बायेसियन प्रोग्रामिंग का उपयोग रोबोटिक अनुप्रयोगों और जीवन विज्ञान मॉडल दोनों को विकसित करने के लिए किया गया है।[7]

रोबोटिक्स

रोबोटिक्स में, बायेसियन प्रोग्रामिंग को स्वायत्त रोबोटिक्स पर प्रयुक्त किया गया था,[8][9][10][11][12] रोबोटिक कंप्यूटर एडेड डिजाइन सिस्टम,[13] उन्नत ड्राइवर-सहायता प्रणाली,[14] रोबोटिक भुजा नियंत्रण, मोबाइल रोबोट,[15][16] मानव-रोबोट संपर्क,[17] मानव-वाहन संपर्क (बायेसियन स्वायत्त चालक मॉडल)[18][19][20][21][22] वीडियो गेम अवतार प्रोग्रामिंग और प्रशिक्षण [23] और वास्तविक समय रणनीति खेल (एआई) है।[24]

जीवन विज्ञान

जीवन विज्ञान में, गति से आकार का पुनर्निर्माण करने के लिए दृष्टि में बायेसियन प्रोग्रामिंग का उपयोग किया गया था,[25] विज़ुओ-वेस्टिबुलर इंटरैक्शन को मॉडल करने के लिए [26] और सैकेड नेत्र गतिविधियों का अध्ययन करना;[27] प्रारंभिक भाषण अधिग्रहण का अध्ययन करने के लिए भाषण धारणा और नियंत्रण में [28] और कलात्मक-ध्वनिक प्रणालियों का उद्भव;[29] और लिखावट धारणा और नियंत्रण को मॉडल प्रस्तुत करना है।[30]

पैटर्न मान्यता

बायेसियन प्रोग्राम लर्निंग में भाषण मान्यता और संश्लेषण, इमेज मान्यता और प्राकृतिक भाषा प्रसंस्करण के संभावित अनुप्रयोग हैं। यह रचनाशीलता (भागों से अमूर्त अभ्यावेदन का निर्माण), कारणता (भागों से जटिलता का निर्माण) और सीखना (नई अवधारणाओं के निर्माण को सरल बनाने के लिए पहले से मान्यता प्राप्त अवधारणाओं का उपयोग करना) के सिद्धांतों को नियोजित करता है।[31]

संभाव्यता सिद्धांत

संभाव्य दृष्टिकोण (न केवल बायेसियन प्रोग्रामिंग) और संभाव्यता सिद्धांतों के बीच तुलना पर बहस जारी है।

संभाव्यता सिद्धांत जैसे, उदाहरण के लिए, फजी समुच्चय,[32] फजी लॉजिक[33] और संभाव्यता सिद्धांत [34] मॉडल अनिश्चितता के लिए संभाव्यता के विकल्प हैं। उनका तर्क है कि अपूर्ण/अनिश्चित ज्ञान के कुछ तथ्यों को मॉडल करने के लिए संभाव्यता अपर्याप्त या असुविधाजनक है।

संभाव्यता की रक्षा मुख्य रूप से कॉक्स प्रमेय पर आधारित है, जो अनिश्चितता की उपस्थिति में तर्कसंगत तर्क से संबंधित चार अभिधारणाओं से प्रारंभ होती है। यह दर्शाता है कि एकमात्र गणितीय प्रारुप जो इन अभिधारणाओं को संतुष्ट करता है वह संभाव्यता सिद्धांत है। तर्क यह है कि संभाव्यता के अतिरिक्त कोई भी दृष्टिकोण आवश्यक रूप से इनमें से किसी अभिधारणा और उस उल्लंघन के मूल्य का उल्लंघन करता है।

संभाव्य प्रोग्रामिंग

संभाव्य संबंधपरक प्रोग्रामिंग भाषा का उद्देश्य जटिलता को एनकोड करने के लिए प्रोग्रामिंग भाषाओं की अभिव्यक्ति से लाभ उठाते हुए अनिश्चितता से निपटने के लिए संभाव्य मॉडलिंग (विशेष रूप से बायेसियन नेटवर्क) के साथ मौलिक प्रोग्रामिंग भाषाओं के सीमा को एकीकृत करना है।

विस्तारित मौलिक प्रोग्रामिंग भाषाओं में अपहरणात्मक तर्क प्रोग्रामिंग में प्रस्तावित तार्किक भाषाएं सम्मिलित हैं,[35] स्वतंत्र विकल्प तर्क,[36] प्रिज्म,[37] और प्रोलॉग जो प्रोलॉग के विस्तार का प्रस्ताव करता है।

यह कार्यात्मक प्रोग्रामिंग (अनिवार्य रूप से लिस्प (प्रोग्रामिंग भाषा) और स्कीम (प्रोग्रामिंग भाषा)) जैसे आईबीएएल या चर्च का विस्तार भी हो सकता है। अंतर्निहित प्रोग्रामिंग भाषाएँ ब्लॉग और फ़ैक्टरी की तरह ऑब्जेक्ट-ओरिएंटेड हो सकती हैं या सीईएस और फिगारो की तरह अधिक मानक भाषाएँ हो सकती हैं।[38] बायेसियन प्रोग्रामिंग का उद्देश्य अलग है। जेन्स के तर्क के रूप में संभाव्यता के सिद्धांत का तर्क है कि संभाव्यता तर्क का विस्तार और विकल्प है जिसके ऊपर तर्कसंगतता, गणना और प्रोग्रामिंग का पूरा सिद्धांत फिर से बनाया जा सकता है।[1] बायेसियन प्रोग्रामिंग मौलिक भाषाओं को संभाव्यता पर आधारित प्रोग्रामिंग दृष्टिकोण से बदलने का प्रयास करती है जो पूर्णता (तर्क) और अनिश्चितता मात्रा निर्धारण पर विचार करती है।

बायेसियन और संभाव्य प्रोग्रामिंग के शब्दार्थ और अभिव्यक्ति की शक्ति के बीच स्पष्ट तुलना खुला प्रश्न है।

यह भी देखें

संदर्भ

  1. 1.0 1.1 Jaynes, E. T. (10 April 2003). Probability Theory: The Logic of Science. Cambridge University Press. ISBN 978-1-139-43516-1.
  2. Bessiere, Pierre; Mazer, Emmanuel; Manuel Ahuactzin, Juan; Mekhnacha, Kamel (20 December 2013). बायेसियन प्रोग्रामिंग. CRC Press. ISBN 978-1-4398-8032-6.
  3. "Expression Graphs: Unifying Factor Graphs and Sum-Product Networks" (PDF). bcf.usc.edu.
  4. "संभाव्य मॉडलिंग और बायेसियन विश्लेषण" (PDF). ocw.mit.edu.
  5. "बायेसियन नेटवर्क" (PDF). cs.brandeis.edu.
  6. Kalman, R. E. (1960). "रेखीय छानने और भविष्यवाणी की समस्याओं के लिए एक नया दृष्टिकोण". Journal of Basic Engineering. 82: 33–45. doi:10.1115/1.3662552. S2CID 1242324.
  7. Bessière, Pierre; Laugier, Christian; Siegwart, Roland (15 May 2008). संवेदी-मोटर प्रणालियों में संभाव्य तर्क और निर्णय लेना. Springer Science & Business Media. ISBN 978-3-540-79006-8.
  8. Lebeltel, O.; Bessière, P.; Diard, J.; Mazer, E. (2004). "बायेसियन रोबोट प्रोग्रामिंग" (PDF). Advanced Robotics. 16 (1): 49–79. doi:10.1023/b:auro.0000008671.38949.43. S2CID 18768468.
  9. Diard, J.; Gilet, E.; Simonin, E.; Bessière, P. (2010). "Incremental learning of Bayesian sensorimotor models: from low-level behaviours to large-scale structure of the environment" (PDF). Connection Science. 22 (4): 291–312. Bibcode:2010ConSc..22..291D. doi:10.1080/09540091003682561. S2CID 216035458.
  10. Pradalier, C.; Hermosillo, J.; Koike, C.; Braillon, C.; Bessière, P.; Laugier, C. (2005). "The CyCab: a car-like robot navigating autonomously and safely among pedestrians". Robotics and Autonomous Systems. 50 (1): 51–68. CiteSeerX 10.1.1.219.69. doi:10.1016/j.robot.2004.10.002.
  11. Ferreira, J.; Lobo, J.; Bessière, P.; Castelo-Branco, M.; Dias, J. (2012). "सक्रिय कृत्रिम धारणा के लिए एक बायेसियन फ्रेमवर्क" (PDF). IEEE Transactions on Systems, Man, and Cybernetics - Part B: Cybernetics. 99 (2): 1–13. doi:10.1109/TSMCB.2012.2214477. PMID 23014760. S2CID 1808051.
  12. Ferreira, J. F.; Dias, J. M. (2014). रोबोटिक धारणा के लिए संभाव्य दृष्टिकोण. Springer. ISBN 978-3-319-02005-1.
  13. Mekhnacha, K.; Mazer, E.; Bessière, P. (2001). "रोबोटिक अनुप्रयोगों के लिए बायेसियन सीएडी मॉडलर का डिज़ाइन और कार्यान्वयन". Advanced Robotics. 15 (1): 45–69. CiteSeerX 10.1.1.552.3126. doi:10.1163/156855301750095578. S2CID 7920387.
  14. Coué, C.; Pradalier, C.; Laugier, C.; Fraichard, T.; Bessière, P. (2006). "Bayesian Occupancy Filtering for Multitarget Tracking: an Automotive Application" (PDF). International Journal of Robotics Research. 25 (1): 19–30. doi:10.1177/0278364906061158. S2CID 13874685.
  15. Vasudevan, S.; Siegwart, R. (2008). "मोबाइल रोबोटिक्स में सिमेंटिक मानचित्रों के लिए बायेसियन अंतरिक्ष अवधारणा और स्थान वर्गीकरण". Robotics and Autonomous Systems. 56 (6): 522–537. CiteSeerX 10.1.1.149.4189. doi:10.1016/j.robot.2008.03.005.
  16. Perrin, X.; Chavarriaga, R.; Colas, F.; Seigwart, R.; Millan, J. (2010). "सहायक रोबोट के अर्ध-स्वायत्त नेविगेशन के लिए मस्तिष्क-युग्मित इंटरैक्शन". Robotics and Autonomous Systems. 58 (12): 1246–1255. doi:10.1016/j.robot.2010.05.010.
  17. Rett, J.; Dias, J.; Ahuactzin, J-M. (2010). "लाबान आंदोलन विश्लेषण के लिए बायेसियन तर्क का उपयोग मानव-मशीन संपर्क में किया जाता है". International Journal of Reasoning-Based Intelligent Systems. 2 (1): 13–35. CiteSeerX 10.1.1.379.6216. doi:10.1504/IJRIS.2010.029812.
  18. Möbus, C.; Eilers, M.; Garbe, H.; Zilinski, M. (2009), "Probabilistic and Empirical Grounded Modeling of Agents in (Partial) Cooperative Traffic Scenarios", in Duffy, Vincent G. (ed.), Digital Human Modeling (PDF), Lecture Notes in Computer Science, Volume 5620, vol. 5620, Second International Conference, ICDHM 2009, San Diego, CA, USA: Springer, pp. 423–432, doi:10.1007/978-3-642-02809-0_45, ISBN 978-3-642-02808-3{{citation}}: CS1 maint: location (link)
  19. Möbus, C.; Eilers, M. (2009), "Further Steps Towards Driver Modeling according to the Bayesian Programming Approach", in Duffy, Vincent G. (ed.), Digital Human Modeling, Lecture Notes in Computer Science, Volume 5620, vol. 5620, Second International Conference, ICDHM 2009, San Diego, CA, USA: Springer, pp. 413–422, CiteSeerX 10.1.1.319.2067, doi:10.1007/978-3-642-02809-0_44, ISBN 978-3-642-02808-3{{citation}}: CS1 maint: location (link)
  20. Eilers, M.; Möbus, C. (2010). "Lernen eines modularen Bayesian Autonomous Driver Mixture-of-Behaviors (BAD MoB) Modells" (PDF). In Kolrep, H.; Jürgensohn, Th. (eds.). Fahrermodellierung - Zwischen kinematischen Menschmodellen und dynamisch-kognitiven Verhaltensmodellen. Fortschrittsbericht des VDI in der Reihe 22 (Mensch-Maschine-Systeme). Düsseldorf, Germany: VDI-Verlag. pp. 61–74. ISBN 978-3-18-303222-8.
  21. Eilers, M.; Möbus, C. (2011). "Learning the Relevant Percepts of Modular Hierarchical Bayesian Driver Models Using a Bayesian Information Criterion". In Duffy, V.G. (ed.). Digital Human Modeling. LNCS 6777. Heidelberg, Germany: Springer. pp. 463–472. doi:10.1007/978-3-642-21799-9_52. ISBN 978-3-642-21798-2.
  22. Eilers, M.; Möbus, C. (2011). "Learning of a Bayesian Autonomous Driver Mixture-of-Behaviors (BAD-MoB) Model". In Duffy, V.G. (ed.). Advances in Applied Digital Human Modeling. LNCS 6777. Boca Raton, USA: CRC Press, Taylor & Francis Group. pp. 436–445. ISBN 978-1-4398-3511-1.
  23. Le Hy, R.; Arrigoni, A.; Bessière, P.; Lebetel, O. (2004). "वीडियो गेम के पात्रों को बायेसियन व्यवहार सिखाना" (PDF). Robotics and Autonomous Systems. 47 (2–3): 177–185. doi:10.1016/j.robot.2004.03.012. S2CID 16415524.
  24. Synnaeve, G. (2012). मल्टीप्लेयर वीडियो गेम के लिए बायेसियन प्रोग्रामिंग और लर्निंग (PDF).
  25. Colas, F.; Droulez, J.; Wexler, M.; Bessière, P. (2008). "ऑप्टिक प्रवाह से त्रि-आयामी संरचना की धारणा का एक एकीकृत संभाव्य मॉडल". Biological Cybernetics. 97 (5–6): 461–77. CiteSeerX 10.1.1.215.1491. doi:10.1007/s00422-007-0183-z. PMID 17987312. S2CID 215821150.
  26. Laurens, J.; Droulez, J. (2007). "वेस्टिबुलर जानकारी का बायेसियन प्रसंस्करण". Biological Cybernetics. 96 (4): 389–404. doi:10.1007/s00422-006-0133-1. PMID 17146661. S2CID 18138027.
  27. Colas, F.; Flacher, F.; Tanner, T.; Bessière, P.; Girard, B. (2009). "रेटिनोटोपिक मानचित्रों के साथ नेत्र गति चयन के बायेसियन मॉडल" (PDF). Biological Cybernetics. 100 (3): 203–214. doi:10.1007/s00422-009-0292-y. PMID 19212780. S2CID 5906668.
  28. Serkhane, J.; Schwartz, J-L.; Bessière, P. (2005). "बात करने वाले शिशु रोबोट का निर्माण भाषण अधिग्रहण और विकास के अध्ययन में एक योगदान" (PDF). Interaction Studies. 6 (2): 253–286. doi:10.1075/is.6.2.06ser.
  29. Moulin-Frier, C.; Laurent, R.; Bessière, P.; Schwartz, J-L.; Diard, J. (2012). "Adverse conditions improve distinguishability of auditory, motor and percep-tuo-motor theories of speech perception: an exploratory Bayesian modeling study" (PDF). Language and Cognitive Processes. 27 (7–8): 1240–1263. doi:10.1080/01690965.2011.645313. S2CID 55504109.
  30. Gilet, E.; Diard, J.; Bessière, P. (2011). Sporns, Olaf (ed.). "Bayesian Action–Perception Computational Model: Interaction of Production and Recognition of Cursive Letters". PLOS ONE. 6 (6): e20387. Bibcode:2011PLoSO...620387G. doi:10.1371/journal.pone.0020387. PMC 3106017. PMID 21674043.
  31. "नया एल्गोरिदम मशीनों को इंसानों की तरह तेजी से सीखने में मदद करता है". www.gizmag.com. 2016-01-22. Retrieved 2016-01-23.
  32. Lua error in Module:Cite_Q at line 435: attempt to index field '?' (a nil value).
  33. Lua error in Module:Cite_Q at line 435: attempt to index field '?' (a nil value).
  34. Dubois, D.; Prade, H. (2001). "Possibility Theory, Probability Theory and Multiple-Valued Logics: A Clarification" (PDF). Ann. Math. Artif. Intell. 32 (1–4): 35–66. doi:10.1023/A:1016740830286. S2CID 10271476.
  35. Poole, D. (1993). "संभाव्य हॉर्न अपहरण और बायेसियन नेटवर्क". Artificial Intelligence. 64: 81–129. doi:10.1016/0004-3702(93)90061-F.
  36. Poole, D. (1997). "अनिश्चितता के तहत कई एजेंटों के मॉडलिंग के लिए स्वतंत्र विकल्प तर्क". Artificial Intelligence. 94 (1–2): 7–56. doi:10.1016/S0004-3702(97)00027-1.
  37. Sato, T.; Kameya, Y. (2001). "प्रतीकात्मक-सांख्यिकीय मॉडलिंग के लिए तर्क कार्यक्रमों का पैरामीटर सीखना" (PDF). Journal of Artificial Intelligence Research. 15 (2001): 391–454. arXiv:1106.1797. Bibcode:2011arXiv1106.1797S. doi:10.1613/jair.912. S2CID 7857569. Archived from the original (PDF) on 2014-07-12. Retrieved 2015-10-18.
  38. figaro on GitHub

अग्रिम पठन

बाहरी संबंध