आंशिक रूप से देखने योग्य मार्कोव निर्णय प्रक्रिया: Difference between revisions

From Vigyanwiki
(Created page with "{{short description|Generalization of a Markov decision process}} आंशिक रूप से देखने योग्य मार्कोव निर्णय...")
 
Line 1: Line 1:
{{short description|Generalization of a Markov decision process}}
{{short description|Generalization of a Markov decision process}}
आंशिक रूप से देखने योग्य [[मार्कोव निर्णय प्रक्रिया]] (पीओएमडीपी) मार्कोव निर्णय प्रक्रिया (एमडीपी) का सामान्यीकरण है। एक POMDP एक एजेंट निर्णय प्रक्रिया को मॉडल करता है जिसमें यह माना जाता है कि सिस्टम की गतिशीलता एक MDP द्वारा निर्धारित की जाती है, लेकिन एजेंट सीधे अंतर्निहित स्थिति का निरीक्षण नहीं कर सकता है। इसके बजाय, इसे एक सेंसर मॉडल (अंतर्निहित स्थिति को देखते हुए विभिन्न अवलोकनों की संभावना वितरण) और अंतर्निहित एमडीपी को बनाए रखना चाहिए। एमडीपी में पॉलिसी फ़ंक्शन के विपरीत, जो अंतर्निहित राज्यों को क्रियाओं के लिए मैप करता है, पीओएमडीपी की नीति टिप्पणियों के इतिहास (या विश्वास राज्यों) से कार्यों के लिए एक मानचित्रण है।
आंशिक रूप से देखने योग्य [[मार्कोव निर्णय प्रक्रिया]] (पीओएमडीपी) मार्कोव निर्णय प्रक्रिया (एमडीपी) का सामान्यीकरण है। एक पीओएमडीपी एक एजेंट निर्णय प्रक्रिया को मॉडल करता है, जिसमें यह माना जाता है कि प्रणाली की गतिशीलता एक एमडीपी द्वारा निर्धारित की जाती है, लेकिन एजेंट सीधे अंतर्निहित स्थिति का निरीक्षण नहीं कर सकता है। इसके अतिरिक्त, इसे एक सेंसर मॉडल (अंतर्निहित स्थिति को देखते हुए विभिन्न अवलोकनों की प्रायिकता वितरण) और अंतर्निहित एमडीपी को बनाए रखना चाहिए। एमडीपी में पॉलिसी फलन के विपरीत, जो अंतर्निहित अवस्थाओं को क्रियाओं के लिए मैप करता है, पीओएमडीपी की नीति टिप्पणियों के इतिहास (या विश्वास अवस्थाओं) से फलनों के लिए एक मानचित्रण है।


POMDP ढांचा सामान्य रूप से वास्तविक दुनिया की विभिन्न अनुक्रमिक निर्णय प्रक्रियाओं को मॉडल करने के लिए पर्याप्त है। अनुप्रयोगों में रोबोट नेविगेशन समस्याएं, मशीन रखरखाव और सामान्य रूप से अनिश्चितता के तहत योजना शामिल है। 1965 में कार्ल जोहान एस्ट्रोम द्वारा [[अपूर्ण जानकारी]] के साथ मार्कोव निर्णय प्रक्रियाओं के सामान्य ढांचे का वर्णन किया गया था।<ref>{{cite journal  |author=Åström, K.J.  |title=अधूरी राज्य सूचना के साथ मार्कोव प्रक्रियाओं का इष्टतम नियंत्रण|journal=Journal of Mathematical Analysis and Applications |volume=10 |pages=174–205 |year=1965|doi=10.1016/0022-247X(65)90154-X |url=https://lup.lub.lu.se/record/8867084 }}</ref> असतत राज्य स्थान के मामले में, और इसका संचालन अनुसंधान समुदाय में आगे अध्ययन किया गया था जहां संक्षिप्त नाम POMDP गढ़ा गया था। इसे बाद में लेस्ली पी. केलब्लिंग और माइकल एल. लिटमैन द्वारा कृत्रिम बुद्धिमत्ता और [[स्वचालित योजना]] में समस्याओं के लिए अनुकूलित किया गया था।<ref name="Kaelbling98">{{cite journal |doi=10.1016/S0004-3702(98)00023-X |author=Kaelbling, L.P., Littman, M.L., Cassandra, A.R. |title=आंशिक रूप से देखने योग्य स्टोकास्टिक डोमेन में योजना और अभिनय|journal=Artificial Intelligence |volume=101 |issue=1–2 |pages=99–134 |year=1998 }}</ref>
पीओएमडीपी ढांचा सामान्य रूप से वास्तविक विश्व की विभिन्न अनुक्रमिक निर्णय प्रक्रियाओं को मॉडल करने के लिए पर्याप्त है। अनुप्रयोगों में रोबोट नेविगेशन समस्याएं, मशीन रखरखाव और सामान्य रूप से अनिश्चितता के अनुसार योजना सम्मिलित है। 1965 में कार्ल जोहान एस्ट्रोम द्वारा [[अपूर्ण जानकारी]] के साथ मार्कोव निर्णय प्रक्रियाओं के सामान्य ढांचे का वर्णन किया गया था।<ref>{{cite journal  |author=Åström, K.J.  |title=अधूरी राज्य सूचना के साथ मार्कोव प्रक्रियाओं का इष्टतम नियंत्रण|journal=Journal of Mathematical Analysis and Applications |volume=10 |pages=174–205 |year=1965|doi=10.1016/0022-247X(65)90154-X |url=https://lup.lub.lu.se/record/8867084 }}</ref> असतत अवस्था स्थान के मामले में, और इसका संचालन अनुसंधान समुदाय में आगे अध्ययन किया गया था जहां संक्षिप्त नाम पीओएमडीपी गढ़ा गया था। इसे बाद में लेस्ली पी. केलब्लिंग और माइकल एल. लिटमैन द्वारा कृत्रिम बुद्धिमत्ता और [[स्वचालित योजना]] में समस्याओं के लिए अनुकूलित किया गया था।<ref name="Kaelbling98">{{cite journal |doi=10.1016/S0004-3702(98)00023-X |author=Kaelbling, L.P., Littman, M.L., Cassandra, A.R. |title=आंशिक रूप से देखने योग्य स्टोकास्टिक डोमेन में योजना और अभिनय|journal=Artificial Intelligence |volume=101 |issue=1–2 |pages=99–134 |year=1998 }}</ref>
पीओएमडीपी का एक सटीक समाधान विश्व राज्यों पर प्रत्येक संभावित विश्वास के लिए इष्टतम कार्रवाई करता है। इष्टतम कार्रवाई संभवतः अनंत क्षितिज पर एजेंट के अपेक्षित इनाम (या लागत को कम करती है) को अधिकतम करती है। इष्टतम क्रियाओं के अनुक्रम को एजेंट के पर्यावरण के साथ बातचीत के लिए इष्टतम नीति के रूप में जाना जाता है।
 
पीओएमडीपी का एक स्पष्ट समाधान विश्व अवस्थाओं पर प्रत्येक संभावित विश्वास के लिए इष्टतम कार्रवाई करता है। इष्टतम कार्रवाई संभवतः अनंत क्षितिज पर एजेंट के अपेक्षित पुरस्कार (या व्यय को कम करती है) को अधिकतम करती है। इष्टतम क्रियाओं के अनुक्रम को एजेंट के पर्यावरण के साथ वार्तालाप के लिए इष्टतम नीति के रूप में जाना जाता है।


== परिभाषा ==
== परिभाषा ==


=== औपचारिक परिभाषा ===
=== औपचारिक परिभाषा ===
एक असतत-समय POMDP एक एजेंट और उसके वातावरण के बीच संबंध को मॉडल करता है। औपचारिक रूप से, एक पीओएमडीपी 7-ट्यूपल है <math>(S,A,T,R,\Omega,O,\gamma)</math>, कहाँ
एक असतत-समय पीओएमडीपी एक एजेंट और उसके वातावरण के बीच संबंध को मॉडल करता है। औपचारिक रूप से, एक पीओएमडीपी 7-ट्यूपल <math>(S,A,T,R,\Omega,O,\gamma)</math> है, जहाँ
* <math>S</math> राज्यों का एक समूह है,
* <math>S</math> अवस्थाओं का एक समूह है,
* <math>A</math> क्रियाओं का एक समूह है,
* <math>A</math> क्रियाओं का एक समूह है,
* <math>T</math> राज्यों के बीच सशर्त संक्रमण संभावनाओं का एक सेट है,
* <math>T</math> अवस्थाओं के बीच सशर्त संक्रमण प्रायिकताओं का एक समुच्चय है,
* <math>R: S \times A \to \mathbb{R}</math> इनाम समारोह है।
* <math>R: S \times A \to \mathbb{R}</math> पुरस्कार फलन है।
* <math>\Omega</math> टिप्पणियों का एक सेट है,
* <math>\Omega</math> टिप्पणियों का एक समुच्चय है,
* <math>O</math> सशर्त अवलोकन संभावनाओं का एक सेट है, और
* <math>O</math> सशर्त अवलोकन प्रायिकताओं का एक समुच्चय है, और
* <math>\gamma \in [0, 1)</math> छूट कारक है।
* <math>\gamma \in [0, 1)</math> छूट कारक है।


प्रत्येक समय अवधि में, पर्यावरण किसी न किसी अवस्था में होता है <math>s \in S</math>. एजेंट कार्रवाई करता है <math>a \in A</math>, जो पर्यावरण को राज्य में संक्रमण का कारण बनता है <math>s'</math> संभावना के साथ <math>T(s'\mid s,a)</math>. उसी समय, एजेंट एक अवलोकन प्राप्त करता है <math>o \in \Omega</math> जो पर्यावरण की नई स्थिति पर निर्भर करता है, <math>s'</math>, और अभी-अभी की गई कार्रवाई पर, <math>a</math>, संभावना के साथ <math>O(o \mid s',a)</math> (या कभी-कभी <math>O(o \mid s')</math> सेंसर मॉडल पर निर्भर करता है)अंत में, एजेंट को इनाम मिलता है <math>r</math> के बराबर <math>R(s, a)</math>. फिर प्रक्रिया दोहराती है। एजेंट के लिए लक्ष्य प्रत्येक समय कदम पर ऐसी कार्रवाइयों का चयन करना है जो उसके अपेक्षित भविष्य के छूट वाले इनाम को अधिकतम करें: <math>E \left[ \sum_{t=0}^\infty \gamma^t r_t \right]</math>, कहाँ <math>r_t</math> समय पर अर्जित पुरस्कार है <math>t</math>. छूट का कारक <math>\gamma</math> यह निर्धारित करता है कि अधिक दूर के पुरस्कारों पर कितने तात्कालिक पुरस्कार पसंद किए जाते हैं। कब <math>\gamma=0</math> एजेंट केवल इस बात की परवाह करता है कि किस कार्रवाई से सबसे बड़ा अपेक्षित तत्काल इनाम मिलेगा; कब <math>\gamma \rightarrow 1</math> एजेंट भविष्य के पुरस्कारों की अपेक्षित राशि को अधिकतम करने की परवाह करता है।
प्रत्येक समय अवधि में, पर्यावरण किसी न किसी अवस्था में होता है <math>s \in S</math>. एजेंट कार्रवाई करता है <math>a \in A</math>, जो पर्यावरण को अवस्था में संक्रमण का कारण बनता है <math>s'</math> प्रायिकता के साथ <math>T(s'\mid s,a)</math>. उसी समय, एजेंट एक अवलोकन <math>o \in \Omega</math> प्राप्त करता है, जो पर्यावरण की नई स्थिति <math>s'</math> पर निर्भर करती है, और अभी-अभी की गई कार्रवाई पर, <math>a</math>, <math>O(o \mid s',a)</math> प्रायिकता के साथ (या कभी-कभी <math>O(o \mid s')</math> सेंसर मॉडल पर निर्भर करता है) है। अंत में, एजेंट को <math>r</math> के बराबर <math>R(s, a)</math> पुरस्कार मिलता है। फिर प्रक्रिया दोहरायी जाती है। एजेंट के लिए लक्ष्य प्रत्येक समय कदम पर ऐसी कार्रवाइयों का चयन करना है जो उसके अपेक्षित भविष्य के छूट वाले पुरस्कार को अधिकतम करें: <math>E \left[ \sum_{t=0}^\infty \gamma^t r_t \right]</math>, जहाँ <math>r_t</math> समय पर अर्जित पुरस्कार है <math>t</math>. छूट का कारक <math>\gamma</math> यह निर्धारित करता है कि अधिक दूर के पुरस्कारों पर कितने तात्कालिक पुरस्कार पसंद किए जाते हैं। जब <math>\gamma=0</math> एजेंट केवल इस बात की चिंता करता है कि किस कार्रवाई से सबसे बड़ा अपेक्षित तत्काल पुरस्कार मिलेगा; जब <math>\gamma \rightarrow 1</math> एजेंट भविष्य के पुरस्कारों की अपेक्षित राशि को अधिकतम करने की चिंता करता है।


=== चर्चा ===
=== चर्चा ===
क्योंकि एजेंट सीधे पर्यावरण की स्थिति का निरीक्षण नहीं करता है, एजेंट को सही पर्यावरण स्थिति की अनिश्चितता के तहत निर्णय लेना चाहिए। हालांकि, पर्यावरण के साथ बातचीत करके और अवलोकन प्राप्त करके, एजेंट वर्तमान स्थिति की संभाव्यता वितरण को अद्यतन करके वास्तविक स्थिति में अपने विश्वास को अद्यतन कर सकता है। इस संपत्ति का एक परिणाम यह है कि इष्टतम व्यवहार में अक्सर (सूचना एकत्र करना) क्रियाएं शामिल हो सकती हैं जो विशुद्ध रूप से इसलिए की जाती हैं क्योंकि वे वर्तमान स्थिति के एजेंट के अनुमान में सुधार करते हैं, जिससे भविष्य में बेहतर निर्णय लेने की अनुमति मिलती है।
क्योंकि एजेंट सीधे पर्यावरण की स्थिति का निरीक्षण नहीं करता है, एजेंट को सही पर्यावरण स्थिति की अनिश्चितता के अनुसार निर्णय लेना चाहिए। चूँकि, पर्यावरण के साथ वार्तालाप करके और अवलोकन प्राप्त करके, एजेंट वर्तमान स्थिति की संभाव्यता वितरण को अद्यतन करके वास्तविक स्थिति में अपने विश्वास को अद्यतन कर सकता है। इस संपत्ति का एक परिणाम यह है कि इष्टतम व्यवहार में अधिकांशतः (सूचना एकत्र करना) क्रियाएं सम्मिलित हो सकती हैं, जो विशुद्ध रूप से इसलिए की जाती हैं क्योंकि वे वर्तमान स्थिति के एजेंट के अनुमान में संशोधन करते हैं, जिससे भविष्य में उत्तम निर्णय लेने की अनुमति मिलती है।


मार्कोव निर्णय प्रक्रिया # परिभाषा की परिभाषा के साथ उपरोक्त परिभाषा की तुलना करना शिक्षाप्रद है। एक एमडीपी में अवलोकन सेट शामिल नहीं होता है, क्योंकि एजेंट हमेशा पर्यावरण की वर्तमान स्थिति को निश्चित रूप से जानता है। वैकल्पिक रूप से, एक एमडीपी को पीओएमडीपी के रूप में राज्यों के सेट के बराबर होने के लिए अवलोकन सेट सेट करके और अवलोकन सशर्त संभावनाओं को निश्चित रूप से सही स्थिति से मेल खाने वाले अवलोकन का चयन करके परिभाषित किया जा सकता है।
मार्कोव निर्णय प्रक्रिया की परिभाषा के साथ उपरोक्त परिभाषा की तुलना करना शिक्षाप्रद है। एक एमडीपी में अवलोकन समुच्चय सम्मिलित नहीं होता है, क्योंकि एजेंट सदैव पर्यावरण की वर्तमान स्थिति को निश्चित रूप से जानता है। वैकल्पिक रूप से, एक एमडीपी को पीओएमडीपी के रूप में अवस्थाओं के समुच्चय के बराबर होने के लिए अवलोकन समुच्चय करके और अवलोकन सशर्त प्रायिकताओं को निश्चित रूप से सही स्थिति से मेल खाने वाले अवलोकन का चयन करके परिभाषित किया जा सकता है।


== विश्वास अद्यतन ==
== विश्वास अद्यतन ==


कार्रवाई करने के बाद <math>a</math> और देख रहा है <math>o</math>, एक एजेंट को राज्य में अपने विश्वास को अद्यतन करने की आवश्यकता है (या नहीं) पर्यावरण में हो सकता है (या नहीं)। चूंकि राज्य मार्कोवियन है (धारणा के अनुसार), राज्यों पर विश्वास बनाए रखने के लिए केवल पिछले विश्वास राज्य के ज्ञान की आवश्यकता होती है, की गई कार्रवाई, और वर्तमान अवलोकन। ऑपरेशन दर्शाया गया है <math>b' = \tau(b,a,o)</math>. नीचे हम वर्णन करते हैं कि इस विश्वास अद्यतन की गणना कैसे की जाती है।
कार्रवाई करने के बाद <math>a</math> और <math>o</math> दिख रहा है, एक एजेंट को अवस्था में अपने विश्वास को अद्यतन करने की आवश्यकता है (या नहीं) पर्यावरण में हो सकता है (या नहीं)। चूंकि अवस्था मार्कोवियन है (धारणा के अनुसार), अवस्थाओं पर विश्वास बनाए रखने के लिए केवल पिछले विश्वास अवस्था के ज्ञान की, की गई कार्रवाई, और वर्तमान अवलोकन की आवश्यकता होती है। ऑपरेशन <math>b' = \tau(b,a,o)</math> दर्शाया गया है। नीचे हम वर्णन करते हैं कि इस विश्वास अद्यतन की गणना कैसे की जाती है।


पहुंचने के बाद <math>s'</math>, एजेंट देखता है <math>o \in \Omega</math> संभावना के साथ <math>O(o\mid s',a)</math>. होने देना <math>b</math> राज्य स्थान पर संभाव्यता वितरण हो <math>S</math>. <math>b(s)</math> इस संभावना को दर्शाता है कि पर्यावरण स्थिति में है <math>s</math>. दिया गया <math>b(s)</math>, फिर कार्रवाई करने के बाद <math>a</math> और देख रहा है <math>o</math>,
पहुंचने के बाद <math>s'</math>, एजेंट <math>o \in \Omega</math> देखता है, <math>O(o\mid s',a)</math> प्रायिकता के साथ। माना <math>b</math> अवस्था स्थान पर संभाव्यता वितरण <math>S</math> हो। <math>b(s)</math> इस प्रायिकता को दर्शाता है कि पर्यावरण स्थिति में <math>s</math> है। दिया गया <math>b(s)</math>, फिर कार्रवाई करने के बाद <math>a</math> और <math>o</math> दिख रहा है,
:<math>
:<math>
b'(s') = \eta O(o\mid s',a) \sum_{s\in S} T(s'\mid s,a)b(s)
b'(s') = \eta O(o\mid s',a) \sum_{s\in S} T(s'\mid s,a)b(s)
</math>
</math>
कहाँ <math>\eta=1/\Pr(o\mid b,a)</math> के साथ एक सामान्यीकरण स्थिरांक है <math>\Pr(o\mid b,a) = \sum_{s'\in S}O(o\mid s',a)\sum_{s\in S}T(s'\mid s,a)b(s)</math>.
जहाँ <math>\eta=1/\Pr(o\mid b,a)</math> के साथ एक सामान्यीकरण स्थिरांक <math>\Pr(o\mid b,a) = \sum_{s'\in S}O(o\mid s',a)\sum_{s\in S}T(s'\mid s,a)b(s)</math> है।


== विश्वास एमडीपी ==
== विश्वास एमडीपी ==
एक मार्कोवियन विश्वास राज्य एक पीओएमडीपी को मार्कोव निर्णय प्रक्रिया के रूप में तैयार करने की अनुमति देता है जहां हर विश्वास एक राज्य है। परिणामी विश्वास एमडीपी इस प्रकार एक निरंतर राज्य स्थान पर परिभाषित किया जाएगा (भले ही मूल पीओएमडीपी में राज्यों की सीमित संख्या हो: अनंत विश्वास राज्य हैं (में <math>B</math>) क्योंकि राज्यों में असीमित संभाव्यता वितरण हैं (के <math>S</math>)).<ref name="Kaelbling98" />
एक मार्कोवियन विश्वास अवस्था एक पीओएमडीपी को मार्कोव निर्णय प्रक्रिया के रूप में तैयार करने की अनुमति देता है, जहां हर विश्वास एक अवस्था है। परिणामी विश्वास एमडीपी इस प्रकार एक निरंतर अवस्था स्थान पर परिभाषित किया जाएगा (तथापि मूल पीओएमडीपी में अवस्थाओं की सीमित संख्या हो: अनंत विश्वास अवस्था हैं (<math>B</math> में) क्योंकि अवस्थाओं में असीमित संभाव्यता वितरण (<math>S</math>के) हैं।<ref name="Kaelbling98" />


औपचारिक रूप से, विश्वास एमडीपी को टपल के रूप में परिभाषित किया गया है <math>(B,A,\tau,r,\gamma)</math> कहाँ
औपचारिक रूप से, विश्वास एमडीपी को टपल के रूप में परिभाषित किया गया है <math>(B,A,\tau,r,\gamma)</math> जहाँ


* <math>B</math> POMDP राज्यों पर विश्वास राज्यों का समूह है,
* <math>B</math> पीओएमडीपी अवस्थाओं पर विश्वास अवस्थाओं का समूह है,
* <math>A</math> मूल पीओएमडीपी के समान कार्रवाई का एक ही सीमित सेट है,
* <math>A</math> मूल पीओएमडीपी के समान कार्रवाई का एक ही सीमित समुच्चय है,
* <math>\tau</math> विश्वास राज्य संक्रमण समारोह है,
* <math>\tau</math> विश्वास अवस्था संक्रमण फलन है,
* <math>r:B \times A \to \mathbb{R}</math> विश्वास राज्यों पर इनाम समारोह है,
* <math>r:B \times A \to \mathbb{R}</math> विश्वास अवस्थाओं पर पुरस्कार फलन है,
* <math>\gamma</math> के बराबर छूट कारक है <math>\gamma</math> मूल पीओएमडीपी में।
* <math>\gamma</math> के बराबर छूट कारक है <math>\gamma</math> मूल पीओएमडीपी में।


यहाँ इन, <math>\tau</math> और <math>r</math> मूल POMDP से प्राप्त करने की आवश्यकता है। <math>\tau</math> है
यहाँ इन, <math>\tau</math> और <math>r</math> मूल पीओएमडीपी से प्राप्त करने की आवश्यकता है। <math>\tau</math> है


<math>\tau(b,a,b') = \sum_{o\in \Omega} \Pr(b'|b,a,o) \Pr(o | a, b),</math>
<math>\tau(b,a,b') = \sum_{o\in \Omega} \Pr(b'|b,a,o) \Pr(o | a, b),</math>
कहाँ <math>\Pr(o | a,b)</math> पिछले खंड में प्राप्त मूल्य है और
जहाँ <math>\Pr(o | a,b)</math> पिछले खंड में प्राप्त वैल्यू है और


<math>Pr(b'|b,a,o) = \begin{cases}
<math>Pr(b'|b,a,o) = \begin{cases}
1 &\text{if the belief update with arguments } b,a,o \text{ returns } b'  \\
1 &\text{if the belief update with arguments } b,a,o \text{ returns } b'  \\
0 &\text{otherwise }  \end{cases}.</math>
0 &\text{otherwise }  \end{cases}</math>
विश्वास एमडीपी इनाम समारोह (<math>r</math>) विश्वास राज्य वितरण पर POMDP इनाम समारोह से अपेक्षित इनाम है:
 
विश्वास एमडीपी पुरस्कार फलन (<math>r</math>) विश्वास अवस्था वितरण पर पीओएमडीपी पुरस्कार फलन से अपेक्षित पुरस्कार है:


<math>r(b,a) = \sum_{s\in S} b(s) R(s,a)</math>.
<math>r(b,a) = \sum_{s\in S} b(s) R(s,a)</math>.
Line 59: Line 61:
विश्वास एमडीपी अब आंशिक रूप से देखने योग्य नहीं है, क्योंकि किसी भी समय एजेंट अपने विश्वास को जानता है, और विस्तार से विश्वास एमडीपी की स्थिति।
विश्वास एमडीपी अब आंशिक रूप से देखने योग्य नहीं है, क्योंकि किसी भी समय एजेंट अपने विश्वास को जानता है, और विस्तार से विश्वास एमडीपी की स्थिति।


=== नीति और मूल्य समारोह ===
=== नीति और वैल्यू फलन ===
प्रारंभिक पीओएमडीपी के विपरीत (जहां प्रत्येक क्रिया केवल एक राज्य से उपलब्ध है), संबंधित विश्वास एमडीपी में सभी विश्वास राज्य सभी कार्यों की अनुमति देते हैं, क्योंकि आप (लगभग) हमेशा विश्वास करने की कुछ संभावना रखते हैं कि आप किसी भी (मूल) राज्य में हैं। जैसे की, <math>\pi</math> एक क्रिया निर्दिष्ट करता है <math>a=\pi(b)</math> किसी विश्वास के लिए <math>b</math>.
प्रारंभिक पीओएमडीपी के विपरीत (जहां प्रत्येक क्रिया केवल एक अवस्था से उपलब्ध है), संबंधित विश्वास एमडीपी में सभी विश्वास अवस्था सभी फलनों की अनुमति देते हैं, क्योंकि आप (लगभग) सदैव विश्वास करने की कुछ प्रायिकता रखते हैं कि आप किसी भी (मूल) अवस्था में हैं। जैसे की, <math>\pi</math> एक क्रिया निर्दिष्ट <math>a=\pi(b)</math> करता है, किसी ट्रस्ट <math>b</math> के लिए।


यहां यह माना जाता है कि उद्देश्य अनंत क्षितिज पर अपेक्षित कुल रियायती इनाम को अधिकतम करना है। कब <math>R</math> एक लागत को परिभाषित करता है, उद्देश्य अपेक्षित लागत का न्यूनीकरण हो जाता है।
यहां यह माना जाता है कि उद्देश्य अनंत क्षितिज पर अपेक्षित कुल रियायती पुरस्कार को अधिकतम करना है। जब <math>R</math> एक व्यय को परिभाषित करता है, उद्देश्य अपेक्षित व्यय का न्यूनीकरण हो जाता है।


नीति के लिए अपेक्षित इनाम <math>\pi</math> विश्वास से शुरू <math>b_0</math> परिभाषित किया जाता है
नीति के लिए अपेक्षित पुरस्कार <math>\pi</math> विश्वास से प्रारंभ <math>b_0</math> परिभाषित किया जाता है
:<math>
:<math>
V^\pi(b_0) = \sum_{t=0}^\infty  \gamma^t r(b_t, a_t) = \sum_{t=0}^\infty \gamma^t E\Bigl[ R(s_t,a_t) \mid b_0, \pi \Bigr]
V^\pi(b_0) = \sum_{t=0}^\infty  \gamma^t r(b_t, a_t) = \sum_{t=0}^\infty \gamma^t E\Bigl[ R(s_t,a_t) \mid b_0, \pi \Bigr]
</math>
</math>
कहाँ <math>\gamma<1</math> छूट कारक है। इष्टतम नीति <math>\pi^*</math> लंबी अवधि के इनाम का अनुकूलन करके प्राप्त किया जाता है।
जहाँ <math>\gamma<1</math> छूट कारक है। इष्टतम नीति <math>\pi^*</math> लंबी अवधि के पुरस्कार का अनुकूलन करके प्राप्त किया जाता है।
:<math>
:<math>
\pi^* = \underset{\pi}{\mbox{argmax}}\ V^\pi(b_0)
\pi^* = \underset{\pi}{\mbox{argmax}}\ V^\pi(b_0)
</math>
</math>
कहाँ <math>b_0</math> प्रारंभिक विश्वास है।
जहाँ <math>b_0</math> प्रारंभिक विश्वास है।


इष्टतम नीति, द्वारा निरूपित <math>\pi^*</math>, प्रत्येक विश्वास राज्य के लिए उच्चतम अपेक्षित इनाम मूल्य प्राप्त करता है, जो कि इष्टतम मूल्य फ़ंक्शन द्वारा कॉम्पैक्ट रूप से दर्शाया गया है <math>V^*</math>. यह मान फलन [[बेलमैन समीकरण]] का हल है:
इष्टतम नीति, <math>\pi^*</math> द्वारा निरूपित, प्रत्येक विश्वास अवस्था के लिए उच्चतम अपेक्षित पुरस्कार वैल्यू प्राप्त करता है, जो कि इष्टतम वैल्यू फलन <math>V^*</math> द्वारा कॉम्पैक्ट रूप से दर्शाया गया है। यह मान फलन [[बेलमैन समीकरण]] का हल है:
:<math>
:<math>
V^*(b) = \max_{a\in A}\Bigl[ r(b,a) + \gamma\sum_{o\in \Omega} \Pr(o\mid b,a) V^*(\tau(b,a,o)) \Bigr]
V^*(b) = \max_{a\in A}\Bigl[ r(b,a) + \gamma\sum_{o\in \Omega} \Pr(o\mid b,a) V^*(\tau(b,a,o)) \Bigr]
</math>
</math>
परिमित-क्षितिज POMDPs के लिए, इष्टतम मान फ़ंक्शन टुकड़ावार-रैखिक और उत्तल है।<ref>{{Cite thesis |degree=PhD |title=आंशिक रूप से देखने योग्य मार्कोव प्रक्रियाओं का इष्टतम नियंत्रण|last=Sondik |first=E.J. |year=1971 |publisher=Stanford University |url=https://apps.dtic.mil/docs/citations/AD0730503|archive-url=https://web.archive.org/web/20191017142947/https://apps.dtic.mil/docs/citations/AD0730503|url-status=dead|archive-date=October 17, 2019}}</ref> इसे सदिशों के परिमित समुच्चय के रूप में प्रदर्शित किया जा सकता है। अनंत-क्षितिज सूत्रीकरण में, एक परिमित वेक्टर सेट अनुमानित हो सकता है <math>V^*</math> मनमाने ढंग से बारीकी से, जिसका आकार उत्तल रहता है। वैल्यू इटरेशन डायनामिक प्रोग्रामिंग अपडेट को लागू करता है ताकि मूल्य में धीरे-धीरे सुधार हो सके जब तक कि अभिसरण नहीं हो जाता <math>\epsilon</math>-ऑप्टिमल वैल्यू फंक्शन, और इसकी टुकड़े-टुकड़े रैखिकता और उत्तलता को बरकरार रखता है।<ref>{{cite journal |doi=10.1287/opre.21.5.1071 |author=Smallwood, R.D., Sondik, E.J. |title=एक परिमित क्षितिज पर आंशिक रूप से देखने योग्य मार्कोव निर्णय प्रक्रियाओं का इष्टतम नियंत्रण|journal=Operations Research |volume=21 |issue=5 |pages=1071–88 |year=1973 }}</ref> मूल्य में सुधार करके, नीति में निहित रूप से सुधार किया जाता है। नीति पुनरावृत्ति नामक एक अन्य गतिशील प्रोग्रामिंग तकनीक स्पष्ट रूप से नीति का प्रतिनिधित्व करती है और इसके बजाय सुधार करती है।<ref>{{cite journal |doi=10.1287/opre.26.2.282 |author=Sondik, E.J. |title=The optimal control of partially observable Markov processes over the infinite horizon: discounted cost |journal=Operations Research |volume=26 |issue=2 |pages=282–304 |year=1978 }}</ref><ref>{{cite conference |book-title=Proceedings of the Fourteenth International Conference on Uncertainty In Artificial Intelligence (UAI-98) |title=पॉलिसी स्पेस में खोज कर पीओएमडीपी को हल करना|first=E. |last=Hansen |year=1998 |arxiv=1301.7380 }}</ref>
परिमित-क्षितिज पीओएमडीपी के लिए, इष्टतम मान फलन टुकड़ावार-रैखिक और उत्तल है।<ref>{{Cite thesis |degree=PhD |title=आंशिक रूप से देखने योग्य मार्कोव प्रक्रियाओं का इष्टतम नियंत्रण|last=Sondik |first=E.J. |year=1971 |publisher=Stanford University |url=https://apps.dtic.mil/docs/citations/AD0730503|archive-url=https://web.archive.org/web/20191017142947/https://apps.dtic.mil/docs/citations/AD0730503|url-status=dead|archive-date=October 17, 2019}}</ref> इसे सदिशों के परिमित समुच्चय के रूप में प्रदर्शित किया जा सकता है। अनंत-क्षितिज सूत्रीकरण में, एक परिमित वेक्टर समुच्चय <math>V^*</math> अनुमानित हो सकता है, इच्छानुसार ढंग से निकटता से, जिसका आकार उत्तल रहता है। वैल्यू इटरेशन डायनामिक प्रोग्रामिंग अपडेट को प्रयुक्त करता है जिससे वैल्यू में धीरे-धीरे संशोधन हो सके जब तक कि अभिसरण नहीं हो जाता <math>\epsilon</math>-ऑप्टिमल वैल्यू फलन, और इसकी टुकड़े-टुकड़े रैखिकता और उत्तलता को बनाये रखता है।<ref>{{cite journal |doi=10.1287/opre.21.5.1071 |author=Smallwood, R.D., Sondik, E.J. |title=एक परिमित क्षितिज पर आंशिक रूप से देखने योग्य मार्कोव निर्णय प्रक्रियाओं का इष्टतम नियंत्रण|journal=Operations Research |volume=21 |issue=5 |pages=1071–88 |year=1973 }}</ref> वैल्यू में संशोधन करके, नीति में निहित रूप से संशोधन किया जाता है। नीति पुनरावृत्ति नामक एक अन्य गतिशील प्रोग्रामिंग तकनीक स्पष्ट रूप से नीति का प्रतिनिधित्व करती है और इसके अतिरिक्त संशोधन करती है।<ref>{{cite journal |doi=10.1287/opre.26.2.282 |author=Sondik, E.J. |title=The optimal control of partially observable Markov processes over the infinite horizon: discounted cost |journal=Operations Research |volume=26 |issue=2 |pages=282–304 |year=1978 }}</ref><ref>{{cite conference |book-title=Proceedings of the Fourteenth International Conference on Uncertainty In Artificial Intelligence (UAI-98) |title=पॉलिसी स्पेस में खोज कर पीओएमडीपी को हल करना|first=E. |last=Hansen |year=1998 |arxiv=1301.7380 }}</ref>
 
 
==अनुमानित पीओएमडीपी समाधान==
व्यवहार में, पीओएमडीपी अधिकांशतः कम्प्यूटेशनल रूप से कम्प्यूटेशनल जटिलता सिद्धांत वास्तव में हल करने के लिए इंट्रेक्टेबिलिटी होते हैं, इसलिए कंप्यूटर वैज्ञानिकों ने ऐसी विधियाँ विकसित की हैं, जो पीओएमडीपी के लिए अनुमानित समाधान हैं।<ref>{{cite journal |doi=10.1613/jair.678 |author=Hauskrecht, M. |title=आंशिक रूप से देखने योग्य मार्कोव निर्णय प्रक्रियाओं के लिए मूल्य समारोह सन्निकटन|journal=Journal of Artificial Intelligence Research|volume=13|pages=33–94|year=2000|doi-access=free}}</ref> ग्रिड-आधारित एल्गोरिदम<ref>{{cite journal |doi=10.1287/opre.39.1.162 |author=Lovejoy, W. |title=आंशिक रूप से देखे गए मार्कोव निर्णय प्रक्रियाओं के लिए कम्प्यूटेशनल रूप से व्यवहार्य सीमाएं|journal=Operations Research |volume=39 |pages=162–175 |year=1991 }}</ref> एक अनुमानित समाधान तकनीक सम्मिलित करें। इस दृष्टिकोण में, वैल्यू फलन की गणना विश्वास स्थान में बिंदुओं के एक समुच्चय के लिए की जाती है, और इंटरपोलेशन का उपयोग उन अन्य विश्वास अवस्थाओं के लिए इष्टतम कार्रवाई निर्धारित करने के लिए किया जाता है जो ग्रिड बिंदुओं के समुच्चय में नहीं हैं। अधिक हाल के कार्य नमूनाकरण तकनीकों, सामान्यीकरण तकनीकों और समस्या संरचना के शोषण का उपयोग करते हैं, और लाखों अवस्थाओं के साथ बड़े डोमेन में पीओएमडीपी समाधान को विस्तारित किया है।<ref name=hoey>{{cite conference |title=आंशिक रूप से अवलोकन योग्य मार्कोव निर्णय प्रक्रिया का उपयोग करके हैंडवाशिंग के दौरान डिमेंशिया वाले व्यक्तियों की सहायता करना|author1=Jesse Hoey |author2=Axel von Bertoldi |author3=Pascal Poupart |author4=Alex Mihailidis |book-title=Proc. International Conference on Computer Vision Systems (ICVS) |date=2007 |doi=10.2390/biecoll-icvs2007-89}}</ref><ref name=hoeyCVIU>{{cite journal |doi=10.1016/j.cviu.2009.06.008 | title=डिमेंशिया से पीड़ित व्यक्तियों के लिए वीडियो और आंशिक रूप से अवलोकन योग्य मार्कोव निर्णय प्रक्रिया का उपयोग करने के लिए स्वचालित हैंडवाशिंग सहायता|author1=Jesse Hoey |author2=Pascal Poupart |author3=Axel von Bertoldi |author4=Tammy Craig |author5=Craig Boutilier |author6=Alex Mihailidis. |journal=Computer Vision and Image Understanding (CVIU) |volume=114 | issue=5 | pages=503–519 | year=2010| citeseerx=10.1.1.160.8351 }}</ref> उदाहरण के लिए, अनुकूली ग्रिड और बिंदु-आधारित विधियाँ यादृच्छिक पहुंच योग्य विश्वास बिंदुओं का नमूना लेती हैं, जो विश्वास स्थान में प्रासंगिक क्षेत्रों की योजना को विवश करती हैं।<ref>{{cite conference |title=Point-based value iteration: An anytime algorithm for POMDPs |author=Pineau, J., Gordon, G., Thrun, S. |book-title=International Joint Conference on Artificial Intelligence (IJCAI). Acapulco, Mexico |date=August 2003 |pages=1025–32 |url=http://www.fore.robot.cc/papers/Pineau03a.pdf}}</ref><ref>{{cite conference |title=आंशिक रूप से देखने योग्य मार्कोव निर्णय प्रक्रियाओं में सीमा की गणना के लिए वृद्धिशील तरीके|author=Hauskrecht, M.|book-title=Proceedings of the 14th National Conference on Artificial Intelligence (AAAI). Providence, RI |date=1997 |pages=734–739 |citeseerx=10.1.1.85.8303}}</ref>


सिद्धांत घटक विश्लेषण का उपयोग करते हुए आयाम में कमी का भी पता लगाया गया है।<ref>{{cite book |author1=Roy, Nicholas |author1-link=Nicholas Roy|author2=Gordon, Geoffrey |chapter=Exponential Family PCA for Belief Compression in POMDPs |title=न्यूरल इन्फर्मेशन प्रोसेसिंग सिस्टम्स में प्रगति|year=2003 |chapter-url=http://papers.nips.cc/paper/2319-exponential-family-pca-for-belief-compression-in-pomdps.pdf}}</ref> पीओएमडीपी को हल करने के लिए अनुमानित समाधान तकनीकों की एक और पंक्ति पिछली टिप्पणियों, फलनों और पुरस्कारों के इतिहास को एक छद्म अवस्था के रूप में उपयोग करने (एक सबसमुच्चय) पर निर्भर करती है। इन छद्म अवस्थाओं के आधार पर एमडीपी को हल करने के लिए सामान्य तकनीकों का उपयोग किया जा सकता है (जैसे [[क्यू-लर्निंग]])। आदर्श रूप से छद्म अवस्थाओं में यथासंभव संकुचित होने के दौरान पूरे इतिहास (पूर्वाग्रह को कम करने के लिए) से सबसे महत्वपूर्ण जानकारी होनी चाहिए (ओवरफिटिंग को कम करने के लिए)।<ref>{{cite conference |title=आंशिक प्रेक्षणीयता के साथ बैच रीइन्फोर्समेंट लर्निंग में ओवरफिटिंग और एसिम्प्टोटिक बायस पर| author=Francois-Lavet, V., Rabusseau, G., Pineau, J., Ernst, D., Fonteneau, R.| journal=Journal of Artificial Intelligence Research (JAIR)| date=2019| volume=65| pages=1–30 | url=https://www.jair.org/index.php/jair/article/view/11478| arxiv=1709.07796}}</ref>


==अनुमानित POMDP समाधान==
व्यवहार में, पीओएमडीपी अक्सर कम्प्यूटेशनल रूप से कम्प्यूटेशनल जटिलता सिद्धांत # वास्तव में हल करने के लिए इंट्रेक्टेबिलिटी होते हैं, इसलिए कंप्यूटर वैज्ञानिकों ने ऐसे तरीके विकसित किए हैं जो पीओएमडीपी के लिए अनुमानित समाधान हैं।<ref>{{cite journal |doi=10.1613/jair.678 |author=Hauskrecht, M. |title=आंशिक रूप से देखने योग्य मार्कोव निर्णय प्रक्रियाओं के लिए मूल्य समारोह सन्निकटन|journal=Journal of Artificial Intelligence Research|volume=13|pages=33–94|year=2000|doi-access=free}}</ref>
ग्रिड-आधारित एल्गोरिदम<ref>{{cite journal |doi=10.1287/opre.39.1.162 |author=Lovejoy, W. |title=आंशिक रूप से देखे गए मार्कोव निर्णय प्रक्रियाओं के लिए कम्प्यूटेशनल रूप से व्यवहार्य सीमाएं|journal=Operations Research |volume=39 |pages=162–175 |year=1991 }}</ref> एक अनुमानित समाधान तकनीक शामिल करें। इस दृष्टिकोण में, मूल्य समारोह की गणना विश्वास स्थान में बिंदुओं के एक सेट के लिए की जाती है, और इंटरपोलेशन का उपयोग उन अन्य विश्वास राज्यों के लिए इष्टतम कार्रवाई निर्धारित करने के लिए किया जाता है जो ग्रिड बिंदुओं के सेट में नहीं हैं। अधिक हाल के कार्य नमूनाकरण तकनीकों, सामान्यीकरण तकनीकों और समस्या संरचना के शोषण का उपयोग करते हैं, और लाखों राज्यों के साथ बड़े डोमेन में POMDP समाधान को विस्तारित किया है।<ref name=hoey>{{cite conference |title=आंशिक रूप से अवलोकन योग्य मार्कोव निर्णय प्रक्रिया का उपयोग करके हैंडवाशिंग के दौरान डिमेंशिया वाले व्यक्तियों की सहायता करना|author1=Jesse Hoey |author2=Axel von Bertoldi |author3=Pascal Poupart |author4=Alex Mihailidis |book-title=Proc. International Conference on Computer Vision Systems (ICVS) |date=2007 |doi=10.2390/biecoll-icvs2007-89}}</ref><ref name=hoeyCVIU>{{cite journal |doi=10.1016/j.cviu.2009.06.008 | title=डिमेंशिया से पीड़ित व्यक्तियों के लिए वीडियो और आंशिक रूप से अवलोकन योग्य मार्कोव निर्णय प्रक्रिया का उपयोग करने के लिए स्वचालित हैंडवाशिंग सहायता|author1=Jesse Hoey |author2=Pascal Poupart |author3=Axel von Bertoldi |author4=Tammy Craig |author5=Craig Boutilier |author6=Alex Mihailidis. |journal=Computer Vision and Image Understanding (CVIU) |volume=114 | issue=5 | pages=503–519 | year=2010| citeseerx=10.1.1.160.8351 }}</ref> उदाहरण के लिए, अनुकूली ग्रिड और बिंदु-आधारित विधियाँ यादृच्छिक पहुंच योग्य विश्वास बिंदुओं का नमूना लेती हैं, जो विश्वास स्थान में प्रासंगिक क्षेत्रों की योजना को विवश करती हैं।<ref>{{cite conference |title=Point-based value iteration: An anytime algorithm for POMDPs |author=Pineau, J., Gordon, G., Thrun, S. |book-title=International Joint Conference on Artificial Intelligence (IJCAI). Acapulco, Mexico |date=August 2003 |pages=1025–32 |url=http://www.fore.robot.cc/papers/Pineau03a.pdf}}</ref><ref>{{cite conference |title=आंशिक रूप से देखने योग्य मार्कोव निर्णय प्रक्रियाओं में सीमा की गणना के लिए वृद्धिशील तरीके|author=Hauskrecht, M.|book-title=Proceedings of the 14th National Conference on Artificial Intelligence (AAAI). Providence, RI |date=1997 |pages=734–739 |citeseerx=10.1.1.85.8303}}</ref>
सिद्धांत घटक विश्लेषण का उपयोग करते हुए आयाम में कमी का भी पता लगाया गया है।<ref>{{cite book |author1=Roy, Nicholas |author1-link=Nicholas Roy|author2=Gordon, Geoffrey |chapter=Exponential Family PCA for Belief Compression in POMDPs |title=न्यूरल इन्फर्मेशन प्रोसेसिंग सिस्टम्स में प्रगति|year=2003 |chapter-url=http://papers.nips.cc/paper/2319-exponential-family-pca-for-belief-compression-in-pomdps.pdf}}</ref>
पीओएमडीपी को हल करने के लिए अनुमानित समाधान तकनीकों की एक और पंक्ति पिछली टिप्पणियों, कार्यों और पुरस्कारों के इतिहास को एक छद्म राज्य के रूप में उपयोग करने (एक सबसेट) पर निर्भर करती है। इन छद्म अवस्थाओं के आधार पर एमडीपी को हल करने के लिए सामान्य तकनीकों का उपयोग किया जा सकता है (जैसे [[क्यू-लर्निंग]])। आदर्श रूप से छद्म राज्यों में यथासंभव संकुचित होने के दौरान पूरे इतिहास (पूर्वाग्रह को कम करने के लिए) से सबसे महत्वपूर्ण जानकारी होनी चाहिए (ओवरफिटिंग को कम करने के लिए)।<ref>{{cite conference |title=आंशिक प्रेक्षणीयता के साथ बैच रीइन्फोर्समेंट लर्निंग में ओवरफिटिंग और एसिम्प्टोटिक बायस पर| author=Francois-Lavet, V., Rabusseau, G., Pineau, J., Ernst, D., Fonteneau, R.| journal=Journal of Artificial Intelligence Research (JAIR)| date=2019| volume=65| pages=1–30 | url=https://www.jair.org/index.php/jair/article/view/11478| arxiv=1709.07796}}</ref>




== पीओएमडीपी सिद्धांत ==
== पीओएमडीपी सिद्धांत ==
पीओएमडीपी में नियोजन सामान्य रूप से [[अनिर्णीत समस्या]] है। हालाँकि, कुछ सेटिंग्स को निर्णायक होने के लिए पहचाना गया है (देखें तालिका 2 में,<ref name=":0">{{Cite journal|last1=Chatterjee|first1=Krishnendu|last2=Chmelík|first2=Martin|last3=Tracol|first3=Mathieu|date=2016-08-01|title=What is decidable about partially observable Markov decision processes with ω-regular objectives|journal=Journal of Computer and System Sciences|volume=82|issue=5|pages=878–911|doi=10.1016/j.jcss.2016.02.009|issn=0022-0000|doi-access=free}}</ref> नीचे पुनरुत्पादित)। विभिन्न उद्देश्यों पर विचार किया गया है। बुच्ची उद्देश्यों को बुची ऑटोमेटन|बुची ऑटोमेटा द्वारा परिभाषित किया गया है। रीचैबिलिटी एक बुची स्थिति का एक उदाहरण है (उदाहरण के लिए, एक अच्छी स्थिति तक पहुँचना जिसमें सभी रोबोट घर हैं)। coBüchi उद्देश्य उन निशानों के अनुरूप हैं जो किसी दी गई Büchi स्थिति को संतुष्ट नहीं करते हैं (उदाहरण के लिए, खराब स्थिति में नहीं पहुँचना जिसमें कुछ रोबोट की मृत्यु हो गई)। समता उद्देश्यों को समता खेल के माध्यम से परिभाषित किया जाता है; वे जटिल उद्देश्यों को परिभाषित करने में सक्षम होते हैं जैसे कि हर 10 बार एक अच्छी स्थिति तक पहुँचना। उद्देश्य को पूरा किया जा सकता है:
पीओएमडीपी में नियोजन सामान्य रूप से [[अनिर्णीत समस्या]] है। चूँकि, कुछ समुच्चयिंग्स को निर्णायक होने के लिए पहचाना गया है (देखें तालिका 2 में,<ref name=":0">{{Cite journal|last1=Chatterjee|first1=Krishnendu|last2=Chmelík|first2=Martin|last3=Tracol|first3=Mathieu|date=2016-08-01|title=What is decidable about partially observable Markov decision processes with ω-regular objectives|journal=Journal of Computer and System Sciences|volume=82|issue=5|pages=878–911|doi=10.1016/j.jcss.2016.02.009|issn=0022-0000|doi-access=free}}</ref> नीचे पुनरुत्पादित)। विभिन्न उद्देश्यों पर विचार किया गया है। बुच्ची उद्देश्यों को बुच्ची ऑटोमेटा द्वारा परिभाषित किया गया है। रीचैबिलिटी एक बुच्ची स्थिति का एक उदाहरण है (उदाहरण के लिए, एक अच्छी स्थिति तक पहुँचना जिसमें सभी रोबोट घर हैं)। कोबुच्ची उद्देश्य उन निशानों के अनुरूप हैं जो किसी दी गई बुच्ची स्थिति को संतुष्ट नहीं करते हैं (उदाहरण के लिए, खराब स्थिति में नहीं पहुँचना जिसमें कुछ रोबोट की मृत्यु हो गई)। समता उद्देश्यों को समता खेल के माध्यम से परिभाषित किया जाता है; वे जटिल उद्देश्यों को परिभाषित करने में सक्षम होते हैं जैसे कि हर 10 बार एक अच्छी स्थिति तक पहुँचना। उद्देश्य को पूरा किया जा सकता है:


* लगभग-निश्चित रूप से, यानी उद्देश्य को पूरा करने की संभावना 1 है;
* लगभग-निश्चित रूप से, अर्थात् उद्देश्य को पूरा करने की प्रायिकता 1 है;
* सकारात्मक, अर्थात् उद्देश्य को पूरा करने की संभावना 0 से अधिक है;
* सकारात्मक, अर्थात् उद्देश्य को पूरा करने की प्रायिकता 0 से अधिक है;
*मात्रात्मक, अर्थात उद्देश्य को पूरा करने की संभावना दी गई सीमा से अधिक है।
*मात्रात्मक, अर्थात उद्देश्य को पूरा करने की प्रायिकता दी गई सीमा से अधिक है।


हम परिमित स्मृति मामले पर भी विचार करते हैं जिसमें एजेंट एक परिमित-राज्य मशीन है, और सामान्य मामला जिसमें एजेंट की अनंत स्मृति होती है।
हम परिमित स्मृति स्थिति पर भी विचार करते हैं जिसमें एजेंट एक परिमित-अवस्था मशीन है, और सामान्य स्थिति जिसमें एजेंट की अनंत स्मृति होती है।
{| class="wikitable"
{| class="wikitable"
|+
|+
!Objectives
!उद्देश्य
!Almost-sure (infinite memory)
!लगभग सुनिश्चित (अनंत स्मृति)
!Almost-sure (finite memory)
!लगभग सुनिश्चित (परिमित स्मृति)
!Positive (inf. mem.)
!सकारात्मक (अनंत mem.)
!Positive (finite mem.)
!सकारात्मक (परिमित mem.)
!Quantitative (inf. mem)
!मात्रात्मक (अनंत mem)
!Quantitative (finite mem.)
!मात्रात्मक (परिमित mem.)
|-
|-
|[[Büchi automaton|Büchi]]
|[[Büchi automaton|बुच्ची]]
|[[EXPTIME]]-complete
|एक्सपटाइम-पूर्ण
|EXPTIME-complete
|एक्सपटाइम-पूर्ण
|undecidable
|अनिर्णनीय
|EXPTIME-complete<ref name=":0" />
|एक्सपटाइम-पूर्ण<ref name=":0" />
|undecidable
|अनिर्णनीय
|undecidable
|अनिर्णनीय
|-
|-
|coBüchi
|कोबुच्ची
|undecidable
|अनिर्णनीय
|EXPTIME-complete<ref name=":0" />
|एक्सपटाइम-पूर्ण<ref name=":0" />
|EXPTIME-complete
|एक्सपटाइम-पूर्ण
|EXPTIME-complete
|एक्सपटाइम-पूर्ण
|undecidable
|अनिर्णनीय
|undecidable
|अनिर्णनीय
|-
|-
|[[Parity game|parity]]
|[[Parity game|समानता]]
|undecidable
|अनिर्णनीय
|EXPTIME-complete<ref name=":0" />
|एक्सपटाइम-पूर्ण<ref name=":0" />
|undecidable
|अनिर्णनीय
|EXPTIME-complete<ref name=":0" />
|एक्सपटाइम-पूर्ण<ref name=":0" />
|undecidable
|अनिर्णनीय
|undecidable
|अनिर्णनीय
|}
|}




== अनुप्रयोग ==
== अनुप्रयोग ==
पीओएमडीपी का इस्तेमाल कई तरह की वास्तविक दुनिया की समस्याओं के मॉडल के लिए किया जा सकता है। उल्लेखनीय अनुप्रयोगों में इस्कीमिक हृदय रोग के रोगियों के प्रबंधन में पीओएमडीपी का उपयोग शामिल है,<ref>{{cite journal |doi=10.1016/S0933-3657(99)00042-1| pmid=10675716| title=आंशिक रूप से अवलोकन योग्य मार्कोव निर्णय प्रक्रियाओं के साथ इस्कीमिक हृदय रोग के उपचार की योजना बनाना|author=Hauskrecht, M. , Fraser, H. | journal=Artificial Intelligence in Medicine|volume=18|issue=3|pages=221–244|year=2000}}</ref> डिमेंशिया वाले व्यक्तियों के लिए सहायक तकनीक,<ref name=hoey/><ref name=hoeyCVIU/>गंभीर रूप से लुप्तप्राय और सुमात्रन बाघों का पता लगाना मुश्किल है<ref name="chades">{{cite journal |author=Chadès, I., McDonald-Madden, E., McCarthy, M.A., Wintle, B., Linkie, M., Possingham, H.P. |title=गुप्त खतरे वाली प्रजातियों का प्रबंधन या सर्वेक्षण कब बंद करें|journal=Proc. Natl. Acad. Sci. U.S.A. |volume=105 |issue=37 |pages=13936–40 |date=16 September 2008 |pmid=18779594 |pmc=2544557 |doi=10.1073/pnas.0805265105 |bibcode=2008PNAS..10513936C|doi-access=free }}</ref> और विमान टक्कर परिहार।<ref>{{cite book |author=Kochenderfer, Mykel J. |chapter=Optimized Airborne Collision Avoidance |title=अनिश्चितता के तहत निर्णय लेना|publisher=The MIT Press |year=2015 |chapter-url=https://ieeexplore.ieee.org/document/7288641}}</ref>
पीओएमडीपी का उपयोग कई तरह की वास्तविक विश्व की समस्याओं के मॉडल के लिए किया जा सकता है। उल्लेखनीय अनुप्रयोगों में इस्कीमिक हृदय रोग के रोगियों के प्रबंधन में पीओएमडीपी का उपयोग सम्मिलित है,<ref>{{cite journal |doi=10.1016/S0933-3657(99)00042-1| pmid=10675716| title=आंशिक रूप से अवलोकन योग्य मार्कोव निर्णय प्रक्रियाओं के साथ इस्कीमिक हृदय रोग के उपचार की योजना बनाना|author=Hauskrecht, M. , Fraser, H. | journal=Artificial Intelligence in Medicine|volume=18|issue=3|pages=221–244|year=2000}}</ref> डिमेंशिया वाले व्यक्तियों के लिए सहायक तकनीक,<ref name=hoey/><ref name=hoeyCVIU/> गंभीर रूप से लुप्तप्राय और सुमात्रन बाघों का पता लगाना मुश्किल है<ref name="chades">{{cite journal |author=Chadès, I., McDonald-Madden, E., McCarthy, M.A., Wintle, B., Linkie, M., Possingham, H.P. |title=गुप्त खतरे वाली प्रजातियों का प्रबंधन या सर्वेक्षण कब बंद करें|journal=Proc. Natl. Acad. Sci. U.S.A. |volume=105 |issue=37 |pages=13936–40 |date=16 September 2008 |pmid=18779594 |pmc=2544557 |doi=10.1073/pnas.0805265105 |bibcode=2008PNAS..10513936C|doi-access=free }}</ref> और विमान टक्कर परिहार।<ref>{{cite book |author=Kochenderfer, Mykel J. |chapter=Optimized Airborne Collision Avoidance |title=अनिश्चितता के तहत निर्णय लेना|publisher=The MIT Press |year=2015 |chapter-url=https://ieeexplore.ieee.org/document/7288641}}</ref>





Revision as of 01:36, 5 June 2023

आंशिक रूप से देखने योग्य मार्कोव निर्णय प्रक्रिया (पीओएमडीपी) मार्कोव निर्णय प्रक्रिया (एमडीपी) का सामान्यीकरण है। एक पीओएमडीपी एक एजेंट निर्णय प्रक्रिया को मॉडल करता है, जिसमें यह माना जाता है कि प्रणाली की गतिशीलता एक एमडीपी द्वारा निर्धारित की जाती है, लेकिन एजेंट सीधे अंतर्निहित स्थिति का निरीक्षण नहीं कर सकता है। इसके अतिरिक्त, इसे एक सेंसर मॉडल (अंतर्निहित स्थिति को देखते हुए विभिन्न अवलोकनों की प्रायिकता वितरण) और अंतर्निहित एमडीपी को बनाए रखना चाहिए। एमडीपी में पॉलिसी फलन के विपरीत, जो अंतर्निहित अवस्थाओं को क्रियाओं के लिए मैप करता है, पीओएमडीपी की नीति टिप्पणियों के इतिहास (या विश्वास अवस्थाओं) से फलनों के लिए एक मानचित्रण है।

पीओएमडीपी ढांचा सामान्य रूप से वास्तविक विश्व की विभिन्न अनुक्रमिक निर्णय प्रक्रियाओं को मॉडल करने के लिए पर्याप्त है। अनुप्रयोगों में रोबोट नेविगेशन समस्याएं, मशीन रखरखाव और सामान्य रूप से अनिश्चितता के अनुसार योजना सम्मिलित है। 1965 में कार्ल जोहान एस्ट्रोम द्वारा अपूर्ण जानकारी के साथ मार्कोव निर्णय प्रक्रियाओं के सामान्य ढांचे का वर्णन किया गया था।[1] असतत अवस्था स्थान के मामले में, और इसका संचालन अनुसंधान समुदाय में आगे अध्ययन किया गया था जहां संक्षिप्त नाम पीओएमडीपी गढ़ा गया था। इसे बाद में लेस्ली पी. केलब्लिंग और माइकल एल. लिटमैन द्वारा कृत्रिम बुद्धिमत्ता और स्वचालित योजना में समस्याओं के लिए अनुकूलित किया गया था।[2]

पीओएमडीपी का एक स्पष्ट समाधान विश्व अवस्थाओं पर प्रत्येक संभावित विश्वास के लिए इष्टतम कार्रवाई करता है। इष्टतम कार्रवाई संभवतः अनंत क्षितिज पर एजेंट के अपेक्षित पुरस्कार (या व्यय को कम करती है) को अधिकतम करती है। इष्टतम क्रियाओं के अनुक्रम को एजेंट के पर्यावरण के साथ वार्तालाप के लिए इष्टतम नीति के रूप में जाना जाता है।

परिभाषा

औपचारिक परिभाषा

एक असतत-समय पीओएमडीपी एक एजेंट और उसके वातावरण के बीच संबंध को मॉडल करता है। औपचारिक रूप से, एक पीओएमडीपी 7-ट्यूपल है, जहाँ

  • अवस्थाओं का एक समूह है,
  • क्रियाओं का एक समूह है,
  • अवस्थाओं के बीच सशर्त संक्रमण प्रायिकताओं का एक समुच्चय है,
  • पुरस्कार फलन है।
  • टिप्पणियों का एक समुच्चय है,
  • सशर्त अवलोकन प्रायिकताओं का एक समुच्चय है, और
  • छूट कारक है।

प्रत्येक समय अवधि में, पर्यावरण किसी न किसी अवस्था में होता है . एजेंट कार्रवाई करता है , जो पर्यावरण को अवस्था में संक्रमण का कारण बनता है प्रायिकता के साथ . उसी समय, एजेंट एक अवलोकन प्राप्त करता है, जो पर्यावरण की नई स्थिति पर निर्भर करती है, और अभी-अभी की गई कार्रवाई पर, , प्रायिकता के साथ (या कभी-कभी सेंसर मॉडल पर निर्भर करता है) है। अंत में, एजेंट को के बराबर पुरस्कार मिलता है। फिर प्रक्रिया दोहरायी जाती है। एजेंट के लिए लक्ष्य प्रत्येक समय कदम पर ऐसी कार्रवाइयों का चयन करना है जो उसके अपेक्षित भविष्य के छूट वाले पुरस्कार को अधिकतम करें: , जहाँ समय पर अर्जित पुरस्कार है . छूट का कारक यह निर्धारित करता है कि अधिक दूर के पुरस्कारों पर कितने तात्कालिक पुरस्कार पसंद किए जाते हैं। जब एजेंट केवल इस बात की चिंता करता है कि किस कार्रवाई से सबसे बड़ा अपेक्षित तत्काल पुरस्कार मिलेगा; जब एजेंट भविष्य के पुरस्कारों की अपेक्षित राशि को अधिकतम करने की चिंता करता है।

चर्चा

क्योंकि एजेंट सीधे पर्यावरण की स्थिति का निरीक्षण नहीं करता है, एजेंट को सही पर्यावरण स्थिति की अनिश्चितता के अनुसार निर्णय लेना चाहिए। चूँकि, पर्यावरण के साथ वार्तालाप करके और अवलोकन प्राप्त करके, एजेंट वर्तमान स्थिति की संभाव्यता वितरण को अद्यतन करके वास्तविक स्थिति में अपने विश्वास को अद्यतन कर सकता है। इस संपत्ति का एक परिणाम यह है कि इष्टतम व्यवहार में अधिकांशतः (सूचना एकत्र करना) क्रियाएं सम्मिलित हो सकती हैं, जो विशुद्ध रूप से इसलिए की जाती हैं क्योंकि वे वर्तमान स्थिति के एजेंट के अनुमान में संशोधन करते हैं, जिससे भविष्य में उत्तम निर्णय लेने की अनुमति मिलती है।

मार्कोव निर्णय प्रक्रिया की परिभाषा के साथ उपरोक्त परिभाषा की तुलना करना शिक्षाप्रद है। एक एमडीपी में अवलोकन समुच्चय सम्मिलित नहीं होता है, क्योंकि एजेंट सदैव पर्यावरण की वर्तमान स्थिति को निश्चित रूप से जानता है। वैकल्पिक रूप से, एक एमडीपी को पीओएमडीपी के रूप में अवस्थाओं के समुच्चय के बराबर होने के लिए अवलोकन समुच्चय करके और अवलोकन सशर्त प्रायिकताओं को निश्चित रूप से सही स्थिति से मेल खाने वाले अवलोकन का चयन करके परिभाषित किया जा सकता है।

विश्वास अद्यतन

कार्रवाई करने के बाद और दिख रहा है, एक एजेंट को अवस्था में अपने विश्वास को अद्यतन करने की आवश्यकता है (या नहीं) पर्यावरण में हो सकता है (या नहीं)। चूंकि अवस्था मार्कोवियन है (धारणा के अनुसार), अवस्थाओं पर विश्वास बनाए रखने के लिए केवल पिछले विश्वास अवस्था के ज्ञान की, की गई कार्रवाई, और वर्तमान अवलोकन की आवश्यकता होती है। ऑपरेशन दर्शाया गया है। नीचे हम वर्णन करते हैं कि इस विश्वास अद्यतन की गणना कैसे की जाती है।

पहुंचने के बाद , एजेंट देखता है, प्रायिकता के साथ। माना अवस्था स्थान पर संभाव्यता वितरण हो। इस प्रायिकता को दर्शाता है कि पर्यावरण स्थिति में है। दिया गया , फिर कार्रवाई करने के बाद और दिख रहा है,

जहाँ के साथ एक सामान्यीकरण स्थिरांक है।

विश्वास एमडीपी

एक मार्कोवियन विश्वास अवस्था एक पीओएमडीपी को मार्कोव निर्णय प्रक्रिया के रूप में तैयार करने की अनुमति देता है, जहां हर विश्वास एक अवस्था है। परिणामी विश्वास एमडीपी इस प्रकार एक निरंतर अवस्था स्थान पर परिभाषित किया जाएगा (तथापि मूल पीओएमडीपी में अवस्थाओं की सीमित संख्या हो: अनंत विश्वास अवस्था हैं ( में) क्योंकि अवस्थाओं में असीमित संभाव्यता वितरण (के) हैं।[2]

औपचारिक रूप से, विश्वास एमडीपी को टपल के रूप में परिभाषित किया गया है जहाँ

  • पीओएमडीपी अवस्थाओं पर विश्वास अवस्थाओं का समूह है,
  • मूल पीओएमडीपी के समान कार्रवाई का एक ही सीमित समुच्चय है,
  • विश्वास अवस्था संक्रमण फलन है,
  • विश्वास अवस्थाओं पर पुरस्कार फलन है,
  • के बराबर छूट कारक है मूल पीओएमडीपी में।

यहाँ इन, और मूल पीओएमडीपी से प्राप्त करने की आवश्यकता है। है

जहाँ पिछले खंड में प्राप्त वैल्यू है और

विश्वास एमडीपी पुरस्कार फलन () विश्वास अवस्था वितरण पर पीओएमडीपी पुरस्कार फलन से अपेक्षित पुरस्कार है:

.

विश्वास एमडीपी अब आंशिक रूप से देखने योग्य नहीं है, क्योंकि किसी भी समय एजेंट अपने विश्वास को जानता है, और विस्तार से विश्वास एमडीपी की स्थिति।

नीति और वैल्यू फलन

प्रारंभिक पीओएमडीपी के विपरीत (जहां प्रत्येक क्रिया केवल एक अवस्था से उपलब्ध है), संबंधित विश्वास एमडीपी में सभी विश्वास अवस्था सभी फलनों की अनुमति देते हैं, क्योंकि आप (लगभग) सदैव विश्वास करने की कुछ प्रायिकता रखते हैं कि आप किसी भी (मूल) अवस्था में हैं। जैसे की, एक क्रिया निर्दिष्ट करता है, किसी ट्रस्ट के लिए।

यहां यह माना जाता है कि उद्देश्य अनंत क्षितिज पर अपेक्षित कुल रियायती पुरस्कार को अधिकतम करना है। जब एक व्यय को परिभाषित करता है, उद्देश्य अपेक्षित व्यय का न्यूनीकरण हो जाता है।

नीति के लिए अपेक्षित पुरस्कार विश्वास से प्रारंभ परिभाषित किया जाता है

जहाँ छूट कारक है। इष्टतम नीति लंबी अवधि के पुरस्कार का अनुकूलन करके प्राप्त किया जाता है।

जहाँ प्रारंभिक विश्वास है।

इष्टतम नीति, द्वारा निरूपित, प्रत्येक विश्वास अवस्था के लिए उच्चतम अपेक्षित पुरस्कार वैल्यू प्राप्त करता है, जो कि इष्टतम वैल्यू फलन द्वारा कॉम्पैक्ट रूप से दर्शाया गया है। यह मान फलन बेलमैन समीकरण का हल है:

परिमित-क्षितिज पीओएमडीपी के लिए, इष्टतम मान फलन टुकड़ावार-रैखिक और उत्तल है।[3] इसे सदिशों के परिमित समुच्चय के रूप में प्रदर्शित किया जा सकता है। अनंत-क्षितिज सूत्रीकरण में, एक परिमित वेक्टर समुच्चय अनुमानित हो सकता है, इच्छानुसार ढंग से निकटता से, जिसका आकार उत्तल रहता है। वैल्यू इटरेशन डायनामिक प्रोग्रामिंग अपडेट को प्रयुक्त करता है जिससे वैल्यू में धीरे-धीरे संशोधन हो सके जब तक कि अभिसरण नहीं हो जाता -ऑप्टिमल वैल्यू फलन, और इसकी टुकड़े-टुकड़े रैखिकता और उत्तलता को बनाये रखता है।[4] वैल्यू में संशोधन करके, नीति में निहित रूप से संशोधन किया जाता है। नीति पुनरावृत्ति नामक एक अन्य गतिशील प्रोग्रामिंग तकनीक स्पष्ट रूप से नीति का प्रतिनिधित्व करती है और इसके अतिरिक्त संशोधन करती है।[5][6]


अनुमानित पीओएमडीपी समाधान

व्यवहार में, पीओएमडीपी अधिकांशतः कम्प्यूटेशनल रूप से कम्प्यूटेशनल जटिलता सिद्धांत वास्तव में हल करने के लिए इंट्रेक्टेबिलिटी होते हैं, इसलिए कंप्यूटर वैज्ञानिकों ने ऐसी विधियाँ विकसित की हैं, जो पीओएमडीपी के लिए अनुमानित समाधान हैं।[7] ग्रिड-आधारित एल्गोरिदम[8] एक अनुमानित समाधान तकनीक सम्मिलित करें। इस दृष्टिकोण में, वैल्यू फलन की गणना विश्वास स्थान में बिंदुओं के एक समुच्चय के लिए की जाती है, और इंटरपोलेशन का उपयोग उन अन्य विश्वास अवस्थाओं के लिए इष्टतम कार्रवाई निर्धारित करने के लिए किया जाता है जो ग्रिड बिंदुओं के समुच्चय में नहीं हैं। अधिक हाल के कार्य नमूनाकरण तकनीकों, सामान्यीकरण तकनीकों और समस्या संरचना के शोषण का उपयोग करते हैं, और लाखों अवस्थाओं के साथ बड़े डोमेन में पीओएमडीपी समाधान को विस्तारित किया है।[9][10] उदाहरण के लिए, अनुकूली ग्रिड और बिंदु-आधारित विधियाँ यादृच्छिक पहुंच योग्य विश्वास बिंदुओं का नमूना लेती हैं, जो विश्वास स्थान में प्रासंगिक क्षेत्रों की योजना को विवश करती हैं।[11][12]

सिद्धांत घटक विश्लेषण का उपयोग करते हुए आयाम में कमी का भी पता लगाया गया है।[13] पीओएमडीपी को हल करने के लिए अनुमानित समाधान तकनीकों की एक और पंक्ति पिछली टिप्पणियों, फलनों और पुरस्कारों के इतिहास को एक छद्म अवस्था के रूप में उपयोग करने (एक सबसमुच्चय) पर निर्भर करती है। इन छद्म अवस्थाओं के आधार पर एमडीपी को हल करने के लिए सामान्य तकनीकों का उपयोग किया जा सकता है (जैसे क्यू-लर्निंग)। आदर्श रूप से छद्म अवस्थाओं में यथासंभव संकुचित होने के दौरान पूरे इतिहास (पूर्वाग्रह को कम करने के लिए) से सबसे महत्वपूर्ण जानकारी होनी चाहिए (ओवरफिटिंग को कम करने के लिए)।[14]


पीओएमडीपी सिद्धांत

पीओएमडीपी में नियोजन सामान्य रूप से अनिर्णीत समस्या है। चूँकि, कुछ समुच्चयिंग्स को निर्णायक होने के लिए पहचाना गया है (देखें तालिका 2 में,[15] नीचे पुनरुत्पादित)। विभिन्न उद्देश्यों पर विचार किया गया है। बुच्ची उद्देश्यों को बुच्ची ऑटोमेटा द्वारा परिभाषित किया गया है। रीचैबिलिटी एक बुच्ची स्थिति का एक उदाहरण है (उदाहरण के लिए, एक अच्छी स्थिति तक पहुँचना जिसमें सभी रोबोट घर हैं)। कोबुच्ची उद्देश्य उन निशानों के अनुरूप हैं जो किसी दी गई बुच्ची स्थिति को संतुष्ट नहीं करते हैं (उदाहरण के लिए, खराब स्थिति में नहीं पहुँचना जिसमें कुछ रोबोट की मृत्यु हो गई)। समता उद्देश्यों को समता खेल के माध्यम से परिभाषित किया जाता है; वे जटिल उद्देश्यों को परिभाषित करने में सक्षम होते हैं जैसे कि हर 10 बार एक अच्छी स्थिति तक पहुँचना। उद्देश्य को पूरा किया जा सकता है:

  • लगभग-निश्चित रूप से, अर्थात् उद्देश्य को पूरा करने की प्रायिकता 1 है;
  • सकारात्मक, अर्थात् उद्देश्य को पूरा करने की प्रायिकता 0 से अधिक है;
  • मात्रात्मक, अर्थात उद्देश्य को पूरा करने की प्रायिकता दी गई सीमा से अधिक है।

हम परिमित स्मृति स्थिति पर भी विचार करते हैं जिसमें एजेंट एक परिमित-अवस्था मशीन है, और सामान्य स्थिति जिसमें एजेंट की अनंत स्मृति होती है।

उद्देश्य लगभग सुनिश्चित (अनंत स्मृति) लगभग सुनिश्चित (परिमित स्मृति) सकारात्मक (अनंत mem.) सकारात्मक (परिमित mem.) मात्रात्मक (अनंत mem) मात्रात्मक (परिमित mem.)
बुच्ची एक्सपटाइम-पूर्ण एक्सपटाइम-पूर्ण अनिर्णनीय एक्सपटाइम-पूर्ण[15] अनिर्णनीय अनिर्णनीय
कोबुच्ची अनिर्णनीय एक्सपटाइम-पूर्ण[15] एक्सपटाइम-पूर्ण एक्सपटाइम-पूर्ण अनिर्णनीय अनिर्णनीय
समानता अनिर्णनीय एक्सपटाइम-पूर्ण[15] अनिर्णनीय एक्सपटाइम-पूर्ण[15] अनिर्णनीय अनिर्णनीय


अनुप्रयोग

पीओएमडीपी का उपयोग कई तरह की वास्तविक विश्व की समस्याओं के मॉडल के लिए किया जा सकता है। उल्लेखनीय अनुप्रयोगों में इस्कीमिक हृदय रोग के रोगियों के प्रबंधन में पीओएमडीपी का उपयोग सम्मिलित है,[16] डिमेंशिया वाले व्यक्तियों के लिए सहायक तकनीक,[9][10] गंभीर रूप से लुप्तप्राय और सुमात्रन बाघों का पता लगाना मुश्किल है[17] और विमान टक्कर परिहार।[18]


संदर्भ

  1. Åström, K.J. (1965). "अधूरी राज्य सूचना के साथ मार्कोव प्रक्रियाओं का इष्टतम नियंत्रण". Journal of Mathematical Analysis and Applications. 10: 174–205. doi:10.1016/0022-247X(65)90154-X.
  2. 2.0 2.1 Kaelbling, L.P., Littman, M.L., Cassandra, A.R. (1998). "आंशिक रूप से देखने योग्य स्टोकास्टिक डोमेन में योजना और अभिनय". Artificial Intelligence. 101 (1–2): 99–134. doi:10.1016/S0004-3702(98)00023-X.{{cite journal}}: CS1 maint: multiple names: authors list (link)
  3. Sondik, E.J. (1971). आंशिक रूप से देखने योग्य मार्कोव प्रक्रियाओं का इष्टतम नियंत्रण (PhD thesis). Stanford University. Archived from the original on October 17, 2019.
  4. Smallwood, R.D., Sondik, E.J. (1973). "एक परिमित क्षितिज पर आंशिक रूप से देखने योग्य मार्कोव निर्णय प्रक्रियाओं का इष्टतम नियंत्रण". Operations Research. 21 (5): 1071–88. doi:10.1287/opre.21.5.1071.{{cite journal}}: CS1 maint: multiple names: authors list (link)
  5. Sondik, E.J. (1978). "The optimal control of partially observable Markov processes over the infinite horizon: discounted cost". Operations Research. 26 (2): 282–304. doi:10.1287/opre.26.2.282.
  6. Hansen, E. (1998). "पॉलिसी स्पेस में खोज कर पीओएमडीपी को हल करना". Proceedings of the Fourteenth International Conference on Uncertainty In Artificial Intelligence (UAI-98). arXiv:1301.7380.
  7. Hauskrecht, M. (2000). "आंशिक रूप से देखने योग्य मार्कोव निर्णय प्रक्रियाओं के लिए मूल्य समारोह सन्निकटन". Journal of Artificial Intelligence Research. 13: 33–94. doi:10.1613/jair.678.
  8. Lovejoy, W. (1991). "आंशिक रूप से देखे गए मार्कोव निर्णय प्रक्रियाओं के लिए कम्प्यूटेशनल रूप से व्यवहार्य सीमाएं". Operations Research. 39: 162–175. doi:10.1287/opre.39.1.162.
  9. 9.0 9.1 Jesse Hoey; Axel von Bertoldi; Pascal Poupart; Alex Mihailidis (2007). "आंशिक रूप से अवलोकन योग्य मार्कोव निर्णय प्रक्रिया का उपयोग करके हैंडवाशिंग के दौरान डिमेंशिया वाले व्यक्तियों की सहायता करना". Proc. International Conference on Computer Vision Systems (ICVS). doi:10.2390/biecoll-icvs2007-89.
  10. 10.0 10.1 Jesse Hoey; Pascal Poupart; Axel von Bertoldi; Tammy Craig; Craig Boutilier; Alex Mihailidis. (2010). "डिमेंशिया से पीड़ित व्यक्तियों के लिए वीडियो और आंशिक रूप से अवलोकन योग्य मार्कोव निर्णय प्रक्रिया का उपयोग करने के लिए स्वचालित हैंडवाशिंग सहायता". Computer Vision and Image Understanding (CVIU). 114 (5): 503–519. CiteSeerX 10.1.1.160.8351. doi:10.1016/j.cviu.2009.06.008.
  11. Pineau, J., Gordon, G., Thrun, S. (August 2003). "Point-based value iteration: An anytime algorithm for POMDPs" (PDF). International Joint Conference on Artificial Intelligence (IJCAI). Acapulco, Mexico. pp. 1025–32.{{cite conference}}: CS1 maint: multiple names: authors list (link)
  12. Hauskrecht, M. (1997). "आंशिक रूप से देखने योग्य मार्कोव निर्णय प्रक्रियाओं में सीमा की गणना के लिए वृद्धिशील तरीके". Proceedings of the 14th National Conference on Artificial Intelligence (AAAI). Providence, RI. pp. 734–739. CiteSeerX 10.1.1.85.8303.
  13. Roy, Nicholas; Gordon, Geoffrey (2003). "Exponential Family PCA for Belief Compression in POMDPs" (PDF). न्यूरल इन्फर्मेशन प्रोसेसिंग सिस्टम्स में प्रगति.
  14. Francois-Lavet, V., Rabusseau, G., Pineau, J., Ernst, D., Fonteneau, R. (2019). आंशिक प्रेक्षणीयता के साथ बैच रीइन्फोर्समेंट लर्निंग में ओवरफिटिंग और एसिम्प्टोटिक बायस पर. Journal of Artificial Intelligence Research (JAIR). Vol. 65. pp. 1–30. arXiv:1709.07796.{{cite conference}}: CS1 maint: multiple names: authors list (link)
  15. 15.0 15.1 15.2 15.3 15.4 Chatterjee, Krishnendu; Chmelík, Martin; Tracol, Mathieu (2016-08-01). "What is decidable about partially observable Markov decision processes with ω-regular objectives". Journal of Computer and System Sciences. 82 (5): 878–911. doi:10.1016/j.jcss.2016.02.009. ISSN 0022-0000.
  16. Hauskrecht, M. , Fraser, H. (2000). "आंशिक रूप से अवलोकन योग्य मार्कोव निर्णय प्रक्रियाओं के साथ इस्कीमिक हृदय रोग के उपचार की योजना बनाना". Artificial Intelligence in Medicine. 18 (3): 221–244. doi:10.1016/S0933-3657(99)00042-1. PMID 10675716.{{cite journal}}: CS1 maint: multiple names: authors list (link)
  17. Chadès, I., McDonald-Madden, E., McCarthy, M.A., Wintle, B., Linkie, M., Possingham, H.P. (16 September 2008). "गुप्त खतरे वाली प्रजातियों का प्रबंधन या सर्वेक्षण कब बंद करें". Proc. Natl. Acad. Sci. U.S.A. 105 (37): 13936–40. Bibcode:2008PNAS..10513936C. doi:10.1073/pnas.0805265105. PMC 2544557. PMID 18779594.{{cite journal}}: CS1 maint: multiple names: authors list (link)
  18. Kochenderfer, Mykel J. (2015). "Optimized Airborne Collision Avoidance". अनिश्चितता के तहत निर्णय लेना. The MIT Press.


बाहरी संबंध