कंप्यूटर गो
Part of a series on |
Go |
---|
Game specifics |
|
History and culture |
Players and organizations |
Computers and mathematics |
कंप्यूटर गो कृत्रिम बुद्धिमत्ता (एआई) का क्षेत्र है जो कंप्यूटर प्रोग्राम बनाने के लिए समर्पित है जो पारंपरिक विशेष प्रकार के बोर्ड या पट्टे के खेल जैसे शतरंज, साँप सीढ़ी आदि जाओ (बोर्ड गेम) खेलता है। यह क्षेत्र स्पष्ट रूप से दो युगों में विभाजित है। 2015 से पहले उस दौर के कार्यक्रम कमजोर थे. 1980 और 1990 के दशक के सर्वोत्तम प्रयासों से केवल ऐसे AI उत्पन्न हुए जिन्हें शुरुआती लोगों द्वारा हराया जा सकता था, और 2000 के दशक की शुरुआत के AI सर्वोत्तम रूप से मध्यवर्ती स्तर के थे। एआई के पक्ष में 10+ पत्थरों की बाधाएं होने पर भी पेशेवर इन कार्यक्रमों को हरा सकते हैं। अल्फा-बीटा प्रूनिंग | अल्फा-बीटा मिनिमैक्स जैसे कई एल्गोरिदम, जो चेकर्स और शतरंज के लिए एआई के रूप में अच्छा प्रदर्शन करते थे, गो के 19x19 बोर्ड पर विफल हो गए, क्योंकि विचार करने के लिए बहुत अधिक ब्रांचिंग संभावनाएं थीं। उस समय की तकनीकों और हार्डवेयर के साथ मानव पेशेवर गुणवत्ता कार्यक्रम का निर्माण पहुंच से बाहर था। कुछ एआई शोधकर्ताओं ने अनुमान लगाया कि कृत्रिम सामान्य बुद्धि|मानव-जैसी एआई के निर्माण के बिना समस्या का समाधान नहीं किया जा सकता है।
गो एल्गोरिदम में मोंटे कार्लो वृक्ष खोज के अनुप्रयोग ने 2000 के दशक के अंत में उल्लेखनीय सुधार प्रदान किया, जिसके साथ कार्यक्रम अंततः जाओ रैंक और रेटिंग प्राप्त करने में सक्षम हुए | निम्न-डैन स्तर: उन्नत शौकिया का। हाई-डैन के शौकीन और पेशेवर अभी भी इन कार्यक्रमों की कमजोरियों का फायदा उठा सकते हैं और लगातार जीत सकते हैं, लेकिन कंप्यूटर का प्रदर्शन मध्यवर्ती (ल-अंक क्यू) स्तर से आगे बढ़ गया है। बिना किसी बाधा के सर्वश्रेष्ठ मानव खिलाड़ियों को हराने का अपूरित लक्ष्य, जिसे लंबे समय से अप्राप्य माना जाता था, ने नए सिरे से दिलचस्पी पैदा की। मुख्य अंतर्दृष्टि यंत्र अधिगम और गहन शिक्षण का अनुप्रयोग साबित हुई। डीपमाइंड, Google अधिग्रहण जो AI अनुसंधान के लिए समर्पित है, ने 2015 में AlphaGo का निर्माण किया और 2016 में दुनिया के सामने इसकी घोषणा की। 2016 में नो-हैंडीकैप मैच में AlphaGo बनाम ली सेडोल, 9 डैन पेशेवर, फिर AlphaGo बनाम के जी, जो टाइम लगातार दो वर्षों तक विश्व की नंबर 1 रैंकिंग पर रहा। इंग्लिश_ड्राफ्ट्स#कंप्यूटर_प्लेयर्स और डीप ब्लू बनाम गैरी कास्परोव की तरह, कंप्यूटर प्रोग्राम ने अंततः 2016-2017 में मानवता के महानतम गो चैंपियन को जीत लिया। डीपमाइंड ने अल्फ़ागो को सार्वजनिक उपयोग के लिए जारी नहीं किया, लेकिन डीपमाइंड द्वारा अल्फ़ागो और उसके वेरिएंट का वर्णन करते हुए जारी किए गए जर्नल लेखों के आधार पर विभिन्न कार्यक्रम बनाए गए हैं।
सिंहावलोकन और इतिहास
पेशेवर गो खिलाड़ी खेल को अंतर्ज्ञान, रचनात्मक और रणनीतिक सोच की आवश्यकता के रूप में देखते हैं।[1][2] इसे लंबे समय से कृत्रिम बुद्धिमत्ता (एआई) के क्षेत्र में कठिन चुनौती माना जाता रहा है और शतरंज की तुलना में इसे हल करना काफी कठिन है।[3] इस क्षेत्र के कई लोगों का मानना है कि गो को शतरंज की तुलना में मानवीय विचारों की नकल करने वाले अधिक तत्वों की आवश्यकता है।[4] गणितज्ञ आई. जे. गुड ने 1965 में लिखा:[5]
Go on a computer? – In order to programme a computer to play a reasonable game of Go, rather than merely a legal game – it is necessary to formalise the principles of good strategy, or to design a learning programme. The principles are more qualitative and mysterious than in chess, and depend more on judgment. So I think it will be even more difficult to programme a computer to play a reasonable game of Go than of chess.
2015 से पहले, सर्वश्रेष्ठ गो कार्यक्रम केवल गो रैंक और रेटिंग#क्यू और डैन रैंक स्तर तक पहुंचने में कामयाब रहे।[6][7] छोटे 9×9 बोर्ड पर, कंप्यूटर ने बेहतर प्रदर्शन किया, और कुछ प्रोग्राम पेशेवर खिलाड़ियों के खिलाफ अपने 9×9 गेम का अंश जीतने में कामयाब रहे। अल्फ़ागो से पहले, कुछ शोधकर्ताओं ने दावा किया था कि कंप्यूटर गो में शीर्ष मनुष्यों को कभी नहीं हरा पाएंगे।[8]
प्रारंभिक दशक
पहला गो प्रोग्राम अल्बर्ट लिंडसे ज़ोब्रिस्ट द्वारा 1968 में पैटर्न पहचान पर उनकी थीसिस के हिस्से के रूप में लिखा गया था।[9] इसने क्षेत्र का अनुमान लगाने के लिए प्रभाव फ़ंक्शन (सांख्यिकी) और को नियम का पता लगाने के लिए ज़ोब्रिस्ट हैशिंग की शुरुआत की।
अप्रैल 1981 में, जोनाथन के मिलन ने बाइट (पत्रिका) में लेख प्रकाशित किया, जिसमें 15x15 बोर्ड के साथ गो प्रोग्राम वैली पर चर्चा की गई, जो KIM-1 माइक्रो कंप्यूटर के 1K रैम के भीतर फिट होता है।[10] ब्रूस एफ. वेबस्टर ने नवंबर 1984 में पत्रिका में लेख प्रकाशित किया था जिसमें मैकफोर्थ स्रोत सहित एप्पल मैकिंटोश के लिए लिखे गए गो प्रोग्राम पर चर्चा की गई थी।[11] गो के कार्यक्रम कमज़ोर थे; 1983 के लेख में अनुमान लगाया गया था कि वे अधिकतम 20 क्यू के बराबर थे, जो अनुभवहीन नौसिखिए खिलाड़ी की रेटिंग है, और अक्सर खुद को छोटे बोर्डों तक ही सीमित रखते थे।[12] हार्डवेयर में पर्याप्त सुधार के बाद, 2003 में 19x19 आकार के बोर्ड पर IGS गो सर्वर | इंटरनेट गो सर्वर (IGS) पर खेलने वाले AI की ताकत लगभग 20-15 kyu थी।[13] 1998 में, बहुत मजबूत खिलाड़ी 25-30 पत्थरों की बाधा देकर कंप्यूटर प्रोग्राम को हराने में सक्षम थे, बड़ी बाधा जो कुछ मानव खिलाड़ियों ने कभी भी झेली होगी। 1994 विश्व कंप्यूटर गो चैंपियनशिप में मामला था जहां विजेता कार्यक्रम, गो इंटेलेक्ट, 15-स्टोन हैंडीकैप प्राप्त करते हुए युवा खिलाड़ियों के खिलाफ सभी तीन गेम हार गया था।[14] सामान्य तौर पर, जो खिलाड़ी किसी कार्यक्रम की कमजोरियों को समझते हैं और उनका फायदा उठाते हैं, वे बड़ी बाधाओं के बावजूद भी जीत सकते हैं।[15]
2007-2014: मोंटे कार्लो वृक्ष खोज
2006 में (2007 में प्रकाशित लेख के साथ), रेमी कूलॉम ने नया एल्गोरिदम तैयार किया जिसे उन्होंने मोंटे कार्लो ट्री सर्च कहा।[16] इसमें, हमेशा की तरह संभावित भविष्य का गेम ट्री बनाया जाता है जो हर चाल के साथ शाखा देता है। हालाँकि, कंप्यूटर बार-बार यादृच्छिक प्लेआउट (अन्य समस्याओं के लिए मोंटे कार्लो विधि रणनीतियों के समान) द्वारा पेड़ के टर्मिनल पत्ते को स्कोर करते हैं। फायदा यह है कि ऐसे यादृच्छिक प्लेआउट बहुत जल्दी किए जा सकते हैं। सहज आपत्ति - कि यादृच्छिक प्लेआउट किसी स्थिति के वास्तविक मूल्य के अनुरूप नहीं हैं - प्रक्रिया के लिए उतनी घातक नहीं निकली जितनी अपेक्षित थी; एल्गोरिदम के वृक्ष खोज पक्ष को भविष्य के उचित खेल वृक्षों को खोजने के लिए पर्याप्त रूप से ठीक किया गया है। इस पद्धति पर आधारित MoGo और Fuego जैसे कार्यक्रमों में पहले के क्लासिक AI की तुलना में बेहतर प्रदर्शन देखा गया। सबसे अच्छे प्रोग्राम विशेष रूप से छोटे 9x9 बोर्ड पर अच्छा प्रदर्शन कर सकते हैं, जिसमें तलाशने की संभावनाएं कम होती हैं। 2009 में, पहला ऐसा प्रोग्राम सामने आया जो 19x19 बोर्ड पर केजीएस गो सर्वर पर निम्न गो रैंक और रेटिंग|डैन-स्तर रैंक तक पहुंच सकता था और उसे बनाए रख सकता था।
2010 में, फ़िनलैंड में 2010 यूरोपीय गो कांग्रेस में, MogoTW ने कैटालिन तारनु (5p) के विरुद्ध 19x19 गो खेला। MogoTW को सात-पत्थर की बाधा प्राप्त हुई और उसने जीत हासिल की।[17] 2011 में, ज़ेन (सॉफ़्टवेयर) प्रति चाल 15 सेकंड के गेम खेलकर, सर्वर केजीएस पर 5 डैन तक पहुंच गया। जो खाता उस रैंक तक पहुंच गया वह 26-कोर मशीन पर चलने वाले ज़ेन के क्लस्टर संस्करण का उपयोग करता है।[18] 2012 में, ज़ेन ने मसाकी ताकेमिया (9पी) को फाइव स्टोन्स हैंडीकैप में 11 अंकों से हराया, इसके बाद फोर स्टोन्स हैंडीकैप में 20 अंकों की जीत हासिल की।[19] 2013 में, क्रेजी स्टोन (सॉफ्टवेयर) ने फोर स्टोन्स हैंडीकैप में 19×19 गेम में योशियो इशिदा (9पी) को हराया।[20] 2014 कोडसेंट्रिक गो चैलेंज, सम 19x19 गेम में सर्वश्रेष्ठ पांच मैच, क्रेज़ी स्टोन और फ्रांज-जोज़ेफ़ डिकहुट (6 डी) के बीच खेला गया था। इससे पहले कोई भी मजबूत खिलाड़ी समान शर्तों पर गो कार्यक्रम के खिलाफ गंभीर प्रतियोगिता खेलने के लिए सहमत नहीं हुआ था। फ्रांज-जोज़ेफ़ डिकहुत ने जीत हासिल की, हालांकि क्रेज़ी स्टोन ने पहला मैच 1.5 अंकों से जीता।[21]
2015 के बाद: गहन शिक्षण युग
Google DeepMind द्वारा विकसित AlphaGo, पिछले Go प्रोग्राम की तुलना में कंप्यूटर की ताकत में महत्वपूर्ण प्रगति थी। इसमें ऐसी तकनीकों का उपयोग किया गया जो गहन शिक्षण और मोंटे कार्लो वृक्ष खोज को जोड़ती हैं।[22] अक्टूबर 2015 में, इसने यूरोपीय गो चैंपियन प्रशंसक हुई को टूर्नामेंट की परिस्थितियों में पांच में से पांच बार हराया।[23] मार्च 2016 में, अल्फ़ागो ने पांच में से पहले तीन मैचों में ली सेडोल को हराया।[24] यह पहली बार था कि 9-डैन मास्टर ने बिना किसी बाधा के कंप्यूटर के विरुद्ध पेशेवर गेम खेला था।[25] चौथे मैच में ली ने अपनी जीत को अमूल्य बताते हुए जीत हासिल की.[26] अल्फ़ागो ने दो दिन बाद फ़ाइनल मैच जीत लिया।[27][28] इस जीत के साथ, अल्फ़ागो पूर्ण आकार के बोर्ड पर बिना किसी बाधा वाले गेम में 9 डैन मानव पेशेवर को हराने वाला पहला प्रोग्राम बन गया।
मई 2017 में, अल्फ़ागो ने के जिए को हराया, जो उस समय दुनिया में शीर्ष स्थान पर थे।[29][30] गो समिट का भविष्य के दौरान अल्फ़ागो बनाम के जी|तीन-गेम मैच में।[31] अक्टूबर 2017 में, डीपमाइंड ने अल्फ़ागो का नया संस्करण पेश किया, जिसे केवल सेल्फ प्ले के माध्यम से प्रशिक्षित किया गया था, जिसने 100 खेलों में से 89 में के जी संस्करण को पछाड़ते हुए सभी पिछले संस्करणों को पीछे छोड़ दिया था।[32] अल्फ़ागो के बुनियादी सिद्धांत नेचर जर्नल में प्रकाशित होने के बाद, अन्य टीमें उच्च-स्तरीय कार्यक्रम तैयार करने में सक्षम हो गई हैं। गो एआई पर काम में बड़े पैमाने पर अल्फ़ागो के निर्माण के लिए उपयोग की जाने वाली तकनीकों का अनुकरण शामिल है, जो बाकी सभी चीज़ों की तुलना में बहुत अधिक मजबूत साबित हुई। 2017 तक, ज़ेन (सॉफ़्टवेयर) और Tencent के प्रोजेक्ट फाइन आर्ट (सॉफ़्टवेयर) दोनों कुछ समय के लिए बहुत उच्च-स्तरीय पेशेवरों को हराने में सक्षम थे। ओपन सोर्स लीला शून्य इंजन भी बनाया गया था।
क्लासिक एआई के लिए रणनीति और प्रदर्शन की चुनौतियाँ
लंबे समय तक, यह व्यापक रूप से माना जाता था कि कंप्यूटर गो कंप्यूटर शतरंज से मौलिक रूप से भिन्न समस्या उत्पन्न करता है। कई लोगों ने मजबूत गो-प्लेइंग कार्यक्रम पर विचार किया जिसे सामान्य कृत्रिम बुद्धिमत्ता प्रौद्योगिकी में मूलभूत प्रगति के परिणामस्वरूप केवल सुदूर भविष्य में ही हासिल किया जा सकता है। जिन लोगों ने समस्या को व्यवहार्य समझा, उनका मानना था कि मानव विशेषज्ञों के विरुद्ध प्रभावी होने के लिए डोमेन ज्ञान की आवश्यकता होगी। इसलिए, कंप्यूटर गो विकास प्रयास का बड़ा हिस्सा उस समय के दौरान मानव-जैसे विशेषज्ञ ज्ञान का प्रतिनिधित्व करने और सामरिक प्रकृति के सवालों के जवाब देने के लिए इसे स्थानीय खोज के साथ संयोजित करने पर केंद्रित था। इसका परिणाम ऐसे प्रोग्राम थे जिन्होंने कई विशिष्ट स्थितियों को अच्छी तरह से संभाला लेकिन खेल के समग्र संचालन में उनकी कमजोरियाँ बहुत स्पष्ट थीं। इसके अलावा, इन शास्त्रीय कार्यक्रमों को उपलब्ध कंप्यूटिंग शक्ति में वृद्धि से लगभग कुछ भी हासिल नहीं हुआ। क्षेत्र में प्रगति आम तौर पर धीमी थी।
- बोर्ड का आकार
बड़े बोर्ड (19×19, 361 चौराहे) को अक्सर प्राथमिक कारणों में से के रूप में जाना जाता है कि मजबूत कार्यक्रम बनाना कठिन क्यों है। बड़े बोर्ड का आकार अल्फा-बीटा प्रूनिंग|अल्फा-बीटा खोजकर्ता को महत्वपूर्ण खोज ्सटेंशन या प्रूनिंग (निर्णय वृक्ष) अनुमान के बिना गहराई से आगे देखने से रोकता है।
2002 में, MIGOS (MIni GO सॉल्वर) नामक कंप्यूटर प्रोग्राम ने 5×5 बोर्ड के लिए गो गेम को पूरी तरह से हल कर दिया। ब्लैक जीतता है, पूरे बोर्ड पर कब्ज़ा कर लेता है।[33]
- स्थानांतरण विकल्पों की संख्या
शतरंज से तुलना जारी रखते हुए, गो चालें खेल के नियमों द्वारा सीमित नहीं हैं। शतरंज में पहली चाल के लिए खिलाड़ी के पास बीस विकल्प होते हैं। गो खिलाड़ी समरूपता को ध्यान में रखते हुए 55 अलग-अलग कानूनी चालों के विकल्प के साथ शुरुआत करते हैं। समरूपता टूटने पर यह संख्या तेज़ी से बढ़ती है, और जल्द ही बोर्ड के लगभग सभी 361 बिंदुओं का मूल्यांकन किया जाना चाहिए।
- मूल्यांकन समारोह
खेल में सबसे बुनियादी कार्यों में से बोर्ड की स्थिति का आकलन करना है: किस पक्ष का पक्ष लिया जाता है, और कितना? शतरंज में, पेड़ में भविष्य की कई स्थितियाँ पक्ष के लिए सीधी जीत होती हैं, और बोर्डों के पास सरल सामग्री गिनती में मूल्यांकन के लिए उचित अनुमान होता है, साथ ही प्यादे की संरचना जैसे कुछ निश्चित कारक भी होते हैं। ऐसा भविष्य जहां पक्ष ने बिना किसी लाभ के अपनी रानी को खो दिया है, वह स्पष्ट रूप से दूसरे पक्ष के पक्ष में है। इस प्रकार के स्थितिगत मूल्यांकन नियमों को गो पर कुशलतापूर्वक लागू नहीं किया जा सकता है। गो स्थिति का मूल्य यह निर्धारित करने के लिए जटिल विश्लेषण पर निर्भर करता है कि समूह जीवित है या नहीं, कौन से पत्थरों को दूसरे से जोड़ा जा सकता है, और मजबूत स्थिति का किस हद तक प्रभाव है, या किस हद तक कमजोर स्थिति का अनुमान है। स्थिति पर हमला किया जा सकता है. रखे गए पत्थर का तत्काल प्रभाव नहीं हो सकता है, लेकिन कई कदमों के बाद पूर्व-निरीक्षण में अत्यधिक महत्वपूर्ण हो सकता है क्योंकि बोर्ड के अन्य क्षेत्र आकार लेते हैं।
बोर्ड राज्यों के खराब मूल्यांकन के कारण एआई को उन पदों की ओर काम करना पड़ेगा जो गलत तरीके से मानते हैं कि वे इसके पक्ष में हैं, लेकिन वास्तव में ऐसा नहीं है।
गो खिलाड़ी के लिए मुख्य चिंताओं में से यह है कि पत्थरों के किन समूहों को जीवित रखा जा सकता है और किसे पकड़ा जा सकता है। समस्याओं के इस सामान्य वर्ग को जीवन और मृत्यु के रूप में जाना जाता है। ज्ञान-आधारित एआई सिस्टम ने कभी-कभी बोर्ड पर समूहों के जीवन और मृत्यु की स्थिति को समझने का प्रयास किया। सबसे सीधा तरीका उन चालों पर पेड़ की खोज करना है जो संभावित रूप से संबंधित पत्थरों को प्रभावित करते हैं, और फिर खेल की मुख्य पंक्ति के अंत में पत्थरों की स्थिति को रिकॉर्ड करना है। हालाँकि, समय और स्मृति बाधाओं के भीतर, पूरी सटीकता के साथ यह निर्धारित करना आम तौर पर संभव नहीं है कि कौन सी चाल पत्थरों के समूह के 'जीवन' को प्रभावित कर सकती है। इसका तात्पर्य यह है कि किन कदमों पर विचार करना है, इसका चयन करने के लिए कुछ अनुमान लागू किया जाना चाहिए। कुल प्रभाव यह है कि किसी भी कार्यक्रम के लिए, खेलने की गति और जीवन और मृत्यु पढ़ने की क्षमताओं के बीच व्यापार-बंद होता है।
राज्य का प्रतिनिधित्व
मुद्दा जिससे सभी गो कार्यक्रमों को निपटना चाहिए वह यह है कि खेल की वर्तमान स्थिति का प्रतिनिधित्व कैसे किया जाए। बोर्ड का प्रतिनिधित्व करने का सबसे सीधा तरीका या दो-आयामी सरणी के रूप में है, जहां सरणी में तत्व बोर्ड पर बिंदुओं का प्रतिनिधित्व करते हैं, और सफेद पत्थर, काले पत्थर या खाली चौराहे के अनुरूप मान ले सकते हैं। . यह संग्रहीत करने के लिए अतिरिक्त डेटा की आवश्यकता है कि कितने पत्थरों पर कब्जा कर लिया गया है, किसकी बारी है, और को नियम के कारण कौन से चौराहे अवैध हैं। सामान्य तौर पर, मशीन लर्निंग प्रोग्राम इस सरलतम रूप में रुक जाते हैं और ऑर्गेनिक एआई को बोर्ड के अर्थ की अपनी समझ में आने देते हैं, संभवतः किसी खिलाड़ी के लिए बोर्ड को अच्छा या बुरा स्कोर करने के लिए मोंटे कार्लो प्लेआउट का उपयोग करते हैं। हालांकि, क्लासिक एआई कार्यक्रम जो सीधे मानव की रणनीति को मॉडल करने का प्रयास करते हैं, आगे बढ़ सकते हैं, जैसे कि डेटा पर परतें जैसे कि मृत माने जाने वाले पत्थर, बिना शर्त जीवित पत्थर, आपसी जीवन की सेकी अवस्था में पत्थर, इत्यादि। खेल की स्थिति का प्रतिनिधित्व.
सिस्टम डिज़ाइन
ऐतिहासिक रूप से, गो एआई की समस्या से निपटने के लिए प्रतीकात्मक कृत्रिम बुद्धिमत्ता तकनीकों का उपयोग किया गया है। 2000 के दशक में कृत्रिम तंत्रिका नेटवर्क को वैकल्पिक दृष्टिकोण के रूप में आज़माया जाने लगा, क्योंकि उन्हें अत्यधिक कंप्यूटिंग शक्ति की आवश्यकता थी जो कि पहले के दशकों में पहुँचना महंगा से असंभव था। ये दृष्टिकोण उच्च शाखा कारक वाले गो गेम की समस्याओं और कई अन्य कठिनाइयों को कम करने का प्रयास करते हैं।
किसी कार्यक्रम को मात्र विकल्प यह चुनना होता है कि अपना अगला पत्थर कहाँ रखा जाए। हालाँकि, यह निर्णय पत्थर के पूरे बोर्ड पर पड़ने वाले प्रभावों की विस्तृत श्रृंखला और विभिन्न पत्थरों के समूहों की दूसरे के साथ होने वाली जटिल अंतःक्रियाओं के कारण कठिन हो जाता है। इस समस्या से निपटने के लिए विभिन्न वास्तुकलाएँ सामने आई हैं। लोकप्रिय तकनीकों और डिज़ाइन दर्शन में शामिल हैं:
- वृक्ष खोज का कुछ रूप,
- पैटर्न मिलान और ज्ञान-आधारित प्रणाली,
- मोंटे कार्लो विधियों का अनुप्रयोग,
- मशीन लर्निंग का उपयोग.
अल्पमहिष्ठ ट्री सर्च
गेम प्लेइंग सॉफ़्टवेयर बनाने के लिए प्रतीकात्मक एआई तकनीक मिनिमैक्स ट्री सर्च का उपयोग करना है। इसमें निश्चित बिंदु तक बोर्ड पर सभी काल्पनिक चालें चलाना, फिर वर्तमान खिलाड़ी के लिए उस स्थिति के मूल्य का अनुमान लगाने के लिए मूल्यांकन फ़ंक्शन का उपयोग करना शामिल है। सर्वोत्तम काल्पनिक बोर्ड की ओर ले जाने वाली चाल का चयन किया जाता है, और प्रक्रिया प्रत्येक मोड़ पर दोहराई जाती है। जबकि कंप्यूटर शतरंज में पेड़ की खोज बहुत प्रभावी रही है, उन्हें कंप्यूटर गो कार्यक्रमों में कम सफलता मिली है। यह आंशिक रूप से इसलिए है क्योंकि परंपरागत रूप से गो बोर्ड के लिए प्रभावी मूल्यांकन फ़ंक्शन बनाना कठिन रहा है, और आंशिक रूप से क्योंकि प्रत्येक पक्ष द्वारा बड़ी संख्या में संभावित चालें उच्च शाखा कारक की ओर ले जा सकती हैं। इससे यह तकनीक कम्प्यूटेशनल रूप से बहुत महंगी हो जाती है। इस वजह से, कई प्रोग्राम जो बड़े पैमाने पर सर्च ट्री का उपयोग करते हैं, वे पूरे 19×19 बोर्ड के बजाय केवल छोटे 9×9 बोर्ड पर ही चल सकते हैं।
ऐसी कई तकनीकें हैं, जो गति और मेमोरी दोनों के संदर्भ में खोज पेड़ों के प्रदर्शन में काफी सुधार कर सकती हैं। अल्फा-बीटा प्रूनिंग, प्रमुख विविधता खोज और एमटीडी(एफ) (एफ) जैसी प्रूनिंग तकनीकें ताकत के नुकसान के बिना प्रभावी शाखा कारक को कम कर सकती हैं। जीवन और मृत्यु जैसे सामरिक क्षेत्रों में, गो विशेष रूप से स्थानान्तरण तालिका जैसी कैशिंग तकनीकों के लिए उत्तरदायी है। ये बार-बार किए जाने वाले प्रयास की मात्रा को कम कर सकते हैं, खासकर जब इसे पुनरावृत्तीय गहनता दृष्टिकोण के साथ जोड़ा जाए। ट्रांसपोज़िशन टेबल में पूर्ण आकार के गो बोर्ड को तुरंत संग्रहीत करने के लिए, गणितीय रूप से सारांशित करने के लिए हैश फंकशन तकनीक आम तौर पर आवश्यक होती है। ज़ोब्रिस्ट हैशिंग गो कार्यक्रमों में बहुत लोकप्रिय है क्योंकि इसमें टकराव की दर कम है, और स्क्रैच से गणना करने के बजाय इसे केवल दो ्सओआर के साथ प्रत्येक चाल पर पुनरावृत्त रूप से अपडेट किया जा सकता है। इन प्रदर्शन-बढ़ाने वाली तकनीकों का उपयोग करते हुए भी, पूर्ण आकार के बोर्ड पर पूर्ण वृक्ष खोज अभी भी बेहद धीमी है। बड़ी मात्रा में डोमेन विशिष्ट प्रूनिंग तकनीकों का उपयोग करके खोजों को तेज किया जा सकता है, जैसे कि उन चालों पर विचार न करना जहां आपका प्रतिद्वंद्वी पहले से ही मजबूत है, और चयनात्मक ्सटेंशन जैसे हमेशा पत्थरों के समूहों के आगे की चालों पर विचार करना जो गो शब्द #अटारी हैं। हालाँकि, ये दोनों विकल्प महत्वपूर्ण कदम पर विचार न करने का महत्वपूर्ण जोखिम पेश करते हैं जिसने खेल के पाठ्यक्रम को बदल दिया होगा।
कंप्यूटर प्रतियोगिताओं के नतीजे बताते हैं कि तेजी से स्थानीयकृत सामरिक खोजों (ऊपर समझाया गया) के साथ संयुक्त उचित चालों को चुनने के लिए पैटर्न मिलान तकनीक प्रतिस्पर्धी कार्यक्रम तैयार करने के लिए पर्याप्त थीं। उदाहरण के लिए, जीएनयू गो 2008 तक प्रतिस्पर्धी था।
ज्ञान-आधारित प्रणालियाँ
मानव नौसिखिया अक्सर मास्टर खिलाड़ियों द्वारा खेले गए पुराने खेलों के खेल रिकॉर्ड से सीखते हैं। 1990 के दशक में एआई कार्य में अक्सर गो ज्ञान के एआई मानव-शैली के अनुमान सिखाने का प्रयास शामिल होता था। 1996 में, टिम क्लिंगर और डेविड मेचनर ने सर्वश्रेष्ठ एआई की शुरुआती स्तर की ताकत को स्वीकार किया और तर्क दिया कि यह हमारा विश्वास है कि गो ज्ञान का प्रतिनिधित्व करने और बनाए रखने के लिए बेहतर उपकरणों के साथ, मजबूत गो कार्यक्रमों को विकसित करना संभव होगा।[34] उन्होंने दो तरीके प्रस्तावित किए: पत्थरों के सामान्य विन्यास और उनकी स्थिति को पहचानना और स्थानीय लड़ाइयों पर ध्यान केंद्रित करना। 2001 में, पेपर ने निष्कर्ष निकाला कि गो कार्यक्रमों में अभी भी ज्ञान की गुणवत्ता और मात्रा दोनों की कमी है, और इसे ठीक करने से गो एआई प्रदर्शन में सुधार होगा।[35]
सिद्धांत रूप में, विशेषज्ञ ज्ञान के उपयोग से गो सॉफ़्टवेयर में सुधार होगा। मजबूत खेल के लिए सैकड़ों दिशानिर्देश और सामान्य नियम उच्च-स्तरीय शौकीनों और पेशेवरों दोनों द्वारा तैयार किए गए हैं। प्रोग्रामर का कार्य इन अनुमानों को लेना, उन्हें कंप्यूटर कोड में औपचारिक रूप देना और इन नियमों के लागू होने पर पहचानने के लिए पैटर्न मिलान और पैटर्न पहचान एल्गोरिदम का उपयोग करना है। इन अनुमानों को स्कोर करने में सक्षम होना भी महत्वपूर्ण है ताकि जब वे परस्पर विरोधी सलाह दें, तो सिस्टम के पास यह निर्धारित करने के तरीके हों कि कौन सा अनुमान अधिक महत्वपूर्ण है और स्थिति पर लागू होता है। अधिकांश अपेक्षाकृत सफल परिणाम गो में प्रोग्रामर के व्यक्तिगत कौशल और गो के बारे में उनके व्यक्तिगत अनुमानों से आते हैं, लेकिन औपचारिक गणितीय दावों से नहीं; वे कंप्यूटर को गो खेलने के तरीके की नकल बनाने की कोशिश कर रहे हैं। 2001 के आसपास के प्रतिस्पर्धी कार्यक्रमों में 50-100 मॉड्यूल शामिल हो सकते हैं जो खेल के विभिन्न पहलुओं और रणनीतियों से निपटते हैं, जैसे कि जोसेकी।[35]
कार्यक्रमों के कुछ उदाहरण जो विशेषज्ञ ज्ञान पर बहुत अधिक निर्भर हैं, वे हैं हैंडटॉक (जिसे बाद में गोएमेट के नाम से जाना गया), द मेनी फेसेस ऑफ गो, गो इंटेलेक्ट और गो++, जिनमें से प्रत्येक को किसी समय दुनिया का सबसे अच्छा गो प्रोग्राम माना गया है। हालाँकि, इन तरीकों से अंततः कम रिटर्न मिला, और वास्तव में पूर्ण आकार के बोर्ड पर कभी भी मध्यवर्ती स्तर से आगे नहीं बढ़ पाया। विशेष समस्या समग्र खेल रणनीति थी। भले ही विशेषज्ञ प्रणाली पैटर्न को पहचानती है और जानती है कि स्थानीय झड़प को कैसे खेलना है, यह भविष्य में उभरती गहरी रणनीतिक समस्या से चूक सकती है। परिणाम ऐसा कार्यक्रम है जिसकी ताकत उसके भागों के योग से कम है; जबकि चालें व्यक्तिगत सामरिक आधार पर अच्छी हो सकती हैं, कार्यक्रम को धोखा दिया जा सकता है और बदले में बहुत अधिक देने के लिए चालाकी की जा सकती है, और खुद को समग्र रूप से खोने की स्थिति में पाया जा सकता है। जैसा कि 2001 के सर्वेक्षण में कहा गया था, केवल बुरा कदम अच्छे खेल को बर्बाद कर सकता है। पूरे गेम में प्रोग्राम का प्रदर्शन मास्टर स्तर से काफी कम हो सकता है।[35]
मोंटे-कार्लो विधियाँ
हाथ से कोडित ज्ञान और खोजों का उपयोग करने का प्रमुख विकल्प मोंटे कार्लो विधियों का उपयोग है। यह संभावित चालों की सूची तैयार करके और प्रत्येक चाल के लिए परिणामी बोर्ड पर यादृच्छिक रूप से हजारों गेम खेलकर किया जाता है। वह चाल जो वर्तमान खिलाड़ी के लिए यादृच्छिक खेलों के सर्वोत्तम सेट की ओर ले जाती है, उसे सर्वश्रेष्ठ चाल के रूप में चुना जाता है। किसी संभावित रूप से त्रुटिपूर्ण ज्ञान-आधारित प्रणाली की आवश्यकता नहीं है। हालाँकि, क्योंकि मूल्यांकन के लिए उपयोग की जाने वाली चालें यादृच्छिक रूप से उत्पन्न होती हैं, इसलिए यह संभव है कि चाल जो विशिष्ट प्रतिद्वंद्वी प्रतिक्रिया को छोड़कर उत्कृष्ट होगी, उसे गलती से अच्छी चाल के रूप में मूल्यांकन किया जाएगा। इसका परिणाम ऐसे कार्यक्रम हैं जो समग्र रणनीतिक दृष्टि से मजबूत हैं, लेकिन सामरिक रूप से अपूर्ण हैं।[citation needed] मूव जनरेशन में कुछ डोमेन ज्ञान और यादृच्छिक विकास के शीर्ष पर खोज की गहराई का बड़ा स्तर जोड़कर इस समस्या को कम किया जा सकता है। कुछ प्रोग्राम जो मोंटे-कार्लो तकनीकों का उपयोग करते हैं वे हैं फ़्यूगो,[36] गो v12 के कई चेहरे,[37] लीला,[38] मोगो,[39] क्रेजी स्टोन (सॉफ्टवेयर), MyGoFriend,[40] और ज़ेन.
2006 में, नई खोज तकनीक, पेड़ों पर लागू ऊपरी आत्मविश्वास सीमा (यूसीटी),[41] इसे उत्कृष्ट परिणामों के साथ कई 9x9 मोंटे-कार्लो गो कार्यक्रमों में विकसित और लागू किया गया था। यूसीटी खेल की अधिक सफल लाइनों के साथ खोज को निर्देशित करने के लिए अब तक त्र किए गए प्ले आउट के परिणामों का उपयोग करता है, जबकि अभी भी वैकल्पिक लाइनों का पता लगाने की अनुमति देता है। बड़े 19x19 बोर्ड पर खेलने के लिए कई अन्य अनुकूलन के साथ यूसीटी तकनीक ने MoGo को सबसे मजबूत अनुसंधान कार्यक्रमों में से बना दिया है। 19x19 गो में यूसीटी विधियों के सफल प्रारंभिक अनुप्रयोगों में मोगो, क्रेज़ी स्टोन और मैंगो शामिल हैं।[42] MoGo ने 2007 कंप्यूटर ओलंपियाड जीता और बहुत कम जटिल 9x9 गो में गुओ जुआन, 5वें डैन प्रो के खिलाफ (तीन में से) ब्लिट्ज गेम जीता। गो के कई चेहरे[43] अपने पारंपरिक ज्ञान-आधारित इंजन में यूसीटी खोज को जोड़ने के बाद 2008 कंप्यूटर ओलंपियाड जीता।
मोंटे-कार्लो आधारित गो इंजनों की प्रतिष्ठा है कि वे मानव खिलाड़ियों की तुलना में टेनुकी खेलने के लिए अधिक इच्छुक हैं, स्थानीय लड़ाई जारी रखने के बजाय बोर्ड पर कहीं और चलते हैं। इन कार्यक्रमों के अस्तित्व की शुरुआत में इसे अक्सर कमजोरी के रूप में देखा जाता था।[44] जैसा कि कहा गया है, यह प्रवृत्ति प्रमुख परिणामों के साथ अल्फ़ागो की खेल शैली में बनी हुई है, इसलिए यह कमजोरी से अधिक विचित्रता हो सकती है।[45]
मशीन लर्निंग
ज्ञान-आधारित प्रणालियों का कौशल स्तर उनके प्रोग्रामर और संबंधित डोमेन विशेषज्ञों के ज्ञान से निकटता से जुड़ा हुआ है। इस सीमा ने वास्तव में मजबूत एआई को प्रोग्राम करना कठिन बना दिया है। मशीन लर्निंग तकनीकों का उपयोग करना अलग रास्ता है। इनमें, केवल चीज जिसे प्रोग्रामर्स को प्रोग्राम करने की आवश्यकता होती है वह है किसी पद के मूल्य का विश्लेषण करने के नियम और सरल स्कोरिंग एल्गोरिदम। इसके बाद सॉफ्टवेयर स्वचालित रूप से सिद्धांत रूप में पैटर्न, अनुमान और रणनीतियों की अपनी समझ उत्पन्न करेगा।
यह आम तौर पर कृत्रिम तंत्रिका नेटवर्क या आनुवंशिक एल्गोरिदम को पेशेवर खेलों के बड़े डेटाबेस की समीक्षा करने, या स्वयं या अन्य लोगों या कार्यक्रमों के खिलाफ कई गेम खेलने की अनुमति देकर किया जाता है। ये एल्गोरिदम तब इस डेटा का उपयोग अपने प्रदर्शन को बेहतर बनाने के साधन के रूप में करने में सक्षम होते हैं। मशीन लर्निंग तकनीकों का उपयोग कम महत्वाकांक्षी संदर्भ में कार्यक्रमों के विशिष्ट मापदंडों को ट्यून करने के लिए भी किया जा सकता है जो मुख्य रूप से अन्य तकनीकों पर निर्भर होते हैं। उदाहरण के लिए, क्रेजी स्टोन (सॉफ्टवेयर) एलो रेटिंग प्रणाली के सामान्यीकरण का उपयोग करके कई सौ नमूना खेलों से चाल पीढ़ी पैटर्न सीखता है।[46] इस दृष्टिकोण का सबसे प्रसिद्ध उदाहरण अल्फ़ागो है, जो पिछले एआई की तुलना में कहीं अधिक प्रभावी साबित हुआ है। इसके पहले संस्करण में, इसकी परत थी जिसने आगे के विश्लेषण के योग्य प्राथमिकता देने के लिए संभावित चालों को निर्धारित करने के लिए लाखों मौजूदा स्थितियों का विश्लेषण किया था, और दूसरी परत जिसने पहली परत से सुझाए गए संभावित चालों का उपयोग करके अपनी जीत की संभावनाओं को अनुकूलित करने का प्रयास किया था। अल्फ़ागो ने परिणामी स्थिति प्राप्त करने के लिए मोंटे कार्लो ट्री खोज का उपयोग किया। अल्फ़ागो के बाद के संस्करण, अल्फ़ागोज़ीरो ने मौजूदा गो गेम से सीखना छोड़ दिया, और इसके बजाय केवल बार-बार खेलने से ही सीखा। तंत्रिका जाल का उपयोग करने वाले अन्य पुराने कार्यक्रमों में न्यूरोगो और विनहोंटे शामिल हैं।
कंप्यूटर गो और अन्य फ़ील्ड
कंप्यूटर गो अनुसंधान परिणाम अन्य समान क्षेत्रों जैसे संज्ञानात्मक विज्ञान, पैटर्न पहचान और मशीन लर्निंग पर लागू किए जा रहे हैं।[47] कॉम्बिनेटोरियल गेम थ्योरी, अनुप्रयुक्त गणित की शाखा, कंप्यूटर गो के लिए प्रासंगिक विषय है।[35] जॉन एच. कॉनवे ने गो में एंडगेम के विश्लेषण के लिए असली संख्याओं को लागू करने का सुझाव दिया। इस विचार को एल्विन आर. बर्लेकैंप और डेविड वोल्फ (गणितज्ञ) ने अपनी पुस्तक मैथमैटिकल गो में और विकसित किया है।[48] गो एंडगेम्स को पीएसपीएसीई-कठिन साबित किया गया है, यदि पूर्ण सर्वोत्तम चाल की गणना मनमाने ढंग से अधिकतर भरे हुए बोर्ड पर की जानी चाहिए। ट्रिपल को, क्वाड्रपल को, मोलासेस को और मूनशाइन लाइफ जैसी कुछ जटिल परिस्थितियाँ इस समस्या को कठिन बना देती हैं।[49] (व्यवहार में, मजबूत मोंटे कार्लो एल्गोरिदम अभी भी सामान्य गो एंडगेम स्थितियों को काफी अच्छी तरह से संभाल सकते हैं, और जीवन और मृत्यु एंडगेम समस्याओं की सबसे जटिल कक्षाएं उच्च-स्तरीय गेम में आने की संभावना नहीं है।)[50] विभिन्न कठिन संयोजक समस्याओं (किसी भी एनपी कठिन समस्या) को पर्याप्त बड़े बोर्ड पर गो-जैसी समस्याओं में परिवर्तित किया जा सकता है; हालाँकि, शतरंज और माइनस्वीपर (वीडियो गेम) सहित अन्य अमूर्त बोर्ड गेम के लिए भी यही सच है, जब मनमाने आकार के बोर्ड के लिए उपयुक्त रूप से सामान्यीकृत किया जाता है। एनपी-पूर्ण समस्याएँ अपने सामान्य मामले में उपयुक्त रूप से प्रोग्राम किए गए कंप्यूटरों की तुलना में बिना सहायता प्राप्त मनुष्यों के लिए आसान नहीं होती हैं: बिना सहायता प्राप्त मनुष्य हल करने में कंप्यूटर की तुलना में बहुत खराब हैं, उदाहरण के लिए, सबसेट योग समस्या के उदाहरण।[51][52]
गो-प्लेइंग कंप्यूटर प्रोग्राम की सूची
- अल्फ़ागो, Google DeepMind द्वारा मशीन लर्निंग प्रोग्राम, और 9-डैन ह्यूमन गो प्लेयर के विरुद्ध नो-हैंडीकैप मैचों में जीतने वाला पहला कंप्यूटर प्रोग्राम
- बडुजीआई, जोयॉन्ग ली का कार्यक्रम[53]
- क्रेजी स्टोन (सॉफ्टवेयर), रेमी कूलॉम द्वारा (जापान में सैक्यो नो इगो के रूप में बेचा गया)
- अंधकारमय जंगल, फेसबुक द्वारा
- ललित कला (सॉफ्टवेयर), Tencent द्वारा
- फ़्यूगो, खुला स्रोत सॉफ्टवेयर मोंटे कार्लो प्रोग्राम[36]* गोबन, सेन:टे द्वारा मैकिंटोश गो प्रोग्राम (मुफ्त गोबन ्सटेंशन की आवश्यकता है)[54]
- जीएनयू गो, खुला स्रोत शास्त्रीय गो कार्यक्रम
- काटागो, डेविड वू द्वारा।
- लीला (सॉफ्टवेयर), जनता के लिए बिक्री के लिए पहला मोंटे कार्लो कार्यक्रम[38]* लीला ज़ीरो, अल्फ़ागो ज़ीरो पेपर में वर्णित प्रणाली का पुनः कार्यान्वयन[38]* द मेनी फेसेस ऑफ गो, डेविड फ़ोटलैंड द्वारा (जापान में एआई इगो के रूप में बेचा गया)[37]* MyGoFriend, फ्रैंक कार्गर का कार्यक्रम[40]* सिल्वेन जेली द्वारा MoGo; कई लोगों द्वारा समानांतर संस्करण।[55][39]* पाची, पेट्र बॉडिश द्वारा खुला स्रोत मोंटे कार्लो कार्यक्रम[56]
- स्मार्ट गेम प्रारूप के आविष्कारक एंडर्स कीरल्फ़ द्वारा स्मार्ट गो[57]
- स्टोन ईटर, एरिक वैन डेर वेर्फ़ द्वारा[58]
- ज़ेन, योजी ओजिमा अकायामातो द्वारा (जापान में टेनचो नो इगोइन के रूप में बेचा गया);[59]
कंप्यूटर गो कार्यक्रमों के बीच प्रतिस्पर्धा
गो कंप्यूटर प्रोग्रामों के बीच कई वार्षिक प्रतियोगिताएं होती हैं, जिनमें कंप्यूटर ओलंपियाड में गो कार्यक्रम भी शामिल हैं। केजीएस गो सर्वर पर कार्यक्रमों के बीच नियमित, कम औपचारिक प्रतियोगिताएं होती थीं[60] (मासिक) और कंप्यूटर गो सर्वर[61] (निरंतर)।
कई प्रोग्राम उपलब्ध हैं जो कंप्यूटर गो इंजनों को -दूसरे के विरुद्ध खेलने की अनुमति देते हैं; वे लगभग हमेशा गो टेक्स्ट प्रोटोकॉल (जीटीपी) के माध्यम से संचार करते हैं।
इतिहास
पहली कंप्यूटर गो प्रतियोगिता बलूत का फल द्वारा प्रायोजित थी,[62] और USENIX द्वारा पहला नियमित। वे 1984 से 1988 तक चले। इन प्रतियोगिताओं में नेमेसिस, ब्रूस विलकॉक्स का पहला प्रतिस्पर्धी गो कार्यक्रम और डेविड फोटलैंड द्वारा जी2.5 पेश किया गया, जो बाद में कॉसमॉस और द मेनी फेसेस ऑफ गो में विकसित हुआ।
कंप्यूटर गो अनुसंधान के शुरुआती चालकों में से इंग पुरस्कार था, जो ताइवानी बैंकर चांग-की में द्वारा प्रायोजित अपेक्षाकृत बड़ा धन पुरस्कार था, जो 1985 और 2000 के बीच विश्व कंप्यूटर गो कांग्रेस (या इंग कप) में सालाना पेश किया जाता था। इस टूर्नामेंट के विजेता को छोटे मैच में युवा खिलाड़ियों को चुनौती देने की अनुमति दी गई थी। यदि कंप्यूटर मैच जीत जाता है, तो पुरस्कार दिया जाता था और नए पुरस्कार की घोषणा की जाती थी: कम बाधा वाले खिलाड़ियों को हराने के लिए बड़ा पुरस्कार। आईएनजी पुरस्कारों की श्रृंखला या तो 1) वर्ष 2000 में समाप्त होने वाली थी या 2) जब कोई कार्यक्रम 40,000,000 नया ताइवान डॉलर के लिए बिना किसी बाधा के 1-डैन पेशेवर को हरा सकता था। आखिरी विजेता 1997 में हैंडटॉक था, जिसने तीन 11-13 साल के शौकिया 2-6 डैन के खिलाफ 11-स्टोन हैंडीकैप मैच जीतने के लिए 250,000 एनटी डॉलर का दावा किया था। 2000 में पुरस्कार समाप्त होने के समय, नौ-स्टोन हैंडीकैप मैच जीतने के लिए लावारिस पुरस्कार 400,000 एनटी डॉलर था।[63] कई अन्य बड़े क्षेत्रीय गो टूर्नामेंट (कांग्रेस) में संलग्न कंप्यूटर गो इवेंट था। यूरोपीय गो कांग्रेस ने 1987 से कंप्यूटर टूर्नामेंट को प्रायोजित किया है, और USENIX कार्यक्रम यूएस/उत्तरी अमेरिकी कंप्यूटर गो चैम्पियनशिप में विकसित हुआ, जो 1988-2000 तक यूएस गो कांग्रेस में प्रतिवर्ष आयोजित किया जाता था।
जापान ने 1995 में कंप्यूटर गो प्रतियोगिताओं को प्रायोजित करना शुरू किया। FOST कप 1995 से 1999 तक प्रतिवर्ष टोक्यो में आयोजित किया जाता था। उस टूर्नामेंट को गिफू चैलेंज द्वारा प्रतिस्थापित कर दिया गया था, जो 2003 से 2006 तक ओगाकी, गिफू में प्रतिवर्ष आयोजित किया जाता था। कंप्यूटर गो यूईसी कप 2007 से प्रतिवर्ष आयोजित किया जाता है।
कंप्यूटर-कंप्यूटर गेम में स्कोरिंग औपचारिकता
जब दो कंप्यूटर -दूसरे के विरुद्ध गेम खेलते हैं, तो आदर्श यह है कि वास्तविक मनुष्यों के किसी भी हस्तक्षेप से बचते हुए गेम को दो इंसानों के समान तरीके से खेला जाए। हालाँकि, गेम के अंत में स्कोरिंग के दौरान यह मुश्किल हो सकता है। मुख्य समस्या यह है कि गो प्लेइंग सॉफ़्टवेयर, जो आमतौर पर मानकीकृत गो टेक्स्ट प्रोटोकॉल (जीटीपी) का उपयोग करके संचार करता है, हमेशा पत्थरों की जीवित या मृत स्थिति के संबंध में सहमत नहीं होगा।
हालाँकि दो अलग-अलग कार्यक्रमों के लिए इस पर बात करने और संघर्ष को हल करने का कोई सामान्य तरीका नहीं है, फिर भी अधिकांशतः इस समस्या को रूल्स ऑफ गो#चाइनीज रूल्स, रूल्स ऑफ गो#बेसिक रूल्स|ट्रॉम्प-टेलर, या अमेरिकन गो का उपयोग करके टाला जाता है। एसोसिएशन (एजीए) के नियम जिसमें बोर्ड पर किसी भी पत्थर की स्थिति पर कोई और असहमति न होने तक खेल जारी रखना (दंड के बिना) आवश्यक है। व्यवहार में, जैसे कि केजीएस गो सर्वर पर, सर्वर दो क्लाइंट प्रोग्रामों को विशेष जीटीपी कमांड भेजकर विवाद में मध्यस्थता कर सकता है, जो यह दर्शाता है कि उन्हें तब तक पत्थर लगाना जारी रखना चाहिए जब तक कि किसी विशेष समूह (सभी मृत पत्थर) की स्थिति के बारे में कोई सवाल न हो पकड़ लिया गया है)। सीजीओएस गो सर्वर आमतौर पर प्रोग्राम को गेम के स्कोरिंग चरण तक पहुंचने से पहले ही रिजाइन कर देता है, लेकिन फिर भी ट्रॉम्प-टेलर नियमों के संशोधित संस्करण का समर्थन करता है जिसके लिए पूर्ण प्ले आउट की आवश्यकता होती है।
इन नियम सेटों का मतलब है कि कार्यक्रम जो जापानी नियमों के तहत खेल के अंत में जीतने की स्थिति में था (जब दोनों खिलाड़ी पास हो गए) सैद्धांतिक रूप से रिज़ॉल्यूशन चरण में खराब खेल के कारण हार सकते थे, लेकिन यह बहुत ही असंभव है और इसे सामान्य माना जाता है सभी क्षेत्र नियम सेटों के अंतर्गत खेल का हिस्सा।
उपरोक्त प्रणाली का मुख्य दोष यह है कि गो#नियमसेट के कुछ नियम (जैसे कि पारंपरिक जापानी नियम) खिलाड़ियों को इन अतिरिक्त चालों के लिए दंडित करते हैं, जिससे दो कंप्यूटरों के लिए अतिरिक्त प्लेआउट का उपयोग बंद हो जाता है। फिर भी, अधिकांश आधुनिक गो प्रोग्राम मनुष्यों के विरुद्ध जापानी नियमों का समर्थन करते हैं।
ऐतिहासिक रूप से, इस समस्या को हल करने का अन्य तरीका अंतिम बोर्ड में विशेषज्ञ मानव न्यायाधीश को नियुक्त करना था। हालाँकि, यह परिणामों में व्यक्तिपरकता का परिचय देता है और जोखिम यह है कि विशेषज्ञ कार्यक्रम में देखी गई किसी चीज़ को चूक जाएगा।
यह भी देखें
- कंप्यूटर शतरंज
- कंप्यूटर ओथेलो
- कंप्यूटर शोगी
- टेक्स्ट प्रोटोकॉल पर जाएं
संदर्भ
- ↑ Metz, Cade (9 March 2016). "Google के AI ने गो चैंपियन के साथ ऐतिहासिक मैच में पहला गेम जीता". WIRED.
- ↑ "अल्फ़ागो एक बार फिर विजयी". 10 March 2016.
- ↑ Bouzy, Bruno; Cazenave, Tristan (9 August 2001). "Computer Go: An AI oriented survey". Artificial Intelligence. 132 (1): 39–103. doi:10.1016/S0004-3702(01)00127-8.
- ↑ Johnson, George (1997-07-29), "To Test a Powerful Computer, Play an Ancient Game", The New York Times, retrieved 2008-06-16
- ↑ "Go, Jack Good".
- ↑ Silver, David; Huang, Aja; Maddison, Chris J.; Guez, Arthur; Sifre, Laurent; Driessche, George van den; Schrittwieser, Julian; Antonoglou, Ioannis; Panneershelvam, Veda; Lanctot, Marc; Dieleman, Sander; Grewe, Dominik; Nham, John; Kalchbrenner, Nal; Sutskever, Ilya; Lillicrap, Timothy; Leach, Madeleine; Kavukcuoglu, Koray; Graepel, Thore; Hassabis, Demis (28 January 2016). "गहरे तंत्रिका नेटवर्क और वृक्ष खोज के साथ गो के खेल में महारत हासिल करना". Nature. 529 (7587): 484–489. Bibcode:2016Natur.529..484S. doi:10.1038/nature16961. ISSN 0028-0836. PMID 26819042. S2CID 515925.
- ↑ Wedd, Nick. "मानव-कंप्यूटर गो चुनौतियाँ". computer-go.info. Retrieved 2011-10-28.
- ↑ "'Huge leap forward': Computer that mimics human brain beats professional at game of Go".
- ↑ Albert Zobrist (1970), Feature Extraction and Representation for Pattern Recognition and the Game of Go. Ph.D. Thesis (152 pp.), University of Wisconsin. Also published as technical report
- ↑ Millen, Jonathan K (April 1981). "गो गेम की प्रोग्रामिंग". Byte. p. 102. Retrieved 18 October 2013.
- ↑ Webster, Bruce (November 1984). "मैकिंटोश के लिए एक गो बोर्ड". Byte. p. 125. Retrieved 23 October 2013.
- ↑ Campbell, J A (1983). "Part III: Go Introduction". In Bramer, M A (ed.). Computer Game-Playing: Theory and Practice. Ellis Horwood Limited. p. 138. ISBN 0-85312-488-4.
- ↑ Shotwell, Peter (2003). जाना! एक खेल से अधिक. Tuttle Publishing. p. 164. ISBN 0-8048-3475-X.
- ↑ "CS-TR-339 Computer Go Tech Report". Archived from the original on 4 February 2014. Retrieved 28 January 2016.
- ↑ See for instance intgofed.org Archived May 28, 2008, at the Wayback Machine
- ↑ Rémi Coulom (2007). "Efficient Selectivity and Backup Operators in Monte-Carlo Tree Search". Computers and Games, 5th International Conference, CG 2006, Turin, Italy, May 29–31, 2006. Revised Papers. H. Jaap van den Herik, Paolo Ciancarini, H. H. L. M. Donkers (eds.). Springer. pp. 72–83. CiteSeerX 10.1.1.81.6817. ISBN 978-3-540-75537-1.
- ↑ "EGC 2010 Tampere News". Archived from the original on 14 August 2009. Retrieved 28 January 2016.
- ↑ "केजीएस खेल अभिलेखागार". Retrieved 28 January 2016.
- ↑ "Zen computer Go program beats Takemiya Masaki with just 4 stones!". Go Game Guru. Archived from the original on 2016-02-01. Retrieved 28 January 2016.
- ↑ "「アマ六段の力。天才かも」囲碁棋士、コンピューターに敗れる 初の公式戦". MSN Sankei News. Archived from the original on 24 March 2013. Retrieved 27 March 2013.
- ↑ "codecentric go challenge – Just another WordPress site". Retrieved 28 January 2016.
- ↑ "Research Blog: AlphaGo: Mastering the ancient game of Go with Machine Learning". Google Research Blog. 27 January 2016.
- ↑ Gibney, Elizabeth (2016). "Google AI एल्गोरिदम गो के प्राचीन गेम में महारत हासिल करता है". Nature News & Comment. 529 (7587): 445–446. Bibcode:2016Natur.529..445G. doi:10.1038/529445a. PMID 26819021. S2CID 4460235.
- ↑ "Artificial intelligence: Google's AlphaGo beats Go master Lee Se-dol". BBC News Online. 12 March 2016. Retrieved 12 March 2016.
- ↑ "Google के डीपमाइंड ने ऐतिहासिक जीत में प्रसिद्ध गो खिलाड़ी ली से-डोल को हराया". www.theverge.com. 9 March 2016. Retrieved 9 March 2016.
- ↑ "Artificial intelligence: Go master Lee Se-dol wins against AlphaGo program". BBC News Online. 13 March 2016. Retrieved 13 March 2016.
- ↑ "Google's AlphaGo AI beats Lee Se-dol again to win Go series 4-1". The Verge. 15 March 2016. Retrieved 15 March 2016.
- ↑ Metz, Cade (2017-05-27). "चीन में जीत के बाद, अल्फ़ागो के डिज़ाइनरों ने नई एआई की खोज की". Wired.
- ↑ "विश्व की गो प्लेयर रेटिंग". May 2017.
- ↑ "柯洁迎19岁生日 雄踞人类世界排名第一已两年" (in 中文). May 2017.
- ↑ Metz, Cade (2017-05-25). "Google की AlphaGo ने चीन में दूसरी जीत के साथ अपना दबदबा कायम रखा". Wired.
- ↑ Silver, David; Schrittwieser, Julian; Simonyan, Karen; Antonoglou, Ioannis; Huang, Aja; Guez, Arthur; Hubert, Thomas; Baker, Lucas; Lai, Matthew; Bolton, Adrian; Chen, Yutian; Lillicrap, Timothy; Fan, Hui; Sifre, Laurent; Driessche, George van den; Graepel, Thore; Hassabis, Demis (19 October 2017). "मानव ज्ञान के बिना गो के खेल में महारत हासिल करना" (PDF). Nature. 550 (7676): 354–359. Bibcode:2017Natur.550..354S. doi:10.1038/nature24270. ISSN 0028-0836. PMID 29052630. S2CID 205261034.
- ↑ "5x5 Go is solved". Retrieved 28 January 2016.
- ↑ Klinger, Tim and Mechner, David. An Architecture for Computer Go (1996)
- ↑ 35.0 35.1 35.2 35.3 Müller, Martin (January 2002). "कंप्यूटर जाओ". Artificial Intelligence. 134 (1–2): 148–151. doi:10.1016/S0004-3702(01)00121-7.
- ↑ 36.0 36.1 "Fuego".
- ↑ 37.0 37.1 David Fotland. "Dan Level Go Software – Many Faces of Go".
- ↑ 38.0 38.1 38.2 "Sjeng – chess, audio and misc. software".
- ↑ 39.0 39.1 "संग्रहीत प्रति". Archived from the original on 2008-08-10. Retrieved 2008-06-03.
- ↑ 40.0 40.1 "MyGoFriend – Gold Medal Winner 15th Computer Olympiad, Go (9x9)". Archived from the original on 2010-12-08.
- ↑ "UCT".
- ↑ "आम". Archived from the original on 2007-11-03.
- ↑ David Fotland. "स्मार्ट गेम्स".
- ↑ "Facebook trains AI to beat humans at Go board game – BBC News". BBC News (in British English). 27 January 2016. Retrieved 2016-04-24.
- ↑ Ormerod, David (12 March 2016). "AlphaGo shows its true strength in 3rd victory against Lee Sedol". Go Game Guru. Archived from the original on 13 March 2016. Retrieved 12 March 2016.
- ↑ "गो गेम में मूव पैटर्न की एलो रेटिंग की गणना करना". Retrieved 28 January 2016.
- ↑ Muhammad, Mohsin. Thinking games, Artificial Intelligence 134 (2002): p150
- ↑ Berlekamp, Elwyn; Wolfe, David (1994). Mathematical Go: Chilling Gets the Last Point. ISBN 978-1-56881-032-4.
- ↑
- ↑ "Computer Go Programming".
- ↑ On page 11: "Crasmaru shows that it is NP-complete to determine the status of certain restricted forms of life-and-death problems in Go." (See the following reference.) Erik D. Demaine, Robert A. Hearn (2008-04-22). "Playing Games with Algorithms: Algorithmic Combinatorial Game Theory". arXiv:cs/0106019.
- ↑ Marcel Crasmaru (1999). "On the complexity of Tsume-Go". कंप्यूटर और खेल. Lecture Notes in Computer Science. Vol. 1558. London, UK: Springer-Verlag. pp. 222–231. doi:10.1007/3-540-48957-6_15. ISBN 978-3-540-65766-8.
- ↑ BaduGI
- ↑
- "Goban. Play Go on Mac – Sen:te". Archived from the original on 2013-05-19. Retrieved 2013-06-14.
- "Goban Extensions – Sen:te". Archived from the original on 2016-05-18. Retrieved 2013-06-14.
- ↑ "सिल्वेन जेली का होम पेज". Archived from the original on 2006-11-28. Retrieved 2007-02-21.
- ↑ "Pachi – Board Game of Go / Weiqi / Baduk".
- ↑ Anders Kierulf. "स्मार्टगो".
- ↑ "STEENVRETER".
- ↑ "Zen (go program)".
- ↑ "Computer Go Tournaments on KGS".
- ↑ "9x9 Go Server". Archived from the original on 2007-01-19. Retrieved 2007-03-25.
- ↑ "Acorn 1984 The First Computer Go Tournament". computer-go.info.
- ↑ David Fotland. "विश्व कंप्यूटर गो चैंपियनशिप". Retrieved 28 January 2016.
अग्रिम पठन
- Co-Evolving a Go-Playing Neural Network, written by Alex Lubberts & Risto Miikkulainen, 2001
- Computer Game Playing: Theory and Practice, edited by M.A. Brauner (The Ellis Horwood Series in Artificial Intelligence), Halstead Press, 1983. A collection of computer Go articles. The American Go Journal, vol. 18, No 4. page 6. [ISSN 0148-0243]
- A Machine-Learning Approach to Computer Go, Jeffrey Bagdis, 2007.
- Minimalism in Ubiquitous Interface Design Wren, C. and Reynolds, C. (2004) Personal and Ubiquitous Computing, 8(5), pages 370–374. Video of computer Go vision system in operation shows interaction and users exploring Joseki and Fuseki.
- Monte-Carlo Go, presented by Markus Enzenberger, Computer Go Seminar, University of Alberta, April 2004
- Monte-Carlo Go, written by B. Bouzy and B. Helmstetter from Scientific Literature Digital Library
- Static analysis of life and death in the game of Go, written by Ken Chen & Zhixing Chen, 20 February 1999
- article describing the techniques underlying Mogo
बाहरी संबंध
- Extensive list of computer Go events
- All systems Go by David A. Mechner (1998), discusses the game where professional Go player Janice Kim won a game against program Handtalk after giving a 25-stone handicap.
- Computer Go and Computer Go Programming pages at Sensei's Library
- Computer Go bibliography
- Another Computer Go Bibliography
- Computer Go mailing list
- Published articles about computer Go on Ideosphere gives current estimate of whether a Go program will be best player in the world
- Information on the Go Text Protocol commonly used for interfacing Go playing engines with graphical clients and internet servers
- The Computer Go Room on the K Go Server (KGS) for online discussion and running "bots"
- Two Representative Computer Go Games, an article about two computer Go games played in 1999, one with two computers players, and the other a 29-stone handicap human-computer game
- What A Way to Go describes work at Microsoft Research on building a computer Go player.
- Cracking Go by Feng-hsiung Hsu, IEEE Spectrum magazine (October 2007) – Why it should be possible to build a Go machine stronger than any human player
- computer-go-dataset, SGF datasets of 1,645,958 games