वर्जन स्पेस लर्निंग: Difference between revisions

From Vigyanwiki
(Created page with "Image:Version space.png|thumb|right|300px|दो आयामों में एक आयत परिकल्पना भाषा के लिए संस्कर...")
 
No edit summary
 
(5 intermediate revisions by 4 users not shown)
Line 1: Line 1:
[[Image:Version space.png|thumb|right|300px|दो आयामों में एक आयत परिकल्पना भाषा के लिए संस्करण स्थान। हरा प्लस सकारात्मक उदाहरण हैं, और लाल वृत्त नकारात्मक उदाहरण हैं। जीबी अधिकतम सामान्य सकारात्मक परिकल्पना सीमा है, और एसबी अधिकतम विशिष्ट सकारात्मक परिकल्पना सीमा है। मध्यवर्ती (पतली) आयतें संस्करण स्थान में परिकल्पनाओं का प्रतिनिधित्व करती हैं।]]वर्जन स्पेस लर्निंग [[ यंत्र अधिगम ]], विशेष रूप से बाइनरी वर्गीकरण के लिए एक [[प्रतीकात्मक कृत्रिम बुद्धि]]मत्ता दृष्टिकोण है। वर्जन स्पेस लर्निंग एल्गोरिदम [[परिकल्पना]] के एक पूर्वनिर्धारित स्थान की खोज करते हैं, जिसे [[वाक्य (तर्क)]] के एक सेट के रूप में देखा जाता है। औपचारिक रूप से, परिकल्पना स्थान एक तार्किक वियोजन है<ref name="aima">{{Cite AIMA|2|pages=683–686}}</ref>
[[Image:Version space.png|thumb|right|300px|दो आयामों में एक आयत परिकल्पना भाषा के लिए संस्करण स्थान। हरा प्लस घनात्मक उदाहरण हैं, और लाल वृत्त ऋणात्मक उदाहरण हैं। जीबी अधिकतम सामान्य घनात्मक परिकल्पना सीमा है, और एसबी अधिकतम विशिष्ट घनात्मक परिकल्पना सीमा है। मध्यवर्ती (पतली) आयतें संस्करण स्थान में परिकल्पनाओं का प्रतिनिधित्व करती हैं।]]'''वर्जन स्पेस लर्निंग''' [[ यंत्र अधिगम |यंत्र अधिगम]] , विशेष रूप से बाइनरी वर्गीकरण के लिए एक [[प्रतीकात्मक कृत्रिम बुद्धि]]मत्ता दृष्टिकोण है। वर्जन स्पेस लर्निंग एल्गोरिदम [[परिकल्पना]] के एक पूर्वनिर्धारित स्थान की खोज करते हैं, जिसे [[वाक्य (तर्क)]] के एक समुच्चय के रूप में देखा जाता है। औपचारिक रूप से, परिकल्पना स्थान एक तार्किक वियोजन है<ref name="aima">{{Cite AIMA|2|pages=683–686}}</ref>
:<math>H_1 \lor H_2 \lor ... \lor H_n</math>
:<math>H_1 \lor H_2 \lor ... \lor H_n</math>
(अर्थात, या तो परिकल्पना 1 सत्य है, या परिकल्पना 2, या परिकल्पना 1 से लेकर किसी भी उपसमुच्चय तक) {{mvar|n}}). एक संस्करण स्पेस लर्निंग एल्गोरिदम उदाहरणों के साथ प्रस्तुत किया गया है, जिसका उपयोग यह अपनी परिकल्पना स्थान को प्रतिबंधित करने के लिए करेगा; प्रत्येक उदाहरण के लिए {{mvar|x}}, वे परिकल्पनाएँ जिनके साथ संगति है {{mvar|x}} को अंतरिक्ष से हटा दिया गया है।<ref name="Mitchel-1982"/>परिकल्पना स्थान के इस पुनरावृत्तीय शोधन को उम्मीदवार उन्मूलन एल्गोरिदम कहा जाता है, परिकल्पना स्थान को एल्गोरिदम के अंदर "संस्करण स्थान" बनाए रखा जाता है।{{r|aima}}
(अर्थात, या तो परिकल्पना 1 सत्य है, या परिकल्पना 2, या परिकल्पना 1 से लेकर किसी भी उपसमुच्चय तक) {{mvar|n}}). एक संस्करण स्पेस लर्निंग एल्गोरिदम उदाहरणों के साथ प्रस्तुत किया गया है, जिसका उपयोग यह अपनी परिकल्पना स्थान को प्रतिबंधित करने के लिए करेगा; प्रत्येक उदाहरण के लिए {{mvar|x}}, वे परिकल्पनाएँ जिनके साथ संगति है {{mvar|x}} को अंतरिक्ष से हटा दिया गया है।<ref name="Mitchel-1982"/>परिकल्पना स्थान के इस पुनरावृत्तीय शोधन को उम्मीदवार उन्मूलन एल्गोरिदम कहा जाता है, परिकल्पना स्थान को एल्गोरिदम के अंदर "संस्करण स्थान" बनाए रखा जाता है।{{r|aima}}


==संस्करण स्थान एल्गोरिथ्म==
==वर्जन स्पेस एल्गोरिथ्म==
ऐसी सेटिंग्स में जहां परिकल्पनाओं पर व्यापकता-क्रम होता है, परिकल्पनाओं के दो सेटों द्वारा संस्करण स्थान का प्रतिनिधित्व करना संभव है: (1) सबसे विशिष्ट सुसंगत परिकल्पनाएं, और (2) सबसे सामान्य सुसंगत परिकल्पनाएं, जहां सुसंगतता के साथ सहमति का संकेत मिलता है अवलोकन किया गया डेटा.
ऐसी सेटिंग्स में जहां परिकल्पनाओं पर व्यापकता-क्रम होता है, परिकल्पनाओं के दो समुच्चयों द्वारा संस्करण स्थान का प्रतिनिधित्व करना संभव है: (1) '''सबसे विशिष्ट''' सुसंगत परिकल्पनाएं, और (2) '''सबसे सामान्य''' सुसंगत परिकल्पनाएं, जहां <nowiki>''सुसंगतता''</nowiki> के साथ सहमति का संकेत मिलता है अवलोकन किया गया डेटा.


सबसे विशिष्ट परिकल्पनाएं (यानी, विशिष्ट सीमा एसबी) देखे गए सकारात्मक प्रशिक्षण उदाहरणों को कवर करती हैं, और शेष [[सुविधा (मशीन लर्निंग)]] को जितना संभव हो उतना कम करती हैं। इन परिकल्पनाओं को, यदि और कम किया जाए, तो एक ''सकारात्मक'' प्रशिक्षण उदाहरण को ''बहिष्कृत'' कर दिया जाता है, और इसलिए असंगत हो जाते हैं। ये न्यूनतम परिकल्पनाएँ अनिवार्य रूप से एक (निराशावादी) दावे का गठन करती हैं कि सच्ची अवधारणा को पहले से ही देखे गए ''सकारात्मक'' डेटा द्वारा परिभाषित किया गया है: इस प्रकार, यदि एक नया (पहले कभी नहीं देखा गया) डेटा बिंदु देखा जाता है, तो यह माना जाना चाहिए नकारात्मक हो. (यानी, यदि डेटा को पहले शामिल नहीं किया गया है, तो इसे खारिज कर दिया गया है।)
सबसे विशिष्ट परिकल्पनाएं (यानी, विशिष्ट सीमा '''एसबी''') देखे गए घनात्मक प्रशिक्षण उदाहरणों को कवर करती हैं, और शेष [[सुविधा (मशीन लर्निंग)]] को जितना संभव हो उतना कम करती हैं। इन परिकल्पनाओं को, यदि और कम किया जाए, तो एक ''घनात्मक'' प्रशिक्षण उदाहरण को ''बहिष्कृत'' कर दिया जाता है, और इसलिए असंगत हो जाते हैं। ये न्यूनतम परिकल्पनाएँ अनिवार्य रूप से एक (निराशावादी) दावे का गठन करती हैं कि सच्ची अवधारणा को पहले से ही देखे गए ''घनात्मक'' डेटा द्वारा परिभाषित किया गया है: इस प्रकार, यदि एक नया (पहले कभी नहीं देखा गया) डेटा बिंदु देखा जाता है, तो यह माना जाना चाहिए ऋणात्मक हो. (यानी, यदि डेटा को पहले सम्मिलित नहीं किया गया है, तो इसे खारिज कर दिया गया है।)


सबसे सामान्य परिकल्पनाएं (यानी, सामान्य सीमा जीबी) देखे गए सकारात्मक प्रशिक्षण उदाहरणों को कवर करती हैं, लेकिन किसी भी नकारात्मक प्रशिक्षण उदाहरण को शामिल किए बिना शेष फीचर स्पेस को भी कवर करती हैं। इन्हें, यदि और अधिक बढ़ाया जाए, तो ''नकारात्मक'' प्रशिक्षण उदाहरण ''शामिल'' हो जाता है, और इसलिए असंगत हो जाता है। ये अधिकतम परिकल्पनाएं अनिवार्य रूप से एक (आशावादी) दावे का गठन करती हैं कि सच्ची अवधारणा को पहले से ही देखे गए ''नकारात्मक'' डेटा द्वारा परिभाषित किया गया है: इस प्रकार, यदि एक उपन्यास (पहले कभी नहीं देखा गया) डेटा बिंदु देखा जाता है, तो यह माना जाना चाहिए सकारात्मक रहें। (यानी, यदि डेटा को पहले खारिज नहीं किया गया है, तो इसे खारिज कर दिया गया है।)
सबसे सामान्य परिकल्पनाएं (यानी, सामान्य सीमा '''जीबी''') देखे गए घनात्मक प्रशिक्षण उदाहरणों को कवर करती हैं, लेकिन किसी भी ऋणात्मक प्रशिक्षण उदाहरण को सम्मिलित किए बिना शेष फीचर स्पेस को भी कवर करती हैं। इन्हें, यदि और अधिक बढ़ाया जाए, तो ''ऋणात्मक'' प्रशिक्षण उदाहरण ''सम्मिलित'' हो जाता है, और इसलिए असंगत हो जाता है। ये अधिकतम परिकल्पनाएं अनिवार्य रूप से एक (आशावादी) दावे का गठन करती हैं कि सच्ची अवधारणा को पहले से ही देखे गए ''ऋणात्मक'' डेटा द्वारा परिभाषित किया गया है: इस प्रकार, यदि एक उपन्यास (पहले कभी नहीं देखा गया) डेटा बिंदु देखा जाता है, तो यह माना जाना चाहिए घनात्मक रहें। (यानी, यदि डेटा को पहले खारिज नहीं किया गया है, तो इसे खारिज कर दिया गया है।)


इस प्रकार, सीखने के दौरान, संस्करण स्थान (जो स्वयं एक सेट है - संभवतः अनंत - जिसमें ''सभी'' सुसंगत परिकल्पनाएं शामिल हैं) को केवल इसकी निचली और ऊपरी सीमा (अधिकतम सामान्य और अधिकतम विशिष्ट परिकल्पना सेट), और सीखने के संचालन द्वारा दर्शाया जा सकता है केवल इन प्रतिनिधि सेटों पर ही प्रदर्शन किया जा सकता है।
इस प्रकार, सीखने के दौरान, संस्करण स्थान (जो स्वयं एक समुच्चय है - संभवतः अनंत - जिसमें ''सभी'' सुसंगत परिकल्पनाएं सम्मिलित हैं) को केवल इसकी निचली और ऊपरी सीमा (अधिकतम सामान्य और अधिकतम विशिष्ट परिकल्पना समुच्चय), और सीखने के संचालन द्वारा दर्शाया जा सकता है केवल इन प्रतिनिधि समुच्चयों पर ही प्रदर्शन किया जा सकता है।


सीखने के बाद, एल्गोरिथम द्वारा सीखी गई परिकल्पना का परीक्षण करके अनदेखे उदाहरणों पर वर्गीकरण किया जा सकता है। यदि उदाहरण कई परिकल्पनाओं के अनुरूप है, तो बहुमत वोट नियम लागू किया जा सकता है।{{r|aima}}
सीखने के बाद, एल्गोरिथम द्वारा सीखी गई परिकल्पना का परीक्षण करके अनदेखे उदाहरणों पर वर्गीकरण किया जा सकता है। यदि उदाहरण कई परिकल्पनाओं के अनुरूप है, तो बहुमत वोट नियम लागू किया जा सकता है।{{r|aima}}


==ऐतिहासिक पृष्ठभूमि==
==ऐतिहासिक पृष्ठभूमि==
संस्करण रिक्त स्थान की धारणा 1980 के दशक की शुरुआत में मिशेल द्वारा पेश की गई थी{{r|Mitchel-1982}} [[राज्य अंतरिक्ष खोज]] के संदर्भ में पर्यवेक्षित शिक्षण की बुनियादी समस्या को समझने के लिए एक रूपरेखा के रूप में। यद्यपि संस्करण स्पेस फ्रेमवर्क के साथ आने वाली मूल उम्मीदवार उन्मूलन खोज विधि एक लोकप्रिय शिक्षण एल्गोरिदम नहीं है, लेकिन कुछ व्यावहारिक कार्यान्वयन विकसित किए गए हैं (उदाहरण के लिए, स्वेर्डलिक और रेनॉल्ड्स 1992, हांग और त्सांग 1997, डुबॉइस और क्वाफाफौ 2002)।
संस्करण रिक्त स्थान की धारणा 1980 के दशक की प्रारम्भ में मिशेल द्वारा पेश की गई थी{{r|Mitchel-1982}} [[राज्य अंतरिक्ष खोज|स्टेट स्पेस सर्च]] के संदर्भ में पर्यवेक्षित शिक्षण की बुनियादी समस्या को समझने के लिए एक रूपरेखा के रूप में हैं। यद्यपि संस्करण स्पेस फ्रेमवर्क के साथ आने वाली मूल उम्मीदवार उन्मूलन खोज विधि एक लोकप्रिय शिक्षण एल्गोरिदम नहीं है, लेकिन कुछ व्यावहारिक कार्यान्वयन विकसित किए गए हैं (उदाहरण के लिए, स्वेर्डलिक और रेनॉल्ड्स 1992, हांग और त्सांग 1997, डुबॉइस और क्वाफाफौ 2002)।


वर्जन स्पेस लर्निंग का एक बड़ा दोष इसकी शोर से निपटने में असमर्थता है: असंगत उदाहरणों की कोई भी जोड़ी वर्जन स्पेस को ''पतन'' कर सकती है, यानी खाली हो सकती है, जिससे वर्गीकरण असंभव हो जाता है।{{r|aima}} इस समस्या का एक समाधान डुबॉइस और क्वाफाफौ द्वारा प्रस्तावित है जिन्होंने रफ वर्जन स्पेस का प्रस्ताव दिया था,<ref name="Dubois Quafafou 2002"/>जहां असंगत डेटा की उपस्थिति में निश्चित और संभावित परिकल्पना को सीखने के लिए रफ सेट आधारित अनुमानों का उपयोग किया जाता है।
वर्जन स्पेस लर्निंग की एक बहुत बड़ी कमी इसकी रव से निपटने में असमर्थता रही है: असंगत उदाहरणों की कोई भी जोड़ी वर्जन स्पेस को ''पतन'' कर सकती है, यानी खाली हो सकती है, जिससे वर्गीकरण असंभव हो जाता है।{{r|aima}} इस समस्या का एक समाधान डुबॉइस और क्वाफाफौ द्वारा प्रस्तावित है जिन्होंने रफ वर्जन स्पेस का प्रस्ताव दिया था,<ref name="Dubois Quafafou 2002"/>जहां असंगत डेटा की उपस्थिति में निश्चित और संभावित परिकल्पना को सीखने के लिए रफ समुच्चय आधारित अनुमानों का उपयोग किया जाता है।


==यह भी देखें==
==यह भी देखें==
*[[औपचारिक अवधारणा विश्लेषण]]
*[[औपचारिक अवधारणा विश्लेषण]]
*[[आगमनात्मक तर्क प्रोग्रामिंग]]
*[[आगमनात्मक तर्क प्रोग्रामिंग]]
*कठिन सेट. [[[कच्चा सेट]] फ्रेमवर्क उस मामले पर केंद्रित है जहां एक खराब फीचर सेट द्वारा अस्पष्टता पेश की जाती है। अर्थात्, लक्ष्य अवधारणा का निर्णायक रूप से वर्णन नहीं किया जा सकता क्योंकि उपलब्ध सुविधा सेट विभिन्न श्रेणियों से संबंधित वस्तुओं को स्पष्ट करने में विफल रहता है। संस्करण स्पेस फ्रेमवर्क (शास्त्रीय प्रेरण) मामले पर केंद्रित है जहां अस्पष्टता एक खराब डेटा सेट द्वारा पेश की जाती है। अर्थात्, लक्ष्य अवधारणा का निर्णायक रूप से वर्णन नहीं किया जा सकता क्योंकि उपलब्ध डेटा विशिष्ट रूप से किसी परिकल्पना का चयन करने में विफल रहता है। स्वाभाविक रूप से, एक ही सीखने की समस्या में दोनों प्रकार की अस्पष्टता हो सकती है।]
*रफ समुच्चय. [रफ समुच्चय] फ्रेमवर्क उस स्थिति पर केंद्रित है जहां एक शक्तिहीन '''फीचर समुच्चय''' द्वारा अस्पष्टता पेश की जाती है। अर्थात्, लक्ष्य अवधारणा का निर्णायक रूप से वर्णन नहीं किया जा सकता क्योंकि उपलब्ध सुविधा समुच्चय विभिन्न श्रेणियों से संबंधित वस्तुओं को स्पष्ट करने में विफल रहता है। संस्करण स्पेस फ्रेमवर्क ( चिरसम्मत प्रेरण) स्थिति पर केंद्रित है जहां अस्पष्टता एक शक्तिहीन '''डेटा समुच्चय''' द्वारा पेश की जाती है। अर्थात्, लक्ष्य अवधारणा का निर्णायक रूप से वर्णन नहीं किया जा सकता क्योंकि उपलब्ध डेटा विशिष्ट रूप से किसी परिकल्पना का चयन करने में विफल रहता है। स्वाभाविक रूप से, एक ही सीखने की समस्या में दोनों प्रकार की अस्पष्टता हो सकती है।]
*[[विवेचनात्मक तार्किकता]]। [प्रेरण की सामान्य समस्या पर।]
*[[विवेचनात्मक तार्किकता]]। [प्रेरण की सामान्य समस्या पर।]


Line 81: Line 81:
   | year = 1992
   | year = 1992
   | location = Arlington, VA}}
   | location = Arlington, VA}}
[[Category: यंत्र अधिगम]]


[[Category: Machine Translated Page]]
[[Category:Created On 07/07/2023]]
[[Category:Created On 07/07/2023]]
[[Category:Machine Translated Page]]
[[Category:Templates Vigyan Ready]]
[[Category:यंत्र अधिगम]]

Latest revision as of 15:28, 28 July 2023

दो आयामों में एक आयत परिकल्पना भाषा के लिए संस्करण स्थान। हरा प्लस घनात्मक उदाहरण हैं, और लाल वृत्त ऋणात्मक उदाहरण हैं। जीबी अधिकतम सामान्य घनात्मक परिकल्पना सीमा है, और एसबी अधिकतम विशिष्ट घनात्मक परिकल्पना सीमा है। मध्यवर्ती (पतली) आयतें संस्करण स्थान में परिकल्पनाओं का प्रतिनिधित्व करती हैं।

वर्जन स्पेस लर्निंग यंत्र अधिगम , विशेष रूप से बाइनरी वर्गीकरण के लिए एक प्रतीकात्मक कृत्रिम बुद्धिमत्ता दृष्टिकोण है। वर्जन स्पेस लर्निंग एल्गोरिदम परिकल्पना के एक पूर्वनिर्धारित स्थान की खोज करते हैं, जिसे वाक्य (तर्क) के एक समुच्चय के रूप में देखा जाता है। औपचारिक रूप से, परिकल्पना स्थान एक तार्किक वियोजन है[1]

(अर्थात, या तो परिकल्पना 1 सत्य है, या परिकल्पना 2, या परिकल्पना 1 से लेकर किसी भी उपसमुच्चय तक) n). एक संस्करण स्पेस लर्निंग एल्गोरिदम उदाहरणों के साथ प्रस्तुत किया गया है, जिसका उपयोग यह अपनी परिकल्पना स्थान को प्रतिबंधित करने के लिए करेगा; प्रत्येक उदाहरण के लिए x, वे परिकल्पनाएँ जिनके साथ संगति है x को अंतरिक्ष से हटा दिया गया है।[2]परिकल्पना स्थान के इस पुनरावृत्तीय शोधन को उम्मीदवार उन्मूलन एल्गोरिदम कहा जाता है, परिकल्पना स्थान को एल्गोरिदम के अंदर "संस्करण स्थान" बनाए रखा जाता है।[1]

वर्जन स्पेस एल्गोरिथ्म

ऐसी सेटिंग्स में जहां परिकल्पनाओं पर व्यापकता-क्रम होता है, परिकल्पनाओं के दो समुच्चयों द्वारा संस्करण स्थान का प्रतिनिधित्व करना संभव है: (1) सबसे विशिष्ट सुसंगत परिकल्पनाएं, और (2) सबसे सामान्य सुसंगत परिकल्पनाएं, जहां ''सुसंगतता'' के साथ सहमति का संकेत मिलता है अवलोकन किया गया डेटा.

सबसे विशिष्ट परिकल्पनाएं (यानी, विशिष्ट सीमा एसबी) देखे गए घनात्मक प्रशिक्षण उदाहरणों को कवर करती हैं, और शेष सुविधा (मशीन लर्निंग) को जितना संभव हो उतना कम करती हैं। इन परिकल्पनाओं को, यदि और कम किया जाए, तो एक घनात्मक प्रशिक्षण उदाहरण को बहिष्कृत कर दिया जाता है, और इसलिए असंगत हो जाते हैं। ये न्यूनतम परिकल्पनाएँ अनिवार्य रूप से एक (निराशावादी) दावे का गठन करती हैं कि सच्ची अवधारणा को पहले से ही देखे गए घनात्मक डेटा द्वारा परिभाषित किया गया है: इस प्रकार, यदि एक नया (पहले कभी नहीं देखा गया) डेटा बिंदु देखा जाता है, तो यह माना जाना चाहिए ऋणात्मक हो. (यानी, यदि डेटा को पहले सम्मिलित नहीं किया गया है, तो इसे खारिज कर दिया गया है।)

सबसे सामान्य परिकल्पनाएं (यानी, सामान्य सीमा जीबी) देखे गए घनात्मक प्रशिक्षण उदाहरणों को कवर करती हैं, लेकिन किसी भी ऋणात्मक प्रशिक्षण उदाहरण को सम्मिलित किए बिना शेष फीचर स्पेस को भी कवर करती हैं। इन्हें, यदि और अधिक बढ़ाया जाए, तो ऋणात्मक प्रशिक्षण उदाहरण सम्मिलित हो जाता है, और इसलिए असंगत हो जाता है। ये अधिकतम परिकल्पनाएं अनिवार्य रूप से एक (आशावादी) दावे का गठन करती हैं कि सच्ची अवधारणा को पहले से ही देखे गए ऋणात्मक डेटा द्वारा परिभाषित किया गया है: इस प्रकार, यदि एक उपन्यास (पहले कभी नहीं देखा गया) डेटा बिंदु देखा जाता है, तो यह माना जाना चाहिए घनात्मक रहें। (यानी, यदि डेटा को पहले खारिज नहीं किया गया है, तो इसे खारिज कर दिया गया है।)

इस प्रकार, सीखने के दौरान, संस्करण स्थान (जो स्वयं एक समुच्चय है - संभवतः अनंत - जिसमें सभी सुसंगत परिकल्पनाएं सम्मिलित हैं) को केवल इसकी निचली और ऊपरी सीमा (अधिकतम सामान्य और अधिकतम विशिष्ट परिकल्पना समुच्चय), और सीखने के संचालन द्वारा दर्शाया जा सकता है केवल इन प्रतिनिधि समुच्चयों पर ही प्रदर्शन किया जा सकता है।

सीखने के बाद, एल्गोरिथम द्वारा सीखी गई परिकल्पना का परीक्षण करके अनदेखे उदाहरणों पर वर्गीकरण किया जा सकता है। यदि उदाहरण कई परिकल्पनाओं के अनुरूप है, तो बहुमत वोट नियम लागू किया जा सकता है।[1]

ऐतिहासिक पृष्ठभूमि

संस्करण रिक्त स्थान की धारणा 1980 के दशक की प्रारम्भ में मिशेल द्वारा पेश की गई थी[2] स्टेट स्पेस सर्च के संदर्भ में पर्यवेक्षित शिक्षण की बुनियादी समस्या को समझने के लिए एक रूपरेखा के रूप में हैं। यद्यपि संस्करण स्पेस फ्रेमवर्क के साथ आने वाली मूल उम्मीदवार उन्मूलन खोज विधि एक लोकप्रिय शिक्षण एल्गोरिदम नहीं है, लेकिन कुछ व्यावहारिक कार्यान्वयन विकसित किए गए हैं (उदाहरण के लिए, स्वेर्डलिक और रेनॉल्ड्स 1992, हांग और त्सांग 1997, डुबॉइस और क्वाफाफौ 2002)।

वर्जन स्पेस लर्निंग की एक बहुत बड़ी कमी इसकी रव से निपटने में असमर्थता रही है: असंगत उदाहरणों की कोई भी जोड़ी वर्जन स्पेस को पतन कर सकती है, यानी खाली हो सकती है, जिससे वर्गीकरण असंभव हो जाता है।[1] इस समस्या का एक समाधान डुबॉइस और क्वाफाफौ द्वारा प्रस्तावित है जिन्होंने रफ वर्जन स्पेस का प्रस्ताव दिया था,[3]जहां असंगत डेटा की उपस्थिति में निश्चित और संभावित परिकल्पना को सीखने के लिए रफ समुच्चय आधारित अनुमानों का उपयोग किया जाता है।

यह भी देखें

  • औपचारिक अवधारणा विश्लेषण
  • आगमनात्मक तर्क प्रोग्रामिंग
  • रफ समुच्चय. [रफ समुच्चय] फ्रेमवर्क उस स्थिति पर केंद्रित है जहां एक शक्तिहीन फीचर समुच्चय द्वारा अस्पष्टता पेश की जाती है। अर्थात्, लक्ष्य अवधारणा का निर्णायक रूप से वर्णन नहीं किया जा सकता क्योंकि उपलब्ध सुविधा समुच्चय विभिन्न श्रेणियों से संबंधित वस्तुओं को स्पष्ट करने में विफल रहता है। संस्करण स्पेस फ्रेमवर्क ( चिरसम्मत प्रेरण) स्थिति पर केंद्रित है जहां अस्पष्टता एक शक्तिहीन डेटा समुच्चय द्वारा पेश की जाती है। अर्थात्, लक्ष्य अवधारणा का निर्णायक रूप से वर्णन नहीं किया जा सकता क्योंकि उपलब्ध डेटा विशिष्ट रूप से किसी परिकल्पना का चयन करने में विफल रहता है। स्वाभाविक रूप से, एक ही सीखने की समस्या में दोनों प्रकार की अस्पष्टता हो सकती है।]
  • विवेचनात्मक तार्किकता। [प्रेरण की सामान्य समस्या पर।]

संदर्भ

  1. 1.0 1.1 1.2 1.3 Russell, Stuart; Norvig, Peter (2003) [1995]. Artificial Intelligence: A Modern Approach (2nd ed.). Prentice Hall. pp. 683–686. ISBN 978-0137903955.
  2. 2.0 2.1 Mitchell, Tom M. (1982). "Generalization as search". Artificial Intelligence. 18 (2): 203–226. doi:10.1016/0004-3702(82)90040-6.
  3. Dubois, Vincent; Quafafou, Mohamed (2002). "Concept learning with approximation: Rough version spaces". Rough Sets and Current Trends in Computing: Proceedings of the Third International Conference, RSCTC 2002. Malvern, Pennsylvania. pp. 239–246. doi:10.1007/3-540-45813-1_31.
  • Hong, Tzung-Pai; Shian-Shyong Tsang (1997). "A generalized version space learning algorithm for noisy and uncertain data". IEEE Transactions on Knowledge and Data Engineering. 9 (2): 336–340. doi:10.1109/69.591457.
  • Mitchell, Tom M. (1997). Machine Learning. Boston: McGraw-Hill.
  • Sverdlik, W.; Reynolds, R.G. (1992). "Dynamic version spaces in machine learning". Proceedings, Fourth International Conference on Tools with Artificial Intelligence (TAI '92). Arlington, VA. pp. 308–315.