वर्जन स्पेस लर्निंग

From Vigyanwiki
Revision as of 11:20, 20 July 2023 by alpha>Neeraja (added Category:Vigyan Ready using HotCat)
दो आयामों में एक आयत परिकल्पना भाषा के लिए संस्करण स्थान। हरा प्लस घनात्मक उदाहरण हैं, और लाल वृत्त ऋणात्मक उदाहरण हैं। जीबी अधिकतम सामान्य घनात्मक परिकल्पना सीमा है, और एसबी अधिकतम विशिष्ट घनात्मक परिकल्पना सीमा है। मध्यवर्ती (पतली) आयतें संस्करण स्थान में परिकल्पनाओं का प्रतिनिधित्व करती हैं।

वर्जन स्पेस लर्निंग यंत्र अधिगम , विशेष रूप से बाइनरी वर्गीकरण के लिए एक प्रतीकात्मक कृत्रिम बुद्धिमत्ता दृष्टिकोण है। वर्जन स्पेस लर्निंग एल्गोरिदम परिकल्पना के एक पूर्वनिर्धारित स्थान की खोज करते हैं, जिसे वाक्य (तर्क) के एक समुच्चय के रूप में देखा जाता है। औपचारिक रूप से, परिकल्पना स्थान एक तार्किक वियोजन है[1]

(अर्थात, या तो परिकल्पना 1 सत्य है, या परिकल्पना 2, या परिकल्पना 1 से लेकर किसी भी उपसमुच्चय तक) n). एक संस्करण स्पेस लर्निंग एल्गोरिदम उदाहरणों के साथ प्रस्तुत किया गया है, जिसका उपयोग यह अपनी परिकल्पना स्थान को प्रतिबंधित करने के लिए करेगा; प्रत्येक उदाहरण के लिए x, वे परिकल्पनाएँ जिनके साथ संगति है x को अंतरिक्ष से हटा दिया गया है।[2]परिकल्पना स्थान के इस पुनरावृत्तीय शोधन को उम्मीदवार उन्मूलन एल्गोरिदम कहा जाता है, परिकल्पना स्थान को एल्गोरिदम के अंदर "संस्करण स्थान" बनाए रखा जाता है।[1]

वर्जन स्पेस एल्गोरिथ्म

ऐसी सेटिंग्स में जहां परिकल्पनाओं पर व्यापकता-क्रम होता है, परिकल्पनाओं के दो समुच्चयों द्वारा संस्करण स्थान का प्रतिनिधित्व करना संभव है: (1) सबसे विशिष्ट सुसंगत परिकल्पनाएं, और (2) सबसे सामान्य सुसंगत परिकल्पनाएं, जहां ''सुसंगतता'' के साथ सहमति का संकेत मिलता है अवलोकन किया गया डेटा.

सबसे विशिष्ट परिकल्पनाएं (यानी, विशिष्ट सीमा एसबी) देखे गए घनात्मक प्रशिक्षण उदाहरणों को कवर करती हैं, और शेष सुविधा (मशीन लर्निंग) को जितना संभव हो उतना कम करती हैं। इन परिकल्पनाओं को, यदि और कम किया जाए, तो एक घनात्मक प्रशिक्षण उदाहरण को बहिष्कृत कर दिया जाता है, और इसलिए असंगत हो जाते हैं। ये न्यूनतम परिकल्पनाएँ अनिवार्य रूप से एक (निराशावादी) दावे का गठन करती हैं कि सच्ची अवधारणा को पहले से ही देखे गए घनात्मक डेटा द्वारा परिभाषित किया गया है: इस प्रकार, यदि एक नया (पहले कभी नहीं देखा गया) डेटा बिंदु देखा जाता है, तो यह माना जाना चाहिए ऋणात्मक हो. (यानी, यदि डेटा को पहले सम्मिलित नहीं किया गया है, तो इसे खारिज कर दिया गया है।)

सबसे सामान्य परिकल्पनाएं (यानी, सामान्य सीमा जीबी) देखे गए घनात्मक प्रशिक्षण उदाहरणों को कवर करती हैं, लेकिन किसी भी ऋणात्मक प्रशिक्षण उदाहरण को सम्मिलित किए बिना शेष फीचर स्पेस को भी कवर करती हैं। इन्हें, यदि और अधिक बढ़ाया जाए, तो ऋणात्मक प्रशिक्षण उदाहरण सम्मिलित हो जाता है, और इसलिए असंगत हो जाता है। ये अधिकतम परिकल्पनाएं अनिवार्य रूप से एक (आशावादी) दावे का गठन करती हैं कि सच्ची अवधारणा को पहले से ही देखे गए ऋणात्मक डेटा द्वारा परिभाषित किया गया है: इस प्रकार, यदि एक उपन्यास (पहले कभी नहीं देखा गया) डेटा बिंदु देखा जाता है, तो यह माना जाना चाहिए घनात्मक रहें। (यानी, यदि डेटा को पहले खारिज नहीं किया गया है, तो इसे खारिज कर दिया गया है।)

इस प्रकार, सीखने के दौरान, संस्करण स्थान (जो स्वयं एक समुच्चय है - संभवतः अनंत - जिसमें सभी सुसंगत परिकल्पनाएं सम्मिलित हैं) को केवल इसकी निचली और ऊपरी सीमा (अधिकतम सामान्य और अधिकतम विशिष्ट परिकल्पना समुच्चय), और सीखने के संचालन द्वारा दर्शाया जा सकता है केवल इन प्रतिनिधि समुच्चयों पर ही प्रदर्शन किया जा सकता है।

सीखने के बाद, एल्गोरिथम द्वारा सीखी गई परिकल्पना का परीक्षण करके अनदेखे उदाहरणों पर वर्गीकरण किया जा सकता है। यदि उदाहरण कई परिकल्पनाओं के अनुरूप है, तो बहुमत वोट नियम लागू किया जा सकता है।[1]

ऐतिहासिक पृष्ठभूमि

संस्करण रिक्त स्थान की धारणा 1980 के दशक की प्रारम्भ में मिशेल द्वारा पेश की गई थी[2] स्टेट स्पेस सर्च के संदर्भ में पर्यवेक्षित शिक्षण की बुनियादी समस्या को समझने के लिए एक रूपरेखा के रूप में हैं। यद्यपि संस्करण स्पेस फ्रेमवर्क के साथ आने वाली मूल उम्मीदवार उन्मूलन खोज विधि एक लोकप्रिय शिक्षण एल्गोरिदम नहीं है, लेकिन कुछ व्यावहारिक कार्यान्वयन विकसित किए गए हैं (उदाहरण के लिए, स्वेर्डलिक और रेनॉल्ड्स 1992, हांग और त्सांग 1997, डुबॉइस और क्वाफाफौ 2002)।

वर्जन स्पेस लर्निंग की एक बहुत बड़ी कमी इसकी रव से निपटने में असमर्थता रही है: असंगत उदाहरणों की कोई भी जोड़ी वर्जन स्पेस को पतन कर सकती है, यानी खाली हो सकती है, जिससे वर्गीकरण असंभव हो जाता है।[1] इस समस्या का एक समाधान डुबॉइस और क्वाफाफौ द्वारा प्रस्तावित है जिन्होंने रफ वर्जन स्पेस का प्रस्ताव दिया था,[3]जहां असंगत डेटा की उपस्थिति में निश्चित और संभावित परिकल्पना को सीखने के लिए रफ समुच्चय आधारित अनुमानों का उपयोग किया जाता है।

यह भी देखें

  • औपचारिक अवधारणा विश्लेषण
  • आगमनात्मक तर्क प्रोग्रामिंग
  • रफ समुच्चय. [रफ समुच्चय] फ्रेमवर्क उस स्थिति पर केंद्रित है जहां एक शक्तिहीन फीचर समुच्चय द्वारा अस्पष्टता पेश की जाती है। अर्थात्, लक्ष्य अवधारणा का निर्णायक रूप से वर्णन नहीं किया जा सकता क्योंकि उपलब्ध सुविधा समुच्चय विभिन्न श्रेणियों से संबंधित वस्तुओं को स्पष्ट करने में विफल रहता है। संस्करण स्पेस फ्रेमवर्क ( चिरसम्मत प्रेरण) स्थिति पर केंद्रित है जहां अस्पष्टता एक शक्तिहीन डेटा समुच्चय द्वारा पेश की जाती है। अर्थात्, लक्ष्य अवधारणा का निर्णायक रूप से वर्णन नहीं किया जा सकता क्योंकि उपलब्ध डेटा विशिष्ट रूप से किसी परिकल्पना का चयन करने में विफल रहता है। स्वाभाविक रूप से, एक ही सीखने की समस्या में दोनों प्रकार की अस्पष्टता हो सकती है।]
  • विवेचनात्मक तार्किकता। [प्रेरण की सामान्य समस्या पर।]

संदर्भ

  1. 1.0 1.1 1.2 1.3 Russell, Stuart; Norvig, Peter (2003) [1995]. Artificial Intelligence: A Modern Approach (2nd ed.). Prentice Hall. pp. 683–686. ISBN 978-0137903955.
  2. 2.0 2.1 Mitchell, Tom M. (1982). "Generalization as search". Artificial Intelligence. 18 (2): 203–226. doi:10.1016/0004-3702(82)90040-6.
  3. Dubois, Vincent; Quafafou, Mohamed (2002). "Concept learning with approximation: Rough version spaces". Rough Sets and Current Trends in Computing: Proceedings of the Third International Conference, RSCTC 2002. Malvern, Pennsylvania. pp. 239–246. doi:10.1007/3-540-45813-1_31.
  • Hong, Tzung-Pai; Shian-Shyong Tsang (1997). "A generalized version space learning algorithm for noisy and uncertain data". IEEE Transactions on Knowledge and Data Engineering. 9 (2): 336–340. doi:10.1109/69.591457.
  • Mitchell, Tom M. (1997). Machine Learning. Boston: McGraw-Hill.
  • Sverdlik, W.; Reynolds, R.G. (1992). "Dynamic version spaces in machine learning". Proceedings, Fourth International Conference on Tools with Artificial Intelligence (TAI '92). Arlington, VA. pp. 308–315.