लाइट जीबीएम
Original author(s) | Guolin Ke[1] / Microsoft Research |
---|---|
Developer(s) | Microsoft and LightGBM contributors[2] |
Initial release | 2016 |
Stable release | v3.3.4[3]
/ December 29, 2022 |
Repository | github |
Written in | C++, Python, R, C |
Operating system | Windows, macOS, Linux |
Type | Machine learning, gradient boosting framework |
License | MIT License |
Website | lightgbm |
लाइटजीबीएम, लाइट ग्रैडिएंट-बूस्टिंग मशीन के लिए छोटा, एक मुफ़्त और ओपन-स्रोत हैl मुफ़्त और ओपन-सोर्स वितरित ग्रेडिएंट बूस्टिंगयंत्र अधिगम के लिए ग्रेडिएंट-बूस्टिंग फ्रेमवर्क, मूल रूप से मिक्रोसॉफ़ द्वारा विकसित किया गया है।[4][5] यह निर्णय ट्री एल्गोरिदम पर आधारित है और इसका उपयोग रैंकिंग, सांख्यिकीय वर्गीकरण और अन्य मशीन लर्निंग कार्यों के लिए किया जाता है। इसके उन्नति के लिए इसके प्रदर्शन और मापनीयता पर विशेष ध्यान देना चाहिए।
सिंहावलोकन
लाइटजीबीएम फ्रेमवर्क जीबीटी, जीबीडीटी, ग्रेडिएंट-बूस्टेड रिग्रेशन ट्री, ग्रेडिएंट बूस्टिंग मशीन, एकाधिक योजक प्रतिगमन ट्री, सहित विभिन्न एल्गोरिदम का समर्थन करता है [6][7] और रैंडम वन [8] लाइट जीबीएम में एक्सजीबीओस्ट के कई फायदे हैं, जिनमें विरल अनुकूलन, समानांतर प्रशिक्षण, कई नुकसान कार्य, नियमितीकरण, बैगिंग और शीघ्र अवरोधन सम्मिलित है। ट्री के निर्माण में दोनों के बीच एक बड़ा अंतर है। लाइट जीबीएम एक ट्री स्तर-वार - पंक्ति दर पंक्ति नहीं बढ़ता है - जैसा कि अधिकांश अन्य कार्यान्वयन करते हैं।[9] इसके बजाय यह पत्तों की तरह ट्री को उगाता है। यह उस पत्ते को चुनता है जिसके बारे में उसका मानना है कि नुकसान में सबसे बड़ी कमी आएगी।[10] इसके अलावा, लाइट जीबीएम व्यापक रूप से उपयोग किए जाने वाले सॉर्टेड-आधारित निर्णय ट्री लर्निंग एल्गोरिदम का उपयोग नहीं करता है, जो सॉर्ट किए गए फीचर वैल्यू पर सबसे अच्छा विभाजन बिंदु खोजता है,[11] जैसा कि XGBoost (एक्सजीबूस्ट) या अन्य कार्यान्वयन करते हैं। इसके बजाय, लाइट जीबीएम अत्यधिक अनुकूलित हिस्टोग्राम-आधारित निर्णय ट्री लर्निंग एल्गोरिदम को लागू करता है, जो दक्षता और मेमोरी खपत दोनों पर बहुत लाभ देता है।[12] लाइटजीबीएम एल्गोरिथ्म ग्रेडिएंट-बेस्ड वन-साइड सैंपलिंग (जीओएसएस) और एक्सक्लूसिव फ़ीचर बंडलिंग (ईएफबी) नामक दो नई तकनीकों का उपयोग करता है जो उच्च स्तर की सटीकता बनाए रखते हुए एल्गोरिथ्म को तेज़ी से चलाने की अनुमति देता है।[13]
लाइटजीबीएम लिनक्स, विंडोज और मैकओएस पर काम करता है और C++, पायथन (प्रोग्रामिंग लैंग्वेज) को सपोर्ट करता है।[14] आ आर (प्रोग्रामिंग भाषा) , और सी शार्प (प्रोग्रामिंग लैंग्वेज) | C#।[15] स्रोत कोड एमआईटी लाइसेंस के तहत लाइसेंस प्राप्त है और गिटहब पर उपलब्ध है।[16]
ग्रेडिएन्ट-आधारित एक तरफा नमूनाकरण
ग्रेडिएंट-आधारित वन-साइड सैंपलिंग (जीओएसएस) एक ऐसी विधि है जो इस तथ्य का लाभ उठाती है कि जीबीडीटी में डेटा उदाहरण के लिए कोई मूल भार नहीं है। चूँकि अलग-अलग ग्रेडिएंट्स वाले डेटा इंस्टेंसेस सूचना लाभ की गणना में अलग-अलग भूमिकाएँ निभाते हैं, बड़े ग्रेडिएंट्स वाले इंस्टेंसेस सूचना लाभ में अधिक योगदान देते है। इसलिए जानकारी की सटीकता बनाए रखने के लिए, जीओएसएस बड़े ग्रेडिएंट्स के साथ इंस्टेंसेस रखता है और छोटे ग्रेडिएंट्स के साथ रैंडम रूप से इंस्टेंसेस को ड्रॉप करता है।[13]
एक्सक्लूसिव फीचर बंडलिंग
एक्सक्लूसिव फीचर बंडलिंग (ईएफबी) प्रभावी सुविधाओं की संख्या को कम करने के लिए लगभग दोषरहित तरीका है। विरल फीचर स्पेस में कई फीचर्स लगभग एक्सक्लूसिव होते हैं, जिसका अर्थ है कि वे शायद ही कभी नॉनजरो वैल्यू एक साथ लेते हैं। वन-हॉट एन्कोडेड फीचर एक्सक्लूसिव फीचर्स का एक आदर्श उदाहरण है। ईएफबी इन सुविधाओं को बंडल करता है, सटीकता के उच्च स्तर को बनाए रखते हुए दक्षता में सुधार के लिए आयाम को कम करता है। अनन्य सुविधाओं के बंडल को एकल सुविधा में एक अनन्य सुविधा बंडल कहा जाता है। [13]
यह भी देखें
- यंत्र अधिगम
- एमएल.नेट
- डेटा बिनिंग
- ग्रेडिएंट बूस्टिंग
- एक्सजीबूस्ट
- कैटबूस्ट
- स्किकिट-सीखें
संदर्भ
- ↑ "Guolin Ke". GitHub.
- ↑ "microsoft/LightGBM". GitHub. 7 July 2022.
- ↑ "Releases · microsoft/LightGBM". GitHub.
- ↑ Brownlee, Jason (March 31, 2020). "स्किकिट-लर्न, एक्सजीबीओस्ट, लाइटजीबीएम और कैटबूस्ट के साथ ग्रेडिएंट बूस्टिंग".
- ↑ Kopitar, Leon; Kocbek, Primoz; Cilar, Leona; Sheikh, Aziz; Stiglic, Gregor (July 20, 2020). "Early detection of type 2 diabetes mellitus using machine learning-based prediction models". Scientific Reports. 10 (1): 11981. Bibcode:2020NatSR..1011981K. doi:10.1038/s41598-020-68771-z. PMC 7371679. PMID 32686721 – via www.nature.com.
- ↑ "LightGBM पैरामीटर्स को समझना (और उन्हें कैसे ट्यून करें)". neptune.ai. May 6, 2020.
- ↑ "लाइट जीबीएम का अवलोकन". avanwyk. May 16, 2018.
- ↑ "Parameters — LightGBM 3.0.0.99 documentation". lightgbm.readthedocs.io.
- ↑ The Gradient Boosters IV: LightGBM – Deep & Shallow
- ↑ XGBoost, LightGBM, and Other Kaggle Competition Favorites | by Andre Ye | Sep, 2020 | Towards Data Science
- ↑ Manish, Mehta; Rakesh, Agrawal; Jorma, Rissanen (Nov 24, 2020). "SLIQ: A fast scalable classifier for data mining". International Conference on Extending Database Technology: 18–32. CiteSeerX 10.1.1.89.7734.
- ↑ "Features — LightGBM 3.1.0.99 documentation". lightgbm.readthedocs.io.
- ↑ 13.0 13.1 13.2 Ke, Guolin; Meng, Qi; Finley, Thomas; Wang, Taifeng; Chen, Wei; Ma, Weidong; Ye, Qiwei; Liu, Tie-Yan (2017). "LightGBM: A Highly Efficient Gradient Boosting Decision Tree". Advances in Neural Information Processing Systems (in English). 30.
- ↑ "lightgbm: LightGBM Python Package". 7 July 2022 – via PyPI.
- ↑ "Microsoft.ML.Trainers.LightGbm नाम स्थान". docs.microsoft.com.
- ↑ "microsoft/LightGBM". October 6, 2020 – via GitHub.
अग्रिम पठन
- Guolin Ke; Qi Meng; Thomas Finely; Taifeng Wang; Wei Chen; Weidong Ma; Qiwei Ye; Tie-Yan Liu (2017). "LightGBM: A Highly Efficient Gradient Boosting Decision Tree" (PDF).
{{cite journal}}
: Cite journal requires|journal=
(help) - Quinto, Butch (2020). Next-Generation Machine Learning with Spark – Covers XGBoost, LightGBM, Spark NLP, Distributed Deep Learning with Keras, and More. Apress. ISBN 978-1-4842-5668-8.
- Bhave, Roshan (2021). Practical Machine Learning with LightGBM and Python: Explore Microsoft's gradient boosting framework to optimize machine learning. Packt Publishing. ISBN 978-1800564749.
बाहरी संबंध