बुनियादी रैखिक बीजगणित उपप्रोग्राम

From Vigyanwiki
Revision as of 11:47, 6 July 2023 by alpha>Indicwiki (Created page with "{{Short description|Routines for performing common linear algebra operations}} {{Use dmy dates|date=March 2020|cs1-dates=y}} {{Infobox software | name = BLAS...")
(diff) ← Older revision | Latest revision (diff) | Newer revision → (diff)

BLAS
Stable release
3.8.0 / 12 November 2017; 7 years ago (2017-11-12)
Written independs on implementation
PlatformCross-platform
TypeLibrary
Websitewww.netlib.org/blas/

बेसिक लीनियर अलजेब्रा सबप्रोग्राम्स (बीएलएएस) एक विनिर्देश (तकनीकी मानक) है जो सदिश स्थल जोड़, स्केलर गुणन, डॉट उत्पाद, रैखिक संयोजन और मैट्रिक्स गुणन जैसे सामान्य रैखिक बीजगणित संचालन करने के लिए निम्न-स्तरीय दिनचर्या का एक सेट निर्धारित करता है। वे रैखिक बीजगणित पुस्तकालयों के लिए वास्तविक मानक निम्न-स्तरीय रूटीन हैं; रूटीन में C (प्रोग्रामिंग भाषा) (CBLAS इंटरफ़ेस) और फोरट्रान (BLAS इंटरफ़ेस) दोनों के लिए बाइंडिंग है। यद्यपि बीएलएएस विनिर्देश सामान्य है, बीएलएएस कार्यान्वयन अक्सर किसी विशेष मशीन पर गति के लिए अनुकूलित होते हैं, इसलिए उनका उपयोग करने से पर्याप्त प्रदर्शन लाभ मिल सकता है। BLAS कार्यान्वयन विशेष फ़्लोटिंग पॉइंट हार्डवेयर जैसे वेक्टर रजिस्टर या SIMD निर्देशों का लाभ उठाएगा।

इसकी शुरुआत 1979 में फोरट्रान लाइब्रेरी के रूप में हुई थी[1] और इसका इंटरफ़ेस BLAS टेक्निकल (BLAST) फोरम द्वारा मानकीकृत किया गया था, जिसकी नवीनतम BLAS रिपोर्ट नेटलिब वेबसाइट पर पाई जा सकती है।[2] इस फोरट्रान लाइब्रेरी को संदर्भ कार्यान्वयन (कभी-कभी भ्रमित रूप से बीएलएएस लाइब्रेरी के रूप में संदर्भित) के रूप में जाना जाता है और यह गति के लिए अनुकूलित नहीं है लेकिन सार्वजनिक डोमेन में है।[3][4] अधिकांश कंप्यूटिंग लाइब्रेरी जो रैखिक बीजगणित रूटीन की पेशकश करती हैं, सामान्य BLAS उपयोगकर्ता इंटरफ़ेस कमांड संरचनाओं के अनुरूप होती हैं, इस प्रकार उन लाइब्रेरीज़ (और संबंधित परिणाम) के लिए क्वेरीज़ अक्सर BLAS लाइब्रेरी शाखाओं के बीच पोर्टेबल होती हैं, जैसे CUDA#प्रोग्रामिंग_एबिलिटीज़ (एनवीडिया GPU, GPGPU), ROCm# rocBLAS_/_hipBLAS (amd GPU, GPGP), और OpenBLAS। यह अंतरसंचालनीयता तब कंप्यूटिंग आर्किटेक्चर के विषम कैस्केड (जैसे कि कुछ उन्नत क्लस्टरिंग कार्यान्वयन में पाए जाने वाले) के बीच कामकाजी समरूप कोड कार्यान्वयन का आधार है। सीपीयू-आधारित बीएलएएस लाइब्रेरी शाखाओं के उदाहरणों में शामिल हैं: ओपनबीएलएएस, बीएलआईएस (सॉफ्टवेयर) | बीएलआईएस (बीएलएएस-जैसे लाइब्रेरी इंस्टेंटिएशन सॉफ्टवेयर), आर्म परफॉर्मेंस लाइब्रेरीज़,[5] स्वचालित रूप से ट्यून किए गए रैखिक बीजगणित सॉफ्टवेयर, और इंटेल गणित कर्नेल लाइब्रेरी (आईएमकेएल)। एएमडी बीएलआईएस का एक कांटा रखता है जो उन्नत लघु उपकरण प्लेटफॉर्म के लिए अनुकूलित है, हालांकि यह स्पष्ट नहीं है कि एकीकृत लोकपाल संसाधन उस विशेष सॉफ्टवेयर-हार्डवेयर कार्यान्वयन में मौजूद हैं या नहीं।[6] एटलस एक पोर्टेबल लाइब्रेरी है जो स्वचालित रूप से एक मनमानी वास्तुकला के लिए खुद को अनुकूलित करती है। iMKL एक फ्रीवेयर है[7] और मालिकाना[8] इंटेल प्रोसेसर पर प्रदर्शन पर जोर देने के साथ विक्रेता लाइब्रेरी को x86 और x86-64 के लिए अनुकूलित किया गया है।[9] ओपनबीएलएएस एक ओपन-सोर्स लाइब्रेरी है जिसे कई लोकप्रिय आर्किटेक्चर के लिए हाथ से अनुकूलित किया गया है। लिनपैक बेंचमार्क काफी हद तक बीएलएएस रूटीन पर निर्भर करते हैं gemm इसके प्रदर्शन माप के लिए.

कई संख्यात्मक सॉफ़्टवेयर एप्लिकेशन रैखिक बीजगणित गणना करने के लिए BLAS-संगत लाइब्रेरी का उपयोग करते हैं, जिनमें LAPACK, LINPACK, Armadilla (C++ लाइब्रेरी), GNU ऑक्टेव, मेथेमेटिका, शामिल हैं।[10] मतलब,[11] Numpy,[12] आर (प्रोग्रामिंग भाषा), जूलिया (प्रोग्रामिंग भाषा) और लिस्प-स्टेट।

पृष्ठभूमि

संख्यात्मक प्रोग्रामिंग के आगमन के साथ, परिष्कृत सबरूटीन लाइब्रेरी उपयोगी हो गईं। इन पुस्तकालयों में सामान्य उच्च-स्तरीय गणितीय संचालन जैसे रूट खोज, मैट्रिक्स उलटा और समीकरणों की प्रणाली को हल करने के लिए सबरूटीन शामिल होंगे। पसंद की भाषा फोरट्रान थी। सबसे प्रमुख संख्यात्मक प्रोग्रामिंग लाइब्रेरी आईबीएम का वैज्ञानिक सबरूटीन पैकेज (एसएसपी) थी।[13] इन सबरूटीन लाइब्रेरीज़ ने प्रोग्रामर्स को अपनी विशिष्ट समस्याओं पर ध्यान केंद्रित करने और प्रसिद्ध एल्गोरिदम को फिर से लागू करने से बचने की अनुमति दी। पुस्तकालय की दिनचर्या भी औसत कार्यान्वयन से बेहतर होगी; उदाहरण के लिए, मैट्रिक्स एल्गोरिदम, बेहतर संख्यात्मक सटीकता प्राप्त करने के लिए पूर्ण पिवोटिंग का उपयोग कर सकता है। पुस्तकालय की दिनचर्या में भी अधिक कुशल दिनचर्या होगी। उदाहरण के लिए, किसी लाइब्रेरी में ऊपरी त्रिकोणीय मैट्रिक्स को हल करने के लिए एक प्रोग्राम शामिल हो सकता है। पुस्तकालयों में कुछ एल्गोरिदम के एकल-सटीक और दोहरे-सटीक संस्करण शामिल होंगे।

प्रारंभ में, इन सबरूटीन्स ने अपने निम्न-स्तरीय संचालन के लिए हार्ड-कोडेड लूप का उपयोग किया। उदाहरण के लिए, यदि किसी सबरूटीन को मैट्रिक्स गुणन करने की आवश्यकता होती है, तो सबरूटीन में तीन नेस्टेड लूप होंगे। रैखिक बीजगणित कार्यक्रमों में कई सामान्य निम्न-स्तरीय ऑपरेशन (तथाकथित कर्नेल ऑपरेशन, कर्नेल (ऑपरेटिंग सिस्टम) से संबंधित नहीं) होते हैं।[14] 1973 और 1977 के बीच, इनमें से कई कर्नेल ऑपरेशनों की पहचान की गई।[15] ये कर्नेल ऑपरेशन परिभाषित सबरूटीन बन गए जिन्हें गणित पुस्तकालय कॉल कर सकते थे। हार्ड-कोडेड लूप की तुलना में कर्नेल कॉल के फायदे थे: लाइब्रेरी रूटीन अधिक पठनीय होगी, बग की संभावना कम थी, और कर्नेल कार्यान्वयन को गति के लिए अनुकूलित किया जा सकता था। स्केलर (गणित) और वेक्टर रिक्त स्थान का उपयोग करके इन कर्नेल संचालन के लिए एक विनिर्देश, लेवल -1 बेसिक लीनियर अलजेब्रा सबरूटीन्स (बीएलएएस), 1979 में प्रकाशित किया गया था।[16] BLAS का उपयोग रैखिक बीजगणित सबरूटीन लाइब्रेरी LINPACK को लागू करने के लिए किया गया था।

बीएलएएस एब्स्ट्रैक्शन उच्च प्रदर्शन के लिए अनुकूलन की अनुमति देता है। उदाहरण के लिए, LINPACK एक सामान्य प्रयोजन पुस्तकालय है जिसका उपयोग बिना किसी संशोधन के कई अलग-अलग मशीनों पर किया जा सकता है। लिनपैक BLAS के सामान्य संस्करण का उपयोग कर सकता है। प्रदर्शन हासिल करने के लिए, विभिन्न मशीनें बीएलएएस के अनुरूप संस्करणों का उपयोग कर सकती हैं। जैसे-जैसे कंप्यूटर आर्किटेक्चर अधिक परिष्कृत होता गया, वेक्टर प्रोसेसर सामने आया। एक वेक्टर मशीन के लिए BLAS मशीन के तेज़ वेक्टर संचालन का उपयोग कर सकता है। (हालांकि वेक्टर प्रोसेसर अंततः पसंद से बाहर हो गए, आधुनिक सीपीयू में वेक्टर निर्देश बीएलएएस रूटीन में इष्टतम प्रदर्शन के लिए आवश्यक हैं।)

अन्य मशीन सुविधाएँ उपलब्ध हो गईं और उनका उपयोग भी किया जा सकता है। नतीजतन, बीएलएएस को 1984 से 1986 तक लेवल-2 कर्नेल ऑपरेशंस के साथ संवर्धित किया गया था जो कि वेक्टर-मैट्रिक्स ऑपरेशंस से संबंधित था। स्मृति पदानुक्रम को शोषण करने योग्य चीज़ के रूप में भी मान्यता दी गई थी। कई कंप्यूटरों में कैश मैमोरी होती है जो मुख्य मेमोरी से बहुत तेज़ होती है; मैट्रिक्स जोड़तोड़ को स्थानीयकृत रखने से कैश के बेहतर उपयोग की अनुमति मिलती है। 1987 और 1988 में, मैट्रिक्स-मैट्रिक्स संचालन करने के लिए स्तर 3 बीएलएएस की पहचान की गई थी। स्तर 3 बीएलएएस ने ब्लॉक-विभाजित एल्गोरिदम को प्रोत्साहित किया। LAPACK लाइब्रेरी लेवल 3 BLAS का उपयोग करती है।[17]

मूल बीएलएएस केवल सघन रूप से संग्रहीत वैक्टर और मैट्रिक्स से संबंधित है। बीएलएएस के आगे के विस्तार, जैसे विरल मैट्रिक्स के लिए, पर ध्यान दिया गया है।[18]

कार्यक्षमता

बीएलएएस कार्यक्षमता को रूटीन के तीन सेटों में वर्गीकृत किया गया है जिन्हें स्तर कहा जाता है, जो परिभाषा और प्रकाशन के कालानुक्रमिक क्रम के साथ-साथ एल्गोरिदम की जटिलताओं में बहुपद की डिग्री दोनों के अनुरूप है; स्तर 1 बीएलएएस संचालन में आम तौर पर रैखिक समय लगता है, O(n), स्तर 2 संचालन द्विघात समय और स्तर 3 संचालन घन समय।[19] आधुनिक बीएलएएस कार्यान्वयन आम तौर पर सभी तीन स्तर प्रदान करते हैं।

स्तर 1

इस स्तर में बीएलएएस (1979) की मूल प्रस्तुति में वर्णित सभी दिनचर्या शामिल हैं।[1]जो किसी सरणी के स्ट्राइड पर केवल वेक्टर संचालन को परिभाषित करता है: डॉट उत्पाद, मानक (गणित), फॉर्म का एक सामान्यीकृत वेक्टर जोड़

(बुलायाaxpy, ए एक्स प्लस वाई ) और कई अन्य ऑपरेशन।

स्तर 2

इस स्तर में मैट्रिक्स-वेक्टर ऑपरेशन शामिल हैं, जिसमें अन्य चीजों के अलावा, एक सामान्यीकृत मैट्रिक्स-वेक्टर गुणन शामिल है (gemv):

साथ ही इसके लिए एक सॉल्वर भी xरेखीय समीकरण में

साथ Tत्रिकोणीय होना. लेवल 2 बीएलएएस का डिज़ाइन 1984 में शुरू हुआ, जिसके परिणाम 1988 में प्रकाशित हुए।[20]लेवल 2 सबरूटीन्स का उद्देश्य विशेष रूप से वेक्टर प्रोसेसर पर बीएलएएस का उपयोग करके कार्यक्रमों के प्रदर्शन में सुधार करना है, जहां लेवल 1 बीएलएएस उप-इष्टतम हैं क्योंकि वे कंपाइलर से संचालन की मैट्रिक्स-वेक्टर प्रकृति को छिपाते हैं।[20]


स्तर 3

यह स्तर, औपचारिक रूप से 1990 में प्रकाशित हुआ,[19] इसमें मैट्रिक्स-मैट्रिक्स ऑपरेशन शामिल हैं, जिसमें सामान्य मैट्रिक्स गुणन शामिल है (gemm), फॉर्म का

कहाँ A और B को वैकल्पिक रूप से खिसकाना किया जा सकता है या हर्मिटियन संयुग्मित किया जा सकता है|रूटीन के अंदर हर्मिटियन-संयुग्मित किया जा सकता है, और तीनों मैट्रिक्स को स्ट्राइड किया जा सकता है। साधारण मैट्रिक्स गुणन A Bसेटिंग द्वारा किया जा सकता है α एक को और C उचित आकार के एक पूर्ण-शून्य मैट्रिक्स के लिए।

लेवल 3 में कंप्यूटिंग के लिए रूटीन भी शामिल हैं

कहाँ {{math|T}अन्य कार्यक्षमताओं के साथ-साथ } एक त्रिकोणीय मैट्रिक्स है।

कई वैज्ञानिक अनुप्रयोगों में मैट्रिक्स गुणन की सर्वव्यापकता के कारण, जिसमें शेष स्तर 3 बीएलएएस का कार्यान्वयन भी शामिल है,[21]और क्योंकि मैट्रिक्स-वेक्टर गुणन की स्पष्ट पुनरावृत्ति से परे तेज़ एल्गोरिदम मौजूद हैं, gemm बीएलएएस कार्यान्वयनकर्ताओं के लिए अनुकूलन का एक प्रमुख लक्ष्य है। उदाहरण के लिए, एक या दोनों को विघटित करके A, B ब्लॉक मैट्रिक्स में, gemm मैट्रिक्स गुणन एल्गोरिथम#फूट डालो और जीतो एल्गोरिथम हो सकता है। यह शामिल करने के लिए प्रेरणाओं में से एक है β पैरामीटर,[dubious ] ताकि पिछले ब्लॉकों के परिणाम जमा किये जा सकें। ध्यान दें कि इस अपघटन के लिए विशेष मामले की आवश्यकता होती है β = 1 जिसके लिए कई कार्यान्वयन अनुकूलित होते हैं, जिससे प्रत्येक मान के लिए एक गुणन समाप्त हो जाता है C. यह अपघटन उत्पाद में उपयोग किए गए डेटा के स्थान और समय दोनों में संदर्भ के बेहतर स्थानीयकरण की अनुमति देता है। यह, बदले में, सिस्टम पर सीपीयू कैश का लाभ उठाता है।[22] एक से अधिक स्तर के कैश वाले सिस्टम के लिए, ब्लॉकिंग को उस क्रम में दूसरी बार लागू किया जा सकता है जिसमें गणना में ब्लॉक का उपयोग किया जाता है। अनुकूलन के इन दोनों स्तरों का उपयोग स्वचालित रूप से ट्यून किए गए रैखिक बीजगणित सॉफ़्टवेयर जैसे कार्यान्वयन में किया जाता है। अभी हाल ही में, हर एक परत के कार्यान्वयन से पता चला है कि केवल एल2 कैश के लिए ब्लॉक करना, अनुवाद लुकसाइड बफर मिस को कम करने के लिए सन्निहित मेमोरी में कॉपी करने के सावधानीपूर्वक परिशोधित विश्लेषण के साथ, स्वचालित रूप से ट्यून किए गए रैखिक बीजगणित सॉफ्टवेयर से बेहतर है।[23]इन विचारों पर आधारित एक उच्च सुव्यवस्थित कार्यान्वयन गोटोब्लास, ओपनब्लास और बीएलआईएस (सॉफ्टवेयर) का हिस्सा है।

का एक सामान्य रूपांतर gemm है gemm3m, जो पारंपरिक चार वास्तविक मैट्रिक्स गुणन और दो वास्तविक मैट्रिक्स जोड़ के बजाय तीन वास्तविक मैट्रिक्स गुणन और पांच वास्तविक मैट्रिक्स जोड़ का उपयोग करके एक जटिल उत्पाद की गणना करता है, यह सड़क एल्गोरिदम के समान एक एल्गोरिदम है जिसे पहले पीटर अनगर द्वारा वर्णित किया गया था।[24]


कार्यान्वयन

गति बढ़ाएं
macOS और IOS (Apple) के लिए Apple Inc. का ढांचा, जिसमें BLAS और LAPACK के ट्यून किए गए संस्करण शामिल हैं।[25][26]
शाखा प्रदर्शन पुस्तकालय
आर्म परफॉर्मेंस लाइब्रेरीज़, आर्म 64-बिट AArch64-आधारित प्रोसेसर का समर्थन करती है, जो आर्म लिमिटेड से उपलब्ध है।[5]; एटलस: स्वचालित रूप से ट्यून किए गए रैखिक बीजगणित सॉफ्टवेयर, सी (प्रोग्रामिंग भाषा) और फोरट्रान के लिए बीएलएएस अप्लिकेशन प्रोग्रामिंग अंतरफलक का एक खुला स्रोत सॉफ्टवेयर कार्यान्वयन।[27]
बीएलआईएस (सॉफ्टवेयर)
तीव्र इंस्टेंटिएशन के लिए बीएलएएस जैसा लाइब्रेरी इंस्टेंटिएशन सॉफ्टवेयर ढांचा। अधिकांश आधुनिक सीपीयू के लिए अनुकूलित। BLIS, GotoBLAS का पूर्ण रीफैक्टरिंग है जो किसी दिए गए प्लेटफ़ॉर्म के लिए लिखे जाने वाले कोड की मात्रा को कम करता है।[28][29]
C++ AMP BLAS
C++ AMP BLAS लाइब्रेरी विज़ुअल C++ के लिए Microsoft के AMP भाषा एक्सटेंशन के लिए BLAS का एक ओपन-सोर्स सॉफ़्टवेयर कार्यान्वयन है।[30]
cuBLAS
NVIDIA आधारित GPU कार्ड के लिए अनुकूलित BLAS, कुछ अतिरिक्त लाइब्रेरी कॉल की आवश्यकता होती है।[31]
एनवीबीएलएएस
एनवीडिया आधारित जीपीयू कार्ड के लिए अनुकूलित बीएलएएस, केवल लेवल 3 फ़ंक्शन प्रदान करता है, लेकिन अन्य बीएलएएस पुस्तकालयों के लिए सीधे ड्रॉप-इन प्रतिस्थापन के रूप में।[32]
सीएलबीएलएएस
एएमडी द्वारा बीएलएएस का एक ओपनसीएल कार्यान्वयन। एएमडी कंप्यूट लाइब्रेरीज़ का हिस्सा।[33]
clBLAST
अधिकांश BLAS एपीआई का एक ट्यून किया गया OpenCL कार्यान्वयन।[34]
Eigen BLAS
एक फोरट्रान और C (प्रोग्रामिंग भाषा) BLAS लाइब्रेरी, मोज़िला लाइसेंस-लाइसेंस प्राप्त Eigen (C++ लाइब्रेरी) के शीर्ष पर कार्यान्वित की गई है, जो x86, x86-64, ARM एआरएम वास्तुकला|ARM (NEON), और PowerPC आर्किटेक्चर का समर्थन करती है।
ईएसएसएल
आईबीएम की इंजीनियरिंग और वैज्ञानिक सबरूटीन लाइब्रेरी, AIX ऑपरेटिंग सिस्टम और लिनक्स के तहत पावरपीसी आर्किटेक्चर का समर्थन करती है। [35]
गोटोब्लास
काज़ुशिगे गोटो का बीएलएएस का बीएसडी-लाइसेंस प्राप्त कार्यान्वयन, विशेष रूप से इंटेल नेहलेम (माइक्रोआर्किटेक्चर)/इंटेल एटम, वीआईए टेक्नोलॉजीज वीआईए नैनो, एएमडी ओपर्टन के लिए ट्यून किया गया है।[36];जीएनयू वैज्ञानिक पुस्तकालय: कई संख्यात्मक दिनचर्या का बहु-मंच कार्यान्वयन। इसमें CBLAS इंटरफ़ेस शामिल है।
एचपी एमएलआईबी
हेवलेट पैकर्ड की गणित लाइब्रेरी एचपी-यूएक्स और लिनक्स के तहत आईए-64, पीए-जोखिम, एक्स86 और ओपर्टन आर्किटेक्चर का समर्थन करती है।
इंटेल एमकेएल
इंटेल गणित कर्नेल लाइब्रेरी, x86 32-बिट्स और 64-बिट्स का समर्थन करती है, जो इंटेल से निःशुल्क उपलब्ध है।[7]इंटेल पेंटियम (ब्रांड), इण्टेल कोर और इंटेल ज़ीऑन सीपीयू और इंटेल ज़ीऑन फाई के लिए अनुकूलन शामिल हैं; Linux, Microsoft Windows और macOS के लिए समर्थन।[37]
MathKeisan
NEC Corporation की गणित लाइब्रेरी, SUPER-UX के अंतर्गत NEC SX आर्किटेक्चर और Linux के अंतर्गत इटेनियम का समर्थन करती है[38]
नेटलिब बीएलएएस
फोरट्रान में लिखा गया नेटलिब पर आधिकारिक संदर्भ कार्यान्वयन।[39]
नेटलिब सीबीएलएएस
बीएलएएस के लिए संदर्भ सी (प्रोग्रामिंग भाषा) इंटरफ़ेस। सी से फोरट्रान बीएलएएस को कॉल करना भी संभव (और लोकप्रिय) है।[40]
OpenBLAS
GotoBLAS पर आधारित अनुकूलित BLAS, x86, x86-64, MIPS आर्किटेक्चर और ARM आर्किटेक्चर प्रोसेसर का समर्थन करता है।[41]
पीडीएलआईबी/एसएक्स
एनईसी एनईसी एसएक्स आर्किटेक्चर|एसएक्स-4 प्रणाली के लिए एनईसी कॉर्पोरेशन की सार्वजनिक डोमेन गणितीय लाइब्रेरी।[42]
rocBLAS
कार्यान्वयन जो ROCm के माध्यम से AMD GPU पर चलता है।[43]
एससीएसएल
सिलिकॉन ग्राफ़िक्स की वैज्ञानिक कंप्यूटिंग सॉफ्टवेयर लाइब्रेरी में एसजीआई के इरिक्स वर्कस्टेशन के लिए बीएलएएस और लैपैक कार्यान्वयन शामिल हैं।[44]
सन परफॉर्मेंस लाइब्रेरी
सोलारिस 8, 9 और 10 के साथ-साथ लिनक्स के तहत SPARC, इंटेल कोर और AMD64 आर्किटेक्चर के लिए अनुकूलित BLAS और LAPACK।[45]
यूबीएलएएस
एक सामान्य सी++ टेम्पलेट क्लास लाइब्रेरी जो बीएलएएस कार्यक्षमता प्रदान करती है। लाइब्रेरी को बूस्ट करें का हिस्सा. यह एक एकीकृत नोटेशन में कई हार्डवेयर-त्वरित पुस्तकालयों को बाइंडिंग प्रदान करता है। इसके अलावा, uBLAS उन्नत C++ सुविधाओं का उपयोग करके एल्गोरिदम की शुद्धता पर ध्यान केंद्रित करता है।[46]


बीएलएएस का उपयोग करने वाली लाइब्रेरी

आर्माडिलो
आर्माडिलो (सी++ लाइब्रेरी) एक सी++ रैखिक बीजगणित लाइब्रेरी है जिसका लक्ष्य गति और उपयोग में आसानी के बीच एक अच्छा संतुलन बनाना है। यह टेम्प्लेट कक्षाओं को नियोजित करता है, और इसमें BLAS/ATLAS और LAPACK के लिए वैकल्पिक लिंक हैं। यह NICTA (ऑस्ट्रेलिया में) द्वारा प्रायोजित है और इसे निःशुल्क लाइसेंस के तहत लाइसेंस प्राप्त है।[47]
LAPACK
LAPACK BLAS पर निर्मित एक उच्च स्तरीय रैखिक बीजगणित पुस्तकालय है। बीएलएएस की तरह, एक संदर्भ कार्यान्वयन मौजूद है, लेकिन लिबफ्लेम और एमकेएल जैसे कई विकल्प मौजूद हैं।
मीर
डी (प्रोग्रामिंग भाषा) में लिखित विज्ञान और मशीन सीखने के लिए एक एलएलवीएम-त्वरित सामान्य संख्यात्मक पुस्तकालय। यह सामान्य रैखिक बीजगणित उपप्रोग्राम (GLAS) प्रदान करता है। इसे CBLAS कार्यान्वयन पर बनाया जा सकता है।[48]


समान पुस्तकालय (बीएलएएस के साथ संगत नहीं)

एलिमेंटल
एलिमेंटल वितरित मेमोरी | वितरित-मेमोरी सघन और विरल-प्रत्यक्ष रैखिक बीजगणित और अनुकूलन के लिए एक खुला स्रोत सॉफ्टवेयर है।[49]
HASEM
एक C++ टेम्प्लेट लाइब्रेरी है, जो रैखिक समीकरणों को हल करने और eigenvalues ​​​​की गणना करने में सक्षम है। इसे बीएसडी लाइसेंस के तहत लाइसेंस प्राप्त है।[50]
लामा
त्वरित गणित अनुप्रयोगों के लिए लाइब्रेरी (त्वरित गणित अनुप्रयोगों के लिए लाइब्रेरी) वितरित मेमोरी सिस्टम पर विभिन्न प्रकार के हार्डवेयर (जैसे सीयूडीए या ओपनसीएल के माध्यम से जीपीयू) को लक्षित करने वाले संख्यात्मक सॉल्वर लिखने के लिए एक सी ++ टेम्पलेट लाइब्रेरी है, जो प्रोग्राम से हार्डवेयर विशिष्ट प्रोग्रामिंग को छिपाती है। डेवलपर
एमटीएल4
मैट्रिक्स टेम्पलेट लाइब्रेरी संस्करण 4 एक सामान्य सी++ टेम्प्लेट लाइब्रेरी है जो विरल और सघन बीएलएएस कार्यक्षमता प्रदान करती है। MTL4 सामान्य प्रोग्रामिंग की बदौलत एक सहज इंटरफ़ेस (MATLAB के समान) और व्यापक प्रयोज्यता स्थापित करता है।

विरल BLAS

लाइब्रेरी के इतिहास के दौरान स्पार्स मैट्रिक्स को संभालने के लिए बीएलएएस के कई एक्सटेंशन सुझाए गए हैं; विरल मैट्रिक्स कर्नेल रूटीन का एक छोटा सेट अंततः 2002 में मानकीकृत किया गया था।[51]


बैच किए गए BLAS

पारंपरिक बीएलएएस फ़ंक्शंस को ऐसे आर्किटेक्चर में भी पोर्ट किया गया है जो जीपीयू जैसे बड़ी मात्रा में समानता का समर्थन करते हैं। यहां, पारंपरिक बीएलएएस फ़ंक्शन बड़े मैट्रिक्स के लिए आम तौर पर अच्छा प्रदर्शन प्रदान करते हैं। हालाँकि, जब GEMM रूटीन का उपयोग करके कई छोटे मैट्रिक्स के मैट्रिक्स-मैट्रिक्स-उत्पादों की गणना की जाती है, तो वे आर्किटेक्चर महत्वपूर्ण प्रदर्शन हानि दिखाते हैं। इस समस्या के समाधान के लिए, 2017 में BLAS फ़ंक्शन का एक बैच संस्करण निर्दिष्ट किया गया है।[52] एक उदाहरण के रूप में ऊपर से GEMM रूटीन लेते हुए, बैच संस्करण कई मैट्रिक्स के लिए एक साथ निम्नलिखित गणना करता है:

अनुक्रमणिका वर्गाकार कोष्ठकों में इंगित करता है कि ऑपरेशन सभी आव्यूहों के लिए किया गया है एक ढेर में. अक्सर, यह ऑपरेशन एक स्ट्राइड बैच्ड मेमोरी लेआउट के लिए कार्यान्वित किया जाता है जहां सभी मैट्रिक्स सरणी में संयोजित होते हैं , और .

बैचेड BLAS फ़ंक्शंस एक बहुमुखी उपकरण हो सकते हैं और उदाहरण के लिए अनुमति दे सकते हैं। घातीय इंटीग्रेटर्स और मैग्नस इंटीग्रेटर्स का तेजी से कार्यान्वयन जो कई समय चरणों के साथ लंबी एकीकरण अवधि को संभालते हैं।[53] यहां, मैट्रिक्स घातांक, एकीकरण का कम्प्यूटेशनल रूप से महंगा हिस्सा, बैचेड बीएलएएस फ़ंक्शंस का उपयोग करके सभी समय-चरणों के लिए समानांतर में कार्यान्वित किया जा सकता है।

यह भी देखें

संदर्भ

  1. 1.0 1.1 *Lawson, C. L.; Hanson, R. J.; Kincaid, D.; Krogh, F. T. (1979). "Basic Linear Algebra Subprograms for FORTRAN usage". ACM Trans. Math. Softw. 5 (3): 308–323. doi:10.1145/355841.355847. hdl:2060/19780018835. S2CID 6585321. Algorithm 539.
  2. "बीएलएएस तकनीकी फोरम". netlib.org. Retrieved 2017-07-07.
  3. blaseman Archived 2016-10-12 at the Wayback Machine "The products are the implementations of the public domain BLAS (Basic Linear Algebra Subprograms) and LAPACK (Linear Algebra PACKage), which have been developed by groups of people such as Prof. Jack Dongarra, University of Tennessee, USA and all published on the WWW (URL: http://www.netlib.org/)."[permanent dead link]
  4. Jack Dongarra; Gene Golub; Eric Grosse; Cleve Moler; Keith Moore. "Netlib and NA-Net: building a scientific computing community" (PDF). netlib.org. Retrieved 2016-02-13. The Netlib software repository was created in 1984 to facilitate quick distribution of public domain software routines for use in scientific computation.
  5. 5.0 5.1 "शाखा प्रदर्शन पुस्तकालय". Arm. 2020. Retrieved 2020-12-16.
  6. "BLAS Library".
  7. 7.0 7.1 "इंटेल मैथ कर्नेल लाइब्रेरी (एमकेएल) के लिए कोई लागत विकल्प नहीं, स्वयं का समर्थन करें, रॉयल्टी-मुक्त". Intel. 2015. Retrieved 2015-08-31.
  8. "इंटेल गणित कर्नेल लाइब्रेरी (इंटेल एमकेएल)". Intel. 2015. Retrieved 2015-08-25.
  9. "अनुकूलन सूचना". Intel. 2012. Retrieved 2013-04-10.
  10. Douglas Quinney (2003). "So what's new in Mathematica 5.0?" (PDF). MSOR Connections. The Higher Education Academy. 3 (4). Archived from the original (PDF) on 2013-10-29.
  11. Cleve Moler (2000). "मैटलैब में लैपैक शामिल है". MathWorks. Retrieved 2013-10-26.
  12. Stéfan van der Walt; S. Chris Colbert & Gaël Varoquaux (2011). "The NumPy array: a structure for efficient numerical computation". Computing in Science and Engineering. 13 (2): 22–30. arXiv:1102.1523. Bibcode:2011CSE....13b..22V. doi:10.1109/MCSE.2011.37. S2CID 16907816.
  13. Boisvert, Ronald F. (2000). "Mathematical software: past, present, and future". Mathematics and Computers in Simulation. 54 (4–5): 227–241. arXiv:cs/0004004. Bibcode:2000cs........4004B. doi:10.1016/S0378-4754(00)00185-3. S2CID 15157725.
  14. Even the SSP (which appeared around 1966) had some basic routines such as RADD (add rows), CADD (add columns), SRMA (scale row and add to another row), and RINT (row interchange). These routines apparently were not used as kernel operations to implement other routines such as matrix inversion. See IBM (1970), System/360 Scientific Subroutine Package, Version III, Programmer's Manual (5th ed.), International Business Machines, GH20-0205-4.
  15. BLAST Forum 2001, p. 1.
  16. Lawson et al. 1979.
  17. BLAST Forum 2001, pp. 1–2.
  18. BLAST Forum 2001, p. 2.
  19. 19.0 19.1 Dongarra, Jack J.; Du Croz, Jeremy; Hammarling, Sven; Duff, Iain S. (1990). "A set of level 3 basic linear algebra subprograms". ACM Transactions on Mathematical Software. 16 (1): 1–17. doi:10.1145/77626.79170. ISSN 0098-3500. S2CID 52873593.
  20. 20.0 20.1 Dongarra, Jack J.; Du Croz, Jeremy; Hammarling, Sven; Hanson, Richard J. (1988). "फोरट्रान बेसिक लीनियर अलजेब्रा सबप्रोग्राम्स का एक विस्तारित सेट". ACM Trans. Math. Softw. 14: 1–17. CiteSeerX 10.1.1.17.5421. doi:10.1145/42288.42291. S2CID 3579623.
  21. Goto, Kazushige; van de Geijn, Robert A. (2008). "High-performance implementation of the level-3 BLAS" (PDF). ACM Transactions on Mathematical Software. 35 (1): 1–14. doi:10.1145/1377603.1377607. S2CID 14722514.
  22. Golub, Gene H.; Van Loan, Charles F. (1996), Matrix Computations (3rd ed.), Johns Hopkins, ISBN 978-0-8018-5414-9
  23. Goto, Kazushige; van de Geijn, Robert A. (2008). "Anatomy of High-Performance Matrix Multiplication". ACM Transactions on Mathematical Software. 34 (3): 12:1–12:25. CiteSeerX 10.1.1.111.3873. doi:10.1145/1356052.1356053. ISSN 0098-3500. S2CID 9359223. (25 pages) [1]
  24. Van Zee, Field G.; Smith, Tyler M. (2017-07-24). "Implementing High-performance Complex Matrix Multiplication via the 3m and 4m Methods". ACM Transactions on Mathematical Software. 44 (1): 1–36. doi:10.1145/3086466. S2CID 25580883.
  25. "मार्गदर्शिकाएँ और नमूना कोड". developer.apple.com. Retrieved 2017-07-07.
  26. "मार्गदर्शिकाएँ और नमूना कोड". developer.apple.com. Retrieved 2017-07-07.
  27. "स्वचालित रूप से ट्यून किए गए रैखिक बीजगणित सॉफ्टवेयर (एटीएलएएस)". math-atlas.sourceforge.net. Retrieved 2017-07-07.
  28. blis: BLAS-like Library Instantiation Software Framework, flame, 2017-06-30, retrieved 2017-07-07
  29. BLIS GitHub Repository, 2021-10-15
  30. "सी++ एएमपी ब्लास लाइब्रेरी". CodePlex (in English). Retrieved 2017-07-07.
  31. "क्यूब्लास". NVIDIA Developer (in English). 2013-07-29. Retrieved 2017-07-07.
  32. "एनवीबीएलएएस". NVIDIA Developer (in English). 2018-05-15. Retrieved 2018-05-15.
  33. clBLAS: a software library containing BLAS functions written in OpenCL, clMathLibraries, 2017-07-03, retrieved 2017-07-07
  34. Nugteren, Cedric (2017-07-05), CLBlast: Tuned OpenCL BLAS, retrieved 2017-07-07
  35. IBM Knowledge Centre: Engineering and Scientific Subroutine Library
  36. Milfeld, Kent. "GotoBLAS2". Texas Advanced Computing Center. Archived from the original on 2020-03-23. Retrieved 2013-08-28.
  37. "Intel Math Kernel Library (Intel MKL) | Intel Software". software.intel.com (in English). Retrieved 2017-07-07.
  38. Mathkeisan, NEC. "उन्होंने सीखा". www.mathkeisan.com (in English). Retrieved 2017-07-07.
  39. "बीएलएएस (बुनियादी रैखिक बीजगणित उपप्रोग्राम)". www.netlib.org. Retrieved 2017-07-07.
  40. "बीएलएएस (बुनियादी रैखिक बीजगणित उपप्रोग्राम)". www.netlib.org. Retrieved 2017-07-07.
  41. "OpenBLAS : An optimized BLAS library". www.openblas.net. Retrieved 2017-07-07.
  42. "PDLIB/SX: Business Solution | NEC". Archived from the original on 2007-02-22. Retrieved 2007-05-20.
  43. "रॉकब्लास". rocmdocs.amd.com. Retrieved 2021-05-21.
  44. "SGI - SCSL Scientific Library: Home Page". Archived from the original on 2007-05-13. Retrieved 2007-05-20.
  45. "ओरेकल डेवलपर स्टूडियो". www.oracle.com. Retrieved 2017-07-07.
  46. "Boost Basic Linear Algebra - 1.60.0". www.boost.org. Retrieved 2017-07-07.
  47. "Armadillo: C++ linear algebra library". arma.sourceforge.net. Retrieved 2017-07-07.
  48. "डेलांग न्यूमेरिकल और सिस्टम लाइब्रेरीज़". GitHub.
  49. "Elemental: distributed-memory dense and sparse-direct linear algebra and optimization — Elemental". libelemental.org. Retrieved 2017-07-07.
  50. "बेसम". SourceForge (in English). 2015-08-17. Retrieved 2017-07-07.
  51. Duff, Iain S.; Heroux, Michael A.; Pozo, Roldan (2002). "An Overview of the Sparse Basic Linear Algebra Subprograms: The New Standard from the BLAS Technical Forum". ACM Transactions on Mathematical Software. 28 (2): 239–267. doi:10.1145/567806.567810. S2CID 9411006.
  52. Dongarra, Jack; Hammarling, Sven; Higham, Nicholas J.; Relton, Samuel D.; Valero-Lara, Pedro; Zounon, Mawussi (2017). "आधुनिक उच्च-प्रदर्शन कंप्यूटिंग सिस्टम पर बैचेड बीएलएएस का डिजाइन और प्रदर्शन". Procedia Computer Science. 108: 495–504. doi:10.1016/j.procs.2017.05.138.
  53. Herb, Konstantin; Welter, Pol (2022). "बैचेड बीएलएएस (बेसिक लीनियर अलजेब्रा सबप्रोग्राम्स) रूटीन का उपयोग करके समानांतर समय एकीकरण". Computer Physics Communications. 270: 108181. arXiv:2108.07126. doi:10.1016/j.cpc.2021.108181. S2CID 237091802.


अग्रिम पठन

  • BLAST Forum (2001-08-21), Basic Linear Algebra Subprograms Technical (BLAST) Forum Standard, Knoxville, TN: University of Tennessee
  • Dodson, D. S.; Grimes, R. G. (1982), "Remark on algorithm 539: Basic Linear Algebra Subprograms for Fortran usage", ACM Trans. Math. Softw., 8 (4): 403–404, doi:10.1145/356012.356020, S2CID 43081631
  • Dodson, D. S. (1983), "Corrigendum: Remark on "Algorithm 539: Basic Linear Algebra Subroutines for FORTRAN usage"", ACM Trans. Math. Softw., 9: 140, doi:10.1145/356022.356032, S2CID 22163977
  • J. J. Dongarra, J. Du Croz, S. Hammarling, and R. J. Hanson, Algorithm 656: An extended set of FORTRAN Basic Linear Algebra Subprograms, ACM Trans. Math. Softw., 14 (1988), pp. 18–32.
  • J. J. Dongarra, J. Du Croz, I. S. Duff, and S. Hammarling, A set of Level 3 Basic Linear Algebra Subprograms, ACM Trans. Math. Softw., 16 (1990), pp. 1–17.
  • J. J. Dongarra, J. Du Croz, I. S. Duff, and S. Hammarling, Algorithm 679: A set of Level 3 Basic Linear Algebra Subprograms, ACM Trans. Math. Softw., 16 (1990), pp. 18–28.
New BLAS
  • L. S. Blackford, J. Demmel, J. Dongarra, I. Duff, S. Hammarling, G. Henry, M. Heroux, L. Kaufman, A. Lumsdaine, A. Petitet, R. Pozo, K. Remington, R. C. Whaley, An Updated Set of Basic Linear Algebra Subprograms (BLAS), ACM Trans. Math. Softw., 28-2 (2002), pp. 135–151.
  • J. Dongarra, Basic Linear Algebra Subprograms Technical Forum Standard, International Journal of High Performance Applications and Supercomputing, 16(1) (2002), pp. 1–111, and International Journal of High Performance Applications and Supercomputing, 16(2) (2002), pp. 115–199.


बाहरी संबंध

  • BLAS homepage on Netlib.org
  • BLAS FAQ
  • BLAS Quick Reference Guide from LAPACK Users' Guide
  • Lawson Oral History One of the original authors of the BLAS discusses its creation in an oral history interview. Charles L. Lawson Oral history interview by Thomas Haigh, 6 and 7 November 2004, San Clemente, California. Society for Industrial and Applied Mathematics, Philadelphia, PA.
  • Dongarra Oral History In an oral history interview, Jack Dongarra explores the early relationship of BLAS to LINPACK, the creation of higher level BLAS versions for new architectures, and his later work on the ATLAS system to automatically optimize BLAS for particular machines. Jack Dongarra, Oral history interview by Thomas Haigh, 26 April 2005, University of Tennessee, Knoxville TN. Society for Industrial and Applied Mathematics, Philadelphia, PA
  • How does BLAS get such extreme performance? Ten naive 1000×1000 matrix multiplications (1010 floating point multiply-adds) takes 15.77 seconds on 2.6 GHz processor; BLAS implementation takes 1.32 seconds.
  • An Overview of the Sparse Basic Linear Algebra Subprograms: The New Standard from the BLAS Technical Forum [2]