लैंज़ोस एल्गोरिदम: Difference between revisions
No edit summary |
|||
Line 4: | Line 4: | ||
{{for|गामा फलन का सन्निकटन|लैंज़ोस सन्निकटन}} | {{for|गामा फलन का सन्निकटन|लैंज़ोस सन्निकटन}} | ||
लैंज़ोस एल्गोरिदम [[कॉर्नेलियस लैंज़ोस]] द्वारा प्रस्तुत की गई | लैंज़ोस एल्गोरिदम [[कॉर्नेलियस लैंज़ोस]] द्वारा प्रस्तुत की गई पुनरावृत्तीय विधि है जो खोजने के लिए [[शक्ति पुनरावृत्ति]] का अनुकूलन है <math>m</math> सबसे उपयोगी (अति उच्चतम/निम्नतम की ओर रुझान) आइजनवैल्यू और आइजनवेक्टर <math>n \times n</math> [[हर्मिटियन मैट्रिक्स]], जहाँ <math> m </math> अधिकांशतः होता है लेकिन आवश्यक नहीं कि उससे बहुत छोटा हो <math> n </math>.<ref>{{cite journal |last=Lanczos |first=C. |title=रैखिक अंतर और अभिन्न ऑपरेटरों की eigenvalue समस्या के समाधान के लिए एक पुनरावृत्ति विधि|journal= Journal of Research of the National Bureau of Standards|volume=45 |issue= 4|pages=255–282 |year=1950 |url=https://www.cs.umd.edu/~oleary/lanczos1950.pdf |doi=10.6028/jres.045.026 |doi-access=free }}</ref> यद्यपि सैद्धांतिक रूप से कम्प्यूटेशनल रूप से कुशल, प्रारंभिक रूप से तैयार की गई विधि अपनी [[संख्यात्मक स्थिरता]] के कारण उपयोगी नहीं थी। | ||
1970 में, ओजाल्वो और न्यूमैन ने दिखाया कि विधि को संख्यात्मक रूप से स्थिर कैसे बनाया जाए और इसे गतिशील लोडिंग के अधीन बहुत बड़ी इंजीनियरिंग संरचनाओं के समाधान में प्रयुक्त किया जाए।<ref name=":0">{{cite journal |last1=Ojalvo |first1=I. U. |last2=Newman |first2=M. |title=स्वचालित मैट्रिक्स-कमी विधि द्वारा बड़ी संरचनाओं के कंपन मोड|journal=[[AIAA Journal]] |volume=8 |issue=7 |pages=1234–1239 |year=1970 |doi=10.2514/3.5878 |bibcode=1970AIAAJ...8.1234N }}</ref> यह लैंज़ोस वैक्टर को शुद्ध करने के लिए | 1970 में, ओजाल्वो और न्यूमैन ने दिखाया कि विधि को संख्यात्मक रूप से स्थिर कैसे बनाया जाए और इसे गतिशील लोडिंग के अधीन बहुत बड़ी इंजीनियरिंग संरचनाओं के समाधान में प्रयुक्त किया जाए।<ref name=":0">{{cite journal |last1=Ojalvo |first1=I. U. |last2=Newman |first2=M. |title=स्वचालित मैट्रिक्स-कमी विधि द्वारा बड़ी संरचनाओं के कंपन मोड|journal=[[AIAA Journal]] |volume=8 |issue=7 |pages=1234–1239 |year=1970 |doi=10.2514/3.5878 |bibcode=1970AIAAJ...8.1234N }}</ref> यह लैंज़ोस वैक्टर को शुद्ध करने के लिए विधि का उपयोग करके प्राप्त किया गया था (अर्थात् प्रत्येक नए जेनरेट किए गए वेक्टर को पहले से जेनरेट किए गए सभी के साथ बार-बार पुन: व्यवस्थित करके)<ref name=":0" /> सटीकता की किसी भी डिग्री तक, जब प्रदर्शन नहीं किया गया, तो वैक्टरों की श्रृंखला उत्पन्न हुई जो सबसे कम प्राकृतिक आवृत्तियों से जुड़े वैक्टरों द्वारा अत्यधिक दूषित थीं। | ||
अपने मूल काम में, इन लेखकों ने यह भी सुझाव दिया कि प्रारंभिक वेक्टर का चयन कैसे करें (अर्थात् प्रारंभिक वेक्टर के प्रत्येक तत्व का चयन करने के लिए यादृच्छिक संख्या जेनरेटर का उपयोग करें) और निर्धारण के लिए अनुभवजन्य रूप से निर्धारित विधि का सुझाव दिया <math> m </math>, सदिशों की कम संख्या (अर्थात इसे वांछित सटीक आइजनवैल्यू की संख्या का लगभग 1.5 गुना चुना जाना चाहिए)। इसके तुरंत बाद उनके काम का अनुसरण पेगे ने किया, जिन्होंने | अपने मूल काम में, इन लेखकों ने यह भी सुझाव दिया कि प्रारंभिक वेक्टर का चयन कैसे करें (अर्थात् प्रारंभिक वेक्टर के प्रत्येक तत्व का चयन करने के लिए यादृच्छिक संख्या जेनरेटर का उपयोग करें) और निर्धारण के लिए अनुभवजन्य रूप से निर्धारित विधि का सुझाव दिया <math> m </math>, सदिशों की कम संख्या (अर्थात इसे वांछित सटीक आइजनवैल्यू की संख्या का लगभग 1.5 गुना चुना जाना चाहिए)। इसके तुरंत बाद उनके काम का अनुसरण पेगे ने किया, जिन्होंने त्रुटि विश्लेषण भी प्रदान किया।<ref>{{cite thesis |last=Paige |first=C. C. |title=बहुत बड़े विरल आव्यूहों के eigenvalues और eigenvectors की गणना|publisher=U. of London |type=Ph.D. thesis |date=1971 |oclc=654214109 }}</ref><ref>{{cite journal |last=Paige |first=C. C. |title=Eigenproblem के लिए लैंज़ोस विधि के कम्प्यूटेशनल वेरिएंट|journal=J. Inst. Maths Applics |volume=10 |issue=3 |pages=373–381 |year=1972 |doi=10.1093/imamat/10.3.373 }}</ref> 1988 में, ओजाल्वो ने इस एल्गोरिदम का अधिक विस्तृत इतिहास और कुशल आइजनवैल्यू त्रुटि परीक्षण तैयार किया।<ref>{{cite book |last=Ojalvo |first=I. U. |chapter=Origins and advantages of Lanczos vectors for large dynamic systems |title=Proc. 6th Modal Analysis Conference (IMAC), Kissimmee, FL |pages=489–494 |year=1988 }}</ref> | ||
==एल्गोरिदम== | ==एल्गोरिदम== | ||
: | :हर्मिटियन मैट्रिक्स इनपुट करें <math>A</math> आकार का <math>n \times n</math>, और वैकल्पिक रूप से कई पुनरावृत्तियाँ <math>m</math> (डिफ़ॉल्ट के रूप में, माना <math>m=n</math>). | ||
:* सच कहूँ तो, एल्गोरिदम को स्पष्ट मैट्रिक्स तक पहुंच की आवश्यकता नहीं है, | :* सच कहूँ तो, एल्गोरिदम को स्पष्ट मैट्रिक्स तक पहुंच की आवश्यकता नहीं है, किन्तु केवल फलन की आवश्यकता है <math>v \mapsto A v</math> जो मनमाना वेक्टर द्वारा मैट्रिक्स के उत्पाद की गणना करता है। इस फलन को अधिक से अधिक कॉल किया जाता है <math>m</math> बार. | ||
:आउटपुट <math>n \times m</math> आव्यूह <math>V</math> [[रूढ़िवादिता]] कॉलम और | :आउटपुट <math>n \times m</math> आव्यूह <math>V</math> [[रूढ़िवादिता]] कॉलम और त्रिविकर्ण मैट्रिक्स वास्तविक सममित मैट्रिक्स के साथ <math>T = V^* A V</math> आकार का <math>m \times m</math>. अगर <math>m=n</math>, तब <math>V</math> [[एकात्मक मैट्रिक्स]] है, और <math> A = V T V^* </math>. | ||
:चेतावनी लैंज़ोस पुनरावृत्ति संख्यात्मक अस्थिरता से ग्रस्त है। गैर-सटीक अंकगणित में निष्पादित होने पर, परिणामों की वैधता सुनिश्चित करने के लिए अतिरिक्त उपाय (जैसा कि बाद के अनुभागों में बताया गया है) किए जाने चाहिए। | :चेतावनी लैंज़ोस पुनरावृत्ति संख्यात्मक अस्थिरता से ग्रस्त है। गैर-सटीक अंकगणित में निष्पादित होने पर, परिणामों की वैधता सुनिश्चित करने के लिए अतिरिक्त उपाय (जैसा कि बाद के अनुभागों में बताया गया है) किए जाने चाहिए। | ||
:# माना <math>v_1 \in \mathbb{C}^n</math> [[यूक्लिडियन मानदंड]] के साथ | :# माना <math>v_1 \in \mathbb{C}^n</math> [[यूक्लिडियन मानदंड]] के साथ मनमाना वेक्टर <math>1</math> बनें | ||
:# संक्षिप्त प्रारंभिक पुनरावृत्ति चरण: | :# संक्षिप्त प्रारंभिक पुनरावृत्ति चरण: | ||
:## माना <math> w_1' = A v_1 </math>. | :## माना <math> w_1' = A v_1 </math>. | ||
Line 24: | Line 24: | ||
:## माना <math> \beta_j = \| w_{j-1} \| </math> (यूक्लिडियन मानदंड भी)। | :## माना <math> \beta_j = \| w_{j-1} \| </math> (यूक्लिडियन मानदंड भी)। | ||
:## अगर <math> \beta_j \neq 0 </math>, तो करने दें <math> v_j = w_{j-1} / \beta_j </math>, | :## अगर <math> \beta_j \neq 0 </math>, तो करने दें <math> v_j = w_{j-1} / \beta_j </math>, | ||
:##: अन्यथा इस रूप में चुनें <math>v_j</math> यूक्लिडियन मानदंड के साथ | :##: अन्यथा इस रूप में चुनें <math>v_j</math> यूक्लिडियन मानदंड के साथ मनमाना वेक्टर <math>1</math> यह सभी के लिए ओर्थोगोनल है <math> v_1,\dots,v_{j-1} </math>. | ||
:## माना <math> w_j' = A v_j </math>. | :## माना <math> w_j' = A v_j </math>. | ||
:## माना <math> \alpha_j = w_j'^* v_j </math>. | :## माना <math> \alpha_j = w_j'^* v_j </math>. | ||
Line 40: | Line 40: | ||
पुनरावृत्ति प्रक्रिया को लिखने के सैद्धांतिक रूप से चार विधि हैं। पेगे और अन्य कार्यों से पता चलता है कि संचालन का उपरोक्त क्रम संख्यात्मक रूप से सबसे स्थिर है।<ref name="CW1985">{{Cite book|last1=Cullum |last2= Willoughby|title=बड़े सममित आइगेनवैल्यू संगणना के लिए लैंज़ोस एल्गोरिदम|year= 1985|volume= 1| isbn= 0-8176-3058-9}}</ref><ref name="Saad1992">{{Cite book|author=Yousef Saad|title=बड़ी स्वदेशी समस्याओं के लिए संख्यात्मक तरीके| isbn= 0-470-21820-7|url= http://www-users.cs.umn.edu/~saad/books.html|author-link=Yousef Saad|date=1992-06-22}}</ref> | पुनरावृत्ति प्रक्रिया को लिखने के सैद्धांतिक रूप से चार विधि हैं। पेगे और अन्य कार्यों से पता चलता है कि संचालन का उपरोक्त क्रम संख्यात्मक रूप से सबसे स्थिर है।<ref name="CW1985">{{Cite book|last1=Cullum |last2= Willoughby|title=बड़े सममित आइगेनवैल्यू संगणना के लिए लैंज़ोस एल्गोरिदम|year= 1985|volume= 1| isbn= 0-8176-3058-9}}</ref><ref name="Saad1992">{{Cite book|author=Yousef Saad|title=बड़ी स्वदेशी समस्याओं के लिए संख्यात्मक तरीके| isbn= 0-470-21820-7|url= http://www-users.cs.umn.edu/~saad/books.html|author-link=Yousef Saad|date=1992-06-22}}</ref> | ||
व्यवहार में प्रारंभिक वेक्टर <math>v_1</math> प्रक्रिया के | व्यवहार में प्रारंभिक वेक्टर <math>v_1</math> प्रक्रिया के अन्य तर्क के रूप में लिया जा सकता है <math>\beta_j=0</math> और संख्यात्मक अशुद्धि के संकेतकों को अतिरिक्त लूप समाप्ति शर्तों के रूप में सम्मिलित किया जा रहा है। | ||
मैट्रिक्स-वेक्टर गुणन की गणना न करते हुए, प्रत्येक पुनरावृत्ति करता है <math>O(n)</math> अंकगणितीय परिचालन. मैट्रिक्स-वेक्टर गुणन किया जा सकता है <math>O(dn)</math> अंकगणितीय संक्रियाएँ जहाँ <math>d</math> एक पंक्ति में शून्येतर तत्वों की औसत संख्या है। कुल जटिलता इस प्रकार है <math>O(dmn)</math>, या <math>O(dn^2)</math> अगर <math>m=n</math>; लैंज़ोस एल्गोरिदम विरल मैट्रिक्स के लिए बहुत तेज़ हो सकता है। संख्यात्मक स्थिरता में सुधार के लिए योजनाओं को सामान्यतः इस उच्च प्रदर्शन के आधार पर आंका जाता है। | मैट्रिक्स-वेक्टर गुणन की गणना न करते हुए, प्रत्येक पुनरावृत्ति करता है <math>O(n)</math> अंकगणितीय परिचालन. मैट्रिक्स-वेक्टर गुणन किया जा सकता है <math>O(dn)</math> अंकगणितीय संक्रियाएँ जहाँ <math>d</math> एक पंक्ति में शून्येतर तत्वों की औसत संख्या है। कुल जटिलता इस प्रकार है <math>O(dmn)</math>, या <math>O(dn^2)</math> अगर <math>m=n</math>; लैंज़ोस एल्गोरिदम विरल मैट्रिक्स के लिए बहुत तेज़ हो सकता है। संख्यात्मक स्थिरता में सुधार के लिए योजनाओं को सामान्यतः इस उच्च प्रदर्शन के आधार पर आंका जाता है। | ||
Line 49: | Line 49: | ||
=== आइजन समस्याएं के लिए आवेदन === | === आइजन समस्याएं के लिए आवेदन === | ||
लैंज़ोस एल्गोरिदम को अधिकांशतः मैट्रिक्स के आइजनवैल्यू और आइजनवेक्टर खोजने के संदर्भ में लाया जाता है, लेकिन जबकि | लैंज़ोस एल्गोरिदम को अधिकांशतः मैट्रिक्स के आइजनवैल्यू और आइजनवेक्टर खोजने के संदर्भ में लाया जाता है, लेकिन जबकि सामान्य [[मैट्रिक्स विकर्णीकरण]] आइजनवेक्टर और आइजनवैल्यू को निरीक्षण से स्पष्ट कर देगा, वही लैंज़ोस एल्गोरिदम द्वारा किए गए ट्राइडिएगोनलाइज़ेशन के लिए सच नहीं है; एक भी [[eigenvalue|आइजेनवैल्यू]] या [[eigenvector|आइजेनवेक्टर]] की गणना करने के लिए गैर-तुच्छ अतिरिक्त चरणों की आवश्यकता होती है। फिर भी, लैंज़ोस एल्गोरिथ्म को प्रयुक्त करना अधिकांशतः आइगेंडेकंपोजीशन की गणना में महत्वपूर्ण कदम है। अगर <math>\lambda</math> का प्रतिरूप है <math>A</math>, और अगर <math> T x = \lambda x </math> (<math>x</math> का आइजेनवेक्टर <math>T</math> है) तब <math> y = V x </math> का संगत आइजेनवेक्टर है <math>A</math> (तब से <math> A y = A V x = V T V^* V x = V T I x = V T x = V (\lambda x) = \lambda V x = \lambda y</math>). इस प्रकार लैंज़ोस एल्गोरिथ्म आइजनसंयोजन समस्या को बदल देता है <math>A</math> आइजनसंयोजन समस्या के लिए <math>T</math>. | ||
# त्रिविकर्ण मैट्रिक्स के लिए, कई विशिष्ट एल्गोरिदम उपस्थित हैं, जो अधिकांशतः सामान्य-उद्देश्य एल्गोरिदम की तुलना में बेहतर कम्प्यूटेशनल जटिलता के साथ होते हैं। उदाहरण के लिए, यदि <math>T</math> एक <math>m \times m</math> त्रिविकर्ण सममित मैट्रिक्स तब: | # त्रिविकर्ण मैट्रिक्स के लिए, कई विशिष्ट एल्गोरिदम उपस्थित हैं, जो अधिकांशतः सामान्य-उद्देश्य एल्गोरिदम की तुलना में बेहतर कम्प्यूटेशनल जटिलता के साथ होते हैं। उदाहरण के लिए, यदि <math>T</math> एक <math>m \times m</math> त्रिविकर्ण सममित मैट्रिक्स तब: | ||
#* त्रिविकर्ण मैट्रिक्स#निर्धारक [[विशेषता बहुपद]] की गणना करने की अनुमति देता है <math>O(m^2)</math> संचालन, और | #* त्रिविकर्ण मैट्रिक्स#निर्धारक [[विशेषता बहुपद]] की गणना करने की अनुमति देता है <math>O(m^2)</math> संचालन, और बिंदु पर इसका मूल्यांकन करना <math>O(m)</math> परिचालन. | ||
#* [[फूट डालो और जीतो eigenvalue एल्गोरिदम|डिवाइड आइजनवैल्यू एल्गोरिदम]] का उपयोग संपूर्ण आइजनसंयोजन की गणना करने के लिए किया जा सकता है <math>T</math> में <math>O(m^2)</math> परिचालन. | #* [[फूट डालो और जीतो eigenvalue एल्गोरिदम|डिवाइड आइजनवैल्यू एल्गोरिदम]] का उपयोग संपूर्ण आइजनसंयोजन की गणना करने के लिए किया जा सकता है <math>T</math> में <math>O(m^2)</math> परिचालन. | ||
#* फास्ट मल्टीपोल विधि<ref>{{cite journal|last1=Coakley|first1=Ed S.|last2=Rokhlin|first2=Vladimir|title=वास्तविक सममित त्रिविकर्ण मैट्रिक्स के स्पेक्ट्रा की गणना के लिए एक तेज़ विभाजन और जीत एल्गोरिदम|journal=Applied and Computational Harmonic Analysis|date=2013|volume=34|issue=3|pages=379–414|doi=10.1016/j.acha.2012.06.003|doi-access=free}}</ref> सभी आइजनवैल्यू की गणना बस में कर सकते हैं <math>O(m \log m)</math> परिचालन. | #* फास्ट मल्टीपोल विधि<ref>{{cite journal|last1=Coakley|first1=Ed S.|last2=Rokhlin|first2=Vladimir|title=वास्तविक सममित त्रिविकर्ण मैट्रिक्स के स्पेक्ट्रा की गणना के लिए एक तेज़ विभाजन और जीत एल्गोरिदम|journal=Applied and Computational Harmonic Analysis|date=2013|volume=34|issue=3|pages=379–414|doi=10.1016/j.acha.2012.06.003|doi-access=free}}</ref> सभी आइजनवैल्यू की गणना बस में कर सकते हैं <math>O(m \log m)</math> परिचालन. | ||
# कुछ सामान्य आइजनसंयोजन एल्गोरिदम, विशेष रूप से QR एल्गोरिदम, सामान्य मैट्रिक्स की तुलना में त्रिविकर्ण मैट्रिक्स के लिए तेजी से अभिसरण करने के लिए जाने जाते हैं। त्रिविकर्ण QR की स्पर्शोन्मुख जटिलता है <math>O(m^2)</math> ठीक वैसे ही जैसे कि डिवाइड करो और जीतो एल्गोरिथ्म के लिए (चुकीं स्थिर कारक भिन्न हो सकता है); चूँकि आइजनवेक्टर एक साथ हैं <math>m^2</math> तत्व, यह स्पर्शोन्मुख रूप से इष्टतम है। | # कुछ सामान्य आइजनसंयोजन एल्गोरिदम, विशेष रूप से QR एल्गोरिदम, सामान्य मैट्रिक्स की तुलना में त्रिविकर्ण मैट्रिक्स के लिए तेजी से अभिसरण करने के लिए जाने जाते हैं। त्रिविकर्ण QR की स्पर्शोन्मुख जटिलता है <math>O(m^2)</math> ठीक वैसे ही जैसे कि डिवाइड करो और जीतो एल्गोरिथ्म के लिए (चुकीं स्थिर कारक भिन्न हो सकता है); चूँकि आइजनवेक्टर एक साथ हैं <math>m^2</math> तत्व, यह स्पर्शोन्मुख रूप से इष्टतम है। | ||
# यहां तक कि एल्गोरिदम जिनकी अभिसरण दरें एकात्मक परिवर्तनों से अप्रभावित हैं, जैसे कि [[शक्ति विधि]] और व्युत्क्रम पुनरावृत्ति, त्रिविकर्ण मैट्रिक्स पर प्रयुक्त होने से निम्न-स्तरीय प्रदर्शन लाभ का आनंद ले सकते हैं <math>T</math> मूल मैट्रिक्स के अतिरिक्त <math>A</math>. तब से <math>T</math> अत्यधिक पूर्वानुमानित स्थितियों में सभी गैर-शून्य तत्वों के साथ बहुत विरल है, यह [[कैश (कंप्यूटिंग)]] की तुलना में उत्कृष्ट प्रदर्शन के साथ कॉम्पैक्ट स्टोरेज की अनुमति देता है। वैसे ही, <math>T</math> जबकि सभी आइजनवेक्टर और आइजनवैल्यू वास्तविक के साथ | # यहां तक कि एल्गोरिदम जिनकी अभिसरण दरें एकात्मक परिवर्तनों से अप्रभावित हैं, जैसे कि [[शक्ति विधि]] और व्युत्क्रम पुनरावृत्ति, त्रिविकर्ण मैट्रिक्स पर प्रयुक्त होने से निम्न-स्तरीय प्रदर्शन लाभ का आनंद ले सकते हैं <math>T</math> मूल मैट्रिक्स के अतिरिक्त <math>A</math>. तब से <math>T</math> अत्यधिक पूर्वानुमानित स्थितियों में सभी गैर-शून्य तत्वों के साथ बहुत विरल है, यह [[कैश (कंप्यूटिंग)]] की तुलना में उत्कृष्ट प्रदर्शन के साथ कॉम्पैक्ट स्टोरेज की अनुमति देता है। वैसे ही, <math>T</math> जबकि सभी आइजनवेक्टर और आइजनवैल्यू वास्तविक के साथ [[वास्तविक संख्या]] मैट्रिक्स है <math>A</math> सामान्य तौर पर इसमें जटिल तत्व और आइजनवेक्टर हो सकते हैं, इसलिए वास्तविक अंकगणित आइजनवेक्टर और आइजनवेक्टर खोजने के लिए <math>T</math> पर्याप्त है | ||
# अगर <math>n</math> बहुत बड़ा है, फिर घट रहा है <math>m</math> जिससे <math>T</math> प्रबंधनीय आकार का होने पर भी यह अधिक चरम आइजनवैल्यू और आइजनवेक्टर खोजने की अनुमति देगा <math>A</math>; में <math>m \ll n</math> क्षेत्र में, लैंज़ोस एल्गोरिथ्म को हर्मिटियन मैट्रिसेस के लिए | # अगर <math>n</math> बहुत बड़ा है, फिर घट रहा है <math>m</math> जिससे <math>T</math> प्रबंधनीय आकार का होने पर भी यह अधिक चरम आइजनवैल्यू और आइजनवेक्टर खोजने की अनुमति देगा <math>A</math>; में <math>m \ll n</math> क्षेत्र में, लैंज़ोस एल्गोरिथ्म को हर्मिटियन मैट्रिसेस के लिए [[हानिपूर्ण संपीड़न]] योजना के रूप में देखा जा सकता है, जो चरम स्वदेशी मूल्यों को संरक्षित करने पर जोर देता है। | ||
विरल मैट्रिक्स के लिए अच्छे प्रदर्शन का संयोजन और कई (सभी की गणना किए बिना) आइजनवैल्यू की गणना करने की क्षमता लैंज़ोस एल्गोरिदम का उपयोग करने का चयन करने के मुख्य कारण हैं। | विरल मैट्रिक्स के लिए अच्छे प्रदर्शन का संयोजन और कई (सभी की गणना किए बिना) आइजनवैल्यू की गणना करने की क्षमता लैंज़ोस एल्गोरिदम का उपयोग करने का चयन करने के मुख्य कारण हैं। | ||
=== त्रिविकर्णीकरण का अनुप्रयोग === | === त्रिविकर्णीकरण का अनुप्रयोग === | ||
यद्यपि आइजनप्रॉब्लम अधिकांशतः लैंज़ोस एल्गोरिदम को प्रयुक्त करने के लिए प्रेरणा होती है, एल्गोरिदम मुख्य रूप से जो ऑपरेशन करता है वह | यद्यपि आइजनप्रॉब्लम अधिकांशतः लैंज़ोस एल्गोरिदम को प्रयुक्त करने के लिए प्रेरणा होती है, एल्गोरिदम मुख्य रूप से जो ऑपरेशन करता है वह मैट्रिक्स का त्रिविकर्णीकरण होता है, जिसके लिए 1950 के दशक से संख्यात्मक रूप से स्थिर हाउसहोल्डर परिवर्तनों का समर्थन किया गया है। 1960 के दशक के समय लैंज़ोस एल्गोरिदम की उपेक्षा की गई थी। कनियल-पेगे अभिसरण सिद्धांत और संख्यात्मक अस्थिरता को रोकने के विधियों के विकास से इसमें रुचि फिर से जीवंत हो गई, लेकिन लैंज़ोस एल्गोरिदम वैकल्पिक एल्गोरिदम बना हुआ है जिसे कोई केवल तभी आज़माता है जब हाउसहोल्डर संतोषजनक नहीं होता है।<ref name="GolubVanLoan">{{cite book|last1=Golub|first1=Gene H.|last2=Van Loan|first2=Charles F.|title=मैट्रिक्स गणना|date=1996|publisher=Johns Hopkins Univ. Press|location=Baltimore|isbn=0-8018-5413-X|edition=3.}}</ref> | ||
जिन पहलुओं में दोनों एल्गोरिदम भिन्न हैं उनमें सम्मिलित हैं: | जिन पहलुओं में दोनों एल्गोरिदम भिन्न हैं उनमें सम्मिलित हैं: | ||
* लैंज़ोस लाभ उठाता है <math>A</math> | * लैंज़ोस लाभ उठाता है <math>A</math> विरल मैट्रिक्स होने के नाते, जबकि हाउसहोल्डर ऐसा नहीं करता है, और विरल मैट्रिक्स #रिड्यूसिंग फिल-इन|फिल-इन उत्पन्न करेगा। | ||
* लैंज़ोस मूल मैट्रिक्स के साथ काम करता है <math>A</math> (और इसे केवल अंतर्निहित रूप से ज्ञात होने में कोई समस्या नहीं है), जबकि कच्चा हाउसहोल्डर गणना के समय मैट्रिक्स को संशोधित करना चाहता है (चुकीं इससे बचा जा सकता है)। | * लैंज़ोस मूल मैट्रिक्स के साथ काम करता है <math>A</math> (और इसे केवल अंतर्निहित रूप से ज्ञात होने में कोई समस्या नहीं है), जबकि कच्चा हाउसहोल्डर गणना के समय मैट्रिक्स को संशोधित करना चाहता है (चुकीं इससे बचा जा सकता है)। | ||
* लैंज़ोस एल्गोरिथ्म का प्रत्येक पुनरावृत्ति अंतिम परिवर्तन मैट्रिक्स का | * लैंज़ोस एल्गोरिथ्म का प्रत्येक पुनरावृत्ति अंतिम परिवर्तन मैट्रिक्स का और कॉलम तैयार करता है <math>V</math>, जबकि हाउसहोल्डर का पुनरावृत्ति एकात्मक गुणनखंडन में एक और कारक उत्पन्न करता है <math> Q_1 Q_2 \dots Q_n</math> का <math>V</math>. चुकीं, प्रत्येक कारक एकल वेक्टर द्वारा निर्धारित होता है, इसलिए भंडारण आवश्यकताएँ दोनों एल्गोरिदम के लिए समान हैं, और <math>V = Q_1 Q_2 \dots Q_n</math> में गणना की जा सकती है <math>O(n^3)</math> समय। | ||
* ओनर संख्यात्मक रूप से स्थिर है, जबकि कच्चा लैंज़ोस नहीं है। | * ओनर संख्यात्मक रूप से स्थिर है, जबकि कच्चा लैंज़ोस नहीं है। | ||
* लैंज़ोस अत्यधिक समानांतर है, केवल के साथ <math>O(n)</math> सिंक्रोनाइज़ेशन के बिंदु (कंप्यूटर विज्ञान) (की गणना) <math>\alpha_j</math> और <math>\beta_j</math>). गृहस्थ कम समानांतर होता है, जिसका | * लैंज़ोस अत्यधिक समानांतर है, केवल के साथ <math>O(n)</math> सिंक्रोनाइज़ेशन के बिंदु (कंप्यूटर विज्ञान) (की गणना) <math>\alpha_j</math> और <math>\beta_j</math>). गृहस्थ कम समानांतर होता है, जिसका क्रम होता है <math>O(n^2)</math> अदिश मात्राओं की गणना की जाती है जिनमें से प्रत्येक अनुक्रम में पिछली मात्रा पर निर्भर करती है। | ||
==एल्गोरिदम की व्युत्पत्ति== | ==एल्गोरिदम की व्युत्पत्ति== | ||
तर्क की कई पंक्तियाँ हैं जो लैंज़ोस एल्गोरिदम की ओर ले जाती हैं। | तर्क की कई पंक्तियाँ हैं जो लैंज़ोस एल्गोरिदम की ओर ले जाती हैं। | ||
=== | ===अधिक भविष्य शक्ति विधि=== | ||
{{Main|शक्ति पुनरावृत्ति}} | {{Main|शक्ति पुनरावृत्ति}} | ||
सबसे बड़े परिमाण के आइजेनवैल्यू और मैट्रिक्स के संबंधित आइजेनवेक्टर को खोजने की शक्ति विधि <math>A</math> सामान्यतः है | सबसे बड़े परिमाण के आइजेनवैल्यू और मैट्रिक्स के संबंधित आइजेनवेक्टर को खोजने की शक्ति विधि <math>A</math> सामान्यतः है | ||
:# | :# यादृच्छिक वेक्टर चुनें <math>u_1 \neq 0</math>. | ||
:# के लिए <math> j \geqslant 1 </math> (के निर्देश तक <math>u_j</math> एकत्रित हो गया है) करें: | :# के लिए <math> j \geqslant 1 </math> (के निर्देश तक <math>u_j</math> एकत्रित हो गया है) करें: | ||
:## माना<math> u_{j+1}' = A u_j.</math> | :## माना<math> u_{j+1}' = A u_j.</math> | ||
Line 82: | Line 82: | ||
इस पद्धति के खिलाफ जो आलोचना की जा सकती है वह यह है कि यह व्यर्थ है: इसमें मैट्रिक्स से जानकारी निकालने में बहुत सारा काम (चरण 2.1 में मैट्रिक्स-वेक्टर उत्पाद) खर्च होता है <math>A</math>, लेकिन केवल अंतिम परिणाम पर ही ध्यान देता है; कार्यान्वयन सामान्यतः सभी वैक्टरों के लिए समान चर का उपयोग करते हैं <math>u_j</math>, प्रत्येक नए पुनरावृत्ति में पिछले वाले के परिणामों को अधिलेखित कर दिया जाता है। इसके अतिरिक्त सभी मध्यवर्ती परिणामों को रखना और डेटा को व्यवस्थित करना वांछनीय हो सकता है। | इस पद्धति के खिलाफ जो आलोचना की जा सकती है वह यह है कि यह व्यर्थ है: इसमें मैट्रिक्स से जानकारी निकालने में बहुत सारा काम (चरण 2.1 में मैट्रिक्स-वेक्टर उत्पाद) खर्च होता है <math>A</math>, लेकिन केवल अंतिम परिणाम पर ही ध्यान देता है; कार्यान्वयन सामान्यतः सभी वैक्टरों के लिए समान चर का उपयोग करते हैं <math>u_j</math>, प्रत्येक नए पुनरावृत्ति में पिछले वाले के परिणामों को अधिलेखित कर दिया जाता है। इसके अतिरिक्त सभी मध्यवर्ती परिणामों को रखना और डेटा को व्यवस्थित करना वांछनीय हो सकता है। | ||
जानकारी का | जानकारी का टुकड़ा जो तुच्छ रूप से वैक्टर से उपलब्ध है <math>u_j</math> क्रायलोव उपस्थानों की श्रृंखला है। यह बताने का विधि कि एल्गोरिथम में सेट सम्मिलित किए बिना यह दावा करना है कि यह गणना करता है | ||
:उपसमुच्चय <math>\{v_j\}_{j=1}^m</math> के एक आधार का <math>\Complex^n</math> ऐसा है कि <math>Ax \in \operatorname{span}(v_1,\dotsc,v_{j+1}) </math> हरएक के लिए <math>x \in \operatorname{span}(v_1,\dotsc,v_j)</math> और सभी <math>1 \leqslant j < m;</math> | :उपसमुच्चय <math>\{v_j\}_{j=1}^m</math> के एक आधार का <math>\Complex^n</math> ऐसा है कि <math>Ax \in \operatorname{span}(v_1,\dotsc,v_{j+1}) </math> हरएक के लिए <math>x \in \operatorname{span}(v_1,\dotsc,v_j)</math> और सभी <math>1 \leqslant j < m;</math> | ||
यह तुच्छ रूप से संतुष्ट है <math>v_j = u_j</math> जब तक कि <math>u_j</math> से रैखिक रूप से स्वतंत्र है <math>u_1,\dotsc,u_{j-1}</math> (और यदि ऐसी कोई निर्भरता है तो कोई इसे चुनकर अनुक्रम जारी रख सकता है <math>v_j</math> | यह तुच्छ रूप से संतुष्ट है <math>v_j = u_j</math> जब तक कि <math>u_j</math> से रैखिक रूप से स्वतंत्र है <math>u_1,\dotsc,u_{j-1}</math> (और यदि ऐसी कोई निर्भरता है तो कोई इसे चुनकर अनुक्रम जारी रख सकता है <math>v_j</math> मनमाना वेक्टर रैखिक रूप से स्वतंत्र है <math>u_1,\dotsc,u_{j-1}</math>) आधार जिसमें सम्मिलित है <math>u_j</math> चुकीं, वेक्टर के संख्यात्मक रूप से खराब होने की संभावना है, क्योंकि वेक्टर का यह क्रम डिजाइन के अनुसार आइजेनवेक्टर में परिवर्तित होने के लिए है। <math>A</math>. इससे बचने के लिए, कोई व्यक्ति शक्ति पुनरावृत्ति को ग्राम-श्मिट प्रक्रिया के साथ जोड़ सकता है, इसके बजाय इन क्रायलोव उप-स्थानों का ऑर्थोनॉर्मल आधार तैयार कर सकता है। | ||
# | # यादृच्छिक वेक्टर चुनें <math>u_1</math> यूक्लिडियन मानदंड का <math>1</math>. माना <math>v_1 = u_1</math>. | ||
# के लिए <math>j = 1,\dotsc,m-1</math> करना: | # के लिए <math>j = 1,\dotsc,m-1</math> करना: | ||
## माना <math> u_{j+1}' = A u_j </math>. | ## माना <math> u_{j+1}' = A u_j </math>. | ||
Line 92: | Line 92: | ||
## माना <math> w_{j+1} = u_{j+1}' - \sum_{k=1}^j g_{k,j} v_k</math>. (के घटक को रद्द करें <math>u_{j+1}'</math> यह है <math>\operatorname{span}(v_1,\dotsc,v_j)</math>.) | ## माना <math> w_{j+1} = u_{j+1}' - \sum_{k=1}^j g_{k,j} v_k</math>. (के घटक को रद्द करें <math>u_{j+1}'</math> यह है <math>\operatorname{span}(v_1,\dotsc,v_j)</math>.) | ||
## अगर <math>w_{j+1} \neq 0</math> तो करने दें <math> u_{j+1} = u_{j+1}' / \| u_{j+1}' \| </math> और <math> v_{j+1} = w_{j+1} / \| w_{j+1} \| </math>, | ## अगर <math>w_{j+1} \neq 0</math> तो करने दें <math> u_{j+1} = u_{j+1}' / \| u_{j+1}' \| </math> और <math> v_{j+1} = w_{j+1} / \| w_{j+1} \| </math>, | ||
##: अन्यथा इस रूप में चुनें <math> u_{j+1} = v_{j+1} </math> यूक्लिडियन मानदंड का | ##: अन्यथा इस रूप में चुनें <math> u_{j+1} = v_{j+1} </math> यूक्लिडियन मानदंड का मनमाना वेक्टर <math>1</math> यह सभी के लिए ओर्थोगोनल है <math>v_1,\dotsc,v_j</math>. | ||
शक्ति पुनरावृत्ति वैक्टर के बीच संबंध <math>u_j</math> और ऑर्थोगोनल वैक्टर <math>v_j</math> यह है कि | शक्ति पुनरावृत्ति वैक्टर के बीच संबंध <math>u_j</math> और ऑर्थोगोनल वैक्टर <math>v_j</math> यह है कि | ||
: <math> A u_j = \| u_{j+1}'\| u_{j+1} = u_{j+1}' = w_{j+1} + \sum_{k=1}^j g_{k,j} v_k = \| w_{j+1}\| v_{j+1} + \sum_{k=1}^j g_{k,j} v_k </math>. | : <math> A u_j = \| u_{j+1}'\| u_{j+1} = u_{j+1}' = w_{j+1} + \sum_{k=1}^j g_{k,j} v_k = \| w_{j+1}\| v_{j+1} + \sum_{k=1}^j g_{k,j} v_k </math>. | ||
यहाँ यह देखा जा सकता है कि वास्तव में हमें इसकी आवश्यकता नहीं है <math>u_j</math> इनकी गणना करने के लिए वैक्टर <math>v_j</math>, क्योंकि <math>u_j - v_j \in \operatorname{span}(v_1,\dotsc,v_{j-1})</math> और इसलिए बीच का अंतर <math> u_{j+1}' = A u_j </math> और <math> w_{j+1}' = A v_j </math> में है <math>\operatorname{span}(v_1,\dotsc,v_j)</math>, जिसे ऑर्थोगोनलाइज़ेशन प्रक्रिया द्वारा रद्द कर दिया गया है। इस प्रकार क्रायलोव उप-स्थानों की श्रृंखला के लिए समान आधार की गणना की जाती है | यहाँ यह देखा जा सकता है कि वास्तव में हमें इसकी आवश्यकता नहीं है <math>u_j</math> इनकी गणना करने के लिए वैक्टर <math>v_j</math>, क्योंकि <math>u_j - v_j \in \operatorname{span}(v_1,\dotsc,v_{j-1})</math> और इसलिए बीच का अंतर <math> u_{j+1}' = A u_j </math> और <math> w_{j+1}' = A v_j </math> में है <math>\operatorname{span}(v_1,\dotsc,v_j)</math>, जिसे ऑर्थोगोनलाइज़ेशन प्रक्रिया द्वारा रद्द कर दिया गया है। इस प्रकार क्रायलोव उप-स्थानों की श्रृंखला के लिए समान आधार की गणना की जाती है | ||
# | # यादृच्छिक वेक्टर चुनें <math>v_1</math> यूक्लिडियन मानदंड का <math>1</math>. | ||
# के लिए <math>j = 1,\dotsc,m-1</math> करना: | # के लिए <math>j = 1,\dotsc,m-1</math> करना: | ||
## माना <math> w_{j+1}' = A v_j </math>. | ## माना <math> w_{j+1}' = A v_j </math>. | ||
Line 103: | Line 103: | ||
## माना <math> h_{j+1,j} = \| w_{j+1} \| </math>. | ## माना <math> h_{j+1,j} = \| w_{j+1} \| </math>. | ||
## अगर <math>h_{j+1,j} \neq 0</math> तो करने दें <math> v_{j+1} = w_{j+1} / h_{j+1,j} </math>, | ## अगर <math>h_{j+1,j} \neq 0</math> तो करने दें <math> v_{j+1} = w_{j+1} / h_{j+1,j} </math>, | ||
##: अन्यथा इस रूप में चुनें <math> v_{j+1} </math> यूक्लिडियन मानदंड का | ##: अन्यथा इस रूप में चुनें <math> v_{j+1} </math> यूक्लिडियन मानदंड का मनमाना वेक्टर <math>1</math> यह सभी के लिए ओर्थोगोनल है <math>v_1,\dotsc,v_j</math>. | ||
प्राथमिकता गुणांक <math>h_{k,j}</math> संतुष्ट करना | |||
: <math> A v_j = \sum_{k=1}^{j+1} h_{k,j} v_k </math> सभी के लिए <math> j < m </math>; | : <math> A v_j = \sum_{k=1}^{j+1} h_{k,j} v_k </math> सभी के लिए <math> j < m </math>; | ||
मानहानि <math> h_{j+1,j} = \| w_{j+1} \| </math> थोड़ा विचित्र लग सकता है, लेकिन सामान्य पैटर्न पर फिट बैठता है <math> h_{k,j} = v_k^* w_{j+1}' </math> तब से | मानहानि <math> h_{j+1,j} = \| w_{j+1} \| </math> थोड़ा विचित्र लग सकता है, लेकिन सामान्य पैटर्न पर फिट बैठता है <math> h_{k,j} = v_k^* w_{j+1}' </math> तब से | ||
Line 116: | Line 116: | ||
:<math> h_{k,j} = v_k^* w_{j+1}' = v_k^* A v_j = v_k^* A^* v_j = (A v_k)^* v_j.</math> | :<math> h_{k,j} = v_k^* w_{j+1}' = v_k^* A v_j = v_k^* A^* v_j = (A v_k)^* v_j.</math> | ||
के लिए <math> k < j-1 </math> हम वह जानते हैं <math> A v_k \in \operatorname{span}(v_1,\ldots,v_{j-1}) </math>, और तबसे <math> v_j </math> निर्माण द्वारा इस उप-स्थान के लिए ऑर्थोगोनल है, यह आंतरिक उत्पाद शून्य होना चाहिए। (यह अनिवार्य रूप से यही कारण है कि ऑर्थोगोनल बहुपदों के अनुक्रमों को | के लिए <math> k < j-1 </math> हम वह जानते हैं <math> A v_k \in \operatorname{span}(v_1,\ldots,v_{j-1}) </math>, और तबसे <math> v_j </math> निर्माण द्वारा इस उप-स्थान के लिए ऑर्थोगोनल है, यह आंतरिक उत्पाद शून्य होना चाहिए। (यह अनिवार्य रूप से यही कारण है कि ऑर्थोगोनल बहुपदों के अनुक्रमों को सदैव ऑर्थोगोनल बहुपद पुनरावृत्ति संबंध तीन-अवधि वाला पुनरावृत्ति संबंध दिया जा सकता है।) <math> k = j-1 </math> मिलता है | ||
:<math> h_{j-1,j} = (A v_{j-1})^* v_j = \overline{v_j^* A v_{j-1} } = \overline{ h_{j,j-1} } = h_{j,j-1} </math> चूँकि वेक्टर का आदर्श होने के कारण उत्तरार्द्ध वास्तविक है। के लिए <math> k = j </math> | :<math> h_{j-1,j} = (A v_{j-1})^* v_j = \overline{v_j^* A v_{j-1} } = \overline{ h_{j,j-1} } = h_{j,j-1} </math> चूँकि वेक्टर का आदर्श होने के कारण उत्तरार्द्ध वास्तविक है। के लिए <math> k = j </math> मिलता है | ||
:<math> h_{j,j} = (A v_j)^* v_j = \overline{v_j^* A v_j } = \overline{h_{j,j}},</math> | :<math> h_{j,j} = (A v_j)^* v_j = \overline{v_j^* A v_j } = \overline{h_{j,j}},</math> | ||
Line 125: | Line 125: | ||
अधिक संक्षेप में, यदि <math>V</math> स्तंभों वाला मैट्रिक्स है <math>v_1,\ldots,v_m</math> फिर संख्याएँ <math>h_{k,j}</math> मैट्रिक्स के तत्वों के रूप में पहचाना जा सकता है <math>H = V^*AV</math>, और <math>h_{k,j} = 0</math> के लिए <math>k > j+1;</math> गणित का सवाल <math>H</math> [[हेसेनबर्ग मैट्रिक्स]] है. तब से | अधिक संक्षेप में, यदि <math>V</math> स्तंभों वाला मैट्रिक्स है <math>v_1,\ldots,v_m</math> फिर संख्याएँ <math>h_{k,j}</math> मैट्रिक्स के तत्वों के रूप में पहचाना जा सकता है <math>H = V^*AV</math>, और <math>h_{k,j} = 0</math> के लिए <math>k > j+1;</math> गणित का सवाल <math>H</math> [[हेसेनबर्ग मैट्रिक्स]] है. तब से | ||
:<math> H^* = \left (V^* A V \right )^* = V^* A^* V = V^* A V = H </math> गणित का सवाल <math>H</math> हर्मिटियन है. इसका अर्थ यह है कि <math>H</math> यह हेसेनबर्ग से भी निचला है, इसलिए यह वास्तव में त्रिविजात्मक होना चाहिए। हर्मिटियन होने के कारण, इसका मुख्य विकर्ण वास्तविक है, और चूंकि इसका पहला उपविकर्ण निर्माण से वास्तविक है, इसलिए इसके पहले सुपरविकर्ण के लिए भी यही सच है। इसलिए, <math>H</math> | :<math> H^* = \left (V^* A V \right )^* = V^* A^* V = V^* A V = H </math> गणित का सवाल <math>H</math> हर्मिटियन है. इसका अर्थ यह है कि <math>H</math> यह हेसेनबर्ग से भी निचला है, इसलिए यह वास्तव में त्रिविजात्मक होना चाहिए। हर्मिटियन होने के कारण, इसका मुख्य विकर्ण वास्तविक है, और चूंकि इसका पहला उपविकर्ण निर्माण से वास्तविक है, इसलिए इसके पहले सुपरविकर्ण के लिए भी यही सच है। इसलिए, <math>H</math> वास्तविक, सममित मैट्रिक्स है - मैट्रिक्स <math>T</math> लैंज़ोस एल्गोरिथम विनिर्देश के लिए है। | ||
===चरम आइजनवैल्यू का एक साथ सन्निकटन=== | ===चरम आइजनवैल्यू का एक साथ सन्निकटन=== | ||
Line 152: | Line 152: | ||
:<math> r(x_j) = \max_{z \in \mathcal{L}_j} r(z) \qquad \text{and} \qquad r(y_j) = \min_{z \in \mathcal{L}_j} r(z).</math> | :<math> r(x_j) = \max_{z \in \mathcal{L}_j} r(z) \qquad \text{and} \qquad r(y_j) = \min_{z \in \mathcal{L}_j} r(z).</math> | ||
के बाद से <math>j</math>वें शक्ति विधि पुनरावृत्त <math>u_j</math> से संबंधित <math>\mathcal{L}_j,</math> यह इस प्रकार है कि उत्पादन करने के लिए | के बाद से <math>j</math>वें शक्ति विधि पुनरावृत्त <math>u_j</math> से संबंधित <math>\mathcal{L}_j,</math> यह इस प्रकार है कि उत्पादन करने के लिए पुनरावृत्ति <math>x_j</math> और <math>y_j</math> शक्ति विधि की तुलना में धीमी गति से अभिसरण नहीं किया जा सकता है, और दोनों आइजनवैल्यू चरम सीमाओं का अनुमान लगाकर अधिक प्राप्त किया जाएगा। अनुकूलन की उपसमस्या के लिए <math>r</math> कुछ पर <math>\mathcal{L}_j </math>, लम्बवत आधार रखना सुविधाजनक है <math>\{ v_1, \ldots, v_j \}</math> इस वेक्टर स्पेस के लिए. इस प्रकार हम फिर से क्रायलोव उप-स्थानों के अनुक्रम के लिए ऐसे आधार की पुनरावृत्तीय गणना करने की समस्या की ओर अग्रसर हैं। | ||
==अभिसरण और अन्य गतिशीलता== | ==अभिसरण और अन्य गतिशीलता== | ||
एल्गोरिथ्म की गतिशीलता का विश्लेषण करते समय, आइजनवैल्यू और आइजनवेक्टर लेना सुविधाजनक होता है <math>A</math> जैसा कि दिया गया है, भले ही वे उपयोगकर्ता को स्पष्ट रूप से ज्ञात न हों। अंकन को ठीक करने के लिए, आइए <math>\lambda_1 \geqslant \lambda_2 \geqslant \dotsb \geqslant \lambda_n</math> आइगेनवैल्यू बनें (ये सभी जानते हैं कि ये वास्तविक हैं, और इस प्रकार ऑर्डर करना संभव है) और चलो <math>z_1,\dotsc,z_n</math> आइजनवेक्टर का | एल्गोरिथ्म की गतिशीलता का विश्लेषण करते समय, आइजनवैल्यू और आइजनवेक्टर लेना सुविधाजनक होता है <math>A</math> जैसा कि दिया गया है, भले ही वे उपयोगकर्ता को स्पष्ट रूप से ज्ञात न हों। अंकन को ठीक करने के लिए, आइए <math>\lambda_1 \geqslant \lambda_2 \geqslant \dotsb \geqslant \lambda_n</math> आइगेनवैल्यू बनें (ये सभी जानते हैं कि ये वास्तविक हैं, और इस प्रकार ऑर्डर करना संभव है) और चलो <math>z_1,\dotsc,z_n</math> आइजनवेक्टर का ऑर्थोनॉर्मल सेट बनें जैसे कि <math>A z_k = \lambda_k z_k</math> सभी के लिए <math>k=1,\dotsc,n</math>. | ||
प्रारंभिक लैंज़ोस वेक्टर के गुणांकों के लिए | प्रारंभिक लैंज़ोस वेक्टर के गुणांकों के लिए अंकन तय करना भी सुविधाजनक है <math>v_1</math> इस आइजनबेसिक के संबंध में; माना <math>d_k = z_k^* v_1</math> सभी के लिए <math>k=1,\dotsc,n</math>, ताकि <math> \textstyle v_1 = \sum_{k=1}^n d_k z_k</math> आरंभिक सदिश <math>v_1</math> कुछ आइजनअवयव के ख़त्म होने से संबंधित आइजनवैल्यू में अभिसरण में देरी होगी, और भले ही यह त्रुटि सीमा में स्थिर कारक के रूप में सामने आता है, कमी अवांछनीय बनी हुई है। लगातार इसकी चपेट में आने से बचने के लिए सामान्य तकनीक चुनना है <math>v_1</math> पहले माध्य के साथ समान [[सामान्य वितरण]] के अनुसार तत्वों को यादृच्छिक रूप से खींचकर <math>0</math> और फिर वेक्टर को मानक पर पुनः स्केल करें <math>1</math>. पुनर्स्केलिंग से पहले, यह गुणांक का कारण बनता है <math>d_k</math> समान सामान्य वितरण से स्वतंत्र सामान्य रूप से वितरित स्टोकेस्टिक चर भी होना चाहिए (क्योंकि निर्देशांक का परिवर्तन एकात्मक है), और वेक्टर को पुन: स्केल करने के बाद <math>(d_1,\dotsc,d_n)</math> इकाई क्षेत्र पर [[समान वितरण (निरंतर)]] होगा <math>\mathbb{C}^n</math>. इससे उदाहरण के लिए संभावना को <math>|d_1| < \varepsilon</math> सीमित करना संभव हो जाता है . | ||
तथ्य यह है कि लैंज़ोस एल्गोरिदम समन्वय-अज्ञेयवादी है - ऑपरेशन केवल वैक्टर के आंतरिक उत्पादों को देखते हैं, कभी भी वैक्टर के व्यक्तिगत तत्वों को नहीं देखते हैं - एल्गोरिदम को चलाने के लिए ज्ञात आइजनस्ट्रक्चर के साथ उदाहरण बनाना सरल बनाता है: बनाना <math>A</math> विकर्ण पर वांछित आइजनवैल्यू के साथ | तथ्य यह है कि लैंज़ोस एल्गोरिदम समन्वय-अज्ञेयवादी है - ऑपरेशन केवल वैक्टर के आंतरिक उत्पादों को देखते हैं, कभी भी वैक्टर के व्यक्तिगत तत्वों को नहीं देखते हैं - एल्गोरिदम को चलाने के लिए ज्ञात आइजनस्ट्रक्चर के साथ उदाहरण बनाना सरल बनाता है: बनाना <math>A</math> विकर्ण पर वांछित आइजनवैल्यू के साथ विकर्ण मैट्रिक्स; जब तक आरंभिक वेक्टर <math>v_1</math> पर्याप्त गैर-शून्य तत्व हैं, एल्गोरिथ्म सामान्य त्रिविकर्ण सममित मैट्रिक्स <math>T</math> को आउटपुट करेगा | ||
===कनिएल-पेगे अभिसरण सिद्धांत=== | ===कनिएल-पेगे अभिसरण सिद्धांत=== | ||
माना <math>m</math> लैंज़ोस एल्गोरिदम के पुनरावृत्ति चरण, <math>T</math> एक <math>m \times m</math> वास्तविक सममित मैट्रिक्स, जो उपरोक्त के समान है <math>m</math> आइजनवैल्यू <math>\theta_1 \geqslant \theta_2 \geqslant \dots \geqslant \theta_m.</math> अभिसरण से मुख्यतः अभिसरण का तात्पर्य है <math>\theta_1</math> को <math>\lambda_1</math> (और का सममित अभिसरण <math>\theta_m</math> को <math>\lambda_n</math>) जैसा <math>m</math> बढ़ता है, और दूसरा कुछ सीमा का अभिसरण <math>\theta_1, \ldots, \theta_k</math> के आइजनवैल्यू के <math>T</math> उनके समकक्षों के लिए <math>\lambda_1, \ldots, \lambda_k</math> का <math>A</math>. लैंज़ोस एल्गोरिदम के लिए अभिसरण अधिकांशतः पावर पुनरावृत्ति एल्गोरिदम की तुलना में तेज़ परिमाण का आदेश होता है।{{r|GolubVanLoan|p=477}} | माना <math>m</math> लैंज़ोस एल्गोरिदम के पुनरावृत्ति चरण, <math>T</math> एक <math>m \times m</math> वास्तविक सममित मैट्रिक्स, जो उपरोक्त के समान है <math>m</math> आइजनवैल्यू <math>\theta_1 \geqslant \theta_2 \geqslant \dots \geqslant \theta_m.</math> अभिसरण से मुख्यतः अभिसरण का तात्पर्य है <math>\theta_1</math> को <math>\lambda_1</math> (और का सममित अभिसरण <math>\theta_m</math> को <math>\lambda_n</math>) जैसा <math>m</math> बढ़ता है, और दूसरा कुछ सीमा का अभिसरण <math>\theta_1, \ldots, \theta_k</math> के आइजनवैल्यू के <math>T</math> उनके समकक्षों के लिए <math>\lambda_1, \ldots, \lambda_k</math> का <math>A</math>. लैंज़ोस एल्गोरिदम के लिए अभिसरण अधिकांशतः पावर पुनरावृत्ति एल्गोरिदम की तुलना में तेज़ परिमाण का आदेश होता है।{{r|GolubVanLoan|p=477}} | ||
के लिए सीमा <math>\theta_1</math> रेले भागफल के चरम मूल्यों के रूप में आइजनवैल्यू की उपरोक्त व्याख्या से आते हैं <math>r(x)</math>. तब से <math>\lambda_1</math> | के लिए सीमा <math>\theta_1</math> रेले भागफल के चरम मूल्यों के रूप में आइजनवैल्यू की उपरोक्त व्याख्या से आते हैं <math>r(x)</math>. तब से <math>\lambda_1</math> प्राथमिकता अधिकतम है <math>r</math> कुल मिलाकर <math>\Complex^n,</math> जबकि <math>\theta_1</math> पर अधिकतम मात्र है <math>m</math>-आयामी क्रायलोव उपस्थान, हम तुच्छ रूप से प्राप्त करते हैं <math> \lambda_1 \geqslant \theta_1</math>. इसके विपरीत, कोई भी बिंदु <math>x</math> उसमें क्रायलोव उपस्थान निचली सीमा प्रदान करता है <math>r(x)</math> के लिए <math>\theta_1</math>, इसलिए यदि कोई बिंदु प्रदर्शित किया जा सकता है जिसके लिए <math>\lambda_1 - r(x)</math> छोटा है तो यह टाइट बाउंड प्रदान करता है <math>\theta_1</math>. | ||
आयाम <math>m</math> क्रायलोव उपस्थान है | आयाम <math>m</math> क्रायलोव उपस्थान है | ||
Line 171: | Line 171: | ||
:<math>r(p(A)v_1) = \frac{(p(A) v_1)^* A p(A) v_1}{(p(A) v_1)^* p(A) v_1} = \frac{v_1^* p(A)^* A p(A) v_1}{v_1^* p(A)^* p(A) v_1} = \frac{v_1^* p^*(A^*) A p(A) v_1 }{v_1^* p^*(A^*) p(A) v_1} = \frac{ v_1^* p^*(A) A p(A) v_1 }{v_1^* p^*(A) p(A) v_1}</math> | :<math>r(p(A)v_1) = \frac{(p(A) v_1)^* A p(A) v_1}{(p(A) v_1)^* p(A) v_1} = \frac{v_1^* p(A)^* A p(A) v_1}{v_1^* p(A)^* p(A) v_1} = \frac{v_1^* p^*(A^*) A p(A) v_1 }{v_1^* p^*(A^*) p(A) v_1} = \frac{ v_1^* p^*(A) A p(A) v_1 }{v_1^* p^*(A) p(A) v_1}</math> | ||
अब के लिए अभिव्यक्ति का उपयोग करना <math>v_1</math> आइजनवेक्टर के | अब के लिए अभिव्यक्ति का उपयोग करना <math>v_1</math> आइजनवेक्टर के रैखिक संयोजन के रूप में, हमें मिलता है | ||
:<math> A v_1 = A \sum_{k=1}^n d_k z_k = \sum_{k=1}^n d_k \lambda_k z_k</math> और अधिक सामान्यतः | :<math> A v_1 = A \sum_{k=1}^n d_k z_k = \sum_{k=1}^n d_k \lambda_k z_k</math> और अधिक सामान्यतः | ||
Line 180: | Line 180: | ||
:<math>\lambda_1 - r(p(A)v_1) = \lambda_1 - \frac{v_1^* \sum_{k=1}^n d_k p^*(\lambda_k) \lambda_k p(\lambda_k) z_k}{v_1^* \sum_{k=1}^n d_k p^*(\lambda_k) p(\lambda_k) z_k} = \lambda_1 - \frac{\sum_{k=1}^n |d_k|^2 \lambda_k p(\lambda_k)^* p(\lambda_k)}{\sum_{k=1}^n |d_k|^2 p(\lambda_k)^* p(\lambda_k)} = \frac{\sum_{k=1}^n |d_k|^2 (\lambda_1-\lambda_k) \left| p(\lambda_k) \right|^2 }{\sum_{k=1}^n |d_k|^2 \left| p(\lambda_k) \right|^2 }.</math> | :<math>\lambda_1 - r(p(A)v_1) = \lambda_1 - \frac{v_1^* \sum_{k=1}^n d_k p^*(\lambda_k) \lambda_k p(\lambda_k) z_k}{v_1^* \sum_{k=1}^n d_k p^*(\lambda_k) p(\lambda_k) z_k} = \lambda_1 - \frac{\sum_{k=1}^n |d_k|^2 \lambda_k p(\lambda_k)^* p(\lambda_k)}{\sum_{k=1}^n |d_k|^2 p(\lambda_k)^* p(\lambda_k)} = \frac{\sum_{k=1}^n |d_k|^2 (\lambda_1-\lambda_k) \left| p(\lambda_k) \right|^2 }{\sum_{k=1}^n |d_k|^2 \left| p(\lambda_k) \right|^2 }.</math> | ||
यहां अंश और हर के बीच | यहां अंश और हर के बीच महत्वपूर्ण अंतर यह है कि <math>k=1</math> अंश में पद लुप्त हो जाता है, लेकिन हर में नहीं। इस प्रकार यदि कोई चुन सकता है <math>p</math> पर बड़ा होना <math>\lambda_1</math> लेकिन अन्य सभी आइजनवैल्यू पर छोटा होने पर, किसी को त्रुटि पर कड़ी पकड़ मिलेगी <math>\lambda_1-\theta_1</math>. | ||
तब से <math>A</math> की तुलना में कई अधिक स्वदेशी मान हैं <math>p</math> गुणांक है, यह | तब से <math>A</math> की तुलना में कई अधिक स्वदेशी मान हैं <math>p</math> गुणांक है, यह लंबा क्रम प्रतीत हो सकता है, लेकिन इसे पूरा करने का विधि [[चेबीशेव बहुपद]] का उपयोग करना है। लिखना <math>c_k</math> डिग्री के लिए <math>k</math> पहली तरह का चेबीशेव बहुपद (जो संतुष्ट करता है <math>c_k(\cos x) = \cos(kx)</math> सभी के लिए <math>x</math>), हमारे पास बहुपद है जो सीमा में रहता है <math>[-1,1]</math> ज्ञात अंतराल पर <math>[-1,1]</math> लेकिन इसके बाहर तेजी से बढ़ता है। तर्क के कुछ स्केलिंग के साथ, हम इसे छोड़कर सभी आइजनवैल्यू को मैप कर सकते हैं <math>\lambda_1</math> में <math>[-1,1]</math> माना | ||
:<math> p(x) = c_{m-1}\left( \frac{2x - \lambda_2 - \lambda_n}{\lambda_2 - \lambda_n} \right)</math> (यदि <math>\lambda_2=\lambda_1</math>, इसके अतिरिक्त सबसे बड़े आइजनवैल्यू का उपयोग करें जो कि इससे बिल्कुल कम है <math>\lambda_1</math>), फिर का अधिकतम मान <math>| p(\lambda_k)|^2</math> के लिए <math>k \geqslant 2</math> है <math>1</math> और न्यूनतम मूल्य है <math>0</math>, इसलिए | :<math> p(x) = c_{m-1}\left( \frac{2x - \lambda_2 - \lambda_n}{\lambda_2 - \lambda_n} \right)</math> (यदि <math>\lambda_2=\lambda_1</math>, इसके अतिरिक्त सबसे बड़े आइजनवैल्यू का उपयोग करें जो कि इससे बिल्कुल कम है <math>\lambda_1</math>), फिर का अधिकतम मान <math>| p(\lambda_k)|^2</math> के लिए <math>k \geqslant 2</math> है <math>1</math> और न्यूनतम मूल्य है <math>0</math>, इसलिए | ||
Line 203: | Line 203: | ||
&\leqslant 4 \frac{1 - |d_1|^2}{|d_1|^2} (\lambda_1-\lambda_n) R^{-2(m-1)} | &\leqslant 4 \frac{1 - |d_1|^2}{|d_1|^2} (\lambda_1-\lambda_n) R^{-2(m-1)} | ||
\end{align}</math> | \end{align}</math> | ||
इस प्रकार अभिसरण दर को मुख्य रूप से नियंत्रित किया जाता है <math>R</math>, चूँकि यह सीमा | इस प्रकार अभिसरण दर को मुख्य रूप से नियंत्रित किया जाता है <math>R</math>, चूँकि यह सीमा कारक द्वारा सिकुड़ती है <math>R^{-2}</math> प्रत्येक अतिरिक्त पुनरावृत्ति के लिए. | ||
तुलना के लिए, कोई इस बात पर विचार कर सकता है कि विद्युत विधि की अभिसरण दर किस प्रकार निर्भर करती है <math>\rho</math>, लेकिन चूँकि शक्ति विधि मुख्य रूप से आइजनवैल्यू के निरपेक्ष मूल्यों के बीच भागफल के प्रति संवेदनशील है, हमें इसकी आवश्यकता है <math>|\lambda_n| \leqslant |\lambda_2|</math> बीच के ईगेंगैप के लिए <math>\lambda_1</math> और <math>\lambda_2</math> प्रमुख होना. उस बाधा के अंतर्गत, वह स्थितियों जो शक्ति पद्धति को सबसे अधिक पसंद करता है <math>\lambda_n = -\lambda_2</math>, तो उस पर विचार करें। शक्ति विधि में देर से, पुनरावृत्ति वेक्टर: | तुलना के लिए, कोई इस बात पर विचार कर सकता है कि विद्युत विधि की अभिसरण दर किस प्रकार निर्भर करती है <math>\rho</math>, लेकिन चूँकि शक्ति विधि मुख्य रूप से आइजनवैल्यू के निरपेक्ष मूल्यों के बीच भागफल के प्रति संवेदनशील है, हमें इसकी आवश्यकता है <math>|\lambda_n| \leqslant |\lambda_2|</math> बीच के ईगेंगैप के लिए <math>\lambda_1</math> और <math>\lambda_2</math> प्रमुख होना. उस बाधा के अंतर्गत, वह स्थितियों जो शक्ति पद्धति को सबसे अधिक पसंद करता है <math>\lambda_n = -\lambda_2</math>, तो उस पर विचार करें। शक्ति विधि में देर से, पुनरावृत्ति वेक्टर: | ||
Line 218: | Line 218: | ||
:<math>\lambda_1 - u^*Au = (\lambda_1-\lambda_2) t^2,</math> | :<math>\lambda_1 - u^*Au = (\lambda_1-\lambda_2) t^2,</math> | ||
जो | जो कारक से सिकुड़ता है <math>(1+2\rho)^{-2}</math> प्रत्येक पुनरावृत्ति के लिए. इस प्रकार यह अंतर बीच में ही सिमट कर रह जाता है <math> 1+2\rho </math> और <math>R = 1 + 2\rho + 2\sqrt{\rho^2+\rho}</math>. में <math>\rho \gg 1</math> क्षेत्र, बाद वाला अधिक पसंद है <math> 1+4\rho </math>, और दोगुने बड़े ईजेंगैप के साथ पावर विधि की तरह प्रदर्शन करता है उल्लेखनीय सुधार. चुकीं, अधिक चुनौतीपूर्ण मामला यह है <math> \rho \ll 1,</math> जिसमें <math>R \approx 1 + 2\sqrt{\rho} </math> ईजेंगैप पर और भी बड़ा सुधार है; <math> \rho \gg 1 </math> वह क्षेत्र है जहां लैंज़ोस एल्गोरिदम अभिसरण-वार पावर विधि पर सबसे छोटा सुधार करता है। | ||
==संख्यात्मक स्थिरता== | ==संख्यात्मक स्थिरता== | ||
स्थिरता का अर्थ है कि यदि छोटी-छोटी संख्यात्मक त्रुटियां पेश की जाती हैं और जमा हो जाती हैं तो एल्गोरिदम कितना प्रभावित होगा (अर्थात् क्या यह मूल परिणाम के करीब अनुमानित परिणाम देगा)। राउंडऑफ़ वाले कंप्यूटर पर एल्गोरिदम को प्रयुक्त करने की उपयोगिता का आकलन करने के लिए संख्यात्मक स्थिरता केंद्रीय मानदंड है। | स्थिरता का अर्थ है कि यदि छोटी-छोटी संख्यात्मक त्रुटियां पेश की जाती हैं और जमा हो जाती हैं तो एल्गोरिदम कितना प्रभावित होगा (अर्थात् क्या यह मूल परिणाम के करीब अनुमानित परिणाम देगा)। राउंडऑफ़ वाले कंप्यूटर पर एल्गोरिदम को प्रयुक्त करने की उपयोगिता का आकलन करने के लिए संख्यात्मक स्थिरता केंद्रीय मानदंड है। | ||
लैंज़ोस एल्गोरिदम के लिए, यह साबित किया जा सकता है कि सटीक अंकगणित के साथ, वैक्टर का सेट <math>v_1, v_2, \cdots, v_{m+1}</math> | लैंज़ोस एल्गोरिदम के लिए, यह साबित किया जा सकता है कि सटीक अंकगणित के साथ, वैक्टर का सेट <math>v_1, v_2, \cdots, v_{m+1}</math> ऑर्थोनॉर्मल आधार का निर्माण करता है, और हल किए गए आइजनवैल्यू/वेक्टर मूल मैट्रिक्स के अच्छे अनुमान हैं। चुकीं, व्यवहार में (चूंकि गणना फ्लोटिंग पॉइंट अंकगणित में की जाती है जहां अशुद्धि अपरिहार्य है), ऑर्थोगोनैलिटी जल्दी से खो जाती है और कुछ मामलों में नया वेक्टर पहले से निर्मित सेट पर रैखिक रूप से निर्भर भी हो सकता है। परिणामस्वरूप, परिणामी त्रिविकर्ण मैट्रिक्स के कुछ आइजनवैल्यू मूल मैट्रिक्स के सन्निकटन नहीं हो सकते हैं। इसलिए, लैंज़ोस एल्गोरिदम बहुत स्थिर नहीं है। | ||
इस एल्गोरिदम के उपयोगकर्ताओं को उन नकली आइजनवैल्यू को खोजने और हटाने में सक्षम होना चाहिए। लैंज़ोस एल्गोरिदम का व्यावहारिक कार्यान्वयन इस स्थिरता के मुद्दे से लड़ने के लिए तीन दिशाओं में जाता है:<ref name="CW1985"/><ref name="Saad1992"/> | इस एल्गोरिदम के उपयोगकर्ताओं को उन नकली आइजनवैल्यू को खोजने और हटाने में सक्षम होना चाहिए। लैंज़ोस एल्गोरिदम का व्यावहारिक कार्यान्वयन इस स्थिरता के मुद्दे से लड़ने के लिए तीन दिशाओं में जाता है:<ref name="CW1985"/><ref name="Saad1992"/> | ||
Line 234: | Line 234: | ||
लैंज़ोस एल्गोरिदम पर भिन्नताएं उपस्थित हैं जहां सम्मिलित वेक्टर वेक्टर के बजाय लंबे, संकीर्ण मैट्रिक्स हैं और सामान्यीकरण स्थिरांक छोटे वर्ग मैट्रिक्स हैं। इन्हें ब्लॉक लैंज़ोस एल्गोरिदम कहा जाता है और बड़ी संख्या में रजिस्टरों और लंबी मेमोरी-फ़ेच समय वाले कंप्यूटरों पर यह बहुत तेज़ हो सकता है। | लैंज़ोस एल्गोरिदम पर भिन्नताएं उपस्थित हैं जहां सम्मिलित वेक्टर वेक्टर के बजाय लंबे, संकीर्ण मैट्रिक्स हैं और सामान्यीकरण स्थिरांक छोटे वर्ग मैट्रिक्स हैं। इन्हें ब्लॉक लैंज़ोस एल्गोरिदम कहा जाता है और बड़ी संख्या में रजिस्टरों और लंबी मेमोरी-फ़ेच समय वाले कंप्यूटरों पर यह बहुत तेज़ हो सकता है। | ||
लैंज़ोस एल्गोरिदम के कई कार्यान्वयन | लैंज़ोस एल्गोरिदम के कई कार्यान्वयन निश्चित संख्या में पुनरावृत्तियों के बाद पुनः आरंभ होते हैं। सबसे प्रभावशाली पुनः आरंभ की गई विविधताओं में से अंतर्निहित रूप से पुनः आरंभ की गई लैंज़ोस पद्धति है,<ref>{{cite journal |author1=D. Calvetti |author1-link= Daniela Calvetti |author2=L. Reichel |author3=D.C. Sorensen |year=1994 |title=बड़े सममित आइजेनवैल्यू समस्याओं के लिए एक अंतर्निहित रूप से पुनः आरंभ की गई लैंज़ोस विधि|url=http://etna.mcs.kent.edu/vol.2.1994/pp1-21.dir/pp1-21.ps| | ||
journal = [[Electronic Transactions on Numerical Analysis]]| | journal = [[Electronic Transactions on Numerical Analysis]]| | ||
volume = 2| | volume = 2| | ||
Line 241: | Line 241: | ||
=== | ===परिमित क्षेत्र पर शून्यस्थान=== | ||
{{Main|लैंज़ोस एल्गोरिदम को ब्लॉक करें}} | {{Main|लैंज़ोस एल्गोरिदम को ब्लॉक करें}} | ||
1995 में, [[पीटर मोंटगोमरी (गणितज्ञ)]] ने [[GF(2)]] पर | 1995 में, [[पीटर मोंटगोमरी (गणितज्ञ)]] ने [[GF(2)]] पर बड़े विरल मैट्रिक्स के [[कर्नेल (मैट्रिक्स)]] के तत्वों को खोजने के लिए लैंज़ोस एल्गोरिदम पर आधारित एल्गोरिदम प्रकाशित किया; चूँकि परिमित क्षेत्रों में बड़े विरल मैट्रिक्स में रुचि रखने वाले लोगों का समूह और बड़ी स्वदेशी समस्याओं में रुचि रखने वाले लोगों का समूह शायद ही ओवरलैप होता है, इसे अधिकांशतः अनुचित भ्रम पैदा किए बिना ब्लॉक लैंज़ो एल्गोरिदम भी कहा जाता है। | ||
==अनुप्रयोग== | ==अनुप्रयोग== | ||
लैंज़ोस एल्गोरिदम बहुत आकर्षक हैं क्योंकि गुणा <math>A\,</math> एकमात्र बड़े पैमाने का रैखिक ऑपरेशन है। चूंकि भारित-अवधि पाठ पुनर्प्राप्ति इंजन केवल इस ऑपरेशन को कार्यान्वित करते हैं, लैंज़ोस एल्गोरिदम को पाठ दस्तावेज़ों पर कुशलतापूर्वक प्रयुक्त किया जा सकता है ([[अव्यक्त अर्थ अनुक्रमण]] | लैंज़ोस एल्गोरिदम बहुत आकर्षक हैं क्योंकि गुणा <math>A\,</math> एकमात्र बड़े पैमाने का रैखिक ऑपरेशन है। चूंकि भारित-अवधि पाठ पुनर्प्राप्ति इंजन केवल इस ऑपरेशन को कार्यान्वित करते हैं, लैंज़ोस एल्गोरिदम को पाठ दस्तावेज़ों पर कुशलतापूर्वक प्रयुक्त किया जा सकता है ([[अव्यक्त अर्थ अनुक्रमण]] देखें)। आइजनवेक्टर बड़े पैमाने पर रैंकिंग विधियों के लिए भी महत्वपूर्ण हैं जैसे कि [[जॉन क्लेनबर्ग]] द्वारा विकसित एचआईटीएस एल्गोरिदम, या गूगल द्वारा उपयोग किया जाने वाला [[ पृष्ठ रैंक ]] एल्गोरिदम। | ||
लैंज़ोस एल्गोरिदम का उपयोग [[संघनित पदार्थ भौतिकी]] में [[दृढ़ता से सहसंबद्ध सामग्री]] के [[हैमिल्टनियन मैट्रिक्स]] को हल करने की | लैंज़ोस एल्गोरिदम का उपयोग [[संघनित पदार्थ भौतिकी]] में [[दृढ़ता से सहसंबद्ध सामग्री]] के [[हैमिल्टनियन मैट्रिक्स]] को हल करने की विधि के रूप में भी किया जाता है,<ref>{{cite journal|last=Chen|first=HY|author2=Atkinson, W.A. |author3=Wortis, R. |title=Disorder-induced zero-bias anomaly in the Anderson-Hubbard model: Numerical and analytical calculations|journal=Physical Review B|date=July 2011|volume=84|issue=4|pages=045113|doi=10.1103/PhysRevB.84.045113|arxiv=1012.1031|bibcode=2011PhRvB..84d5113C|s2cid=118722138}}</ref> साथ ही [[परमाणु भौतिकी]] में [[परमाणु शेल मॉडल]] कोड में भी।<ref>{{cite arXiv|last=Shimizu|first=Noritaka|title=बड़े पैमाने पर समानांतर गणना के लिए परमाणु शेल-मॉडल कोड, "KSHELL"|eprint=1310.5431|date=21 October 2013|class=nucl-th}}</ref> | ||
Line 257: | Line 257: | ||
[[MATLAB]] और GNU ऑक्टेव ARPACK बिल्ट-इन के साथ आते हैं। संग्रहीत और अंतर्निहित दोनों मैट्रिक्स का विश्लेषण eigs() फलन ([http://www.mathworks.com/help/techdoc/ref/eigs.html Matlab]/[https://www.gnu.org/software/octave/doc/interpreter/Sparse-Linear-Algebra.html#doc_002deigs Octave]) के माध्यम से किया जा सकता है। | [[MATLAB]] और GNU ऑक्टेव ARPACK बिल्ट-इन के साथ आते हैं। संग्रहीत और अंतर्निहित दोनों मैट्रिक्स का विश्लेषण eigs() फलन ([http://www.mathworks.com/help/techdoc/ref/eigs.html Matlab]/[https://www.gnu.org/software/octave/doc/interpreter/Sparse-Linear-Algebra.html#doc_002deigs Octave]) के माध्यम से किया जा सकता है। | ||
इसी तरह, पायथन_(प्रोग्रामिंग_भाषा) में, [[SciPy]] पैकेज में [https://docs.scipy.org/doc/scipy/reference/generated/scipy.sparse.linalg.eigsh.html scipy.sparse.linalg.eigsh] है, जो ARPACK के SSEUPD और DSEUPD फलन | इसी तरह, पायथन_(प्रोग्रामिंग_भाषा) में, [[SciPy]] पैकेज में [https://docs.scipy.org/doc/scipy/reference/generated/scipy.sparse.linalg.eigsh.html scipy.sparse.linalg.eigsh] है, जो ARPACK के SSEUPD और DSEUPD फलन के लिए रैपर भी है जो इम्प्लिसिटली रीस्टार्टेड लैंक्ज़ोस विधि का उपयोग करता है। | ||
लैंज़ोस एल्गोरिथ्म का | लैंज़ोस एल्गोरिथ्म का मैटलैब कार्यान्वयन (सटीक मुद्दों पर ध्यान दें) [https://www.cs.cmu.edu/~bickson/gabp/#download गॉसियन बिलीफ प्रोपेगेशन मैटलैब पैकेज] के भाग के रूप में उपलब्ध है। [[ग्राफलैब]]<ref>[http://www.graphlab.ml.cmu.edu/pmf.html GraphLab] {{webarchive|url=https://web.archive.org/web/20110314171151/http://www.graphlab.ml.cmu.edu/pmf.html |date=2011-03-14 }}</ref> सहयोगी फ़िल्टरिंग लाइब्रेरी में मल्टीकोर के लिए लैंज़ोस एल्गोरिदम (c ++ में) के बड़े पैमाने पर समानांतर कार्यान्वयन सम्मिलित है। | ||
[http://www.cs.wm.edu/~andreas/software/ PRIMME] लाइब्रेरी लैंज़ोस जैसा एल्गोरिदम भी प्रयुक्त करती है। | [http://www.cs.wm.edu/~andreas/software/ PRIMME] लाइब्रेरी लैंज़ोस जैसा एल्गोरिदम भी प्रयुक्त करती है। |
Revision as of 09:46, 31 July 2023
लैंज़ोस एल्गोरिदम कॉर्नेलियस लैंज़ोस द्वारा प्रस्तुत की गई पुनरावृत्तीय विधि है जो खोजने के लिए शक्ति पुनरावृत्ति का अनुकूलन है सबसे उपयोगी (अति उच्चतम/निम्नतम की ओर रुझान) आइजनवैल्यू और आइजनवेक्टर हर्मिटियन मैट्रिक्स, जहाँ अधिकांशतः होता है लेकिन आवश्यक नहीं कि उससे बहुत छोटा हो .[1] यद्यपि सैद्धांतिक रूप से कम्प्यूटेशनल रूप से कुशल, प्रारंभिक रूप से तैयार की गई विधि अपनी संख्यात्मक स्थिरता के कारण उपयोगी नहीं थी।
1970 में, ओजाल्वो और न्यूमैन ने दिखाया कि विधि को संख्यात्मक रूप से स्थिर कैसे बनाया जाए और इसे गतिशील लोडिंग के अधीन बहुत बड़ी इंजीनियरिंग संरचनाओं के समाधान में प्रयुक्त किया जाए।[2] यह लैंज़ोस वैक्टर को शुद्ध करने के लिए विधि का उपयोग करके प्राप्त किया गया था (अर्थात् प्रत्येक नए जेनरेट किए गए वेक्टर को पहले से जेनरेट किए गए सभी के साथ बार-बार पुन: व्यवस्थित करके)[2] सटीकता की किसी भी डिग्री तक, जब प्रदर्शन नहीं किया गया, तो वैक्टरों की श्रृंखला उत्पन्न हुई जो सबसे कम प्राकृतिक आवृत्तियों से जुड़े वैक्टरों द्वारा अत्यधिक दूषित थीं।
अपने मूल काम में, इन लेखकों ने यह भी सुझाव दिया कि प्रारंभिक वेक्टर का चयन कैसे करें (अर्थात् प्रारंभिक वेक्टर के प्रत्येक तत्व का चयन करने के लिए यादृच्छिक संख्या जेनरेटर का उपयोग करें) और निर्धारण के लिए अनुभवजन्य रूप से निर्धारित विधि का सुझाव दिया , सदिशों की कम संख्या (अर्थात इसे वांछित सटीक आइजनवैल्यू की संख्या का लगभग 1.5 गुना चुना जाना चाहिए)। इसके तुरंत बाद उनके काम का अनुसरण पेगे ने किया, जिन्होंने त्रुटि विश्लेषण भी प्रदान किया।[3][4] 1988 में, ओजाल्वो ने इस एल्गोरिदम का अधिक विस्तृत इतिहास और कुशल आइजनवैल्यू त्रुटि परीक्षण तैयार किया।[5]
एल्गोरिदम
- हर्मिटियन मैट्रिक्स इनपुट करें आकार का , और वैकल्पिक रूप से कई पुनरावृत्तियाँ (डिफ़ॉल्ट के रूप में, माना ).
- सच कहूँ तो, एल्गोरिदम को स्पष्ट मैट्रिक्स तक पहुंच की आवश्यकता नहीं है, किन्तु केवल फलन की आवश्यकता है जो मनमाना वेक्टर द्वारा मैट्रिक्स के उत्पाद की गणना करता है। इस फलन को अधिक से अधिक कॉल किया जाता है बार.
- आउटपुट आव्यूह रूढ़िवादिता कॉलम और त्रिविकर्ण मैट्रिक्स वास्तविक सममित मैट्रिक्स के साथ आकार का . अगर , तब एकात्मक मैट्रिक्स है, और .
- चेतावनी लैंज़ोस पुनरावृत्ति संख्यात्मक अस्थिरता से ग्रस्त है। गैर-सटीक अंकगणित में निष्पादित होने पर, परिणामों की वैधता सुनिश्चित करने के लिए अतिरिक्त उपाय (जैसा कि बाद के अनुभागों में बताया गया है) किए जाने चाहिए।
- माना यूक्लिडियन मानदंड के साथ मनमाना वेक्टर बनें
- संक्षिप्त प्रारंभिक पुनरावृत्ति चरण:
- माना .
- माना .
- माना .
- के लिए करना:
- माना (यूक्लिडियन मानदंड भी)।
- अगर , तो करने दें ,
- अन्यथा इस रूप में चुनें यूक्लिडियन मानदंड के साथ मनमाना वेक्टर यह सभी के लिए ओर्थोगोनल है .
- माना .
- माना .
- माना .
- माना कॉलम के साथ मैट्रिक्स बनें . माना .
- टिप्पणी के लिए .
पुनरावृत्ति प्रक्रिया को लिखने के सैद्धांतिक रूप से चार विधि हैं। पेगे और अन्य कार्यों से पता चलता है कि संचालन का उपरोक्त क्रम संख्यात्मक रूप से सबसे स्थिर है।[6][7]
व्यवहार में प्रारंभिक वेक्टर प्रक्रिया के अन्य तर्क के रूप में लिया जा सकता है और संख्यात्मक अशुद्धि के संकेतकों को अतिरिक्त लूप समाप्ति शर्तों के रूप में सम्मिलित किया जा रहा है।
मैट्रिक्स-वेक्टर गुणन की गणना न करते हुए, प्रत्येक पुनरावृत्ति करता है अंकगणितीय परिचालन. मैट्रिक्स-वेक्टर गुणन किया जा सकता है अंकगणितीय संक्रियाएँ जहाँ एक पंक्ति में शून्येतर तत्वों की औसत संख्या है। कुल जटिलता इस प्रकार है , या अगर ; लैंज़ोस एल्गोरिदम विरल मैट्रिक्स के लिए बहुत तेज़ हो सकता है। संख्यात्मक स्थिरता में सुधार के लिए योजनाओं को सामान्यतः इस उच्च प्रदर्शन के आधार पर आंका जाता है।
वैक्टर लैंज़ोस वैक्टर कहलाते हैं।
सदिश के बाद उपयोग नहीं किया जाता है गणना की जाती है, और वेक्टर के बाद उपयोग नहीं किया जाता है गणना की जाती है. इसलिए कोई भी तीनों के लिए एक ही भंडारण का उपयोग कर सकता है। इसी तरह, यदि केवल त्रिविकर्ण मैट्रिक्स मांगा जाता है, तो कच्चे पुनरावर्तन की आवश्यकता नहीं होती गणना करने के बाद , चुकीं संख्यात्मक स्थिरता में सुधार के लिए कुछ योजनाओं को बाद में इसकी आवश्यकता होगी। कभी-कभी बाद के लैंज़ोस वैक्टर की पुनर्गणना की जाती है जब आवश्यक है।
आइजन समस्याएं के लिए आवेदन
लैंज़ोस एल्गोरिदम को अधिकांशतः मैट्रिक्स के आइजनवैल्यू और आइजनवेक्टर खोजने के संदर्भ में लाया जाता है, लेकिन जबकि सामान्य मैट्रिक्स विकर्णीकरण आइजनवेक्टर और आइजनवैल्यू को निरीक्षण से स्पष्ट कर देगा, वही लैंज़ोस एल्गोरिदम द्वारा किए गए ट्राइडिएगोनलाइज़ेशन के लिए सच नहीं है; एक भी आइजेनवैल्यू या आइजेनवेक्टर की गणना करने के लिए गैर-तुच्छ अतिरिक्त चरणों की आवश्यकता होती है। फिर भी, लैंज़ोस एल्गोरिथ्म को प्रयुक्त करना अधिकांशतः आइगेंडेकंपोजीशन की गणना में महत्वपूर्ण कदम है। अगर का प्रतिरूप है , और अगर ( का आइजेनवेक्टर है) तब का संगत आइजेनवेक्टर है (तब से ). इस प्रकार लैंज़ोस एल्गोरिथ्म आइजनसंयोजन समस्या को बदल देता है आइजनसंयोजन समस्या के लिए .
- त्रिविकर्ण मैट्रिक्स के लिए, कई विशिष्ट एल्गोरिदम उपस्थित हैं, जो अधिकांशतः सामान्य-उद्देश्य एल्गोरिदम की तुलना में बेहतर कम्प्यूटेशनल जटिलता के साथ होते हैं। उदाहरण के लिए, यदि एक त्रिविकर्ण सममित मैट्रिक्स तब:
- त्रिविकर्ण मैट्रिक्स#निर्धारक विशेषता बहुपद की गणना करने की अनुमति देता है संचालन, और बिंदु पर इसका मूल्यांकन करना परिचालन.
- डिवाइड आइजनवैल्यू एल्गोरिदम का उपयोग संपूर्ण आइजनसंयोजन की गणना करने के लिए किया जा सकता है में परिचालन.
- फास्ट मल्टीपोल विधि[8] सभी आइजनवैल्यू की गणना बस में कर सकते हैं परिचालन.
- कुछ सामान्य आइजनसंयोजन एल्गोरिदम, विशेष रूप से QR एल्गोरिदम, सामान्य मैट्रिक्स की तुलना में त्रिविकर्ण मैट्रिक्स के लिए तेजी से अभिसरण करने के लिए जाने जाते हैं। त्रिविकर्ण QR की स्पर्शोन्मुख जटिलता है ठीक वैसे ही जैसे कि डिवाइड करो और जीतो एल्गोरिथ्म के लिए (चुकीं स्थिर कारक भिन्न हो सकता है); चूँकि आइजनवेक्टर एक साथ हैं तत्व, यह स्पर्शोन्मुख रूप से इष्टतम है।
- यहां तक कि एल्गोरिदम जिनकी अभिसरण दरें एकात्मक परिवर्तनों से अप्रभावित हैं, जैसे कि शक्ति विधि और व्युत्क्रम पुनरावृत्ति, त्रिविकर्ण मैट्रिक्स पर प्रयुक्त होने से निम्न-स्तरीय प्रदर्शन लाभ का आनंद ले सकते हैं मूल मैट्रिक्स के अतिरिक्त . तब से अत्यधिक पूर्वानुमानित स्थितियों में सभी गैर-शून्य तत्वों के साथ बहुत विरल है, यह कैश (कंप्यूटिंग) की तुलना में उत्कृष्ट प्रदर्शन के साथ कॉम्पैक्ट स्टोरेज की अनुमति देता है। वैसे ही, जबकि सभी आइजनवेक्टर और आइजनवैल्यू वास्तविक के साथ वास्तविक संख्या मैट्रिक्स है सामान्य तौर पर इसमें जटिल तत्व और आइजनवेक्टर हो सकते हैं, इसलिए वास्तविक अंकगणित आइजनवेक्टर और आइजनवेक्टर खोजने के लिए पर्याप्त है
- अगर बहुत बड़ा है, फिर घट रहा है जिससे प्रबंधनीय आकार का होने पर भी यह अधिक चरम आइजनवैल्यू और आइजनवेक्टर खोजने की अनुमति देगा ; में क्षेत्र में, लैंज़ोस एल्गोरिथ्म को हर्मिटियन मैट्रिसेस के लिए हानिपूर्ण संपीड़न योजना के रूप में देखा जा सकता है, जो चरम स्वदेशी मूल्यों को संरक्षित करने पर जोर देता है।
विरल मैट्रिक्स के लिए अच्छे प्रदर्शन का संयोजन और कई (सभी की गणना किए बिना) आइजनवैल्यू की गणना करने की क्षमता लैंज़ोस एल्गोरिदम का उपयोग करने का चयन करने के मुख्य कारण हैं।
त्रिविकर्णीकरण का अनुप्रयोग
यद्यपि आइजनप्रॉब्लम अधिकांशतः लैंज़ोस एल्गोरिदम को प्रयुक्त करने के लिए प्रेरणा होती है, एल्गोरिदम मुख्य रूप से जो ऑपरेशन करता है वह मैट्रिक्स का त्रिविकर्णीकरण होता है, जिसके लिए 1950 के दशक से संख्यात्मक रूप से स्थिर हाउसहोल्डर परिवर्तनों का समर्थन किया गया है। 1960 के दशक के समय लैंज़ोस एल्गोरिदम की उपेक्षा की गई थी। कनियल-पेगे अभिसरण सिद्धांत और संख्यात्मक अस्थिरता को रोकने के विधियों के विकास से इसमें रुचि फिर से जीवंत हो गई, लेकिन लैंज़ोस एल्गोरिदम वैकल्पिक एल्गोरिदम बना हुआ है जिसे कोई केवल तभी आज़माता है जब हाउसहोल्डर संतोषजनक नहीं होता है।[9]
जिन पहलुओं में दोनों एल्गोरिदम भिन्न हैं उनमें सम्मिलित हैं:
- लैंज़ोस लाभ उठाता है विरल मैट्रिक्स होने के नाते, जबकि हाउसहोल्डर ऐसा नहीं करता है, और विरल मैट्रिक्स #रिड्यूसिंग फिल-इन|फिल-इन उत्पन्न करेगा।
- लैंज़ोस मूल मैट्रिक्स के साथ काम करता है (और इसे केवल अंतर्निहित रूप से ज्ञात होने में कोई समस्या नहीं है), जबकि कच्चा हाउसहोल्डर गणना के समय मैट्रिक्स को संशोधित करना चाहता है (चुकीं इससे बचा जा सकता है)।
- लैंज़ोस एल्गोरिथ्म का प्रत्येक पुनरावृत्ति अंतिम परिवर्तन मैट्रिक्स का और कॉलम तैयार करता है , जबकि हाउसहोल्डर का पुनरावृत्ति एकात्मक गुणनखंडन में एक और कारक उत्पन्न करता है का . चुकीं, प्रत्येक कारक एकल वेक्टर द्वारा निर्धारित होता है, इसलिए भंडारण आवश्यकताएँ दोनों एल्गोरिदम के लिए समान हैं, और में गणना की जा सकती है समय।
- ओनर संख्यात्मक रूप से स्थिर है, जबकि कच्चा लैंज़ोस नहीं है।
- लैंज़ोस अत्यधिक समानांतर है, केवल के साथ सिंक्रोनाइज़ेशन के बिंदु (कंप्यूटर विज्ञान) (की गणना) और ). गृहस्थ कम समानांतर होता है, जिसका क्रम होता है अदिश मात्राओं की गणना की जाती है जिनमें से प्रत्येक अनुक्रम में पिछली मात्रा पर निर्भर करती है।
एल्गोरिदम की व्युत्पत्ति
तर्क की कई पंक्तियाँ हैं जो लैंज़ोस एल्गोरिदम की ओर ले जाती हैं।
अधिक भविष्य शक्ति विधि
सबसे बड़े परिमाण के आइजेनवैल्यू और मैट्रिक्स के संबंधित आइजेनवेक्टर को खोजने की शक्ति विधि सामान्यतः है
- यादृच्छिक वेक्टर चुनें .
- के लिए (के निर्देश तक एकत्रित हो गया है) करें:
- माना
- माना
- बड़े में सीमा, सबसे बड़े परिमाण के आइगेनवैल्यू के अनुरूप मानक आइजेनवेक्टर के पास पहुंचता है।
इस पद्धति के खिलाफ जो आलोचना की जा सकती है वह यह है कि यह व्यर्थ है: इसमें मैट्रिक्स से जानकारी निकालने में बहुत सारा काम (चरण 2.1 में मैट्रिक्स-वेक्टर उत्पाद) खर्च होता है , लेकिन केवल अंतिम परिणाम पर ही ध्यान देता है; कार्यान्वयन सामान्यतः सभी वैक्टरों के लिए समान चर का उपयोग करते हैं , प्रत्येक नए पुनरावृत्ति में पिछले वाले के परिणामों को अधिलेखित कर दिया जाता है। इसके अतिरिक्त सभी मध्यवर्ती परिणामों को रखना और डेटा को व्यवस्थित करना वांछनीय हो सकता है।
जानकारी का टुकड़ा जो तुच्छ रूप से वैक्टर से उपलब्ध है क्रायलोव उपस्थानों की श्रृंखला है। यह बताने का विधि कि एल्गोरिथम में सेट सम्मिलित किए बिना यह दावा करना है कि यह गणना करता है
- उपसमुच्चय के एक आधार का ऐसा है कि हरएक के लिए और सभी
यह तुच्छ रूप से संतुष्ट है जब तक कि से रैखिक रूप से स्वतंत्र है (और यदि ऐसी कोई निर्भरता है तो कोई इसे चुनकर अनुक्रम जारी रख सकता है मनमाना वेक्टर रैखिक रूप से स्वतंत्र है ) आधार जिसमें सम्मिलित है चुकीं, वेक्टर के संख्यात्मक रूप से खराब होने की संभावना है, क्योंकि वेक्टर का यह क्रम डिजाइन के अनुसार आइजेनवेक्टर में परिवर्तित होने के लिए है। . इससे बचने के लिए, कोई व्यक्ति शक्ति पुनरावृत्ति को ग्राम-श्मिट प्रक्रिया के साथ जोड़ सकता है, इसके बजाय इन क्रायलोव उप-स्थानों का ऑर्थोनॉर्मल आधार तैयार कर सकता है।
- यादृच्छिक वेक्टर चुनें यूक्लिडियन मानदंड का . माना .
- के लिए करना:
- माना .
- सभी के लिए माना. (ये के निर्देशांक हैं आधार वैक्टर के संबंध में .)
- माना . (के घटक को रद्द करें यह है .)
- अगर तो करने दें और ,
- अन्यथा इस रूप में चुनें यूक्लिडियन मानदंड का मनमाना वेक्टर यह सभी के लिए ओर्थोगोनल है .
शक्ति पुनरावृत्ति वैक्टर के बीच संबंध और ऑर्थोगोनल वैक्टर यह है कि
- .
यहाँ यह देखा जा सकता है कि वास्तव में हमें इसकी आवश्यकता नहीं है इनकी गणना करने के लिए वैक्टर , क्योंकि और इसलिए बीच का अंतर और में है , जिसे ऑर्थोगोनलाइज़ेशन प्रक्रिया द्वारा रद्द कर दिया गया है। इस प्रकार क्रायलोव उप-स्थानों की श्रृंखला के लिए समान आधार की गणना की जाती है
- यादृच्छिक वेक्टर चुनें यूक्लिडियन मानदंड का .
- के लिए करना:
- माना .
- सभी के लिए माना.
- माना .
- माना .
- अगर तो करने दें ,
- अन्यथा इस रूप में चुनें यूक्लिडियन मानदंड का मनमाना वेक्टर यह सभी के लिए ओर्थोगोनल है .
प्राथमिकता गुणांक संतुष्ट करना
- सभी के लिए ;
मानहानि थोड़ा विचित्र लग सकता है, लेकिन सामान्य पैटर्न पर फिट बैठता है तब से
क्योंकि शक्ति पुनरावृत्ति सदिश जो इस पुनरावर्ती संतुष्टि से हटा दिए गए थे सदिश और गुणांक से पर्याप्त जानकारी सम्मिलित है वह सब गणना की जा सकती है, इसलिए वैक्टर बदलने से कुछ भी हानि नहीं हुआ। (वास्तव में, यह पता चला है कि यहां एकत्र किया गया डेटा पावर विधि में समान संख्या में पुनरावृत्तियों से प्राप्त होने वाले सबसे बड़े आइगेनवैल्यू का काफी बेहतर अनुमान देता है, चुकीं इस बिंदु पर यह स्पष्ट नहीं है।)
यह अंतिम प्रक्रिया अर्नोल्डी पुनरावृत्ति है। लैंज़ोस एल्गोरिथ्म तब सरलीकरण के रूप में सामने आता है जो गणना के चरणों को समाप्त करने से प्राप्त होता है जो तब तुच्छ हो जाते हैं हर्मिटियन है—विशेष रूप से अधिकांश गुणांक शून्य हो जाते हैं।
प्राथमिक रूप से, यदि तो हर्मिटियन है
के लिए हम वह जानते हैं , और तबसे निर्माण द्वारा इस उप-स्थान के लिए ऑर्थोगोनल है, यह आंतरिक उत्पाद शून्य होना चाहिए। (यह अनिवार्य रूप से यही कारण है कि ऑर्थोगोनल बहुपदों के अनुक्रमों को सदैव ऑर्थोगोनल बहुपद पुनरावृत्ति संबंध तीन-अवधि वाला पुनरावृत्ति संबंध दिया जा सकता है।) मिलता है
- चूँकि वेक्टर का आदर्श होने के कारण उत्तरार्द्ध वास्तविक है। के लिए मिलता है
अर्थ ये भी सही है.
अधिक संक्षेप में, यदि स्तंभों वाला मैट्रिक्स है फिर संख्याएँ मैट्रिक्स के तत्वों के रूप में पहचाना जा सकता है , और के लिए गणित का सवाल हेसेनबर्ग मैट्रिक्स है. तब से
- गणित का सवाल हर्मिटियन है. इसका अर्थ यह है कि यह हेसेनबर्ग से भी निचला है, इसलिए यह वास्तव में त्रिविजात्मक होना चाहिए। हर्मिटियन होने के कारण, इसका मुख्य विकर्ण वास्तविक है, और चूंकि इसका पहला उपविकर्ण निर्माण से वास्तविक है, इसलिए इसके पहले सुपरविकर्ण के लिए भी यही सच है। इसलिए, वास्तविक, सममित मैट्रिक्स है - मैट्रिक्स लैंज़ोस एल्गोरिथम विनिर्देश के लिए है।
चरम आइजनवैल्यू का एक साथ सन्निकटन
हर्मिटियन मैट्रिक्स के आइजेनवेक्टरों को चिह्नित करने का एक विधि रेले भागफल के स्थिर बिंदुओं के रूप में है
विशेष रूप से, सबसे बड़ा आइजनवैल्यू का वैश्विक अधिकतम है और सबसे छोटा आइजनवैल्यू का वैश्विक न्यूनतम है.
निम्न-आयामी उप-स्थान के अन्दर का अधिकतम का पता लगाना संभव हो सकता है और न्यूनतम का . बढ़ती हुई शृंखला के लिए इसे दोहराते हुए वैक्टर के दो अनुक्रम उत्पन्न करता है: और ऐसा है कि और
फिर प्रश्न उठता है कि उप-स्थानों का चयन कैसे किया जाए ताकि ये क्रम इष्टतम दर पर अभिसरित हों।
से , इष्टतम दिशा जिसमें बड़े मूल्यों की तलाश की जा सके वह ढाल का है , और इसी तरह से छोटे मूल्यों की तलाश करने के लिए इष्टतम दिशा वह नकारात्मक प्रवणता का है . सामान्य रूप में
इसलिए मैट्रिक्स अंकगणित में गणना करने के लिए रुचि की दिशाएं बहुत सरल हैं, लेकिन यदि कोई दोनों में सुधार करना चाहता है और फिर ध्यान में रखने के लिए दो नई दिशाएँ हैं: और तब से और रैखिक रूप से स्वतंत्र वैक्टर हो सकते हैं (वास्तव में, ऑर्थोगोनल के समीप हैं), कोई भी सामान्य रूप से उम्मीद नहीं कर सकता है और समानांतर होना. का आयाम बढ़ाना आवश्यक नहीं है द्वारा हर कदम पर अगर क्रायलोव उप-स्थान के रूप में लिया जाता है, क्योंकि तब सभी के लिए इस प्रकार विशेष रूप से दोनों के लिए और .
दूसरे शब्दों में, हम कुछ मनमाने प्रारंभिक वेक्टर से प्रारंभ कर सकते हैं वेक्टर रिक्त स्थान का निर्माण करें
और फिर तलाश करो ऐसा है कि
के बाद से वें शक्ति विधि पुनरावृत्त से संबंधित यह इस प्रकार है कि उत्पादन करने के लिए पुनरावृत्ति और शक्ति विधि की तुलना में धीमी गति से अभिसरण नहीं किया जा सकता है, और दोनों आइजनवैल्यू चरम सीमाओं का अनुमान लगाकर अधिक प्राप्त किया जाएगा। अनुकूलन की उपसमस्या के लिए कुछ पर , लम्बवत आधार रखना सुविधाजनक है इस वेक्टर स्पेस के लिए. इस प्रकार हम फिर से क्रायलोव उप-स्थानों के अनुक्रम के लिए ऐसे आधार की पुनरावृत्तीय गणना करने की समस्या की ओर अग्रसर हैं।
अभिसरण और अन्य गतिशीलता
एल्गोरिथ्म की गतिशीलता का विश्लेषण करते समय, आइजनवैल्यू और आइजनवेक्टर लेना सुविधाजनक होता है जैसा कि दिया गया है, भले ही वे उपयोगकर्ता को स्पष्ट रूप से ज्ञात न हों। अंकन को ठीक करने के लिए, आइए आइगेनवैल्यू बनें (ये सभी जानते हैं कि ये वास्तविक हैं, और इस प्रकार ऑर्डर करना संभव है) और चलो आइजनवेक्टर का ऑर्थोनॉर्मल सेट बनें जैसे कि सभी के लिए .
प्रारंभिक लैंज़ोस वेक्टर के गुणांकों के लिए अंकन तय करना भी सुविधाजनक है इस आइजनबेसिक के संबंध में; माना सभी के लिए , ताकि आरंभिक सदिश कुछ आइजनअवयव के ख़त्म होने से संबंधित आइजनवैल्यू में अभिसरण में देरी होगी, और भले ही यह त्रुटि सीमा में स्थिर कारक के रूप में सामने आता है, कमी अवांछनीय बनी हुई है। लगातार इसकी चपेट में आने से बचने के लिए सामान्य तकनीक चुनना है पहले माध्य के साथ समान सामान्य वितरण के अनुसार तत्वों को यादृच्छिक रूप से खींचकर और फिर वेक्टर को मानक पर पुनः स्केल करें . पुनर्स्केलिंग से पहले, यह गुणांक का कारण बनता है समान सामान्य वितरण से स्वतंत्र सामान्य रूप से वितरित स्टोकेस्टिक चर भी होना चाहिए (क्योंकि निर्देशांक का परिवर्तन एकात्मक है), और वेक्टर को पुन: स्केल करने के बाद इकाई क्षेत्र पर समान वितरण (निरंतर) होगा . इससे उदाहरण के लिए संभावना को सीमित करना संभव हो जाता है .
तथ्य यह है कि लैंज़ोस एल्गोरिदम समन्वय-अज्ञेयवादी है - ऑपरेशन केवल वैक्टर के आंतरिक उत्पादों को देखते हैं, कभी भी वैक्टर के व्यक्तिगत तत्वों को नहीं देखते हैं - एल्गोरिदम को चलाने के लिए ज्ञात आइजनस्ट्रक्चर के साथ उदाहरण बनाना सरल बनाता है: बनाना विकर्ण पर वांछित आइजनवैल्यू के साथ विकर्ण मैट्रिक्स; जब तक आरंभिक वेक्टर पर्याप्त गैर-शून्य तत्व हैं, एल्गोरिथ्म सामान्य त्रिविकर्ण सममित मैट्रिक्स को आउटपुट करेगा
कनिएल-पेगे अभिसरण सिद्धांत
माना लैंज़ोस एल्गोरिदम के पुनरावृत्ति चरण, एक वास्तविक सममित मैट्रिक्स, जो उपरोक्त के समान है आइजनवैल्यू अभिसरण से मुख्यतः अभिसरण का तात्पर्य है को (और का सममित अभिसरण को ) जैसा बढ़ता है, और दूसरा कुछ सीमा का अभिसरण के आइजनवैल्यू के उनके समकक्षों के लिए का . लैंज़ोस एल्गोरिदम के लिए अभिसरण अधिकांशतः पावर पुनरावृत्ति एल्गोरिदम की तुलना में तेज़ परिमाण का आदेश होता है।[9]: 477
के लिए सीमा रेले भागफल के चरम मूल्यों के रूप में आइजनवैल्यू की उपरोक्त व्याख्या से आते हैं . तब से प्राथमिकता अधिकतम है कुल मिलाकर जबकि पर अधिकतम मात्र है -आयामी क्रायलोव उपस्थान, हम तुच्छ रूप से प्राप्त करते हैं . इसके विपरीत, कोई भी बिंदु उसमें क्रायलोव उपस्थान निचली सीमा प्रदान करता है के लिए , इसलिए यदि कोई बिंदु प्रदर्शित किया जा सकता है जिसके लिए छोटा है तो यह टाइट बाउंड प्रदान करता है .
आयाम क्रायलोव उपस्थान है
- अतः इसके किसी भी तत्व को इस प्रकार व्यक्त किया जा सकता है कुछ बहुपद के लिए अधिकतम डिग्री का ; उस बहुपद के गुणांक केवल सदिशों के रैखिक संयोजन के गुणांक हैं . हम जो बहुपद चाहते हैं उसके वास्तविक गुणांक होंगे, लेकिन शायद हमें जटिल गुणांकों की भी अनुमति देनी चाहिए, और हम लिखेंगे के सभी गुणांकों को सम्मिश्र संयुग्मन द्वारा प्राप्त बहुपद के लिए . क्रायलोव उप-स्थान के इस पैरामीट्रिज़ेशन में, हमारे पास है
अब के लिए अभिव्यक्ति का उपयोग करना आइजनवेक्टर के रैखिक संयोजन के रूप में, हमें मिलता है
- और अधिक सामान्यतः
- किसी भी बहुपद के लिए .
इस प्रकार
यहां अंश और हर के बीच महत्वपूर्ण अंतर यह है कि अंश में पद लुप्त हो जाता है, लेकिन हर में नहीं। इस प्रकार यदि कोई चुन सकता है पर बड़ा होना लेकिन अन्य सभी आइजनवैल्यू पर छोटा होने पर, किसी को त्रुटि पर कड़ी पकड़ मिलेगी .
तब से की तुलना में कई अधिक स्वदेशी मान हैं गुणांक है, यह लंबा क्रम प्रतीत हो सकता है, लेकिन इसे पूरा करने का विधि चेबीशेव बहुपद का उपयोग करना है। लिखना डिग्री के लिए पहली तरह का चेबीशेव बहुपद (जो संतुष्ट करता है सभी के लिए ), हमारे पास बहुपद है जो सीमा में रहता है ज्ञात अंतराल पर लेकिन इसके बाहर तेजी से बढ़ता है। तर्क के कुछ स्केलिंग के साथ, हम इसे छोड़कर सभी आइजनवैल्यू को मैप कर सकते हैं में माना
- (यदि , इसके अतिरिक्त सबसे बड़े आइजनवैल्यू का उपयोग करें जो कि इससे बिल्कुल कम है ), फिर का अधिकतम मान के लिए है और न्यूनतम मूल्य है , इसलिए
आगे
मात्रा
- (अर्थात्, मैट्रिक्स के शेष स्पेक्ट्रम के व्यास के लिए पहले ईजेंगैप का अनुपात) इस प्रकार यहां अभिसरण दर के लिए महत्वपूर्ण महत्व है। लिख भी रहा हूँ
हम यह निष्कर्ष निकाल सकते हैं
इस प्रकार अभिसरण दर को मुख्य रूप से नियंत्रित किया जाता है , चूँकि यह सीमा कारक द्वारा सिकुड़ती है प्रत्येक अतिरिक्त पुनरावृत्ति के लिए.
तुलना के लिए, कोई इस बात पर विचार कर सकता है कि विद्युत विधि की अभिसरण दर किस प्रकार निर्भर करती है , लेकिन चूँकि शक्ति विधि मुख्य रूप से आइजनवैल्यू के निरपेक्ष मूल्यों के बीच भागफल के प्रति संवेदनशील है, हमें इसकी आवश्यकता है बीच के ईगेंगैप के लिए और प्रमुख होना. उस बाधा के अंतर्गत, वह स्थितियों जो शक्ति पद्धति को सबसे अधिक पसंद करता है , तो उस पर विचार करें। शक्ति विधि में देर से, पुनरावृत्ति वेक्टर:
जहां प्रत्येक नया पुनरावृत्ति प्रभावी ढंग से गुणा करता है -आयाम द्वारा
तब सबसे बड़े आइजनवैल्यू का अनुमान है
इसलिए लैंज़ोस एल्गोरिदम अभिसरण दर के लिए उपरोक्त सीमा की तुलना की जानी चाहिए
जो कारक से सिकुड़ता है प्रत्येक पुनरावृत्ति के लिए. इस प्रकार यह अंतर बीच में ही सिमट कर रह जाता है और . में क्षेत्र, बाद वाला अधिक पसंद है , और दोगुने बड़े ईजेंगैप के साथ पावर विधि की तरह प्रदर्शन करता है उल्लेखनीय सुधार. चुकीं, अधिक चुनौतीपूर्ण मामला यह है जिसमें ईजेंगैप पर और भी बड़ा सुधार है; वह क्षेत्र है जहां लैंज़ोस एल्गोरिदम अभिसरण-वार पावर विधि पर सबसे छोटा सुधार करता है।
संख्यात्मक स्थिरता
स्थिरता का अर्थ है कि यदि छोटी-छोटी संख्यात्मक त्रुटियां पेश की जाती हैं और जमा हो जाती हैं तो एल्गोरिदम कितना प्रभावित होगा (अर्थात् क्या यह मूल परिणाम के करीब अनुमानित परिणाम देगा)। राउंडऑफ़ वाले कंप्यूटर पर एल्गोरिदम को प्रयुक्त करने की उपयोगिता का आकलन करने के लिए संख्यात्मक स्थिरता केंद्रीय मानदंड है।
लैंज़ोस एल्गोरिदम के लिए, यह साबित किया जा सकता है कि सटीक अंकगणित के साथ, वैक्टर का सेट ऑर्थोनॉर्मल आधार का निर्माण करता है, और हल किए गए आइजनवैल्यू/वेक्टर मूल मैट्रिक्स के अच्छे अनुमान हैं। चुकीं, व्यवहार में (चूंकि गणना फ्लोटिंग पॉइंट अंकगणित में की जाती है जहां अशुद्धि अपरिहार्य है), ऑर्थोगोनैलिटी जल्दी से खो जाती है और कुछ मामलों में नया वेक्टर पहले से निर्मित सेट पर रैखिक रूप से निर्भर भी हो सकता है। परिणामस्वरूप, परिणामी त्रिविकर्ण मैट्रिक्स के कुछ आइजनवैल्यू मूल मैट्रिक्स के सन्निकटन नहीं हो सकते हैं। इसलिए, लैंज़ोस एल्गोरिदम बहुत स्थिर नहीं है।
इस एल्गोरिदम के उपयोगकर्ताओं को उन नकली आइजनवैल्यू को खोजने और हटाने में सक्षम होना चाहिए। लैंज़ोस एल्गोरिदम का व्यावहारिक कार्यान्वयन इस स्थिरता के मुद्दे से लड़ने के लिए तीन दिशाओं में जाता है:[6][7]
- रूढ़िवादिता के हानि को रोकें,
- आधार तैयार होने के बाद रूढ़िवादिता को पुनः प्राप्त करें।
- अच्छे और नकली सभी स्वदेशी मूल्यों की पहचान हो जाने के बाद, नकली लोगों को हटा दें।
भिन्नताएँ
लैंज़ोस एल्गोरिदम पर भिन्नताएं उपस्थित हैं जहां सम्मिलित वेक्टर वेक्टर के बजाय लंबे, संकीर्ण मैट्रिक्स हैं और सामान्यीकरण स्थिरांक छोटे वर्ग मैट्रिक्स हैं। इन्हें ब्लॉक लैंज़ोस एल्गोरिदम कहा जाता है और बड़ी संख्या में रजिस्टरों और लंबी मेमोरी-फ़ेच समय वाले कंप्यूटरों पर यह बहुत तेज़ हो सकता है।
लैंज़ोस एल्गोरिदम के कई कार्यान्वयन निश्चित संख्या में पुनरावृत्तियों के बाद पुनः आरंभ होते हैं। सबसे प्रभावशाली पुनः आरंभ की गई विविधताओं में से अंतर्निहित रूप से पुनः आरंभ की गई लैंज़ोस पद्धति है,[10] जिसे अर्पैक में प्रयुक्त किया गया है।[11] इसने कई अन्य पुनः आरंभित विविधताओं को जन्म दिया है जैसे कि लैंज़ोस बिडियागोनलाइज़ेशन को पुनः आरंभ किया गया।[12] एक और सफल पुनः प्रारंभ विविधता थिक-रीस्टार्ट लैंज़ोस विधि है,[13] जिसे टीआरएलएन नामक सॉफ्टवेयर पैकेज में प्रयुक्त किया गया है।[14]
परिमित क्षेत्र पर शून्यस्थान
1995 में, पीटर मोंटगोमरी (गणितज्ञ) ने GF(2) पर बड़े विरल मैट्रिक्स के कर्नेल (मैट्रिक्स) के तत्वों को खोजने के लिए लैंज़ोस एल्गोरिदम पर आधारित एल्गोरिदम प्रकाशित किया; चूँकि परिमित क्षेत्रों में बड़े विरल मैट्रिक्स में रुचि रखने वाले लोगों का समूह और बड़ी स्वदेशी समस्याओं में रुचि रखने वाले लोगों का समूह शायद ही ओवरलैप होता है, इसे अधिकांशतः अनुचित भ्रम पैदा किए बिना ब्लॉक लैंज़ो एल्गोरिदम भी कहा जाता है।
अनुप्रयोग
लैंज़ोस एल्गोरिदम बहुत आकर्षक हैं क्योंकि गुणा एकमात्र बड़े पैमाने का रैखिक ऑपरेशन है। चूंकि भारित-अवधि पाठ पुनर्प्राप्ति इंजन केवल इस ऑपरेशन को कार्यान्वित करते हैं, लैंज़ोस एल्गोरिदम को पाठ दस्तावेज़ों पर कुशलतापूर्वक प्रयुक्त किया जा सकता है (अव्यक्त अर्थ अनुक्रमण देखें)। आइजनवेक्टर बड़े पैमाने पर रैंकिंग विधियों के लिए भी महत्वपूर्ण हैं जैसे कि जॉन क्लेनबर्ग द्वारा विकसित एचआईटीएस एल्गोरिदम, या गूगल द्वारा उपयोग किया जाने वाला पृष्ठ रैंक एल्गोरिदम।
लैंज़ोस एल्गोरिदम का उपयोग संघनित पदार्थ भौतिकी में दृढ़ता से सहसंबद्ध सामग्री के हैमिल्टनियन मैट्रिक्स को हल करने की विधि के रूप में भी किया जाता है,[15] साथ ही परमाणु भौतिकी में परमाणु शेल मॉडल कोड में भी।[16]
कार्यान्वयन
एनएजी न्यूमेरिकल लाइब्रेरी में कई रूटीन सम्मिलित हैं[17] बड़े पैमाने पर रैखिक प्रणालियों और आइजनसमस्याओं के समाधान के लिए जो लैंज़ोस एल्गोरिदम का उपयोग करते हैं।
MATLAB और GNU ऑक्टेव ARPACK बिल्ट-इन के साथ आते हैं। संग्रहीत और अंतर्निहित दोनों मैट्रिक्स का विश्लेषण eigs() फलन (Matlab/Octave) के माध्यम से किया जा सकता है।
इसी तरह, पायथन_(प्रोग्रामिंग_भाषा) में, SciPy पैकेज में scipy.sparse.linalg.eigsh है, जो ARPACK के SSEUPD और DSEUPD फलन के लिए रैपर भी है जो इम्प्लिसिटली रीस्टार्टेड लैंक्ज़ोस विधि का उपयोग करता है।
लैंज़ोस एल्गोरिथ्म का मैटलैब कार्यान्वयन (सटीक मुद्दों पर ध्यान दें) गॉसियन बिलीफ प्रोपेगेशन मैटलैब पैकेज के भाग के रूप में उपलब्ध है। ग्राफलैब[18] सहयोगी फ़िल्टरिंग लाइब्रेरी में मल्टीकोर के लिए लैंज़ोस एल्गोरिदम (c ++ में) के बड़े पैमाने पर समानांतर कार्यान्वयन सम्मिलित है।
PRIMME लाइब्रेरी लैंज़ोस जैसा एल्गोरिदम भी प्रयुक्त करती है।
टिप्पणियाँ
- ↑ The coefficients need not both be real, but the phase is of little importance. Nor need the composants for other eigenvectors have completely disappeared, but they shrink at least as fast as that for , so describes the worst case.
संदर्भ
- ↑ Lanczos, C. (1950). "रैखिक अंतर और अभिन्न ऑपरेटरों की eigenvalue समस्या के समाधान के लिए एक पुनरावृत्ति विधि" (PDF). Journal of Research of the National Bureau of Standards. 45 (4): 255–282. doi:10.6028/jres.045.026.
- ↑ 2.0 2.1 Ojalvo, I. U.; Newman, M. (1970). "स्वचालित मैट्रिक्स-कमी विधि द्वारा बड़ी संरचनाओं के कंपन मोड". AIAA Journal. 8 (7): 1234–1239. Bibcode:1970AIAAJ...8.1234N. doi:10.2514/3.5878.
- ↑ Paige, C. C. (1971). बहुत बड़े विरल आव्यूहों के eigenvalues और eigenvectors की गणना (Ph.D. thesis). U. of London. OCLC 654214109.
{{cite thesis}}
: zero width space character in|title=
at position 40 (help) - ↑ Paige, C. C. (1972). "Eigenproblem के लिए लैंज़ोस विधि के कम्प्यूटेशनल वेरिएंट". J. Inst. Maths Applics. 10 (3): 373–381. doi:10.1093/imamat/10.3.373.
- ↑ Ojalvo, I. U. (1988). "Origins and advantages of Lanczos vectors for large dynamic systems". Proc. 6th Modal Analysis Conference (IMAC), Kissimmee, FL. pp. 489–494.
- ↑ 6.0 6.1 Cullum; Willoughby (1985). बड़े सममित आइगेनवैल्यू संगणना के लिए लैंज़ोस एल्गोरिदम. Vol. 1. ISBN 0-8176-3058-9.
- ↑ 7.0 7.1 Yousef Saad (1992-06-22). बड़ी स्वदेशी समस्याओं के लिए संख्यात्मक तरीके. ISBN 0-470-21820-7.
- ↑ Coakley, Ed S.; Rokhlin, Vladimir (2013). "वास्तविक सममित त्रिविकर्ण मैट्रिक्स के स्पेक्ट्रा की गणना के लिए एक तेज़ विभाजन और जीत एल्गोरिदम". Applied and Computational Harmonic Analysis. 34 (3): 379–414. doi:10.1016/j.acha.2012.06.003.
- ↑ 9.0 9.1 Golub, Gene H.; Van Loan, Charles F. (1996). मैट्रिक्स गणना (3. ed.). Baltimore: Johns Hopkins Univ. Press. ISBN 0-8018-5413-X.
- ↑ D. Calvetti; L. Reichel; D.C. Sorensen (1994). "बड़े सममित आइजेनवैल्यू समस्याओं के लिए एक अंतर्निहित रूप से पुनः आरंभ की गई लैंज़ोस विधि". Electronic Transactions on Numerical Analysis. 2: 1–21.
- ↑ R. B. Lehoucq; D. C. Sorensen; C. Yang (1998). ARPACK Users Guide: Solution of Large-Scale Eigenvalue Problems with Implicitly Restarted Arnoldi Methods. SIAM. doi:10.1137/1.9780898719628. ISBN 978-0-89871-407-4.
- ↑ E. Kokiopoulou; C. Bekas; E. Gallopoulos (2004). "अंतर्निहित रूप से पुनः आरंभ किए गए लैंज़ोस बिडियागोनलाइज़ेशन के साथ सबसे छोटे एकवचन त्रिक की गणना करना" (PDF). Appl. Numer. Math. 49: 39–61. doi:10.1016/j.apnum.2003.11.011.
- ↑ Kesheng Wu; Horst Simon (2000). "बड़े सममित आइगेनवैल्यू समस्याओं के लिए थिक-रीस्टार्ट लैंज़ोस विधि". SIAM Journal on Matrix Analysis and Applications. SIAM. 22 (2): 602–616. doi:10.1137/S0895479898334605.
- ↑ Kesheng Wu; Horst Simon (2001). "टीआरएलएन सॉफ्टवेयर पैकेज". Archived from the original on 2007-07-01. Retrieved 2007-06-30.
- ↑ Chen, HY; Atkinson, W.A.; Wortis, R. (July 2011). "Disorder-induced zero-bias anomaly in the Anderson-Hubbard model: Numerical and analytical calculations". Physical Review B. 84 (4): 045113. arXiv:1012.1031. Bibcode:2011PhRvB..84d5113C. doi:10.1103/PhysRevB.84.045113. S2CID 118722138.
- ↑ Shimizu, Noritaka (21 October 2013). "बड़े पैमाने पर समानांतर गणना के लिए परमाणु शेल-मॉडल कोड, "KSHELL"". arXiv:1310.5431 [nucl-th].
- ↑ The Numerical Algorithms Group. "Keyword Index: Lanczos". NAG Library Manual, Mark 23. Retrieved 2012-02-09.
- ↑ GraphLab Archived 2011-03-14 at the Wayback Machine
अग्रिम पठन
- Golub, Gene H.; Van Loan, Charles F. (1996). "Lanczos Methods". Matrix Computations. Baltimore: Johns Hopkins University Press. pp. 470–507. ISBN 0-8018-5414-8.
- Ng, Andrew Y.; Zheng, Alice X.; Jordan, Michael I. (2001). "Link Analysis, Eigenvectors and Stability" (PDF). IJCAI'01 Proceedings of the 17th International Joint Conference on Artificial Intelligence. 2: 903–910.
- Erik Koch (2019). "Exact Diagonalization and Lanczos Method" (PDF). In E. Pavarini; E. Koch; S. Zhang (eds.). Many-Body Methods for Real Materials. Jülich. ISBN 978-3-95806-400-3.