लैंज़ोस एल्गोरिदम: Difference between revisions

From Vigyanwiki
(Created page with "{{Short description|Numerical eigenvalue calculation}} {{for|the null space-finding algorithm|block Lanczos algorithm}} {{for|the interpolation method|Lanczos resampling}} {{f...")
 
No edit summary
 
(8 intermediate revisions by 3 users not shown)
Line 1: Line 1:
{{Short description|Numerical eigenvalue calculation}}
{{Short description|Numerical eigenvalue calculation}}
{{for|the null space-finding algorithm|block Lanczos algorithm}}
{{for|शून्य स्थान-खोज एल्गोरिदम|लैंज़ोस एल्गोरिदम को ब्लॉक करें}}
{{for|the interpolation method|Lanczos resampling}}
{{for|प्रक्षेप विधि|लैंज़ोस पुनः नमूनाकरण}}
{{for|the approximation of the gamma function|Lanczos approximation}}
{{for|गामा फलन का सन्निकटन|लैंज़ोस सन्निकटन}}


लैंज़ोस एल्गोरिदम [[कॉर्नेलियस लैंज़ोस]] द्वारा तैयार की गई एक पुनरावृत्तीय विधि है जो खोजने के लिए [[शक्ति पुनरावृत्ति]] का एक अनुकूलन है <math>m</math> सबसे उपयोगी (अति उच्चतम/निम्नतम की ओर रुझान) eigenvalues ​​​​और eigenvectors <math>n \times n</math> [[हर्मिटियन मैट्रिक्स]], कहाँ <math> m </math> अक्सर होता है लेकिन जरूरी नहीं कि उससे बहुत छोटा हो <math> n </math>.<ref>{{cite journal |last=Lanczos |first=C. |title=रैखिक अंतर और अभिन्न ऑपरेटरों की eigenvalue समस्या के समाधान के लिए एक पुनरावृत्ति विधि|journal=  Journal of Research of the National Bureau of Standards|volume=45 |issue= 4|pages=255–282 |year=1950 |url=https://www.cs.umd.edu/~oleary/lanczos1950.pdf |doi=10.6028/jres.045.026 |doi-access=free }}</ref> यद्यपि सैद्धांतिक रूप से कम्प्यूटेशनल रूप से कुशल, प्रारंभिक रूप से तैयार की गई विधि अपनी [[संख्यात्मक स्थिरता]] के कारण उपयोगी नहीं थी।
'''लैंज़ोस एल्गोरिदम''' [[कॉर्नेलियस लैंज़ोस]] द्वारा प्रस्तुत की गई पुनरावृत्तीय विधि है। जो खोजने के लिए [[शक्ति पुनरावृत्ति]] का अनुकूलन है <math>m</math> सबसे उपयोगी (अति उच्चतम/निम्नतम की ओर रुझान) आइजनवैल्यू ​​​​और आइजनवेक्टर <math>n \times n</math> [[हर्मिटियन मैट्रिक्स]], जहाँ <math> m </math> अधिकांशतः होता है लेकिन आवश्यक नहीं कि उससे बहुत छोटा हो <math> n </math><ref>{{cite journal |last=Lanczos |first=C. |title=रैखिक अंतर और अभिन्न ऑपरेटरों की eigenvalue समस्या के समाधान के लिए एक पुनरावृत्ति विधि|journal=  Journal of Research of the National Bureau of Standards|volume=45 |issue= 4|pages=255–282 |year=1950 |url=https://www.cs.umd.edu/~oleary/lanczos1950.pdf |doi=10.6028/jres.045.026 |doi-access=free }}</ref> यद्यपि सैद्धांतिक रूप से कम्प्यूटेशनल रूप से कुशल, प्रारंभिक रूप से तैयार की गई विधि अपनी [[संख्यात्मक स्थिरता]] के कारण उपयोगी नहीं थी।


1970 में, ओजाल्वो और न्यूमैन ने दिखाया कि विधि को संख्यात्मक रूप से स्थिर कैसे बनाया जाए और इसे गतिशील लोडिंग के अधीन बहुत बड़ी इंजीनियरिंग संरचनाओं के समाधान में लागू किया जाए।<ref name=":0">{{cite journal |last1=Ojalvo |first1=I. U. |last2=Newman |first2=M. |title=स्वचालित मैट्रिक्स-कमी विधि द्वारा बड़ी संरचनाओं के कंपन मोड|journal=[[AIAA Journal]] |volume=8 |issue=7 |pages=1234–1239 |year=1970 |doi=10.2514/3.5878 |bibcode=1970AIAAJ...8.1234N }}</ref> यह लैंज़ोस वैक्टर को शुद्ध करने के लिए एक विधि का उपयोग करके हासिल किया गया था (यानी प्रत्येक नए जेनरेट किए गए वेक्टर को पहले से जेनरेट किए गए सभी के साथ बार-बार पुन: व्यवस्थित करके)<ref name=":0" />सटीकता की किसी भी डिग्री तक, जब प्रदर्शन नहीं किया गया, तो वैक्टरों की एक श्रृंखला उत्पन्न हुई जो सबसे कम प्राकृतिक आवृत्तियों से जुड़े वैक्टरों द्वारा अत्यधिक दूषित थीं।
1970 में, ओजाल्वो और न्यूमैन ने दिखाया कि विधि को संख्यात्मक रूप से स्थिर कैसे बनाया जाए और इसे गतिशील लोडिंग के अधीन बहुत बड़ी इंजीनियरिंग संरचनाओं के समाधान में प्रयुक्त किया जाए।<ref name=":0">{{cite journal |last1=Ojalvo |first1=I. U. |last2=Newman |first2=M. |title=स्वचालित मैट्रिक्स-कमी विधि द्वारा बड़ी संरचनाओं के कंपन मोड|journal=[[AIAA Journal]] |volume=8 |issue=7 |pages=1234–1239 |year=1970 |doi=10.2514/3.5878 |bibcode=1970AIAAJ...8.1234N }}</ref> यह लैंज़ोस वैक्टर को शुद्ध करने के लिए विधि का उपयोग करके प्राप्त किया गया था। (अर्थात् प्रत्येक नए जेनरेट किए गए वेक्टर को पहले से जेनरेट किए गए सभी के साथ बार-बार पुन: व्यवस्थित करके)<ref name=":0" /> सटीकता की किसी भी डिग्री तक, जब प्रदर्शन नहीं किया गया, तो वैक्टरों की श्रृंखला उत्पन्न हुई जो सबसे कम प्राकृतिक आवृत्तियों से जुड़े वैक्टरों द्वारा अत्यधिक दूषित थीं।


अपने मूल काम में, इन लेखकों ने यह भी सुझाव दिया कि शुरुआती वेक्टर का चयन कैसे करें (यानी शुरुआती वेक्टर के प्रत्येक तत्व का चयन करने के लिए यादृच्छिक संख्या जेनरेटर का उपयोग करें) और निर्धारण के लिए अनुभवजन्य रूप से निर्धारित विधि का सुझाव दिया <math> m </math>, सदिशों की कम संख्या (अर्थात इसे वांछित सटीक eigenvalues ​​​​की संख्या का लगभग 1.5 गुना चुना जाना चाहिए)। इसके तुरंत बाद उनके काम का अनुसरण पेगे ने किया, जिन्होंने एक त्रुटि विश्लेषण भी प्रदान किया।<ref>{{cite thesis |last=Paige |first=C. C. |title=बहुत बड़े विरल आव्यूहों के eigenvalues ​​​​और eigenvectors की गणना|publisher=U. of London |type=Ph.D. thesis |date=1971 |oclc=654214109 }}</ref><ref>{{cite journal |last=Paige |first=C. C. |title=Eigenproblem के लिए लैंज़ोस विधि के कम्प्यूटेशनल वेरिएंट|journal=J. Inst. Maths Applics |volume=10 |issue=3 |pages=373–381 |year=1972 |doi=10.1093/imamat/10.3.373 }}</ref> 1988 में, ओजाल्वो ने इस एल्गोरिदम का अधिक विस्तृत इतिहास और एक कुशल आइगेनवैल्यू त्रुटि परीक्षण तैयार किया।<ref>{{cite book |last=Ojalvo |first=I. U. |chapter=Origins and advantages of Lanczos vectors for large dynamic systems |title=Proc. 6th Modal Analysis Conference (IMAC), Kissimmee, FL |pages=489–494 |year=1988 }}</ref>
अपने मूल काम में, इन लेखकों ने यह भी सुझाव दिया कि प्रारंभिक वेक्टर का चयन कैसे करें (अर्थात् प्रारंभिक वेक्टर के प्रत्येक तत्व का चयन करने के लिए यादृच्छिक संख्या जेनरेटर का उपयोग करें) और निर्धारण के लिए अनुभवजन्य रूप से निर्धारित विधि का सुझाव दिया <math> m </math>, सदिशों की कम संख्या (अर्थात इसे वांछित सटीक आइजनवैल्यू ​​​​की संख्या का लगभग 1.5 गुना चुना जाना चाहिए)। इसके तुरंत बाद उनके काम का अनुसरण पेगे ने किया, जिन्होंने त्रुटि विश्लेषण भी प्रदान किया।<ref>{{cite thesis |last=Paige |first=C. C. |title=बहुत बड़े विरल आव्यूहों के eigenvalues ​​​​और eigenvectors की गणना|publisher=U. of London |type=Ph.D. thesis |date=1971 |oclc=654214109 }}</ref><ref>{{cite journal |last=Paige |first=C. C. |title=Eigenproblem के लिए लैंज़ोस विधि के कम्प्यूटेशनल वेरिएंट|journal=J. Inst. Maths Applics |volume=10 |issue=3 |pages=373–381 |year=1972 |doi=10.1093/imamat/10.3.373 }}</ref> 1988 में, ओजाल्वो ने इस एल्गोरिदम का अधिक विस्तृत इतिहास और कुशल आइजनवैल्यू त्रुटि परीक्षण तैयार किया।<ref>{{cite book |last=Ojalvo |first=I. U. |chapter=Origins and advantages of Lanczos vectors for large dynamic systems |title=Proc. 6th Modal Analysis Conference (IMAC), Kissimmee, FL |pages=489–494 |year=1988 }}</ref>




==एल्गोरिदम==
==एल्गोरिदम==
:एक हर्मिटियन मैट्रिक्स इनपुट करें <math>A</math> आकार का <math>n \times n</math>, और वैकल्पिक रूप से कई पुनरावृत्तियाँ <math>m</math> (डिफ़ॉल्ट के रूप में, चलो <math>m=n</math>).
:हर्मिटियन मैट्रिक्स इनपुट करें <math>A</math> आकार का <math>n \times n</math>, और वैकल्पिक रूप से कई पुनरावृत्तियाँ <math>m</math> (डिफ़ॉल्ट के रूप में, माना <math>m=n</math>).
:* कड़ाई से बोलते हुए, एल्गोरिदम को स्पष्ट मैट्रिक्स तक पहुंच की आवश्यकता नहीं है, बल्कि केवल एक फ़ंक्शन की आवश्यकता है <math>v \mapsto A v</math> जो एक मनमाना वेक्टर द्वारा मैट्रिक्स के उत्पाद की गणना करता है। इस फ़ंक्शन को अधिक से अधिक कॉल किया जाता है <math>m</math> बार.
:* सच कहूँ तो, एल्गोरिदम को स्पष्ट मैट्रिक्स तक पहुंच की आवश्यकता नहीं है, किन्तु केवल फलन की आवश्यकता है <math>v \mapsto A v</math> जो मनमाना वेक्टर द्वारा मैट्रिक्स के उत्पाद की गणना करता है। इस फलन को अधिक से अधिक <math>m</math> बार कॉल किया जाता है।
:आउटपुट <math>n \times m</math> आव्यूह <math>V</math> [[रूढ़िवादिता]] कॉलम और एक त्रिविकर्ण मैट्रिक्स वास्तविक सममित मैट्रिक्स के साथ <math>T = V^* A V</math> आकार का <math>m \times m</math>. अगर <math>m=n</math>, तब <math>V</math> [[एकात्मक मैट्रिक्स]] है, और <math> A = V T V^* </math>.
:आउटपुट <math>n \times m</math> आव्यूह <math>V</math> [[रूढ़िवादिता]] कॉलम और त्रिविकर्ण मैट्रिक्स वास्तविक सममित मैट्रिक्स के साथ <math>T = V^* A V</math> आकार का <math>m \times m</math>. अगर <math>m=n</math>, तब <math>V</math> [[एकात्मक मैट्रिक्स]] है, और <math> A = V T V^* </math>.
:चेतावनी लैंज़ोस पुनरावृत्ति संख्यात्मक अस्थिरता से ग्रस्त है। गैर-सटीक अंकगणित में निष्पादित होने पर, परिणामों की वैधता सुनिश्चित करने के लिए अतिरिक्त उपाय (जैसा कि बाद के अनुभागों में बताया गया है) किए जाने चाहिए।
:चेतावनी लैंज़ोस पुनरावृत्ति संख्यात्मक अस्थिरता से ग्रस्त है। गैर-सटीक अंकगणित में निष्पादित होने पर, परिणामों की वैधता सुनिश्चित करने के लिए अतिरिक्त उपाय (जैसा कि बाद के अनुभागों में बताया गया है) किए जाने चाहिए।
:# होने देना <math>v_1 \in \mathbb{C}^n</math> [[यूक्लिडियन मानदंड]] के साथ एक मनमाना वेक्टर बनें <math>1</math>.
:# माना <math>v_1 \in \mathbb{C}^n</math> [[यूक्लिडियन मानदंड]] के साथ मनमाना वेक्टर <math>1</math> बनें
:# संक्षिप्त प्रारंभिक पुनरावृत्ति चरण:
:# संक्षिप्त प्रारंभिक पुनरावृत्ति चरण:
:## होने देना <math> w_1' = A v_1 </math>.
:## माना <math> w_1' = A v_1 </math>.
:## होने देना <math> \alpha_1 =  w_1'^* v_1 </math>.
:## माना <math> \alpha_1 =  w_1'^* v_1 </math>.
:## होने देना <math> w_1 = w_1' - \alpha_1 v_1 </math>.
:## माना <math> w_1 = w_1' - \alpha_1 v_1 </math>.
:# के लिए <math> j=2,\dots,m </math> करना:
:# के लिए <math> j=2,\dots,m </math> करना:
:## होने देना <math> \beta_j = \| w_{j-1} \| </math> (यूक्लिडियन मानदंड भी)
:## माना <math> \beta_j = \| w_{j-1} \| </math> (यूक्लिडियन मानदंड भी)
:## अगर <math> \beta_j \neq 0 </math>, तो करने दें <math> v_j = w_{j-1} / \beta_j </math>,
:## अगर <math> \beta_j \neq 0 </math>, तो करने दें <math> v_j = w_{j-1} / \beta_j </math>,
:##: अन्यथा इस रूप में चुनें <math>v_j</math> यूक्लिडियन मानदंड के साथ एक मनमाना वेक्टर <math>1</math> यह सभी के लिए ओर्थोगोनल है <math> v_1,\dots,v_{j-1} </math>.
:##: अन्यथा इस रूप में चुनें <math>v_j</math> यूक्लिडियन मानदंड के साथ मनमाना वेक्टर <math>1</math> यह सभी के लिए ओर्थोगोनल <math> v_1,\dots,v_{j-1} </math> है।
:## होने देना <math> w_j' = A v_j </math>.
:## माना <math> w_j' = A v_j </math>.
:## होने देना <math> \alpha_j = w_j'^* v_j </math>.
:## माना <math> \alpha_j = w_j'^* v_j </math>.
:## होने देना <math> w_j = w_j' - \alpha_j v_j  - \beta_j v_{j-1} </math>.
:## माना <math> w_j = w_j' - \alpha_j v_j  - \beta_j v_{j-1} </math>.
:# होने देना <math>V</math> कॉलम के साथ मैट्रिक्स बनें <math> v_1,\dots,v_m </math>. होने देना <math>T = \begin{pmatrix}
:# माना <math>V</math> कॉलम के साथ मैट्रिक्स बनें <math> v_1,\dots,v_m </math>. माना <math>T = \begin{pmatrix}
\alpha_1 & \beta_2  &          &            &              & 0 \\
\alpha_1 & \beta_2  &          &            &              & 0 \\
\beta_2  & \alpha_2 & \beta_3  &            &              & \\
\beta_2  & \alpha_2 & \beta_3  &            &              & \\
Line 38: Line 38:
:टिप्पणी <math> A v_j = w_j' = \beta_{j+1} v_{j+1} + \alpha_j v_j + \beta_j v_{j-1} </math> के लिए <math> 1 < j < m </math>.
:टिप्पणी <math> A v_j = w_j' = \beta_{j+1} v_{j+1} + \alpha_j v_j + \beta_j v_{j-1} </math> के लिए <math> 1 < j < m </math>.


पुनरावृत्ति प्रक्रिया को लिखने के सैद्धांतिक रूप से चार तरीके हैं। पेगे और अन्य कार्यों से पता चलता है कि संचालन का उपरोक्त क्रम संख्यात्मक रूप से सबसे स्थिर है।<ref name="CW1985">{{Cite book|last1=Cullum |last2= Willoughby|title=बड़े सममित आइगेनवैल्यू संगणना के लिए लैंज़ोस एल्गोरिदम|year= 1985|volume= 1| isbn= 0-8176-3058-9}}</ref><ref name="Saad1992">{{Cite book|author=Yousef Saad|title=बड़ी स्वदेशी समस्याओं के लिए संख्यात्मक तरीके|  isbn= 0-470-21820-7|url= http://www-users.cs.umn.edu/~saad/books.html|author-link=Yousef Saad|date=1992-06-22}}</ref>
पुनरावृत्ति प्रक्रिया को लिखने के सैद्धांतिक रूप से चार विधि हैं। पेगे और अन्य कार्यों से पता चलता है कि संचालन का उपरोक्त क्रम संख्यात्मक रूप से सबसे स्थिर है।<ref name="CW1985">{{Cite book|last1=Cullum |last2= Willoughby|title=बड़े सममित आइगेनवैल्यू संगणना के लिए लैंज़ोस एल्गोरिदम|year= 1985|volume= 1| isbn= 0-8176-3058-9}}</ref><ref name="Saad1992">{{Cite book|author=Yousef Saad|title=बड़ी स्वदेशी समस्याओं के लिए संख्यात्मक तरीके|  isbn= 0-470-21820-7|url= http://www-users.cs.umn.edu/~saad/books.html|author-link=Yousef Saad|date=1992-06-22}}</ref>
व्यवहार में प्रारंभिक वेक्टर <math>v_1</math> प्रक्रिया के एक अन्य तर्क के रूप में लिया जा सकता है <math>\beta_j=0</math> और संख्यात्मक अशुद्धि के संकेतकों को अतिरिक्त लूप समाप्ति शर्तों के रूप में शामिल किया जा रहा है।


मैट्रिक्स-वेक्टर गुणन की गणना न करते हुए, प्रत्येक पुनरावृत्ति करता है <math>O(n)</math> अंकगणितीय परिचालन. मैट्रिक्स-वेक्टर गुणन किया जा सकता है <math>O(dn)</math> अंकगणितीय संक्रियाएँ जहाँ <math>d</math> एक पंक्ति में शून्येतर तत्वों की औसत संख्या है। कुल जटिलता इस प्रकार है <math>O(dmn)</math>, या <math>O(dn^2)</math> अगर <math>m=n</math>; लैंज़ोस एल्गोरिदम विरल मैट्रिक्स के लिए बहुत तेज़ हो सकता है। संख्यात्मक स्थिरता में सुधार के लिए योजनाओं को आम तौर पर इस उच्च प्रदर्शन के आधार पर आंका जाता है।
व्यवहार में प्रारंभिक वेक्टर <math>v_1</math> प्रक्रिया के अन्य तर्क के रूप में लिया जा सकता है <math>\beta_j=0</math> और संख्यात्मक अशुद्धि के संकेतकों को अतिरिक्त लूप समाप्ति शर्तों के रूप में सम्मिलित किया जा रहा है।
 
मैट्रिक्स-वेक्टर गुणन की गणना न करते हुए, प्रत्येक पुनरावृत्ति करता है <math>O(n)</math> अंकगणितीय परिचालन. मैट्रिक्स-वेक्टर गुणन किया जा सकता है <math>O(dn)</math> अंकगणितीय संक्रियाएँ जहाँ <math>d</math> एक पंक्ति में शून्येतर तत्वों की औसत संख्या है। कुल जटिलता इस प्रकार है <math>O(dmn)</math>, या <math>O(dn^2)</math> अगर <math>m=n</math>; लैंज़ोस एल्गोरिदम विरल मैट्रिक्स के लिए बहुत तेज़ हो सकता है। संख्यात्मक स्थिरता में सुधार के लिए योजनाओं को सामान्यतः इस उच्च प्रदर्शन के आधार पर आंका जाता है।


वैक्टर <math>v_j</math> लैंज़ोस वैक्टर कहलाते हैं।
वैक्टर <math>v_j</math> लैंज़ोस वैक्टर कहलाते हैं।
सदिश <math> w_j' </math> के बाद उपयोग नहीं किया जाता है <math> w_j </math> गणना की जाती है, और वेक्टर <math> w_j </math> के बाद उपयोग नहीं किया जाता है <math> v_{j+1} </math> गणना की जाती है. इसलिए कोई भी तीनों के लिए एक ही भंडारण का उपयोग कर सकता है। इसी तरह, यदि केवल त्रिविकर्ण मैट्रिक्स <math>T</math> मांगा जाता है, तो कच्चे पुनरावर्तन की आवश्यकता नहीं होती <math> v_{j-1} </math> गणना करने के बाद <math> w_j </math>, हालाँकि संख्यात्मक स्थिरता में सुधार के लिए कुछ योजनाओं को बाद में इसकी आवश्यकता होगी। कभी-कभी बाद के लैंज़ोस वैक्टर की पुनर्गणना की जाती है <math>v_1</math> जब जरूरत है।


=== eigenproblem के लिए आवेदन ===
सदिश <math> w_j' </math> के बाद उपयोग नहीं किया जाता है <math> w_j </math> गणना की जाती है, और वेक्टर <math> w_j </math> के बाद उपयोग नहीं किया जाता है <math> v_{j+1} </math> गणना की जाती है. इसलिए कोई भी तीनों के लिए एक ही भंडारण का उपयोग कर सकता है। इसी तरह, यदि केवल त्रिविकर्ण मैट्रिक्स <math>T</math> मांगा जाता है, तो कच्चे पुनरावर्तन की आवश्यकता नहीं होती <math> v_{j-1} </math> गणना करने के बाद <math> w_j </math>, चुकीं संख्यात्मक स्थिरता में सुधार के लिए कुछ योजनाओं को बाद में इसकी आवश्यकता होगी। कभी-कभी बाद के लैंज़ोस वैक्टर की पुनर्गणना की जाती है <math>v_1</math> जब आवश्यक है।
लैंज़ोस एल्गोरिदम को अक्सर मैट्रिक्स के आइगेनवैल्यू और आइजेनवेक्टर खोजने के संदर्भ में लाया जाता है, लेकिन जबकि एक सामान्य [[मैट्रिक्स विकर्णीकरण]] आइजेनवेक्टर और आइगेनवैल्यू को निरीक्षण से स्पष्ट कर देगा, वही लैंज़ोस एल्गोरिदम द्वारा किए गए ट्राइडिएगोनलाइज़ेशन के लिए सच नहीं है; एक भी [[eigenvalue]] या [[eigenvector]] की गणना करने के लिए गैर-तुच्छ अतिरिक्त चरणों की आवश्यकता होती है। फिर भी, लैंज़ोस एल्गोरिथ्म को लागू करना अक्सर आइगेंडेकंपोजीशन की गणना में एक महत्वपूर्ण कदम है। अगर <math>\lambda</math> का एक प्रतिरूप है <math>A</math>, और अगर <math> T x = \lambda x </math> (<math>x</math> का एक eigenvector है <math>T</math>) तब <math> y = V x </math> का संगत eigenvector है <math>A</math> (तब से <math> A y = A V x = V T V^* V x = V T I x = V T x = V (\lambda x) = \lambda V x = \lambda y</math>). इस प्रकार लैंज़ोस एल्गोरिथ्म eigendecomposition समस्या को बदल देता है <math>A</math> eigendecomposition समस्या के लिए <math>T</math>.
 
# त्रिविकर्ण मैट्रिक्स के लिए, कई विशिष्ट एल्गोरिदम मौजूद हैं, जो अक्सर सामान्य-उद्देश्य एल्गोरिदम की तुलना में बेहतर कम्प्यूटेशनल जटिलता के साथ होते हैं। उदाहरण के लिए, यदि <math>T</math> एक <math>m \times m</math> त्रिविकर्ण सममित मैट्रिक्स तब:
=== आइजन समस्याएं के लिए आवेदन ===
#* त्रिविकर्ण मैट्रिक्स#निर्धारक [[विशेषता बहुपद]] की गणना करने की अनुमति देता है <math>O(m^2)</math> संचालन, और एक बिंदु पर इसका मूल्यांकन करना <math>O(m)</math> परिचालन.
लैंज़ोस एल्गोरिदम को अधिकांशतः मैट्रिक्स के आइजनवैल्यू और आइजनवेक्टर खोजने के संदर्भ में लाया जाता है, लेकिन जबकि सामान्य [[मैट्रिक्स विकर्णीकरण]] आइजनवेक्टर और आइजनवैल्यू को निरीक्षण से स्पष्ट कर देगा, वही लैंज़ोस एल्गोरिदम द्वारा किए गए ट्राइडिएगोनलाइज़ेशन के लिए सच नहीं है; एक भी [[eigenvalue|आइजेनवैल्यू]] या [[eigenvector|आइजेनवेक्टर]] की गणना करने के लिए गैर-तुच्छ अतिरिक्त चरणों की आवश्यकता होती है। फिर भी, लैंज़ोस एल्गोरिथ्म को प्रयुक्त करना अधिकांशतः आइगेंडेकंपोजीशन की गणना में महत्वपूर्ण कदम है। अगर <math>\lambda</math> का प्रतिरूप है <math>A</math>, और अगर <math> T x = \lambda x </math> (<math>x</math> का आइजेनवेक्टर <math>T</math> है) तब <math> y = V x </math> का संगत आइजेनवेक्टर है <math>A</math> (तब से <math> A y = A V x = V T V^* V x = V T I x = V T x = V (\lambda x) = \lambda V x = \lambda y</math>). इस प्रकार लैंज़ोस एल्गोरिथ्म आइजनसंयोजन समस्या को बदल देता है <math>A</math> आइजनसंयोजन समस्या <math>T</math> के लिए ,
#* [[फूट डालो और जीतो eigenvalue एल्गोरिदम]] का उपयोग संपूर्ण eigendecomposition की गणना करने के लिए किया जा सकता है <math>T</math> में <math>O(m^2)</math> परिचालन.
# त्रिविकर्ण मैट्रिक्स के लिए, कई विशिष्ट एल्गोरिदम उपस्थित हैं, जो अधिकांशतः सामान्य-उद्देश्य एल्गोरिदम की तुलना में बेहतर कम्प्यूटेशनल जटिलता के साथ होते हैं। उदाहरण के लिए, यदि <math>T</math> एक <math>m \times m</math> त्रिविकर्ण सममित मैट्रिक्स तब:
#* फास्ट मल्टीपोल विधि<ref>{{cite journal|last1=Coakley|first1=Ed S.|last2=Rokhlin|first2=Vladimir|title=वास्तविक सममित त्रिविकर्ण मैट्रिक्स के स्पेक्ट्रा की गणना के लिए एक तेज़ विभाजन और जीत एल्गोरिदम|journal=Applied and Computational Harmonic Analysis|date=2013|volume=34|issue=3|pages=379–414|doi=10.1016/j.acha.2012.06.003|doi-access=free}}</ref> सभी eigenvalues ​​​​की गणना बस में कर सकते हैं <math>O(m \log m)</math> परिचालन.
#* त्रिविकर्ण मैट्रिक्स#निर्धारक [[विशेषता बहुपद]] की गणना करने की अनुमति देता है <math>O(m^2)</math> संचालन, और बिंदु पर इसका मूल्यांकन करना <math>O(m)</math> परिचालन
# कुछ सामान्य eigendecomposition एल्गोरिदम, विशेष रूप से QR एल्गोरिदम, सामान्य मैट्रिक्स की तुलना में त्रिविकर्ण मैट्रिक्स के लिए तेजी से अभिसरण करने के लिए जाने जाते हैं। त्रिविकर्ण QR की स्पर्शोन्मुख जटिलता है <math>O(m^2)</math> ठीक वैसे ही जैसे कि फूट डालो और जीतो एल्गोरिथ्म के लिए (हालाँकि स्थिर कारक भिन्न हो सकता है); चूँकि eigenvectors एक साथ हैं <math>m^2</math> तत्व, यह स्पर्शोन्मुख रूप से इष्टतम है।
#* [[फूट डालो और जीतो eigenvalue एल्गोरिदम|डिवाइड आइजनवैल्यू एल्गोरिदम]] का उपयोग संपूर्ण आइजनसंयोजन की गणना करने के लिए किया जा सकता है <math>T</math> में <math>O(m^2)</math> परिचालन
# यहां तक ​​कि एल्गोरिदम जिनकी अभिसरण दरें एकात्मक परिवर्तनों से अप्रभावित हैं, जैसे कि [[शक्ति विधि]] और व्युत्क्रम पुनरावृत्ति, त्रिविकर्ण मैट्रिक्स पर लागू होने से निम्न-स्तरीय प्रदर्शन लाभ का आनंद ले सकते हैं <math>T</math> मूल मैट्रिक्स के बजाय <math>A</math>. तब से <math>T</math> अत्यधिक पूर्वानुमानित स्थितियों में सभी गैर-शून्य तत्वों के साथ बहुत विरल है, यह [[कैश (कंप्यूटिंग)]] की तुलना में उत्कृष्ट प्रदर्शन के साथ कॉम्पैक्ट स्टोरेज की अनुमति देता है। वैसे ही, <math>T</math> जबकि सभी eigenvectors और eigenvalues ​​​​वास्तविक के साथ एक [[वास्तविक संख्या]] मैट्रिक्स है <math>A</math> सामान्य तौर पर इसमें जटिल तत्व और आइजनवेक्टर हो सकते हैं, इसलिए वास्तविक अंकगणित आइजनवेक्टर और आइजनवेक्टर खोजने के लिए पर्याप्त है <math>T</math>.
#* फास्ट मल्टीपोल विधि<ref>{{cite journal|last1=Coakley|first1=Ed S.|last2=Rokhlin|first2=Vladimir|title=वास्तविक सममित त्रिविकर्ण मैट्रिक्स के स्पेक्ट्रा की गणना के लिए एक तेज़ विभाजन और जीत एल्गोरिदम|journal=Applied and Computational Harmonic Analysis|date=2013|volume=34|issue=3|pages=379–414|doi=10.1016/j.acha.2012.06.003|doi-access=free}}</ref> सभी आइजनवैल्यू ​​​​की गणना बस में कर सकते हैं <math>O(m \log m)</math> परिचालन
# अगर <math>n</math> बहुत बड़ा है, फिर घट रहा है <math>m</math> ताकि <math>T</math> प्रबंधनीय आकार का होने पर भी यह अधिक चरम आइजनवैल्यू और आइजेनवेक्टर खोजने की अनुमति देगा <math>A</math>; में <math>m \ll n</math> क्षेत्र में, लैंज़ोस एल्गोरिथ्म को हर्मिटियन मैट्रिसेस के लिए एक [[हानिपूर्ण संपीड़न]] योजना के रूप में देखा जा सकता है, जो चरम स्वदेशी मूल्यों को संरक्षित करने पर जोर देता है।
# कुछ सामान्य आइजनसंयोजन एल्गोरिदम, विशेष रूप से QR एल्गोरिदम, सामान्य मैट्रिक्स की तुलना में त्रिविकर्ण मैट्रिक्स के लिए तेजी से अभिसरण करने के लिए जाने जाते हैं। त्रिविकर्ण QR की स्पर्शोन्मुख जटिलता है <math>O(m^2)</math> ठीक वैसे ही जैसे कि डिवाइड करो और जीतो एल्गोरिथ्म के लिए (चुकीं स्थिर कारक भिन्न हो सकता है); चूँकि आइजनवेक्टर एक साथ हैं <math>m^2</math> तत्व, यह स्पर्शोन्मुख रूप से इष्टतम है।
विरल मैट्रिक्स के लिए अच्छे प्रदर्शन का संयोजन और कई (सभी की गणना किए बिना) आइगेनवैल्यू की गणना करने की क्षमता लैंज़ोस एल्गोरिदम का उपयोग करने का चयन करने के मुख्य कारण हैं।
# यहां तक ​​कि एल्गोरिदम जिनकी अभिसरण दरें एकात्मक परिवर्तनों से अप्रभावित हैं, जैसे कि [[शक्ति विधि]] और व्युत्क्रम पुनरावृत्ति, त्रिविकर्ण मैट्रिक्स पर प्रयुक्त होने से निम्न-स्तरीय प्रदर्शन लाभ का आनंद ले सकते हैं <math>T</math> मूल मैट्रिक्स के अतिरिक्त <math>A</math>. तब से <math>T</math> अत्यधिक पूर्वानुमानित स्थितियों में सभी गैर-शून्य तत्वों के साथ बहुत विरल है, यह [[कैश (कंप्यूटिंग)]] की तुलना में उत्कृष्ट प्रदर्शन के साथ कॉम्पैक्ट स्टोरेज की अनुमति देता है। वैसे ही, <math>T</math> जबकि सभी आइजनवेक्टर और आइजनवैल्यू ​​​​वास्तविक के साथ [[वास्तविक संख्या]] मैट्रिक्स है <math>A</math> सामान्य तौर पर इसमें जटिल तत्व और आइजनवेक्टर हो सकते हैं, इसलिए वास्तविक अंकगणित आइजनवेक्टर और आइजनवेक्टर खोजने के लिए <math>T</math> पर्याप्त है।
# अगर <math>n</math> बहुत बड़ा है, फिर घट रहा है <math>m</math> जिससे <math>T</math> प्रबंधनीय आकार का होने पर भी यह अधिक चरम आइजनवैल्यू और आइजनवेक्टर खोजने की अनुमति देगा <math>A</math>; में <math>m \ll n</math> क्षेत्र में, लैंज़ोस एल्गोरिथ्म को हर्मिटियन मैट्रिसेस के लिए [[हानिपूर्ण संपीड़न]] योजना के रूप में देखा जा सकता है, जो चरम स्वदेशी मूल्यों को संरक्षित करने पर जोर देता है।
विरल मैट्रिक्स के लिए अच्छे प्रदर्शन का संयोजन और कई (सभी की गणना किए बिना) आइजनवैल्यू की गणना करने की क्षमता लैंज़ोस एल्गोरिदम का उपयोग करने का चयन करने के मुख्य कारण हैं।


=== त्रिविकर्णीकरण का अनुप्रयोग ===
=== त्रिविकर्णीकरण का अनुप्रयोग ===
यद्यपि ईजेनप्रॉब्लम अक्सर लैंज़ोस एल्गोरिदम को लागू करने के लिए प्रेरणा होती है, एल्गोरिदम मुख्य रूप से जो ऑपरेशन करता है वह एक मैट्रिक्स का त्रिविकर्णीकरण होता है, जिसके लिए 1950 के दशक से संख्यात्मक रूप से स्थिर हाउसहोल्डर परिवर्तनों का समर्थन किया गया है। 1960 के दशक के दौरान लैंज़ोस एल्गोरिदम की उपेक्षा की गई थी। कनियल-पेगे अभिसरण सिद्धांत और संख्यात्मक अस्थिरता को रोकने के तरीकों के विकास से इसमें रुचि फिर से जीवंत हो गई, लेकिन लैंज़ोस एल्गोरिदम वैकल्पिक एल्गोरिदम बना हुआ है जिसे कोई केवल तभी आज़माता है जब हाउसहोल्डर संतोषजनक नहीं होता है।<ref name="GolubVanLoan">{{cite book|last1=Golub|first1=Gene H.|last2=Van Loan|first2=Charles F.|title=मैट्रिक्स गणना|date=1996|publisher=Johns Hopkins Univ. Press|location=Baltimore|isbn=0-8018-5413-X|edition=3.}}</ref>
यद्यपि आइजनप्रॉब्लम अधिकांशतः लैंज़ोस एल्गोरिदम को प्रयुक्त करने के लिए प्रेरणा होती है, एल्गोरिदम मुख्य रूप से जो ऑपरेशन करता है वह मैट्रिक्स का त्रिविकर्णीकरण होता है, जिसके लिए 1950 के दशक से संख्यात्मक रूप से स्थिर हाउसहोल्डर परिवर्तनों का समर्थन किया गया है। 1960 के दशक के समय लैंज़ोस एल्गोरिदम की उपेक्षा की गई थी। कनियल-पेगे अभिसरण सिद्धांत और संख्यात्मक अस्थिरता को रोकने के विधियों के विकास से इसमें रुचि फिर से जीवंत हो गई, लेकिन लैंज़ोस एल्गोरिदम वैकल्पिक एल्गोरिदम बना हुआ है जिसे कोई केवल तभी आज़माता है जब हाउसहोल्डर संतोषजनक नहीं होता है।<ref name="GolubVanLoan">{{cite book|last1=Golub|first1=Gene H.|last2=Van Loan|first2=Charles F.|title=मैट्रिक्स गणना|date=1996|publisher=Johns Hopkins Univ. Press|location=Baltimore|isbn=0-8018-5413-X|edition=3.}}</ref>
जिन पहलुओं में दोनों एल्गोरिदम भिन्न हैं उनमें शामिल हैं:
 
* लैंज़ोस फायदा उठाता है <math>A</math> एक विरल मैट्रिक्स होने के नाते, जबकि हाउसहोल्डर ऐसा नहीं करता है, और विरल मैट्रिक्स #रिड्यूसिंग फिल-इन|फिल-इन उत्पन्न करेगा।
जिन पहलुओं में दोनों एल्गोरिदम भिन्न हैं उनमें सम्मिलित हैं:
* लैंज़ोस मूल मैट्रिक्स के साथ काम करता है <math>A</math> (और इसे केवल अंतर्निहित रूप से ज्ञात होने में कोई समस्या नहीं है), जबकि कच्चा हाउसहोल्डर गणना के दौरान मैट्रिक्स को संशोधित करना चाहता है (हालांकि इससे बचा जा सकता है)।
* लैंज़ोस लाभ उठाता है <math>A</math> विरल मैट्रिक्स होने के नाते, जबकि हाउसहोल्डर ऐसा नहीं करता है, और विरल मैट्रिक्स #रिड्यूसिंग फिल-इन|फिल-इन उत्पन्न करेगा।
* लैंज़ोस एल्गोरिथ्म का प्रत्येक पुनरावृत्ति अंतिम परिवर्तन मैट्रिक्स का एक और कॉलम तैयार करता है <math>V</math>, जबकि हाउसहोल्डर का एक पुनरावृत्ति एकात्मक गुणनखंडन में एक और कारक उत्पन्न करता है <math> Q_1 Q_2 \dots Q_n</math> का <math>V</math>. हालाँकि, प्रत्येक कारक एक एकल वेक्टर द्वारा निर्धारित होता है, इसलिए भंडारण आवश्यकताएँ दोनों एल्गोरिदम के लिए समान हैं, और <math>V = Q_1 Q_2 \dots Q_n</math> में गणना की जा सकती है <math>O(n^3)</math> समय।
* लैंज़ोस मूल मैट्रिक्स के साथ काम करता है <math>A</math> (और इसे केवल अंतर्निहित रूप से ज्ञात होने में कोई समस्या नहीं है), जबकि कच्चा हाउसहोल्डर गणना के समय मैट्रिक्स को संशोधित करना चाहता है (चुकीं इससे बचा जा सकता है)।
* गृहस्वामी संख्यात्मक रूप से स्थिर है, जबकि कच्चा लैंज़ोस नहीं है।
* लैंज़ोस एल्गोरिथ्म का प्रत्येक पुनरावृत्ति अंतिम परिवर्तन मैट्रिक्स का और कॉलम तैयार करता है <math>V</math>, जबकि हाउसहोल्डर का पुनरावृत्ति एकात्मक गुणनखंडन में एक और कारक उत्पन्न करता है <math> Q_1 Q_2 \dots Q_n</math> का <math>V</math>. चुकीं, प्रत्येक कारक एकल वेक्टर द्वारा निर्धारित होता है, इसलिए भंडारण आवश्यकताएँ दोनों एल्गोरिदम के लिए समान हैं, और <math>V = Q_1 Q_2 \dots Q_n</math> में <math>O(n^3)</math>गणना की जा सकती है।
* लैंज़ोस अत्यधिक समानांतर है, केवल के साथ <math>O(n)</math> सिंक्रोनाइज़ेशन के बिंदु (कंप्यूटर विज्ञान) (की गणना) <math>\alpha_j</math> और <math>\beta_j</math>). गृहस्थ कम समानांतर होता है, जिसका एक क्रम होता है <math>O(n^2)</math> अदिश मात्राओं की गणना की जाती है जिनमें से प्रत्येक अनुक्रम में पिछली मात्रा पर निर्भर करती है।
* ओनर संख्यात्मक रूप से स्थिर है, जबकि कच्चा लैंज़ोस नहीं है।
* लैंज़ोस अत्यधिक समानांतर है, केवल के साथ <math>O(n)</math> सिंक्रोनाइज़ेशन के बिंदु (कंप्यूटर विज्ञान) (की गणना) <math>\alpha_j</math> और <math>\beta_j</math>). गृहस्थ कम समानांतर होता है, जिसका क्रम होता है <math>O(n^2)</math> अदिश मात्राओं की गणना की जाती है जिनमें से प्रत्येक अनुक्रम में पिछली मात्रा पर निर्भर करती है।


==एल्गोरिदम की व्युत्पत्ति==
==एल्गोरिदम की व्युत्पत्ति==
तर्क की कई पंक्तियाँ हैं जो लैंज़ोस एल्गोरिदम की ओर ले जाती हैं।
तर्क की कई पंक्तियाँ हैं जो लैंज़ोस एल्गोरिदम की ओर ले जाती हैं।


===एक अधिक भविष्य शक्ति विधि===
===अधिक भविष्य शक्ति विधि===
{{Main|Power iteration}}
{{Main|शक्ति पुनरावृत्ति}}
सबसे बड़े परिमाण के आइजेनवैल्यू और मैट्रिक्स के संबंधित आइजेनवेक्टर को खोजने की शक्ति विधि <math>A</math> मोटे तौर पर है
सबसे बड़े परिमाण के आइजेनवैल्यू और मैट्रिक्स के संबंधित आइजेनवेक्टर को खोजने की शक्ति विधि <math>A</math> सामान्यतः है,
:# एक यादृच्छिक वेक्टर चुनें <math>u_1 \neq 0</math>.
:# यादृच्छिक वेक्टर चुनें <math>u_1 \neq 0</math>.
:# के लिए <math> j \geqslant 1 </math> (के निर्देश तक <math>u_j</math> एकत्रित हो गया है) करें:
:# के लिए <math> j \geqslant 1 </math> (के निर्देश तक <math>u_j</math> एकत्रित हो गया है) करें:
:## होने देना <math> u_{j+1}' = A u_j.</math>
:## माना<math> u_{j+1}' = A u_j.</math>
:## होने देना <math> u_{j+1} = u_{j+1}' / \| u_{j+1}' \|.</math>
:## माना<math> u_{j+1} = u_{j+1}' / \| u_{j+1}' \|.</math>
:* बड़े में <math>j</math> सीमा, <math>u_j</math> सबसे बड़े परिमाण के आइगेनवैल्यू के अनुरूप मानक आइजेनवेक्टर के पास पहुंचता है।
:* बड़े में <math>j</math> सीमा, <math>u_j</math> सबसे बड़े परिमाण के आइगेनवैल्यू के अनुरूप मानक आइजेनवेक्टर के पास पहुंचता है।
इस पद्धति के खिलाफ जो आलोचना की जा सकती है वह यह है कि यह बेकार है: इसमें मैट्रिक्स से जानकारी निकालने में बहुत सारा काम (चरण 2.1 में मैट्रिक्स-वेक्टर उत्पाद) खर्च होता है <math>A</math>, लेकिन केवल अंतिम परिणाम पर ही ध्यान देता है; कार्यान्वयन आम तौर पर सभी वैक्टरों के लिए समान चर का उपयोग करते हैं <math>u_j</math>, प्रत्येक नए पुनरावृत्ति में पिछले वाले के परिणामों को अधिलेखित कर दिया जाता है। इसके बजाय सभी मध्यवर्ती परिणामों को रखना और डेटा को व्यवस्थित करना वांछनीय हो सकता है।
इस पद्धति के खिलाफ जो आलोचना की जा सकती है वह यह है कि यह व्यर्थ है: इसमें मैट्रिक्स से जानकारी निकालने में बहुत सारा काम (चरण 2.1 में मैट्रिक्स-वेक्टर उत्पाद) खर्च होता है <math>A</math>, लेकिन केवल अंतिम परिणाम पर ही ध्यान देता है; कार्यान्वयन सामान्यतः सभी वैक्टरों के लिए समान चर का उपयोग करते हैं <math>u_j</math>, प्रत्येक नए पुनरावृत्ति में पिछले वाले के परिणामों को अधिलेखित कर दिया जाता है। इसके अतिरिक्त सभी मध्यवर्ती परिणामों को रखना और डेटा को व्यवस्थित करना वांछनीय हो सकता है।


जानकारी का एक टुकड़ा जो तुच्छ रूप से वैक्टर से उपलब्ध है <math>u_j</math> क्रायलोव उपस्थानों की एक श्रृंखला है। यह बताने का एक तरीका कि एल्गोरिथम में सेट शामिल किए बिना यह दावा करना है कि यह गणना करता है
जानकारी का टुकड़ा जो तुच्छ रूप से वैक्टर से उपलब्ध है <math>u_j</math> क्रायलोव उपस्थानों की श्रृंखला है। यह बताने का विधि कि एल्गोरिथम में सेट सम्मिलित किए बिना यह दावा करना है कि यह गणना करता है


:उपसमुच्चय <math>\{v_j\}_{j=1}^m</math> के एक आधार का <math>\Complex^n</math> ऐसा है कि <math>Ax \in \operatorname{span}(v_1,\dotsc,v_{j+1}) </math> हरएक के लिए <math>x \in \operatorname{span}(v_1,\dotsc,v_j)</math> और सभी <math>1 \leqslant j < m;</math>
:उपसमुच्चय <math>\{v_j\}_{j=1}^m</math> के एक आधार का <math>\Complex^n</math> ऐसा है कि <math>Ax \in \operatorname{span}(v_1,\dotsc,v_{j+1}) </math> हरएक के लिए <math>x \in \operatorname{span}(v_1,\dotsc,v_j)</math> और सभी <math>1 \leqslant j < m;</math>
यह तुच्छ रूप से संतुष्ट है <math>v_j = u_j</math> जब तक कि <math>u_j</math> से रैखिक रूप से स्वतंत्र है <math>u_1,\dotsc,u_{j-1}</math> (और यदि ऐसी कोई निर्भरता है तो कोई इसे चुनकर अनुक्रम जारी रख सकता है <math>v_j</math> एक मनमाना वेक्टर रैखिक रूप से स्वतंत्र है <math>u_1,\dotsc,u_{j-1}</math>). एक आधार जिसमें शामिल है <math>u_j</math> हालाँकि, वेक्टर के संख्यात्मक रूप से खराब होने की संभावना है, क्योंकि वेक्टर का यह क्रम डिजाइन के अनुसार एक आइजेनवेक्टर में परिवर्तित होने के लिए है। <math>A</math>. इससे बचने के लिए, कोई व्यक्ति शक्ति पुनरावृत्ति को ग्राम-श्मिट प्रक्रिया के साथ जोड़ सकता है, इसके बजाय इन क्रायलोव उप-स्थानों का एक ऑर्थोनॉर्मल आधार तैयार कर सकता है।
यह तुच्छ रूप से संतुष्ट है <math>v_j = u_j</math> जब तक कि <math>u_j</math> से रैखिक रूप से स्वतंत्र है <math>u_1,\dotsc,u_{j-1}</math> (और यदि ऐसी कोई निर्भरता है तो कोई इसे चुनकर अनुक्रम जारी रख सकता है <math>v_j</math> मनमाना वेक्टर रैखिक रूप से स्वतंत्र है <math>u_1,\dotsc,u_{j-1}</math>) आधार जिसमें सम्मिलित है <math>u_j</math> चुकीं, वेक्टर के संख्यात्मक रूप से खराब होने की संभावना है, क्योंकि वेक्टर का यह क्रम डिजाइन के अनुसार आइजेनवेक्टर में परिवर्तित होने के लिए है। <math>A</math>. इससे बचने के लिए, कोई व्यक्ति शक्ति पुनरावृत्ति को ग्राम-श्मिट प्रक्रिया के साथ जोड़ सकता है, इसके बजाय इन क्रायलोव उप-स्थानों का ऑर्थोनॉर्मल आधार तैयार कर सकता है।
# एक यादृच्छिक वेक्टर चुनें <math>u_1</math> यूक्लिडियन मानदंड का <math>1</math>. होने देना <math>v_1 = u_1</math>.
# यादृच्छिक वेक्टर चुनें <math>u_1</math> यूक्लिडियन मानदंड का <math>1</math>. माना <math>v_1 = u_1</math>.
# के लिए <math>j = 1,\dotsc,m-1</math> करना:
# के लिए <math>j = 1,\dotsc,m-1</math> करना:
## होने देना <math> u_{j+1}' = A u_j </math>.
## माना <math> u_{j+1}' = A u_j </math>.
## सभी के लिए <math> k = 1, \dotsc, j </math> होने देना <math>g_{k,j} = v_k^* u_{j+1}'</math>. (ये के निर्देशांक हैं <math> A u_j = u_{j+1}' </math> आधार वैक्टर के संबंध में <math>v_1,\dotsc,v_j</math>.)
## सभी के लिए <math> k = 1, \dotsc, j </math> माना<math>g_{k,j} = v_k^* u_{j+1}'</math>. (ये के निर्देशांक हैं <math> A u_j = u_{j+1}' </math> आधार वैक्टर के संबंध में <math>v_1,\dotsc,v_j</math>.)
## होने देना <math> w_{j+1} = u_{j+1}' - \sum_{k=1}^j g_{k,j} v_k</math>. (के घटक को रद्द करें <math>u_{j+1}'</math> यह है <math>\operatorname{span}(v_1,\dotsc,v_j)</math>.)
## माना <math> w_{j+1} = u_{j+1}' - \sum_{k=1}^j g_{k,j} v_k</math>. (के घटक को रद्द करें <math>u_{j+1}'</math> यह है <math>\operatorname{span}(v_1,\dotsc,v_j)</math>.)
## अगर <math>w_{j+1} \neq 0</math> तो करने दें <math> u_{j+1} = u_{j+1}' / \| u_{j+1}' \| </math> और <math> v_{j+1} = w_{j+1} / \| w_{j+1} \| </math>,
## अगर <math>w_{j+1} \neq 0</math> तो करने दें <math> u_{j+1} = u_{j+1}' / \| u_{j+1}' \| </math> और <math> v_{j+1} = w_{j+1} / \| w_{j+1} \| </math>,
##: अन्यथा इस रूप में चुनें <math> u_{j+1} = v_{j+1} </math> यूक्लिडियन मानदंड का एक मनमाना वेक्टर <math>1</math> यह सभी के लिए ओर्थोगोनल है <math>v_1,\dotsc,v_j</math>.
##: अन्यथा इस रूप में चुनें <math> u_{j+1} = v_{j+1} </math> यूक्लिडियन मानदंड का मनमाना वेक्टर <math>1</math> यह सभी के लिए ओर्थोगोनल<math>v_1,\dotsc,v_j</math>है।
शक्ति पुनरावृत्ति वैक्टर के बीच संबंध <math>u_j</math> और ऑर्थोगोनल वैक्टर <math>v_j</math> यह है कि
शक्ति पुनरावृत्ति वैक्टर के बीच संबंध <math>u_j</math> और ऑर्थोगोनल वैक्टर <math>v_j</math> यह है कि
: <math> A u_j = \| u_{j+1}'\| u_{j+1} = u_{j+1}' = w_{j+1} + \sum_{k=1}^j g_{k,j} v_k = \| w_{j+1}\| v_{j+1} + \sum_{k=1}^j g_{k,j} v_k </math>.
: <math> A u_j = \| u_{j+1}'\| u_{j+1} = u_{j+1}' = w_{j+1} + \sum_{k=1}^j g_{k,j} v_k = \| w_{j+1}\| v_{j+1} + \sum_{k=1}^j g_{k,j} v_k </math>.
यहाँ यह देखा जा सकता है कि वास्तव में हमें इसकी आवश्यकता नहीं है <math>u_j</math> इनकी गणना करने के लिए वैक्टर <math>v_j</math>, क्योंकि <math>u_j - v_j \in \operatorname{span}(v_1,\dotsc,v_{j-1})</math> और इसलिए बीच का अंतर <math> u_{j+1}' = A u_j </math> और <math> w_{j+1}' = A v_j </math> में है <math>\operatorname{span}(v_1,\dotsc,v_j)</math>, जिसे ऑर्थोगोनलाइज़ेशन प्रक्रिया द्वारा रद्द कर दिया गया है। इस प्रकार क्रायलोव उप-स्थानों की श्रृंखला के लिए समान आधार की गणना की जाती है
यहाँ यह देखा जा सकता है कि वास्तव में हमें इसकी आवश्यकता नहीं है <math>u_j</math> इनकी गणना करने के लिए वैक्टर <math>v_j</math>, क्योंकि <math>u_j - v_j \in \operatorname{span}(v_1,\dotsc,v_{j-1})</math> और इसलिए बीच का अंतर <math> u_{j+1}' = A u_j </math> और <math> w_{j+1}' = A v_j </math> में है <math>\operatorname{span}(v_1,\dotsc,v_j)</math>, जिसे ऑर्थोगोनलाइज़ेशन प्रक्रिया द्वारा रद्द कर दिया गया है। इस प्रकार क्रायलोव उप-स्थानों की श्रृंखला के लिए समान आधार की गणना की जाती है।
# एक यादृच्छिक वेक्टर चुनें <math>v_1</math> यूक्लिडियन मानदंड का <math>1</math>.
# यादृच्छिक वेक्टर चुनें <math>v_1</math> यूक्लिडियन मानदंड का <math>1</math>.
# के लिए <math>j = 1,\dotsc,m-1</math> करना:
# के लिए <math>j = 1,\dotsc,m-1</math> करना:
## होने देना <math> w_{j+1}' = A v_j </math>.
## माना <math> w_{j+1}' = A v_j </math>.
## सभी के लिए <math> k = 1, \dotsc, j </math> होने देना <math>h_{k,j} = v_k^* w_{j+1}'</math>.
## सभी के लिए <math> k = 1, \dotsc, j </math> माना<math>h_{k,j} = v_k^* w_{j+1}'</math>.
## होने देना <math> w_{j+1} = w_{j+1}' - \sum_{k=1}^j h_{k,j} v_k </math>.
## माना <math> w_{j+1} = w_{j+1}' - \sum_{k=1}^j h_{k,j} v_k </math>.
## होने देना <math> h_{j+1,j} = \| w_{j+1} \| </math>.
## माना <math> h_{j+1,j} = \| w_{j+1} \| </math>.
## अगर <math>h_{j+1,j} \neq 0</math> तो करने दें <math> v_{j+1} = w_{j+1} / h_{j+1,j} </math>,
## अगर <math>h_{j+1,j} \neq 0</math> तो करने दें <math> v_{j+1} = w_{j+1} / h_{j+1,j} </math>,
##: अन्यथा इस रूप में चुनें <math> v_{j+1} </math> यूक्लिडियन मानदंड का एक मनमाना वेक्टर <math>1</math> यह सभी के लिए ओर्थोगोनल है <math>v_1,\dotsc,v_j</math>.
##: अन्यथा इस रूप में चुनें <math> v_{j+1} </math> यूक्लिडियन मानदंड का मनमाना वेक्टर <math>1</math> यह सभी के लिए ओर्थोगोनल <math>v_1,\dotsc,v_j</math> है।
एक प्राथमिकता गुणांक <math>h_{k,j}</math> संतुष्ट करना
प्राथमिकता गुणांक <math>h_{k,j}</math> संतुष्ट करना
: <math> A v_j = \sum_{k=1}^{j+1} h_{k,j} v_k </math> सभी के लिए <math> j < m </math>;
: <math> A v_j = \sum_{k=1}^{j+1} h_{k,j} v_k </math> सभी के लिए <math> j < m </math>;
मानहानि <math> h_{j+1,j} = \| w_{j+1} \| </math> थोड़ा अजीब लग सकता है, लेकिन सामान्य पैटर्न पर फिट बैठता है <math> h_{k,j} = v_k^* w_{j+1}' </math> तब से
मानहानि <math> h_{j+1,j} = \| w_{j+1} \| </math> थोड़ा विचित्र लग सकता है, लेकिन सामान्य पैटर्न पर फिट बैठता है <math> h_{k,j} = v_k^* w_{j+1}' </math> तब से


:<math> v_{j+1}^* w_{j+1}' = v_{j+1}^* w_{j+1} = \| w_{j+1} \| v_{j+1}^* v_{j+1} = \| w_{j+1} \|.</math>
:<math> v_{j+1}^* w_{j+1}' = v_{j+1}^* w_{j+1} = \| w_{j+1} \| v_{j+1}^* v_{j+1} = \| w_{j+1} \|.</math>
क्योंकि शक्ति पुनरावृत्ति सदिश <math>u_j</math> जो इस पुनरावर्ती संतुष्टि से हटा दिए गए थे <math>u_j \in \operatorname{span}(v_1,\ldots,v_j),</math> सदिश <math>\{v_j\}_{j=1}^m</math> और गुणांक <math>h_{k,j}</math> से पर्याप्त जानकारी शामिल है <math>A</math> वह सब <math>u_1,\ldots,u_m</math> गणना की जा सकती है, इसलिए वैक्टर बदलने से कुछ भी नुकसान नहीं हुआ। (वास्तव में, यह पता चला है कि यहां एकत्र किया गया डेटा पावर विधि में समान संख्या में पुनरावृत्तियों से प्राप्त होने वाले सबसे बड़े आइगेनवैल्यू का काफी बेहतर अनुमान देता है, हालांकि इस बिंदु पर यह स्पष्ट नहीं है।)
क्योंकि शक्ति पुनरावृत्ति सदिश <math>u_j</math> जो इस पुनरावर्ती संतुष्टि से हटा दिए गए थे <math>u_j \in \operatorname{span}(v_1,\ldots,v_j),</math> सदिश <math>\{v_j\}_{j=1}^m</math> और गुणांक <math>h_{k,j}</math> से पर्याप्त जानकारी सम्मिलित है <math>A</math> वह सब <math>u_1,\ldots,u_m</math> गणना की जा सकती है, इसलिए वैक्टर बदलने से कुछ भी हानि नहीं हुआ। (वास्तव में, यह पता चला है कि यहां एकत्र किया गया डेटा पावर विधि में समान संख्या में पुनरावृत्तियों से प्राप्त होने वाले सबसे बड़े आइगेनवैल्यू का काफी बेहतर अनुमान देता है, चुकीं इस बिंदु पर यह स्पष्ट नहीं है।)


यह अंतिम प्रक्रिया अर्नोल्डी पुनरावृत्ति है। लैंज़ोस एल्गोरिथ्म तब सरलीकरण के रूप में सामने आता है जो गणना के चरणों को समाप्त करने से प्राप्त होता है जो तब तुच्छ हो जाते हैं <math>A</math> हर्मिटियन है—विशेष रूप से अधिकांश <math>h_{k,j}</math> गुणांक शून्य हो जाते हैं।
यह अंतिम प्रक्रिया अर्नोल्डी पुनरावृत्ति है। लैंज़ोस एल्गोरिथ्म तब सरलीकरण के रूप में सामने आता है जो गणना के चरणों को समाप्त करने से प्राप्त होता है जो तब तुच्छ हो जाते हैं <math>A</math> हर्मिटियन है—विशेष रूप से अधिकांश <math>h_{k,j}</math> गुणांक शून्य हो जाते हैं।
Line 113: Line 116:


:<math> h_{k,j} = v_k^* w_{j+1}' = v_k^* A v_j = v_k^* A^* v_j = (A v_k)^* v_j.</math>
:<math> h_{k,j} = v_k^* w_{j+1}' = v_k^* A v_j = v_k^* A^* v_j = (A v_k)^* v_j.</math>
के लिए <math> k < j-1 </math> हम वह जानते हैं <math> A v_k \in \operatorname{span}(v_1,\ldots,v_{j-1}) </math>, और तबसे <math> v_j </math> निर्माण द्वारा इस उप-स्थान के लिए ऑर्थोगोनल है, यह आंतरिक उत्पाद शून्य होना चाहिए। (यह अनिवार्य रूप से यही कारण है कि ऑर्थोगोनल बहुपदों के अनुक्रमों को हमेशा एक ऑर्थोगोनल बहुपद#पुनरावृत्ति संबंध|तीन-अवधि वाला पुनरावृत्ति संबंध दिया जा सकता है।) <math> k = j-1 </math> एक मिलता है
के लिए <math> k < j-1 </math> हम वह जानते हैं <math> A v_k \in \operatorname{span}(v_1,\ldots,v_{j-1}) </math>, और तबसे <math> v_j </math> निर्माण द्वारा इस उप-स्थान के लिए ऑर्थोगोनल है, यह आंतरिक उत्पाद शून्य होना चाहिए। (यह अनिवार्य रूप से यही कारण है कि ऑर्थोगोनल बहुपदों के अनुक्रमों को सदैव ऑर्थोगोनल बहुपद पुनरावृत्ति संबंध तीन-अवधि वाला पुनरावृत्ति संबंध दिया जा सकता है।) <math> k = j-1 </math> मिलता है।


:<math> h_{j-1,j} = (A v_{j-1})^* v_j = \overline{v_j^* A v_{j-1} } = \overline{ h_{j,j-1} } = h_{j,j-1} </math> चूँकि वेक्टर का आदर्श होने के कारण उत्तरार्द्ध वास्तविक है। के लिए <math> k = j </math> एक मिलता है
:<math> h_{j-1,j} = (A v_{j-1})^* v_j = \overline{v_j^* A v_{j-1} } = \overline{ h_{j,j-1} } = h_{j,j-1} </math> चूँकि वेक्टर का आदर्श होने के कारण उत्तरार्द्ध वास्तविक है। के लिए <math> k = j </math> मिलता है।


:<math> h_{j,j} = (A v_j)^* v_j = \overline{v_j^* A v_j } = \overline{h_{j,j}},</math>
:<math> h_{j,j} = (A v_j)^* v_j = \overline{v_j^* A v_j } = \overline{h_{j,j}},</math>
मतलब ये भी असली है.
अर्थ ये भी सही है.


अधिक संक्षेप में, यदि <math>V</math> स्तंभों वाला मैट्रिक्स है <math>v_1,\ldots,v_m</math> फिर संख्याएँ <math>h_{k,j}</math> मैट्रिक्स के तत्वों के रूप में पहचाना जा सकता है <math>H = V^*AV</math>, और <math>h_{k,j} = 0</math> के लिए <math>k > j+1;</math> गणित का सवाल <math>H</math> [[हेसेनबर्ग मैट्रिक्स]] है. तब से
अधिक संक्षेप में, यदि <math>V</math> स्तंभों वाला मैट्रिक्स है <math>v_1,\ldots,v_m</math> फिर संख्याएँ <math>h_{k,j}</math> मैट्रिक्स के तत्वों के रूप में पहचाना जा सकता है <math>H = V^*AV</math>, और <math>h_{k,j} = 0</math> के लिए <math>k > j+1;</math> गणित का सवाल <math>H</math> [[हेसेनबर्ग मैट्रिक्स]] है।तब से


:<math> H^* = \left (V^* A V \right )^* = V^* A^* V = V^* A V = H </math> गणित का सवाल <math>H</math> हर्मिटियन है. इसका अर्थ यह है कि <math>H</math> यह हेसेनबर्ग से भी निचला है, इसलिए यह वास्तव में त्रिविजात्मक होना चाहिए। हर्मिटियन होने के कारण, इसका मुख्य विकर्ण वास्तविक है, और चूंकि इसका पहला उपविकर्ण निर्माण से वास्तविक है, इसलिए इसके पहले सुपरविकर्ण के लिए भी यही सच है। इसलिए, <math>H</math> एक वास्तविक, सममित मैट्रिक्स है - मैट्रिक्स <math>T</math> लैंज़ोस एल्गोरिथम विनिर्देश के।
:<math> H^* = \left (V^* A V \right )^* = V^* A^* V = V^* A V = H </math> गणित का सवाल <math>H</math> हर्मिटियन है. इसका अर्थ यह है कि <math>H</math> यह हेसेनबर्ग से भी निचला है, इसलिए यह वास्तव में त्रिविजात्मक होना चाहिए। हर्मिटियन होने के कारण, इसका मुख्य विकर्ण वास्तविक है, और चूंकि इसका पहला उपविकर्ण निर्माण से वास्तविक है, इसलिए इसके पहले सुपरविकर्ण के लिए भी यही सच है। इसलिए, <math>H</math> वास्तविक, सममित मैट्रिक्स है - मैट्रिक्स <math>T</math> लैंज़ोस एल्गोरिथम विनिर्देश के लिए है।


===चरम eigenvalues ​​​​का एक साथ सन्निकटन===
===चरम आइजनवैल्यू ​​​​का एक साथ सन्निकटन===
हर्मिटियन मैट्रिक्स के आइजेनवेक्टरों को चिह्नित करने का एक तरीका <math>A</math> [[रेले भागफल]] के [[स्थिर बिंदु]]ओं के रूप में है
हर्मिटियन मैट्रिक्स के आइजेनवेक्टरों को चिह्नित करने का एक विधि <math>A</math> [[रेले भागफल]] के [[स्थिर बिंदु]]ओं के रूप में है


: <math>r(x) = \frac{x^* A x} {x^* x}, \qquad x \in\Complex^n.</math>
: <math>r(x) = \frac{x^* A x} {x^* x}, \qquad x \in\Complex^n.</math>
विशेष रूप से, सबसे बड़ा eigenvalue <math>\lambda_\max</math> का वैश्विक अधिकतम है <math>r</math> और सबसे छोटा eigenvalue <math>\lambda_\min</math> का वैश्विक न्यूनतम है <math>r</math>.
विशेष रूप से, सबसे बड़ा आइजनवैल्यू <math>\lambda_\max</math> का वैश्विक अधिकतम है <math>r</math> और सबसे छोटा आइजनवैल्यू <math>\lambda_\min</math> का वैश्विक न्यूनतम <math>r</math> है।


निम्न-आयामी उप-स्थान के भीतर <math>\mathcal{L}</math> का <math>\Complex^n</math> अधिकतम का पता लगाना संभव हो सकता है <math>x</math> और न्यूनतम <math>y</math> का <math>r</math>. बढ़ती हुई शृंखला के लिए इसे दोहराते हुए <math>\mathcal{L}_1 \subset \mathcal{L}_2 \subset \cdots</math> वैक्टर के दो अनुक्रम उत्पन्न करता है: <math>x_1, x_2, \ldots</math> और <math>y_1, y_2, \dotsc </math> ऐसा है कि <math>x_j, y_j \in \mathcal{L}_j </math> और
निम्न-आयामी उप-स्थान के अन्दर <math>\mathcal{L}</math> का <math>\Complex^n</math> अधिकतम का पता लगाना संभव हो सकता है <math>x</math> और न्यूनतम <math>y</math> का <math>r</math>. बढ़ती हुई शृंखला के लिए इसे दोहराते हुए <math>\mathcal{L}_1 \subset \mathcal{L}_2 \subset \cdots</math> वैक्टर के दो अनुक्रम उत्पन्न करता है: <math>x_1, x_2, \ldots</math> और <math>y_1, y_2, \dotsc </math> ऐसा है कि <math>x_j, y_j \in \mathcal{L}_j </math> और


:<math>\begin{align}
:<math>\begin{align}
Line 141: Line 144:


: <math>\nabla r(x) = \frac{2}{x^* x} ( A x - r(x) x ), </math>
: <math>\nabla r(x) = \frac{2}{x^* x} ( A x - r(x) x ), </math>
इसलिए मैट्रिक्स अंकगणित में गणना करने के लिए रुचि की दिशाएं काफी आसान हैं, लेकिन यदि कोई दोनों में सुधार करना चाहता है <math>x_j</math> और <math>y_j</math> फिर ध्यान में रखने के लिए दो नई दिशाएँ हैं: <math>Ax_j</math> और <math>Ay_j;</math> तब से <math>x_j</math> और <math>y_j</math> रैखिक रूप से स्वतंत्र वैक्टर हो सकते हैं (वास्तव में, ऑर्थोगोनल के करीब हैं), कोई भी सामान्य रूप से उम्मीद नहीं कर सकता है <math>Ax_j</math> और <math>Ay_j</math> समानांतर होना. का आयाम बढ़ाना आवश्यक नहीं है <math>\mathcal{L}_j</math> द्वारा <math>2</math> हर कदम पर अगर <math>\{\mathcal{L}_j\}_{j=1}^m</math> क्रायलोव उप-स्थान के रूप में लिया जाता है, क्योंकि तब <math>Az \in \mathcal{L}_{j+1}</math> सभी के लिए <math>z \in \mathcal{L}_j,</math> इस प्रकार विशेष रूप से दोनों के लिए <math>z = x_j</math> और <math>z = y_j</math>.
इसलिए मैट्रिक्स अंकगणित में गणना करने के लिए रुचि की दिशाएं बहुत सरल हैं, लेकिन यदि कोई दोनों में सुधार करना चाहता है <math>x_j</math> और <math>y_j</math> फिर ध्यान में रखने के लिए दो नई दिशाएँ हैं: <math>Ax_j</math> और <math>Ay_j;</math> तब से <math>x_j</math> और <math>y_j</math> रैखिक रूप से स्वतंत्र वैक्टर हो सकते हैं (वास्तव में, ऑर्थोगोनल के समीप हैं), कोई भी सामान्य रूप से उम्मीद नहीं कर सकता है <math>Ax_j</math> और <math>Ay_j</math> समानांतर होना. का आयाम बढ़ाना आवश्यक नहीं है <math>\mathcal{L}_j</math> द्वारा <math>2</math> हर कदम पर अगर <math>\{\mathcal{L}_j\}_{j=1}^m</math> क्रायलोव उप-स्थान के रूप में लिया जाता है, क्योंकि तब <math>Az \in \mathcal{L}_{j+1}</math> सभी के लिए <math>z \in \mathcal{L}_j,</math> इस प्रकार विशेष रूप से दोनों के लिए <math>z = x_j</math> और <math>z = y_j</math>है।


दूसरे शब्दों में, हम कुछ मनमाने प्रारंभिक वेक्टर से शुरुआत कर सकते हैं <math>x_1 = y_1,</math> वेक्टर रिक्त स्थान का निर्माण करें
दूसरे शब्दों में, हम कुछ मनमाने प्रारंभिक वेक्टर से प्रारंभ कर सकते हैं <math>x_1 = y_1,</math> वेक्टर रिक्त स्थान का निर्माण करें


:<math> \mathcal{L}_j = \operatorname{span}( x_1, A x_1, \ldots, A^{j-1} x_1 ) </math>
:<math> \mathcal{L}_j = \operatorname{span}( x_1, A x_1, \ldots, A^{j-1} x_1 ) </math>
Line 149: Line 152:


:<math> r(x_j) = \max_{z \in \mathcal{L}_j} r(z) \qquad \text{and} \qquad  r(y_j) = \min_{z \in \mathcal{L}_j} r(z).</math>
:<math> r(x_j) = \max_{z \in \mathcal{L}_j} r(z) \qquad \text{and} \qquad  r(y_j) = \min_{z \in \mathcal{L}_j} r(z).</math>
के बाद से <math>j</math>वें शक्ति विधि पुनरावृत्त <math>u_j</math> से संबंधित <math>\mathcal{L}_j,</math> यह इस प्रकार है कि उत्पादन करने के लिए एक पुनरावृत्ति <math>x_j</math> और <math>y_j</math> शक्ति विधि की तुलना में धीमी गति से अभिसरण नहीं किया जा सकता है, और दोनों eigenvalue चरम सीमाओं का अनुमान लगाकर अधिक हासिल किया जाएगा। अनुकूलन की उपसमस्या के लिए <math>r</math> कुछ पर <math>\mathcal{L}_j </math>, लम्बवत आधार रखना सुविधाजनक है <math>\{ v_1, \ldots, v_j \}</math> इस वेक्टर स्पेस के लिए. इस प्रकार हम फिर से क्रायलोव उप-स्थानों के अनुक्रम के लिए ऐसे आधार की पुनरावृत्तीय गणना करने की समस्या की ओर अग्रसर हैं।
के बाद से <math>j</math>वें शक्ति विधि पुनरावृत्त <math>u_j</math> से संबंधित <math>\mathcal{L}_j,</math> यह इस प्रकार है कि उत्पादन करने के लिए पुनरावृत्ति <math>x_j</math> और <math>y_j</math> शक्ति विधि की तुलना में धीमी गति से अभिसरण नहीं किया जा सकता है, और दोनों आइजनवैल्यू चरम सीमाओं का अनुमान लगाकर अधिक प्राप्त किया जाएगा। अनुकूलन की उपसमस्या के लिए <math>r</math> कुछ पर <math>\mathcal{L}_j </math>, लम्बवत आधार रखना सुविधाजनक है <math>\{ v_1, \ldots, v_j \}</math> इस वेक्टर स्पेस के लिए. इस प्रकार हम फिर से क्रायलोव उप-स्थानों के अनुक्रम के लिए ऐसे आधार की पुनरावृत्तीय गणना करने की समस्या की ओर अग्रसर हैं।


==अभिसरण और अन्य गतिशीलता==
==अभिसरण और अन्य गतिशीलता==
एल्गोरिथ्म की गतिशीलता का विश्लेषण करते समय, eigenvalues ​​​​और eigenvectors लेना सुविधाजनक होता है <math>A</math> जैसा कि दिया गया है, भले ही वे उपयोगकर्ता को स्पष्ट रूप से ज्ञात न हों। अंकन को ठीक करने के लिए, आइए <math>\lambda_1 \geqslant \lambda_2 \geqslant \dotsb \geqslant \lambda_n</math> आइगेनवैल्यू बनें (ये सभी जानते हैं कि ये वास्तविक हैं, और इस प्रकार ऑर्डर करना संभव है) और चलो <math>z_1,\dotsc,z_n</math> eigenvectors का एक ऑर्थोनॉर्मल सेट बनें जैसे कि <math>A z_k = \lambda_k z_k</math> सभी के लिए <math>k=1,\dotsc,n</math>.
एल्गोरिथ्म की गतिशीलता का विश्लेषण करते समय, आइजनवैल्यू ​​​​और आइजनवेक्टर लेना सुविधाजनक होता है <math>A</math> जैसा कि दिया गया है, भले ही वे उपयोगकर्ता को स्पष्ट रूप से ज्ञात न हों। अंकन को ठीक करने के लिए, आइए <math>\lambda_1 \geqslant \lambda_2 \geqslant \dotsb \geqslant \lambda_n</math> आइगेनवैल्यू बनें (ये सभी जानते हैं कि ये वास्तविक हैं, और इस प्रकार ऑर्डर करना संभव है) और चलो <math>z_1,\dotsc,z_n</math> आइजनवेक्टर का ऑर्थोनॉर्मल सेट बनें जैसे कि <math>A z_k = \lambda_k z_k</math> सभी के लिए <math>k=1,\dotsc,n</math>.


प्रारंभिक लैंज़ोस वेक्टर के गुणांकों के लिए एक अंकन तय करना भी सुविधाजनक है <math>v_1</math> इस eigenbasis के संबंध में; होने देना <math>d_k = z_k^* v_1</math> सभी के लिए <math>k=1,\dotsc,n</math>, ताकि <math> \textstyle v_1 = \sum_{k=1}^n d_k z_k</math>. एक आरंभिक सदिश <math>v_1</math> कुछ eigencomponent के ख़त्म होने से संबंधित eigenvalue में अभिसरण में देरी होगी, और भले ही यह त्रुटि सीमा में एक स्थिर कारक के रूप में सामने आता है, कमी अवांछनीय बनी हुई है। लगातार इसकी चपेट में आने से बचने के लिए एक सामान्य तकनीक चुनना है <math>v_1</math> पहले माध्य के साथ समान [[सामान्य वितरण]] के अनुसार तत्वों को यादृच्छिक रूप से खींचकर <math>0</math> और फिर वेक्टर को मानक पर पुनः स्केल करें <math>1</math>. पुनर्स्केलिंग से पहले, यह गुणांक का कारण बनता है <math>d_k</math> समान सामान्य वितरण से स्वतंत्र सामान्य रूप से वितरित स्टोकेस्टिक चर भी होना चाहिए (क्योंकि निर्देशांक का परिवर्तन एकात्मक है), और वेक्टर को पुन: स्केल करने के बाद <math>(d_1,\dotsc,d_n)</math> इकाई क्षेत्र पर एक [[समान वितरण (निरंतर)]] होगा <math>\mathbb{C}^n</math>. इससे उदाहरण के लिए संभावना को सीमित करना संभव हो जाता है <math>|d_1| < \varepsilon</math>.
प्रारंभिक लैंज़ोस वेक्टर के गुणांकों के लिए अंकन तय करना भी सुविधाजनक है <math>v_1</math> इस आइजनबेसिक के संबंध में; माना <math>d_k = z_k^* v_1</math> सभी के लिए <math>k=1,\dotsc,n</math>, ताकि <math> \textstyle v_1 = \sum_{k=1}^n d_k z_k</math> आरंभिक सदिश <math>v_1</math> कुछ आइजनअवयव के ख़त्म होने से संबंधित आइजनवैल्यू में अभिसरण में देरी होगी, और भले ही यह त्रुटि सीमा में स्थिर कारक के रूप में सामने आता है, कमी अवांछनीय बनी हुई है। लगातार इसकी चपेट में आने से बचने के लिए सामान्य तकनीक चुनना है <math>v_1</math> पहले माध्य के साथ समान [[सामान्य वितरण]] के अनुसार तत्वों को यादृच्छिक रूप से खींचकर <math>0</math> और फिर वेक्टर को मानक पर पुनः स्केल करें <math>1</math>. पुनर्स्केलिंग से पहले, यह गुणांक का कारण बनता है <math>d_k</math> समान सामान्य वितरण से स्वतंत्र सामान्य रूप से वितरित स्टोकेस्टिक चर भी होना चाहिए (क्योंकि निर्देशांक का परिवर्तन एकात्मक है), और वेक्टर को पुन: स्केल करने के बाद <math>(d_1,\dotsc,d_n)</math> इकाई क्षेत्र पर [[समान वितरण (निरंतर)]] होगा <math>\mathbb{C}^n</math>. इससे उदाहरण के लिए संभावना को <math>|d_1| < \varepsilon</math> सीमित करना संभव हो जाता है।


तथ्य यह है कि लैंज़ोस एल्गोरिदम समन्वय-अज्ञेयवादी है - ऑपरेशन केवल वैक्टर के आंतरिक उत्पादों को देखते हैं, कभी भी वैक्टर के व्यक्तिगत तत्वों को नहीं देखते हैं - एल्गोरिदम को चलाने के लिए ज्ञात ईजेनस्ट्रक्चर के साथ उदाहरण बनाना आसान बनाता है: बनाना <math>A</math> विकर्ण पर वांछित eigenvalues ​​​​के साथ एक विकर्ण मैट्रिक्स; जब तक आरंभिक वेक्टर <math>v_1</math> पर्याप्त गैर-शून्य तत्व हैं, एल्गोरिथ्म एक सामान्य त्रिविकर्ण सममित मैट्रिक्स को आउटपुट करेगा <math>T</math>.
तथ्य यह है कि लैंज़ोस एल्गोरिदम समन्वय-अज्ञेयवादी है - ऑपरेशन केवल वैक्टर के आंतरिक उत्पादों को देखते हैं, कभी भी वैक्टर के व्यक्तिगत तत्वों को नहीं देखते हैं - एल्गोरिदम को चलाने के लिए ज्ञात आइजनस्ट्रक्चर के साथ उदाहरण बनाना सरल बनाता है: बनाना <math>A</math> विकर्ण पर वांछित आइजनवैल्यू ​​​​के साथ विकर्ण मैट्रिक्स; जब तक आरंभिक वेक्टर <math>v_1</math> पर्याप्त गैर-शून्य तत्व हैं, एल्गोरिथ्म सामान्य त्रिविकर्ण सममित मैट्रिक्स <math>T</math> को आउटपुट करेगा।


===कनिएल-पेगे अभिसरण सिद्धांत===
===कनिएल-पेगे अभिसरण सिद्धांत===
बाद <math>m</math> लैंज़ोस एल्गोरिदम के पुनरावृत्ति चरण, <math>T</math> एक <math>m \times m</math> वास्तविक सममित मैट्रिक्स, जो उपरोक्त के समान है <math>m</math> eigenvalues <math>\theta_1 \geqslant \theta_2 \geqslant \dots \geqslant \theta_m.</math> अभिसरण से मुख्यतः अभिसरण का तात्पर्य है <math>\theta_1</math> को <math>\lambda_1</math> (और का सममित अभिसरण <math>\theta_m</math> को <math>\lambda_n</math>) जैसा <math>m</math> बढ़ता है, और दूसरा कुछ सीमा का अभिसरण <math>\theta_1, \ldots, \theta_k</math> के eigenvalues ​​के <math>T</math> उनके समकक्षों के लिए <math>\lambda_1, \ldots, \lambda_k</math> का <math>A</math>. लैंज़ोस एल्गोरिदम के लिए अभिसरण अक्सर पावर पुनरावृत्ति एल्गोरिदम की तुलना में तेज़ परिमाण का आदेश होता है।{{r|GolubVanLoan|p=477}}
माना <math>m</math> लैंज़ोस एल्गोरिदम के पुनरावृत्ति चरण, <math>T</math> एक <math>m \times m</math> वास्तविक सममित मैट्रिक्स, जो उपरोक्त के समान है <math>m</math> आइजनवैल्यू <math>\theta_1 \geqslant \theta_2 \geqslant \dots \geqslant \theta_m.</math> अभिसरण से मुख्यतः अभिसरण का तात्पर्य है <math>\theta_1</math> को <math>\lambda_1</math> (और का सममित अभिसरण <math>\theta_m</math> को <math>\lambda_n</math>) जैसा <math>m</math> बढ़ता है, और दूसरा कुछ सीमा का अभिसरण <math>\theta_1, \ldots, \theta_k</math> के आइजनवैल्यू ​​के <math>T</math> उनके समकक्षों के लिए <math>\lambda_1, \ldots, \lambda_k</math> का <math>A</math>. लैंज़ोस एल्गोरिदम के लिए अभिसरण अधिकांशतः पावर पुनरावृत्ति एल्गोरिदम की तुलना में तेज़ परिमाण का आदेश होता है।{{r|GolubVanLoan|p=477}}


के लिए सीमा <math>\theta_1</math> रेले भागफल के चरम मूल्यों के रूप में eigenvalues ​​​​की उपरोक्त व्याख्या से आते हैं <math>r(x)</math>. तब से <math>\lambda_1</math> एक प्राथमिकता अधिकतम है <math>r</math> कुल मिलाकर <math>\Complex^n,</math> जबकि <math>\theta_1</math> पर अधिकतम मात्र है <math>m</math>-आयामी क्रायलोव उपस्थान, हम तुच्छ रूप से प्राप्त करते हैं <math> \lambda_1 \geqslant \theta_1</math>. इसके विपरीत, कोई भी बिंदु <math>x</math> उसमें क्रायलोव उपस्थान निचली सीमा प्रदान करता है <math>r(x)</math> के लिए <math>\theta_1</math>, इसलिए यदि कोई बिंदु प्रदर्शित किया जा सकता है जिसके लिए <math>\lambda_1 - r(x)</math> छोटा है तो यह एक टाइट बाउंड प्रदान करता है <math>\theta_1</math>.
के लिए सीमा <math>\theta_1</math> रेले भागफल के चरम मूल्यों के रूप में आइजनवैल्यू ​​​​की उपरोक्त व्याख्या से आते हैं <math>r(x)</math>. तब से <math>\lambda_1</math> प्राथमिकता अधिकतम है <math>r</math> कुल मिलाकर <math>\Complex^n,</math> जबकि <math>\theta_1</math> पर अधिकतम मात्र है <math>m</math>-आयामी क्रायलोव उपस्थान, हम तुच्छ रूप से प्राप्त करते हैं <math> \lambda_1 \geqslant \theta_1</math>. इसके विपरीत, कोई भी बिंदु <math>x</math> उसमें क्रायलोव उपस्थान निचली सीमा प्रदान करता है <math>r(x)</math> के लिए <math>\theta_1</math>, इसलिए यदि कोई बिंदु प्रदर्शित किया जा सकता है जिसके लिए <math>\lambda_1 - r(x)</math> छोटा है तो यह टाइट बाउंड प्रदान करता <math>\theta_1</math>है।


आयाम <math>m</math> क्रायलोव उपस्थान है
आयाम <math>m</math> क्रायलोव उपस्थान है


:<math>\operatorname{span} \left \{v_1, A v_1, A^2 v_1, \ldots, A^{m-1} v_1 \right \},</math> अतः इसके किसी भी तत्व को इस प्रकार व्यक्त किया जा सकता है <math>p(A) v_1</math> कुछ बहुपद के लिए <math>p</math> अधिकतम डिग्री का <math>m-1</math>; उस बहुपद के गुणांक केवल सदिशों के रैखिक संयोजन के गुणांक हैं <math>v_1, A v_1, A^2 v_1, \ldots, A^{m-1} v_1 </math>. हम जो बहुपद चाहते हैं उसके वास्तविक गुणांक होंगे, लेकिन फिलहाल हमें जटिल गुणांकों की भी अनुमति देनी चाहिए, और हम लिखेंगे <math>p^*</math> के सभी गुणांकों को सम्मिश्र संयुग्मन द्वारा प्राप्त बहुपद के लिए <math>p</math>. क्रायलोव उप-स्थान के इस पैरामीट्रिज़ेशन में, हमारे पास है
:<math>\operatorname{span} \left \{v_1, A v_1, A^2 v_1, \ldots, A^{m-1} v_1 \right \},</math> अतः इसके किसी भी तत्व को इस प्रकार व्यक्त किया जा सकता है <math>p(A) v_1</math> कुछ बहुपद के लिए <math>p</math> अधिकतम डिग्री का <math>m-1</math>; उस बहुपद के गुणांक केवल सदिशों के रैखिक संयोजन के गुणांक हैं <math>v_1, A v_1, A^2 v_1, \ldots, A^{m-1} v_1 </math>. हम जो बहुपद चाहते हैं उसके वास्तविक गुणांक होंगे, लेकिन शायद हमें जटिल गुणांकों की भी अनुमति देनी चाहिए, और हम लिखेंगे <math>p^*</math> के सभी गुणांकों को सम्मिश्र संयुग्मन द्वारा प्राप्त बहुपद के लिए <math>p</math>. क्रायलोव उप-स्थान के इस पैरामीट्रिज़ेशन में, हमारे पास है।


:<math>r(p(A)v_1) = \frac{(p(A) v_1)^* A p(A) v_1}{(p(A) v_1)^* p(A) v_1} = \frac{v_1^* p(A)^* A p(A) v_1}{v_1^* p(A)^* p(A) v_1} = \frac{v_1^* p^*(A^*) A p(A) v_1 }{v_1^* p^*(A^*) p(A) v_1} = \frac{ v_1^* p^*(A) A p(A) v_1 }{v_1^* p^*(A) p(A) v_1}</math>
:<math>r(p(A)v_1) = \frac{(p(A) v_1)^* A p(A) v_1}{(p(A) v_1)^* p(A) v_1} = \frac{v_1^* p(A)^* A p(A) v_1}{v_1^* p(A)^* p(A) v_1} = \frac{v_1^* p^*(A^*) A p(A) v_1 }{v_1^* p^*(A^*) p(A) v_1} = \frac{ v_1^* p^*(A) A p(A) v_1 }{v_1^* p^*(A) p(A) v_1}</math>
अब के लिए अभिव्यक्ति का उपयोग करना <math>v_1</math> eigenvectors के एक रैखिक संयोजन के रूप में, हमें मिलता है
अब के लिए अभिव्यक्ति का उपयोग करना <math>v_1</math> आइजनवेक्टर के रैखिक संयोजन के रूप में, हमें मिलता है


:<math> A v_1 = A \sum_{k=1}^n d_k z_k = \sum_{k=1}^n d_k \lambda_k z_k</math> और अधिक सामान्यतः
:<math> A v_1 = A \sum_{k=1}^n d_k z_k = \sum_{k=1}^n d_k \lambda_k z_k</math> और अधिक सामान्यतः
Line 177: Line 180:


:<math>\lambda_1 - r(p(A)v_1) = \lambda_1 - \frac{v_1^* \sum_{k=1}^n d_k p^*(\lambda_k) \lambda_k p(\lambda_k) z_k}{v_1^* \sum_{k=1}^n d_k p^*(\lambda_k) p(\lambda_k) z_k} = \lambda_1 - \frac{\sum_{k=1}^n |d_k|^2 \lambda_k p(\lambda_k)^* p(\lambda_k)}{\sum_{k=1}^n |d_k|^2 p(\lambda_k)^* p(\lambda_k)} = \frac{\sum_{k=1}^n |d_k|^2 (\lambda_1-\lambda_k) \left| p(\lambda_k) \right|^2 }{\sum_{k=1}^n |d_k|^2 \left| p(\lambda_k) \right|^2 }.</math>
:<math>\lambda_1 - r(p(A)v_1) = \lambda_1 - \frac{v_1^* \sum_{k=1}^n d_k p^*(\lambda_k) \lambda_k p(\lambda_k) z_k}{v_1^* \sum_{k=1}^n d_k p^*(\lambda_k) p(\lambda_k) z_k} = \lambda_1 - \frac{\sum_{k=1}^n |d_k|^2 \lambda_k p(\lambda_k)^* p(\lambda_k)}{\sum_{k=1}^n |d_k|^2 p(\lambda_k)^* p(\lambda_k)} = \frac{\sum_{k=1}^n |d_k|^2 (\lambda_1-\lambda_k) \left| p(\lambda_k) \right|^2 }{\sum_{k=1}^n |d_k|^2 \left| p(\lambda_k) \right|^2 }.</math>
यहां अंश और हर के बीच एक महत्वपूर्ण अंतर यह है कि <math>k=1</math> अंश में पद लुप्त हो जाता है, लेकिन हर में नहीं। इस प्रकार यदि कोई चुन सकता है <math>p</math> पर बड़ा होना <math>\lambda_1</math> लेकिन अन्य सभी eigenvalues ​​​​पर छोटा होने पर, किसी को त्रुटि पर कड़ी पकड़ मिलेगी <math>\lambda_1-\theta_1</math>.
यहां अंश और हर के बीच महत्वपूर्ण अंतर यह है कि <math>k=1</math> अंश में पद लुप्त हो जाता है, लेकिन हर में नहीं। इस प्रकार यदि कोई चुन सकता है <math>p</math> पर बड़ा होना <math>\lambda_1</math> लेकिन अन्य सभी आइजनवैल्यू ​​​​पर छोटा होने पर, किसी को त्रुटि पर <math>\lambda_1-\theta_1</math>कड़ी पकड़ मिलेगी।


तब से <math>A</math> की तुलना में कई अधिक स्वदेशी मान हैं <math>p</math> गुणांक है, यह एक लंबा क्रम प्रतीत हो सकता है, लेकिन इसे पूरा करने का एक तरीका [[चेबीशेव बहुपद]] का उपयोग करना है। लिखना <math>c_k</math> डिग्री के लिए <math>k</math> पहली तरह का चेबीशेव बहुपद (जो संतुष्ट करता है <math>c_k(\cos x) = \cos(kx)</math> सभी के लिए <math>x</math>), हमारे पास एक बहुपद है जो सीमा में रहता है <math>[-1,1]</math> ज्ञात अंतराल पर <math>[-1,1]</math> लेकिन इसके बाहर तेजी से बढ़ता है। तर्क के कुछ स्केलिंग के साथ, हम इसे छोड़कर सभी eigenvalues ​​​​को मैप कर सकते हैं <math>\lambda_1</math> में <math>[-1,1]</math>. होने देना
तब से <math>A</math> की तुलना में कई अधिक स्वदेशी मान हैं <math>p</math> गुणांक है, यह लंबा क्रम प्रतीत हो सकता है, लेकिन इसे पूरा करने का विधि [[चेबीशेव बहुपद]] का उपयोग करना है। लिखना <math>c_k</math> डिग्री के लिए <math>k</math> पहली तरह का चेबीशेव बहुपद (जो संतुष्ट करता है <math>c_k(\cos x) = \cos(kx)</math> सभी के लिए <math>x</math>), हमारे पास बहुपद है जो सीमा में रहता है <math>[-1,1]</math> ज्ञात अंतराल पर <math>[-1,1]</math> लेकिन इसके बाहर तेजी से बढ़ता है। तर्क के कुछ स्केलिंग के साथ, हम इसे छोड़कर सभी आइजनवैल्यू ​​​​को मैप कर सकते हैं <math>\lambda_1</math> में <math>[-1,1]</math> माना


:<math> p(x) = c_{m-1}\left( \frac{2x - \lambda_2 - \lambda_n}{\lambda_2 - \lambda_n} \right)</math> (यदि <math>\lambda_2=\lambda_1</math>, इसके बजाय सबसे बड़े eigenvalue का उपयोग करें जो कि इससे बिल्कुल कम है <math>\lambda_1</math>), फिर का अधिकतम मान <math>| p(\lambda_k)|^2</math> के लिए <math>k \geqslant 2</math> है <math>1</math> और न्यूनतम मूल्य है <math>0</math>, इसलिए
:<math> p(x) = c_{m-1}\left( \frac{2x - \lambda_2 - \lambda_n}{\lambda_2 - \lambda_n} \right)</math> (यदि <math>\lambda_2=\lambda_1</math>, इसके अतिरिक्त सबसे बड़े आइजनवैल्यू का उपयोग करें जो कि इससे बिल्कुल कम है <math>\lambda_1</math>), फिर का अधिकतम मान <math>| p(\lambda_k)|^2</math> के लिए <math>k \geqslant 2</math> है <math>1</math> और न्यूनतम मूल्य है <math>0</math>, इसलिए


:<math>\lambda_1 - \theta_1 \leqslant \lambda_1 - r(p(A) v_1) = \frac{\sum_{k=2}^n |d_k|^2 (\lambda_1-\lambda_k) |p(\lambda_k)|^2 }{ \sum_{k=1}^n |d_k|^2 |p(\lambda_k)|^2} \leqslant \frac{\sum_{k=2}^n |d_k|^2 (\lambda_1-\lambda_k)}{|d_1|^2 |p(\lambda_1)|^2 } \leqslant \frac{(\lambda_1-\lambda_n) \sum_{k=2}^n |d_k|^2 }{|p(\lambda_1)|^2 |d_1|^2 }.</math>
:<math>\lambda_1 - \theta_1 \leqslant \lambda_1 - r(p(A) v_1) = \frac{\sum_{k=2}^n |d_k|^2 (\lambda_1-\lambda_k) |p(\lambda_k)|^2 }{ \sum_{k=1}^n |d_k|^2 |p(\lambda_k)|^2} \leqslant \frac{\sum_{k=2}^n |d_k|^2 (\lambda_1-\lambda_k)}{|d_1|^2 |p(\lambda_1)|^2 } \leqslant \frac{(\lambda_1-\lambda_n) \sum_{k=2}^n |d_k|^2 }{|p(\lambda_1)|^2 |d_1|^2 }.</math>
Line 189: Line 192:
मात्रा
मात्रा


:<math> \rho = \frac{\lambda_1 - \lambda_2}{\lambda_2 - \lambda_n}</math> (यानी, मैट्रिक्स के शेष स्पेक्ट्रम के व्यास के लिए पहले ईजेंगैप का अनुपात) इस प्रकार यहां अभिसरण दर के लिए महत्वपूर्ण महत्व है। लिख भी रहा हूँ
:<math> \rho = \frac{\lambda_1 - \lambda_2}{\lambda_2 - \lambda_n}</math> (अर्थात्, मैट्रिक्स के शेष स्पेक्ट्रम के व्यास के लिए पहले ईजेंगैप का अनुपात) इस प्रकार यहां अभिसरण दर के लिए महत्वपूर्ण महत्व है। लिख भी रहा हूँ


:<math> R = e^{\operatorname{arcosh}(1+2\rho)} = 1 + 2\rho + 2\sqrt{\rho^2+\rho},</math>
:<math> R = e^{\operatorname{arcosh}(1+2\rho)} = 1 + 2\rho + 2\sqrt{\rho^2+\rho},</math>
Line 200: Line 203:
  &\leqslant 4 \frac{1 - |d_1|^2}{|d_1|^2} (\lambda_1-\lambda_n) R^{-2(m-1)}
  &\leqslant 4 \frac{1 - |d_1|^2}{|d_1|^2} (\lambda_1-\lambda_n) R^{-2(m-1)}
\end{align}</math>
\end{align}</math>
इस प्रकार अभिसरण दर को मुख्य रूप से नियंत्रित किया जाता है <math>R</math>, चूँकि यह सीमा एक कारक द्वारा सिकुड़ती है <math>R^{-2}</math> प्रत्येक अतिरिक्त पुनरावृत्ति के लिए.
इस प्रकार अभिसरण दर को मुख्य रूप से नियंत्रित किया जाता है <math>R</math>, चूँकि यह सीमा कारक द्वारा सिकुड़ती है <math>R^{-2}</math> प्रत्येक अतिरिक्त पुनरावृत्ति के लिए.


तुलना के लिए, कोई इस बात पर विचार कर सकता है कि विद्युत विधि की अभिसरण दर किस प्रकार निर्भर करती है <math>\rho</math>, लेकिन चूँकि शक्ति विधि मुख्य रूप से eigenvalues ​​​​के निरपेक्ष मूल्यों के बीच भागफल के प्रति संवेदनशील है, हमें इसकी आवश्यकता है <math>|\lambda_n| \leqslant |\lambda_2|</math> बीच के ईगेंगैप के लिए <math>\lambda_1</math> और <math>\lambda_2</math> प्रमुख होना. उस बाधा के तहत, वह मामला जो शक्ति पद्धति को सबसे अधिक पसंद करता है <math>\lambda_n = -\lambda_2</math>, तो उस पर विचार करें। शक्ति विधि में देर से, पुनरावृत्ति वेक्टर:
तुलना के लिए, कोई इस बात पर विचार कर सकता है कि विद्युत विधि की अभिसरण दर किस प्रकार निर्भर करती है <math>\rho</math>, लेकिन चूँकि शक्ति विधि मुख्य रूप से आइजनवैल्यू ​​​​के निरपेक्ष मूल्यों के बीच भागफल के प्रति संवेदनशील है, हमें इसकी आवश्यकता है <math>|\lambda_n| \leqslant |\lambda_2|</math> बीच के ईगेंगैप के लिए <math>\lambda_1</math> और <math>\lambda_2</math> प्रमुख होना. उस बाधा के अंतर्गत, वह स्थितियों जो शक्ति पद्धति को सबसे अधिक पसंद करता है <math>\lambda_n = -\lambda_2</math>, तो उस पर विचार करें। शक्ति विधि में देर से, पुनरावृत्ति वेक्टर:


:<math> u = (1-t^2)^{1/2} z_1 + t z_2 \approx z_1 + t z_2,</math>{{notetag|The coefficients need not both be real, but the phase is of little importance. Nor need the composants for other eigenvectors have completely disappeared, but they shrink at least as fast as that for <math>z_2</math>, so <math> u \approx z_1 + t z_2 </math> describes the worst case.}}
:<math> u = (1-t^2)^{1/2} z_1 + t z_2 \approx z_1 + t z_2,</math>{{notetag|The coefficients need not both be real, but the phase is of little importance. Nor need the composants for other eigenvectors have completely disappeared, but they shrink at least as fast as that for <math>z_2</math>, so <math> u \approx z_1 + t z_2 </math> describes the worst case.}}
Line 209: Line 212:


:<math>\frac{\lambda_2}{\lambda_1} = \frac{\lambda_2}{\lambda_2 + (\lambda_1-\lambda_2)} = \frac{1}{1 + \frac{\lambda_1-\lambda_2}{\lambda_2}} = \frac{1}{1 + 2\rho}.</math>
:<math>\frac{\lambda_2}{\lambda_1} = \frac{\lambda_2}{\lambda_2 + (\lambda_1-\lambda_2)} = \frac{1}{1 + \frac{\lambda_1-\lambda_2}{\lambda_2}} = \frac{1}{1 + 2\rho}.</math>
तब सबसे बड़े eigenvalue का अनुमान है
तब सबसे बड़े आइजनवैल्यू का अनुमान है


:<math> u^*Au = (1-t^2)\lambda_1 + t^2\lambda_2,</math>
:<math> u^*Au = (1-t^2)\lambda_1 + t^2\lambda_2,</math>
Line 215: Line 218:


:<math>\lambda_1 - u^*Au = (\lambda_1-\lambda_2) t^2,</math>
:<math>\lambda_1 - u^*Au = (\lambda_1-\lambda_2) t^2,</math>
जो एक कारक से सिकुड़ता है <math>(1+2\rho)^{-2}</math> प्रत्येक पुनरावृत्ति के लिए. इस प्रकार यह अंतर बीच में ही सिमट कर रह जाता है <math> 1+2\rho </math> और <math>R = 1 + 2\rho + 2\sqrt{\rho^2+\rho}</math>. में <math>\rho \gg 1</math> क्षेत्र, बाद वाला अधिक पसंद है <math> 1+4\rho </math>, और दोगुने बड़े ईजेंगैप के साथ पावर विधि की तरह प्रदर्शन करता है; एक उल्लेखनीय सुधार. हालाँकि, अधिक चुनौतीपूर्ण मामला यह है <math> \rho \ll 1,</math> जिसमें <math>R \approx 1 + 2\sqrt{\rho} </math> ईजेंगैप पर और भी बड़ा सुधार है; <math> \rho \gg 1 </math> वह क्षेत्र है जहां लैंज़ोस एल्गोरिदम अभिसरण-वार पावर विधि पर सबसे छोटा सुधार करता है।
जो कारक से सिकुड़ता है <math>(1+2\rho)^{-2}</math> प्रत्येक पुनरावृत्ति के लिए. इस प्रकार यह अंतर बीच में ही सिमट कर रह जाता है <math> 1+2\rho </math> और <math>R = 1 + 2\rho + 2\sqrt{\rho^2+\rho}</math>. में <math>\rho \gg 1</math> क्षेत्र, बाद वाला अधिक पसंद है <math> 1+4\rho </math>, और दोगुने बड़े ईजेंगैप के साथ पावर विधि की तरह प्रदर्शन करता है उल्लेखनीय सुधार. चुकीं, अधिक चुनौतीपूर्ण मामला यह है <math> \rho \ll 1,</math> जिसमें <math>R \approx 1 + 2\sqrt{\rho} </math> ईजेंगैप पर और भी बड़ा सुधार है; <math> \rho \gg 1 </math> वह क्षेत्र है जहां लैंज़ोस एल्गोरिदम अभिसरण-वार पावर विधि पर सबसे छोटा सुधार करता है।


==संख्यात्मक स्थिरता==
==संख्यात्मक स्थिरता==
स्थिरता का मतलब है कि यदि छोटी-छोटी संख्यात्मक त्रुटियां पेश की जाती हैं और जमा हो जाती हैं तो एल्गोरिदम कितना प्रभावित होगा (यानी क्या यह मूल परिणाम के करीब अनुमानित परिणाम देगा)। राउंडऑफ़ वाले कंप्यूटर पर एल्गोरिदम को लागू करने की उपयोगिता का आकलन करने के लिए संख्यात्मक स्थिरता केंद्रीय मानदंड है।
स्थिरता का अर्थ है कि यदि छोटी-छोटी संख्यात्मक त्रुटियां पेश की जाती हैं और जमा हो जाती हैं तो एल्गोरिदम कितना प्रभावित होगा (अर्थात् क्या यह मूल परिणाम के करीब अनुमानित परिणाम देगा)। राउंडऑफ़ वाले कंप्यूटर पर एल्गोरिदम को प्रयुक्त करने की उपयोगिता का आकलन करने के लिए संख्यात्मक स्थिरता केंद्रीय मानदंड है।


लैंज़ोस एल्गोरिदम के लिए, यह साबित किया जा सकता है कि सटीक अंकगणित के साथ, वैक्टर का सेट <math>v_1, v_2, \cdots, v_{m+1}</math> एक ऑर्थोनॉर्मल आधार का निर्माण करता है, और हल किए गए eigenvalues/वेक्टर मूल मैट्रिक्स के अच्छे अनुमान हैं। हालाँकि, व्यवहार में (चूंकि गणना फ्लोटिंग पॉइंट अंकगणित में की जाती है जहां अशुद्धि अपरिहार्य है), ऑर्थोगोनैलिटी जल्दी से खो जाती है और कुछ मामलों में नया वेक्टर पहले से निर्मित सेट पर रैखिक रूप से निर्भर भी हो सकता है। परिणामस्वरूप, परिणामी त्रिविकर्ण मैट्रिक्स के कुछ eigenvalues ​​मूल मैट्रिक्स के सन्निकटन नहीं हो सकते हैं। इसलिए, लैंज़ोस एल्गोरिदम बहुत स्थिर नहीं है।
लैंज़ोस एल्गोरिदम के लिए, यह साबित किया जा सकता है कि सटीक अंकगणित के साथ, वैक्टर का सेट <math>v_1, v_2, \cdots, v_{m+1}</math> ऑर्थोनॉर्मल आधार का निर्माण करता है, और हल किए गए आइजनवैल्यू/वेक्टर मूल मैट्रिक्स के अच्छे अनुमान हैं। चुकीं, व्यवहार में (चूंकि गणना फ्लोटिंग पॉइंट अंकगणित में की जाती है जहां अशुद्धि अपरिहार्य है), ऑर्थोगोनैलिटी जल्दी से खो जाती है और कुछ मामलों में नया वेक्टर पहले से निर्मित सेट पर रैखिक रूप से निर्भर भी हो सकता है। परिणामस्वरूप, परिणामी त्रिविकर्ण मैट्रिक्स के कुछ आइजनवैल्यू ​​मूल मैट्रिक्स के सन्निकटन नहीं हो सकते हैं। इसलिए, लैंज़ोस एल्गोरिदम बहुत स्थिर नहीं है।


इस एल्गोरिदम के उपयोगकर्ताओं को उन नकली eigenvalues ​​​​को खोजने और हटाने में सक्षम होना चाहिए। लैंज़ोस एल्गोरिदम का व्यावहारिक कार्यान्वयन इस स्थिरता के मुद्दे से लड़ने के लिए तीन दिशाओं में जाता है:<ref name="CW1985"/><ref name="Saad1992"/>
इस एल्गोरिदम के उपयोगकर्ताओं को उन नकली आइजनवैल्यू ​​​​को खोजने और हटाने में सक्षम होना चाहिए। लैंज़ोस एल्गोरिदम का व्यावहारिक कार्यान्वयन इस स्थिरता के मुद्दे से लड़ने के लिए तीन दिशाओं में जाता है:<ref name="CW1985"/><ref name="Saad1992"/>


# रूढ़िवादिता के नुकसान को रोकें,
# रूढ़िवादिता के हानि को रोकें,
# आधार तैयार होने के बाद रूढ़िवादिता को पुनः प्राप्त करें।
# आधार तैयार होने के बाद रूढ़िवादिता को पुनः प्राप्त करें।
# अच्छे और नकली सभी स्वदेशी मूल्यों की पहचान हो जाने के बाद, नकली लोगों को हटा दें।
# अच्छे और नकली सभी स्वदेशी मूल्यों की पहचान हो जाने के बाद, नकली लोगों को हटा दें।


==भिन्नताएँ==
==भिन्नताएँ==
लैंज़ोस एल्गोरिदम पर भिन्नताएं मौजूद हैं जहां शामिल वेक्टर वेक्टर के बजाय लंबे, संकीर्ण मैट्रिक्स हैं और सामान्यीकरण स्थिरांक छोटे वर्ग मैट्रिक्स हैं। इन्हें ब्लॉक लैंज़ोस एल्गोरिदम कहा जाता है और बड़ी संख्या में रजिस्टरों और लंबी मेमोरी-फ़ेच समय वाले कंप्यूटरों पर यह बहुत तेज़ हो सकता है।
लैंज़ोस एल्गोरिदम पर भिन्नताएं उपस्थित हैं जहां सम्मिलित वेक्टर वेक्टर के बजाय लंबे, संकीर्ण मैट्रिक्स हैं और सामान्यीकरण स्थिरांक छोटे वर्ग मैट्रिक्स हैं। इन्हें ब्लॉक लैंज़ोस एल्गोरिदम कहा जाता है और बड़ी संख्या में रजिस्टरों और लंबी मेमोरी-फ़ेच समय वाले कंप्यूटरों पर यह बहुत तेज़ हो सकता है।


लैंज़ोस एल्गोरिदम के कई कार्यान्वयन एक निश्चित संख्या में पुनरावृत्तियों के बाद पुनः आरंभ होते हैं। सबसे प्रभावशाली पुनः आरंभ की गई विविधताओं में से एक अंतर्निहित रूप से पुनः आरंभ की गई लैंज़ोस पद्धति है,<ref>{{cite journal |author1=D. Calvetti |author1-link= Daniela Calvetti |author2=L. Reichel |author3=D.C. Sorensen |year=1994 |title=बड़े सममित आइजेनवैल्यू समस्याओं के लिए एक अंतर्निहित रूप से पुनः आरंभ की गई लैंज़ोस विधि|url=http://etna.mcs.kent.edu/vol.2.1994/pp1-21.dir/pp1-21.ps|
लैंज़ोस एल्गोरिदम के कई कार्यान्वयन निश्चित संख्या में पुनरावृत्तियों के बाद पुनः आरंभ होते हैं। सबसे प्रभावशाली पुनः आरंभ की गई विविधताओं में से अंतर्निहित रूप से पुनः आरंभ की गई लैंज़ोस पद्धति है,<ref>{{cite journal |author1=D. Calvetti |author1-link= Daniela Calvetti |author2=L. Reichel |author3=D.C. Sorensen |year=1994 |title=बड़े सममित आइजेनवैल्यू समस्याओं के लिए एक अंतर्निहित रूप से पुनः आरंभ की गई लैंज़ोस विधि|url=http://etna.mcs.kent.edu/vol.2.1994/pp1-21.dir/pp1-21.ps|
     journal = [[Electronic Transactions on Numerical Analysis]]|
     journal = [[Electronic Transactions on Numerical Analysis]]|
     volume = 2|
     volume = 2|
     pages = 1–21
     pages = 1–21
}}</ref> जिसे [[ARPACK]] में लागू किया गया है।<ref>{{cite book |author1=R. B. Lehoucq |author2=D. C. Sorensen |author3=C. Yang |year=1998 |title=ARPACK Users Guide: Solution of Large-Scale Eigenvalue Problems with Implicitly Restarted Arnoldi Methods |publisher=SIAM |doi=10.1137/1.9780898719628 |isbn=978-0-89871-407-4 }}</ref> इसने कई अन्य पुनः आरंभित विविधताओं को जन्म दिया है जैसे कि लैंज़ोस बिडियागोनलाइज़ेशन को पुनः आरंभ किया गया।<ref>{{cite journal |author1=E. Kokiopoulou |author2=C. Bekas |author3=E. Gallopoulos |year=2004 |title=अंतर्निहित रूप से पुनः आरंभ किए गए लैंज़ोस बिडियागोनलाइज़ेशन के साथ सबसे छोटे एकवचन त्रिक की गणना करना|journal=Appl. Numer. Math. |doi=10.1016/j.apnum.2003.11.011 |volume=49 |url=https://infoscience.epfl.ch/record/87150/files/Kokiopoulou2004_1356.pdf|pages=39–61}}</ref> एक और सफल पुनः प्रारंभ विविधता थिक-रीस्टार्ट लैंज़ोस विधि है,<ref>{{cite journal |author1=Kesheng Wu |author2=Horst Simon |year=2000 |title=बड़े सममित आइगेनवैल्यू समस्याओं के लिए थिक-रीस्टार्ट लैंज़ोस विधि|publisher=SIAM |doi=10.1137/S0895479898334605 |journal=SIAM Journal on Matrix Analysis and Applications |volume=22 |issue=2 |pages=602–616 |url=https://zenodo.org/record/1236144 }}</ref> जिसे टीआरएलएन नामक सॉफ्टवेयर पैकेज में लागू किया गया है।<ref>{{cite web |author1=Kesheng Wu |author2=Horst Simon |year=2001 |title=टीआरएलएन सॉफ्टवेयर पैकेज|url=http://crd.lbl.gov/~kewu/trlan.html |access-date=2007-06-30 |archive-url=https://web.archive.org/web/20070701163755/http://crd.lbl.gov/~kewu/trlan.html |archive-date=2007-07-01 |url-status=dead }}</ref>
}}</ref> जिसे [[ARPACK|अर्पैक]] में प्रयुक्त किया गया है।<ref>{{cite book |author1=R. B. Lehoucq |author2=D. C. Sorensen |author3=C. Yang |year=1998 |title=ARPACK Users Guide: Solution of Large-Scale Eigenvalue Problems with Implicitly Restarted Arnoldi Methods |publisher=SIAM |doi=10.1137/1.9780898719628 |isbn=978-0-89871-407-4 }}</ref> इसने कई अन्य पुनः आरंभित विविधताओं को जन्म दिया है जैसे कि लैंज़ोस बिडियागोनलाइज़ेशन को पुनः आरंभ किया गया।<ref>{{cite journal |author1=E. Kokiopoulou |author2=C. Bekas |author3=E. Gallopoulos |year=2004 |title=अंतर्निहित रूप से पुनः आरंभ किए गए लैंज़ोस बिडियागोनलाइज़ेशन के साथ सबसे छोटे एकवचन त्रिक की गणना करना|journal=Appl. Numer. Math. |doi=10.1016/j.apnum.2003.11.011 |volume=49 |url=https://infoscience.epfl.ch/record/87150/files/Kokiopoulou2004_1356.pdf|pages=39–61}}</ref> एक और सफल पुनः प्रारंभ विविधता थिक-रीस्टार्ट लैंज़ोस विधि है,<ref>{{cite journal |author1=Kesheng Wu |author2=Horst Simon |year=2000 |title=बड़े सममित आइगेनवैल्यू समस्याओं के लिए थिक-रीस्टार्ट लैंज़ोस विधि|publisher=SIAM |doi=10.1137/S0895479898334605 |journal=SIAM Journal on Matrix Analysis and Applications |volume=22 |issue=2 |pages=602–616 |url=https://zenodo.org/record/1236144 }}</ref> जिसे टीआरएलएन नामक सॉफ्टवेयर पैकेज में प्रयुक्त किया गया है।<ref>{{cite web |author1=Kesheng Wu |author2=Horst Simon |year=2001 |title=टीआरएलएन सॉफ्टवेयर पैकेज|url=http://crd.lbl.gov/~kewu/trlan.html |access-date=2007-06-30 |archive-url=https://web.archive.org/web/20070701163755/http://crd.lbl.gov/~kewu/trlan.html |archive-date=2007-07-01 |url-status=dead }}</ref>




===एक परिमित क्षेत्र पर शून्यस्थान===
===परिमित क्षेत्र पर शून्यस्थान===
{{Main|Block Lanczos algorithm}}
{{Main|लैंज़ोस एल्गोरिदम को ब्लॉक करें}}


1995 में, [[पीटर मोंटगोमरी (गणितज्ञ)]] ने [[GF(2)]] पर एक बड़े विरल मैट्रिक्स के [[कर्नेल (मैट्रिक्स)]] के तत्वों को खोजने के लिए लैंज़ोस एल्गोरिदम पर आधारित एक एल्गोरिदम प्रकाशित किया; चूँकि परिमित क्षेत्रों में बड़े विरल मैट्रिक्स में रुचि रखने वाले लोगों का समूह और बड़ी स्वदेशी समस्याओं में रुचि रखने वाले लोगों का समूह शायद ही ओवरलैप होता है, इसे अक्सर अनुचित भ्रम पैदा किए बिना ब्लॉक लैंज़ो एल्गोरिदम भी कहा जाता है।{{Citation needed|date=June 2011}}
1995 में, [[पीटर मोंटगोमरी (गणितज्ञ)]] ने [[GF(2)]] पर बड़े विरल मैट्रिक्स के [[कर्नेल (मैट्रिक्स)]] के तत्वों को खोजने के लिए लैंज़ोस एल्गोरिदम पर आधारित एल्गोरिदम प्रकाशित किया; चूँकि परिमित क्षेत्रों में बड़े विरल मैट्रिक्स में रुचि रखने वाले लोगों का समूह और बड़ी स्वदेशी समस्याओं में रुचि रखने वाले लोगों का समूह शायद ही ओवरलैप होता है, इसे अधिकांशतः अनुचित भ्रम पैदा किए बिना ब्लॉक लैंज़ो एल्गोरिदम भी कहा जाता है।


==अनुप्रयोग==
==अनुप्रयोग==
लैंज़ोस एल्गोरिदम बहुत आकर्षक हैं क्योंकि गुणा <math>A\,</math> एकमात्र बड़े पैमाने का रैखिक ऑपरेशन है। चूंकि भारित-अवधि पाठ पुनर्प्राप्ति इंजन केवल इस ऑपरेशन को कार्यान्वित करते हैं, लैंज़ोस एल्गोरिदम को पाठ दस्तावेज़ों पर कुशलतापूर्वक लागू किया जा सकता है ([[अव्यक्त अर्थ अनुक्रमण]]िका देखें)। Eigenvectors बड़े पैमाने पर रैंकिंग विधियों के लिए भी महत्वपूर्ण हैं जैसे कि [[जॉन क्लेनबर्ग]] द्वारा विकसित HITS एल्गोरिदम, या Google द्वारा उपयोग किया जाने वाला [[ पृष्ठ रैंक ]] एल्गोरिदम।
लैंज़ोस एल्गोरिदम बहुत आकर्षक हैं क्योंकि गुणा <math>A\,</math> एकमात्र बड़े पैमाने का रैखिक ऑपरेशन है। चूंकि भारित-अवधि पाठ पुनर्प्राप्ति इंजन केवल इस ऑपरेशन को कार्यान्वित करते हैं, लैंज़ोस एल्गोरिदम को पाठ दस्तावेज़ों पर कुशलतापूर्वक प्रयुक्त किया जा सकता है ([[अव्यक्त अर्थ अनुक्रमण]] देखें)। आइजनवेक्टर बड़े पैमाने पर रैंकिंग विधियों के लिए भी महत्वपूर्ण हैं जैसे कि [[जॉन क्लेनबर्ग]] द्वारा विकसित एचआईटीएस एल्गोरिदम, या गूगल द्वारा उपयोग किया जाने वाला [[ पृष्ठ रैंक |पृष्ठ रैंक]] एल्गोरिदम।


लैंज़ोस एल्गोरिदम का उपयोग [[संघनित पदार्थ भौतिकी]] में [[दृढ़ता से सहसंबद्ध सामग्री]] के [[हैमिल्टनियन मैट्रिक्स]] को हल करने की एक विधि के रूप में भी किया जाता है,<ref>{{cite journal|last=Chen|first=HY|author2=Atkinson, W.A. |author3=Wortis, R. |title=Disorder-induced zero-bias anomaly in the Anderson-Hubbard model: Numerical and analytical calculations|journal=Physical Review B|date=July 2011|volume=84|issue=4|pages=045113|doi=10.1103/PhysRevB.84.045113|arxiv=1012.1031|bibcode=2011PhRvB..84d5113C|s2cid=118722138}}</ref> साथ ही [[परमाणु भौतिकी]] में [[परमाणु शेल मॉडल]] कोड में भी।<ref>{{cite arXiv|last=Shimizu|first=Noritaka|title=बड़े पैमाने पर समानांतर गणना के लिए परमाणु शेल-मॉडल कोड, "KSHELL"|eprint=1310.5431|date=21 October 2013|class=nucl-th}}</ref>
लैंज़ोस एल्गोरिदम का उपयोग [[संघनित पदार्थ भौतिकी]] में [[दृढ़ता से सहसंबद्ध सामग्री]] के [[हैमिल्टनियन मैट्रिक्स]] को हल करने की विधि के रूप में भी किया जाता है,<ref>{{cite journal|last=Chen|first=HY|author2=Atkinson, W.A. |author3=Wortis, R. |title=Disorder-induced zero-bias anomaly in the Anderson-Hubbard model: Numerical and analytical calculations|journal=Physical Review B|date=July 2011|volume=84|issue=4|pages=045113|doi=10.1103/PhysRevB.84.045113|arxiv=1012.1031|bibcode=2011PhRvB..84d5113C|s2cid=118722138}}</ref> साथ ही [[परमाणु भौतिकी]] में [[परमाणु शेल मॉडल]] कोड में भी।<ref>{{cite arXiv|last=Shimizu|first=Noritaka|title=बड़े पैमाने पर समानांतर गणना के लिए परमाणु शेल-मॉडल कोड, "KSHELL"|eprint=1310.5431|date=21 October 2013|class=nucl-th}}</ref>




==कार्यान्वयन==
==कार्यान्वयन==
[[एनएजी न्यूमेरिकल लाइब्रेरी]] में कई रूटीन शामिल हैं<ref>{{ cite web | author = The Numerical Algorithms Group  | title = Keyword Index: Lanczos | work = NAG Library Manual, Mark 23 | url = http://www.nag.co.uk/numeric/fl/nagdoc_fl23/html/INDEXES/KWIC/lanczos.html | access-date = 2012-02-09 }}</ref> बड़े पैमाने पर रैखिक प्रणालियों और ईजेनसमस्याओं के समाधान के लिए जो लैंज़ोस एल्गोरिदम का उपयोग करते हैं।
[[एनएजी न्यूमेरिकल लाइब्रेरी]] में कई रूटीन सम्मिलित हैं<ref>{{ cite web | author = The Numerical Algorithms Group  | title = Keyword Index: Lanczos | work = NAG Library Manual, Mark 23 | url = http://www.nag.co.uk/numeric/fl/nagdoc_fl23/html/INDEXES/KWIC/lanczos.html | access-date = 2012-02-09 }}</ref> बड़े पैमाने पर रैखिक प्रणालियों और आइजनसमस्याओं के समाधान के लिए जो लैंज़ोस एल्गोरिदम का उपयोग करते हैं।


[[MATLAB]] और GNU ऑक्टेव ARPACK बिल्ट-इन के साथ आते हैं। संग्रहीत और अंतर्निहित दोनों मैट्रिक्स का विश्लेषण eigs() फ़ंक्शन ([http://www.mathworks.com/help/techdoc/ref/eigs.html Matlab]/[https://www.gnu.org/software/octave/doc/interpreter/Sparse-Linear-Algebra.html#doc_002deigs Octave]) के माध्यम से किया जा सकता है।
[[MATLAB]] और GNU ऑक्टेव ARPACK बिल्ट-इन के साथ आते हैं। संग्रहीत और अंतर्निहित दोनों मैट्रिक्स का विश्लेषण eigs() फलन ([http://www.mathworks.com/help/techdoc/ref/eigs.html Matlab]/[https://www.gnu.org/software/octave/doc/interpreter/Sparse-Linear-Algebra.html#doc_002deigs Octave]) के माध्यम से किया जा सकता है।


इसी तरह, Python_(प्रोग्रामिंग_भाषा) में, [[SciPy]] पैकेज में [https://docs.scipy.org/doc/scipy/reference/generated/scipy.sparse.linalg.eigsh.html scipy.sparse.linalg.eigsh] है, जो ARPACK के SSEUPD और DSEUPD फ़ंक्शंस फ़ंक्शंस के लिए एक रैपर भी है जो इम्प्लिसिटली रीस्टार्टेड लैंक्ज़ोस विधि का उपयोग करता है।
इसी तरह, पायथन_(प्रोग्रामिंग_भाषा) में, [[SciPy]] पैकेज में [https://docs.scipy.org/doc/scipy/reference/generated/scipy.sparse.linalg.eigsh.html scipy.sparse.linalg.eigsh] है, जो ARPACK के SSEUPD और DSEUPD फलन के लिए रैपर भी है जो इम्प्लिसिटली रीस्टार्टेड लैंक्ज़ोस विधि का उपयोग करता है।


लैंज़ोस एल्गोरिथ्म का एक मैटलैब कार्यान्वयन (सटीक मुद्दों पर ध्यान दें) [https://www.cs.cmu.edu/~bickson/gabp/#download गॉसियन बिलीफ प्रोपेगेशन मैटलैब पैकेज] के एक भाग के रूप में उपलब्ध है। [[ग्राफलैब]]<ref>[http://www.graphlab.ml.cmu.edu/pmf.html GraphLab] {{webarchive|url=https://web.archive.org/web/20110314171151/http://www.graphlab.ml.cmu.edu/pmf.html |date=2011-03-14 }}</ref> सहयोगी फ़िल्टरिंग लाइब्रेरी में मल्टीकोर के लिए लैंज़ोस एल्गोरिदम (सी ++ में) के बड़े पैमाने पर समानांतर कार्यान्वयन शामिल है।
लैंज़ोस एल्गोरिथ्म का मैटलैब कार्यान्वयन (सटीक मुद्दों पर ध्यान दें) [https://www.cs.cmu.edu/~bickson/gabp/#download गॉसियन बिलीफ प्रोपेगेशन मैटलैब पैकेज] के भाग के रूप में उपलब्ध है। [[ग्राफलैब]]<ref>[http://www.graphlab.ml.cmu.edu/pmf.html GraphLab] {{webarchive|url=https://web.archive.org/web/20110314171151/http://www.graphlab.ml.cmu.edu/pmf.html |date=2011-03-14 }}</ref> सहयोगी फ़िल्टरिंग लाइब्रेरी में मल्टीकोर के लिए लैंज़ोस एल्गोरिदम (c ++ में) के बड़े पैमाने पर समानांतर कार्यान्वयन सम्मिलित है।


[http://www.cs.wm.edu/~andreas/software/ PRIMME] लाइब्रेरी लैंज़ोस जैसा एल्गोरिदम भी लागू करती है।
[http://www.cs.wm.edu/~andreas/software/ PRIMME] लाइब्रेरी लैंज़ोस जैसा एल्गोरिदम भी प्रयुक्त करती है।


==टिप्पणियाँ==
==टिप्पणियाँ==
Line 275: Line 278:
{{Numerical linear algebra}}
{{Numerical linear algebra}}


{{DEFAULTSORT:Lanczos Algorithm}}[[Category: संख्यात्मक रैखिक बीजगणित]]
{{DEFAULTSORT:Lanczos Algorithm}}
 
 


[[Category: Machine Translated Page]]
[[Category:Articles with hatnote templates targeting a nonexistent page|Lanczos Algorithm]]
[[Category:Created On 24/07/2023]]
[[Category:CS1 errors]]
[[Category:Collapse templates|Lanczos Algorithm]]
[[Category:Created On 24/07/2023|Lanczos Algorithm]]
[[Category:Lua-based templates|Lanczos Algorithm]]
[[Category:Machine Translated Page|Lanczos Algorithm]]
[[Category:Navigational boxes| ]]
[[Category:Navigational boxes without horizontal lists|Lanczos Algorithm]]
[[Category:Pages with script errors|Lanczos Algorithm]]
[[Category:Short description with empty Wikidata description|Lanczos Algorithm]]
[[Category:Sidebars with styles needing conversion|Lanczos Algorithm]]
[[Category:Template documentation pages|Documentation/doc]]
[[Category:Templates Vigyan Ready|Lanczos Algorithm]]
[[Category:Templates generating microformats|Lanczos Algorithm]]
[[Category:Templates that add a tracking category|Lanczos Algorithm]]
[[Category:Templates that are not mobile friendly|Lanczos Algorithm]]
[[Category:Templates that generate short descriptions|Lanczos Algorithm]]
[[Category:Templates using TemplateData|Lanczos Algorithm]]
[[Category:Webarchive template wayback links]]
[[Category:Wikipedia metatemplates|Lanczos Algorithm]]
[[Category:संख्यात्मक रैखिक बीजगणित|Lanczos Algorithm]]

Latest revision as of 11:34, 11 August 2023

लैंज़ोस एल्गोरिदम कॉर्नेलियस लैंज़ोस द्वारा प्रस्तुत की गई पुनरावृत्तीय विधि है। जो खोजने के लिए शक्ति पुनरावृत्ति का अनुकूलन है सबसे उपयोगी (अति उच्चतम/निम्नतम की ओर रुझान) आइजनवैल्यू ​​​​और आइजनवेक्टर हर्मिटियन मैट्रिक्स, जहाँ अधिकांशतः होता है लेकिन आवश्यक नहीं कि उससे बहुत छोटा हो [1] यद्यपि सैद्धांतिक रूप से कम्प्यूटेशनल रूप से कुशल, प्रारंभिक रूप से तैयार की गई विधि अपनी संख्यात्मक स्थिरता के कारण उपयोगी नहीं थी।

1970 में, ओजाल्वो और न्यूमैन ने दिखाया कि विधि को संख्यात्मक रूप से स्थिर कैसे बनाया जाए और इसे गतिशील लोडिंग के अधीन बहुत बड़ी इंजीनियरिंग संरचनाओं के समाधान में प्रयुक्त किया जाए।[2] यह लैंज़ोस वैक्टर को शुद्ध करने के लिए विधि का उपयोग करके प्राप्त किया गया था। (अर्थात् प्रत्येक नए जेनरेट किए गए वेक्टर को पहले से जेनरेट किए गए सभी के साथ बार-बार पुन: व्यवस्थित करके)[2] सटीकता की किसी भी डिग्री तक, जब प्रदर्शन नहीं किया गया, तो वैक्टरों की श्रृंखला उत्पन्न हुई जो सबसे कम प्राकृतिक आवृत्तियों से जुड़े वैक्टरों द्वारा अत्यधिक दूषित थीं।

अपने मूल काम में, इन लेखकों ने यह भी सुझाव दिया कि प्रारंभिक वेक्टर का चयन कैसे करें (अर्थात् प्रारंभिक वेक्टर के प्रत्येक तत्व का चयन करने के लिए यादृच्छिक संख्या जेनरेटर का उपयोग करें) और निर्धारण के लिए अनुभवजन्य रूप से निर्धारित विधि का सुझाव दिया , सदिशों की कम संख्या (अर्थात इसे वांछित सटीक आइजनवैल्यू ​​​​की संख्या का लगभग 1.5 गुना चुना जाना चाहिए)। इसके तुरंत बाद उनके काम का अनुसरण पेगे ने किया, जिन्होंने त्रुटि विश्लेषण भी प्रदान किया।[3][4] 1988 में, ओजाल्वो ने इस एल्गोरिदम का अधिक विस्तृत इतिहास और कुशल आइजनवैल्यू त्रुटि परीक्षण तैयार किया।[5]


एल्गोरिदम

हर्मिटियन मैट्रिक्स इनपुट करें आकार का , और वैकल्पिक रूप से कई पुनरावृत्तियाँ (डिफ़ॉल्ट के रूप में, माना ).
  • सच कहूँ तो, एल्गोरिदम को स्पष्ट मैट्रिक्स तक पहुंच की आवश्यकता नहीं है, किन्तु केवल फलन की आवश्यकता है जो मनमाना वेक्टर द्वारा मैट्रिक्स के उत्पाद की गणना करता है। इस फलन को अधिक से अधिक बार कॉल किया जाता है।
आउटपुट आव्यूह रूढ़िवादिता कॉलम और त्रिविकर्ण मैट्रिक्स वास्तविक सममित मैट्रिक्स के साथ आकार का . अगर , तब एकात्मक मैट्रिक्स है, और .
चेतावनी लैंज़ोस पुनरावृत्ति संख्यात्मक अस्थिरता से ग्रस्त है। गैर-सटीक अंकगणित में निष्पादित होने पर, परिणामों की वैधता सुनिश्चित करने के लिए अतिरिक्त उपाय (जैसा कि बाद के अनुभागों में बताया गया है) किए जाने चाहिए।
  1. माना यूक्लिडियन मानदंड के साथ मनमाना वेक्टर बनें
  2. संक्षिप्त प्रारंभिक पुनरावृत्ति चरण:
    1. माना .
    2. माना .
    3. माना .
  3. के लिए करना:
    1. माना (यूक्लिडियन मानदंड भी)
    2. अगर , तो करने दें ,
      अन्यथा इस रूप में चुनें यूक्लिडियन मानदंड के साथ मनमाना वेक्टर यह सभी के लिए ओर्थोगोनल है।
    3. माना .
    4. माना .
    5. माना .
  4. माना कॉलम के साथ मैट्रिक्स बनें . माना .
टिप्पणी के लिए .

पुनरावृत्ति प्रक्रिया को लिखने के सैद्धांतिक रूप से चार विधि हैं। पेगे और अन्य कार्यों से पता चलता है कि संचालन का उपरोक्त क्रम संख्यात्मक रूप से सबसे स्थिर है।[6][7]

व्यवहार में प्रारंभिक वेक्टर प्रक्रिया के अन्य तर्क के रूप में लिया जा सकता है और संख्यात्मक अशुद्धि के संकेतकों को अतिरिक्त लूप समाप्ति शर्तों के रूप में सम्मिलित किया जा रहा है।

मैट्रिक्स-वेक्टर गुणन की गणना न करते हुए, प्रत्येक पुनरावृत्ति करता है अंकगणितीय परिचालन. मैट्रिक्स-वेक्टर गुणन किया जा सकता है अंकगणितीय संक्रियाएँ जहाँ एक पंक्ति में शून्येतर तत्वों की औसत संख्या है। कुल जटिलता इस प्रकार है , या अगर ; लैंज़ोस एल्गोरिदम विरल मैट्रिक्स के लिए बहुत तेज़ हो सकता है। संख्यात्मक स्थिरता में सुधार के लिए योजनाओं को सामान्यतः इस उच्च प्रदर्शन के आधार पर आंका जाता है।

वैक्टर लैंज़ोस वैक्टर कहलाते हैं।

सदिश के बाद उपयोग नहीं किया जाता है गणना की जाती है, और वेक्टर के बाद उपयोग नहीं किया जाता है गणना की जाती है. इसलिए कोई भी तीनों के लिए एक ही भंडारण का उपयोग कर सकता है। इसी तरह, यदि केवल त्रिविकर्ण मैट्रिक्स मांगा जाता है, तो कच्चे पुनरावर्तन की आवश्यकता नहीं होती गणना करने के बाद , चुकीं संख्यात्मक स्थिरता में सुधार के लिए कुछ योजनाओं को बाद में इसकी आवश्यकता होगी। कभी-कभी बाद के लैंज़ोस वैक्टर की पुनर्गणना की जाती है जब आवश्यक है।

आइजन समस्याएं के लिए आवेदन

लैंज़ोस एल्गोरिदम को अधिकांशतः मैट्रिक्स के आइजनवैल्यू और आइजनवेक्टर खोजने के संदर्भ में लाया जाता है, लेकिन जबकि सामान्य मैट्रिक्स विकर्णीकरण आइजनवेक्टर और आइजनवैल्यू को निरीक्षण से स्पष्ट कर देगा, वही लैंज़ोस एल्गोरिदम द्वारा किए गए ट्राइडिएगोनलाइज़ेशन के लिए सच नहीं है; एक भी आइजेनवैल्यू या आइजेनवेक्टर की गणना करने के लिए गैर-तुच्छ अतिरिक्त चरणों की आवश्यकता होती है। फिर भी, लैंज़ोस एल्गोरिथ्म को प्रयुक्त करना अधिकांशतः आइगेंडेकंपोजीशन की गणना में महत्वपूर्ण कदम है। अगर का प्रतिरूप है , और अगर ( का आइजेनवेक्टर है) तब का संगत आइजेनवेक्टर है (तब से ). इस प्रकार लैंज़ोस एल्गोरिथ्म आइजनसंयोजन समस्या को बदल देता है आइजनसंयोजन समस्या के लिए ,

  1. त्रिविकर्ण मैट्रिक्स के लिए, कई विशिष्ट एल्गोरिदम उपस्थित हैं, जो अधिकांशतः सामान्य-उद्देश्य एल्गोरिदम की तुलना में बेहतर कम्प्यूटेशनल जटिलता के साथ होते हैं। उदाहरण के लिए, यदि एक त्रिविकर्ण सममित मैट्रिक्स तब:
    • त्रिविकर्ण मैट्रिक्स#निर्धारक विशेषता बहुपद की गणना करने की अनुमति देता है संचालन, और बिंदु पर इसका मूल्यांकन करना परिचालन
    • डिवाइड आइजनवैल्यू एल्गोरिदम का उपयोग संपूर्ण आइजनसंयोजन की गणना करने के लिए किया जा सकता है में परिचालन
    • फास्ट मल्टीपोल विधि[8] सभी आइजनवैल्यू ​​​​की गणना बस में कर सकते हैं परिचालन
  2. कुछ सामान्य आइजनसंयोजन एल्गोरिदम, विशेष रूप से QR एल्गोरिदम, सामान्य मैट्रिक्स की तुलना में त्रिविकर्ण मैट्रिक्स के लिए तेजी से अभिसरण करने के लिए जाने जाते हैं। त्रिविकर्ण QR की स्पर्शोन्मुख जटिलता है ठीक वैसे ही जैसे कि डिवाइड करो और जीतो एल्गोरिथ्म के लिए (चुकीं स्थिर कारक भिन्न हो सकता है); चूँकि आइजनवेक्टर एक साथ हैं तत्व, यह स्पर्शोन्मुख रूप से इष्टतम है।
  3. यहां तक ​​कि एल्गोरिदम जिनकी अभिसरण दरें एकात्मक परिवर्तनों से अप्रभावित हैं, जैसे कि शक्ति विधि और व्युत्क्रम पुनरावृत्ति, त्रिविकर्ण मैट्रिक्स पर प्रयुक्त होने से निम्न-स्तरीय प्रदर्शन लाभ का आनंद ले सकते हैं मूल मैट्रिक्स के अतिरिक्त . तब से अत्यधिक पूर्वानुमानित स्थितियों में सभी गैर-शून्य तत्वों के साथ बहुत विरल है, यह कैश (कंप्यूटिंग) की तुलना में उत्कृष्ट प्रदर्शन के साथ कॉम्पैक्ट स्टोरेज की अनुमति देता है। वैसे ही, जबकि सभी आइजनवेक्टर और आइजनवैल्यू ​​​​वास्तविक के साथ वास्तविक संख्या मैट्रिक्स है सामान्य तौर पर इसमें जटिल तत्व और आइजनवेक्टर हो सकते हैं, इसलिए वास्तविक अंकगणित आइजनवेक्टर और आइजनवेक्टर खोजने के लिए पर्याप्त है।
  4. अगर बहुत बड़ा है, फिर घट रहा है जिससे प्रबंधनीय आकार का होने पर भी यह अधिक चरम आइजनवैल्यू और आइजनवेक्टर खोजने की अनुमति देगा ; में क्षेत्र में, लैंज़ोस एल्गोरिथ्म को हर्मिटियन मैट्रिसेस के लिए हानिपूर्ण संपीड़न योजना के रूप में देखा जा सकता है, जो चरम स्वदेशी मूल्यों को संरक्षित करने पर जोर देता है।

विरल मैट्रिक्स के लिए अच्छे प्रदर्शन का संयोजन और कई (सभी की गणना किए बिना) आइजनवैल्यू की गणना करने की क्षमता लैंज़ोस एल्गोरिदम का उपयोग करने का चयन करने के मुख्य कारण हैं।

त्रिविकर्णीकरण का अनुप्रयोग

यद्यपि आइजनप्रॉब्लम अधिकांशतः लैंज़ोस एल्गोरिदम को प्रयुक्त करने के लिए प्रेरणा होती है, एल्गोरिदम मुख्य रूप से जो ऑपरेशन करता है वह मैट्रिक्स का त्रिविकर्णीकरण होता है, जिसके लिए 1950 के दशक से संख्यात्मक रूप से स्थिर हाउसहोल्डर परिवर्तनों का समर्थन किया गया है। 1960 के दशक के समय लैंज़ोस एल्गोरिदम की उपेक्षा की गई थी। कनियल-पेगे अभिसरण सिद्धांत और संख्यात्मक अस्थिरता को रोकने के विधियों के विकास से इसमें रुचि फिर से जीवंत हो गई, लेकिन लैंज़ोस एल्गोरिदम वैकल्पिक एल्गोरिदम बना हुआ है जिसे कोई केवल तभी आज़माता है जब हाउसहोल्डर संतोषजनक नहीं होता है।[9]

जिन पहलुओं में दोनों एल्गोरिदम भिन्न हैं उनमें सम्मिलित हैं:

  • लैंज़ोस लाभ उठाता है विरल मैट्रिक्स होने के नाते, जबकि हाउसहोल्डर ऐसा नहीं करता है, और विरल मैट्रिक्स #रिड्यूसिंग फिल-इन|फिल-इन उत्पन्न करेगा।
  • लैंज़ोस मूल मैट्रिक्स के साथ काम करता है (और इसे केवल अंतर्निहित रूप से ज्ञात होने में कोई समस्या नहीं है), जबकि कच्चा हाउसहोल्डर गणना के समय मैट्रिक्स को संशोधित करना चाहता है (चुकीं इससे बचा जा सकता है)।
  • लैंज़ोस एल्गोरिथ्म का प्रत्येक पुनरावृत्ति अंतिम परिवर्तन मैट्रिक्स का और कॉलम तैयार करता है , जबकि हाउसहोल्डर का पुनरावृत्ति एकात्मक गुणनखंडन में एक और कारक उत्पन्न करता है का . चुकीं, प्रत्येक कारक एकल वेक्टर द्वारा निर्धारित होता है, इसलिए भंडारण आवश्यकताएँ दोनों एल्गोरिदम के लिए समान हैं, और में गणना की जा सकती है।
  • ओनर संख्यात्मक रूप से स्थिर है, जबकि कच्चा लैंज़ोस नहीं है।
  • लैंज़ोस अत्यधिक समानांतर है, केवल के साथ सिंक्रोनाइज़ेशन के बिंदु (कंप्यूटर विज्ञान) (की गणना) और ). गृहस्थ कम समानांतर होता है, जिसका क्रम होता है अदिश मात्राओं की गणना की जाती है जिनमें से प्रत्येक अनुक्रम में पिछली मात्रा पर निर्भर करती है।

एल्गोरिदम की व्युत्पत्ति

तर्क की कई पंक्तियाँ हैं जो लैंज़ोस एल्गोरिदम की ओर ले जाती हैं।

अधिक भविष्य शक्ति विधि

सबसे बड़े परिमाण के आइजेनवैल्यू और मैट्रिक्स के संबंधित आइजेनवेक्टर को खोजने की शक्ति विधि सामान्यतः है,

  1. यादृच्छिक वेक्टर चुनें .
  2. के लिए (के निर्देश तक एकत्रित हो गया है) करें:
    1. माना
    2. माना
  • बड़े में सीमा, सबसे बड़े परिमाण के आइगेनवैल्यू के अनुरूप मानक आइजेनवेक्टर के पास पहुंचता है।

इस पद्धति के खिलाफ जो आलोचना की जा सकती है वह यह है कि यह व्यर्थ है: इसमें मैट्रिक्स से जानकारी निकालने में बहुत सारा काम (चरण 2.1 में मैट्रिक्स-वेक्टर उत्पाद) खर्च होता है , लेकिन केवल अंतिम परिणाम पर ही ध्यान देता है; कार्यान्वयन सामान्यतः सभी वैक्टरों के लिए समान चर का उपयोग करते हैं , प्रत्येक नए पुनरावृत्ति में पिछले वाले के परिणामों को अधिलेखित कर दिया जाता है। इसके अतिरिक्त सभी मध्यवर्ती परिणामों को रखना और डेटा को व्यवस्थित करना वांछनीय हो सकता है।

जानकारी का टुकड़ा जो तुच्छ रूप से वैक्टर से उपलब्ध है क्रायलोव उपस्थानों की श्रृंखला है। यह बताने का विधि कि एल्गोरिथम में सेट सम्मिलित किए बिना यह दावा करना है कि यह गणना करता है

उपसमुच्चय के एक आधार का ऐसा है कि हरएक के लिए और सभी

यह तुच्छ रूप से संतुष्ट है जब तक कि से रैखिक रूप से स्वतंत्र है (और यदि ऐसी कोई निर्भरता है तो कोई इसे चुनकर अनुक्रम जारी रख सकता है मनमाना वेक्टर रैखिक रूप से स्वतंत्र है ) आधार जिसमें सम्मिलित है चुकीं, वेक्टर के संख्यात्मक रूप से खराब होने की संभावना है, क्योंकि वेक्टर का यह क्रम डिजाइन के अनुसार आइजेनवेक्टर में परिवर्तित होने के लिए है। . इससे बचने के लिए, कोई व्यक्ति शक्ति पुनरावृत्ति को ग्राम-श्मिट प्रक्रिया के साथ जोड़ सकता है, इसके बजाय इन क्रायलोव उप-स्थानों का ऑर्थोनॉर्मल आधार तैयार कर सकता है।

  1. यादृच्छिक वेक्टर चुनें यूक्लिडियन मानदंड का . माना .
  2. के लिए करना:
    1. माना .
    2. सभी के लिए माना. (ये के निर्देशांक हैं आधार वैक्टर के संबंध में .)
    3. माना . (के घटक को रद्द करें यह है .)
    4. अगर तो करने दें और ,
      अन्यथा इस रूप में चुनें यूक्लिडियन मानदंड का मनमाना वेक्टर यह सभी के लिए ओर्थोगोनलहै।

शक्ति पुनरावृत्ति वैक्टर के बीच संबंध और ऑर्थोगोनल वैक्टर यह है कि

.

यहाँ यह देखा जा सकता है कि वास्तव में हमें इसकी आवश्यकता नहीं है इनकी गणना करने के लिए वैक्टर , क्योंकि और इसलिए बीच का अंतर और में है , जिसे ऑर्थोगोनलाइज़ेशन प्रक्रिया द्वारा रद्द कर दिया गया है। इस प्रकार क्रायलोव उप-स्थानों की श्रृंखला के लिए समान आधार की गणना की जाती है।

  1. यादृच्छिक वेक्टर चुनें यूक्लिडियन मानदंड का .
  2. के लिए करना:
    1. माना .
    2. सभी के लिए माना.
    3. माना .
    4. माना .
    5. अगर तो करने दें ,
      अन्यथा इस रूप में चुनें यूक्लिडियन मानदंड का मनमाना वेक्टर यह सभी के लिए ओर्थोगोनल है।

प्राथमिकता गुणांक संतुष्ट करना

सभी के लिए ;

मानहानि थोड़ा विचित्र लग सकता है, लेकिन सामान्य पैटर्न पर फिट बैठता है तब से

क्योंकि शक्ति पुनरावृत्ति सदिश जो इस पुनरावर्ती संतुष्टि से हटा दिए गए थे सदिश और गुणांक से पर्याप्त जानकारी सम्मिलित है वह सब गणना की जा सकती है, इसलिए वैक्टर बदलने से कुछ भी हानि नहीं हुआ। (वास्तव में, यह पता चला है कि यहां एकत्र किया गया डेटा पावर विधि में समान संख्या में पुनरावृत्तियों से प्राप्त होने वाले सबसे बड़े आइगेनवैल्यू का काफी बेहतर अनुमान देता है, चुकीं इस बिंदु पर यह स्पष्ट नहीं है।)

यह अंतिम प्रक्रिया अर्नोल्डी पुनरावृत्ति है। लैंज़ोस एल्गोरिथ्म तब सरलीकरण के रूप में सामने आता है जो गणना के चरणों को समाप्त करने से प्राप्त होता है जो तब तुच्छ हो जाते हैं हर्मिटियन है—विशेष रूप से अधिकांश गुणांक शून्य हो जाते हैं।

प्राथमिक रूप से, यदि तो हर्मिटियन है

के लिए हम वह जानते हैं , और तबसे निर्माण द्वारा इस उप-स्थान के लिए ऑर्थोगोनल है, यह आंतरिक उत्पाद शून्य होना चाहिए। (यह अनिवार्य रूप से यही कारण है कि ऑर्थोगोनल बहुपदों के अनुक्रमों को सदैव ऑर्थोगोनल बहुपद पुनरावृत्ति संबंध तीन-अवधि वाला पुनरावृत्ति संबंध दिया जा सकता है।) मिलता है।

चूँकि वेक्टर का आदर्श होने के कारण उत्तरार्द्ध वास्तविक है। के लिए मिलता है।

अर्थ ये भी सही है.

अधिक संक्षेप में, यदि स्तंभों वाला मैट्रिक्स है फिर संख्याएँ मैट्रिक्स के तत्वों के रूप में पहचाना जा सकता है , और के लिए गणित का सवाल हेसेनबर्ग मैट्रिक्स है।तब से

गणित का सवाल हर्मिटियन है. इसका अर्थ यह है कि यह हेसेनबर्ग से भी निचला है, इसलिए यह वास्तव में त्रिविजात्मक होना चाहिए। हर्मिटियन होने के कारण, इसका मुख्य विकर्ण वास्तविक है, और चूंकि इसका पहला उपविकर्ण निर्माण से वास्तविक है, इसलिए इसके पहले सुपरविकर्ण के लिए भी यही सच है। इसलिए, वास्तविक, सममित मैट्रिक्स है - मैट्रिक्स लैंज़ोस एल्गोरिथम विनिर्देश के लिए है।

चरम आइजनवैल्यू ​​​​का एक साथ सन्निकटन

हर्मिटियन मैट्रिक्स के आइजेनवेक्टरों को चिह्नित करने का एक विधि रेले भागफल के स्थिर बिंदुओं के रूप में है

विशेष रूप से, सबसे बड़ा आइजनवैल्यू का वैश्विक अधिकतम है और सबसे छोटा आइजनवैल्यू का वैश्विक न्यूनतम है।

निम्न-आयामी उप-स्थान के अन्दर का अधिकतम का पता लगाना संभव हो सकता है और न्यूनतम का . बढ़ती हुई शृंखला के लिए इसे दोहराते हुए वैक्टर के दो अनुक्रम उत्पन्न करता है: और ऐसा है कि और

फिर प्रश्न उठता है कि उप-स्थानों का चयन कैसे किया जाए ताकि ये क्रम इष्टतम दर पर अभिसरित हों।

से , इष्टतम दिशा जिसमें बड़े मूल्यों की तलाश की जा सके वह ढाल का है , और इसी तरह से छोटे मूल्यों की तलाश करने के लिए इष्टतम दिशा वह नकारात्मक प्रवणता का है . सामान्य रूप में

इसलिए मैट्रिक्स अंकगणित में गणना करने के लिए रुचि की दिशाएं बहुत सरल हैं, लेकिन यदि कोई दोनों में सुधार करना चाहता है और फिर ध्यान में रखने के लिए दो नई दिशाएँ हैं: और तब से और रैखिक रूप से स्वतंत्र वैक्टर हो सकते हैं (वास्तव में, ऑर्थोगोनल के समीप हैं), कोई भी सामान्य रूप से उम्मीद नहीं कर सकता है और समानांतर होना. का आयाम बढ़ाना आवश्यक नहीं है द्वारा हर कदम पर अगर क्रायलोव उप-स्थान के रूप में लिया जाता है, क्योंकि तब सभी के लिए इस प्रकार विशेष रूप से दोनों के लिए और है।

दूसरे शब्दों में, हम कुछ मनमाने प्रारंभिक वेक्टर से प्रारंभ कर सकते हैं वेक्टर रिक्त स्थान का निर्माण करें

और फिर तलाश करो ऐसा है कि

के बाद से वें शक्ति विधि पुनरावृत्त से संबंधित यह इस प्रकार है कि उत्पादन करने के लिए पुनरावृत्ति और शक्ति विधि की तुलना में धीमी गति से अभिसरण नहीं किया जा सकता है, और दोनों आइजनवैल्यू चरम सीमाओं का अनुमान लगाकर अधिक प्राप्त किया जाएगा। अनुकूलन की उपसमस्या के लिए कुछ पर , लम्बवत आधार रखना सुविधाजनक है इस वेक्टर स्पेस के लिए. इस प्रकार हम फिर से क्रायलोव उप-स्थानों के अनुक्रम के लिए ऐसे आधार की पुनरावृत्तीय गणना करने की समस्या की ओर अग्रसर हैं।

अभिसरण और अन्य गतिशीलता

एल्गोरिथ्म की गतिशीलता का विश्लेषण करते समय, आइजनवैल्यू ​​​​और आइजनवेक्टर लेना सुविधाजनक होता है जैसा कि दिया गया है, भले ही वे उपयोगकर्ता को स्पष्ट रूप से ज्ञात न हों। अंकन को ठीक करने के लिए, आइए आइगेनवैल्यू बनें (ये सभी जानते हैं कि ये वास्तविक हैं, और इस प्रकार ऑर्डर करना संभव है) और चलो आइजनवेक्टर का ऑर्थोनॉर्मल सेट बनें जैसे कि सभी के लिए .

प्रारंभिक लैंज़ोस वेक्टर के गुणांकों के लिए अंकन तय करना भी सुविधाजनक है इस आइजनबेसिक के संबंध में; माना सभी के लिए , ताकि आरंभिक सदिश कुछ आइजनअवयव के ख़त्म होने से संबंधित आइजनवैल्यू में अभिसरण में देरी होगी, और भले ही यह त्रुटि सीमा में स्थिर कारक के रूप में सामने आता है, कमी अवांछनीय बनी हुई है। लगातार इसकी चपेट में आने से बचने के लिए सामान्य तकनीक चुनना है पहले माध्य के साथ समान सामान्य वितरण के अनुसार तत्वों को यादृच्छिक रूप से खींचकर और फिर वेक्टर को मानक पर पुनः स्केल करें . पुनर्स्केलिंग से पहले, यह गुणांक का कारण बनता है समान सामान्य वितरण से स्वतंत्र सामान्य रूप से वितरित स्टोकेस्टिक चर भी होना चाहिए (क्योंकि निर्देशांक का परिवर्तन एकात्मक है), और वेक्टर को पुन: स्केल करने के बाद इकाई क्षेत्र पर समान वितरण (निरंतर) होगा . इससे उदाहरण के लिए संभावना को सीमित करना संभव हो जाता है।

तथ्य यह है कि लैंज़ोस एल्गोरिदम समन्वय-अज्ञेयवादी है - ऑपरेशन केवल वैक्टर के आंतरिक उत्पादों को देखते हैं, कभी भी वैक्टर के व्यक्तिगत तत्वों को नहीं देखते हैं - एल्गोरिदम को चलाने के लिए ज्ञात आइजनस्ट्रक्चर के साथ उदाहरण बनाना सरल बनाता है: बनाना विकर्ण पर वांछित आइजनवैल्यू ​​​​के साथ विकर्ण मैट्रिक्स; जब तक आरंभिक वेक्टर पर्याप्त गैर-शून्य तत्व हैं, एल्गोरिथ्म सामान्य त्रिविकर्ण सममित मैट्रिक्स को आउटपुट करेगा।

कनिएल-पेगे अभिसरण सिद्धांत

माना लैंज़ोस एल्गोरिदम के पुनरावृत्ति चरण, एक वास्तविक सममित मैट्रिक्स, जो उपरोक्त के समान है आइजनवैल्यू अभिसरण से मुख्यतः अभिसरण का तात्पर्य है को (और का सममित अभिसरण को ) जैसा बढ़ता है, और दूसरा कुछ सीमा का अभिसरण के आइजनवैल्यू ​​के उनके समकक्षों के लिए का . लैंज़ोस एल्गोरिदम के लिए अभिसरण अधिकांशतः पावर पुनरावृत्ति एल्गोरिदम की तुलना में तेज़ परिमाण का आदेश होता है।[9]: 477 

के लिए सीमा रेले भागफल के चरम मूल्यों के रूप में आइजनवैल्यू ​​​​की उपरोक्त व्याख्या से आते हैं . तब से प्राथमिकता अधिकतम है कुल मिलाकर जबकि पर अधिकतम मात्र है -आयामी क्रायलोव उपस्थान, हम तुच्छ रूप से प्राप्त करते हैं . इसके विपरीत, कोई भी बिंदु उसमें क्रायलोव उपस्थान निचली सीमा प्रदान करता है के लिए , इसलिए यदि कोई बिंदु प्रदर्शित किया जा सकता है जिसके लिए छोटा है तो यह टाइट बाउंड प्रदान करता है।

आयाम क्रायलोव उपस्थान है

अतः इसके किसी भी तत्व को इस प्रकार व्यक्त किया जा सकता है कुछ बहुपद के लिए अधिकतम डिग्री का ; उस बहुपद के गुणांक केवल सदिशों के रैखिक संयोजन के गुणांक हैं . हम जो बहुपद चाहते हैं उसके वास्तविक गुणांक होंगे, लेकिन शायद हमें जटिल गुणांकों की भी अनुमति देनी चाहिए, और हम लिखेंगे के सभी गुणांकों को सम्मिश्र संयुग्मन द्वारा प्राप्त बहुपद के लिए . क्रायलोव उप-स्थान के इस पैरामीट्रिज़ेशन में, हमारे पास है।

अब के लिए अभिव्यक्ति का उपयोग करना आइजनवेक्टर के रैखिक संयोजन के रूप में, हमें मिलता है

और अधिक सामान्यतः
किसी भी बहुपद के लिए .

इस प्रकार

यहां अंश और हर के बीच महत्वपूर्ण अंतर यह है कि अंश में पद लुप्त हो जाता है, लेकिन हर में नहीं। इस प्रकार यदि कोई चुन सकता है पर बड़ा होना लेकिन अन्य सभी आइजनवैल्यू ​​​​पर छोटा होने पर, किसी को त्रुटि पर कड़ी पकड़ मिलेगी।

तब से की तुलना में कई अधिक स्वदेशी मान हैं गुणांक है, यह लंबा क्रम प्रतीत हो सकता है, लेकिन इसे पूरा करने का विधि चेबीशेव बहुपद का उपयोग करना है। लिखना डिग्री के लिए पहली तरह का चेबीशेव बहुपद (जो संतुष्ट करता है सभी के लिए ), हमारे पास बहुपद है जो सीमा में रहता है ज्ञात अंतराल पर लेकिन इसके बाहर तेजी से बढ़ता है। तर्क के कुछ स्केलिंग के साथ, हम इसे छोड़कर सभी आइजनवैल्यू ​​​​को मैप कर सकते हैं में माना

(यदि , इसके अतिरिक्त सबसे बड़े आइजनवैल्यू का उपयोग करें जो कि इससे बिल्कुल कम है ), फिर का अधिकतम मान के लिए है और न्यूनतम मूल्य है , इसलिए

आगे

मात्रा

(अर्थात्, मैट्रिक्स के शेष स्पेक्ट्रम के व्यास के लिए पहले ईजेंगैप का अनुपात) इस प्रकार यहां अभिसरण दर के लिए महत्वपूर्ण महत्व है। लिख भी रहा हूँ

हम यह निष्कर्ष निकाल सकते हैं

इस प्रकार अभिसरण दर को मुख्य रूप से नियंत्रित किया जाता है , चूँकि यह सीमा कारक द्वारा सिकुड़ती है प्रत्येक अतिरिक्त पुनरावृत्ति के लिए.

तुलना के लिए, कोई इस बात पर विचार कर सकता है कि विद्युत विधि की अभिसरण दर किस प्रकार निर्भर करती है , लेकिन चूँकि शक्ति विधि मुख्य रूप से आइजनवैल्यू ​​​​के निरपेक्ष मूल्यों के बीच भागफल के प्रति संवेदनशील है, हमें इसकी आवश्यकता है बीच के ईगेंगैप के लिए और प्रमुख होना. उस बाधा के अंतर्गत, वह स्थितियों जो शक्ति पद्धति को सबसे अधिक पसंद करता है , तो उस पर विचार करें। शक्ति विधि में देर से, पुनरावृत्ति वेक्टर:

[note 1]

जहां प्रत्येक नया पुनरावृत्ति प्रभावी ढंग से गुणा करता है -आयाम द्वारा

तब सबसे बड़े आइजनवैल्यू का अनुमान है

इसलिए लैंज़ोस एल्गोरिदम अभिसरण दर के लिए उपरोक्त सीमा की तुलना की जानी चाहिए

जो कारक से सिकुड़ता है प्रत्येक पुनरावृत्ति के लिए. इस प्रकार यह अंतर बीच में ही सिमट कर रह जाता है और . में क्षेत्र, बाद वाला अधिक पसंद है , और दोगुने बड़े ईजेंगैप के साथ पावर विधि की तरह प्रदर्शन करता है उल्लेखनीय सुधार. चुकीं, अधिक चुनौतीपूर्ण मामला यह है जिसमें ईजेंगैप पर और भी बड़ा सुधार है; वह क्षेत्र है जहां लैंज़ोस एल्गोरिदम अभिसरण-वार पावर विधि पर सबसे छोटा सुधार करता है।

संख्यात्मक स्थिरता

स्थिरता का अर्थ है कि यदि छोटी-छोटी संख्यात्मक त्रुटियां पेश की जाती हैं और जमा हो जाती हैं तो एल्गोरिदम कितना प्रभावित होगा (अर्थात् क्या यह मूल परिणाम के करीब अनुमानित परिणाम देगा)। राउंडऑफ़ वाले कंप्यूटर पर एल्गोरिदम को प्रयुक्त करने की उपयोगिता का आकलन करने के लिए संख्यात्मक स्थिरता केंद्रीय मानदंड है।

लैंज़ोस एल्गोरिदम के लिए, यह साबित किया जा सकता है कि सटीक अंकगणित के साथ, वैक्टर का सेट ऑर्थोनॉर्मल आधार का निर्माण करता है, और हल किए गए आइजनवैल्यू/वेक्टर मूल मैट्रिक्स के अच्छे अनुमान हैं। चुकीं, व्यवहार में (चूंकि गणना फ्लोटिंग पॉइंट अंकगणित में की जाती है जहां अशुद्धि अपरिहार्य है), ऑर्थोगोनैलिटी जल्दी से खो जाती है और कुछ मामलों में नया वेक्टर पहले से निर्मित सेट पर रैखिक रूप से निर्भर भी हो सकता है। परिणामस्वरूप, परिणामी त्रिविकर्ण मैट्रिक्स के कुछ आइजनवैल्यू ​​मूल मैट्रिक्स के सन्निकटन नहीं हो सकते हैं। इसलिए, लैंज़ोस एल्गोरिदम बहुत स्थिर नहीं है।

इस एल्गोरिदम के उपयोगकर्ताओं को उन नकली आइजनवैल्यू ​​​​को खोजने और हटाने में सक्षम होना चाहिए। लैंज़ोस एल्गोरिदम का व्यावहारिक कार्यान्वयन इस स्थिरता के मुद्दे से लड़ने के लिए तीन दिशाओं में जाता है:[6][7]

  1. रूढ़िवादिता के हानि को रोकें,
  2. आधार तैयार होने के बाद रूढ़िवादिता को पुनः प्राप्त करें।
  3. अच्छे और नकली सभी स्वदेशी मूल्यों की पहचान हो जाने के बाद, नकली लोगों को हटा दें।

भिन्नताएँ

लैंज़ोस एल्गोरिदम पर भिन्नताएं उपस्थित हैं जहां सम्मिलित वेक्टर वेक्टर के बजाय लंबे, संकीर्ण मैट्रिक्स हैं और सामान्यीकरण स्थिरांक छोटे वर्ग मैट्रिक्स हैं। इन्हें ब्लॉक लैंज़ोस एल्गोरिदम कहा जाता है और बड़ी संख्या में रजिस्टरों और लंबी मेमोरी-फ़ेच समय वाले कंप्यूटरों पर यह बहुत तेज़ हो सकता है।

लैंज़ोस एल्गोरिदम के कई कार्यान्वयन निश्चित संख्या में पुनरावृत्तियों के बाद पुनः आरंभ होते हैं। सबसे प्रभावशाली पुनः आरंभ की गई विविधताओं में से अंतर्निहित रूप से पुनः आरंभ की गई लैंज़ोस पद्धति है,[10] जिसे अर्पैक में प्रयुक्त किया गया है।[11] इसने कई अन्य पुनः आरंभित विविधताओं को जन्म दिया है जैसे कि लैंज़ोस बिडियागोनलाइज़ेशन को पुनः आरंभ किया गया।[12] एक और सफल पुनः प्रारंभ विविधता थिक-रीस्टार्ट लैंज़ोस विधि है,[13] जिसे टीआरएलएन नामक सॉफ्टवेयर पैकेज में प्रयुक्त किया गया है।[14]


परिमित क्षेत्र पर शून्यस्थान

1995 में, पीटर मोंटगोमरी (गणितज्ञ) ने GF(2) पर बड़े विरल मैट्रिक्स के कर्नेल (मैट्रिक्स) के तत्वों को खोजने के लिए लैंज़ोस एल्गोरिदम पर आधारित एल्गोरिदम प्रकाशित किया; चूँकि परिमित क्षेत्रों में बड़े विरल मैट्रिक्स में रुचि रखने वाले लोगों का समूह और बड़ी स्वदेशी समस्याओं में रुचि रखने वाले लोगों का समूह शायद ही ओवरलैप होता है, इसे अधिकांशतः अनुचित भ्रम पैदा किए बिना ब्लॉक लैंज़ो एल्गोरिदम भी कहा जाता है।

अनुप्रयोग

लैंज़ोस एल्गोरिदम बहुत आकर्षक हैं क्योंकि गुणा एकमात्र बड़े पैमाने का रैखिक ऑपरेशन है। चूंकि भारित-अवधि पाठ पुनर्प्राप्ति इंजन केवल इस ऑपरेशन को कार्यान्वित करते हैं, लैंज़ोस एल्गोरिदम को पाठ दस्तावेज़ों पर कुशलतापूर्वक प्रयुक्त किया जा सकता है (अव्यक्त अर्थ अनुक्रमण देखें)। आइजनवेक्टर बड़े पैमाने पर रैंकिंग विधियों के लिए भी महत्वपूर्ण हैं जैसे कि जॉन क्लेनबर्ग द्वारा विकसित एचआईटीएस एल्गोरिदम, या गूगल द्वारा उपयोग किया जाने वाला पृष्ठ रैंक एल्गोरिदम।

लैंज़ोस एल्गोरिदम का उपयोग संघनित पदार्थ भौतिकी में दृढ़ता से सहसंबद्ध सामग्री के हैमिल्टनियन मैट्रिक्स को हल करने की विधि के रूप में भी किया जाता है,[15] साथ ही परमाणु भौतिकी में परमाणु शेल मॉडल कोड में भी।[16]


कार्यान्वयन

एनएजी न्यूमेरिकल लाइब्रेरी में कई रूटीन सम्मिलित हैं[17] बड़े पैमाने पर रैखिक प्रणालियों और आइजनसमस्याओं के समाधान के लिए जो लैंज़ोस एल्गोरिदम का उपयोग करते हैं।

MATLAB और GNU ऑक्टेव ARPACK बिल्ट-इन के साथ आते हैं। संग्रहीत और अंतर्निहित दोनों मैट्रिक्स का विश्लेषण eigs() फलन (Matlab/Octave) के माध्यम से किया जा सकता है।

इसी तरह, पायथन_(प्रोग्रामिंग_भाषा) में, SciPy पैकेज में scipy.sparse.linalg.eigsh है, जो ARPACK के SSEUPD और DSEUPD फलन के लिए रैपर भी है जो इम्प्लिसिटली रीस्टार्टेड लैंक्ज़ोस विधि का उपयोग करता है।

लैंज़ोस एल्गोरिथ्म का मैटलैब कार्यान्वयन (सटीक मुद्दों पर ध्यान दें) गॉसियन बिलीफ प्रोपेगेशन मैटलैब पैकेज के भाग के रूप में उपलब्ध है। ग्राफलैब[18] सहयोगी फ़िल्टरिंग लाइब्रेरी में मल्टीकोर के लिए लैंज़ोस एल्गोरिदम (c ++ में) के बड़े पैमाने पर समानांतर कार्यान्वयन सम्मिलित है।

PRIMME लाइब्रेरी लैंज़ोस जैसा एल्गोरिदम भी प्रयुक्त करती है।

टिप्पणियाँ

  1. The coefficients need not both be real, but the phase is of little importance. Nor need the composants for other eigenvectors have completely disappeared, but they shrink at least as fast as that for , so describes the worst case.


संदर्भ

  1. Lanczos, C. (1950). "रैखिक अंतर और अभिन्न ऑपरेटरों की eigenvalue समस्या के समाधान के लिए एक पुनरावृत्ति विधि" (PDF). Journal of Research of the National Bureau of Standards. 45 (4): 255–282. doi:10.6028/jres.045.026.
  2. 2.0 2.1 Ojalvo, I. U.; Newman, M. (1970). "स्वचालित मैट्रिक्स-कमी विधि द्वारा बड़ी संरचनाओं के कंपन मोड". AIAA Journal. 8 (7): 1234–1239. Bibcode:1970AIAAJ...8.1234N. doi:10.2514/3.5878.
  3. Paige, C. C. (1971). बहुत बड़े विरल आव्यूहों के eigenvalues ​​​​और eigenvectors की गणना (Ph.D. thesis). U. of London. OCLC 654214109. {{cite thesis}}: zero width space character in |title= at position 40 (help)
  4. Paige, C. C. (1972). "Eigenproblem के लिए लैंज़ोस विधि के कम्प्यूटेशनल वेरिएंट". J. Inst. Maths Applics. 10 (3): 373–381. doi:10.1093/imamat/10.3.373.
  5. Ojalvo, I. U. (1988). "Origins and advantages of Lanczos vectors for large dynamic systems". Proc. 6th Modal Analysis Conference (IMAC), Kissimmee, FL. pp. 489–494.
  6. 6.0 6.1 Cullum; Willoughby (1985). बड़े सममित आइगेनवैल्यू संगणना के लिए लैंज़ोस एल्गोरिदम. Vol. 1. ISBN 0-8176-3058-9.
  7. 7.0 7.1 Yousef Saad (1992-06-22). बड़ी स्वदेशी समस्याओं के लिए संख्यात्मक तरीके. ISBN 0-470-21820-7.
  8. Coakley, Ed S.; Rokhlin, Vladimir (2013). "वास्तविक सममित त्रिविकर्ण मैट्रिक्स के स्पेक्ट्रा की गणना के लिए एक तेज़ विभाजन और जीत एल्गोरिदम". Applied and Computational Harmonic Analysis. 34 (3): 379–414. doi:10.1016/j.acha.2012.06.003.
  9. 9.0 9.1 Golub, Gene H.; Van Loan, Charles F. (1996). मैट्रिक्स गणना (3. ed.). Baltimore: Johns Hopkins Univ. Press. ISBN 0-8018-5413-X.
  10. D. Calvetti; L. Reichel; D.C. Sorensen (1994). "बड़े सममित आइजेनवैल्यू समस्याओं के लिए एक अंतर्निहित रूप से पुनः आरंभ की गई लैंज़ोस विधि". Electronic Transactions on Numerical Analysis. 2: 1–21.
  11. R. B. Lehoucq; D. C. Sorensen; C. Yang (1998). ARPACK Users Guide: Solution of Large-Scale Eigenvalue Problems with Implicitly Restarted Arnoldi Methods. SIAM. doi:10.1137/1.9780898719628. ISBN 978-0-89871-407-4.
  12. E. Kokiopoulou; C. Bekas; E. Gallopoulos (2004). "अंतर्निहित रूप से पुनः आरंभ किए गए लैंज़ोस बिडियागोनलाइज़ेशन के साथ सबसे छोटे एकवचन त्रिक की गणना करना" (PDF). Appl. Numer. Math. 49: 39–61. doi:10.1016/j.apnum.2003.11.011.
  13. Kesheng Wu; Horst Simon (2000). "बड़े सममित आइगेनवैल्यू समस्याओं के लिए थिक-रीस्टार्ट लैंज़ोस विधि". SIAM Journal on Matrix Analysis and Applications. SIAM. 22 (2): 602–616. doi:10.1137/S0895479898334605.
  14. Kesheng Wu; Horst Simon (2001). "टीआरएलएन सॉफ्टवेयर पैकेज". Archived from the original on 2007-07-01. Retrieved 2007-06-30.
  15. Chen, HY; Atkinson, W.A.; Wortis, R. (July 2011). "Disorder-induced zero-bias anomaly in the Anderson-Hubbard model: Numerical and analytical calculations". Physical Review B. 84 (4): 045113. arXiv:1012.1031. Bibcode:2011PhRvB..84d5113C. doi:10.1103/PhysRevB.84.045113. S2CID 118722138.
  16. Shimizu, Noritaka (21 October 2013). "बड़े पैमाने पर समानांतर गणना के लिए परमाणु शेल-मॉडल कोड, "KSHELL"". arXiv:1310.5431 [nucl-th].
  17. The Numerical Algorithms Group. "Keyword Index: Lanczos". NAG Library Manual, Mark 23. Retrieved 2012-02-09.
  18. GraphLab Archived 2011-03-14 at the Wayback Machine


अग्रिम पठन