लैंज़ोस एल्गोरिदम: Difference between revisions

From Vigyanwiki
No edit summary
No edit summary
 
(7 intermediate revisions by 3 users not shown)
Line 4: Line 4:
{{for|गामा फलन का सन्निकटन|लैंज़ोस सन्निकटन}}
{{for|गामा फलन का सन्निकटन|लैंज़ोस सन्निकटन}}


लैंज़ोस एल्गोरिदम [[कॉर्नेलियस लैंज़ोस]] द्वारा प्रस्तुत की गई एक पुनरावृत्तीय विधि है जो खोजने के लिए [[शक्ति पुनरावृत्ति]] का एक अनुकूलन है <math>m</math> सबसे उपयोगी (अति उच्चतम/निम्नतम की ओर रुझान) आइजनवैल्यू ​​​​और आइजनवेक्टर <math>n \times n</math> [[हर्मिटियन मैट्रिक्स]], जहाँ <math> m </math> अधिकांशतः होता है लेकिन आवश्यक नहीं कि उससे बहुत छोटा हो <math> n </math>.<ref>{{cite journal |last=Lanczos |first=C. |title=रैखिक अंतर और अभिन्न ऑपरेटरों की eigenvalue समस्या के समाधान के लिए एक पुनरावृत्ति विधि|journal=  Journal of Research of the National Bureau of Standards|volume=45 |issue= 4|pages=255–282 |year=1950 |url=https://www.cs.umd.edu/~oleary/lanczos1950.pdf |doi=10.6028/jres.045.026 |doi-access=free }}</ref> यद्यपि सैद्धांतिक रूप से कम्प्यूटेशनल रूप से कुशल, प्रारंभिक रूप से तैयार की गई विधि अपनी [[संख्यात्मक स्थिरता]] के कारण उपयोगी नहीं थी।
'''लैंज़ोस एल्गोरिदम''' [[कॉर्नेलियस लैंज़ोस]] द्वारा प्रस्तुत की गई पुनरावृत्तीय विधि है। जो खोजने के लिए [[शक्ति पुनरावृत्ति]] का अनुकूलन है <math>m</math> सबसे उपयोगी (अति उच्चतम/निम्नतम की ओर रुझान) आइजनवैल्यू ​​​​और आइजनवेक्टर <math>n \times n</math> [[हर्मिटियन मैट्रिक्स]], जहाँ <math> m </math> अधिकांशतः होता है लेकिन आवश्यक नहीं कि उससे बहुत छोटा हो <math> n </math><ref>{{cite journal |last=Lanczos |first=C. |title=रैखिक अंतर और अभिन्न ऑपरेटरों की eigenvalue समस्या के समाधान के लिए एक पुनरावृत्ति विधि|journal=  Journal of Research of the National Bureau of Standards|volume=45 |issue= 4|pages=255–282 |year=1950 |url=https://www.cs.umd.edu/~oleary/lanczos1950.pdf |doi=10.6028/jres.045.026 |doi-access=free }}</ref> यद्यपि सैद्धांतिक रूप से कम्प्यूटेशनल रूप से कुशल, प्रारंभिक रूप से तैयार की गई विधि अपनी [[संख्यात्मक स्थिरता]] के कारण उपयोगी नहीं थी।


1970 में, ओजाल्वो और न्यूमैन ने दिखाया कि विधि को संख्यात्मक रूप से स्थिर कैसे बनाया जाए और इसे गतिशील लोडिंग के अधीन बहुत बड़ी इंजीनियरिंग संरचनाओं के समाधान में प्रयुक्त किया जाए।<ref name=":0">{{cite journal |last1=Ojalvo |first1=I. U. |last2=Newman |first2=M. |title=स्वचालित मैट्रिक्स-कमी विधि द्वारा बड़ी संरचनाओं के कंपन मोड|journal=[[AIAA Journal]] |volume=8 |issue=7 |pages=1234–1239 |year=1970 |doi=10.2514/3.5878 |bibcode=1970AIAAJ...8.1234N }}</ref> यह लैंज़ोस वैक्टर को शुद्ध करने के लिए एक विधि का उपयोग करके प्राप्त किया गया था (अर्थात् प्रत्येक नए जेनरेट किए गए वेक्टर को पहले से जेनरेट किए गए सभी के साथ बार-बार पुन: व्यवस्थित करके)<ref name=":0" /> सटीकता की किसी भी डिग्री तक, जब प्रदर्शन नहीं किया गया, तो वैक्टरों की एक श्रृंखला उत्पन्न हुई जो सबसे कम प्राकृतिक आवृत्तियों से जुड़े वैक्टरों द्वारा अत्यधिक दूषित थीं।
1970 में, ओजाल्वो और न्यूमैन ने दिखाया कि विधि को संख्यात्मक रूप से स्थिर कैसे बनाया जाए और इसे गतिशील लोडिंग के अधीन बहुत बड़ी इंजीनियरिंग संरचनाओं के समाधान में प्रयुक्त किया जाए।<ref name=":0">{{cite journal |last1=Ojalvo |first1=I. U. |last2=Newman |first2=M. |title=स्वचालित मैट्रिक्स-कमी विधि द्वारा बड़ी संरचनाओं के कंपन मोड|journal=[[AIAA Journal]] |volume=8 |issue=7 |pages=1234–1239 |year=1970 |doi=10.2514/3.5878 |bibcode=1970AIAAJ...8.1234N }}</ref> यह लैंज़ोस वैक्टर को शुद्ध करने के लिए विधि का उपयोग करके प्राप्त किया गया था। (अर्थात् प्रत्येक नए जेनरेट किए गए वेक्टर को पहले से जेनरेट किए गए सभी के साथ बार-बार पुन: व्यवस्थित करके)<ref name=":0" /> सटीकता की किसी भी डिग्री तक, जब प्रदर्शन नहीं किया गया, तो वैक्टरों की श्रृंखला उत्पन्न हुई जो सबसे कम प्राकृतिक आवृत्तियों से जुड़े वैक्टरों द्वारा अत्यधिक दूषित थीं।


अपने मूल काम में, इन लेखकों ने यह भी सुझाव दिया कि प्रारंभिक वेक्टर का चयन कैसे करें (अर्थात् प्रारंभिक वेक्टर के प्रत्येक तत्व का चयन करने के लिए यादृच्छिक संख्या जेनरेटर का उपयोग करें) और निर्धारण के लिए अनुभवजन्य रूप से निर्धारित विधि का सुझाव दिया <math> m </math>, सदिशों की कम संख्या (अर्थात इसे वांछित सटीक आइजनवैल्यू ​​​​की संख्या का लगभग 1.5 गुना चुना जाना चाहिए)। इसके तुरंत बाद उनके काम का अनुसरण पेगे ने किया, जिन्होंने एक त्रुटि विश्लेषण भी प्रदान किया।<ref>{{cite thesis |last=Paige |first=C. C. |title=बहुत बड़े विरल आव्यूहों के eigenvalues ​​​​और eigenvectors की गणना|publisher=U. of London |type=Ph.D. thesis |date=1971 |oclc=654214109 }}</ref><ref>{{cite journal |last=Paige |first=C. C. |title=Eigenproblem के लिए लैंज़ोस विधि के कम्प्यूटेशनल वेरिएंट|journal=J. Inst. Maths Applics |volume=10 |issue=3 |pages=373–381 |year=1972 |doi=10.1093/imamat/10.3.373 }}</ref> 1988 में, ओजाल्वो ने इस एल्गोरिदम का अधिक विस्तृत इतिहास और एक कुशल आइजनवैल्यू त्रुटि परीक्षण तैयार किया।<ref>{{cite book |last=Ojalvo |first=I. U. |chapter=Origins and advantages of Lanczos vectors for large dynamic systems |title=Proc. 6th Modal Analysis Conference (IMAC), Kissimmee, FL |pages=489–494 |year=1988 }}</ref>
अपने मूल काम में, इन लेखकों ने यह भी सुझाव दिया कि प्रारंभिक वेक्टर का चयन कैसे करें (अर्थात् प्रारंभिक वेक्टर के प्रत्येक तत्व का चयन करने के लिए यादृच्छिक संख्या जेनरेटर का उपयोग करें) और निर्धारण के लिए अनुभवजन्य रूप से निर्धारित विधि का सुझाव दिया <math> m </math>, सदिशों की कम संख्या (अर्थात इसे वांछित सटीक आइजनवैल्यू ​​​​की संख्या का लगभग 1.5 गुना चुना जाना चाहिए)। इसके तुरंत बाद उनके काम का अनुसरण पेगे ने किया, जिन्होंने त्रुटि विश्लेषण भी प्रदान किया।<ref>{{cite thesis |last=Paige |first=C. C. |title=बहुत बड़े विरल आव्यूहों के eigenvalues ​​​​और eigenvectors की गणना|publisher=U. of London |type=Ph.D. thesis |date=1971 |oclc=654214109 }}</ref><ref>{{cite journal |last=Paige |first=C. C. |title=Eigenproblem के लिए लैंज़ोस विधि के कम्प्यूटेशनल वेरिएंट|journal=J. Inst. Maths Applics |volume=10 |issue=3 |pages=373–381 |year=1972 |doi=10.1093/imamat/10.3.373 }}</ref> 1988 में, ओजाल्वो ने इस एल्गोरिदम का अधिक विस्तृत इतिहास और कुशल आइजनवैल्यू त्रुटि परीक्षण तैयार किया।<ref>{{cite book |last=Ojalvo |first=I. U. |chapter=Origins and advantages of Lanczos vectors for large dynamic systems |title=Proc. 6th Modal Analysis Conference (IMAC), Kissimmee, FL |pages=489–494 |year=1988 }}</ref>




==एल्गोरिदम==
==एल्गोरिदम==
:एक हर्मिटियन मैट्रिक्स इनपुट करें <math>A</math> आकार का <math>n \times n</math>, और वैकल्पिक रूप से कई पुनरावृत्तियाँ <math>m</math> (डिफ़ॉल्ट के रूप में, माना <math>m=n</math>).
:हर्मिटियन मैट्रिक्स इनपुट करें <math>A</math> आकार का <math>n \times n</math>, और वैकल्पिक रूप से कई पुनरावृत्तियाँ <math>m</math> (डिफ़ॉल्ट के रूप में, माना <math>m=n</math>).
:* सच कहूँ तो, एल्गोरिदम को स्पष्ट मैट्रिक्स तक पहुंच की आवश्यकता नहीं है, बल्कि केवल एक फलन की आवश्यकता है <math>v \mapsto A v</math> जो एक मनमाना वेक्टर द्वारा मैट्रिक्स के उत्पाद की गणना करता है। इस फलन को अधिक से अधिक कॉल किया जाता है <math>m</math> बार.
:* सच कहूँ तो, एल्गोरिदम को स्पष्ट मैट्रिक्स तक पहुंच की आवश्यकता नहीं है, किन्तु केवल फलन की आवश्यकता है <math>v \mapsto A v</math> जो मनमाना वेक्टर द्वारा मैट्रिक्स के उत्पाद की गणना करता है। इस फलन को अधिक से अधिक <math>m</math> बार कॉल किया जाता है।
:आउटपुट <math>n \times m</math> आव्यूह <math>V</math> [[रूढ़िवादिता]] कॉलम और एक त्रिविकर्ण मैट्रिक्स वास्तविक सममित मैट्रिक्स के साथ <math>T = V^* A V</math> आकार का <math>m \times m</math>. अगर <math>m=n</math>, तब <math>V</math> [[एकात्मक मैट्रिक्स]] है, और <math> A = V T V^* </math>.
:आउटपुट <math>n \times m</math> आव्यूह <math>V</math> [[रूढ़िवादिता]] कॉलम और त्रिविकर्ण मैट्रिक्स वास्तविक सममित मैट्रिक्स के साथ <math>T = V^* A V</math> आकार का <math>m \times m</math>. अगर <math>m=n</math>, तब <math>V</math> [[एकात्मक मैट्रिक्स]] है, और <math> A = V T V^* </math>.
:चेतावनी लैंज़ोस पुनरावृत्ति संख्यात्मक अस्थिरता से ग्रस्त है। गैर-सटीक अंकगणित में निष्पादित होने पर, परिणामों की वैधता सुनिश्चित करने के लिए अतिरिक्त उपाय (जैसा कि बाद के अनुभागों में बताया गया है) किए जाने चाहिए।
:चेतावनी लैंज़ोस पुनरावृत्ति संख्यात्मक अस्थिरता से ग्रस्त है। गैर-सटीक अंकगणित में निष्पादित होने पर, परिणामों की वैधता सुनिश्चित करने के लिए अतिरिक्त उपाय (जैसा कि बाद के अनुभागों में बताया गया है) किए जाने चाहिए।
:# माना <math>v_1 \in \mathbb{C}^n</math> [[यूक्लिडियन मानदंड]] के साथ एक मनमाना वेक्टर <math>1</math> बनें
:# माना <math>v_1 \in \mathbb{C}^n</math> [[यूक्लिडियन मानदंड]] के साथ मनमाना वेक्टर <math>1</math> बनें
:# संक्षिप्त प्रारंभिक पुनरावृत्ति चरण:
:# संक्षिप्त प्रारंभिक पुनरावृत्ति चरण:
:## माना <math> w_1' = A v_1 </math>.
:## माना <math> w_1' = A v_1 </math>.
Line 22: Line 22:
:## माना <math> w_1 = w_1' - \alpha_1 v_1 </math>.
:## माना <math> w_1 = w_1' - \alpha_1 v_1 </math>.
:# के लिए <math> j=2,\dots,m </math> करना:
:# के लिए <math> j=2,\dots,m </math> करना:
:## माना <math> \beta_j = \| w_{j-1} \| </math> (यूक्लिडियन मानदंड भी)
:## माना <math> \beta_j = \| w_{j-1} \| </math> (यूक्लिडियन मानदंड भी)
:## अगर <math> \beta_j \neq 0 </math>, तो करने दें <math> v_j = w_{j-1} / \beta_j </math>,
:## अगर <math> \beta_j \neq 0 </math>, तो करने दें <math> v_j = w_{j-1} / \beta_j </math>,
:##: अन्यथा इस रूप में चुनें <math>v_j</math> यूक्लिडियन मानदंड के साथ एक मनमाना वेक्टर <math>1</math> यह सभी के लिए ओर्थोगोनल है <math> v_1,\dots,v_{j-1} </math>.
:##: अन्यथा इस रूप में चुनें <math>v_j</math> यूक्लिडियन मानदंड के साथ मनमाना वेक्टर <math>1</math> यह सभी के लिए ओर्थोगोनल <math> v_1,\dots,v_{j-1} </math> है।
:## माना <math> w_j' = A v_j </math>.
:## माना <math> w_j' = A v_j </math>.
:## माना <math> \alpha_j = w_j'^* v_j </math>.
:## माना <math> \alpha_j = w_j'^* v_j </math>.
Line 40: Line 40:
पुनरावृत्ति प्रक्रिया को लिखने के सैद्धांतिक रूप से चार विधि हैं। पेगे और अन्य कार्यों से पता चलता है कि संचालन का उपरोक्त क्रम संख्यात्मक रूप से सबसे स्थिर है।<ref name="CW1985">{{Cite book|last1=Cullum |last2= Willoughby|title=बड़े सममित आइगेनवैल्यू संगणना के लिए लैंज़ोस एल्गोरिदम|year= 1985|volume= 1| isbn= 0-8176-3058-9}}</ref><ref name="Saad1992">{{Cite book|author=Yousef Saad|title=बड़ी स्वदेशी समस्याओं के लिए संख्यात्मक तरीके|  isbn= 0-470-21820-7|url= http://www-users.cs.umn.edu/~saad/books.html|author-link=Yousef Saad|date=1992-06-22}}</ref>
पुनरावृत्ति प्रक्रिया को लिखने के सैद्धांतिक रूप से चार विधि हैं। पेगे और अन्य कार्यों से पता चलता है कि संचालन का उपरोक्त क्रम संख्यात्मक रूप से सबसे स्थिर है।<ref name="CW1985">{{Cite book|last1=Cullum |last2= Willoughby|title=बड़े सममित आइगेनवैल्यू संगणना के लिए लैंज़ोस एल्गोरिदम|year= 1985|volume= 1| isbn= 0-8176-3058-9}}</ref><ref name="Saad1992">{{Cite book|author=Yousef Saad|title=बड़ी स्वदेशी समस्याओं के लिए संख्यात्मक तरीके|  isbn= 0-470-21820-7|url= http://www-users.cs.umn.edu/~saad/books.html|author-link=Yousef Saad|date=1992-06-22}}</ref>


व्यवहार में प्रारंभिक वेक्टर <math>v_1</math> प्रक्रिया के एक अन्य तर्क के रूप में लिया जा सकता है <math>\beta_j=0</math> और संख्यात्मक अशुद्धि के संकेतकों को अतिरिक्त लूप समाप्ति शर्तों के रूप में सम्मिलित किया जा रहा है।
व्यवहार में प्रारंभिक वेक्टर <math>v_1</math> प्रक्रिया के अन्य तर्क के रूप में लिया जा सकता है <math>\beta_j=0</math> और संख्यात्मक अशुद्धि के संकेतकों को अतिरिक्त लूप समाप्ति शर्तों के रूप में सम्मिलित किया जा रहा है।


मैट्रिक्स-वेक्टर गुणन की गणना न करते हुए, प्रत्येक पुनरावृत्ति करता है <math>O(n)</math> अंकगणितीय परिचालन. मैट्रिक्स-वेक्टर गुणन किया जा सकता है <math>O(dn)</math> अंकगणितीय संक्रियाएँ जहाँ <math>d</math> एक पंक्ति में शून्येतर तत्वों की औसत संख्या है। कुल जटिलता इस प्रकार है <math>O(dmn)</math>, या <math>O(dn^2)</math> अगर <math>m=n</math>; लैंज़ोस एल्गोरिदम विरल मैट्रिक्स के लिए बहुत तेज़ हो सकता है। संख्यात्मक स्थिरता में सुधार के लिए योजनाओं को सामान्यतः इस उच्च प्रदर्शन के आधार पर आंका जाता है।
मैट्रिक्स-वेक्टर गुणन की गणना न करते हुए, प्रत्येक पुनरावृत्ति करता है <math>O(n)</math> अंकगणितीय परिचालन. मैट्रिक्स-वेक्टर गुणन किया जा सकता है <math>O(dn)</math> अंकगणितीय संक्रियाएँ जहाँ <math>d</math> एक पंक्ति में शून्येतर तत्वों की औसत संख्या है। कुल जटिलता इस प्रकार है <math>O(dmn)</math>, या <math>O(dn^2)</math> अगर <math>m=n</math>; लैंज़ोस एल्गोरिदम विरल मैट्रिक्स के लिए बहुत तेज़ हो सकता है। संख्यात्मक स्थिरता में सुधार के लिए योजनाओं को सामान्यतः इस उच्च प्रदर्शन के आधार पर आंका जाता है।
Line 49: Line 49:


=== आइजन समस्याएं के लिए आवेदन ===
=== आइजन समस्याएं के लिए आवेदन ===
लैंज़ोस एल्गोरिदम को अधिकांशतः मैट्रिक्स के आइजनवैल्यू और आइजनवेक्टर खोजने के संदर्भ में लाया जाता है, लेकिन जबकि एक सामान्य [[मैट्रिक्स विकर्णीकरण]] आइजनवेक्टर और आइजनवैल्यू को निरीक्षण से स्पष्ट कर देगा, वही लैंज़ोस एल्गोरिदम द्वारा किए गए ट्राइडिएगोनलाइज़ेशन के लिए सच नहीं है; एक भी [[eigenvalue|आइजेनवैल्यू]] या [[eigenvector|आइजेनवेक्टर]] की गणना करने के लिए गैर-तुच्छ अतिरिक्त चरणों की आवश्यकता होती है। फिर भी, लैंज़ोस एल्गोरिथ्म को प्रयुक्त करना अधिकांशतः आइगेंडेकंपोजीशन की गणना में एक महत्वपूर्ण कदम है। अगर <math>\lambda</math> का एक प्रतिरूप है <math>A</math>, और अगर <math> T x = \lambda x </math> (<math>x</math> का एक आइजेनवेक्टर <math>T</math> है) तब <math> y = V x </math> का संगत आइजेनवेक्टर है <math>A</math> (तब से <math> A y = A V x = V T V^* V x = V T I x = V T x = V (\lambda x) = \lambda V x = \lambda y</math>). इस प्रकार लैंज़ोस एल्गोरिथ्म आइजनसंयोजन समस्या को बदल देता है <math>A</math> आइजनसंयोजन समस्या के लिए <math>T</math>.
लैंज़ोस एल्गोरिदम को अधिकांशतः मैट्रिक्स के आइजनवैल्यू और आइजनवेक्टर खोजने के संदर्भ में लाया जाता है, लेकिन जबकि सामान्य [[मैट्रिक्स विकर्णीकरण]] आइजनवेक्टर और आइजनवैल्यू को निरीक्षण से स्पष्ट कर देगा, वही लैंज़ोस एल्गोरिदम द्वारा किए गए ट्राइडिएगोनलाइज़ेशन के लिए सच नहीं है; एक भी [[eigenvalue|आइजेनवैल्यू]] या [[eigenvector|आइजेनवेक्टर]] की गणना करने के लिए गैर-तुच्छ अतिरिक्त चरणों की आवश्यकता होती है। फिर भी, लैंज़ोस एल्गोरिथ्म को प्रयुक्त करना अधिकांशतः आइगेंडेकंपोजीशन की गणना में महत्वपूर्ण कदम है। अगर <math>\lambda</math> का प्रतिरूप है <math>A</math>, और अगर <math> T x = \lambda x </math> (<math>x</math> का आइजेनवेक्टर <math>T</math> है) तब <math> y = V x </math> का संगत आइजेनवेक्टर है <math>A</math> (तब से <math> A y = A V x = V T V^* V x = V T I x = V T x = V (\lambda x) = \lambda V x = \lambda y</math>). इस प्रकार लैंज़ोस एल्गोरिथ्म आइजनसंयोजन समस्या को बदल देता है <math>A</math> आइजनसंयोजन समस्या <math>T</math> के लिए ,
# त्रिविकर्ण मैट्रिक्स के लिए, कई विशिष्ट एल्गोरिदम उपस्थित हैं, जो अधिकांशतः सामान्य-उद्देश्य एल्गोरिदम की तुलना में बेहतर कम्प्यूटेशनल जटिलता के साथ होते हैं। उदाहरण के लिए, यदि <math>T</math> एक <math>m \times m</math> त्रिविकर्ण सममित मैट्रिक्स तब:
# त्रिविकर्ण मैट्रिक्स के लिए, कई विशिष्ट एल्गोरिदम उपस्थित हैं, जो अधिकांशतः सामान्य-उद्देश्य एल्गोरिदम की तुलना में बेहतर कम्प्यूटेशनल जटिलता के साथ होते हैं। उदाहरण के लिए, यदि <math>T</math> एक <math>m \times m</math> त्रिविकर्ण सममित मैट्रिक्स तब:
#* त्रिविकर्ण मैट्रिक्स#निर्धारक [[विशेषता बहुपद]] की गणना करने की अनुमति देता है <math>O(m^2)</math> संचालन, और एक बिंदु पर इसका मूल्यांकन करना <math>O(m)</math> परिचालन.
#* त्रिविकर्ण मैट्रिक्स#निर्धारक [[विशेषता बहुपद]] की गणना करने की अनुमति देता है <math>O(m^2)</math> संचालन, और बिंदु पर इसका मूल्यांकन करना <math>O(m)</math> परिचालन
#* [[फूट डालो और जीतो eigenvalue एल्गोरिदम|डिवाइड आइजनवैल्यू एल्गोरिदम]] का उपयोग संपूर्ण आइजनसंयोजन की गणना करने के लिए किया जा सकता है <math>T</math> में <math>O(m^2)</math> परिचालन.
#* [[फूट डालो और जीतो eigenvalue एल्गोरिदम|डिवाइड आइजनवैल्यू एल्गोरिदम]] का उपयोग संपूर्ण आइजनसंयोजन की गणना करने के लिए किया जा सकता है <math>T</math> में <math>O(m^2)</math> परिचालन
#* फास्ट मल्टीपोल विधि<ref>{{cite journal|last1=Coakley|first1=Ed S.|last2=Rokhlin|first2=Vladimir|title=वास्तविक सममित त्रिविकर्ण मैट्रिक्स के स्पेक्ट्रा की गणना के लिए एक तेज़ विभाजन और जीत एल्गोरिदम|journal=Applied and Computational Harmonic Analysis|date=2013|volume=34|issue=3|pages=379–414|doi=10.1016/j.acha.2012.06.003|doi-access=free}}</ref> सभी आइजनवैल्यू ​​​​की गणना बस में कर सकते हैं <math>O(m \log m)</math> परिचालन.
#* फास्ट मल्टीपोल विधि<ref>{{cite journal|last1=Coakley|first1=Ed S.|last2=Rokhlin|first2=Vladimir|title=वास्तविक सममित त्रिविकर्ण मैट्रिक्स के स्पेक्ट्रा की गणना के लिए एक तेज़ विभाजन और जीत एल्गोरिदम|journal=Applied and Computational Harmonic Analysis|date=2013|volume=34|issue=3|pages=379–414|doi=10.1016/j.acha.2012.06.003|doi-access=free}}</ref> सभी आइजनवैल्यू ​​​​की गणना बस में कर सकते हैं <math>O(m \log m)</math> परिचालन
# कुछ सामान्य आइजनसंयोजन एल्गोरिदम, विशेष रूप से QR एल्गोरिदम, सामान्य मैट्रिक्स की तुलना में त्रिविकर्ण मैट्रिक्स के लिए तेजी से अभिसरण करने के लिए जाने जाते हैं। त्रिविकर्ण QR की स्पर्शोन्मुख जटिलता है <math>O(m^2)</math> ठीक वैसे ही जैसे कि डिवाइड करो और जीतो एल्गोरिथ्म के लिए (चुकीं स्थिर कारक भिन्न हो सकता है); चूँकि आइजनवेक्टर एक साथ हैं <math>m^2</math> तत्व, यह स्पर्शोन्मुख रूप से इष्टतम है।
# कुछ सामान्य आइजनसंयोजन एल्गोरिदम, विशेष रूप से QR एल्गोरिदम, सामान्य मैट्रिक्स की तुलना में त्रिविकर्ण मैट्रिक्स के लिए तेजी से अभिसरण करने के लिए जाने जाते हैं। त्रिविकर्ण QR की स्पर्शोन्मुख जटिलता है <math>O(m^2)</math> ठीक वैसे ही जैसे कि डिवाइड करो और जीतो एल्गोरिथ्म के लिए (चुकीं स्थिर कारक भिन्न हो सकता है); चूँकि आइजनवेक्टर एक साथ हैं <math>m^2</math> तत्व, यह स्पर्शोन्मुख रूप से इष्टतम है।
# यहां तक ​​कि एल्गोरिदम जिनकी अभिसरण दरें एकात्मक परिवर्तनों से अप्रभावित हैं, जैसे कि [[शक्ति विधि]] और व्युत्क्रम पुनरावृत्ति, त्रिविकर्ण मैट्रिक्स पर प्रयुक्त होने से निम्न-स्तरीय प्रदर्शन लाभ का आनंद ले सकते हैं <math>T</math> मूल मैट्रिक्स के अतिरिक्त <math>A</math>. तब से <math>T</math> अत्यधिक पूर्वानुमानित स्थितियों में सभी गैर-शून्य तत्वों के साथ बहुत विरल है, यह [[कैश (कंप्यूटिंग)]] की तुलना में उत्कृष्ट प्रदर्शन के साथ कॉम्पैक्ट स्टोरेज की अनुमति देता है। वैसे ही, <math>T</math> जबकि सभी आइजनवेक्टर और आइजनवैल्यू ​​​​वास्तविक के साथ एक [[वास्तविक संख्या]] मैट्रिक्स है <math>A</math> सामान्य तौर पर इसमें जटिल तत्व और आइजनवेक्टर हो सकते हैं, इसलिए वास्तविक अंकगणित आइजनवेक्टर और आइजनवेक्टर खोजने के लिए <math>T</math> पर्याप्त है
# यहां तक ​​कि एल्गोरिदम जिनकी अभिसरण दरें एकात्मक परिवर्तनों से अप्रभावित हैं, जैसे कि [[शक्ति विधि]] और व्युत्क्रम पुनरावृत्ति, त्रिविकर्ण मैट्रिक्स पर प्रयुक्त होने से निम्न-स्तरीय प्रदर्शन लाभ का आनंद ले सकते हैं <math>T</math> मूल मैट्रिक्स के अतिरिक्त <math>A</math>. तब से <math>T</math> अत्यधिक पूर्वानुमानित स्थितियों में सभी गैर-शून्य तत्वों के साथ बहुत विरल है, यह [[कैश (कंप्यूटिंग)]] की तुलना में उत्कृष्ट प्रदर्शन के साथ कॉम्पैक्ट स्टोरेज की अनुमति देता है। वैसे ही, <math>T</math> जबकि सभी आइजनवेक्टर और आइजनवैल्यू ​​​​वास्तविक के साथ [[वास्तविक संख्या]] मैट्रिक्स है <math>A</math> सामान्य तौर पर इसमें जटिल तत्व और आइजनवेक्टर हो सकते हैं, इसलिए वास्तविक अंकगणित आइजनवेक्टर और आइजनवेक्टर खोजने के लिए <math>T</math> पर्याप्त है।
# अगर <math>n</math> बहुत बड़ा है, फिर घट रहा है <math>m</math> जिससे <math>T</math> प्रबंधनीय आकार का होने पर भी यह अधिक चरम आइजनवैल्यू और आइजनवेक्टर खोजने की अनुमति देगा <math>A</math>; में <math>m \ll n</math> क्षेत्र में, लैंज़ोस एल्गोरिथ्म को हर्मिटियन मैट्रिसेस के लिए एक [[हानिपूर्ण संपीड़न]] योजना के रूप में देखा जा सकता है, जो चरम स्वदेशी मूल्यों को संरक्षित करने पर जोर देता है।
# अगर <math>n</math> बहुत बड़ा है, फिर घट रहा है <math>m</math> जिससे <math>T</math> प्रबंधनीय आकार का होने पर भी यह अधिक चरम आइजनवैल्यू और आइजनवेक्टर खोजने की अनुमति देगा <math>A</math>; में <math>m \ll n</math> क्षेत्र में, लैंज़ोस एल्गोरिथ्म को हर्मिटियन मैट्रिसेस के लिए [[हानिपूर्ण संपीड़न]] योजना के रूप में देखा जा सकता है, जो चरम स्वदेशी मूल्यों को संरक्षित करने पर जोर देता है।
विरल मैट्रिक्स के लिए अच्छे प्रदर्शन का संयोजन और कई (सभी की गणना किए बिना) आइजनवैल्यू की गणना करने की क्षमता लैंज़ोस एल्गोरिदम का उपयोग करने का चयन करने के मुख्य कारण हैं।
विरल मैट्रिक्स के लिए अच्छे प्रदर्शन का संयोजन और कई (सभी की गणना किए बिना) आइजनवैल्यू की गणना करने की क्षमता लैंज़ोस एल्गोरिदम का उपयोग करने का चयन करने के मुख्य कारण हैं।


=== त्रिविकर्णीकरण का अनुप्रयोग ===
=== त्रिविकर्णीकरण का अनुप्रयोग ===
यद्यपि आइजनप्रॉब्लम अधिकांशतः लैंज़ोस एल्गोरिदम को प्रयुक्त करने के लिए प्रेरणा होती है, एल्गोरिदम मुख्य रूप से जो ऑपरेशन करता है वह एक मैट्रिक्स का त्रिविकर्णीकरण होता है, जिसके लिए 1950 के दशक से संख्यात्मक रूप से स्थिर हाउसहोल्डर परिवर्तनों का समर्थन किया गया है। 1960 के दशक के समय लैंज़ोस एल्गोरिदम की उपेक्षा की गई थी। कनियल-पेगे अभिसरण सिद्धांत और संख्यात्मक अस्थिरता को रोकने के विधियों के विकास से इसमें रुचि फिर से जीवंत हो गई, लेकिन लैंज़ोस एल्गोरिदम वैकल्पिक एल्गोरिदम बना हुआ है जिसे कोई केवल तभी आज़माता है जब हाउसहोल्डर संतोषजनक नहीं होता है।<ref name="GolubVanLoan">{{cite book|last1=Golub|first1=Gene H.|last2=Van Loan|first2=Charles F.|title=मैट्रिक्स गणना|date=1996|publisher=Johns Hopkins Univ. Press|location=Baltimore|isbn=0-8018-5413-X|edition=3.}}</ref>
यद्यपि आइजनप्रॉब्लम अधिकांशतः लैंज़ोस एल्गोरिदम को प्रयुक्त करने के लिए प्रेरणा होती है, एल्गोरिदम मुख्य रूप से जो ऑपरेशन करता है वह मैट्रिक्स का त्रिविकर्णीकरण होता है, जिसके लिए 1950 के दशक से संख्यात्मक रूप से स्थिर हाउसहोल्डर परिवर्तनों का समर्थन किया गया है। 1960 के दशक के समय लैंज़ोस एल्गोरिदम की उपेक्षा की गई थी। कनियल-पेगे अभिसरण सिद्धांत और संख्यात्मक अस्थिरता को रोकने के विधियों के विकास से इसमें रुचि फिर से जीवंत हो गई, लेकिन लैंज़ोस एल्गोरिदम वैकल्पिक एल्गोरिदम बना हुआ है जिसे कोई केवल तभी आज़माता है जब हाउसहोल्डर संतोषजनक नहीं होता है।<ref name="GolubVanLoan">{{cite book|last1=Golub|first1=Gene H.|last2=Van Loan|first2=Charles F.|title=मैट्रिक्स गणना|date=1996|publisher=Johns Hopkins Univ. Press|location=Baltimore|isbn=0-8018-5413-X|edition=3.}}</ref>


जिन पहलुओं में दोनों एल्गोरिदम भिन्न हैं उनमें सम्मिलित हैं:
जिन पहलुओं में दोनों एल्गोरिदम भिन्न हैं उनमें सम्मिलित हैं:
* लैंज़ोस लाभ उठाता है <math>A</math> एक विरल मैट्रिक्स होने के नाते, जबकि हाउसहोल्डर ऐसा नहीं करता है, और विरल मैट्रिक्स #रिड्यूसिंग फिल-इन|फिल-इन उत्पन्न करेगा।
* लैंज़ोस लाभ उठाता है <math>A</math> विरल मैट्रिक्स होने के नाते, जबकि हाउसहोल्डर ऐसा नहीं करता है, और विरल मैट्रिक्स #रिड्यूसिंग फिल-इन|फिल-इन उत्पन्न करेगा।
* लैंज़ोस मूल मैट्रिक्स के साथ काम करता है <math>A</math> (और इसे केवल अंतर्निहित रूप से ज्ञात होने में कोई समस्या नहीं है), जबकि कच्चा हाउसहोल्डर गणना के समय मैट्रिक्स को संशोधित करना चाहता है (चुकीं इससे बचा जा सकता है)।
* लैंज़ोस मूल मैट्रिक्स के साथ काम करता है <math>A</math> (और इसे केवल अंतर्निहित रूप से ज्ञात होने में कोई समस्या नहीं है), जबकि कच्चा हाउसहोल्डर गणना के समय मैट्रिक्स को संशोधित करना चाहता है (चुकीं इससे बचा जा सकता है)।
* लैंज़ोस एल्गोरिथ्म का प्रत्येक पुनरावृत्ति अंतिम परिवर्तन मैट्रिक्स का एक और कॉलम तैयार करता है <math>V</math>, जबकि हाउसहोल्डर का एक पुनरावृत्ति एकात्मक गुणनखंडन में एक और कारक उत्पन्न करता है <math> Q_1 Q_2 \dots Q_n</math> का <math>V</math>. चुकीं, प्रत्येक कारक एक एकल वेक्टर द्वारा निर्धारित होता है, इसलिए भंडारण आवश्यकताएँ दोनों एल्गोरिदम के लिए समान हैं, और <math>V = Q_1 Q_2 \dots Q_n</math> में गणना की जा सकती है <math>O(n^3)</math> समय।
* लैंज़ोस एल्गोरिथ्म का प्रत्येक पुनरावृत्ति अंतिम परिवर्तन मैट्रिक्स का और कॉलम तैयार करता है <math>V</math>, जबकि हाउसहोल्डर का पुनरावृत्ति एकात्मक गुणनखंडन में एक और कारक उत्पन्न करता है <math> Q_1 Q_2 \dots Q_n</math> का <math>V</math>. चुकीं, प्रत्येक कारक एकल वेक्टर द्वारा निर्धारित होता है, इसलिए भंडारण आवश्यकताएँ दोनों एल्गोरिदम के लिए समान हैं, और <math>V = Q_1 Q_2 \dots Q_n</math> में <math>O(n^3)</math>गणना की जा सकती है।
* ओनर संख्यात्मक रूप से स्थिर है, जबकि कच्चा लैंज़ोस नहीं है।
* ओनर संख्यात्मक रूप से स्थिर है, जबकि कच्चा लैंज़ोस नहीं है।
* लैंज़ोस अत्यधिक समानांतर है, केवल के साथ <math>O(n)</math> सिंक्रोनाइज़ेशन के बिंदु (कंप्यूटर विज्ञान) (की गणना) <math>\alpha_j</math> और <math>\beta_j</math>). गृहस्थ कम समानांतर होता है, जिसका एक क्रम होता है <math>O(n^2)</math> अदिश मात्राओं की गणना की जाती है जिनमें से प्रत्येक अनुक्रम में पिछली मात्रा पर निर्भर करती है।
* लैंज़ोस अत्यधिक समानांतर है, केवल के साथ <math>O(n)</math> सिंक्रोनाइज़ेशन के बिंदु (कंप्यूटर विज्ञान) (की गणना) <math>\alpha_j</math> और <math>\beta_j</math>). गृहस्थ कम समानांतर होता है, जिसका क्रम होता है <math>O(n^2)</math> अदिश मात्राओं की गणना की जाती है जिनमें से प्रत्येक अनुक्रम में पिछली मात्रा पर निर्भर करती है।


==एल्गोरिदम की व्युत्पत्ति==
==एल्गोरिदम की व्युत्पत्ति==
तर्क की कई पंक्तियाँ हैं जो लैंज़ोस एल्गोरिदम की ओर ले जाती हैं।
तर्क की कई पंक्तियाँ हैं जो लैंज़ोस एल्गोरिदम की ओर ले जाती हैं।


===एक अधिक भविष्य शक्ति विधि===
===अधिक भविष्य शक्ति विधि===
{{Main|शक्ति पुनरावृत्ति}}
{{Main|शक्ति पुनरावृत्ति}}
सबसे बड़े परिमाण के आइजेनवैल्यू और मैट्रिक्स के संबंधित आइजेनवेक्टर को खोजने की शक्ति विधि <math>A</math> सामान्यतः है
सबसे बड़े परिमाण के आइजेनवैल्यू और मैट्रिक्स के संबंधित आइजेनवेक्टर को खोजने की शक्ति विधि <math>A</math> सामान्यतः है,
:# एक यादृच्छिक वेक्टर चुनें <math>u_1 \neq 0</math>.
:# यादृच्छिक वेक्टर चुनें <math>u_1 \neq 0</math>.
:# के लिए <math> j \geqslant 1 </math> (के निर्देश तक <math>u_j</math> एकत्रित हो गया है) करें:
:# के लिए <math> j \geqslant 1 </math> (के निर्देश तक <math>u_j</math> एकत्रित हो गया है) करें:
:## माना<math> u_{j+1}' = A u_j.</math>
:## माना<math> u_{j+1}' = A u_j.</math>
Line 82: Line 82:
इस पद्धति के खिलाफ जो आलोचना की जा सकती है वह यह है कि यह व्यर्थ है: इसमें मैट्रिक्स से जानकारी निकालने में बहुत सारा काम (चरण 2.1 में मैट्रिक्स-वेक्टर उत्पाद) खर्च होता है <math>A</math>, लेकिन केवल अंतिम परिणाम पर ही ध्यान देता है; कार्यान्वयन सामान्यतः सभी वैक्टरों के लिए समान चर का उपयोग करते हैं <math>u_j</math>, प्रत्येक नए पुनरावृत्ति में पिछले वाले के परिणामों को अधिलेखित कर दिया जाता है। इसके अतिरिक्त सभी मध्यवर्ती परिणामों को रखना और डेटा को व्यवस्थित करना वांछनीय हो सकता है।
इस पद्धति के खिलाफ जो आलोचना की जा सकती है वह यह है कि यह व्यर्थ है: इसमें मैट्रिक्स से जानकारी निकालने में बहुत सारा काम (चरण 2.1 में मैट्रिक्स-वेक्टर उत्पाद) खर्च होता है <math>A</math>, लेकिन केवल अंतिम परिणाम पर ही ध्यान देता है; कार्यान्वयन सामान्यतः सभी वैक्टरों के लिए समान चर का उपयोग करते हैं <math>u_j</math>, प्रत्येक नए पुनरावृत्ति में पिछले वाले के परिणामों को अधिलेखित कर दिया जाता है। इसके अतिरिक्त सभी मध्यवर्ती परिणामों को रखना और डेटा को व्यवस्थित करना वांछनीय हो सकता है।


जानकारी का एक टुकड़ा जो तुच्छ रूप से वैक्टर से उपलब्ध है <math>u_j</math> क्रायलोव उपस्थानों की एक श्रृंखला है। यह बताने का एक विधि कि एल्गोरिथम में सेट सम्मिलित किए बिना यह दावा करना है कि यह गणना करता है
जानकारी का टुकड़ा जो तुच्छ रूप से वैक्टर से उपलब्ध है <math>u_j</math> क्रायलोव उपस्थानों की श्रृंखला है। यह बताने का विधि कि एल्गोरिथम में सेट सम्मिलित किए बिना यह दावा करना है कि यह गणना करता है


:उपसमुच्चय <math>\{v_j\}_{j=1}^m</math> के एक आधार का <math>\Complex^n</math> ऐसा है कि <math>Ax \in \operatorname{span}(v_1,\dotsc,v_{j+1}) </math> हरएक के लिए <math>x \in \operatorname{span}(v_1,\dotsc,v_j)</math> और सभी <math>1 \leqslant j < m;</math>
:उपसमुच्चय <math>\{v_j\}_{j=1}^m</math> के एक आधार का <math>\Complex^n</math> ऐसा है कि <math>Ax \in \operatorname{span}(v_1,\dotsc,v_{j+1}) </math> हरएक के लिए <math>x \in \operatorname{span}(v_1,\dotsc,v_j)</math> और सभी <math>1 \leqslant j < m;</math>
यह तुच्छ रूप से संतुष्ट है <math>v_j = u_j</math> जब तक कि <math>u_j</math> से रैखिक रूप से स्वतंत्र है <math>u_1,\dotsc,u_{j-1}</math> (और यदि ऐसी कोई निर्भरता है तो कोई इसे चुनकर अनुक्रम जारी रख सकता है <math>v_j</math> एक मनमाना वेक्टर रैखिक रूप से स्वतंत्र है <math>u_1,\dotsc,u_{j-1}</math>). एक आधार जिसमें सम्मिलित है <math>u_j</math> चुकीं, वेक्टर के संख्यात्मक रूप से खराब होने की संभावना है, क्योंकि वेक्टर का यह क्रम डिजाइन के अनुसार एक आइजेनवेक्टर में परिवर्तित होने के लिए है। <math>A</math>. इससे बचने के लिए, कोई व्यक्ति शक्ति पुनरावृत्ति को ग्राम-श्मिट प्रक्रिया के साथ जोड़ सकता है, इसके बजाय इन क्रायलोव उप-स्थानों का एक ऑर्थोनॉर्मल आधार तैयार कर सकता है।
यह तुच्छ रूप से संतुष्ट है <math>v_j = u_j</math> जब तक कि <math>u_j</math> से रैखिक रूप से स्वतंत्र है <math>u_1,\dotsc,u_{j-1}</math> (और यदि ऐसी कोई निर्भरता है तो कोई इसे चुनकर अनुक्रम जारी रख सकता है <math>v_j</math> मनमाना वेक्टर रैखिक रूप से स्वतंत्र है <math>u_1,\dotsc,u_{j-1}</math>) आधार जिसमें सम्मिलित है <math>u_j</math> चुकीं, वेक्टर के संख्यात्मक रूप से खराब होने की संभावना है, क्योंकि वेक्टर का यह क्रम डिजाइन के अनुसार आइजेनवेक्टर में परिवर्तित होने के लिए है। <math>A</math>. इससे बचने के लिए, कोई व्यक्ति शक्ति पुनरावृत्ति को ग्राम-श्मिट प्रक्रिया के साथ जोड़ सकता है, इसके बजाय इन क्रायलोव उप-स्थानों का ऑर्थोनॉर्मल आधार तैयार कर सकता है।
# एक यादृच्छिक वेक्टर चुनें <math>u_1</math> यूक्लिडियन मानदंड का <math>1</math>. माना <math>v_1 = u_1</math>.
# यादृच्छिक वेक्टर चुनें <math>u_1</math> यूक्लिडियन मानदंड का <math>1</math>. माना <math>v_1 = u_1</math>.
# के लिए <math>j = 1,\dotsc,m-1</math> करना:
# के लिए <math>j = 1,\dotsc,m-1</math> करना:
## माना <math> u_{j+1}' = A u_j </math>.
## माना <math> u_{j+1}' = A u_j </math>.
Line 92: Line 92:
## माना <math> w_{j+1} = u_{j+1}' - \sum_{k=1}^j g_{k,j} v_k</math>. (के घटक को रद्द करें <math>u_{j+1}'</math> यह है <math>\operatorname{span}(v_1,\dotsc,v_j)</math>.)
## माना <math> w_{j+1} = u_{j+1}' - \sum_{k=1}^j g_{k,j} v_k</math>. (के घटक को रद्द करें <math>u_{j+1}'</math> यह है <math>\operatorname{span}(v_1,\dotsc,v_j)</math>.)
## अगर <math>w_{j+1} \neq 0</math> तो करने दें <math> u_{j+1} = u_{j+1}' / \| u_{j+1}' \| </math> और <math> v_{j+1} = w_{j+1} / \| w_{j+1} \| </math>,
## अगर <math>w_{j+1} \neq 0</math> तो करने दें <math> u_{j+1} = u_{j+1}' / \| u_{j+1}' \| </math> और <math> v_{j+1} = w_{j+1} / \| w_{j+1} \| </math>,
##: अन्यथा इस रूप में चुनें <math> u_{j+1} = v_{j+1} </math> यूक्लिडियन मानदंड का एक मनमाना वेक्टर <math>1</math> यह सभी के लिए ओर्थोगोनल है <math>v_1,\dotsc,v_j</math>.
##: अन्यथा इस रूप में चुनें <math> u_{j+1} = v_{j+1} </math> यूक्लिडियन मानदंड का मनमाना वेक्टर <math>1</math> यह सभी के लिए ओर्थोगोनल<math>v_1,\dotsc,v_j</math>है।
शक्ति पुनरावृत्ति वैक्टर के बीच संबंध <math>u_j</math> और ऑर्थोगोनल वैक्टर <math>v_j</math> यह है कि
शक्ति पुनरावृत्ति वैक्टर के बीच संबंध <math>u_j</math> और ऑर्थोगोनल वैक्टर <math>v_j</math> यह है कि
: <math> A u_j = \| u_{j+1}'\| u_{j+1} = u_{j+1}' = w_{j+1} + \sum_{k=1}^j g_{k,j} v_k = \| w_{j+1}\| v_{j+1} + \sum_{k=1}^j g_{k,j} v_k </math>.
: <math> A u_j = \| u_{j+1}'\| u_{j+1} = u_{j+1}' = w_{j+1} + \sum_{k=1}^j g_{k,j} v_k = \| w_{j+1}\| v_{j+1} + \sum_{k=1}^j g_{k,j} v_k </math>.
यहाँ यह देखा जा सकता है कि वास्तव में हमें इसकी आवश्यकता नहीं है <math>u_j</math> इनकी गणना करने के लिए वैक्टर <math>v_j</math>, क्योंकि <math>u_j - v_j \in \operatorname{span}(v_1,\dotsc,v_{j-1})</math> और इसलिए बीच का अंतर <math> u_{j+1}' = A u_j </math> और <math> w_{j+1}' = A v_j </math> में है <math>\operatorname{span}(v_1,\dotsc,v_j)</math>, जिसे ऑर्थोगोनलाइज़ेशन प्रक्रिया द्वारा रद्द कर दिया गया है। इस प्रकार क्रायलोव उप-स्थानों की श्रृंखला के लिए समान आधार की गणना की जाती है
यहाँ यह देखा जा सकता है कि वास्तव में हमें इसकी आवश्यकता नहीं है <math>u_j</math> इनकी गणना करने के लिए वैक्टर <math>v_j</math>, क्योंकि <math>u_j - v_j \in \operatorname{span}(v_1,\dotsc,v_{j-1})</math> और इसलिए बीच का अंतर <math> u_{j+1}' = A u_j </math> और <math> w_{j+1}' = A v_j </math> में है <math>\operatorname{span}(v_1,\dotsc,v_j)</math>, जिसे ऑर्थोगोनलाइज़ेशन प्रक्रिया द्वारा रद्द कर दिया गया है। इस प्रकार क्रायलोव उप-स्थानों की श्रृंखला के लिए समान आधार की गणना की जाती है।
# एक यादृच्छिक वेक्टर चुनें <math>v_1</math> यूक्लिडियन मानदंड का <math>1</math>.
# यादृच्छिक वेक्टर चुनें <math>v_1</math> यूक्लिडियन मानदंड का <math>1</math>.
# के लिए <math>j = 1,\dotsc,m-1</math> करना:
# के लिए <math>j = 1,\dotsc,m-1</math> करना:
## माना <math> w_{j+1}' = A v_j </math>.
## माना <math> w_{j+1}' = A v_j </math>.
Line 103: Line 103:
## माना <math> h_{j+1,j} = \| w_{j+1} \| </math>.
## माना <math> h_{j+1,j} = \| w_{j+1} \| </math>.
## अगर <math>h_{j+1,j} \neq 0</math> तो करने दें <math> v_{j+1} = w_{j+1} / h_{j+1,j} </math>,
## अगर <math>h_{j+1,j} \neq 0</math> तो करने दें <math> v_{j+1} = w_{j+1} / h_{j+1,j} </math>,
##: अन्यथा इस रूप में चुनें <math> v_{j+1} </math> यूक्लिडियन मानदंड का एक मनमाना वेक्टर <math>1</math> यह सभी के लिए ओर्थोगोनल है <math>v_1,\dotsc,v_j</math>.
##: अन्यथा इस रूप में चुनें <math> v_{j+1} </math> यूक्लिडियन मानदंड का मनमाना वेक्टर <math>1</math> यह सभी के लिए ओर्थोगोनल <math>v_1,\dotsc,v_j</math> है।
एक प्राथमिकता गुणांक <math>h_{k,j}</math> संतुष्ट करना
प्राथमिकता गुणांक <math>h_{k,j}</math> संतुष्ट करना
: <math> A v_j = \sum_{k=1}^{j+1} h_{k,j} v_k </math> सभी के लिए <math> j < m </math>;
: <math> A v_j = \sum_{k=1}^{j+1} h_{k,j} v_k </math> सभी के लिए <math> j < m </math>;
मानहानि <math> h_{j+1,j} = \| w_{j+1} \| </math> थोड़ा विचित्र लग सकता है, लेकिन सामान्य पैटर्न पर फिट बैठता है <math> h_{k,j} = v_k^* w_{j+1}' </math> तब से
मानहानि <math> h_{j+1,j} = \| w_{j+1} \| </math> थोड़ा विचित्र लग सकता है, लेकिन सामान्य पैटर्न पर फिट बैठता है <math> h_{k,j} = v_k^* w_{j+1}' </math> तब से
Line 116: Line 116:


:<math> h_{k,j} = v_k^* w_{j+1}' = v_k^* A v_j = v_k^* A^* v_j = (A v_k)^* v_j.</math>
:<math> h_{k,j} = v_k^* w_{j+1}' = v_k^* A v_j = v_k^* A^* v_j = (A v_k)^* v_j.</math>
के लिए <math> k < j-1 </math> हम वह जानते हैं <math> A v_k \in \operatorname{span}(v_1,\ldots,v_{j-1}) </math>, और तबसे <math> v_j </math> निर्माण द्वारा इस उप-स्थान के लिए ऑर्थोगोनल है, यह आंतरिक उत्पाद शून्य होना चाहिए। (यह अनिवार्य रूप से यही कारण है कि ऑर्थोगोनल बहुपदों के अनुक्रमों को हमेशा एक ऑर्थोगोनल बहुपद#पुनरावृत्ति संबंध|तीन-अवधि वाला पुनरावृत्ति संबंध दिया जा सकता है।) <math> k = j-1 </math> एक मिलता है
के लिए <math> k < j-1 </math> हम वह जानते हैं <math> A v_k \in \operatorname{span}(v_1,\ldots,v_{j-1}) </math>, और तबसे <math> v_j </math> निर्माण द्वारा इस उप-स्थान के लिए ऑर्थोगोनल है, यह आंतरिक उत्पाद शून्य होना चाहिए। (यह अनिवार्य रूप से यही कारण है कि ऑर्थोगोनल बहुपदों के अनुक्रमों को सदैव ऑर्थोगोनल बहुपद पुनरावृत्ति संबंध तीन-अवधि वाला पुनरावृत्ति संबंध दिया जा सकता है।) <math> k = j-1 </math> मिलता है।


:<math> h_{j-1,j} = (A v_{j-1})^* v_j = \overline{v_j^* A v_{j-1} } = \overline{ h_{j,j-1} } = h_{j,j-1} </math> चूँकि वेक्टर का आदर्श होने के कारण उत्तरार्द्ध वास्तविक है। के लिए <math> k = j </math> एक मिलता है
:<math> h_{j-1,j} = (A v_{j-1})^* v_j = \overline{v_j^* A v_{j-1} } = \overline{ h_{j,j-1} } = h_{j,j-1} </math> चूँकि वेक्टर का आदर्श होने के कारण उत्तरार्द्ध वास्तविक है। के लिए <math> k = j </math> मिलता है।


:<math> h_{j,j} = (A v_j)^* v_j = \overline{v_j^* A v_j } = \overline{h_{j,j}},</math>
:<math> h_{j,j} = (A v_j)^* v_j = \overline{v_j^* A v_j } = \overline{h_{j,j}},</math>
अर्थ ये भी सही है.
अर्थ ये भी सही है.


अधिक संक्षेप में, यदि <math>V</math> स्तंभों वाला मैट्रिक्स है <math>v_1,\ldots,v_m</math> फिर संख्याएँ <math>h_{k,j}</math> मैट्रिक्स के तत्वों के रूप में पहचाना जा सकता है <math>H = V^*AV</math>, और <math>h_{k,j} = 0</math> के लिए <math>k > j+1;</math> गणित का सवाल <math>H</math> [[हेसेनबर्ग मैट्रिक्स]] है. तब से
अधिक संक्षेप में, यदि <math>V</math> स्तंभों वाला मैट्रिक्स है <math>v_1,\ldots,v_m</math> फिर संख्याएँ <math>h_{k,j}</math> मैट्रिक्स के तत्वों के रूप में पहचाना जा सकता है <math>H = V^*AV</math>, और <math>h_{k,j} = 0</math> के लिए <math>k > j+1;</math> गणित का सवाल <math>H</math> [[हेसेनबर्ग मैट्रिक्स]] है।तब से


:<math> H^* = \left (V^* A V \right )^* = V^* A^* V = V^* A V = H </math> गणित का सवाल <math>H</math> हर्मिटियन है. इसका अर्थ यह है कि <math>H</math> यह हेसेनबर्ग से भी निचला है, इसलिए यह वास्तव में त्रिविजात्मक होना चाहिए। हर्मिटियन होने के कारण, इसका मुख्य विकर्ण वास्तविक है, और चूंकि इसका पहला उपविकर्ण निर्माण से वास्तविक है, इसलिए इसके पहले सुपरविकर्ण के लिए भी यही सच है। इसलिए, <math>H</math> एक वास्तविक, सममित मैट्रिक्स है - मैट्रिक्स <math>T</math> लैंज़ोस एल्गोरिथम विनिर्देश के लिए है।
:<math> H^* = \left (V^* A V \right )^* = V^* A^* V = V^* A V = H </math> गणित का सवाल <math>H</math> हर्मिटियन है. इसका अर्थ यह है कि <math>H</math> यह हेसेनबर्ग से भी निचला है, इसलिए यह वास्तव में त्रिविजात्मक होना चाहिए। हर्मिटियन होने के कारण, इसका मुख्य विकर्ण वास्तविक है, और चूंकि इसका पहला उपविकर्ण निर्माण से वास्तविक है, इसलिए इसके पहले सुपरविकर्ण के लिए भी यही सच है। इसलिए, <math>H</math> वास्तविक, सममित मैट्रिक्स है - मैट्रिक्स <math>T</math> लैंज़ोस एल्गोरिथम विनिर्देश के लिए है।


===चरम आइजनवैल्यू ​​​​का एक साथ सन्निकटन===
===चरम आइजनवैल्यू ​​​​का एक साथ सन्निकटन===
Line 131: Line 131:


: <math>r(x) = \frac{x^* A x} {x^* x}, \qquad x \in\Complex^n.</math>
: <math>r(x) = \frac{x^* A x} {x^* x}, \qquad x \in\Complex^n.</math>
विशेष रूप से, सबसे बड़ा आइजनवैल्यू <math>\lambda_\max</math> का वैश्विक अधिकतम है <math>r</math> और सबसे छोटा आइजनवैल्यू <math>\lambda_\min</math> का वैश्विक न्यूनतम <math>r</math> है.
विशेष रूप से, सबसे बड़ा आइजनवैल्यू <math>\lambda_\max</math> का वैश्विक अधिकतम है <math>r</math> और सबसे छोटा आइजनवैल्यू <math>\lambda_\min</math> का वैश्विक न्यूनतम <math>r</math> है।


निम्न-आयामी उप-स्थान के अन्दर <math>\mathcal{L}</math> का <math>\Complex^n</math> अधिकतम का पता लगाना संभव हो सकता है <math>x</math> और न्यूनतम <math>y</math> का <math>r</math>. बढ़ती हुई शृंखला के लिए इसे दोहराते हुए <math>\mathcal{L}_1 \subset \mathcal{L}_2 \subset \cdots</math> वैक्टर के दो अनुक्रम उत्पन्न करता है: <math>x_1, x_2, \ldots</math> और <math>y_1, y_2, \dotsc </math> ऐसा है कि <math>x_j, y_j \in \mathcal{L}_j </math> और
निम्न-आयामी उप-स्थान के अन्दर <math>\mathcal{L}</math> का <math>\Complex^n</math> अधिकतम का पता लगाना संभव हो सकता है <math>x</math> और न्यूनतम <math>y</math> का <math>r</math>. बढ़ती हुई शृंखला के लिए इसे दोहराते हुए <math>\mathcal{L}_1 \subset \mathcal{L}_2 \subset \cdots</math> वैक्टर के दो अनुक्रम उत्पन्न करता है: <math>x_1, x_2, \ldots</math> और <math>y_1, y_2, \dotsc </math> ऐसा है कि <math>x_j, y_j \in \mathcal{L}_j </math> और
Line 144: Line 144:


: <math>\nabla r(x) = \frac{2}{x^* x} ( A x - r(x) x ), </math>
: <math>\nabla r(x) = \frac{2}{x^* x} ( A x - r(x) x ), </math>
इसलिए मैट्रिक्स अंकगणित में गणना करने के लिए रुचि की दिशाएं बहुत सरल हैं, लेकिन यदि कोई दोनों में सुधार करना चाहता है <math>x_j</math> और <math>y_j</math> फिर ध्यान में रखने के लिए दो नई दिशाएँ हैं: <math>Ax_j</math> और <math>Ay_j;</math> तब से <math>x_j</math> और <math>y_j</math> रैखिक रूप से स्वतंत्र वैक्टर हो सकते हैं (वास्तव में, ऑर्थोगोनल के समीप हैं), कोई भी सामान्य रूप से उम्मीद नहीं कर सकता है <math>Ax_j</math> और <math>Ay_j</math> समानांतर होना. का आयाम बढ़ाना आवश्यक नहीं है <math>\mathcal{L}_j</math> द्वारा <math>2</math> हर कदम पर अगर <math>\{\mathcal{L}_j\}_{j=1}^m</math> क्रायलोव उप-स्थान के रूप में लिया जाता है, क्योंकि तब <math>Az \in \mathcal{L}_{j+1}</math> सभी के लिए <math>z \in \mathcal{L}_j,</math> इस प्रकार विशेष रूप से दोनों के लिए <math>z = x_j</math> और <math>z = y_j</math>.
इसलिए मैट्रिक्स अंकगणित में गणना करने के लिए रुचि की दिशाएं बहुत सरल हैं, लेकिन यदि कोई दोनों में सुधार करना चाहता है <math>x_j</math> और <math>y_j</math> फिर ध्यान में रखने के लिए दो नई दिशाएँ हैं: <math>Ax_j</math> और <math>Ay_j;</math> तब से <math>x_j</math> और <math>y_j</math> रैखिक रूप से स्वतंत्र वैक्टर हो सकते हैं (वास्तव में, ऑर्थोगोनल के समीप हैं), कोई भी सामान्य रूप से उम्मीद नहीं कर सकता है <math>Ax_j</math> और <math>Ay_j</math> समानांतर होना. का आयाम बढ़ाना आवश्यक नहीं है <math>\mathcal{L}_j</math> द्वारा <math>2</math> हर कदम पर अगर <math>\{\mathcal{L}_j\}_{j=1}^m</math> क्रायलोव उप-स्थान के रूप में लिया जाता है, क्योंकि तब <math>Az \in \mathcal{L}_{j+1}</math> सभी के लिए <math>z \in \mathcal{L}_j,</math> इस प्रकार विशेष रूप से दोनों के लिए <math>z = x_j</math> और <math>z = y_j</math>है।


दूसरे शब्दों में, हम कुछ मनमाने प्रारंभिक वेक्टर से प्रारंभ कर सकते हैं <math>x_1 = y_1,</math> वेक्टर रिक्त स्थान का निर्माण करें
दूसरे शब्दों में, हम कुछ मनमाने प्रारंभिक वेक्टर से प्रारंभ कर सकते हैं <math>x_1 = y_1,</math> वेक्टर रिक्त स्थान का निर्माण करें
Line 152: Line 152:


:<math> r(x_j) = \max_{z \in \mathcal{L}_j} r(z) \qquad \text{and} \qquad  r(y_j) = \min_{z \in \mathcal{L}_j} r(z).</math>
:<math> r(x_j) = \max_{z \in \mathcal{L}_j} r(z) \qquad \text{and} \qquad  r(y_j) = \min_{z \in \mathcal{L}_j} r(z).</math>
के बाद से <math>j</math>वें शक्ति विधि पुनरावृत्त <math>u_j</math> से संबंधित <math>\mathcal{L}_j,</math> यह इस प्रकार है कि उत्पादन करने के लिए एक पुनरावृत्ति <math>x_j</math> और <math>y_j</math> शक्ति विधि की तुलना में धीमी गति से अभिसरण नहीं किया जा सकता है, और दोनों आइजनवैल्यू चरम सीमाओं का अनुमान लगाकर अधिक प्राप्त किया जाएगा। अनुकूलन की उपसमस्या के लिए <math>r</math> कुछ पर <math>\mathcal{L}_j </math>, लम्बवत आधार रखना सुविधाजनक है <math>\{ v_1, \ldots, v_j \}</math> इस वेक्टर स्पेस के लिए. इस प्रकार हम फिर से क्रायलोव उप-स्थानों के अनुक्रम के लिए ऐसे आधार की पुनरावृत्तीय गणना करने की समस्या की ओर अग्रसर हैं।
के बाद से <math>j</math>वें शक्ति विधि पुनरावृत्त <math>u_j</math> से संबंधित <math>\mathcal{L}_j,</math> यह इस प्रकार है कि उत्पादन करने के लिए पुनरावृत्ति <math>x_j</math> और <math>y_j</math> शक्ति विधि की तुलना में धीमी गति से अभिसरण नहीं किया जा सकता है, और दोनों आइजनवैल्यू चरम सीमाओं का अनुमान लगाकर अधिक प्राप्त किया जाएगा। अनुकूलन की उपसमस्या के लिए <math>r</math> कुछ पर <math>\mathcal{L}_j </math>, लम्बवत आधार रखना सुविधाजनक है <math>\{ v_1, \ldots, v_j \}</math> इस वेक्टर स्पेस के लिए. इस प्रकार हम फिर से क्रायलोव उप-स्थानों के अनुक्रम के लिए ऐसे आधार की पुनरावृत्तीय गणना करने की समस्या की ओर अग्रसर हैं।


==अभिसरण और अन्य गतिशीलता==
==अभिसरण और अन्य गतिशीलता==
एल्गोरिथ्म की गतिशीलता का विश्लेषण करते समय, आइजनवैल्यू ​​​​और आइजनवेक्टर लेना सुविधाजनक होता है <math>A</math> जैसा कि दिया गया है, भले ही वे उपयोगकर्ता को स्पष्ट रूप से ज्ञात न हों। अंकन को ठीक करने के लिए, आइए <math>\lambda_1 \geqslant \lambda_2 \geqslant \dotsb \geqslant \lambda_n</math> आइगेनवैल्यू बनें (ये सभी जानते हैं कि ये वास्तविक हैं, और इस प्रकार ऑर्डर करना संभव है) और चलो <math>z_1,\dotsc,z_n</math> आइजनवेक्टर का एक ऑर्थोनॉर्मल सेट बनें जैसे कि <math>A z_k = \lambda_k z_k</math> सभी के लिए <math>k=1,\dotsc,n</math>.
एल्गोरिथ्म की गतिशीलता का विश्लेषण करते समय, आइजनवैल्यू ​​​​और आइजनवेक्टर लेना सुविधाजनक होता है <math>A</math> जैसा कि दिया गया है, भले ही वे उपयोगकर्ता को स्पष्ट रूप से ज्ञात न हों। अंकन को ठीक करने के लिए, आइए <math>\lambda_1 \geqslant \lambda_2 \geqslant \dotsb \geqslant \lambda_n</math> आइगेनवैल्यू बनें (ये सभी जानते हैं कि ये वास्तविक हैं, और इस प्रकार ऑर्डर करना संभव है) और चलो <math>z_1,\dotsc,z_n</math> आइजनवेक्टर का ऑर्थोनॉर्मल सेट बनें जैसे कि <math>A z_k = \lambda_k z_k</math> सभी के लिए <math>k=1,\dotsc,n</math>.


प्रारंभिक लैंज़ोस वेक्टर के गुणांकों के लिए एक अंकन तय करना भी सुविधाजनक है <math>v_1</math> इस आइजनबेसिक के संबंध में; माना <math>d_k = z_k^* v_1</math> सभी के लिए <math>k=1,\dotsc,n</math>, ताकि <math> \textstyle v_1 = \sum_{k=1}^n d_k z_k</math>. एक आरंभिक सदिश <math>v_1</math> कुछ आइजनअवयव के ख़त्म होने से संबंधित आइजनवैल्यू में अभिसरण में देरी होगी, और भले ही यह त्रुटि सीमा में एक स्थिर कारक के रूप में सामने आता है, कमी अवांछनीय बनी हुई है। लगातार इसकी चपेट में आने से बचने के लिए एक सामान्य तकनीक चुनना है <math>v_1</math> पहले माध्य के साथ समान [[सामान्य वितरण]] के अनुसार तत्वों को यादृच्छिक रूप से खींचकर <math>0</math> और फिर वेक्टर को मानक पर पुनः स्केल करें <math>1</math>. पुनर्स्केलिंग से पहले, यह गुणांक का कारण बनता है <math>d_k</math> समान सामान्य वितरण से स्वतंत्र सामान्य रूप से वितरित स्टोकेस्टिक चर भी होना चाहिए (क्योंकि निर्देशांक का परिवर्तन एकात्मक है), और वेक्टर को पुन: स्केल करने के बाद <math>(d_1,\dotsc,d_n)</math> इकाई क्षेत्र पर एक [[समान वितरण (निरंतर)]] होगा <math>\mathbb{C}^n</math>. इससे उदाहरण के लिए संभावना को <math>|d_1| < \varepsilon</math> सीमित करना संभव हो जाता है .
प्रारंभिक लैंज़ोस वेक्टर के गुणांकों के लिए अंकन तय करना भी सुविधाजनक है <math>v_1</math> इस आइजनबेसिक के संबंध में; माना <math>d_k = z_k^* v_1</math> सभी के लिए <math>k=1,\dotsc,n</math>, ताकि <math> \textstyle v_1 = \sum_{k=1}^n d_k z_k</math> आरंभिक सदिश <math>v_1</math> कुछ आइजनअवयव के ख़त्म होने से संबंधित आइजनवैल्यू में अभिसरण में देरी होगी, और भले ही यह त्रुटि सीमा में स्थिर कारक के रूप में सामने आता है, कमी अवांछनीय बनी हुई है। लगातार इसकी चपेट में आने से बचने के लिए सामान्य तकनीक चुनना है <math>v_1</math> पहले माध्य के साथ समान [[सामान्य वितरण]] के अनुसार तत्वों को यादृच्छिक रूप से खींचकर <math>0</math> और फिर वेक्टर को मानक पर पुनः स्केल करें <math>1</math>. पुनर्स्केलिंग से पहले, यह गुणांक का कारण बनता है <math>d_k</math> समान सामान्य वितरण से स्वतंत्र सामान्य रूप से वितरित स्टोकेस्टिक चर भी होना चाहिए (क्योंकि निर्देशांक का परिवर्तन एकात्मक है), और वेक्टर को पुन: स्केल करने के बाद <math>(d_1,\dotsc,d_n)</math> इकाई क्षेत्र पर [[समान वितरण (निरंतर)]] होगा <math>\mathbb{C}^n</math>. इससे उदाहरण के लिए संभावना को <math>|d_1| < \varepsilon</math> सीमित करना संभव हो जाता है।


तथ्य यह है कि लैंज़ोस एल्गोरिदम समन्वय-अज्ञेयवादी है - ऑपरेशन केवल वैक्टर के आंतरिक उत्पादों को देखते हैं, कभी भी वैक्टर के व्यक्तिगत तत्वों को नहीं देखते हैं - एल्गोरिदम को चलाने के लिए ज्ञात आइजनस्ट्रक्चर के साथ उदाहरण बनाना सरल बनाता है: बनाना <math>A</math> विकर्ण पर वांछित आइजनवैल्यू ​​​​के साथ एक विकर्ण मैट्रिक्स; जब तक आरंभिक वेक्टर <math>v_1</math> पर्याप्त गैर-शून्य तत्व हैं, एल्गोरिथ्म एक सामान्य त्रिविकर्ण सममित मैट्रिक्स <math>T</math> को आउटपुट करेगा
तथ्य यह है कि लैंज़ोस एल्गोरिदम समन्वय-अज्ञेयवादी है - ऑपरेशन केवल वैक्टर के आंतरिक उत्पादों को देखते हैं, कभी भी वैक्टर के व्यक्तिगत तत्वों को नहीं देखते हैं - एल्गोरिदम को चलाने के लिए ज्ञात आइजनस्ट्रक्चर के साथ उदाहरण बनाना सरल बनाता है: बनाना <math>A</math> विकर्ण पर वांछित आइजनवैल्यू ​​​​के साथ विकर्ण मैट्रिक्स; जब तक आरंभिक वेक्टर <math>v_1</math> पर्याप्त गैर-शून्य तत्व हैं, एल्गोरिथ्म सामान्य त्रिविकर्ण सममित मैट्रिक्स <math>T</math> को आउटपुट करेगा।


===कनिएल-पेगे अभिसरण सिद्धांत===
===कनिएल-पेगे अभिसरण सिद्धांत===
माना <math>m</math> लैंज़ोस एल्गोरिदम के पुनरावृत्ति चरण, <math>T</math> एक <math>m \times m</math> वास्तविक सममित मैट्रिक्स, जो उपरोक्त के समान है <math>m</math> आइजनवैल्यू <math>\theta_1 \geqslant \theta_2 \geqslant \dots \geqslant \theta_m.</math> अभिसरण से मुख्यतः अभिसरण का तात्पर्य है <math>\theta_1</math> को <math>\lambda_1</math> (और का सममित अभिसरण <math>\theta_m</math> को <math>\lambda_n</math>) जैसा <math>m</math> बढ़ता है, और दूसरा कुछ सीमा का अभिसरण <math>\theta_1, \ldots, \theta_k</math> के आइजनवैल्यू ​​के <math>T</math> उनके समकक्षों के लिए <math>\lambda_1, \ldots, \lambda_k</math> का <math>A</math>. लैंज़ोस एल्गोरिदम के लिए अभिसरण अधिकांशतः पावर पुनरावृत्ति एल्गोरिदम की तुलना में तेज़ परिमाण का आदेश होता है।{{r|GolubVanLoan|p=477}}
माना <math>m</math> लैंज़ोस एल्गोरिदम के पुनरावृत्ति चरण, <math>T</math> एक <math>m \times m</math> वास्तविक सममित मैट्रिक्स, जो उपरोक्त के समान है <math>m</math> आइजनवैल्यू <math>\theta_1 \geqslant \theta_2 \geqslant \dots \geqslant \theta_m.</math> अभिसरण से मुख्यतः अभिसरण का तात्पर्य है <math>\theta_1</math> को <math>\lambda_1</math> (और का सममित अभिसरण <math>\theta_m</math> को <math>\lambda_n</math>) जैसा <math>m</math> बढ़ता है, और दूसरा कुछ सीमा का अभिसरण <math>\theta_1, \ldots, \theta_k</math> के आइजनवैल्यू ​​के <math>T</math> उनके समकक्षों के लिए <math>\lambda_1, \ldots, \lambda_k</math> का <math>A</math>. लैंज़ोस एल्गोरिदम के लिए अभिसरण अधिकांशतः पावर पुनरावृत्ति एल्गोरिदम की तुलना में तेज़ परिमाण का आदेश होता है।{{r|GolubVanLoan|p=477}}


के लिए सीमा <math>\theta_1</math> रेले भागफल के चरम मूल्यों के रूप में आइजनवैल्यू ​​​​की उपरोक्त व्याख्या से आते हैं <math>r(x)</math>. तब से <math>\lambda_1</math> एक प्राथमिकता अधिकतम है <math>r</math> कुल मिलाकर <math>\Complex^n,</math> जबकि <math>\theta_1</math> पर अधिकतम मात्र है <math>m</math>-आयामी क्रायलोव उपस्थान, हम तुच्छ रूप से प्राप्त करते हैं <math> \lambda_1 \geqslant \theta_1</math>. इसके विपरीत, कोई भी बिंदु <math>x</math> उसमें क्रायलोव उपस्थान निचली सीमा प्रदान करता है <math>r(x)</math> के लिए <math>\theta_1</math>, इसलिए यदि कोई बिंदु प्रदर्शित किया जा सकता है जिसके लिए <math>\lambda_1 - r(x)</math> छोटा है तो यह एक टाइट बाउंड प्रदान करता है <math>\theta_1</math>.
के लिए सीमा <math>\theta_1</math> रेले भागफल के चरम मूल्यों के रूप में आइजनवैल्यू ​​​​की उपरोक्त व्याख्या से आते हैं <math>r(x)</math>. तब से <math>\lambda_1</math> प्राथमिकता अधिकतम है <math>r</math> कुल मिलाकर <math>\Complex^n,</math> जबकि <math>\theta_1</math> पर अधिकतम मात्र है <math>m</math>-आयामी क्रायलोव उपस्थान, हम तुच्छ रूप से प्राप्त करते हैं <math> \lambda_1 \geqslant \theta_1</math>. इसके विपरीत, कोई भी बिंदु <math>x</math> उसमें क्रायलोव उपस्थान निचली सीमा प्रदान करता है <math>r(x)</math> के लिए <math>\theta_1</math>, इसलिए यदि कोई बिंदु प्रदर्शित किया जा सकता है जिसके लिए <math>\lambda_1 - r(x)</math> छोटा है तो यह टाइट बाउंड प्रदान करता <math>\theta_1</math>है।


आयाम <math>m</math> क्रायलोव उपस्थान है
आयाम <math>m</math> क्रायलोव उपस्थान है


:<math>\operatorname{span} \left \{v_1, A v_1, A^2 v_1, \ldots, A^{m-1} v_1 \right \},</math> अतः इसके किसी भी तत्व को इस प्रकार व्यक्त किया जा सकता है <math>p(A) v_1</math> कुछ बहुपद के लिए <math>p</math> अधिकतम डिग्री का <math>m-1</math>; उस बहुपद के गुणांक केवल सदिशों के रैखिक संयोजन के गुणांक हैं <math>v_1, A v_1, A^2 v_1, \ldots, A^{m-1} v_1 </math>. हम जो बहुपद चाहते हैं उसके वास्तविक गुणांक होंगे, लेकिन शायद हमें जटिल गुणांकों की भी अनुमति देनी चाहिए, और हम लिखेंगे <math>p^*</math> के सभी गुणांकों को सम्मिश्र संयुग्मन द्वारा प्राप्त बहुपद के लिए <math>p</math>. क्रायलोव उप-स्थान के इस पैरामीट्रिज़ेशन में, हमारे पास है
:<math>\operatorname{span} \left \{v_1, A v_1, A^2 v_1, \ldots, A^{m-1} v_1 \right \},</math> अतः इसके किसी भी तत्व को इस प्रकार व्यक्त किया जा सकता है <math>p(A) v_1</math> कुछ बहुपद के लिए <math>p</math> अधिकतम डिग्री का <math>m-1</math>; उस बहुपद के गुणांक केवल सदिशों के रैखिक संयोजन के गुणांक हैं <math>v_1, A v_1, A^2 v_1, \ldots, A^{m-1} v_1 </math>. हम जो बहुपद चाहते हैं उसके वास्तविक गुणांक होंगे, लेकिन शायद हमें जटिल गुणांकों की भी अनुमति देनी चाहिए, और हम लिखेंगे <math>p^*</math> के सभी गुणांकों को सम्मिश्र संयुग्मन द्वारा प्राप्त बहुपद के लिए <math>p</math>. क्रायलोव उप-स्थान के इस पैरामीट्रिज़ेशन में, हमारे पास है।


:<math>r(p(A)v_1) = \frac{(p(A) v_1)^* A p(A) v_1}{(p(A) v_1)^* p(A) v_1} = \frac{v_1^* p(A)^* A p(A) v_1}{v_1^* p(A)^* p(A) v_1} = \frac{v_1^* p^*(A^*) A p(A) v_1 }{v_1^* p^*(A^*) p(A) v_1} = \frac{ v_1^* p^*(A) A p(A) v_1 }{v_1^* p^*(A) p(A) v_1}</math>
:<math>r(p(A)v_1) = \frac{(p(A) v_1)^* A p(A) v_1}{(p(A) v_1)^* p(A) v_1} = \frac{v_1^* p(A)^* A p(A) v_1}{v_1^* p(A)^* p(A) v_1} = \frac{v_1^* p^*(A^*) A p(A) v_1 }{v_1^* p^*(A^*) p(A) v_1} = \frac{ v_1^* p^*(A) A p(A) v_1 }{v_1^* p^*(A) p(A) v_1}</math>
अब के लिए अभिव्यक्ति का उपयोग करना <math>v_1</math> आइजनवेक्टर के एक रैखिक संयोजन के रूप में, हमें मिलता है
अब के लिए अभिव्यक्ति का उपयोग करना <math>v_1</math> आइजनवेक्टर के रैखिक संयोजन के रूप में, हमें मिलता है


:<math> A v_1 = A \sum_{k=1}^n d_k z_k = \sum_{k=1}^n d_k \lambda_k z_k</math> और अधिक सामान्यतः
:<math> A v_1 = A \sum_{k=1}^n d_k z_k = \sum_{k=1}^n d_k \lambda_k z_k</math> और अधिक सामान्यतः
Line 180: Line 180:


:<math>\lambda_1 - r(p(A)v_1) = \lambda_1 - \frac{v_1^* \sum_{k=1}^n d_k p^*(\lambda_k) \lambda_k p(\lambda_k) z_k}{v_1^* \sum_{k=1}^n d_k p^*(\lambda_k) p(\lambda_k) z_k} = \lambda_1 - \frac{\sum_{k=1}^n |d_k|^2 \lambda_k p(\lambda_k)^* p(\lambda_k)}{\sum_{k=1}^n |d_k|^2 p(\lambda_k)^* p(\lambda_k)} = \frac{\sum_{k=1}^n |d_k|^2 (\lambda_1-\lambda_k) \left| p(\lambda_k) \right|^2 }{\sum_{k=1}^n |d_k|^2 \left| p(\lambda_k) \right|^2 }.</math>
:<math>\lambda_1 - r(p(A)v_1) = \lambda_1 - \frac{v_1^* \sum_{k=1}^n d_k p^*(\lambda_k) \lambda_k p(\lambda_k) z_k}{v_1^* \sum_{k=1}^n d_k p^*(\lambda_k) p(\lambda_k) z_k} = \lambda_1 - \frac{\sum_{k=1}^n |d_k|^2 \lambda_k p(\lambda_k)^* p(\lambda_k)}{\sum_{k=1}^n |d_k|^2 p(\lambda_k)^* p(\lambda_k)} = \frac{\sum_{k=1}^n |d_k|^2 (\lambda_1-\lambda_k) \left| p(\lambda_k) \right|^2 }{\sum_{k=1}^n |d_k|^2 \left| p(\lambda_k) \right|^2 }.</math>
यहां अंश और हर के बीच एक महत्वपूर्ण अंतर यह है कि <math>k=1</math> अंश में पद लुप्त हो जाता है, लेकिन हर में नहीं। इस प्रकार यदि कोई चुन सकता है <math>p</math> पर बड़ा होना <math>\lambda_1</math> लेकिन अन्य सभी आइजनवैल्यू ​​​​पर छोटा होने पर, किसी को त्रुटि पर कड़ी पकड़ मिलेगी <math>\lambda_1-\theta_1</math>.
यहां अंश और हर के बीच महत्वपूर्ण अंतर यह है कि <math>k=1</math> अंश में पद लुप्त हो जाता है, लेकिन हर में नहीं। इस प्रकार यदि कोई चुन सकता है <math>p</math> पर बड़ा होना <math>\lambda_1</math> लेकिन अन्य सभी आइजनवैल्यू ​​​​पर छोटा होने पर, किसी को त्रुटि पर <math>\lambda_1-\theta_1</math>कड़ी पकड़ मिलेगी।


तब से <math>A</math> की तुलना में कई अधिक स्वदेशी मान हैं <math>p</math> गुणांक है, यह एक लंबा क्रम प्रतीत हो सकता है, लेकिन इसे पूरा करने का एक विधि [[चेबीशेव बहुपद]] का उपयोग करना है। लिखना <math>c_k</math> डिग्री के लिए <math>k</math> पहली तरह का चेबीशेव बहुपद (जो संतुष्ट करता है <math>c_k(\cos x) = \cos(kx)</math> सभी के लिए <math>x</math>), हमारे पास एक बहुपद है जो सीमा में रहता है <math>[-1,1]</math> ज्ञात अंतराल पर <math>[-1,1]</math> लेकिन इसके बाहर तेजी से बढ़ता है। तर्क के कुछ स्केलिंग के साथ, हम इसे छोड़कर सभी आइजनवैल्यू ​​​​को मैप कर सकते हैं <math>\lambda_1</math> में <math>[-1,1]</math> माना
तब से <math>A</math> की तुलना में कई अधिक स्वदेशी मान हैं <math>p</math> गुणांक है, यह लंबा क्रम प्रतीत हो सकता है, लेकिन इसे पूरा करने का विधि [[चेबीशेव बहुपद]] का उपयोग करना है। लिखना <math>c_k</math> डिग्री के लिए <math>k</math> पहली तरह का चेबीशेव बहुपद (जो संतुष्ट करता है <math>c_k(\cos x) = \cos(kx)</math> सभी के लिए <math>x</math>), हमारे पास बहुपद है जो सीमा में रहता है <math>[-1,1]</math> ज्ञात अंतराल पर <math>[-1,1]</math> लेकिन इसके बाहर तेजी से बढ़ता है। तर्क के कुछ स्केलिंग के साथ, हम इसे छोड़कर सभी आइजनवैल्यू ​​​​को मैप कर सकते हैं <math>\lambda_1</math> में <math>[-1,1]</math> माना


:<math> p(x) = c_{m-1}\left( \frac{2x - \lambda_2 - \lambda_n}{\lambda_2 - \lambda_n} \right)</math> (यदि <math>\lambda_2=\lambda_1</math>, इसके अतिरिक्त सबसे बड़े आइजनवैल्यू का उपयोग करें जो कि इससे बिल्कुल कम है <math>\lambda_1</math>), फिर का अधिकतम मान <math>| p(\lambda_k)|^2</math> के लिए <math>k \geqslant 2</math> है <math>1</math> और न्यूनतम मूल्य है <math>0</math>, इसलिए
:<math> p(x) = c_{m-1}\left( \frac{2x - \lambda_2 - \lambda_n}{\lambda_2 - \lambda_n} \right)</math> (यदि <math>\lambda_2=\lambda_1</math>, इसके अतिरिक्त सबसे बड़े आइजनवैल्यू का उपयोग करें जो कि इससे बिल्कुल कम है <math>\lambda_1</math>), फिर का अधिकतम मान <math>| p(\lambda_k)|^2</math> के लिए <math>k \geqslant 2</math> है <math>1</math> और न्यूनतम मूल्य है <math>0</math>, इसलिए
Line 203: Line 203:
  &\leqslant 4 \frac{1 - |d_1|^2}{|d_1|^2} (\lambda_1-\lambda_n) R^{-2(m-1)}
  &\leqslant 4 \frac{1 - |d_1|^2}{|d_1|^2} (\lambda_1-\lambda_n) R^{-2(m-1)}
\end{align}</math>
\end{align}</math>
इस प्रकार अभिसरण दर को मुख्य रूप से नियंत्रित किया जाता है <math>R</math>, चूँकि यह सीमा एक कारक द्वारा सिकुड़ती है <math>R^{-2}</math> प्रत्येक अतिरिक्त पुनरावृत्ति के लिए.
इस प्रकार अभिसरण दर को मुख्य रूप से नियंत्रित किया जाता है <math>R</math>, चूँकि यह सीमा कारक द्वारा सिकुड़ती है <math>R^{-2}</math> प्रत्येक अतिरिक्त पुनरावृत्ति के लिए.


तुलना के लिए, कोई इस बात पर विचार कर सकता है कि विद्युत विधि की अभिसरण दर किस प्रकार निर्भर करती है <math>\rho</math>, लेकिन चूँकि शक्ति विधि मुख्य रूप से आइजनवैल्यू ​​​​के निरपेक्ष मूल्यों के बीच भागफल के प्रति संवेदनशील है, हमें इसकी आवश्यकता है <math>|\lambda_n| \leqslant |\lambda_2|</math> बीच के ईगेंगैप के लिए <math>\lambda_1</math> और <math>\lambda_2</math> प्रमुख होना. उस बाधा के अंतर्गत, वह स्थितियों जो शक्ति पद्धति को सबसे अधिक पसंद करता है <math>\lambda_n = -\lambda_2</math>, तो उस पर विचार करें। शक्ति विधि में देर से, पुनरावृत्ति वेक्टर:
तुलना के लिए, कोई इस बात पर विचार कर सकता है कि विद्युत विधि की अभिसरण दर किस प्रकार निर्भर करती है <math>\rho</math>, लेकिन चूँकि शक्ति विधि मुख्य रूप से आइजनवैल्यू ​​​​के निरपेक्ष मूल्यों के बीच भागफल के प्रति संवेदनशील है, हमें इसकी आवश्यकता है <math>|\lambda_n| \leqslant |\lambda_2|</math> बीच के ईगेंगैप के लिए <math>\lambda_1</math> और <math>\lambda_2</math> प्रमुख होना. उस बाधा के अंतर्गत, वह स्थितियों जो शक्ति पद्धति को सबसे अधिक पसंद करता है <math>\lambda_n = -\lambda_2</math>, तो उस पर विचार करें। शक्ति विधि में देर से, पुनरावृत्ति वेक्टर:
Line 218: Line 218:


:<math>\lambda_1 - u^*Au = (\lambda_1-\lambda_2) t^2,</math>
:<math>\lambda_1 - u^*Au = (\lambda_1-\lambda_2) t^2,</math>
जो एक कारक से सिकुड़ता है <math>(1+2\rho)^{-2}</math> प्रत्येक पुनरावृत्ति के लिए. इस प्रकार यह अंतर बीच में ही सिमट कर रह जाता है <math> 1+2\rho </math> और <math>R = 1 + 2\rho + 2\sqrt{\rho^2+\rho}</math>. में <math>\rho \gg 1</math> क्षेत्र, बाद वाला अधिक पसंद है <math> 1+4\rho </math>, और दोगुने बड़े ईजेंगैप के साथ पावर विधि की तरह प्रदर्शन करता है; एक उल्लेखनीय सुधार. चुकीं, अधिक चुनौतीपूर्ण मामला यह है <math> \rho \ll 1,</math> जिसमें <math>R \approx 1 + 2\sqrt{\rho} </math> ईजेंगैप पर और भी बड़ा सुधार है; <math> \rho \gg 1 </math> वह क्षेत्र है जहां लैंज़ोस एल्गोरिदम अभिसरण-वार पावर विधि पर सबसे छोटा सुधार करता है।
जो कारक से सिकुड़ता है <math>(1+2\rho)^{-2}</math> प्रत्येक पुनरावृत्ति के लिए. इस प्रकार यह अंतर बीच में ही सिमट कर रह जाता है <math> 1+2\rho </math> और <math>R = 1 + 2\rho + 2\sqrt{\rho^2+\rho}</math>. में <math>\rho \gg 1</math> क्षेत्र, बाद वाला अधिक पसंद है <math> 1+4\rho </math>, और दोगुने बड़े ईजेंगैप के साथ पावर विधि की तरह प्रदर्शन करता है उल्लेखनीय सुधार. चुकीं, अधिक चुनौतीपूर्ण मामला यह है <math> \rho \ll 1,</math> जिसमें <math>R \approx 1 + 2\sqrt{\rho} </math> ईजेंगैप पर और भी बड़ा सुधार है; <math> \rho \gg 1 </math> वह क्षेत्र है जहां लैंज़ोस एल्गोरिदम अभिसरण-वार पावर विधि पर सबसे छोटा सुधार करता है।


==संख्यात्मक स्थिरता==
==संख्यात्मक स्थिरता==
स्थिरता का अर्थ है कि यदि छोटी-छोटी संख्यात्मक त्रुटियां पेश की जाती हैं और जमा हो जाती हैं तो एल्गोरिदम कितना प्रभावित होगा (अर्थात् क्या यह मूल परिणाम के करीब अनुमानित परिणाम देगा)। राउंडऑफ़ वाले कंप्यूटर पर एल्गोरिदम को प्रयुक्त करने की उपयोगिता का आकलन करने के लिए संख्यात्मक स्थिरता केंद्रीय मानदंड है।
स्थिरता का अर्थ है कि यदि छोटी-छोटी संख्यात्मक त्रुटियां पेश की जाती हैं और जमा हो जाती हैं तो एल्गोरिदम कितना प्रभावित होगा (अर्थात् क्या यह मूल परिणाम के करीब अनुमानित परिणाम देगा)। राउंडऑफ़ वाले कंप्यूटर पर एल्गोरिदम को प्रयुक्त करने की उपयोगिता का आकलन करने के लिए संख्यात्मक स्थिरता केंद्रीय मानदंड है।


लैंज़ोस एल्गोरिदम के लिए, यह साबित किया जा सकता है कि सटीक अंकगणित के साथ, वैक्टर का सेट <math>v_1, v_2, \cdots, v_{m+1}</math> एक ऑर्थोनॉर्मल आधार का निर्माण करता है, और हल किए गए आइजनवैल्यू/वेक्टर मूल मैट्रिक्स के अच्छे अनुमान हैं। चुकीं, व्यवहार में (चूंकि गणना फ्लोटिंग पॉइंट अंकगणित में की जाती है जहां अशुद्धि अपरिहार्य है), ऑर्थोगोनैलिटी जल्दी से खो जाती है और कुछ मामलों में नया वेक्टर पहले से निर्मित सेट पर रैखिक रूप से निर्भर भी हो सकता है। परिणामस्वरूप, परिणामी त्रिविकर्ण मैट्रिक्स के कुछ आइजनवैल्यू ​​मूल मैट्रिक्स के सन्निकटन नहीं हो सकते हैं। इसलिए, लैंज़ोस एल्गोरिदम बहुत स्थिर नहीं है।
लैंज़ोस एल्गोरिदम के लिए, यह साबित किया जा सकता है कि सटीक अंकगणित के साथ, वैक्टर का सेट <math>v_1, v_2, \cdots, v_{m+1}</math> ऑर्थोनॉर्मल आधार का निर्माण करता है, और हल किए गए आइजनवैल्यू/वेक्टर मूल मैट्रिक्स के अच्छे अनुमान हैं। चुकीं, व्यवहार में (चूंकि गणना फ्लोटिंग पॉइंट अंकगणित में की जाती है जहां अशुद्धि अपरिहार्य है), ऑर्थोगोनैलिटी जल्दी से खो जाती है और कुछ मामलों में नया वेक्टर पहले से निर्मित सेट पर रैखिक रूप से निर्भर भी हो सकता है। परिणामस्वरूप, परिणामी त्रिविकर्ण मैट्रिक्स के कुछ आइजनवैल्यू ​​मूल मैट्रिक्स के सन्निकटन नहीं हो सकते हैं। इसलिए, लैंज़ोस एल्गोरिदम बहुत स्थिर नहीं है।


इस एल्गोरिदम के उपयोगकर्ताओं को उन नकली आइजनवैल्यू ​​​​को खोजने और हटाने में सक्षम होना चाहिए। लैंज़ोस एल्गोरिदम का व्यावहारिक कार्यान्वयन इस स्थिरता के मुद्दे से लड़ने के लिए तीन दिशाओं में जाता है:<ref name="CW1985"/><ref name="Saad1992"/>
इस एल्गोरिदम के उपयोगकर्ताओं को उन नकली आइजनवैल्यू ​​​​को खोजने और हटाने में सक्षम होना चाहिए। लैंज़ोस एल्गोरिदम का व्यावहारिक कार्यान्वयन इस स्थिरता के मुद्दे से लड़ने के लिए तीन दिशाओं में जाता है:<ref name="CW1985"/><ref name="Saad1992"/>
Line 234: Line 234:
लैंज़ोस एल्गोरिदम पर भिन्नताएं उपस्थित हैं जहां सम्मिलित वेक्टर वेक्टर के बजाय लंबे, संकीर्ण मैट्रिक्स हैं और सामान्यीकरण स्थिरांक छोटे वर्ग मैट्रिक्स हैं। इन्हें ब्लॉक लैंज़ोस एल्गोरिदम कहा जाता है और बड़ी संख्या में रजिस्टरों और लंबी मेमोरी-फ़ेच समय वाले कंप्यूटरों पर यह बहुत तेज़ हो सकता है।
लैंज़ोस एल्गोरिदम पर भिन्नताएं उपस्थित हैं जहां सम्मिलित वेक्टर वेक्टर के बजाय लंबे, संकीर्ण मैट्रिक्स हैं और सामान्यीकरण स्थिरांक छोटे वर्ग मैट्रिक्स हैं। इन्हें ब्लॉक लैंज़ोस एल्गोरिदम कहा जाता है और बड़ी संख्या में रजिस्टरों और लंबी मेमोरी-फ़ेच समय वाले कंप्यूटरों पर यह बहुत तेज़ हो सकता है।


लैंज़ोस एल्गोरिदम के कई कार्यान्वयन एक निश्चित संख्या में पुनरावृत्तियों के बाद पुनः आरंभ होते हैं। सबसे प्रभावशाली पुनः आरंभ की गई विविधताओं में से एक अंतर्निहित रूप से पुनः आरंभ की गई लैंज़ोस पद्धति है,<ref>{{cite journal |author1=D. Calvetti |author1-link= Daniela Calvetti |author2=L. Reichel |author3=D.C. Sorensen |year=1994 |title=बड़े सममित आइजेनवैल्यू समस्याओं के लिए एक अंतर्निहित रूप से पुनः आरंभ की गई लैंज़ोस विधि|url=http://etna.mcs.kent.edu/vol.2.1994/pp1-21.dir/pp1-21.ps|
लैंज़ोस एल्गोरिदम के कई कार्यान्वयन निश्चित संख्या में पुनरावृत्तियों के बाद पुनः आरंभ होते हैं। सबसे प्रभावशाली पुनः आरंभ की गई विविधताओं में से अंतर्निहित रूप से पुनः आरंभ की गई लैंज़ोस पद्धति है,<ref>{{cite journal |author1=D. Calvetti |author1-link= Daniela Calvetti |author2=L. Reichel |author3=D.C. Sorensen |year=1994 |title=बड़े सममित आइजेनवैल्यू समस्याओं के लिए एक अंतर्निहित रूप से पुनः आरंभ की गई लैंज़ोस विधि|url=http://etna.mcs.kent.edu/vol.2.1994/pp1-21.dir/pp1-21.ps|
     journal = [[Electronic Transactions on Numerical Analysis]]|
     journal = [[Electronic Transactions on Numerical Analysis]]|
     volume = 2|
     volume = 2|
Line 241: Line 241:




===एक परिमित क्षेत्र पर शून्यस्थान===
===परिमित क्षेत्र पर शून्यस्थान===
{{Main|लैंज़ोस एल्गोरिदम को ब्लॉक करें}}
{{Main|लैंज़ोस एल्गोरिदम को ब्लॉक करें}}


1995 में, [[पीटर मोंटगोमरी (गणितज्ञ)]] ने [[GF(2)]] पर एक बड़े विरल मैट्रिक्स के [[कर्नेल (मैट्रिक्स)]] के तत्वों को खोजने के लिए लैंज़ोस एल्गोरिदम पर आधारित एक एल्गोरिदम प्रकाशित किया; चूँकि परिमित क्षेत्रों में बड़े विरल मैट्रिक्स में रुचि रखने वाले लोगों का समूह और बड़ी स्वदेशी समस्याओं में रुचि रखने वाले लोगों का समूह शायद ही ओवरलैप होता है, इसे अधिकांशतः अनुचित भ्रम पैदा किए बिना ब्लॉक लैंज़ो एल्गोरिदम भी कहा जाता है।{{Citation needed|date=June 2011}}
1995 में, [[पीटर मोंटगोमरी (गणितज्ञ)]] ने [[GF(2)]] पर बड़े विरल मैट्रिक्स के [[कर्नेल (मैट्रिक्स)]] के तत्वों को खोजने के लिए लैंज़ोस एल्गोरिदम पर आधारित एल्गोरिदम प्रकाशित किया; चूँकि परिमित क्षेत्रों में बड़े विरल मैट्रिक्स में रुचि रखने वाले लोगों का समूह और बड़ी स्वदेशी समस्याओं में रुचि रखने वाले लोगों का समूह शायद ही ओवरलैप होता है, इसे अधिकांशतः अनुचित भ्रम पैदा किए बिना ब्लॉक लैंज़ो एल्गोरिदम भी कहा जाता है।


==अनुप्रयोग==
==अनुप्रयोग==
लैंज़ोस एल्गोरिदम बहुत आकर्षक हैं क्योंकि गुणा <math>A\,</math> एकमात्र बड़े पैमाने का रैखिक ऑपरेशन है। चूंकि भारित-अवधि पाठ पुनर्प्राप्ति इंजन केवल इस ऑपरेशन को कार्यान्वित करते हैं, लैंज़ोस एल्गोरिदम को पाठ दस्तावेज़ों पर कुशलतापूर्वक प्रयुक्त किया जा सकता है ([[अव्यक्त अर्थ अनुक्रमण]]िका देखें)। आइजनवेक्टर बड़े पैमाने पर रैंकिंग विधियों के लिए भी महत्वपूर्ण हैं जैसे कि [[जॉन क्लेनबर्ग]] द्वारा विकसित एचआईटीएस एल्गोरिदम, या गूगल द्वारा उपयोग किया जाने वाला [[ पृष्ठ रैंक ]] एल्गोरिदम।
लैंज़ोस एल्गोरिदम बहुत आकर्षक हैं क्योंकि गुणा <math>A\,</math> एकमात्र बड़े पैमाने का रैखिक ऑपरेशन है। चूंकि भारित-अवधि पाठ पुनर्प्राप्ति इंजन केवल इस ऑपरेशन को कार्यान्वित करते हैं, लैंज़ोस एल्गोरिदम को पाठ दस्तावेज़ों पर कुशलतापूर्वक प्रयुक्त किया जा सकता है ([[अव्यक्त अर्थ अनुक्रमण]] देखें)। आइजनवेक्टर बड़े पैमाने पर रैंकिंग विधियों के लिए भी महत्वपूर्ण हैं जैसे कि [[जॉन क्लेनबर्ग]] द्वारा विकसित एचआईटीएस एल्गोरिदम, या गूगल द्वारा उपयोग किया जाने वाला [[ पृष्ठ रैंक |पृष्ठ रैंक]] एल्गोरिदम।


लैंज़ोस एल्गोरिदम का उपयोग [[संघनित पदार्थ भौतिकी]] में [[दृढ़ता से सहसंबद्ध सामग्री]] के [[हैमिल्टनियन मैट्रिक्स]] को हल करने की एक विधि के रूप में भी किया जाता है,<ref>{{cite journal|last=Chen|first=HY|author2=Atkinson, W.A. |author3=Wortis, R. |title=Disorder-induced zero-bias anomaly in the Anderson-Hubbard model: Numerical and analytical calculations|journal=Physical Review B|date=July 2011|volume=84|issue=4|pages=045113|doi=10.1103/PhysRevB.84.045113|arxiv=1012.1031|bibcode=2011PhRvB..84d5113C|s2cid=118722138}}</ref> साथ ही [[परमाणु भौतिकी]] में [[परमाणु शेल मॉडल]] कोड में भी।<ref>{{cite arXiv|last=Shimizu|first=Noritaka|title=बड़े पैमाने पर समानांतर गणना के लिए परमाणु शेल-मॉडल कोड, "KSHELL"|eprint=1310.5431|date=21 October 2013|class=nucl-th}}</ref>
लैंज़ोस एल्गोरिदम का उपयोग [[संघनित पदार्थ भौतिकी]] में [[दृढ़ता से सहसंबद्ध सामग्री]] के [[हैमिल्टनियन मैट्रिक्स]] को हल करने की विधि के रूप में भी किया जाता है,<ref>{{cite journal|last=Chen|first=HY|author2=Atkinson, W.A. |author3=Wortis, R. |title=Disorder-induced zero-bias anomaly in the Anderson-Hubbard model: Numerical and analytical calculations|journal=Physical Review B|date=July 2011|volume=84|issue=4|pages=045113|doi=10.1103/PhysRevB.84.045113|arxiv=1012.1031|bibcode=2011PhRvB..84d5113C|s2cid=118722138}}</ref> साथ ही [[परमाणु भौतिकी]] में [[परमाणु शेल मॉडल]] कोड में भी।<ref>{{cite arXiv|last=Shimizu|first=Noritaka|title=बड़े पैमाने पर समानांतर गणना के लिए परमाणु शेल-मॉडल कोड, "KSHELL"|eprint=1310.5431|date=21 October 2013|class=nucl-th}}</ref>




==कार्यान्वयन==
==कार्यान्वयन==
[[एनएजी न्यूमेरिकल लाइब्रेरी]] में कई रूटीन सम्मिलित हैं<ref>{{ cite web | author = The Numerical Algorithms Group  | title = Keyword Index: Lanczos | work = NAG Library Manual, Mark 23 | url = http://www.nag.co.uk/numeric/fl/nagdoc_fl23/html/INDEXES/KWIC/lanczos.html | access-date = 2012-02-09 }}</ref> बड़े पैमाने पर रैखिक प्रणालियों और ईजेनसमस्याओं के समाधान के लिए जो लैंज़ोस एल्गोरिदम का उपयोग करते हैं।
[[एनएजी न्यूमेरिकल लाइब्रेरी]] में कई रूटीन सम्मिलित हैं<ref>{{ cite web | author = The Numerical Algorithms Group  | title = Keyword Index: Lanczos | work = NAG Library Manual, Mark 23 | url = http://www.nag.co.uk/numeric/fl/nagdoc_fl23/html/INDEXES/KWIC/lanczos.html | access-date = 2012-02-09 }}</ref> बड़े पैमाने पर रैखिक प्रणालियों और आइजनसमस्याओं के समाधान के लिए जो लैंज़ोस एल्गोरिदम का उपयोग करते हैं।


[[MATLAB]] और GNU ऑक्टेव ARPACK बिल्ट-इन के साथ आते हैं। संग्रहीत और अंतर्निहित दोनों मैट्रिक्स का विश्लेषण eigs() फलन ([http://www.mathworks.com/help/techdoc/ref/eigs.html Matlab]/[https://www.gnu.org/software/octave/doc/interpreter/Sparse-Linear-Algebra.html#doc_002deigs Octave]) के माध्यम से किया जा सकता है।
[[MATLAB]] और GNU ऑक्टेव ARPACK बिल्ट-इन के साथ आते हैं। संग्रहीत और अंतर्निहित दोनों मैट्रिक्स का विश्लेषण eigs() फलन ([http://www.mathworks.com/help/techdoc/ref/eigs.html Matlab]/[https://www.gnu.org/software/octave/doc/interpreter/Sparse-Linear-Algebra.html#doc_002deigs Octave]) के माध्यम से किया जा सकता है।


इसी तरह, Python_(प्रोग्रामिंग_भाषा) में, [[SciPy]] पैकेज में [https://docs.scipy.org/doc/scipy/reference/generated/scipy.sparse.linalg.eigsh.html scipy.sparse.linalg.eigsh] है, जो ARPACK के SSEUPD और DSEUPD फ़ंक्शंस फ़ंक्शंस के लिए एक रैपर भी है जो इम्प्लिसिटली रीस्टार्टेड लैंक्ज़ोस विधि का उपयोग करता है।
इसी तरह, पायथन_(प्रोग्रामिंग_भाषा) में, [[SciPy]] पैकेज में [https://docs.scipy.org/doc/scipy/reference/generated/scipy.sparse.linalg.eigsh.html scipy.sparse.linalg.eigsh] है, जो ARPACK के SSEUPD और DSEUPD फलन के लिए रैपर भी है जो इम्प्लिसिटली रीस्टार्टेड लैंक्ज़ोस विधि का उपयोग करता है।


लैंज़ोस एल्गोरिथ्म का एक मैटलैब कार्यान्वयन (सटीक मुद्दों पर ध्यान दें) [https://www.cs.cmu.edu/~bickson/gabp/#download गॉसियन बिलीफ प्रोपेगेशन मैटलैब पैकेज] के एक भाग के रूप में उपलब्ध है। [[ग्राफलैब]]<ref>[http://www.graphlab.ml.cmu.edu/pmf.html GraphLab] {{webarchive|url=https://web.archive.org/web/20110314171151/http://www.graphlab.ml.cmu.edu/pmf.html |date=2011-03-14 }}</ref> सहयोगी फ़िल्टरिंग लाइब्रेरी में मल्टीकोर के लिए लैंज़ोस एल्गोरिदम (c ++ में) के बड़े पैमाने पर समानांतर कार्यान्वयन सम्मिलित है।
लैंज़ोस एल्गोरिथ्म का मैटलैब कार्यान्वयन (सटीक मुद्दों पर ध्यान दें) [https://www.cs.cmu.edu/~bickson/gabp/#download गॉसियन बिलीफ प्रोपेगेशन मैटलैब पैकेज] के भाग के रूप में उपलब्ध है। [[ग्राफलैब]]<ref>[http://www.graphlab.ml.cmu.edu/pmf.html GraphLab] {{webarchive|url=https://web.archive.org/web/20110314171151/http://www.graphlab.ml.cmu.edu/pmf.html |date=2011-03-14 }}</ref> सहयोगी फ़िल्टरिंग लाइब्रेरी में मल्टीकोर के लिए लैंज़ोस एल्गोरिदम (c ++ में) के बड़े पैमाने पर समानांतर कार्यान्वयन सम्मिलित है।


[http://www.cs.wm.edu/~andreas/software/ PRIMME] लाइब्रेरी लैंज़ोस जैसा एल्गोरिदम भी प्रयुक्त करती है।
[http://www.cs.wm.edu/~andreas/software/ PRIMME] लाइब्रेरी लैंज़ोस जैसा एल्गोरिदम भी प्रयुक्त करती है।
Line 278: Line 278:
{{Numerical linear algebra}}
{{Numerical linear algebra}}


{{DEFAULTSORT:Lanczos Algorithm}}[[Category: संख्यात्मक रैखिक बीजगणित]]
{{DEFAULTSORT:Lanczos Algorithm}}


 
[[Category:Articles with hatnote templates targeting a nonexistent page|Lanczos Algorithm]]
 
[[Category:CS1 errors]]
[[Category: Machine Translated Page]]
[[Category:Collapse templates|Lanczos Algorithm]]
[[Category:Created On 24/07/2023]]
[[Category:Created On 24/07/2023|Lanczos Algorithm]]
[[Category:Lua-based templates|Lanczos Algorithm]]
[[Category:Machine Translated Page|Lanczos Algorithm]]
[[Category:Navigational boxes| ]]
[[Category:Navigational boxes without horizontal lists|Lanczos Algorithm]]
[[Category:Pages with script errors|Lanczos Algorithm]]
[[Category:Short description with empty Wikidata description|Lanczos Algorithm]]
[[Category:Sidebars with styles needing conversion|Lanczos Algorithm]]
[[Category:Template documentation pages|Documentation/doc]]
[[Category:Templates Vigyan Ready|Lanczos Algorithm]]
[[Category:Templates generating microformats|Lanczos Algorithm]]
[[Category:Templates that add a tracking category|Lanczos Algorithm]]
[[Category:Templates that are not mobile friendly|Lanczos Algorithm]]
[[Category:Templates that generate short descriptions|Lanczos Algorithm]]
[[Category:Templates using TemplateData|Lanczos Algorithm]]
[[Category:Webarchive template wayback links]]
[[Category:Wikipedia metatemplates|Lanczos Algorithm]]
[[Category:संख्यात्मक रैखिक बीजगणित|Lanczos Algorithm]]

Latest revision as of 11:34, 11 August 2023

लैंज़ोस एल्गोरिदम कॉर्नेलियस लैंज़ोस द्वारा प्रस्तुत की गई पुनरावृत्तीय विधि है। जो खोजने के लिए शक्ति पुनरावृत्ति का अनुकूलन है सबसे उपयोगी (अति उच्चतम/निम्नतम की ओर रुझान) आइजनवैल्यू ​​​​और आइजनवेक्टर हर्मिटियन मैट्रिक्स, जहाँ अधिकांशतः होता है लेकिन आवश्यक नहीं कि उससे बहुत छोटा हो [1] यद्यपि सैद्धांतिक रूप से कम्प्यूटेशनल रूप से कुशल, प्रारंभिक रूप से तैयार की गई विधि अपनी संख्यात्मक स्थिरता के कारण उपयोगी नहीं थी।

1970 में, ओजाल्वो और न्यूमैन ने दिखाया कि विधि को संख्यात्मक रूप से स्थिर कैसे बनाया जाए और इसे गतिशील लोडिंग के अधीन बहुत बड़ी इंजीनियरिंग संरचनाओं के समाधान में प्रयुक्त किया जाए।[2] यह लैंज़ोस वैक्टर को शुद्ध करने के लिए विधि का उपयोग करके प्राप्त किया गया था। (अर्थात् प्रत्येक नए जेनरेट किए गए वेक्टर को पहले से जेनरेट किए गए सभी के साथ बार-बार पुन: व्यवस्थित करके)[2] सटीकता की किसी भी डिग्री तक, जब प्रदर्शन नहीं किया गया, तो वैक्टरों की श्रृंखला उत्पन्न हुई जो सबसे कम प्राकृतिक आवृत्तियों से जुड़े वैक्टरों द्वारा अत्यधिक दूषित थीं।

अपने मूल काम में, इन लेखकों ने यह भी सुझाव दिया कि प्रारंभिक वेक्टर का चयन कैसे करें (अर्थात् प्रारंभिक वेक्टर के प्रत्येक तत्व का चयन करने के लिए यादृच्छिक संख्या जेनरेटर का उपयोग करें) और निर्धारण के लिए अनुभवजन्य रूप से निर्धारित विधि का सुझाव दिया , सदिशों की कम संख्या (अर्थात इसे वांछित सटीक आइजनवैल्यू ​​​​की संख्या का लगभग 1.5 गुना चुना जाना चाहिए)। इसके तुरंत बाद उनके काम का अनुसरण पेगे ने किया, जिन्होंने त्रुटि विश्लेषण भी प्रदान किया।[3][4] 1988 में, ओजाल्वो ने इस एल्गोरिदम का अधिक विस्तृत इतिहास और कुशल आइजनवैल्यू त्रुटि परीक्षण तैयार किया।[5]


एल्गोरिदम

हर्मिटियन मैट्रिक्स इनपुट करें आकार का , और वैकल्पिक रूप से कई पुनरावृत्तियाँ (डिफ़ॉल्ट के रूप में, माना ).
  • सच कहूँ तो, एल्गोरिदम को स्पष्ट मैट्रिक्स तक पहुंच की आवश्यकता नहीं है, किन्तु केवल फलन की आवश्यकता है जो मनमाना वेक्टर द्वारा मैट्रिक्स के उत्पाद की गणना करता है। इस फलन को अधिक से अधिक बार कॉल किया जाता है।
आउटपुट आव्यूह रूढ़िवादिता कॉलम और त्रिविकर्ण मैट्रिक्स वास्तविक सममित मैट्रिक्स के साथ आकार का . अगर , तब एकात्मक मैट्रिक्स है, और .
चेतावनी लैंज़ोस पुनरावृत्ति संख्यात्मक अस्थिरता से ग्रस्त है। गैर-सटीक अंकगणित में निष्पादित होने पर, परिणामों की वैधता सुनिश्चित करने के लिए अतिरिक्त उपाय (जैसा कि बाद के अनुभागों में बताया गया है) किए जाने चाहिए।
  1. माना यूक्लिडियन मानदंड के साथ मनमाना वेक्टर बनें
  2. संक्षिप्त प्रारंभिक पुनरावृत्ति चरण:
    1. माना .
    2. माना .
    3. माना .
  3. के लिए करना:
    1. माना (यूक्लिडियन मानदंड भी)
    2. अगर , तो करने दें ,
      अन्यथा इस रूप में चुनें यूक्लिडियन मानदंड के साथ मनमाना वेक्टर यह सभी के लिए ओर्थोगोनल है।
    3. माना .
    4. माना .
    5. माना .
  4. माना कॉलम के साथ मैट्रिक्स बनें . माना .
टिप्पणी के लिए .

पुनरावृत्ति प्रक्रिया को लिखने के सैद्धांतिक रूप से चार विधि हैं। पेगे और अन्य कार्यों से पता चलता है कि संचालन का उपरोक्त क्रम संख्यात्मक रूप से सबसे स्थिर है।[6][7]

व्यवहार में प्रारंभिक वेक्टर प्रक्रिया के अन्य तर्क के रूप में लिया जा सकता है और संख्यात्मक अशुद्धि के संकेतकों को अतिरिक्त लूप समाप्ति शर्तों के रूप में सम्मिलित किया जा रहा है।

मैट्रिक्स-वेक्टर गुणन की गणना न करते हुए, प्रत्येक पुनरावृत्ति करता है अंकगणितीय परिचालन. मैट्रिक्स-वेक्टर गुणन किया जा सकता है अंकगणितीय संक्रियाएँ जहाँ एक पंक्ति में शून्येतर तत्वों की औसत संख्या है। कुल जटिलता इस प्रकार है , या अगर ; लैंज़ोस एल्गोरिदम विरल मैट्रिक्स के लिए बहुत तेज़ हो सकता है। संख्यात्मक स्थिरता में सुधार के लिए योजनाओं को सामान्यतः इस उच्च प्रदर्शन के आधार पर आंका जाता है।

वैक्टर लैंज़ोस वैक्टर कहलाते हैं।

सदिश के बाद उपयोग नहीं किया जाता है गणना की जाती है, और वेक्टर के बाद उपयोग नहीं किया जाता है गणना की जाती है. इसलिए कोई भी तीनों के लिए एक ही भंडारण का उपयोग कर सकता है। इसी तरह, यदि केवल त्रिविकर्ण मैट्रिक्स मांगा जाता है, तो कच्चे पुनरावर्तन की आवश्यकता नहीं होती गणना करने के बाद , चुकीं संख्यात्मक स्थिरता में सुधार के लिए कुछ योजनाओं को बाद में इसकी आवश्यकता होगी। कभी-कभी बाद के लैंज़ोस वैक्टर की पुनर्गणना की जाती है जब आवश्यक है।

आइजन समस्याएं के लिए आवेदन

लैंज़ोस एल्गोरिदम को अधिकांशतः मैट्रिक्स के आइजनवैल्यू और आइजनवेक्टर खोजने के संदर्भ में लाया जाता है, लेकिन जबकि सामान्य मैट्रिक्स विकर्णीकरण आइजनवेक्टर और आइजनवैल्यू को निरीक्षण से स्पष्ट कर देगा, वही लैंज़ोस एल्गोरिदम द्वारा किए गए ट्राइडिएगोनलाइज़ेशन के लिए सच नहीं है; एक भी आइजेनवैल्यू या आइजेनवेक्टर की गणना करने के लिए गैर-तुच्छ अतिरिक्त चरणों की आवश्यकता होती है। फिर भी, लैंज़ोस एल्गोरिथ्म को प्रयुक्त करना अधिकांशतः आइगेंडेकंपोजीशन की गणना में महत्वपूर्ण कदम है। अगर का प्रतिरूप है , और अगर ( का आइजेनवेक्टर है) तब का संगत आइजेनवेक्टर है (तब से ). इस प्रकार लैंज़ोस एल्गोरिथ्म आइजनसंयोजन समस्या को बदल देता है आइजनसंयोजन समस्या के लिए ,

  1. त्रिविकर्ण मैट्रिक्स के लिए, कई विशिष्ट एल्गोरिदम उपस्थित हैं, जो अधिकांशतः सामान्य-उद्देश्य एल्गोरिदम की तुलना में बेहतर कम्प्यूटेशनल जटिलता के साथ होते हैं। उदाहरण के लिए, यदि एक त्रिविकर्ण सममित मैट्रिक्स तब:
    • त्रिविकर्ण मैट्रिक्स#निर्धारक विशेषता बहुपद की गणना करने की अनुमति देता है संचालन, और बिंदु पर इसका मूल्यांकन करना परिचालन
    • डिवाइड आइजनवैल्यू एल्गोरिदम का उपयोग संपूर्ण आइजनसंयोजन की गणना करने के लिए किया जा सकता है में परिचालन
    • फास्ट मल्टीपोल विधि[8] सभी आइजनवैल्यू ​​​​की गणना बस में कर सकते हैं परिचालन
  2. कुछ सामान्य आइजनसंयोजन एल्गोरिदम, विशेष रूप से QR एल्गोरिदम, सामान्य मैट्रिक्स की तुलना में त्रिविकर्ण मैट्रिक्स के लिए तेजी से अभिसरण करने के लिए जाने जाते हैं। त्रिविकर्ण QR की स्पर्शोन्मुख जटिलता है ठीक वैसे ही जैसे कि डिवाइड करो और जीतो एल्गोरिथ्म के लिए (चुकीं स्थिर कारक भिन्न हो सकता है); चूँकि आइजनवेक्टर एक साथ हैं तत्व, यह स्पर्शोन्मुख रूप से इष्टतम है।
  3. यहां तक ​​कि एल्गोरिदम जिनकी अभिसरण दरें एकात्मक परिवर्तनों से अप्रभावित हैं, जैसे कि शक्ति विधि और व्युत्क्रम पुनरावृत्ति, त्रिविकर्ण मैट्रिक्स पर प्रयुक्त होने से निम्न-स्तरीय प्रदर्शन लाभ का आनंद ले सकते हैं मूल मैट्रिक्स के अतिरिक्त . तब से अत्यधिक पूर्वानुमानित स्थितियों में सभी गैर-शून्य तत्वों के साथ बहुत विरल है, यह कैश (कंप्यूटिंग) की तुलना में उत्कृष्ट प्रदर्शन के साथ कॉम्पैक्ट स्टोरेज की अनुमति देता है। वैसे ही, जबकि सभी आइजनवेक्टर और आइजनवैल्यू ​​​​वास्तविक के साथ वास्तविक संख्या मैट्रिक्स है सामान्य तौर पर इसमें जटिल तत्व और आइजनवेक्टर हो सकते हैं, इसलिए वास्तविक अंकगणित आइजनवेक्टर और आइजनवेक्टर खोजने के लिए पर्याप्त है।
  4. अगर बहुत बड़ा है, फिर घट रहा है जिससे प्रबंधनीय आकार का होने पर भी यह अधिक चरम आइजनवैल्यू और आइजनवेक्टर खोजने की अनुमति देगा ; में क्षेत्र में, लैंज़ोस एल्गोरिथ्म को हर्मिटियन मैट्रिसेस के लिए हानिपूर्ण संपीड़न योजना के रूप में देखा जा सकता है, जो चरम स्वदेशी मूल्यों को संरक्षित करने पर जोर देता है।

विरल मैट्रिक्स के लिए अच्छे प्रदर्शन का संयोजन और कई (सभी की गणना किए बिना) आइजनवैल्यू की गणना करने की क्षमता लैंज़ोस एल्गोरिदम का उपयोग करने का चयन करने के मुख्य कारण हैं।

त्रिविकर्णीकरण का अनुप्रयोग

यद्यपि आइजनप्रॉब्लम अधिकांशतः लैंज़ोस एल्गोरिदम को प्रयुक्त करने के लिए प्रेरणा होती है, एल्गोरिदम मुख्य रूप से जो ऑपरेशन करता है वह मैट्रिक्स का त्रिविकर्णीकरण होता है, जिसके लिए 1950 के दशक से संख्यात्मक रूप से स्थिर हाउसहोल्डर परिवर्तनों का समर्थन किया गया है। 1960 के दशक के समय लैंज़ोस एल्गोरिदम की उपेक्षा की गई थी। कनियल-पेगे अभिसरण सिद्धांत और संख्यात्मक अस्थिरता को रोकने के विधियों के विकास से इसमें रुचि फिर से जीवंत हो गई, लेकिन लैंज़ोस एल्गोरिदम वैकल्पिक एल्गोरिदम बना हुआ है जिसे कोई केवल तभी आज़माता है जब हाउसहोल्डर संतोषजनक नहीं होता है।[9]

जिन पहलुओं में दोनों एल्गोरिदम भिन्न हैं उनमें सम्मिलित हैं:

  • लैंज़ोस लाभ उठाता है विरल मैट्रिक्स होने के नाते, जबकि हाउसहोल्डर ऐसा नहीं करता है, और विरल मैट्रिक्स #रिड्यूसिंग फिल-इन|फिल-इन उत्पन्न करेगा।
  • लैंज़ोस मूल मैट्रिक्स के साथ काम करता है (और इसे केवल अंतर्निहित रूप से ज्ञात होने में कोई समस्या नहीं है), जबकि कच्चा हाउसहोल्डर गणना के समय मैट्रिक्स को संशोधित करना चाहता है (चुकीं इससे बचा जा सकता है)।
  • लैंज़ोस एल्गोरिथ्म का प्रत्येक पुनरावृत्ति अंतिम परिवर्तन मैट्रिक्स का और कॉलम तैयार करता है , जबकि हाउसहोल्डर का पुनरावृत्ति एकात्मक गुणनखंडन में एक और कारक उत्पन्न करता है का . चुकीं, प्रत्येक कारक एकल वेक्टर द्वारा निर्धारित होता है, इसलिए भंडारण आवश्यकताएँ दोनों एल्गोरिदम के लिए समान हैं, और में गणना की जा सकती है।
  • ओनर संख्यात्मक रूप से स्थिर है, जबकि कच्चा लैंज़ोस नहीं है।
  • लैंज़ोस अत्यधिक समानांतर है, केवल के साथ सिंक्रोनाइज़ेशन के बिंदु (कंप्यूटर विज्ञान) (की गणना) और ). गृहस्थ कम समानांतर होता है, जिसका क्रम होता है अदिश मात्राओं की गणना की जाती है जिनमें से प्रत्येक अनुक्रम में पिछली मात्रा पर निर्भर करती है।

एल्गोरिदम की व्युत्पत्ति

तर्क की कई पंक्तियाँ हैं जो लैंज़ोस एल्गोरिदम की ओर ले जाती हैं।

अधिक भविष्य शक्ति विधि

सबसे बड़े परिमाण के आइजेनवैल्यू और मैट्रिक्स के संबंधित आइजेनवेक्टर को खोजने की शक्ति विधि सामान्यतः है,

  1. यादृच्छिक वेक्टर चुनें .
  2. के लिए (के निर्देश तक एकत्रित हो गया है) करें:
    1. माना
    2. माना
  • बड़े में सीमा, सबसे बड़े परिमाण के आइगेनवैल्यू के अनुरूप मानक आइजेनवेक्टर के पास पहुंचता है।

इस पद्धति के खिलाफ जो आलोचना की जा सकती है वह यह है कि यह व्यर्थ है: इसमें मैट्रिक्स से जानकारी निकालने में बहुत सारा काम (चरण 2.1 में मैट्रिक्स-वेक्टर उत्पाद) खर्च होता है , लेकिन केवल अंतिम परिणाम पर ही ध्यान देता है; कार्यान्वयन सामान्यतः सभी वैक्टरों के लिए समान चर का उपयोग करते हैं , प्रत्येक नए पुनरावृत्ति में पिछले वाले के परिणामों को अधिलेखित कर दिया जाता है। इसके अतिरिक्त सभी मध्यवर्ती परिणामों को रखना और डेटा को व्यवस्थित करना वांछनीय हो सकता है।

जानकारी का टुकड़ा जो तुच्छ रूप से वैक्टर से उपलब्ध है क्रायलोव उपस्थानों की श्रृंखला है। यह बताने का विधि कि एल्गोरिथम में सेट सम्मिलित किए बिना यह दावा करना है कि यह गणना करता है

उपसमुच्चय के एक आधार का ऐसा है कि हरएक के लिए और सभी

यह तुच्छ रूप से संतुष्ट है जब तक कि से रैखिक रूप से स्वतंत्र है (और यदि ऐसी कोई निर्भरता है तो कोई इसे चुनकर अनुक्रम जारी रख सकता है मनमाना वेक्टर रैखिक रूप से स्वतंत्र है ) आधार जिसमें सम्मिलित है चुकीं, वेक्टर के संख्यात्मक रूप से खराब होने की संभावना है, क्योंकि वेक्टर का यह क्रम डिजाइन के अनुसार आइजेनवेक्टर में परिवर्तित होने के लिए है। . इससे बचने के लिए, कोई व्यक्ति शक्ति पुनरावृत्ति को ग्राम-श्मिट प्रक्रिया के साथ जोड़ सकता है, इसके बजाय इन क्रायलोव उप-स्थानों का ऑर्थोनॉर्मल आधार तैयार कर सकता है।

  1. यादृच्छिक वेक्टर चुनें यूक्लिडियन मानदंड का . माना .
  2. के लिए करना:
    1. माना .
    2. सभी के लिए माना. (ये के निर्देशांक हैं आधार वैक्टर के संबंध में .)
    3. माना . (के घटक को रद्द करें यह है .)
    4. अगर तो करने दें और ,
      अन्यथा इस रूप में चुनें यूक्लिडियन मानदंड का मनमाना वेक्टर यह सभी के लिए ओर्थोगोनलहै।

शक्ति पुनरावृत्ति वैक्टर के बीच संबंध और ऑर्थोगोनल वैक्टर यह है कि

.

यहाँ यह देखा जा सकता है कि वास्तव में हमें इसकी आवश्यकता नहीं है इनकी गणना करने के लिए वैक्टर , क्योंकि और इसलिए बीच का अंतर और में है , जिसे ऑर्थोगोनलाइज़ेशन प्रक्रिया द्वारा रद्द कर दिया गया है। इस प्रकार क्रायलोव उप-स्थानों की श्रृंखला के लिए समान आधार की गणना की जाती है।

  1. यादृच्छिक वेक्टर चुनें यूक्लिडियन मानदंड का .
  2. के लिए करना:
    1. माना .
    2. सभी के लिए माना.
    3. माना .
    4. माना .
    5. अगर तो करने दें ,
      अन्यथा इस रूप में चुनें यूक्लिडियन मानदंड का मनमाना वेक्टर यह सभी के लिए ओर्थोगोनल है।

प्राथमिकता गुणांक संतुष्ट करना

सभी के लिए ;

मानहानि थोड़ा विचित्र लग सकता है, लेकिन सामान्य पैटर्न पर फिट बैठता है तब से

क्योंकि शक्ति पुनरावृत्ति सदिश जो इस पुनरावर्ती संतुष्टि से हटा दिए गए थे सदिश और गुणांक से पर्याप्त जानकारी सम्मिलित है वह सब गणना की जा सकती है, इसलिए वैक्टर बदलने से कुछ भी हानि नहीं हुआ। (वास्तव में, यह पता चला है कि यहां एकत्र किया गया डेटा पावर विधि में समान संख्या में पुनरावृत्तियों से प्राप्त होने वाले सबसे बड़े आइगेनवैल्यू का काफी बेहतर अनुमान देता है, चुकीं इस बिंदु पर यह स्पष्ट नहीं है।)

यह अंतिम प्रक्रिया अर्नोल्डी पुनरावृत्ति है। लैंज़ोस एल्गोरिथ्म तब सरलीकरण के रूप में सामने आता है जो गणना के चरणों को समाप्त करने से प्राप्त होता है जो तब तुच्छ हो जाते हैं हर्मिटियन है—विशेष रूप से अधिकांश गुणांक शून्य हो जाते हैं।

प्राथमिक रूप से, यदि तो हर्मिटियन है

के लिए हम वह जानते हैं , और तबसे निर्माण द्वारा इस उप-स्थान के लिए ऑर्थोगोनल है, यह आंतरिक उत्पाद शून्य होना चाहिए। (यह अनिवार्य रूप से यही कारण है कि ऑर्थोगोनल बहुपदों के अनुक्रमों को सदैव ऑर्थोगोनल बहुपद पुनरावृत्ति संबंध तीन-अवधि वाला पुनरावृत्ति संबंध दिया जा सकता है।) मिलता है।

चूँकि वेक्टर का आदर्श होने के कारण उत्तरार्द्ध वास्तविक है। के लिए मिलता है।

अर्थ ये भी सही है.

अधिक संक्षेप में, यदि स्तंभों वाला मैट्रिक्स है फिर संख्याएँ मैट्रिक्स के तत्वों के रूप में पहचाना जा सकता है , और के लिए गणित का सवाल हेसेनबर्ग मैट्रिक्स है।तब से

गणित का सवाल हर्मिटियन है. इसका अर्थ यह है कि यह हेसेनबर्ग से भी निचला है, इसलिए यह वास्तव में त्रिविजात्मक होना चाहिए। हर्मिटियन होने के कारण, इसका मुख्य विकर्ण वास्तविक है, और चूंकि इसका पहला उपविकर्ण निर्माण से वास्तविक है, इसलिए इसके पहले सुपरविकर्ण के लिए भी यही सच है। इसलिए, वास्तविक, सममित मैट्रिक्स है - मैट्रिक्स लैंज़ोस एल्गोरिथम विनिर्देश के लिए है।

चरम आइजनवैल्यू ​​​​का एक साथ सन्निकटन

हर्मिटियन मैट्रिक्स के आइजेनवेक्टरों को चिह्नित करने का एक विधि रेले भागफल के स्थिर बिंदुओं के रूप में है

विशेष रूप से, सबसे बड़ा आइजनवैल्यू का वैश्विक अधिकतम है और सबसे छोटा आइजनवैल्यू का वैश्विक न्यूनतम है।

निम्न-आयामी उप-स्थान के अन्दर का अधिकतम का पता लगाना संभव हो सकता है और न्यूनतम का . बढ़ती हुई शृंखला के लिए इसे दोहराते हुए वैक्टर के दो अनुक्रम उत्पन्न करता है: और ऐसा है कि और

फिर प्रश्न उठता है कि उप-स्थानों का चयन कैसे किया जाए ताकि ये क्रम इष्टतम दर पर अभिसरित हों।

से , इष्टतम दिशा जिसमें बड़े मूल्यों की तलाश की जा सके वह ढाल का है , और इसी तरह से छोटे मूल्यों की तलाश करने के लिए इष्टतम दिशा वह नकारात्मक प्रवणता का है . सामान्य रूप में

इसलिए मैट्रिक्स अंकगणित में गणना करने के लिए रुचि की दिशाएं बहुत सरल हैं, लेकिन यदि कोई दोनों में सुधार करना चाहता है और फिर ध्यान में रखने के लिए दो नई दिशाएँ हैं: और तब से और रैखिक रूप से स्वतंत्र वैक्टर हो सकते हैं (वास्तव में, ऑर्थोगोनल के समीप हैं), कोई भी सामान्य रूप से उम्मीद नहीं कर सकता है और समानांतर होना. का आयाम बढ़ाना आवश्यक नहीं है द्वारा हर कदम पर अगर क्रायलोव उप-स्थान के रूप में लिया जाता है, क्योंकि तब सभी के लिए इस प्रकार विशेष रूप से दोनों के लिए और है।

दूसरे शब्दों में, हम कुछ मनमाने प्रारंभिक वेक्टर से प्रारंभ कर सकते हैं वेक्टर रिक्त स्थान का निर्माण करें

और फिर तलाश करो ऐसा है कि

के बाद से वें शक्ति विधि पुनरावृत्त से संबंधित यह इस प्रकार है कि उत्पादन करने के लिए पुनरावृत्ति और शक्ति विधि की तुलना में धीमी गति से अभिसरण नहीं किया जा सकता है, और दोनों आइजनवैल्यू चरम सीमाओं का अनुमान लगाकर अधिक प्राप्त किया जाएगा। अनुकूलन की उपसमस्या के लिए कुछ पर , लम्बवत आधार रखना सुविधाजनक है इस वेक्टर स्पेस के लिए. इस प्रकार हम फिर से क्रायलोव उप-स्थानों के अनुक्रम के लिए ऐसे आधार की पुनरावृत्तीय गणना करने की समस्या की ओर अग्रसर हैं।

अभिसरण और अन्य गतिशीलता

एल्गोरिथ्म की गतिशीलता का विश्लेषण करते समय, आइजनवैल्यू ​​​​और आइजनवेक्टर लेना सुविधाजनक होता है जैसा कि दिया गया है, भले ही वे उपयोगकर्ता को स्पष्ट रूप से ज्ञात न हों। अंकन को ठीक करने के लिए, आइए आइगेनवैल्यू बनें (ये सभी जानते हैं कि ये वास्तविक हैं, और इस प्रकार ऑर्डर करना संभव है) और चलो आइजनवेक्टर का ऑर्थोनॉर्मल सेट बनें जैसे कि सभी के लिए .

प्रारंभिक लैंज़ोस वेक्टर के गुणांकों के लिए अंकन तय करना भी सुविधाजनक है इस आइजनबेसिक के संबंध में; माना सभी के लिए , ताकि आरंभिक सदिश कुछ आइजनअवयव के ख़त्म होने से संबंधित आइजनवैल्यू में अभिसरण में देरी होगी, और भले ही यह त्रुटि सीमा में स्थिर कारक के रूप में सामने आता है, कमी अवांछनीय बनी हुई है। लगातार इसकी चपेट में आने से बचने के लिए सामान्य तकनीक चुनना है पहले माध्य के साथ समान सामान्य वितरण के अनुसार तत्वों को यादृच्छिक रूप से खींचकर और फिर वेक्टर को मानक पर पुनः स्केल करें . पुनर्स्केलिंग से पहले, यह गुणांक का कारण बनता है समान सामान्य वितरण से स्वतंत्र सामान्य रूप से वितरित स्टोकेस्टिक चर भी होना चाहिए (क्योंकि निर्देशांक का परिवर्तन एकात्मक है), और वेक्टर को पुन: स्केल करने के बाद इकाई क्षेत्र पर समान वितरण (निरंतर) होगा . इससे उदाहरण के लिए संभावना को सीमित करना संभव हो जाता है।

तथ्य यह है कि लैंज़ोस एल्गोरिदम समन्वय-अज्ञेयवादी है - ऑपरेशन केवल वैक्टर के आंतरिक उत्पादों को देखते हैं, कभी भी वैक्टर के व्यक्तिगत तत्वों को नहीं देखते हैं - एल्गोरिदम को चलाने के लिए ज्ञात आइजनस्ट्रक्चर के साथ उदाहरण बनाना सरल बनाता है: बनाना विकर्ण पर वांछित आइजनवैल्यू ​​​​के साथ विकर्ण मैट्रिक्स; जब तक आरंभिक वेक्टर पर्याप्त गैर-शून्य तत्व हैं, एल्गोरिथ्म सामान्य त्रिविकर्ण सममित मैट्रिक्स को आउटपुट करेगा।

कनिएल-पेगे अभिसरण सिद्धांत

माना लैंज़ोस एल्गोरिदम के पुनरावृत्ति चरण, एक वास्तविक सममित मैट्रिक्स, जो उपरोक्त के समान है आइजनवैल्यू अभिसरण से मुख्यतः अभिसरण का तात्पर्य है को (और का सममित अभिसरण को ) जैसा बढ़ता है, और दूसरा कुछ सीमा का अभिसरण के आइजनवैल्यू ​​के उनके समकक्षों के लिए का . लैंज़ोस एल्गोरिदम के लिए अभिसरण अधिकांशतः पावर पुनरावृत्ति एल्गोरिदम की तुलना में तेज़ परिमाण का आदेश होता है।[9]: 477 

के लिए सीमा रेले भागफल के चरम मूल्यों के रूप में आइजनवैल्यू ​​​​की उपरोक्त व्याख्या से आते हैं . तब से प्राथमिकता अधिकतम है कुल मिलाकर जबकि पर अधिकतम मात्र है -आयामी क्रायलोव उपस्थान, हम तुच्छ रूप से प्राप्त करते हैं . इसके विपरीत, कोई भी बिंदु उसमें क्रायलोव उपस्थान निचली सीमा प्रदान करता है के लिए , इसलिए यदि कोई बिंदु प्रदर्शित किया जा सकता है जिसके लिए छोटा है तो यह टाइट बाउंड प्रदान करता है।

आयाम क्रायलोव उपस्थान है

अतः इसके किसी भी तत्व को इस प्रकार व्यक्त किया जा सकता है कुछ बहुपद के लिए अधिकतम डिग्री का ; उस बहुपद के गुणांक केवल सदिशों के रैखिक संयोजन के गुणांक हैं . हम जो बहुपद चाहते हैं उसके वास्तविक गुणांक होंगे, लेकिन शायद हमें जटिल गुणांकों की भी अनुमति देनी चाहिए, और हम लिखेंगे के सभी गुणांकों को सम्मिश्र संयुग्मन द्वारा प्राप्त बहुपद के लिए . क्रायलोव उप-स्थान के इस पैरामीट्रिज़ेशन में, हमारे पास है।

अब के लिए अभिव्यक्ति का उपयोग करना आइजनवेक्टर के रैखिक संयोजन के रूप में, हमें मिलता है

और अधिक सामान्यतः
किसी भी बहुपद के लिए .

इस प्रकार

यहां अंश और हर के बीच महत्वपूर्ण अंतर यह है कि अंश में पद लुप्त हो जाता है, लेकिन हर में नहीं। इस प्रकार यदि कोई चुन सकता है पर बड़ा होना लेकिन अन्य सभी आइजनवैल्यू ​​​​पर छोटा होने पर, किसी को त्रुटि पर कड़ी पकड़ मिलेगी।

तब से की तुलना में कई अधिक स्वदेशी मान हैं गुणांक है, यह लंबा क्रम प्रतीत हो सकता है, लेकिन इसे पूरा करने का विधि चेबीशेव बहुपद का उपयोग करना है। लिखना डिग्री के लिए पहली तरह का चेबीशेव बहुपद (जो संतुष्ट करता है सभी के लिए ), हमारे पास बहुपद है जो सीमा में रहता है ज्ञात अंतराल पर लेकिन इसके बाहर तेजी से बढ़ता है। तर्क के कुछ स्केलिंग के साथ, हम इसे छोड़कर सभी आइजनवैल्यू ​​​​को मैप कर सकते हैं में माना

(यदि , इसके अतिरिक्त सबसे बड़े आइजनवैल्यू का उपयोग करें जो कि इससे बिल्कुल कम है ), फिर का अधिकतम मान के लिए है और न्यूनतम मूल्य है , इसलिए

आगे

मात्रा

(अर्थात्, मैट्रिक्स के शेष स्पेक्ट्रम के व्यास के लिए पहले ईजेंगैप का अनुपात) इस प्रकार यहां अभिसरण दर के लिए महत्वपूर्ण महत्व है। लिख भी रहा हूँ

हम यह निष्कर्ष निकाल सकते हैं

इस प्रकार अभिसरण दर को मुख्य रूप से नियंत्रित किया जाता है , चूँकि यह सीमा कारक द्वारा सिकुड़ती है प्रत्येक अतिरिक्त पुनरावृत्ति के लिए.

तुलना के लिए, कोई इस बात पर विचार कर सकता है कि विद्युत विधि की अभिसरण दर किस प्रकार निर्भर करती है , लेकिन चूँकि शक्ति विधि मुख्य रूप से आइजनवैल्यू ​​​​के निरपेक्ष मूल्यों के बीच भागफल के प्रति संवेदनशील है, हमें इसकी आवश्यकता है बीच के ईगेंगैप के लिए और प्रमुख होना. उस बाधा के अंतर्गत, वह स्थितियों जो शक्ति पद्धति को सबसे अधिक पसंद करता है , तो उस पर विचार करें। शक्ति विधि में देर से, पुनरावृत्ति वेक्टर:

[note 1]

जहां प्रत्येक नया पुनरावृत्ति प्रभावी ढंग से गुणा करता है -आयाम द्वारा

तब सबसे बड़े आइजनवैल्यू का अनुमान है

इसलिए लैंज़ोस एल्गोरिदम अभिसरण दर के लिए उपरोक्त सीमा की तुलना की जानी चाहिए

जो कारक से सिकुड़ता है प्रत्येक पुनरावृत्ति के लिए. इस प्रकार यह अंतर बीच में ही सिमट कर रह जाता है और . में क्षेत्र, बाद वाला अधिक पसंद है , और दोगुने बड़े ईजेंगैप के साथ पावर विधि की तरह प्रदर्शन करता है उल्लेखनीय सुधार. चुकीं, अधिक चुनौतीपूर्ण मामला यह है जिसमें ईजेंगैप पर और भी बड़ा सुधार है; वह क्षेत्र है जहां लैंज़ोस एल्गोरिदम अभिसरण-वार पावर विधि पर सबसे छोटा सुधार करता है।

संख्यात्मक स्थिरता

स्थिरता का अर्थ है कि यदि छोटी-छोटी संख्यात्मक त्रुटियां पेश की जाती हैं और जमा हो जाती हैं तो एल्गोरिदम कितना प्रभावित होगा (अर्थात् क्या यह मूल परिणाम के करीब अनुमानित परिणाम देगा)। राउंडऑफ़ वाले कंप्यूटर पर एल्गोरिदम को प्रयुक्त करने की उपयोगिता का आकलन करने के लिए संख्यात्मक स्थिरता केंद्रीय मानदंड है।

लैंज़ोस एल्गोरिदम के लिए, यह साबित किया जा सकता है कि सटीक अंकगणित के साथ, वैक्टर का सेट ऑर्थोनॉर्मल आधार का निर्माण करता है, और हल किए गए आइजनवैल्यू/वेक्टर मूल मैट्रिक्स के अच्छे अनुमान हैं। चुकीं, व्यवहार में (चूंकि गणना फ्लोटिंग पॉइंट अंकगणित में की जाती है जहां अशुद्धि अपरिहार्य है), ऑर्थोगोनैलिटी जल्दी से खो जाती है और कुछ मामलों में नया वेक्टर पहले से निर्मित सेट पर रैखिक रूप से निर्भर भी हो सकता है। परिणामस्वरूप, परिणामी त्रिविकर्ण मैट्रिक्स के कुछ आइजनवैल्यू ​​मूल मैट्रिक्स के सन्निकटन नहीं हो सकते हैं। इसलिए, लैंज़ोस एल्गोरिदम बहुत स्थिर नहीं है।

इस एल्गोरिदम के उपयोगकर्ताओं को उन नकली आइजनवैल्यू ​​​​को खोजने और हटाने में सक्षम होना चाहिए। लैंज़ोस एल्गोरिदम का व्यावहारिक कार्यान्वयन इस स्थिरता के मुद्दे से लड़ने के लिए तीन दिशाओं में जाता है:[6][7]

  1. रूढ़िवादिता के हानि को रोकें,
  2. आधार तैयार होने के बाद रूढ़िवादिता को पुनः प्राप्त करें।
  3. अच्छे और नकली सभी स्वदेशी मूल्यों की पहचान हो जाने के बाद, नकली लोगों को हटा दें।

भिन्नताएँ

लैंज़ोस एल्गोरिदम पर भिन्नताएं उपस्थित हैं जहां सम्मिलित वेक्टर वेक्टर के बजाय लंबे, संकीर्ण मैट्रिक्स हैं और सामान्यीकरण स्थिरांक छोटे वर्ग मैट्रिक्स हैं। इन्हें ब्लॉक लैंज़ोस एल्गोरिदम कहा जाता है और बड़ी संख्या में रजिस्टरों और लंबी मेमोरी-फ़ेच समय वाले कंप्यूटरों पर यह बहुत तेज़ हो सकता है।

लैंज़ोस एल्गोरिदम के कई कार्यान्वयन निश्चित संख्या में पुनरावृत्तियों के बाद पुनः आरंभ होते हैं। सबसे प्रभावशाली पुनः आरंभ की गई विविधताओं में से अंतर्निहित रूप से पुनः आरंभ की गई लैंज़ोस पद्धति है,[10] जिसे अर्पैक में प्रयुक्त किया गया है।[11] इसने कई अन्य पुनः आरंभित विविधताओं को जन्म दिया है जैसे कि लैंज़ोस बिडियागोनलाइज़ेशन को पुनः आरंभ किया गया।[12] एक और सफल पुनः प्रारंभ विविधता थिक-रीस्टार्ट लैंज़ोस विधि है,[13] जिसे टीआरएलएन नामक सॉफ्टवेयर पैकेज में प्रयुक्त किया गया है।[14]


परिमित क्षेत्र पर शून्यस्थान

1995 में, पीटर मोंटगोमरी (गणितज्ञ) ने GF(2) पर बड़े विरल मैट्रिक्स के कर्नेल (मैट्रिक्स) के तत्वों को खोजने के लिए लैंज़ोस एल्गोरिदम पर आधारित एल्गोरिदम प्रकाशित किया; चूँकि परिमित क्षेत्रों में बड़े विरल मैट्रिक्स में रुचि रखने वाले लोगों का समूह और बड़ी स्वदेशी समस्याओं में रुचि रखने वाले लोगों का समूह शायद ही ओवरलैप होता है, इसे अधिकांशतः अनुचित भ्रम पैदा किए बिना ब्लॉक लैंज़ो एल्गोरिदम भी कहा जाता है।

अनुप्रयोग

लैंज़ोस एल्गोरिदम बहुत आकर्षक हैं क्योंकि गुणा एकमात्र बड़े पैमाने का रैखिक ऑपरेशन है। चूंकि भारित-अवधि पाठ पुनर्प्राप्ति इंजन केवल इस ऑपरेशन को कार्यान्वित करते हैं, लैंज़ोस एल्गोरिदम को पाठ दस्तावेज़ों पर कुशलतापूर्वक प्रयुक्त किया जा सकता है (अव्यक्त अर्थ अनुक्रमण देखें)। आइजनवेक्टर बड़े पैमाने पर रैंकिंग विधियों के लिए भी महत्वपूर्ण हैं जैसे कि जॉन क्लेनबर्ग द्वारा विकसित एचआईटीएस एल्गोरिदम, या गूगल द्वारा उपयोग किया जाने वाला पृष्ठ रैंक एल्गोरिदम।

लैंज़ोस एल्गोरिदम का उपयोग संघनित पदार्थ भौतिकी में दृढ़ता से सहसंबद्ध सामग्री के हैमिल्टनियन मैट्रिक्स को हल करने की विधि के रूप में भी किया जाता है,[15] साथ ही परमाणु भौतिकी में परमाणु शेल मॉडल कोड में भी।[16]


कार्यान्वयन

एनएजी न्यूमेरिकल लाइब्रेरी में कई रूटीन सम्मिलित हैं[17] बड़े पैमाने पर रैखिक प्रणालियों और आइजनसमस्याओं के समाधान के लिए जो लैंज़ोस एल्गोरिदम का उपयोग करते हैं।

MATLAB और GNU ऑक्टेव ARPACK बिल्ट-इन के साथ आते हैं। संग्रहीत और अंतर्निहित दोनों मैट्रिक्स का विश्लेषण eigs() फलन (Matlab/Octave) के माध्यम से किया जा सकता है।

इसी तरह, पायथन_(प्रोग्रामिंग_भाषा) में, SciPy पैकेज में scipy.sparse.linalg.eigsh है, जो ARPACK के SSEUPD और DSEUPD फलन के लिए रैपर भी है जो इम्प्लिसिटली रीस्टार्टेड लैंक्ज़ोस विधि का उपयोग करता है।

लैंज़ोस एल्गोरिथ्म का मैटलैब कार्यान्वयन (सटीक मुद्दों पर ध्यान दें) गॉसियन बिलीफ प्रोपेगेशन मैटलैब पैकेज के भाग के रूप में उपलब्ध है। ग्राफलैब[18] सहयोगी फ़िल्टरिंग लाइब्रेरी में मल्टीकोर के लिए लैंज़ोस एल्गोरिदम (c ++ में) के बड़े पैमाने पर समानांतर कार्यान्वयन सम्मिलित है।

PRIMME लाइब्रेरी लैंज़ोस जैसा एल्गोरिदम भी प्रयुक्त करती है।

टिप्पणियाँ

  1. The coefficients need not both be real, but the phase is of little importance. Nor need the composants for other eigenvectors have completely disappeared, but they shrink at least as fast as that for , so describes the worst case.


संदर्भ

  1. Lanczos, C. (1950). "रैखिक अंतर और अभिन्न ऑपरेटरों की eigenvalue समस्या के समाधान के लिए एक पुनरावृत्ति विधि" (PDF). Journal of Research of the National Bureau of Standards. 45 (4): 255–282. doi:10.6028/jres.045.026.
  2. 2.0 2.1 Ojalvo, I. U.; Newman, M. (1970). "स्वचालित मैट्रिक्स-कमी विधि द्वारा बड़ी संरचनाओं के कंपन मोड". AIAA Journal. 8 (7): 1234–1239. Bibcode:1970AIAAJ...8.1234N. doi:10.2514/3.5878.
  3. Paige, C. C. (1971). बहुत बड़े विरल आव्यूहों के eigenvalues ​​​​और eigenvectors की गणना (Ph.D. thesis). U. of London. OCLC 654214109. {{cite thesis}}: zero width space character in |title= at position 40 (help)
  4. Paige, C. C. (1972). "Eigenproblem के लिए लैंज़ोस विधि के कम्प्यूटेशनल वेरिएंट". J. Inst. Maths Applics. 10 (3): 373–381. doi:10.1093/imamat/10.3.373.
  5. Ojalvo, I. U. (1988). "Origins and advantages of Lanczos vectors for large dynamic systems". Proc. 6th Modal Analysis Conference (IMAC), Kissimmee, FL. pp. 489–494.
  6. 6.0 6.1 Cullum; Willoughby (1985). बड़े सममित आइगेनवैल्यू संगणना के लिए लैंज़ोस एल्गोरिदम. Vol. 1. ISBN 0-8176-3058-9.
  7. 7.0 7.1 Yousef Saad (1992-06-22). बड़ी स्वदेशी समस्याओं के लिए संख्यात्मक तरीके. ISBN 0-470-21820-7.
  8. Coakley, Ed S.; Rokhlin, Vladimir (2013). "वास्तविक सममित त्रिविकर्ण मैट्रिक्स के स्पेक्ट्रा की गणना के लिए एक तेज़ विभाजन और जीत एल्गोरिदम". Applied and Computational Harmonic Analysis. 34 (3): 379–414. doi:10.1016/j.acha.2012.06.003.
  9. 9.0 9.1 Golub, Gene H.; Van Loan, Charles F. (1996). मैट्रिक्स गणना (3. ed.). Baltimore: Johns Hopkins Univ. Press. ISBN 0-8018-5413-X.
  10. D. Calvetti; L. Reichel; D.C. Sorensen (1994). "बड़े सममित आइजेनवैल्यू समस्याओं के लिए एक अंतर्निहित रूप से पुनः आरंभ की गई लैंज़ोस विधि". Electronic Transactions on Numerical Analysis. 2: 1–21.
  11. R. B. Lehoucq; D. C. Sorensen; C. Yang (1998). ARPACK Users Guide: Solution of Large-Scale Eigenvalue Problems with Implicitly Restarted Arnoldi Methods. SIAM. doi:10.1137/1.9780898719628. ISBN 978-0-89871-407-4.
  12. E. Kokiopoulou; C. Bekas; E. Gallopoulos (2004). "अंतर्निहित रूप से पुनः आरंभ किए गए लैंज़ोस बिडियागोनलाइज़ेशन के साथ सबसे छोटे एकवचन त्रिक की गणना करना" (PDF). Appl. Numer. Math. 49: 39–61. doi:10.1016/j.apnum.2003.11.011.
  13. Kesheng Wu; Horst Simon (2000). "बड़े सममित आइगेनवैल्यू समस्याओं के लिए थिक-रीस्टार्ट लैंज़ोस विधि". SIAM Journal on Matrix Analysis and Applications. SIAM. 22 (2): 602–616. doi:10.1137/S0895479898334605.
  14. Kesheng Wu; Horst Simon (2001). "टीआरएलएन सॉफ्टवेयर पैकेज". Archived from the original on 2007-07-01. Retrieved 2007-06-30.
  15. Chen, HY; Atkinson, W.A.; Wortis, R. (July 2011). "Disorder-induced zero-bias anomaly in the Anderson-Hubbard model: Numerical and analytical calculations". Physical Review B. 84 (4): 045113. arXiv:1012.1031. Bibcode:2011PhRvB..84d5113C. doi:10.1103/PhysRevB.84.045113. S2CID 118722138.
  16. Shimizu, Noritaka (21 October 2013). "बड़े पैमाने पर समानांतर गणना के लिए परमाणु शेल-मॉडल कोड, "KSHELL"". arXiv:1310.5431 [nucl-th].
  17. The Numerical Algorithms Group. "Keyword Index: Lanczos". NAG Library Manual, Mark 23. Retrieved 2012-02-09.
  18. GraphLab Archived 2011-03-14 at the Wayback Machine


अग्रिम पठन