लेविंसन रिकर्सन: Difference between revisions
(Created page with "लेविंसन प्रत्यावर्तन या लेविंसन-डर्बिन रिकर्सन, टोएप्लिट्ज़ म...") |
No edit summary |
||
(6 intermediate revisions by 3 users not shown) | |||
Line 1: | Line 1: | ||
लेविंसन [[ प्रत्यावर्तन ]] या लेविंसन-डर्बिन | '''लेविंसन [[ प्रत्यावर्तन |प्रत्यावर्तन(रिकर्सन]])''' या '''लेविंसन-डर्बिन पुनरावर्तन''', [[टोएप्लिट्ज़ मैट्रिक्स|टोएप्लिट्ज़ आव्यूह]] से जुड़े समीकरण के हल की गणना करने के लिए रैखिक बीजगणित में प्रक्रिया है। [[कलन विधि|एल्गोरिदम]] {{math|[[Big O notation|Θ]](''n''<sup>2</sup>)}} समय में चलता है, जो गॉस-जॉर्डन उन्मूलन पर एक स्पष्ट सुधार है, जो Θ(n<sup>3)</sup> में चलता है। | ||
लेविंसन-डर्बिन | इस प्रकार से लेविंसन-डर्बिन एल्गोरिदम को सर्वप्रथम 1947 में [[नॉर्मन लेविंसन]] द्वारा प्रस्तावित किया गया था, जिसे 1960 में [[जेम्स डर्बिन]] द्वारा सुधारा गया और बाद में इसमें सुधार किया गया था, द्वारा सुधारा गया था, और बाद में डब्ल्यू.एफ. ट्रेंच और एस. ज़ोहर द्वारा क्रमशः {{math|4''n''<sup>2</sup>}} और फिर {{math|3''n''<sup>2</sup>}} गुणन में सुधार किया गया था। | ||
डेटा को संसाधित करने की अन्य विधियों में [[शूर अपघटन]] और चोल्स्की अपघटन | डेटा को संसाधित करने की अन्य विधियों में [[शूर अपघटन]] और चोल्स्की अपघटन सम्मिलित हैं। इस प्रकार से इनकी तुलना में, लेविंसन पुनरावर्तन (विशेष रूप से विभाजित लेविंसन पुनरावर्तन) कम्प्यूटेशनल रूप से तीव्र होता है, परन्तु निकटन त्रुटियों जैसी कम्प्यूटेशनल अशुद्धियों के प्रति अधिक संवेदनशील होता है। | ||
टोएप्लिट्ज़ आव्यूह के लिए [[बेरिस एल्गोरिथ्म|बेरिस एल्गोरिदम]] (सामान्य बेरिस एल्गोरिदम के साथ भ्रमित नहीं होना चाहिए) लेविंसन पुनरावर्तन जितना तीव्र चलता है, परन्तु यह {{math|''O''(''n''<sup>2</sup>)}} समष्टि का उपयोग करता है, जबकि लेविंसन पुनरावर्तन मात्र O(n) समष्टि का उपयोग करता है। यद्यपि, बेरिस एल्गोरिदम [[संख्यात्मक स्थिरता]] है,<ref>Bojanczyk et al. (1995).</ref><ref>Brent (1999).</ref> जबकि लेविंसन पुनरावर्तन मात्र दुर्बल रूप से स्थिर है (अर्थात यह ठीक रूप से वातानुकूलित रैखिक प्रणालियों के लिए संख्यात्मक स्थिरता प्रदर्शित करता है)।<ref>Krishna & Wang (1993).</ref> | |||
इस प्रकार से नवीन एल्गोरिदम, जिन्हें लक्षणात्मक रूप से तीव्र या कभी-कभी अतितीव्र टोएप्लिट्ज़ एल्गोरिदम कहा जाता है, विभिन्न p के लिए (जैसे p = 2,<ref>{{Cite web |url=http://www.maths.anu.edu.au/~brent/pd/rpb143tr.pdf |title=संग्रहीत प्रति|access-date=2013-04-01 |archive-date=2012-03-25 |archive-url=https://web.archive.org/web/20120325215317/http://maths.anu.edu.au/~brent/pd/rpb143tr.pdf |url-status=dead }}</ref><ref>{{cite web |url=http://etd.gsu.edu/theses/available/etd-04182008-174330/unrestricted/kimitei_symon_k_200804.pdf |title=संग्रहीत प्रति|access-date=2009-04-28 |url-status=dead |archive-url=https://web.archive.org/web/20091115041852/http://etd.gsu.edu/theses/available/etd-04182008-174330/unrestricted/kimitei_symon_k_200804.pdf |archive-date=2009-11-15 }}</ref> p = 3 <ref>{{cite web |url=http://saaz.cs.gsu.edu/papers/sfast.pdf |title=संग्रहीत प्रति|website=saaz.cs.gsu.edu |access-date=12 January 2022 |archive-url=https://web.archive.org/web/20070418074240/http://saaz.cs.gsu.edu/papers/sfast.pdf |archive-date=18 April 2007 |url-status=dead}}</ref>) के लिए {{math|Θ(''n'' log<sup>''p''</sup>''n'')}} में हल कर सकते हैं। लेविंसन पुनरावर्तन कई कारणों से लोकप्रिय बना हुआ है; एक के लिए, तुलना में इसे समझना अपेक्षाकृत सरल है; दूसरे के लिए, यह छोटे n (सामान्यतः n <256) के लिए अतितीव्र एल्गोरिदम से तीव्र हो सकता है।<ref>{{Cite web |url=http://www.math.niu.edu/~ammar/papers/amgr88.pdf |title=संग्रहीत प्रति|access-date=2006-08-15 |archive-date=2006-09-05 |archive-url=https://web.archive.org/web/20060905064921/http://www.math.niu.edu/~ammar/papers/amgr88.pdf |url-status=dead }}</ref> | |||
== व्युत्पत्ति == | == व्युत्पत्ति == | ||
=== पृष्ठभूमि === | === पृष्ठभूमि === | ||
इस प्रकार से आव्यूह समीकरण रूप | |||
: <math>\mathbf M \, \vec x = \vec y | : <math>\mathbf M \, \vec x = \vec y</math> का अनुसरण करते हैं। | ||
लेविंसन-डर्बिन | लेविंसन-डर्बिन एल्गोरिदम का उपयोग ऐसे किसी भी समीकरण के लिए किया जा सकता है, जब तक कि '''M''' गैर-शून्य मुख्य विकर्ण के साथ ज्ञात टोएप्लिट्ज़ आव्यूह है। इस प्रकार से यह <math>\vec y</math> एक ज्ञात सदिश समष्टि है, और <math>\vec x</math> संख्याओं x<sub>''i''</sub> का अज्ञात सदिश है जिसे अभी तक निर्धारित नहीं किया गया है। | ||
इस लेख के लिए, ê<sub>''i''</sub> | इस लेख के लिए, ê<sub>''i''</sub> सदिश है जो पूर्ण रूप से शून्य से बना है, इसके iवें स्थान को छोड़कर, जिसका मान एक है। इसकी लंबाई निकट के संदर्भ से स्पष्ट रूप से निर्धारित होगी। शब्द N उपरोक्त आव्यूह की चौड़ाई को संदर्भित करता है - '''<nowiki/>'M'<nowiki/>''' N×N आव्यूह है। अंत में, इस आलेख में, सुपरस्क्रिप्ट आगमनात्मक सूचकांक को संदर्भित करते हैं, जबकि सबस्क्रिप्ट सूचकांकों को दर्शाते हैं। उदाहरण के लिए (और परिभाषा), इस आलेख में, आव्यूह '<nowiki/>'''T'''<sup>''n''</sup> n×n आव्यूह है जो '''<nowiki/>'M'''' से ऊपरी बाएँ n×n कक्ष की प्रतिलिपि बनाता है - अर्थात, T<sup>n</sup><sub>''ij''</sub> = M<sub>''ij''</sub>। | ||
इस प्रकार से '''T'''<sup>''n''</sup> भी टोएप्लिट्ज़ आव्यूह है, जिसका अर्थ है कि इसे | |||
: <math>\mathbf T^n = \begin{bmatrix} | : <math>\mathbf T^n = \begin{bmatrix} | ||
Line 27: | Line 26: | ||
\vdots & \vdots & \vdots & \ddots & \vdots \\ | \vdots & \vdots & \vdots & \ddots & \vdots \\ | ||
t_{n-1}& t_{n-2} & t_{n-3} & \dots & t_0 | t_{n-1}& t_{n-2} & t_{n-3} & \dots & t_0 | ||
\end{bmatrix} | \end{bmatrix} </math> के रूप में लिखा जा सकता है। | ||
=== परिचयात्मक चरण === | === परिचयात्मक चरण === | ||
एल्गोरिदम दो चरणों में आगे बढ़ता है। पहले चरण में, सदिश के दो समुच्चय स्थापित किए जाते हैं, जिन्हें अग्र और पश्च सदिश कहा जाता है। इस प्रकार से अग्र सदिश का उपयोग पश्च सदिश के समुच्चय को प्राप्त करने में सहायता के लिए किया जाता है; तो उन्हें तुरंत त्याग दिया जा सकता है। दूसरे चरण के लिए पश्च सदिश आवश्यक हैं, जहां उनका उपयोग वांछित हल बनाने के लिए किया जाता है। | |||
लेविंसन-डर्बिन | इस प्रकार से लेविंसन-डर्बिन पुनरावर्तन n<sup>वें</sup> "अग्र सदिश" को पूर्ण रूप से परिभाषित करता है, जिसे <math>\vec f^n</math>कहा जाता है, लंबाई n के सदिश के रूप में जो संतुष्ट करता है: | ||
:<math>\mathbf T^n \vec f^n = \hat e_1.</math> | :<math>\mathbf T^n \vec f^n = \hat e_1.</math> | ||
n<sup>वें</sup> पश्च सदिश <math>\vec b^n</math> को इसी प्रकार परिभाषित किया गया है; यह लंबाई n का सदिश है जो संतुष्ट करता है: | |||
:<math>\mathbf T^n \vec b^n = \hat e_n.</math> | :<math>\mathbf T^n \vec b^n = \hat e_n.</math> | ||
एक महत्वपूर्ण सरलीकरण तब हो सकता है जब '' | एक महत्वपूर्ण सरलीकरण तब हो सकता है जब ''M'' [[सममित मैट्रिक्स|सममित आव्यूह]] है; तो दोनों सदिश ''b<sup>n</sup><sub>i</sub>'' = ''f<sup>n</sup><sub>n</sub>''<sub>+1−''i''</sub>— से संबंधित हैं - अर्थात, वे एक दूसरे के पंक्ति-व्युत्क्रम हैं। यह उस विशेष स्थिति में कुछ अतिरिक्त गणना शेष रह सकती है। | ||
=== | === पश्च सदिश प्राप्त करना === | ||
यद्यपि एक आव्यूह सममित न हो, फिर भी n<sup>वें</sup> अग्र और पश्च के सदिश को लंबाई n - 1 के सदिश से निम्नानुसार पाया जा सकता है। इस प्रकार से सर्वप्रथम, अग्र सदिश को प्राप्त करने के लिए शून्य के साथ पूर्ण रूप से बढ़ाया जा सकता है: | |||
:<math>\mathbf T^n \begin{bmatrix} \vec f^{n-1} \\ 0 \\ \end{bmatrix} = | :<math>\mathbf T^n \begin{bmatrix} \vec f^{n-1} \\ 0 \\ \end{bmatrix} = | ||
Line 63: | Line 61: | ||
\varepsilon_f^n | \varepsilon_f^n | ||
\end{bmatrix}. </math> | \end{bmatrix}. </math> | ||
'' | '''''T<sup>n</sup>''<sup>−1</sup>''' से '''''T<sup>n</sup>''''' तक जाने में, आव्यूह में जोड़ा गया अतिरिक्त स्तम्भ हल को उद्विग्न नहीं करता है जब शून्य का उपयोग अग्र सदिश को बढ़ाने के लिए किया जाता है। यद्यपि, आव्यूह में जोड़ी गई अतिरिक्त पंक्ति ने हल को पूर्ण रूप से बाधित कर दिया है; और इसने एक अवांछित त्रुटि शब्द εf बनाया है जो अंतिम स्थान पर आता है। इस प्रकार से उपरोक्त समीकरण इसका मान देता है: | ||
: <math> \varepsilon_f^n \ = \ \sum_{i=1}^{n-1} \ M_{ni} \ f_{i}^{n-1} \ = \ \sum_{i=1}^{n-1} \ t_{n-i} \ f_{i}^{n-1}. </math> | : <math> \varepsilon_f^n \ = \ \sum_{i=1}^{n-1} \ M_{ni} \ f_{i}^{n-1} \ = \ \sum_{i=1}^{n-1} \ t_{n-i} \ f_{i}^{n-1}. </math> | ||
यह त्रुटि शीघ्र ही वापस आ जाएगी और | यह त्रुटि शीघ्र ही वापस आ जाएगी और नवीन अग्र सदिश से समाप्त कर दी जाएगी; परन्तु सर्वप्रथम, पश्च सदिश को समान (यद्यपि व्युत्क्रमा) विधि से बढ़ाया जाना चाहिए। अतः पश्च सदिश के लिए, | ||
:<math> \mathbf T^n \begin{bmatrix} 0 \\ \vec b^{n-1} \\ \end{bmatrix} = | :<math> \mathbf T^n \begin{bmatrix} 0 \\ \vec b^{n-1} \\ \end{bmatrix} = | ||
Line 87: | Line 85: | ||
1 | 1 | ||
\end{bmatrix}. </math> | \end{bmatrix}. </math> | ||
पहले | पहले के जैसे, आव्यूह में जोड़ा गया अतिरिक्त स्तम्भ इस नवीन पश्च सदिश को उद्विग्न नहीं करता है; परन्तु अतिरिक्त पंक्ति करती है। इस प्रकार से यहां हमारे निकट मान के साथ एक और अवांछित त्रुटि ''ε<sub>b</sub>'' है: | ||
:<math> \varepsilon_b^n \ = \ \sum_{i=2}^n \ M_{1i} \ b_{i-1}^{n-1} \ = \ \sum_{i=1}^{n-1} \ t_{-i} \ b_i^{n-1}. \ </math> | :<math> \varepsilon_b^n \ = \ \sum_{i=2}^n \ M_{1i} \ b_{i-1}^{n-1} \ = \ \sum_{i=1}^{n-1} \ t_{-i} \ b_i^{n-1}. \ </math> | ||
इन दो त्रुटि शब्दों का उपयोग निम्नानुसार वर्णित उच्च-क्रम वाले | इन दो त्रुटि शब्दों का उपयोग निम्नानुसार वर्णित उच्च-क्रम वाले अग्र और पश्च के सदिश बनाने के लिए किया जा सकता है। इस प्रकार से आव्यूहों की रैखिकता का उपयोग पूर्ण रूप से करते हुए, निम्नलिखित पहचान सभी <math>(\alpha,\beta)</math> के लिए मान्य है: | ||
:<math>\mathbf T \left( \alpha | :<math>\mathbf T \left( \alpha | ||
Line 115: | Line 113: | ||
1 | 1 | ||
\end{bmatrix}.</math> | \end{bmatrix}.</math> | ||
यदि α और β को चुना जाता है ताकि दाहिनी ओर ê | यदि α और β को चुना जाता है ताकि दाहिनी ओर से ''ê''<sub>1</sub> or ''ê<sub>n</sub>'' प्राप्त हो, तो कोष्ठक में स्थित मात्रा क्रमशः n<sup>वें</sup> अग्र या पश्च सदिश की परिभाषा को पूर्ण करेगी। उन अल्फा और बीटा को चुनने पर, कोष्ठक में सदिश योग सरल होता है और वांछित परिणाम देता है। | ||
इन गुणांकों को खोजने के लिए, <math>\alpha^n_{f}</math>, <math>\beta^n_{f}</math> | इन गुणांकों को खोजने के लिए, <math>\alpha^n_{f}</math>, <math>\beta^n_{f}</math> जैसे कि: | ||
:<math> | :<math> | ||
\vec f^n = \alpha^n_{f} \begin{bmatrix} \vec f^{n-1}\\ | \vec f^n = \alpha^n_{f} \begin{bmatrix} \vec f^{n-1}\\ | ||
Line 126: | Line 124: | ||
\end{bmatrix} | \end{bmatrix} | ||
</math> | </math> | ||
और क्रमशः | और क्रमशः <math>\alpha^n_{b}</math>, <math>\beta^n_{b}</math> जैसे कि: | ||
:<math>\vec b^n = \alpha^n_{b} | :<math>\vec b^n = \alpha^n_{b} | ||
\begin{bmatrix} | \begin{bmatrix} | ||
Line 137: | Line 135: | ||
\end{bmatrix}. | \end{bmatrix}. | ||
</math> | </math> | ||
इस प्रकार से पूर्व दोनों समीकरणों को <math>{\mathbf T}^n</math> से गुणा करने पर निम्नलिखित समीकरण प्राप्त होता है: | |||
: <math> | : <math> | ||
\begin{bmatrix} 1 & \varepsilon^n_b \\ | \begin{bmatrix} 1 & \varepsilon^n_b \\ | ||
Line 152: | Line 150: | ||
0 & 1 | 0 & 1 | ||
\end{bmatrix}.</math> | \end{bmatrix}.</math> | ||
अब, ऊपर दिए गए दो | अब, ऊपर दिए गए दो सदिशों के बीच के सभी शून्यों को अनदेखा कर दिया गया है और निपातित कर दिया गया है, मात्र निम्नलिखित समीकरण शेष है: | ||
: <math> \begin{bmatrix} 1 & \varepsilon^n_b \\ \varepsilon^n_f & 1 \end{bmatrix} \begin{bmatrix} \alpha^n_f & \alpha^n_b \\ \beta^n_f & \beta^n_b \end{bmatrix} = \begin{bmatrix} 1 & 0 \\ 0 & 1 \end{bmatrix}.</math> | : <math> \begin{bmatrix} 1 & \varepsilon^n_b \\ \varepsilon^n_f & 1 \end{bmatrix} \begin{bmatrix} \alpha^n_f & \alpha^n_b \\ \beta^n_f & \beta^n_b \end{bmatrix} = \begin{bmatrix} 1 & 0 \\ 0 & 1 \end{bmatrix}.</math> | ||
इन्हें हल करने के साथ (क्रैमर 2×2 | इस प्रकार से इन्हें हल करने के साथ (क्रैमर 2×2 आव्यूह व्युत्क्रम सूत्र का उपयोग करके), नवीन अग्र और पश्च सदिश निम्नलिखित हैं: | ||
: <math>\vec f^n = {1 \over { 1 - \varepsilon_b^n \varepsilon_f^n }} \begin{bmatrix} \vec f^{n-1} \\ 0 \end{bmatrix} | : <math>\vec f^n = {1 \over { 1 - \varepsilon_b^n \varepsilon_f^n }} \begin{bmatrix} \vec f^{n-1} \\ 0 \end{bmatrix} | ||
Line 161: | Line 159: | ||
: <math>\vec b^n = { 1 \over { 1 - \varepsilon_b^n \varepsilon_f^n }} \begin{bmatrix} 0 \\ \vec b^{n-1} \end{bmatrix} | : <math>\vec b^n = { 1 \over { 1 - \varepsilon_b^n \varepsilon_f^n }} \begin{bmatrix} 0 \\ \vec b^{n-1} \end{bmatrix} | ||
- { \varepsilon_b^n \over { 1 - \varepsilon_b^n \varepsilon_f^n }}\begin{bmatrix} \vec f^{n-1} \\ 0 \end{bmatrix}.</math> | - { \varepsilon_b^n \over { 1 - \varepsilon_b^n \varepsilon_f^n }}\begin{bmatrix} \vec f^{n-1} \\ 0 \end{bmatrix}.</math> | ||
इन सदिश योगों को निष्पादित करने | इन सदिश योगों को निष्पादित करने से, पहले वाले सदिशों से अग्र और पश्च का n<sup>वां</sup> सदिश प्राप्त होता है। जो कुछ शेष है वह इन सदिशों में से पहले को ढूंढना है, और फिर कुछ त्वरित योग और गुणन से शेष को प्राप्त करना है। इस प्रकार से पहले अग्र और पश्च वाले सदिश मात्र हैं: | ||
: <math>\vec f^1 = \vec b^1 = \left[ {1 \over M_{11}} \right] = \left[ {1 \over t_0} \right].</math> | : <math>\vec f^1 = \vec b^1 = \left[ {1 \over M_{11}} \right] = \left[ {1 \over t_0} \right].</math> | ||
=== पश्च सदिश का उपयोग करना === | |||
=== | उपरोक्त चरण 'M' के लिए n पश्च सदिश देते हैं। अतः वहां से, अधिक यादृच्छिक समीकरण है: | ||
उपरोक्त चरण ' | |||
: <math> \vec y = \mathbf M \ \vec x. </math> | : <math> \vec y = \mathbf M \ \vec x. </math> | ||
हल उसी पुनरावर्ती विधि से बनाया जा सकता है जैसे पश्च सदिश बनाए गए थे। इसलिए, <math>\vec x</math> को मध्यवर्ती <math>\vec x^n</math> के अनुक्रम में पूर्ण रूप से सामान्यीकृत किया जाना चाहिए, जैसे कि <math>\vec x^N = \vec x</math>. | |||
फिर हल यह ध्यान देकर पुनरावर्ती रूप से बनाया जाता है कि यदि | |||
: <math> \mathbf T^{n-1} | : <math> \mathbf T^{n-1} | ||
Line 200: | Line 197: | ||
\varepsilon_x^{n-1} | \varepsilon_x^{n-1} | ||
\end{bmatrix}.</math> | \end{bmatrix}.</math> | ||
फिर हम n का उपयोग कर सकते हैं | इस प्रकार से फिर हम त्रुटि पद को समाप्त करने के लिए n<sup>वें पश्च सदिश का उपयोग कर सकते हैं और इसे निम्नानुसार वांछित सूत्र से परिवर्तित कर सकते हैं: | ||
: <math> \mathbf T^{n} \left ( | : <math> \mathbf T^{n} \left ( | ||
Line 215: | Line 212: | ||
y_n | y_n | ||
\end{bmatrix}.</math> | \end{bmatrix}.</math> | ||
इस विधि को n = N तक विस्तारित करने से | इस विधि को '''n = N''' तक विस्तारित करने से हल <math>\vec x</math> प्राप्त होता है। | ||
व्यवहार में, ये चरण | अतः इस प्रकार से व्यवहार में, ये चरण प्रायः शेष प्रक्रिया के साथ-साथ किए जाते हैं, परन्तु वे सुसंगत इकाई बनाते हैं और उन्हें अपने स्वयं के चरण के रूप में माना जाना चाहिए। | ||
== | == कक्ष लेविंसन एल्गोरिदम == | ||
यदि '' | यदि ''M'' दृढ़ता से टोएप्लिट्ज़ नहीं है, परन्तु [[ब्लॉक मैट्रिक्स|कक्ष आव्यूह]] टोएप्लिट्ज़ है, तो लेविंसन पुनरावर्तन को आव्यूह अवयवों के साथ टोएप्लिट्ज़ आव्यूह के रूप में कक्ष टोएप्लिट्ज़ आव्यूह के संबंध में उसी प्रकार से प्राप्त किया जा सकता है (म्यूजिकस 1988)। अतः कक्ष टॉप्लिट्ज़ आव्यूह सिग्नल प्रोसेसिंग एल्गोरिदम में स्वाभाविक रूप से उत्पन्न होते हैं जब कई सिग्नल स्ट्रीम (उदाहरण के लिए, सिस्टम विश्लेषण सिस्टम की विशेषता) या साइक्लो-स्टेशनरी सिग्नल से निपटते हैं। | ||
== यह भी देखें == | == यह भी देखें == | ||
*[[स्प्लिट लेविंसन रिकर्सन]] | *[[स्प्लिट लेविंसन रिकर्सन|स्प्लिट लेविंसन पुनरावर्तन]] | ||
*रैखिक | *रैखिक प्रागुक्ति | ||
*स्वप्रतिगामी मॉडल | *स्वप्रतिगामी मॉडल | ||
== टिप्पणियाँ == | == टिप्पणियाँ == | ||
{{reflist}} | {{reflist}} | ||
== संदर्भ == | == संदर्भ == | ||
Line 235: | Line 231: | ||
* Levinson, N. (1947). "The Wiener RMS error criterion in filter design and prediction." ''J. Math. Phys.'', v. 25, pp. 261–278. | * Levinson, N. (1947). "The Wiener RMS error criterion in filter design and prediction." ''J. Math. Phys.'', v. 25, pp. 261–278. | ||
* Durbin, J. (1960). "The fitting of time series models." ''Rev. Inst. Int. Stat.'', v. 28, pp. 233–243. | * Durbin, J. (1960). "The fitting of time series models." ''Rev. Inst. Int. Stat.'', v. 28, pp. 233–243. | ||
* Trench, W. F. (1964). | * Trench, W. F. (1964). "An algorithm for the inversion of finite टोएप्लिट्ज़ matrices." ''J. Soc. Indust. Appl. Math.'', v. 12, pp. 515–522. | ||
* Musicus, B. R. (1988). "Levinson and Fast Choleski Algorithms for | * Musicus, B. R. (1988). "Levinson and Fast Choleski Algorithms for टोएप्लिट्ज़ and Almost टोएप्लिट्ज़ Matrices." ''RLE TR'' No. 538, MIT. [http://dspace.mit.edu/bitstream/1721.1/4954/1/RLE-TR-538-20174000.pdf] | ||
* Delsarte, P. and Genin, Y. V. (1986). "The split Levinson algorithm." ''IEEE Transactions on Acoustics, Speech, and Signal Processing'', v. ASSP-34(3), pp. 470–478. | * Delsarte, P. and Genin, Y. V. (1986). "The split Levinson algorithm." ''IEEE Transactions on Acoustics, Speech, and Signal Processing'', v. ASSP-34(3), pp. 470–478. | ||
'''Further work''' | '''Further work''' | ||
*{{cite journal | last1 = Bojanczyk | first1 = A.W. | last2 = Brent | first2 = R.P. | last3 = De Hoog | first3 = F.R. | last4 = Sweet | first4 = D.R. | year = 1995 | title = On the stability of the Bareiss and related Toeplitz factorization algorithms | journal = [[SIAM Journal on Matrix Analysis and Applications]] | volume = 16 | pages = 40–57 | doi = 10.1137/S0895479891221563 | arxiv = 1004.5510 | s2cid = 367586 }} | *{{cite journal | last1 = Bojanczyk | first1 = A.W. | last2 = Brent | first2 = R.P. | last3 = De Hoog | first3 = F.R. | last4 = Sweet | first4 = D.R. | year = 1995 | title = On the stability of the Bareiss and related Toeplitz factorization algorithms | journal = [[SIAM Journal on Matrix Analysis and Applications]] | volume = 16 | pages = 40–57 | doi = 10.1137/S0895479891221563 | arxiv = 1004.5510 | s2cid = 367586 }} | ||
*[[Richard P. Brent|Brent R.P.]] (1999), "Stability of fast algorithms for structured linear systems", ''Fast Reliable Algorithms for Matrices with Structure'' (editors—T. Kailath, A.H. Sayed), ch.4 ([[Society for Industrial and Applied Mathematics|SIAM]]). | *[[Richard P. Brent|Brent R.P.]] (1999), "Stability of fast algorithms for structured linear systems", ''Fast Reliable Algorithms for Matrices with Structure'' (editors—T. Kailath, A.H. Sayed), ch.4 ([[Society for Industrial and Applied Mathematics|SIAM]]). | ||
* Bunch, J. R. (1985). "Stability of methods for solving | * Bunch, J. R. (1985). "Stability of methods for solving टोएप्लिट्ज़ systems of equations." ''SIAM J. Sci. Stat. Comput.'', v. 6, pp. 349–364. [https://doi.org/10.1137/0906025] | ||
*{{cite journal | last = Krishna | first = H. |author2=Wang, Y. | title = The Split Levinson Algorithm is weakly stable | journal = [[SIAM Journal on Numerical Analysis]] | volume = 30 | issue = 5 | pages = 1498–1508 | date = 1993 | url = http://scitation.aip.org/getabs/servlet/GetabsServlet?prog=normal&id=SJNAAM000030000005001498000001&idtype=cvips&gifs=yes | doi = 10.1137/0730078}} | *{{cite journal | last = Krishna | first = H. |author2=Wang, Y. | title = The Split Levinson Algorithm is weakly stable | journal = [[SIAM Journal on Numerical Analysis]] | volume = 30 | issue = 5 | pages = 1498–1508 | date = 1993 | url = http://scitation.aip.org/getabs/servlet/GetabsServlet?prog=normal&id=SJNAAM000030000005001498000001&idtype=cvips&gifs=yes | doi = 10.1137/0730078}} | ||
'''Summaries''' | '''Summaries''' | ||
* Bäckström, T. (2004). "2.2. Levinson–Durbin Recursion." ''Linear Predictive Modelling of Speech – Constraints and Line Spectrum Pair Decomposition.'' Doctoral thesis. Report no. 71 / Helsinki University of Technology, Laboratory of Acoustics and Audio Signal Processing. Espoo, Finland. [http://lib.tkk.fi/Diss/2004/isbn9512269473/isbn9512269473.pdf] | * Bäckström, T. (2004). "2.2. Levinson–Durbin Recursion." ''Linear Predictive Modelling of Speech – Constraints and Line Spectrum Pair Decomposition.'' Doctoral thesis. Report no. 71 / Helsinki University of Technology, Laboratory of Acoustics and Audio Signal Processing. Espoo, Finland. [http://lib.tkk.fi/Diss/2004/isbn9512269473/isbn9512269473.pdf] | ||
* Claerbout, Jon F. (1976). "Chapter 7 – Waveform Applications of Least-Squares." ''Fundamentals of Geophysical Data Processing.'' | * Claerbout, Jon F. (1976). "Chapter 7 – Waveform Applications of Least-Squares." ''Fundamentals of Geophysical Data Processing.'' Palo Alto: Blackwell Scientific Publications. [https://web.archive.org/web/20060921204908/http://sep.stanford.edu/oldreports/fgdp2/fgdp_07.pdf] | ||
*{{Citation |last1=Press|first1=WH|last2=Teukolsky|first2=SA|last3=Vetterling|first3=WT|last4=Flannery|first4=BP|year=2007|title=Numerical Recipes: The Art of Scientific Computing|edition=3rd|publisher=Cambridge University Press| publication-place=New York|isbn=978-0-521-88068-8|chapter=Section 2.8.2. Toeplitz Matrices|chapter-url=http://apps.nrbook.com/empanel/index.html?pg=96}} | *{{Citation |last1=Press|first1=WH|last2=Teukolsky|first2=SA|last3=Vetterling|first3=WT|last4=Flannery|first4=BP|year=2007|title=Numerical Recipes: The Art of Scientific Computing|edition=3rd|publisher=Cambridge University Press| publication-place=New York|isbn=978-0-521-88068-8|chapter=Section 2.8.2. Toeplitz Matrices|chapter-url=http://apps.nrbook.com/empanel/index.html?pg=96}} | ||
* Golub, G.H., and Loan, C.F. Van (1996). "Section 4.7 : | * Golub, G.H., and Loan, C.F. Van (1996). "Section 4.7 : टोएप्लिट्ज़ and related Systems" ''Matrix Computations'', Johns Hopkins University Press | ||
[[Category:Created On 25/07/2023]] | [[Category:Created On 25/07/2023]] | ||
[[Category:Machine Translated Page]] | |||
[[Category:Pages with script errors]] | |||
[[Category:Templates Vigyan Ready]] | |||
[[Category:मैट्रिसेस]] | |||
[[Category:संख्यात्मक विश्लेषण]] |
Latest revision as of 15:33, 31 July 2023
लेविंसन प्रत्यावर्तन(रिकर्सन) या लेविंसन-डर्बिन पुनरावर्तन, टोएप्लिट्ज़ आव्यूह से जुड़े समीकरण के हल की गणना करने के लिए रैखिक बीजगणित में प्रक्रिया है। एल्गोरिदम Θ(n2) समय में चलता है, जो गॉस-जॉर्डन उन्मूलन पर एक स्पष्ट सुधार है, जो Θ(n3) में चलता है।
इस प्रकार से लेविंसन-डर्बिन एल्गोरिदम को सर्वप्रथम 1947 में नॉर्मन लेविंसन द्वारा प्रस्तावित किया गया था, जिसे 1960 में जेम्स डर्बिन द्वारा सुधारा गया और बाद में इसमें सुधार किया गया था, द्वारा सुधारा गया था, और बाद में डब्ल्यू.एफ. ट्रेंच और एस. ज़ोहर द्वारा क्रमशः 4n2 और फिर 3n2 गुणन में सुधार किया गया था।
डेटा को संसाधित करने की अन्य विधियों में शूर अपघटन और चोल्स्की अपघटन सम्मिलित हैं। इस प्रकार से इनकी तुलना में, लेविंसन पुनरावर्तन (विशेष रूप से विभाजित लेविंसन पुनरावर्तन) कम्प्यूटेशनल रूप से तीव्र होता है, परन्तु निकटन त्रुटियों जैसी कम्प्यूटेशनल अशुद्धियों के प्रति अधिक संवेदनशील होता है।
टोएप्लिट्ज़ आव्यूह के लिए बेरिस एल्गोरिदम (सामान्य बेरिस एल्गोरिदम के साथ भ्रमित नहीं होना चाहिए) लेविंसन पुनरावर्तन जितना तीव्र चलता है, परन्तु यह O(n2) समष्टि का उपयोग करता है, जबकि लेविंसन पुनरावर्तन मात्र O(n) समष्टि का उपयोग करता है। यद्यपि, बेरिस एल्गोरिदम संख्यात्मक स्थिरता है,[1][2] जबकि लेविंसन पुनरावर्तन मात्र दुर्बल रूप से स्थिर है (अर्थात यह ठीक रूप से वातानुकूलित रैखिक प्रणालियों के लिए संख्यात्मक स्थिरता प्रदर्शित करता है)।[3]
इस प्रकार से नवीन एल्गोरिदम, जिन्हें लक्षणात्मक रूप से तीव्र या कभी-कभी अतितीव्र टोएप्लिट्ज़ एल्गोरिदम कहा जाता है, विभिन्न p के लिए (जैसे p = 2,[4][5] p = 3 [6]) के लिए Θ(n logpn) में हल कर सकते हैं। लेविंसन पुनरावर्तन कई कारणों से लोकप्रिय बना हुआ है; एक के लिए, तुलना में इसे समझना अपेक्षाकृत सरल है; दूसरे के लिए, यह छोटे n (सामान्यतः n <256) के लिए अतितीव्र एल्गोरिदम से तीव्र हो सकता है।[7]
व्युत्पत्ति
पृष्ठभूमि
इस प्रकार से आव्यूह समीकरण रूप
- का अनुसरण करते हैं।
लेविंसन-डर्बिन एल्गोरिदम का उपयोग ऐसे किसी भी समीकरण के लिए किया जा सकता है, जब तक कि M गैर-शून्य मुख्य विकर्ण के साथ ज्ञात टोएप्लिट्ज़ आव्यूह है। इस प्रकार से यह एक ज्ञात सदिश समष्टि है, और संख्याओं xi का अज्ञात सदिश है जिसे अभी तक निर्धारित नहीं किया गया है।
इस लेख के लिए, êi सदिश है जो पूर्ण रूप से शून्य से बना है, इसके iवें स्थान को छोड़कर, जिसका मान एक है। इसकी लंबाई निकट के संदर्भ से स्पष्ट रूप से निर्धारित होगी। शब्द N उपरोक्त आव्यूह की चौड़ाई को संदर्भित करता है - 'M' N×N आव्यूह है। अंत में, इस आलेख में, सुपरस्क्रिप्ट आगमनात्मक सूचकांक को संदर्भित करते हैं, जबकि सबस्क्रिप्ट सूचकांकों को दर्शाते हैं। उदाहरण के लिए (और परिभाषा), इस आलेख में, आव्यूह 'Tn n×n आव्यूह है जो 'M' से ऊपरी बाएँ n×n कक्ष की प्रतिलिपि बनाता है - अर्थात, Tnij = Mij।
इस प्रकार से Tn भी टोएप्लिट्ज़ आव्यूह है, जिसका अर्थ है कि इसे
- के रूप में लिखा जा सकता है।
परिचयात्मक चरण
एल्गोरिदम दो चरणों में आगे बढ़ता है। पहले चरण में, सदिश के दो समुच्चय स्थापित किए जाते हैं, जिन्हें अग्र और पश्च सदिश कहा जाता है। इस प्रकार से अग्र सदिश का उपयोग पश्च सदिश के समुच्चय को प्राप्त करने में सहायता के लिए किया जाता है; तो उन्हें तुरंत त्याग दिया जा सकता है। दूसरे चरण के लिए पश्च सदिश आवश्यक हैं, जहां उनका उपयोग वांछित हल बनाने के लिए किया जाता है।
इस प्रकार से लेविंसन-डर्बिन पुनरावर्तन nवें "अग्र सदिश" को पूर्ण रूप से परिभाषित करता है, जिसे कहा जाता है, लंबाई n के सदिश के रूप में जो संतुष्ट करता है:
nवें पश्च सदिश को इसी प्रकार परिभाषित किया गया है; यह लंबाई n का सदिश है जो संतुष्ट करता है:
एक महत्वपूर्ण सरलीकरण तब हो सकता है जब M सममित आव्यूह है; तो दोनों सदिश bni = fnn+1−i— से संबंधित हैं - अर्थात, वे एक दूसरे के पंक्ति-व्युत्क्रम हैं। यह उस विशेष स्थिति में कुछ अतिरिक्त गणना शेष रह सकती है।
पश्च सदिश प्राप्त करना
यद्यपि एक आव्यूह सममित न हो, फिर भी nवें अग्र और पश्च के सदिश को लंबाई n - 1 के सदिश से निम्नानुसार पाया जा सकता है। इस प्रकार से सर्वप्रथम, अग्र सदिश को प्राप्त करने के लिए शून्य के साथ पूर्ण रूप से बढ़ाया जा सकता है:
Tn−1 से Tn तक जाने में, आव्यूह में जोड़ा गया अतिरिक्त स्तम्भ हल को उद्विग्न नहीं करता है जब शून्य का उपयोग अग्र सदिश को बढ़ाने के लिए किया जाता है। यद्यपि, आव्यूह में जोड़ी गई अतिरिक्त पंक्ति ने हल को पूर्ण रूप से बाधित कर दिया है; और इसने एक अवांछित त्रुटि शब्द εf बनाया है जो अंतिम स्थान पर आता है। इस प्रकार से उपरोक्त समीकरण इसका मान देता है:
यह त्रुटि शीघ्र ही वापस आ जाएगी और नवीन अग्र सदिश से समाप्त कर दी जाएगी; परन्तु सर्वप्रथम, पश्च सदिश को समान (यद्यपि व्युत्क्रमा) विधि से बढ़ाया जाना चाहिए। अतः पश्च सदिश के लिए,
पहले के जैसे, आव्यूह में जोड़ा गया अतिरिक्त स्तम्भ इस नवीन पश्च सदिश को उद्विग्न नहीं करता है; परन्तु अतिरिक्त पंक्ति करती है। इस प्रकार से यहां हमारे निकट मान के साथ एक और अवांछित त्रुटि εb है:
इन दो त्रुटि शब्दों का उपयोग निम्नानुसार वर्णित उच्च-क्रम वाले अग्र और पश्च के सदिश बनाने के लिए किया जा सकता है। इस प्रकार से आव्यूहों की रैखिकता का उपयोग पूर्ण रूप से करते हुए, निम्नलिखित पहचान सभी के लिए मान्य है:
यदि α और β को चुना जाता है ताकि दाहिनी ओर से ê1 or ên प्राप्त हो, तो कोष्ठक में स्थित मात्रा क्रमशः nवें अग्र या पश्च सदिश की परिभाषा को पूर्ण करेगी। उन अल्फा और बीटा को चुनने पर, कोष्ठक में सदिश योग सरल होता है और वांछित परिणाम देता है।
इन गुणांकों को खोजने के लिए, , जैसे कि:
और क्रमशः , जैसे कि:
इस प्रकार से पूर्व दोनों समीकरणों को से गुणा करने पर निम्नलिखित समीकरण प्राप्त होता है:
अब, ऊपर दिए गए दो सदिशों के बीच के सभी शून्यों को अनदेखा कर दिया गया है और निपातित कर दिया गया है, मात्र निम्नलिखित समीकरण शेष है:
इस प्रकार से इन्हें हल करने के साथ (क्रैमर 2×2 आव्यूह व्युत्क्रम सूत्र का उपयोग करके), नवीन अग्र और पश्च सदिश निम्नलिखित हैं:
इन सदिश योगों को निष्पादित करने से, पहले वाले सदिशों से अग्र और पश्च का nवां सदिश प्राप्त होता है। जो कुछ शेष है वह इन सदिशों में से पहले को ढूंढना है, और फिर कुछ त्वरित योग और गुणन से शेष को प्राप्त करना है। इस प्रकार से पहले अग्र और पश्च वाले सदिश मात्र हैं:
पश्च सदिश का उपयोग करना
उपरोक्त चरण 'M' के लिए n पश्च सदिश देते हैं। अतः वहां से, अधिक यादृच्छिक समीकरण है:
हल उसी पुनरावर्ती विधि से बनाया जा सकता है जैसे पश्च सदिश बनाए गए थे। इसलिए, को मध्यवर्ती के अनुक्रम में पूर्ण रूप से सामान्यीकृत किया जाना चाहिए, जैसे कि .
फिर हल यह ध्यान देकर पुनरावर्ती रूप से बनाया जाता है कि यदि
फिर, शून्य के साथ फिर से विस्तार करना, और जहां आवश्यक हो, एक त्रुटि स्थिरांक को परिभाषित करना:
इस प्रकार से फिर हम त्रुटि पद को समाप्त करने के लिए nवें पश्च सदिश का उपयोग कर सकते हैं और इसे निम्नानुसार वांछित सूत्र से परिवर्तित कर सकते हैं:
इस विधि को n = N तक विस्तारित करने से हल प्राप्त होता है।
अतः इस प्रकार से व्यवहार में, ये चरण प्रायः शेष प्रक्रिया के साथ-साथ किए जाते हैं, परन्तु वे सुसंगत इकाई बनाते हैं और उन्हें अपने स्वयं के चरण के रूप में माना जाना चाहिए।
कक्ष लेविंसन एल्गोरिदम
यदि M दृढ़ता से टोएप्लिट्ज़ नहीं है, परन्तु कक्ष आव्यूह टोएप्लिट्ज़ है, तो लेविंसन पुनरावर्तन को आव्यूह अवयवों के साथ टोएप्लिट्ज़ आव्यूह के रूप में कक्ष टोएप्लिट्ज़ आव्यूह के संबंध में उसी प्रकार से प्राप्त किया जा सकता है (म्यूजिकस 1988)। अतः कक्ष टॉप्लिट्ज़ आव्यूह सिग्नल प्रोसेसिंग एल्गोरिदम में स्वाभाविक रूप से उत्पन्न होते हैं जब कई सिग्नल स्ट्रीम (उदाहरण के लिए, सिस्टम विश्लेषण सिस्टम की विशेषता) या साइक्लो-स्टेशनरी सिग्नल से निपटते हैं।
यह भी देखें
- स्प्लिट लेविंसन पुनरावर्तन
- रैखिक प्रागुक्ति
- स्वप्रतिगामी मॉडल
टिप्पणियाँ
- ↑ Bojanczyk et al. (1995).
- ↑ Brent (1999).
- ↑ Krishna & Wang (1993).
- ↑ "संग्रहीत प्रति" (PDF). Archived from the original (PDF) on 2012-03-25. Retrieved 2013-04-01.
- ↑ "संग्रहीत प्रति" (PDF). Archived from the original (PDF) on 2009-11-15. Retrieved 2009-04-28.
- ↑ "संग्रहीत प्रति" (PDF). saaz.cs.gsu.edu. Archived from the original (PDF) on 18 April 2007. Retrieved 12 January 2022.
- ↑ "संग्रहीत प्रति" (PDF). Archived from the original (PDF) on 2006-09-05. Retrieved 2006-08-15.
संदर्भ
Defining sources
- Levinson, N. (1947). "The Wiener RMS error criterion in filter design and prediction." J. Math. Phys., v. 25, pp. 261–278.
- Durbin, J. (1960). "The fitting of time series models." Rev. Inst. Int. Stat., v. 28, pp. 233–243.
- Trench, W. F. (1964). "An algorithm for the inversion of finite टोएप्लिट्ज़ matrices." J. Soc. Indust. Appl. Math., v. 12, pp. 515–522.
- Musicus, B. R. (1988). "Levinson and Fast Choleski Algorithms for टोएप्लिट्ज़ and Almost टोएप्लिट्ज़ Matrices." RLE TR No. 538, MIT. [1]
- Delsarte, P. and Genin, Y. V. (1986). "The split Levinson algorithm." IEEE Transactions on Acoustics, Speech, and Signal Processing, v. ASSP-34(3), pp. 470–478.
Further work
- Bojanczyk, A.W.; Brent, R.P.; De Hoog, F.R.; Sweet, D.R. (1995). "On the stability of the Bareiss and related Toeplitz factorization algorithms". SIAM Journal on Matrix Analysis and Applications. 16: 40–57. arXiv:1004.5510. doi:10.1137/S0895479891221563. S2CID 367586.
- Brent R.P. (1999), "Stability of fast algorithms for structured linear systems", Fast Reliable Algorithms for Matrices with Structure (editors—T. Kailath, A.H. Sayed), ch.4 (SIAM).
- Bunch, J. R. (1985). "Stability of methods for solving टोएप्लिट्ज़ systems of equations." SIAM J. Sci. Stat. Comput., v. 6, pp. 349–364. [2]
- Krishna, H.; Wang, Y. (1993). "The Split Levinson Algorithm is weakly stable". SIAM Journal on Numerical Analysis. 30 (5): 1498–1508. doi:10.1137/0730078.
Summaries
- Bäckström, T. (2004). "2.2. Levinson–Durbin Recursion." Linear Predictive Modelling of Speech – Constraints and Line Spectrum Pair Decomposition. Doctoral thesis. Report no. 71 / Helsinki University of Technology, Laboratory of Acoustics and Audio Signal Processing. Espoo, Finland. [3]
- Claerbout, Jon F. (1976). "Chapter 7 – Waveform Applications of Least-Squares." Fundamentals of Geophysical Data Processing. Palo Alto: Blackwell Scientific Publications. [4]
- Press, WH; Teukolsky, SA; Vetterling, WT; Flannery, BP (2007), "Section 2.8.2. Toeplitz Matrices", Numerical Recipes: The Art of Scientific Computing (3rd ed.), New York: Cambridge University Press, ISBN 978-0-521-88068-8
- Golub, G.H., and Loan, C.F. Van (1996). "Section 4.7 : टोएप्लिट्ज़ and related Systems" Matrix Computations, Johns Hopkins University Press