लीनियर प्रेडिक्शन: Difference between revisions

From Vigyanwiki
No edit summary
No edit summary
Line 1: Line 1:
{{Short description|Mathematical operation that predicts future values of a discrete-time signal}}
{{Short description|Mathematical operation that predicts future values of a discrete-time signal}}
रैखिक भविष्यवाणी एक गणितीय ऑपरेशन है जहां असतत समय और निरंतर समय के भविष्य के मूल्यों का अनुमान लगाया जाता है। असतत-समय [[ संकेत आगे बढ़ाना |संकेत आगे बढ़ाना]] का अनुमान पिछले नमूनों के [[रैखिक परिवर्तन]] के रूप में लगाया जाता है।
'''रैखिक प्रेडिक्शन''' एक गणितीय संचालन होता है जहाँ असतत-समय [[ संकेत आगे बढ़ाना |संकेत]] के भविष्य के मूल्यों का प्राक्कलन पिछले प्रतिरूपों के [[रैखिक परिवर्तन]] के रूप में लगाया जाता है।


[[ अंकीय संकेत प्रक्रिया | अंकीय संकेत प्रक्रिया]] में, रैखिक भविष्यवाणी को अक्सर [[रैखिक भविष्य कहनेवाला कोडिंग]] (एलपीसी) कहा जाता है और इस प्रकार इसे [[फ़िल्टर सिद्धांत]] के सबसेट के रूप में देखा जा सकता है। सिस्टम विश्लेषण में, गणित का एक उपक्षेत्र, रैखिक भविष्यवाणी को गणितीय मॉडलिंग या [[अनुकूलन (गणित)]] के एक भाग के रूप में देखा जा सकता है।
[[ अंकीय संकेत प्रक्रिया | अंकीय संकेत प्रक्रिया]] में, रैखिक प्रेडिक्शन को अधिकांशतः [[रैखिक भविष्य कहनेवाला कोडिंग|रैखिक पूर्वानुमानित कोडिंग]] (एलपीसी) कहा जाता है और इस प्रकार इसे [[फ़िल्टर सिद्धांत|निस्पंदन सिद्धांत]] के उपसमूह के रूप में देखा जा सकता है। प्रणाली विश्लेषण में, गणित का एक उपक्षेत्र, रैखिक प्रेडिक्शन को गणितीय मॉडलिंग या [[अनुकूलन (गणित)|अनुकूलन]] के एक भाग के रूप में देखा जा सकता है।


== भविष्यवाणी मॉडल ==
== प्रेडिक्शन मॉडल ==
सबसे आम प्रतिनिधित्व है
सबसे सामान्य प्रतिनिधित्व निम्न प्रकार है


:<math>\widehat{x}(n) = \sum_{i=1}^p a_i x(n-i)\,</math>
:<math>\widehat{x}(n) = \sum_{i=1}^p a_i x(n-i)\,</math>
कहाँ <math>\widehat{x}(n)</math> अनुमानित संकेत मान है, <math>x(n-i)</math> पिछले देखे गए मान, के साथ <math> p \leq n </math>, और <math>a_i</math> भविष्यवक्ता गुणांक. इस अनुमान से उत्पन्न त्रुटि है
जहाँ <math>\widehat{x}(n)</math> प्राक्कलित संकेत मान होता है, <math>x(n-i)</math> पिछले देखे गए मान, के साथ <math> p \leq n </math>, और <math>a_i</math> भविष्यवक्ता गुणांक होता है। इस प्राक्कलन से उत्पन्न त्रुटि इस प्रकार है  


:<math>e(n) = x(n) - \widehat{x}(n)\,</math>
:<math>e(n) = x(n) - \widehat{x}(n)\,</math>
कहाँ <math>x(n)</math> सही सिग्नल मान है.
जहाँ <math>x(n)</math> सत्य संकेत मान होता है।


ये समीकरण सभी प्रकार की (एक-आयामी) रैखिक भविष्यवाणी के लिए मान्य हैं। अंतर भविष्यवक्ता गुणांक के तरीके में पाए जाते हैं <math>a_i</math> चुने गए हैं.
ये समीकरण सभी प्रकार की (एक-आयामी) रैखिक प्रेडिक्शन के लिए मान्य होता हैं। अंतर चयन किये गए भविष्यवक्ता गुणांक <math>a_i</math> के विधि में पाए जाते हैं।बहुआयामी संकेतों के लिए त्रुटि अव्व्युह को अधिकांशतः इस प्रकार परिभाषित किया जाता है
 
बहुआयामी संकेतों के लिए त्रुटि मीट्रिक को अक्सर इस प्रकार परिभाषित किया जाता है


:<math>e(n) = \|x(n) - \widehat{x}(n)\|\,</math>
:<math>e(n) = \|x(n) - \widehat{x}(n)\|\,</math>
कहाँ <math>\|\cdot\|</math> एक उपयुक्त चुना हुआ वेक्टर मानदंड (गणित) है। जैसी भविष्यवाणियाँ <math>\widehat{x}(n)</math> शोर माप से क्रमशः वर्तमान और पिछले सिग्नल मूल्यों का अनुमान लगाने के लिए [[कलमन फ़िल्टर]] और स्मूथर्स के भीतर नियमित रूप से उपयोग किया जाता है।<ref>{{Cite web |title=Kalman Filter - an overview {{!}} ScienceDirect Topics |url=https://www.sciencedirect.com/topics/earth-and-planetary-sciences/kalman-filter |access-date=2022-06-24 |website=www.sciencedirect.com}}</ref>
जहाँ <math>\|\cdot\|</math> एक उपयुक्त चुना हुआ सदिश मानदंड होता है। जैसी भविष्यवाणियाँ <math>\widehat{x}(n)</math> ध्वनि माप से क्रमशः वर्तमान और पिछले संकेत मूल्यों का प्राक्कलन लगाने के लिए [[कलमन फ़िल्टर|कलमन निस्पंदन]] और स्मूथर्स के भीतर नियमित रूप से उपयोग किया जाता है।<ref>{{Cite web |title=Kalman Filter - an overview {{!}} ScienceDirect Topics |url=https://www.sciencedirect.com/topics/earth-and-planetary-sciences/kalman-filter |access-date=2022-06-24 |website=www.sciencedirect.com}}</ref>


=== मापदंडों का अनुमान लगाना ===
=== मापदंडों का प्राक्कलन लगाना ===
मापदंडों के अनुकूलन में सबसे आम विकल्प <math>a_i</math> मूल माध्य वर्ग मानदंड है जिसे स्वसहसंबंध मानदंड भी कहा जाता है। इस विधि में हम वर्ग त्रुटि के अपेक्षित मान को न्यूनतम कर देते हैं <math> E[e^2(n)]</math>, जो समीकरण उत्पन्न करता है
मापदंडों के अनुकूलन में सबसे सधारण विकल्प <math>a_i</math> मूल माध्य वर्ग मानदंड होता है जिसे स्वसहसंबंध मानदंड भी कहा जाता है। इस विधि में हम वर्ग त्रुटि<math> E[e^2(n)]</math> के अपेक्षित मान को न्यूनतम कर देते हैं, जो समीकरण उत्पन्न करता है जो इस प्रकार है  


:<math>\sum_{i=1}^p a_i R(j-i) = R(j),</math>
:<math>\sum_{i=1}^p a_i R(j-i) = R(j),</math>
1 ≤ j ≤ p के लिए, जहां R सिग्नल x का स्वत:सहसंबंध है<sub>''n''</sub>, के रूप में परिभाषित
1 ≤ j ≤ p के लिए, जहाँ R संकेत x<sub>''n''</sub> का स्वत:सहसंबंध होता है, जिसे निम्न प्रकार परिभाषित किया जाता है


:<math>\ R(i) = E\{x(n)x(n-i)\}\,</math>,
:<math>\ R(i) = E\{x(n)x(n-i)\}\,</math>,


और E अपेक्षित मान है. बहुआयामी मामले में यह एलपी स्पेस|एल को न्यूनतम करने के अनुरूप है<sub>2</sub> आदर्श.
और E अपेक्षित मान होता है। बहुआयामी स्थिति में यह L<sub>2</sub> मानदंड को न्यूनतम करने के अनुरूप होता है।


उपरोक्त समीकरणों को [[सामान्य समीकरण]] या ऑटोरेग्रेसिव मॉडल#यूल-वॉकर समीकरण|यूल-वॉकर समीकरण कहा जाता है। मैट्रिक्स रूप में समीकरणों को समकक्ष रूप में लिखा जा सकता है
उपरोक्त समीकरणों को [[सामान्य समीकरण]] या यूल-वॉकर समीकरण कहा जाता है। अव्व्युह रूप में समीकरणों को समकक्ष रूप में निम्न प्रकार से लिखा जा सकता है


:<math>\mathbf{R A} = \mathbf{r}</math>
:<math>\mathbf{R A} = \mathbf{r}</math>
जहां ऑटोसहसंबंध मैट्रिक्स <math>\mathbf{R}</math> एक सममित है, <math>p \times p</math> तत्वों के साथ Toeplitz मैट्रिक्स <math> r_{ij} = R(i-j), 0 \leq i, j<p </math>, वेक्टर <math>\mathbf{r}</math> स्वसहसंबंध वेक्टर है <math> r_j = R(j), 0<j \leq p</math>, और <math>\mathbf{A} = [a_1, a_2, \,\cdots\, , a_{p-1}, a_p]</math>, पैरामीटर वेक्टर।
जहाँ ऑटोसहसंबंध अव्व्युह <math>\mathbf{R}</math> एक सममित होता है, <math>p \times p</math> तत्वों के साथ टोएप्लिट्ज़ अव्व्युह <math> r_{ij} = R(i-j), 0 \leq i, j<p </math> होता है, सदिश <math>\mathbf{r}</math> स्वसहसंबंध सदिश <math> r_j = R(j), 0<j \leq p</math>, और <math>\mathbf{A} = [a_1, a_2, \,\cdots\, , a_{p-1}, a_p]</math> पैरामीटर सदिश होता है।


दूसरा, अधिक सामान्य दृष्टिकोण फॉर्म में परिभाषित त्रुटियों के वर्गों के योग को कम करना है
दूसरा, अधिक सामान्य दृष्टिकोण फॉर्म में परिभाषित त्रुटियों के वर्गों के योग को कम करना होता है


:<math>e(n) = x(n) - \widehat{x}(n) = x(n) - \sum_{i=1}^p a_i x(n-i) = - \sum_{i=0}^p a_i x(n-i)</math>
:<math>e(n) = x(n) - \widehat{x}(n) = x(n) - \sum_{i=1}^p a_i x(n-i) = - \sum_{i=0}^p a_i x(n-i)</math>
जहां सब पर खोज में अनुकूलन समस्या है <math>a_i</math> अब बाध्य होना चाहिए <math>a_0=-1</math>.
जहाँ सभी <math>a_i</math>पर अन्वेषण में अनुकूलन समस्या अब <math>a_0=-1</math> होती है।


दूसरी ओर, यदि माध्य वर्ग पूर्वानुमान त्रुटि को एकता के लिए बाध्य किया जाता है और पूर्वानुमान त्रुटि समीकरण को सामान्य समीकरणों के शीर्ष पर शामिल किया जाता है, तो समीकरणों का संवर्धित सेट इस प्रकार प्राप्त होता है
दूसरी ओर, यदि माध्य वर्ग पूर्वानुमान त्रुटि को एकात्मकता के लिए बाध्य किया जाता है और पूर्वानुमान त्रुटि समीकरण को सामान्य समीकरणों के शीर्ष पर सम्मिलित किया जाता है, तो समीकरणों का संवर्धित समूह इस प्रकार प्राप्त होता है


:<math>\ \mathbf{R A} = [1, 0, ... , 0]^{\mathrm{T}}</math>
:<math>\ \mathbf{R A} = [1, 0, ... , 0]^{\mathrm{T}}</math>
जहां सूचकांक <math>i</math> 0 से लेकर है <math>p</math>, और <math>\mathbf{R}</math> एक है <math>(p+1)\times(p+1)</math> आव्यूह।
जहाँ सूचकांक <math>i</math> 0 से लेकर <math>p</math> होता है, और <math>\mathbf{R}</math> एक <math>(p+1)\times(p+1)</math> आव्यूह होता है।
 
रैखिक भविष्यवक्ता के मापदंडों की विशिष्टता एक विस्तृत विषय होता है और बड़ी संख्या में अन्य दृष्टिकोण प्रस्तावित किए जाते हैं। वास्तव में, स्वसहसंबंध विधि सबसे सधारण होती है<ref>{{Cite web |title=Linear Prediction - an overview {{!}} ScienceDirect Topics |url=https://www.sciencedirect.com/topics/mathematics/linear-prediction |access-date=2022-06-24 |website=www.sciencedirect.com}}</ref> और इसका उपयोग, उदाहरण के लिए, [[मोबाइल संप्रेषण के लिए विश्वव्यापी व्यवस्था|जीएसएम]] मानक में भाषण कोडिंग के लिए किया जाता है।


रैखिक भविष्यवक्ता के मापदंडों की विशिष्टता एक विस्तृत विषय है और बड़ी संख्या में अन्य दृष्टिकोण प्रस्तावित किए गए हैं। वास्तव में, स्वसहसंबंध विधि सबसे आम है<ref>{{Cite web |title=Linear Prediction - an overview {{!}} ScienceDirect Topics |url=https://www.sciencedirect.com/topics/mathematics/linear-prediction |access-date=2022-06-24 |website=www.sciencedirect.com}}</ref> और इसका उपयोग, उदाहरण के लिए, [[मोबाइल संप्रेषण के लिए विश्वव्यापी व्यवस्था]] मानक में वाक् कोडिंग के लिए किया जाता है।
अव्व्युह समीकरण का समाधान <math>\mathbf{R A} = \mathbf{r}</math> कम्प्यूटेशनल रूप से एक अपेक्षाकृत उच्च लागत की प्रक्रिया होती है। अव्व्युह व्युत्क्रमण के लिए गॉसियन उन्मूलन संभवतः सबसे पुराना समाधान होता है परन्तु यह दृष्टिकोण समरूपता <math>\mathbf{R}</math> का कुशलतापूर्वक उपयोग नहीं करता है। एक उच्च एल्गोरिथ्म 1947 में [[नॉर्मन लेविंसन]] द्वारा प्रस्तावित [[लेविंसन रिकर्सन]] होता है, जो समाधान की पुनरावर्ती गणना करता है। विशेष रूप से, उपरोक्त स्वसहसंबंध समीकरणों को डर्बिन एल्गोरिथम द्वारा अधिक कुशलता से हल किया जा सकता है।<ref>{{cite journal | last1 = Ramirez | first1 = M. A. | year = 2008 | title = डर्बिन के आइसोमेट्रिक परिवर्तन पर आधारित एक लेविंसन एल्गोरिदम| doi = 10.1109/LSP.2007.910319 | journal = IEEE Signal Processing Letters | volume = 15 | pages = 99–102 | s2cid = 18906207 |url=http://www.producao.usp.br/bitstream/handle/BDPI/18665/lts2r1f.pdf}}</ref>


मैट्रिक्स समीकरण का समाधान <math>\mathbf{R A} = \mathbf{r}</math> कम्प्यूटेशनल रूप से एक अपेक्षाकृत महंगी प्रक्रिया है। मैट्रिक्स व्युत्क्रमण के लिए गॉसियन उन्मूलन संभवतः सबसे पुराना समाधान है लेकिन यह दृष्टिकोण समरूपता का कुशलतापूर्वक उपयोग नहीं करता है <math>\mathbf{R}</math>. एक तेज़ एल्गोरिथ्म 1947 में [[नॉर्मन लेविंसन]] द्वारा प्रस्तावित [[लेविंसन रिकर्सन]] है, जो समाधान की पुनरावर्ती गणना करता है। विशेष रूप से, उपरोक्त स्वसहसंबंध समीकरणों को डर्बिन एल्गोरिथम द्वारा अधिक कुशलता से हल किया जा सकता है।<ref>{{cite journal | last1 = Ramirez | first1 = M. A. | year = 2008 | title = डर्बिन के आइसोमेट्रिक परिवर्तन पर आधारित एक लेविंसन एल्गोरिदम| doi = 10.1109/LSP.2007.910319 | journal = IEEE Signal Processing Letters | volume = 15 | pages = 99–102 | s2cid = 18906207 |url=http://www.producao.usp.br/bitstream/handle/BDPI/18665/lts2r1f.pdf}}</ref>
1986 में, फिलिप डेल्सर्ट और वाई.वी. जेनिन ने इस एल्गोरिदम में एक सुधार का प्रस्ताव रखा जिसे स्प्लिट लेविंसन रिकर्सन कहा जाता है, जिसके लिए न्यूनाधिक आधी संख्या में गुणन और विभाजन की आवश्यकता होती है।<ref>Delsarte, P. and Genin, Y. V. (1986), ''The split Levinson algorithm'', ''IEEE Transactions on Acoustics, Speech, and Signal Processing'', v. ASSP-34(3), pp.&nbsp;470–478</ref> यह पश्चात् के रिकर्सन स्तरों पर पैरामीटर सदिश की एक विशेष सममित संपत्ति का उपयोग करता है। अर्थात्, इष्टतम भविष्यवक्ता युक्त के लिए गणना <math>p</math> क्रम <math>p-1</math> उद्देशों इष्टतम भविष्यवक्ता युक्त के लिए समान गणना का उपयोग करती हैं।
1986 में, फिलिप डेल्सर्ट और वाई.वी. जेनिन ने इस एल्गोरिदम में एक सुधार का प्रस्ताव रखा जिसे स्प्लिट लेविंसन रिकर्सन कहा जाता है, जिसके लिए लगभग आधी संख्या में गुणन और विभाजन की आवश्यकता होती है।<ref>Delsarte, P. and Genin, Y. V. (1986), ''The split Levinson algorithm'', ''IEEE Transactions on Acoustics, Speech, and Signal Processing'', v. ASSP-34(3), pp.&nbsp;470–478</ref> यह बाद के रिकर्सन स्तरों पर पैरामीटर वैक्टर की एक विशेष सममित संपत्ति का उपयोग करता है। अर्थात्, इष्टतम भविष्यवक्ता युक्त के लिए गणना <math>p</math> शर्तें इष्टतम भविष्यवक्ता युक्त के लिए समान गणना का उपयोग करती हैं <math>p-1</math> शर्तें।


मॉडल मापदंडों की पहचान करने का एक अन्य तरीका कलमन फिल्टर का उपयोग करके राज्य अनुमानों की पुनरावृत्तीय गणना करना और अपेक्षा-अधिकतमकरण एल्गोरिदम के भीतर [[अधिकतम संभावना अनुमान]] अनुमान प्राप्त करना है।
मॉडल मापदंडों की पहचान करने की एक अन्य विधि कलमन फिल्टर का उपयोग करके स्थिति प्राक्कलन की पुनरावृत्तीय गणना करती है और अपेक्षा-अधिकतमकरण एल्गोरिदम के भीतर [[अधिकतम संभावना अनुमान|अधिकतम संभावना प्राक्कलन]] प्राप्त करती है।


समान दूरी वाले मानों के लिए, एक बहुपद प्रक्षेप एक बहुपद प्रक्षेप#दिए गए मानों का एक रैखिक संयोजन|ज्ञात मानों का रैखिक संयोजन है। यदि असतत समय संकेत को डिग्री के बहुपद का पालन करने का अनुमान लगाया जाता है <math>p-1,</math> फिर भविष्यवक्ता गुणांक <math>a_i</math> पास्कल के त्रिकोण की संगत पंक्ति द्वारा दिए गए हैं#द्विपद परिवर्तन गुणांक का त्रिकोण पास्कल के त्रिकोण की तरह है।|द्विपद परिवर्तन गुणांक का त्रिकोण। यह अनुमान कम शोर वाले धीरे-धीरे बदलते सिग्नल के लिए उपयुक्त हो सकता है। के पहले कुछ मूल्यों के लिए भविष्यवाणियाँ <math>p</math> हैं
समान दूरी वाले मानों के लिए, एक बहुपद प्रक्षेप दिए गए मानों का एक रैखिक संयोजन होता है। यदि असतत समय संकेत को डिग्री <math>p-1</math> के बहुपद का पालन करने का प्राक्कलन लगाया जाता है फिर भविष्यवक्ता गुणांक <math>a_i</math> पास्कल के त्रिकोण की संगत पंक्ति द्वारा दिए गए द्विपद परिवर्तन गुणांक का त्रिकोण पास्कल के त्रिकोण की तरह होता है। यह प्राक्कलन कम ध्वनि वाले धीरे-धीरे बदलते संकेत के लिए उपयुक्त हो सकता है। पहले के कुछ मूल्यों के लिए भविष्यवाणियाँ <math>p</math> निम्न प्रकार हैं


: <math>\begin{array}{lcl}
: <math>\begin{array}{lcl}
Line 66: Line 65:
* रेखीय पूर्वानुमानित विश्लेषण
* रेखीय पूर्वानुमानित विश्लेषण
*[[न्यूनतम माध्य वर्ग त्रुटि]]
*[[न्यूनतम माध्य वर्ग त्रुटि]]
* [[भविष्यवाणी अंतराल]]
* [[भविष्यवाणी अंतराल|प्रेडिक्शन अंतराल]]
* [[ सड़क फ़िल्टरिंग ]]
* [[ सड़क फ़िल्टरिंग | मार्ग निस्पंदन]]


== संदर्भ ==
== संदर्भ ==

Revision as of 16:36, 30 July 2023

रैखिक प्रेडिक्शन एक गणितीय संचालन होता है जहाँ असतत-समय संकेत के भविष्य के मूल्यों का प्राक्कलन पिछले प्रतिरूपों के रैखिक परिवर्तन के रूप में लगाया जाता है।

अंकीय संकेत प्रक्रिया में, रैखिक प्रेडिक्शन को अधिकांशतः रैखिक पूर्वानुमानित कोडिंग (एलपीसी) कहा जाता है और इस प्रकार इसे निस्पंदन सिद्धांत के उपसमूह के रूप में देखा जा सकता है। प्रणाली विश्लेषण में, गणित का एक उपक्षेत्र, रैखिक प्रेडिक्शन को गणितीय मॉडलिंग या अनुकूलन के एक भाग के रूप में देखा जा सकता है।

प्रेडिक्शन मॉडल

सबसे सामान्य प्रतिनिधित्व निम्न प्रकार है

जहाँ प्राक्कलित संकेत मान होता है, पिछले देखे गए मान, के साथ , और भविष्यवक्ता गुणांक होता है। इस प्राक्कलन से उत्पन्न त्रुटि इस प्रकार है

जहाँ सत्य संकेत मान होता है।

ये समीकरण सभी प्रकार की (एक-आयामी) रैखिक प्रेडिक्शन के लिए मान्य होता हैं। अंतर चयन किये गए भविष्यवक्ता गुणांक के विधि में पाए जाते हैं।बहुआयामी संकेतों के लिए त्रुटि अव्व्युह को अधिकांशतः इस प्रकार परिभाषित किया जाता है

जहाँ एक उपयुक्त चुना हुआ सदिश मानदंड होता है। जैसी भविष्यवाणियाँ ध्वनि माप से क्रमशः वर्तमान और पिछले संकेत मूल्यों का प्राक्कलन लगाने के लिए कलमन निस्पंदन और स्मूथर्स के भीतर नियमित रूप से उपयोग किया जाता है।[1]

मापदंडों का प्राक्कलन लगाना

मापदंडों के अनुकूलन में सबसे सधारण विकल्प मूल माध्य वर्ग मानदंड होता है जिसे स्वसहसंबंध मानदंड भी कहा जाता है। इस विधि में हम वर्ग त्रुटि के अपेक्षित मान को न्यूनतम कर देते हैं, जो समीकरण उत्पन्न करता है जो इस प्रकार है

1 ≤ j ≤ p के लिए, जहाँ R संकेत xn का स्वत:सहसंबंध होता है, जिसे निम्न प्रकार परिभाषित किया जाता है

,

और E अपेक्षित मान होता है। बहुआयामी स्थिति में यह L2 मानदंड को न्यूनतम करने के अनुरूप होता है।

उपरोक्त समीकरणों को सामान्य समीकरण या यूल-वॉकर समीकरण कहा जाता है। अव्व्युह रूप में समीकरणों को समकक्ष रूप में निम्न प्रकार से लिखा जा सकता है

जहाँ ऑटोसहसंबंध अव्व्युह एक सममित होता है, तत्वों के साथ टोएप्लिट्ज़ अव्व्युह होता है, सदिश स्वसहसंबंध सदिश , और पैरामीटर सदिश होता है।

दूसरा, अधिक सामान्य दृष्टिकोण फॉर्म में परिभाषित त्रुटियों के वर्गों के योग को कम करना होता है

जहाँ सभी पर अन्वेषण में अनुकूलन समस्या अब होती है।

दूसरी ओर, यदि माध्य वर्ग पूर्वानुमान त्रुटि को एकात्मकता के लिए बाध्य किया जाता है और पूर्वानुमान त्रुटि समीकरण को सामान्य समीकरणों के शीर्ष पर सम्मिलित किया जाता है, तो समीकरणों का संवर्धित समूह इस प्रकार प्राप्त होता है

जहाँ सूचकांक 0 से लेकर होता है, और एक आव्यूह होता है।

रैखिक भविष्यवक्ता के मापदंडों की विशिष्टता एक विस्तृत विषय होता है और बड़ी संख्या में अन्य दृष्टिकोण प्रस्तावित किए जाते हैं। वास्तव में, स्वसहसंबंध विधि सबसे सधारण होती है[2] और इसका उपयोग, उदाहरण के लिए, जीएसएम मानक में भाषण कोडिंग के लिए किया जाता है।

अव्व्युह समीकरण का समाधान कम्प्यूटेशनल रूप से एक अपेक्षाकृत उच्च लागत की प्रक्रिया होती है। अव्व्युह व्युत्क्रमण के लिए गॉसियन उन्मूलन संभवतः सबसे पुराना समाधान होता है परन्तु यह दृष्टिकोण समरूपता का कुशलतापूर्वक उपयोग नहीं करता है। एक उच्च एल्गोरिथ्म 1947 में नॉर्मन लेविंसन द्वारा प्रस्तावित लेविंसन रिकर्सन होता है, जो समाधान की पुनरावर्ती गणना करता है। विशेष रूप से, उपरोक्त स्वसहसंबंध समीकरणों को डर्बिन एल्गोरिथम द्वारा अधिक कुशलता से हल किया जा सकता है।[3]

1986 में, फिलिप डेल्सर्ट और वाई.वी. जेनिन ने इस एल्गोरिदम में एक सुधार का प्रस्ताव रखा जिसे स्प्लिट लेविंसन रिकर्सन कहा जाता है, जिसके लिए न्यूनाधिक आधी संख्या में गुणन और विभाजन की आवश्यकता होती है।[4] यह पश्चात् के रिकर्सन स्तरों पर पैरामीटर सदिश की एक विशेष सममित संपत्ति का उपयोग करता है। अर्थात्, इष्टतम भविष्यवक्ता युक्त के लिए गणना क्रम उद्देशों इष्टतम भविष्यवक्ता युक्त के लिए समान गणना का उपयोग करती हैं।

मॉडल मापदंडों की पहचान करने की एक अन्य विधि कलमन फिल्टर का उपयोग करके स्थिति प्राक्कलन की पुनरावृत्तीय गणना करती है और अपेक्षा-अधिकतमकरण एल्गोरिदम के भीतर अधिकतम संभावना प्राक्कलन प्राप्त करती है।

समान दूरी वाले मानों के लिए, एक बहुपद प्रक्षेप दिए गए मानों का एक रैखिक संयोजन होता है। यदि असतत समय संकेत को डिग्री के बहुपद का पालन करने का प्राक्कलन लगाया जाता है फिर भविष्यवक्ता गुणांक पास्कल के त्रिकोण की संगत पंक्ति द्वारा दिए गए द्विपद परिवर्तन गुणांक का त्रिकोण पास्कल के त्रिकोण की तरह होता है। यह प्राक्कलन कम ध्वनि वाले धीरे-धीरे बदलते संकेत के लिए उपयुक्त हो सकता है। पहले के कुछ मूल्यों के लिए भविष्यवाणियाँ निम्न प्रकार हैं

यह भी देखें

संदर्भ

  1. "Kalman Filter - an overview | ScienceDirect Topics". www.sciencedirect.com. Retrieved 2022-06-24.
  2. "Linear Prediction - an overview | ScienceDirect Topics". www.sciencedirect.com. Retrieved 2022-06-24.
  3. Ramirez, M. A. (2008). "डर्बिन के आइसोमेट्रिक परिवर्तन पर आधारित एक लेविंसन एल्गोरिदम" (PDF). IEEE Signal Processing Letters. 15: 99–102. doi:10.1109/LSP.2007.910319. S2CID 18906207.
  4. Delsarte, P. and Genin, Y. V. (1986), The split Levinson algorithm, IEEE Transactions on Acoustics, Speech, and Signal Processing, v. ASSP-34(3), pp. 470–478


अग्रिम पठन


बाहरी संबंध