लीनियर प्रेडिक्शन: Difference between revisions
(Created page with "{{Short description|Mathematical operation that predicts future values of a discrete-time signal}} रैखिक भविष्यवाणी एक गणितीय ऑ...") |
No edit summary |
||
(6 intermediate revisions by 5 users not shown) | |||
Line 1: | Line 1: | ||
{{Short description|Mathematical operation that predicts future values of a discrete-time signal}} | {{Short description|Mathematical operation that predicts future values of a discrete-time signal}} | ||
'''लीनियर प्रेडिक्शन''' एक गणितीय संचालन होता है जहाँ असतत-समय [[ संकेत आगे बढ़ाना |संकेत]] के भविष्य के मूल्यों का प्राक्कलन पिछले प्रतिरूपों के [[रैखिक परिवर्तन]] के रूप में लगाया जाता है। | |||
[[ अंकीय संकेत प्रक्रिया ]] में, रैखिक | [[ अंकीय संकेत प्रक्रिया | अंकीय संकेत प्रक्रिया]] में, रैखिक प्रेडिक्शन को अधिकांशतः [[रैखिक भविष्य कहनेवाला कोडिंग|रैखिक पूर्वानुमानित कोडिंग]] (एलपीसी) कहा जाता है और इस प्रकार इसे [[फ़िल्टर सिद्धांत|निस्पंदन सिद्धांत]] के उपसमूह के रूप में देखा जा सकता है। प्रणाली विश्लेषण में, गणित का एक उपक्षेत्र, रैखिक प्रेडिक्शन को गणितीय मॉडलिंग या [[अनुकूलन (गणित)|अनुकूलन]] के एक भाग के रूप में देखा जा सकता है। | ||
== | == प्रेडिक्शन मॉडल == | ||
सबसे | सबसे सामान्य प्रतिनिधित्व निम्न प्रकार है | ||
:<math>\widehat{x}(n) = \sum_{i=1}^p a_i x(n-i)\,</math> | :<math>\widehat{x}(n) = \sum_{i=1}^p a_i x(n-i)\,</math> | ||
जहाँ <math>\widehat{x}(n)</math> प्राक्कलित संकेत मान होता है, <math>x(n-i)</math> पिछले देखे गए मान, के साथ <math> p \leq n </math>, और <math>a_i</math> भविष्यवक्ता गुणांक होता है। इस प्राक्कलन से उत्पन्न त्रुटि इस प्रकार है | |||
:<math>e(n) = x(n) - \widehat{x}(n)\,</math> | :<math>e(n) = x(n) - \widehat{x}(n)\,</math> | ||
जहाँ <math>x(n)</math> सत्य संकेत मान होता है। | |||
ये समीकरण सभी प्रकार की (एक-आयामी) रैखिक | ये समीकरण सभी प्रकार की (एक-आयामी) रैखिक प्रेडिक्शन के लिए मान्य होता हैं। अंतर चयन किये गए भविष्यवक्ता गुणांक <math>a_i</math> के विधि में पाए जाते हैं।बहुआयामी संकेतों के लिए त्रुटि अव्व्युह को अधिकांशतः इस प्रकार परिभाषित किया जाता है | ||
:<math>e(n) = \|x(n) - \widehat{x}(n)\|\,</math> | :<math>e(n) = \|x(n) - \widehat{x}(n)\|\,</math> | ||
जहाँ <math>\|\cdot\|</math> एक उपयुक्त चुना हुआ सदिश मानदंड होता है। जैसी भविष्यवाणियाँ <math>\widehat{x}(n)</math> ध्वनि माप से क्रमशः वर्तमान और पिछले संकेत मूल्यों का प्राक्कलन लगाने के लिए [[कलमन फ़िल्टर|कलमन निस्पंदन]] और स्मूथर्स के भीतर नियमित रूप से उपयोग किया जाता है।<ref>{{Cite web |title=Kalman Filter - an overview {{!}} ScienceDirect Topics |url=https://www.sciencedirect.com/topics/earth-and-planetary-sciences/kalman-filter |access-date=2022-06-24 |website=www.sciencedirect.com}}</ref> | |||
=== मापदंडों का प्राक्कलन लगाना === | |||
=== मापदंडों का | मापदंडों के अनुकूलन में सबसे सधारण विकल्प <math>a_i</math> मूल माध्य वर्ग मानदंड होता है जिसे स्वसहसंबंध मानदंड भी कहा जाता है। इस विधि में हम वर्ग त्रुटि<math> E[e^2(n)]</math> के अपेक्षित मान को न्यूनतम कर देते हैं, जो समीकरण उत्पन्न करता है जो इस प्रकार है | ||
मापदंडों के अनुकूलन में सबसे | |||
:<math>\sum_{i=1}^p a_i R(j-i) = R(j),</math> | :<math>\sum_{i=1}^p a_i R(j-i) = R(j),</math> | ||
1 ≤ j ≤ p के लिए, | 1 ≤ j ≤ p के लिए, जहाँ R संकेत x<sub>''n''</sub> का स्वत:सहसंबंध होता है, जिसे निम्न प्रकार परिभाषित किया जाता है | ||
:<math>\ R(i) = E\{x(n)x(n-i)\}\,</math>, | :<math>\ R(i) = E\{x(n)x(n-i)\}\,</math>, | ||
और E अपेक्षित मान | और E अपेक्षित मान होता है। बहुआयामी स्थिति में यह L<sub>2</sub> मानदंड को न्यूनतम करने के अनुरूप होता है। | ||
उपरोक्त समीकरणों को [[सामान्य समीकरण]] या | उपरोक्त समीकरणों को [[सामान्य समीकरण]] या यूल-वॉकर समीकरण कहा जाता है। अव्व्युह रूप में समीकरणों को समकक्ष रूप में निम्न प्रकार से लिखा जा सकता है | ||
:<math>\mathbf{R A} = \mathbf{r}</math> | :<math>\mathbf{R A} = \mathbf{r}</math> | ||
जहाँ ऑटोसहसंबंध अव्व्युह <math>\mathbf{R}</math> एक सममित होता है, <math>p \times p</math> तत्वों के साथ टोएप्लिट्ज़ अव्व्युह <math> r_{ij} = R(i-j), 0 \leq i, j<p </math> होता है, सदिश <math>\mathbf{r}</math> स्वसहसंबंध सदिश <math> r_j = R(j), 0<j \leq p</math>, और <math>\mathbf{A} = [a_1, a_2, \,\cdots\, , a_{p-1}, a_p]</math> पैरामीटर सदिश होता है। | |||
दूसरा, अधिक सामान्य दृष्टिकोण फॉर्म में परिभाषित त्रुटियों के वर्गों के योग को कम करना है | दूसरा, अधिक सामान्य दृष्टिकोण फॉर्म में परिभाषित त्रुटियों के वर्गों के योग को कम करना होता है | ||
:<math>e(n) = x(n) - \widehat{x}(n) = x(n) - \sum_{i=1}^p a_i x(n-i) = - \sum_{i=0}^p a_i x(n-i)</math> | :<math>e(n) = x(n) - \widehat{x}(n) = x(n) - \sum_{i=1}^p a_i x(n-i) = - \sum_{i=0}^p a_i x(n-i)</math> | ||
जहाँ सभी <math>a_i</math>पर अन्वेषण में अनुकूलन समस्या अब <math>a_0=-1</math> होती है। | |||
दूसरी ओर, यदि माध्य वर्ग पूर्वानुमान त्रुटि को | दूसरी ओर, यदि माध्य वर्ग पूर्वानुमान त्रुटि को एकात्मकता के लिए बाध्य किया जाता है और पूर्वानुमान त्रुटि समीकरण को सामान्य समीकरणों के शीर्ष पर सम्मिलित किया जाता है, तो समीकरणों का संवर्धित समूह इस प्रकार प्राप्त होता है | ||
:<math>\ \mathbf{R A} = [1, 0, ... , 0]^{\mathrm{T}}</math> | :<math>\ \mathbf{R A} = [1, 0, ... , 0]^{\mathrm{T}}</math> | ||
जहाँ सूचकांक <math>i</math> 0 से लेकर <math>p</math> होता है, और <math>\mathbf{R}</math> एक <math>(p+1)\times(p+1)</math> आव्यूह होता है। | |||
रैखिक भविष्यवक्ता के मापदंडों की विशिष्टता एक विस्तृत विषय होता है और बड़ी संख्या में अन्य दृष्टिकोण प्रस्तावित किए जाते हैं। वास्तव में, स्वसहसंबंध विधि सबसे सधारण होती है<ref>{{Cite web |title=Linear Prediction - an overview {{!}} ScienceDirect Topics |url=https://www.sciencedirect.com/topics/mathematics/linear-prediction |access-date=2022-06-24 |website=www.sciencedirect.com}}</ref> और इसका उपयोग, उदाहरण के लिए, [[मोबाइल संप्रेषण के लिए विश्वव्यापी व्यवस्था|जीएसएम]] मानक में भाषण कोडिंग के लिए किया जाता है। | |||
अव्व्युह समीकरण का समाधान <math>\mathbf{R A} = \mathbf{r}</math> कम्प्यूटेशनल रूप से एक अपेक्षाकृत उच्च लागत की प्रक्रिया होती है। अव्व्युह व्युत्क्रमण के लिए गॉसियन उन्मूलन संभवतः सबसे पुराना समाधान होता है परन्तु यह दृष्टिकोण समरूपता <math>\mathbf{R}</math> का कुशलतापूर्वक उपयोग नहीं करता है। एक उच्च एल्गोरिथ्म 1947 में [[नॉर्मन लेविंसन]] द्वारा प्रस्तावित [[लेविंसन रिकर्सन]] होता है, जो समाधान की पुनरावर्ती गणना करता है। विशेष रूप से, उपरोक्त स्वसहसंबंध समीकरणों को डर्बिन एल्गोरिथम द्वारा अधिक कुशलता से हल किया जा सकता है।<ref>{{cite journal | last1 = Ramirez | first1 = M. A. | year = 2008 | title = डर्बिन के आइसोमेट्रिक परिवर्तन पर आधारित एक लेविंसन एल्गोरिदम| doi = 10.1109/LSP.2007.910319 | journal = IEEE Signal Processing Letters | volume = 15 | pages = 99–102 | s2cid = 18906207 |url=http://www.producao.usp.br/bitstream/handle/BDPI/18665/lts2r1f.pdf}}</ref> | |||
1986 में, फिलिप डेल्सर्ट और वाई.वी. जेनिन ने इस एल्गोरिदम में एक सुधार का प्रस्ताव रखा जिसे स्प्लिट लेविंसन रिकर्सन कहा जाता है, जिसके लिए न्यूनाधिक आधी संख्या में गुणन और विभाजन की आवश्यकता होती है।<ref>Delsarte, P. and Genin, Y. V. (1986), ''The split Levinson algorithm'', ''IEEE Transactions on Acoustics, Speech, and Signal Processing'', v. ASSP-34(3), pp. 470–478</ref> यह पश्चात् के रिकर्सन स्तरों पर पैरामीटर सदिश की एक विशेष सममित संपत्ति का उपयोग करता है। अर्थात्, इष्टतम भविष्यवक्ता युक्त के लिए गणना <math>p</math> क्रम <math>p-1</math> उद्देशों इष्टतम भविष्यवक्ता युक्त के लिए समान गणना का उपयोग करती हैं। | |||
1986 में, फिलिप डेल्सर्ट और वाई.वी. जेनिन ने इस एल्गोरिदम में एक सुधार का प्रस्ताव रखा जिसे स्प्लिट लेविंसन रिकर्सन कहा जाता है, जिसके लिए | |||
मॉडल मापदंडों की पहचान करने | मॉडल मापदंडों की पहचान करने की एक अन्य विधि कलमन फिल्टर का उपयोग करके स्थिति प्राक्कलन की पुनरावृत्तीय गणना करती है और अपेक्षा-अधिकतमकरण एल्गोरिदम के भीतर [[अधिकतम संभावना अनुमान|अधिकतम संभावना प्राक्कलन]] प्राप्त करती है। | ||
समान दूरी वाले मानों के लिए, एक बहुपद प्रक्षेप | समान दूरी वाले मानों के लिए, एक बहुपद प्रक्षेप दिए गए मानों का एक रैखिक संयोजन होता है। यदि असतत समय संकेत को डिग्री <math>p-1</math> के बहुपद का पालन करने का प्राक्कलन लगाया जाता है फिर भविष्यवक्ता गुणांक <math>a_i</math> पास्कल के त्रिकोण की संगत पंक्ति द्वारा दिए गए द्विपद परिवर्तन गुणांक का त्रिकोण पास्कल के त्रिकोण की तरह होता है। यह प्राक्कलन कम ध्वनि वाले धीरे-धीरे बदलते संकेत के लिए उपयुक्त हो सकता है। पहले के कुछ मूल्यों के लिए भविष्यवाणियाँ <math>p</math> निम्न प्रकार हैं | ||
: <math>\begin{array}{lcl} | : <math>\begin{array}{lcl} | ||
Line 62: | Line 60: | ||
\end{array} | \end{array} | ||
</math> | </math> | ||
== यह भी देखें == | == यह भी देखें == | ||
Line 68: | Line 65: | ||
* रेखीय पूर्वानुमानित विश्लेषण | * रेखीय पूर्वानुमानित विश्लेषण | ||
*[[न्यूनतम माध्य वर्ग त्रुटि]] | *[[न्यूनतम माध्य वर्ग त्रुटि]] | ||
* [[भविष्यवाणी अंतराल]] | * [[भविष्यवाणी अंतराल|प्रेडिक्शन अंतराल]] | ||
* [[ सड़क फ़िल्टरिंग ]] | * [[ सड़क फ़िल्टरिंग | मार्ग निस्पंदन]] | ||
== संदर्भ == | == संदर्भ == | ||
Line 87: | Line 84: | ||
* [http://labrosa.ee.columbia.edu/matlab/rastamat/ PLP and RASTA (and MFCC, and inversion) in Matlab] | * [http://labrosa.ee.columbia.edu/matlab/rastamat/ PLP and RASTA (and MFCC, and inversion) in Matlab] | ||
{{DEFAULTSORT:Linear prediction}} | {{DEFAULTSORT:Linear prediction}} | ||
[[Category: Machine Translated Page]] | [[Category:Created On 25/07/2023|Linear prediction]] | ||
[[Category: | [[Category:Lua-based templates|Linear prediction]] | ||
[[Category:Machine Translated Page|Linear prediction]] | |||
[[Category:Pages with script errors|Linear prediction]] | |||
[[Category:Short description with empty Wikidata description|Linear prediction]] | |||
[[Category:Templates Vigyan Ready|Linear prediction]] | |||
[[Category:Templates that add a tracking category|Linear prediction]] | |||
[[Category:Templates that generate short descriptions|Linear prediction]] | |||
[[Category:Templates using TemplateData|Linear prediction]] | |||
[[Category:संकेत अनुमान|Linear prediction]] | |||
[[Category:सांख्यिकीय पूर्वानुमान|Linear prediction]] |
Latest revision as of 14:49, 1 September 2023
लीनियर प्रेडिक्शन एक गणितीय संचालन होता है जहाँ असतत-समय संकेत के भविष्य के मूल्यों का प्राक्कलन पिछले प्रतिरूपों के रैखिक परिवर्तन के रूप में लगाया जाता है।
अंकीय संकेत प्रक्रिया में, रैखिक प्रेडिक्शन को अधिकांशतः रैखिक पूर्वानुमानित कोडिंग (एलपीसी) कहा जाता है और इस प्रकार इसे निस्पंदन सिद्धांत के उपसमूह के रूप में देखा जा सकता है। प्रणाली विश्लेषण में, गणित का एक उपक्षेत्र, रैखिक प्रेडिक्शन को गणितीय मॉडलिंग या अनुकूलन के एक भाग के रूप में देखा जा सकता है।
प्रेडिक्शन मॉडल
सबसे सामान्य प्रतिनिधित्व निम्न प्रकार है
जहाँ प्राक्कलित संकेत मान होता है, पिछले देखे गए मान, के साथ , और भविष्यवक्ता गुणांक होता है। इस प्राक्कलन से उत्पन्न त्रुटि इस प्रकार है
जहाँ सत्य संकेत मान होता है।
ये समीकरण सभी प्रकार की (एक-आयामी) रैखिक प्रेडिक्शन के लिए मान्य होता हैं। अंतर चयन किये गए भविष्यवक्ता गुणांक के विधि में पाए जाते हैं।बहुआयामी संकेतों के लिए त्रुटि अव्व्युह को अधिकांशतः इस प्रकार परिभाषित किया जाता है
जहाँ एक उपयुक्त चुना हुआ सदिश मानदंड होता है। जैसी भविष्यवाणियाँ ध्वनि माप से क्रमशः वर्तमान और पिछले संकेत मूल्यों का प्राक्कलन लगाने के लिए कलमन निस्पंदन और स्मूथर्स के भीतर नियमित रूप से उपयोग किया जाता है।[1]
मापदंडों का प्राक्कलन लगाना
मापदंडों के अनुकूलन में सबसे सधारण विकल्प मूल माध्य वर्ग मानदंड होता है जिसे स्वसहसंबंध मानदंड भी कहा जाता है। इस विधि में हम वर्ग त्रुटि के अपेक्षित मान को न्यूनतम कर देते हैं, जो समीकरण उत्पन्न करता है जो इस प्रकार है
1 ≤ j ≤ p के लिए, जहाँ R संकेत xn का स्वत:सहसंबंध होता है, जिसे निम्न प्रकार परिभाषित किया जाता है
- ,
और E अपेक्षित मान होता है। बहुआयामी स्थिति में यह L2 मानदंड को न्यूनतम करने के अनुरूप होता है।
उपरोक्त समीकरणों को सामान्य समीकरण या यूल-वॉकर समीकरण कहा जाता है। अव्व्युह रूप में समीकरणों को समकक्ष रूप में निम्न प्रकार से लिखा जा सकता है
जहाँ ऑटोसहसंबंध अव्व्युह एक सममित होता है, तत्वों के साथ टोएप्लिट्ज़ अव्व्युह होता है, सदिश स्वसहसंबंध सदिश , और पैरामीटर सदिश होता है।
दूसरा, अधिक सामान्य दृष्टिकोण फॉर्म में परिभाषित त्रुटियों के वर्गों के योग को कम करना होता है
जहाँ सभी पर अन्वेषण में अनुकूलन समस्या अब होती है।
दूसरी ओर, यदि माध्य वर्ग पूर्वानुमान त्रुटि को एकात्मकता के लिए बाध्य किया जाता है और पूर्वानुमान त्रुटि समीकरण को सामान्य समीकरणों के शीर्ष पर सम्मिलित किया जाता है, तो समीकरणों का संवर्धित समूह इस प्रकार प्राप्त होता है
जहाँ सूचकांक 0 से लेकर होता है, और एक आव्यूह होता है।
रैखिक भविष्यवक्ता के मापदंडों की विशिष्टता एक विस्तृत विषय होता है और बड़ी संख्या में अन्य दृष्टिकोण प्रस्तावित किए जाते हैं। वास्तव में, स्वसहसंबंध विधि सबसे सधारण होती है[2] और इसका उपयोग, उदाहरण के लिए, जीएसएम मानक में भाषण कोडिंग के लिए किया जाता है।
अव्व्युह समीकरण का समाधान कम्प्यूटेशनल रूप से एक अपेक्षाकृत उच्च लागत की प्रक्रिया होती है। अव्व्युह व्युत्क्रमण के लिए गॉसियन उन्मूलन संभवतः सबसे पुराना समाधान होता है परन्तु यह दृष्टिकोण समरूपता का कुशलतापूर्वक उपयोग नहीं करता है। एक उच्च एल्गोरिथ्म 1947 में नॉर्मन लेविंसन द्वारा प्रस्तावित लेविंसन रिकर्सन होता है, जो समाधान की पुनरावर्ती गणना करता है। विशेष रूप से, उपरोक्त स्वसहसंबंध समीकरणों को डर्बिन एल्गोरिथम द्वारा अधिक कुशलता से हल किया जा सकता है।[3]
1986 में, फिलिप डेल्सर्ट और वाई.वी. जेनिन ने इस एल्गोरिदम में एक सुधार का प्रस्ताव रखा जिसे स्प्लिट लेविंसन रिकर्सन कहा जाता है, जिसके लिए न्यूनाधिक आधी संख्या में गुणन और विभाजन की आवश्यकता होती है।[4] यह पश्चात् के रिकर्सन स्तरों पर पैरामीटर सदिश की एक विशेष सममित संपत्ति का उपयोग करता है। अर्थात्, इष्टतम भविष्यवक्ता युक्त के लिए गणना क्रम उद्देशों इष्टतम भविष्यवक्ता युक्त के लिए समान गणना का उपयोग करती हैं।
मॉडल मापदंडों की पहचान करने की एक अन्य विधि कलमन फिल्टर का उपयोग करके स्थिति प्राक्कलन की पुनरावृत्तीय गणना करती है और अपेक्षा-अधिकतमकरण एल्गोरिदम के भीतर अधिकतम संभावना प्राक्कलन प्राप्त करती है।
समान दूरी वाले मानों के लिए, एक बहुपद प्रक्षेप दिए गए मानों का एक रैखिक संयोजन होता है। यदि असतत समय संकेत को डिग्री के बहुपद का पालन करने का प्राक्कलन लगाया जाता है फिर भविष्यवक्ता गुणांक पास्कल के त्रिकोण की संगत पंक्ति द्वारा दिए गए द्विपद परिवर्तन गुणांक का त्रिकोण पास्कल के त्रिकोण की तरह होता है। यह प्राक्कलन कम ध्वनि वाले धीरे-धीरे बदलते संकेत के लिए उपयुक्त हो सकता है। पहले के कुछ मूल्यों के लिए भविष्यवाणियाँ निम्न प्रकार हैं
यह भी देखें
- ऑटोरेग्रेसिव मॉडल
- रेखीय पूर्वानुमानित विश्लेषण
- न्यूनतम माध्य वर्ग त्रुटि
- प्रेडिक्शन अंतराल
- मार्ग निस्पंदन
संदर्भ
- ↑ "Kalman Filter - an overview | ScienceDirect Topics". www.sciencedirect.com. Retrieved 2022-06-24.
- ↑ "Linear Prediction - an overview | ScienceDirect Topics". www.sciencedirect.com. Retrieved 2022-06-24.
- ↑ Ramirez, M. A. (2008). "डर्बिन के आइसोमेट्रिक परिवर्तन पर आधारित एक लेविंसन एल्गोरिदम" (PDF). IEEE Signal Processing Letters. 15: 99–102. doi:10.1109/LSP.2007.910319. S2CID 18906207.
- ↑ Delsarte, P. and Genin, Y. V. (1986), The split Levinson algorithm, IEEE Transactions on Acoustics, Speech, and Signal Processing, v. ASSP-34(3), pp. 470–478
This article includes a list of general references, but it lacks sufficient corresponding inline citations. (November 2010) (Learn how and when to remove this template message) |
अग्रिम पठन
- Hayes, M. H. (1996). Statistical Digital Signal Processing and Modeling. New York: J. Wiley & Sons. ISBN 978-0471594314.
- Levinson, N. (1947). "The Wiener RMS (root mean square) error criterion in filter design and prediction". Journal of Mathematics and Physics. 25 (4): 261–278. doi:10.1002/sapm1946251261.
- Makhoul, J. (1975). "Linear prediction: A tutorial review". Proceedings of the IEEE. 63 (5): 561–580. doi:10.1109/PROC.1975.9792.
- Yule, G. U. (1927). "On a Method of Investigating Periodicities in Disturbed Series, with Special Reference to Wolfer's Sunspot Numbers". Phil. Trans. Roy. Soc. A. 226 (636–646): 267–298. doi:10.1098/rsta.1927.0007. JSTOR 91170.