के लिए प्रत्यावर्तन <math>P</math> बीजगणितीय रिकाटी समीकरण का अनुसरण करता है और इस प्रकार कलमन फिल्टर के समानांतर खींचता है।<ref>Welch, Greg and Bishop, Gary [http://www.cs.unc.edu/~welch/media/pdf/kalman_intro.pdf "An Introduction to the Kalman Filter"], Department of Computer Science, University of North Carolina at Chapel Hill, September 17, 1997, accessed July 19, 2011.</ref>
के लिए प्रत्यावर्तन <math>P</math> बीजगणितीय रिकाटी समीकरण का अनुसरण करता है और इस प्रकार कलमन फिल्टर के समानांतर खींचता है।<ref>Welch, Greg and Bishop, Gary [http://www.cs.unc.edu/~welch/media/pdf/kalman_intro.pdf "An Introduction to the Kalman Filter"], Department of Computer Science, University of North Carolina at Chapel Hill, September 17, 1997, accessed July 19, 2011.</ref>
==लैटिस पुनरावर्ती न्यूनतम वर्ग फ़िल्टर (एलआरएलएस)==
==लैटिस पुनरावर्ती न्यूनतम वर्ग फ़िल्टर (LRLS)==
'''लैटिस पुनरावर्ती न्यूनतम वर्ग''' अनुकूली फ़िल्टर मानक आरएलएस से संबंधित है, सिवाय इसके कि इसके लिए कम अंकगणितीय संचालन (आदेश ''एन'') की आवश्यकता होती है।<ref>Diniz, Paulo S.R., "Adaptive Filtering: Algorithms and Practical Implementation", Springer Nature Switzerland AG 2020, Chapter 7: Adaptive Lattice-Based RLS Algorithms. https://doi.org/10.1007/978-3-030-29057-3_7</ref> यह पारंपरिक एलएमएस एल्गोरिदम पर अतिरिक्त लाभ प्रदान करता है जैसे कि तेज अभिसरण दर, मॉड्यूलर संरचना, और इनपुट सहसंबंध आव्यूह के ईजेनवैल्यू प्रसार में भिन्नता के प्रति असंवेदनशीलता। वर्णित एलआरएलएस एल्गोरिदम पिछली त्रुटियों पर आधारित है और इसमें सामान्यीकृत फॉर्म शामिल है। व्युत्पत्ति मानक आरएलएस एल्गोरिथ्म के समान है और की परिभाषा पर आधारित है <math>d(k)\,\!</math> आगे की पूर्वानुमान के मामले में, हमारे पास है <math>d(k) = x(k)\,\!</math> इनपुट संकेत के साथ <math>x(k-1)\,\!</math> सबसे अद्यतित नमूने के रूप में। पिछड़े पूर्वानुमान <math>d(k) = x(k-i-1)\,\!</math>की मामला है, जहां i अतीत में नमूने का सूचकांक है जिसकी हम पूर्वानुमान करना चाहते हैं, और इनपुट संकेत <math>x(k)\,\!</math> सबसे नवीन नमूना है।<ref>Albu, Kadlec, Softley, Matousek, Hermanek, Coleman, Fagan [http://wwwdsp.ucd.ie/dspfiles/main_files/pdf_files/hsla_fpl2001.pdf "Implementation of (Normalised) RLS Lattice on Virtex"], Digital Signal Processing, 2001, accessed December 24, 2011.</ref>
'''लैटिस पुनरावर्ती न्यूनतम वर्ग''' अनुकूली फ़िल्टर मानक आरएलएस से संबंधित है, सिवाय इसके कि इसके लिए कम अंकगणितीय संचालन (आदेश ''एन'') की आवश्यकता होती है।<ref>Diniz, Paulo S.R., "Adaptive Filtering: Algorithms and Practical Implementation", Springer Nature Switzerland AG 2020, Chapter 7: Adaptive Lattice-Based RLS Algorithms. https://doi.org/10.1007/978-3-030-29057-3_7</ref> यह पारंपरिक एलएमएस एल्गोरिदम पर अतिरिक्त लाभ प्रदान करता है जैसे कि तेज अभिसरण दर, मॉड्यूलर संरचना, और इनपुट सहसंबंध आव्यूह के ईजेनवैल्यू प्रसार में भिन्नता के प्रति असंवेदनशीलता। वर्णित LRLS एल्गोरिदम पिछली त्रुटियों पर आधारित है और इसमें सामान्यीकृत फॉर्म शामिल है। व्युत्पत्ति मानक आरएलएस एल्गोरिथ्म के समान है और की परिभाषा पर आधारित है <math>d(k)\,\!</math> आगे की पूर्वानुमान के मामले में, हमारे पास है <math>d(k) = x(k)\,\!</math> इनपुट संकेत के साथ <math>x(k-1)\,\!</math> सबसे अद्यतित नमूने के रूप में। पिछड़े पूर्वानुमान <math>d(k) = x(k-i-1)\,\!</math>की मामला है, जहां i अतीत में नमूने का सूचकांक है जिसकी हम पूर्वानुमान करना चाहते हैं, और इनपुट संकेत <math>x(k)\,\!</math> सबसे नवीन नमूना है।<ref>Albu, Kadlec, Softley, Matousek, Hermanek, Coleman, Fagan [http://wwwdsp.ucd.ie/dspfiles/main_files/pdf_files/hsla_fpl2001.pdf "Implementation of (Normalised) RLS Lattice on Virtex"], Digital Signal Processing, 2001, accessed December 24, 2011.</ref>
===पैरामीटर सारांश===
===पैरामीटर सारांश===
Line 244:
Line 244:
:<math>\varepsilon\,\!</math> एक छोटा धनात्मक स्थिरांक है जो 0.01 हो सकता है
:<math>\varepsilon\,\!</math> एक छोटा धनात्मक स्थिरांक है जो 0.01 हो सकता है
===एलआरएलएस एल्गोरिदम सारांश===
===LRLS एल्गोरिदम सारांश===
एलआरएलएस फ़िल्टर के लिए एल्गोरिदम को संक्षेप में प्रस्तुत किया जा सकता है
LRLS फ़िल्टर के लिए एल्गोरिदम को संक्षेप में प्रस्तुत किया जा सकता है
{|
{|
|-
|-
Line 306:
Line 306:
|||
|||
|}
|}
==सामान्यीकृत लैटिस पुनरावर्ती न्यूनतम वर्ग फ़िल्टर (एनएलआरएलएस)==
==सामान्यीकृत लैटिस पुनरावर्ती न्यूनतम वर्ग फ़िल्टर (NLRLS)==
एलआरएलएस के सामान्यीकृत रूप में कम पुनरावृत्ति और चर होते हैं। इसकी गणना एल्गोरिदम के आंतरिक चर में सामान्यीकरण लागू करके की जा सकती है जो उनके परिमाण को एक से सीमित रखेगा। इसका उपयोग आम तौर पर वास्तविक समय के अनुप्रयोगों में नहीं किया जाता है क्योंकि विभाजन और वर्ग-रूट संचालन की संख्या उच्च कम्प्यूटेशनल लोड के साथ आती है।
LRLS के सामान्यीकृत रूप में कम पुनरावर्तन और चर हैं। इसकी गणना एल्गोरिदम के आंतरिक चर के लिए सामान्यीकरण लागू करके की जा सकती है जो उनके परिमाण को एक से सीमित रखेगा। इसका उपयोग आमतौर पर वास्तविक समय के अनुप्रयोगों में नहीं किया जाता है क्योंकि विभाजन और वर्ग-रूट संचालन की संख्या उच्च कम्प्यूटेशनल भार के साथ आती है।
===एनएलआरएलएस एल्गोरिदम सारांश===
===NLRLS एल्गोरिदम सारांश===
एनएलआरएलएस फ़िल्टर के लिए एल्गोरिदम को संक्षेप में प्रस्तुत किया जा सकता है
NLRLS फ़िल्टर के लिए एल्गोरिदम को संक्षेप में प्रस्तुत किया जा सकता है
{|
{|
|-
|-
| Initialization:
| आरंभीकरण:
|-
|-
||| For <math display=inline>i = 0,1,\ldots,N.</math>
||| For <math display=inline>i = 0,1,\ldots,N.</math>
पुनरावर्ती न्यूनतम वर्ग (आरएलएस) एक अनुकूली फ़िल्टर एल्गोरिथ्म है जो पुनरावर्ती रूप से उन गुणांकों को ढूंढता है जो इनपुट संकेत से संबंधित भारित रैखिक न्यूनतम वर्ग लागत फ़ंक्शन को कम करते हैं। यह दृष्टिकोण अन्य एल्गोरिदम जैसे कि न्यूनतम माध्य वर्ग (एलएमएस) के विपरीत है जिसका लक्ष्य माध्य वर्ग त्रुटि को कम करना है। आरएलएस की व्युत्पत्ति में, इनपुट संकेतों को नियतात्मक माना जाता है, जबकि एलएमएस और इसी तरह के एल्गोरिदम के लिए उन्हें स्टोकेस्टिक माना जाता है। अपने अधिकांश प्रतिस्पर्धियों की तुलना में, आरएलएस अत्यंत तीव्र अभिसरण प्रदर्शित करता है। हालाँकि, यह लाभ उच्च कम्प्यूटेशनल सम्मिश्रता की कीमत पर मिलता है।
आरएलएस की खोज गॉस ने की थी, लेकिन 1950 तक अप्रयुक्त या नजरअंदाज कर दिया गया था, जब प्लैकेट ने 1821 में गॉस के मूल कार्य को फिर से खोजा था। सामान्य तौर पर, आरएलएस का उपयोग किसी भी समस्या को हल करने के लिए किया जा सकता है जिसे अनुकूली फिल्टर द्वारा हल किया जा सकता है। उदाहरण के लिए, मान लीजिए कि एक संकेत एक प्रतिध्वनि वाले, ध्वनि वाले चैनल पर प्रसारित होता है जिसके कारण इसे प्राप्त किया जाता है
जहां योगात्मक शोर का प्रतिनिधित्व करता है। आरएलएस फ़िल्टर का उद्देश्य -टैप FIR फ़िल्टर के उपयोग से वांछित संकेत को पुनर्प्राप्त करना है, :
जहां कॉलम सदिश है जिसमें के सबसे हाल के नमूने शामिल हैं। प्राप्त वांछित संकेत का अनुमान है
फ़िल्टर के मापदंडों का अनुमान लगाना है, और प्रत्येक समय पर हम वर्तमान अनुमान को और अनुकूलित न्यूनतम-वर्ग अनुमान को के रूप में संदर्भित करते हैं। जैसा कि नीचे दिखाया गया है, भी एक कॉलम सदिश है, और ट्रांसपोज़, एक पंक्ति सदिश है। आव्यूह गुणनफल (जो कि डॉट गुणनफल है और , एक अदिश राशि है। अनुमान "अच्छा" है यदि कुछ न्यूनतम वर्ग अर्थों में परिमाण में छोटा है।
जैसे-जैसे समय बढ़ता है, के लिए नए अनुमान को खोजने के लिए न्यूनतम वर्ग एल्गोरिथ्म को पूरी तरह से दोबारा करने से बचना चाहिए, के संदर्भ में।
आरएलएस एल्गोरिदम का लाभ यह है कि आव्यूह को उलटने की कोई आवश्यकता नहीं है, जिससे कम्प्यूटेशनल लागत बचती है। एक अन्य लाभ यह है कि यह कलमन फ़िल्टर जैसे परिणामों के पीछे अंतर्ज्ञान प्रदान करता है।
विचार-विमर्श
आरएलएस फ़िल्टर के पीछे का विचार फ़िल्टर गुणांक का उचित चयन करके और नए डेटा आने पर फ़िल्टर को अपडेट करके लागत फ़ंक्शन को कम करना है। त्रुटि संकेत और वांछित सिग्नल को नीचे ऋणात्मक प्रतिक्रिया आरेख में परिभाषित किया गया है:
त्रुटि अनुमान के माध्यम से फ़िल्टर गुणांक पर परोक्ष रूप से निर्भर करती है:
भारित न्यूनतम वर्ग त्रुटि फ़ंक्शन - जिस लागत फ़ंक्शन को हम कम करना चाहते हैं - वह एक फ़ंक्शन है इसलिए फ़िल्टर गुणांक पर भी निर्भर है:
जहाँ "विस्मृति कारक" है जो पुराने त्रुटि नमूनों को तेजी से कम महत्व देता है।
गुणांक वेक्टर की सभी प्रविष्टियों के लिए आंशिक व्युत्पन्न लेकर और परिणामों को शून्य पर सेट करके लागत फ़ंक्शन को न्यूनतम किया जाता है।
अगला, प्रतिस्थापित करें त्रुटि संकेत की परिभाषा के साथ
समीकरण को पुनर्व्यवस्थित करने से परिणाम प्राप्त होते हैं।
इस रूप को आव्यूह के संदर्भ में व्यक्त किया जा सकता है।
जहाँ के लिए भारित नमूना माध्य और नमूना सहप्रसरणआव्यूह है, और के बीच परस्पर सहप्रसरण के लिए समतुल्य अनुमान और है इस अभिव्यक्ति के आधार पर हम ऐसे गुणांक पाते हैं जो लागत फ़ंक्शन को कम करते हैं।
यह विचार-विमर्श का मुख्य परिणाम है।
λ का चयन करना
जितना छोटा होगा, सहसंयोजक आव्यूह में पिछले नमूनों का योगदान उतना ही छोटा होगा। यह फ़िल्टर को हाल के नमूनों के प्रति अधिक संवेदनशील बनाता है, जिसका अर्थ है कि फ़िल्टर गुणांक में अधिक उतार-चढ़ाव। केस को ग्रोइंग विंडो आरएलएस एल्गोरिथम के रूप में जाना जाता है। व्यवहार में, को आम तौर पर 0.98 और 1 के बीच चुना जाता है।[1] प्रकार-II अधिकतम संभावना अनुमान का उपयोग करके डेटा के एक सेट से इष्टतम का अनुमान लगाया जा सकता है।[2]
पुनरावर्ती एल्गोरिथ्म
विचार-विमर्श के परिणामस्वरूप गुणांक सदिश निर्धारित करने के लिए एक एकल समीकरण तैयार हुआ जो लागत फ़ंक्शन को न्यूनतम करता है। इस अनुभाग में हम प्रपत्र का पुनरावर्ती समाधान प्राप्त करना चाहते हैं।
जहाँ समय पर एक सुधार कारक है। हम क्रॉस सहप्रसरण को व्यक्त करके पुनरावर्ती एल्गोरिदम की व्युत्पत्ति शुरू करते हैं के अनुसार
जहाँ है आयामी डेटा सदिश
वैसे ही हम व्यक्त करते हैं के अनुसार द्वारा
गुणांक सदिश उत्पन्न करने के लिए हम नियतात्मक ऑटो-सहप्रसरण आव्यूह के व्युत्क्रम में रुचि रखते हैं। उस कार्य के लिए वुडबरी आव्यूह सर्वसमिका काम आती है।
मानक साहित्य के अनुरूप आने के लिए, हम परिभाषित करते हैं
जहां लाभ सदिश है
आगे बढ़ने से पहले ये लाना जरूरी है दूसरे रूप में
बायीं ओर का दूसरा पद घटाने पर प्राप्त होता है
की पुनरावर्ती परिभाषा के साथ वांछित प्रपत्र इस प्रकार है
अब हम रिकर्सन पूरा करने के लिए तैयार हैं। विचार-विमर्श के अनुसार
दूसरा चरण की पुनरावर्ती परिभाषा से अनुसरण करता है . आगे हम की पुनरावर्ती परिभाषा को शामिल करते हैं के वैकल्पिक रूप के साथ और प्राप्त
साथ हम अद्यतन समीकरण पर पहुँचते हैं
जहाँ
एक प्राथमिकता और एक पश्चवर्ती त्रुटि है। इसकी तुलना पिछली त्रुटि से करें; फ़िल्टर अद्यतन होने के बाद गणना की गई त्रुटि:
इसका अर्थ है कि हमें सुधार कारक मिल गया है
यह सहज रूप से संतोषजनक परिणाम इंगित करता है कि सुधार कारक त्रुटि और लाभ सदिश दोनों के लिए सीधे आनुपातिक है, जो भार कारक के माध्यम से नियंत्रित करता है कि कितनी संवेदनशीलता वांछित है.
आरएलएस एल्गोरिदम सारांश
पी-वें क्रम आरएलएस फ़िल्टर के लिए आरएलएस एल्गोरिदम को संक्षेप में प्रस्तुत किया जा सकता है
पैरामीटर:
फ़िल्टर क्रम
विस्मृति कारक
आरंभ करने के लिए मूल्य
आरंभीकरण:
,
,
जहाँ रैंक की सर्वसमिका आव्यूह है
गणना:
For
.
के लिए प्रत्यावर्तन बीजगणितीय रिकाटी समीकरण का अनुसरण करता है और इस प्रकार कलमन फिल्टर के समानांतर खींचता है।[3]
लैटिस पुनरावर्ती न्यूनतम वर्ग फ़िल्टर (LRLS)
लैटिस पुनरावर्ती न्यूनतम वर्ग अनुकूली फ़िल्टर मानक आरएलएस से संबंधित है, सिवाय इसके कि इसके लिए कम अंकगणितीय संचालन (आदेश एन) की आवश्यकता होती है।[4] यह पारंपरिक एलएमएस एल्गोरिदम पर अतिरिक्त लाभ प्रदान करता है जैसे कि तेज अभिसरण दर, मॉड्यूलर संरचना, और इनपुट सहसंबंध आव्यूह के ईजेनवैल्यू प्रसार में भिन्नता के प्रति असंवेदनशीलता। वर्णित LRLS एल्गोरिदम पिछली त्रुटियों पर आधारित है और इसमें सामान्यीकृत फॉर्म शामिल है। व्युत्पत्ति मानक आरएलएस एल्गोरिथ्म के समान है और की परिभाषा पर आधारित है आगे की पूर्वानुमान के मामले में, हमारे पास है इनपुट संकेत के साथ सबसे अद्यतित नमूने के रूप में। पिछड़े पूर्वानुमान की मामला है, जहां i अतीत में नमूने का सूचकांक है जिसकी हम पूर्वानुमान करना चाहते हैं, और इनपुट संकेत सबसे नवीन नमूना है।[5]
पैरामीटर सारांश
अग्र परावर्तन गुणांक है
पश्चगामी परावर्तन गुणांक है
तात्कालिक पूर्ववर्ती अग्रगामी पूर्वानुमान त्रुटि का प्रतिनिधित्व करता है
तात्कालिक पश्चगामी पूर्वानुमान त्रुटि का प्रतिनिधित्व करता है
न्यूनतम न्यूनतम-वर्ग पिछड़ा पूर्वानुमान त्रुटि है
न्यूनतम न्यूनतम-वर्ग अग्रेषित पूर्वानुमान त्रुटि है
प्राथमिक और पश्चवर्ती त्रुटियों के बीच एक रूपांतरण कारक है
फीडफॉरवर्ड गुणक गुणांक हैं।
एक छोटा धनात्मक स्थिरांक है जो 0.01 हो सकता है
LRLS एल्गोरिदम सारांश
LRLS फ़िल्टर के लिए एल्गोरिदम को संक्षेप में प्रस्तुत किया जा सकता है
आरंभीकरण:
For
(if for )
End
गणना:
For
For
Feedforward filtering
End
End
सामान्यीकृत लैटिस पुनरावर्ती न्यूनतम वर्ग फ़िल्टर (NLRLS)
LRLS के सामान्यीकृत रूप में कम पुनरावर्तन और चर हैं। इसकी गणना एल्गोरिदम के आंतरिक चर के लिए सामान्यीकरण लागू करके की जा सकती है जो उनके परिमाण को एक से सीमित रखेगा। इसका उपयोग आमतौर पर वास्तविक समय के अनुप्रयोगों में नहीं किया जाता है क्योंकि विभाजन और वर्ग-रूट संचालन की संख्या उच्च कम्प्यूटेशनल भार के साथ आती है।
NLRLS एल्गोरिदम सारांश
NLRLS फ़िल्टर के लिए एल्गोरिदम को संक्षेप में प्रस्तुत किया जा सकता है
↑Emannual C. Ifeacor, Barrie W. Jervis. Digital signal processing: a practical approach, second edition. Indianapolis: Pearson Education Limited, 2002, p. 718
↑Welch, Greg and Bishop, Gary "An Introduction to the Kalman Filter", Department of Computer Science, University of North Carolina at Chapel Hill, September 17, 1997, accessed July 19, 2011.
↑Diniz, Paulo S.R., "Adaptive Filtering: Algorithms and Practical Implementation", Springer Nature Switzerland AG 2020, Chapter 7: Adaptive Lattice-Based RLS Algorithms. https://doi.org/10.1007/978-3-030-29057-3_7