कम से कम औसत वर्ग फ़िल्टर: Difference between revisions
(Created page with "{{Short description|Statistical algorithm}} {{more footnotes|date=January 2019}} कम से कम औसत वर्ग (एलएमएस) एल्गोरिदम...") |
No edit summary |
||
Line 1: | Line 1: | ||
{{Short description|Statistical algorithm}} | {{Short description|Statistical algorithm}}कम से कम औसत वर्ग (एलएमएस) एल्गोरिदम अनुकूली फ़िल्टर का वर्ग है जो फ़िल्टर गुणांक ढूंढकर वांछित फ़िल्टर की नकल करने के लिए उपयोग किया जाता है जो त्रुटि संकेत (वांछित और वास्तविक संकेत के बीच अंतर) के कम से कम औसत वर्ग का उत्पादन करने से संबंधित है। यह स्टोकास्टिक ग्रेडियेंट वंश विधि है जिसमें फ़िल्टर केवल वर्तमान समय में त्रुटि के आधार पर अनुकूलित किया जाता है। इसका आविष्कार 1960 में [[ स्टैनफोर्ड विश्वविद्यालय |स्टैनफोर्ड विश्वविद्यालय]] के प्रोफेसर [[बर्नार्ड विड्रो]] और उनके पहले पीएच.डी. छात्र, [[टेड हॉफ]]। | ||
कम से कम औसत वर्ग (एलएमएस) एल्गोरिदम अनुकूली फ़िल्टर का | |||
== समस्या निर्माण == | == समस्या निर्माण == | ||
[[File:Lms filter.svg|444px|एलएमएस फिल्टर]] | [[File:Lms filter.svg|444px|एलएमएस फिल्टर]] | ||
=== [[ विनीज़ फ़िल्टर ]] से संबंध === | === [[ विनीज़ फ़िल्टर | विनीज़ फ़िल्टर]] से संबंध === | ||
सिग्नल प्रोसेसिंग डोमेन को छोड़कर, कारण वीनर फ़िल्टर की प्राप्ति कम से कम वर्गों के अनुमान के समाधान की तरह दिखती है। इनपुट मैट्रिक्स के लिए कम से कम वर्ग समाधान <math> | सिग्नल प्रोसेसिंग डोमेन को छोड़कर, कारण वीनर फ़िल्टर की प्राप्ति कम से कम वर्गों के अनुमान के समाधान की तरह दिखती है। इनपुट मैट्रिक्स के लिए कम से कम वर्ग समाधान <math> | ||
\mathbf{X}</math> और आउटपुट वेक्टर <math>\boldsymbol y </math> | \mathbf{X}</math> और आउटपुट वेक्टर <math>\boldsymbol y </math> | ||
Line 16: | Line 13: | ||
</math> | </math> | ||
एफआईआर कम से कम औसत वर्ग फ़िल्टर वीनर फ़िल्टर से संबंधित है, लेकिन पूर्व के त्रुटि मानदंड को कम करना क्रॉस-सहसंबंधों या ऑटो-सहसंबंधों पर निर्भर नहीं करता है। इसका विलयन वीनर फिल्टर विलयन में परिवर्तित हो जाता है। | एफआईआर कम से कम औसत वर्ग फ़िल्टर वीनर फ़िल्टर से संबंधित है, लेकिन पूर्व के त्रुटि मानदंड को कम करना क्रॉस-सहसंबंधों या ऑटो-सहसंबंधों पर निर्भर नहीं करता है। इसका विलयन वीनर फिल्टर विलयन में परिवर्तित हो जाता है। | ||
उपरोक्त ब्लॉक आरेख का उपयोग करके अधिकांश रैखिक अनुकूली फ़िल्टरिंग समस्याओं को तैयार किया जा सकता है। यानी | उपरोक्त ब्लॉक आरेख का उपयोग करके अधिकांश रैखिक अनुकूली फ़िल्टरिंग समस्याओं को तैयार किया जा सकता है। यानी अज्ञात प्रणाली <math>\mathbf{h}(n)</math> पहचान की जानी है और अनुकूली फ़िल्टर फ़िल्टर को अनुकूलित करने का प्रयास करता है <math>\hat{\mathbf{h}}(n)</math> जितना संभव हो उतना करीब बनाने के लिए <math>\mathbf{h}(n)</math>, केवल देखने योग्य संकेतों का उपयोग करते हुए <math>x(n)</math>, <math>d(n)</math> और <math>e(n)</math>; लेकिन <math>y(n)</math>, <math>v(n)</math> और <math>h(n)</math> प्रत्यक्ष रूप से देखने योग्य नहीं हैं। इसका समाधान वीनर फ़िल्टर से निकटता से संबंधित है। | ||
=== प्रतीकों की परिभाषा === | === प्रतीकों की परिभाषा === | ||
:<math>n</math> वर्तमान इनपुट नमूने की संख्या है | :<math>n</math> वर्तमान इनपुट नमूने की संख्या है | ||
:<math>p</math> फिल्टर नल की संख्या है | :<math>p</math> फिल्टर नल की संख्या है | ||
:<math> \{\cdot\}^H </math> ([[हर्मिटियन ट्रांसपोज़]] या [[ संयुग्मी स्थानान्तरण ]]) | :<math> \{\cdot\}^H </math> ([[हर्मिटियन ट्रांसपोज़]] या [[ संयुग्मी स्थानान्तरण |संयुग्मी स्थानान्तरण]] ) | ||
:<math> | :<math> | ||
\mathbf{x}(n) = \left[x(n), x(n-1), \dots, x(n-p-1)\right]^T | \mathbf{x}(n) = \left[x(n), x(n-1), \dots, x(n-p-1)\right]^T | ||
Line 46: | Line 43: | ||
ऋणात्मक चिह्न दर्शाता है कि हम त्रुटि की ढलान पर नीचे जा रहे हैं, <math> \varepsilon </math> फिल्टर वजन खोजने के लिए, <math> W_i </math>, जो त्रुटि को कम करता है। | ऋणात्मक चिह्न दर्शाता है कि हम त्रुटि की ढलान पर नीचे जा रहे हैं, <math> \varepsilon </math> फिल्टर वजन खोजने के लिए, <math> W_i </math>, जो त्रुटि को कम करता है। | ||
फिल्टर भार के | फिल्टर भार के समारोह के रूप में माध्य-स्क्वायर त्रुटि द्विघात समारोह है जिसका अर्थ है कि इसका केवल चरम है, जो औसत-वर्ग त्रुटि को कम करता है, जो कि इष्टतम वजन है। LMS इस प्रकार, माध्य-स्क्वायर-त्रुटि बनाम फ़िल्टर भार वक्र के आरोही/अवरोही द्वारा इस इष्टतम भार की ओर पहुंचता है। | ||
== व्युत्पत्ति == | == व्युत्पत्ति == | ||
Line 59: | Line 56: | ||
\nabla_{\hat{\mathbf{h}}^H} C(n) = \nabla_{\hat{\mathbf{h}}^H} E\left\{e(n) \, e^{*}(n)\right\}=2E\left\{\nabla_{\hat{\mathbf{h}}^H} ( e(n)) \, e^{*}(n) \right\} | \nabla_{\hat{\mathbf{h}}^H} C(n) = \nabla_{\hat{\mathbf{h}}^H} E\left\{e(n) \, e^{*}(n)\right\}=2E\left\{\nabla_{\hat{\mathbf{h}}^H} ( e(n)) \, e^{*}(n) \right\} | ||
</math> | </math> | ||
कहाँ <math>\nabla</math> [[ ग्रेडियेंट ]] ऑपरेटर है | कहाँ <math>\nabla</math> [[ ग्रेडियेंट |ग्रेडियेंट]] ऑपरेटर है | ||
:<math> | :<math> | ||
\nabla_{\hat{\mathbf{h}}^H} (e(n))= \nabla_{\hat{\mathbf{h}}^H} \left(d(n) - \hat{\mathbf{h}}^H \cdot \mathbf{x}(n)\right)=-\mathbf{x}(n) | \nabla_{\hat{\mathbf{h}}^H} (e(n))= \nabla_{\hat{\mathbf{h}}^H} \left(d(n) - \hat{\mathbf{h}}^H \cdot \mathbf{x}(n)\right)=-\mathbf{x}(n) | ||
Line 66: | Line 63: | ||
\nabla C(n) = -2E\left\{\mathbf{x}(n) \, e^{*}(n)\right\} | \nabla C(n) = -2E\left\{\mathbf{x}(n) \, e^{*}(n)\right\} | ||
</math> | </math> | ||
अब, <math>\nabla C(n)</math> | अब, <math>\nabla C(n)</math> सदिश राशि है जो लागत फलन के सबसे तीव्र आरोहण की ओर इशारा करती है। न्यूनतम लागत फ़ंक्शन खोजने के लिए हमें विपरीत दिशा में कदम उठाने की आवश्यकता है <math>\nabla C(n)</math>. गणितीय शब्दों में व्यक्त करने के लिए | ||
:<math>\hat{\mathbf{h}}(n+1)=\hat{\mathbf{h}}(n)-\frac{\mu}{2} \nabla C(n)=\hat{\mathbf{h}}(n)+\mu \, E\left\{\mathbf{x}(n) \, e^{*}(n)\right\}</math> | :<math>\hat{\mathbf{h}}(n+1)=\hat{\mathbf{h}}(n)-\frac{\mu}{2} \nabla C(n)=\hat{\mathbf{h}}(n)+\mu \, E\left\{\mathbf{x}(n) \, e^{*}(n)\right\}</math> | ||
कहाँ <math>\frac{\mu}{2}</math> चरण आकार (अनुकूलन स्थिर) है। इसका मतलब है कि हमें | कहाँ <math>\frac{\mu}{2}</math> चरण आकार (अनुकूलन स्थिर) है। इसका मतलब है कि हमें अनुक्रमिक अद्यतन एल्गोरिदम मिला है जो लागत समारोह को कम करता है। दुर्भाग्य से, यह एल्गोरिथम तब तक साकार नहीं होता है जब तक हम नहीं जानते <math>E\left\{\mathbf{x}(n) \, e^{*}(n)\right\} </math>. | ||
आम तौर पर, ऊपर की अपेक्षा की गणना नहीं की जाती है। इसके बजाय, एलएमएस को ऑनलाइन (प्रत्येक नए नमूने के प्राप्त होने के बाद अद्यतन करना) वातावरण में चलाने के लिए, हम उस अपेक्षा के तात्कालिक अनुमान का उपयोग करते हैं। नीचे देखें। | आम तौर पर, ऊपर की अपेक्षा की गणना नहीं की जाती है। इसके बजाय, एलएमएस को ऑनलाइन (प्रत्येक नए नमूने के प्राप्त होने के बाद अद्यतन करना) वातावरण में चलाने के लिए, हम उस अपेक्षा के तात्कालिक अनुमान का उपयोग करते हैं। नीचे देखें। | ||
Line 105: | Line 102: | ||
== माध्य में अभिसरण और स्थिरता == | == माध्य में अभिसरण और स्थिरता == | ||
जैसा कि एलएमएस एल्गोरिथ्म अपेक्षाओं के सटीक मूल्यों का उपयोग नहीं करता है, वजन कभी भी पूर्ण अर्थों में इष्टतम वजन तक नहीं पहुंचेगा, लेकिन माध्य में | जैसा कि एलएमएस एल्गोरिथ्म अपेक्षाओं के सटीक मूल्यों का उपयोग नहीं करता है, वजन कभी भी पूर्ण अर्थों में इष्टतम वजन तक नहीं पहुंचेगा, लेकिन माध्य में अभिसरण संभव है। यही है, भले ही वज़न कम मात्रा में बदल सकता है, यह इष्टतम वज़न के बारे में बदलता है। हालाँकि, यदि वेरियंस जिसके साथ वज़न बदलता है, बड़ा है, माध्य में अभिसरण भ्रामक होगा। यह समस्या हो सकती है, यदि चरण-आकार का मान <math> \mu </math> ठीक से नहीं चुना गया है। | ||
अगर <math> \mu </math> बड़े होने के लिए चुना जाता है, जिस मात्रा के साथ वजन परिवर्तन ढाल अनुमान पर निर्भर करता है, और इसलिए वजन | अगर <math> \mu </math> बड़े होने के लिए चुना जाता है, जिस मात्रा के साथ वजन परिवर्तन ढाल अनुमान पर निर्भर करता है, और इसलिए वजन बड़े मूल्य से बदल सकता है ताकि पहले पल में नकारात्मक ढाल अब सकारात्मक हो सके। और दूसरे पल में, वजन नकारात्मक ढाल के कारण बड़ी मात्रा में विपरीत दिशा में बदल सकता है और इस प्रकार इष्टतम वजन के बारे में बड़े विचरण के साथ दोलन करता रहेगा। वहीं दूसरी ओर अगर <math> \mu </math> बहुत छोटा होने के लिए चुना गया है, इष्टतम भारों में अभिसरण करने का समय बहुत बड़ा होगा। | ||
इस प्रकार, | इस प्रकार, ऊपरी सीमा पर <math> \mu </math> की आवश्यकता होती है जो दिया जाता है | ||
<math> 0<\mu<\frac{2}{\lambda_{\mathrm{max}}} </math> | <math> 0<\mu<\frac{2}{\lambda_{\mathrm{max}}} </math> | ||
कहाँ <math>\lambda_{\max}</math> स्वतःसंबंध मैट्रिक्स का सबसे बड़ा eigenvalue है <math> {\mathbf{R}} = E\{{\mathbf{x}}(n){\mathbf{x}^H}(n)\}</math>. यदि यह स्थिति पूरी नहीं होती है, तो एल्गोरिथम अस्थिर हो जाता है और <math>\hat{h}(n)</math> विचलन। | कहाँ <math>\lambda_{\max}</math> स्वतःसंबंध मैट्रिक्स का सबसे बड़ा eigenvalue है <math> {\mathbf{R}} = E\{{\mathbf{x}}(n){\mathbf{x}^H}(n)\}</math>. यदि यह स्थिति पूरी नहीं होती है, तो एल्गोरिथम अस्थिर हो जाता है और <math>\hat{h}(n)</math> विचलन। | ||
Line 123: | Line 120: | ||
इसलिए इस परिणाम की सामान्य व्याख्या यह है कि एलएमएस सफेद इनपुट संकेतों के लिए तेजी से और रंगीन इनपुट संकेतों के लिए धीरे-धीरे अभिसरित होता है, जैसे कम-पास या उच्च-पास विशेषताओं वाली प्रक्रियाएं। | इसलिए इस परिणाम की सामान्य व्याख्या यह है कि एलएमएस सफेद इनपुट संकेतों के लिए तेजी से और रंगीन इनपुट संकेतों के लिए धीरे-धीरे अभिसरित होता है, जैसे कम-पास या उच्च-पास विशेषताओं वाली प्रक्रियाएं। | ||
यह ध्यान रखना महत्वपूर्ण है कि उपरोक्त ऊपरी सीमा पर <math>\mu</math> केवल माध्य में स्थिरता को लागू करता है, लेकिन के गुणांक <math>\hat{h}(n)</math> अभी भी असीम रूप से बड़ा हो सकता है, यानी गुणांकों का विचलन अभी भी संभव है। | यह ध्यान रखना महत्वपूर्ण है कि उपरोक्त ऊपरी सीमा पर <math>\mu</math> केवल माध्य में स्थिरता को लागू करता है, लेकिन के गुणांक <math>\hat{h}(n)</math> अभी भी असीम रूप से बड़ा हो सकता है, यानी गुणांकों का विचलन अभी भी संभव है। अधिक व्यावहारिक सीमा है | ||
:<math> | :<math> | ||
0<\mu<\frac{2}{\mathrm{tr}\left[{\mathbf{R}}\right]}, | 0<\mu<\frac{2}{\mathrm{tr}\left[{\mathbf{R}}\right]}, | ||
Line 131: | Line 128: | ||
== सामान्यीकृत कम से कम वर्ग फ़िल्टर (एनएलएमएस) == | == सामान्यीकृत कम से कम वर्ग फ़िल्टर (एनएलएमएस) == | ||
शुद्ध एलएमएस एल्गोरिथ्म का मुख्य दोष यह है कि यह अपने इनपुट के स्केलिंग के प्रति संवेदनशील है <math>x(n)</math>. इससे [[सीखने की दर]] का चयन करना बहुत कठिन (यदि असंभव नहीं है) हो जाता है <math>\mu</math> जो एल्गोरिथ्म की स्थिरता की गारंटी देता है (हायकिन 2002)। सामान्यीकृत कम से कम औसत वर्ग फ़िल्टर (एनएलएमएस) एलएमएस एल्गोरिदम का | शुद्ध एलएमएस एल्गोरिथ्म का मुख्य दोष यह है कि यह अपने इनपुट के स्केलिंग के प्रति संवेदनशील है <math>x(n)</math>. इससे [[सीखने की दर]] का चयन करना बहुत कठिन (यदि असंभव नहीं है) हो जाता है <math>\mu</math> जो एल्गोरिथ्म की स्थिरता की गारंटी देता है (हायकिन 2002)। सामान्यीकृत कम से कम औसत वर्ग फ़िल्टर (एनएलएमएस) एलएमएस एल्गोरिदम का प्रकार है जो इनपुट की शक्ति के साथ सामान्यीकरण करके इस समस्या को हल करता है। एनएलएमएस एल्गोरिदम को संक्षेप में प्रस्तुत किया जा सकता है: | ||
{| | {| | ||
Line 157: | Line 154: | ||
\mu_{opt}=\frac{E\left[\left|y(n)-\hat{y}(n)\right|^2\right]}{E\left[|e(n)|^2\right]} | \mu_{opt}=\frac{E\left[\left|y(n)-\hat{y}(n)\right|^2\right]}{E\left[|e(n)|^2\right]} | ||
</math> | </math> | ||
ऊपर दिए गए परिणाम मानते हैं कि सिग्नल <math>v(n)</math> और <math>x(n)</math> | ऊपर दिए गए परिणाम मानते हैं कि सिग्नल <math>v(n)</math> और <math>x(n)</math> दूसरे से असंबद्ध हैं, जो आमतौर पर व्यवहार में होता है। | ||
=== प्रमाण === | === प्रमाण === |
Revision as of 12:13, 25 June 2023
कम से कम औसत वर्ग (एलएमएस) एल्गोरिदम अनुकूली फ़िल्टर का वर्ग है जो फ़िल्टर गुणांक ढूंढकर वांछित फ़िल्टर की नकल करने के लिए उपयोग किया जाता है जो त्रुटि संकेत (वांछित और वास्तविक संकेत के बीच अंतर) के कम से कम औसत वर्ग का उत्पादन करने से संबंधित है। यह स्टोकास्टिक ग्रेडियेंट वंश विधि है जिसमें फ़िल्टर केवल वर्तमान समय में त्रुटि के आधार पर अनुकूलित किया जाता है। इसका आविष्कार 1960 में स्टैनफोर्ड विश्वविद्यालय के प्रोफेसर बर्नार्ड विड्रो और उनके पहले पीएच.डी. छात्र, टेड हॉफ।
समस्या निर्माण
विनीज़ फ़िल्टर से संबंध
सिग्नल प्रोसेसिंग डोमेन को छोड़कर, कारण वीनर फ़िल्टर की प्राप्ति कम से कम वर्गों के अनुमान के समाधान की तरह दिखती है। इनपुट मैट्रिक्स के लिए कम से कम वर्ग समाधान और आउटपुट वेक्टर है
एफआईआर कम से कम औसत वर्ग फ़िल्टर वीनर फ़िल्टर से संबंधित है, लेकिन पूर्व के त्रुटि मानदंड को कम करना क्रॉस-सहसंबंधों या ऑटो-सहसंबंधों पर निर्भर नहीं करता है। इसका विलयन वीनर फिल्टर विलयन में परिवर्तित हो जाता है। उपरोक्त ब्लॉक आरेख का उपयोग करके अधिकांश रैखिक अनुकूली फ़िल्टरिंग समस्याओं को तैयार किया जा सकता है। यानी अज्ञात प्रणाली पहचान की जानी है और अनुकूली फ़िल्टर फ़िल्टर को अनुकूलित करने का प्रयास करता है जितना संभव हो उतना करीब बनाने के लिए , केवल देखने योग्य संकेतों का उपयोग करते हुए , और ; लेकिन , और प्रत्यक्ष रूप से देखने योग्य नहीं हैं। इसका समाधान वीनर फ़िल्टर से निकटता से संबंधित है।
प्रतीकों की परिभाषा
- वर्तमान इनपुट नमूने की संख्या है
- फिल्टर नल की संख्या है
- (हर्मिटियन ट्रांसपोज़ या संयुग्मी स्थानान्तरण )
- :
- : अनुमानित फ़िल्टर; बाद में फ़िल्टर गुणांक के अनुमान के रूप में व्याख्या करें n नमूने
विचार
एलएमएस फिल्टर के पीछे मूल विचार इष्टतम फिल्टर वजन तक पहुंचना है , फ़िल्टर वज़न को इष्टतम फ़िल्टर वज़न में परिवर्तित करने के तरीके से अपडेट करके। यह ग्रेडिएंट डिसेंट एल्गोरिथम पर आधारित है। एल्गोरिथ्म छोटे वजन (ज्यादातर मामलों में शून्य) मानकर शुरू होता है और, प्रत्येक चरण में, औसत वर्ग त्रुटि के ग्रेडिएंट का पता लगाकर, वजन को अपडेट किया जाता है। अर्थात्, यदि MSE-ग्रेडिएंट धनात्मक है, तो इसका तात्पर्य है कि त्रुटि सकारात्मक रूप से बढ़ती रहेगी यदि वही वज़न आगे पुनरावृत्तियों के लिए उपयोग किया जाता है, जिसका अर्थ है कि हमें वज़न कम करने की आवश्यकता है। उसी तरह, अगर ग्रेडिएंट नेगेटिव है, तो हमें वेट बढ़ाने की जरूरत है। वजन अद्यतन समीकरण है
कहाँ माध्य-वर्ग त्रुटि का प्रतिनिधित्व करता है और अभिसरण गुणांक है।
ऋणात्मक चिह्न दर्शाता है कि हम त्रुटि की ढलान पर नीचे जा रहे हैं, फिल्टर वजन खोजने के लिए, , जो त्रुटि को कम करता है।
फिल्टर भार के समारोह के रूप में माध्य-स्क्वायर त्रुटि द्विघात समारोह है जिसका अर्थ है कि इसका केवल चरम है, जो औसत-वर्ग त्रुटि को कम करता है, जो कि इष्टतम वजन है। LMS इस प्रकार, माध्य-स्क्वायर-त्रुटि बनाम फ़िल्टर भार वक्र के आरोही/अवरोही द्वारा इस इष्टतम भार की ओर पहुंचता है।
व्युत्पत्ति
एलएमएस फिल्टर के पीछे का विचार फ़िल्टर वजन खोजने के लिए सबसे तेज गिरावट का उपयोग करना है जो हानि समारोह को कम करता है। हम लागत फलन को इस रूप में परिभाषित करते हुए प्रारंभ करते हैं
कहाँ वर्तमान नमूना n और में त्रुटि है अपेक्षित मूल्य दर्शाता है।
यह लागत फलन () माध्य वर्ग त्रुटि है, और इसे LMS द्वारा न्यूनतम किया जाता है। यहीं पर LMS को इसका नाम मिला। स्टीपेस्ट डिसेंट को लागू करने का मतलब फ़िल्टर गुणांक (वजन) वेक्टर की व्यक्तिगत प्रविष्टियों के संबंध में आंशिक डेरिवेटिव लेना है
कहाँ ग्रेडियेंट ऑपरेटर है
अब, सदिश राशि है जो लागत फलन के सबसे तीव्र आरोहण की ओर इशारा करती है। न्यूनतम लागत फ़ंक्शन खोजने के लिए हमें विपरीत दिशा में कदम उठाने की आवश्यकता है . गणितीय शब्दों में व्यक्त करने के लिए
कहाँ चरण आकार (अनुकूलन स्थिर) है। इसका मतलब है कि हमें अनुक्रमिक अद्यतन एल्गोरिदम मिला है जो लागत समारोह को कम करता है। दुर्भाग्य से, यह एल्गोरिथम तब तक साकार नहीं होता है जब तक हम नहीं जानते .
आम तौर पर, ऊपर की अपेक्षा की गणना नहीं की जाती है। इसके बजाय, एलएमएस को ऑनलाइन (प्रत्येक नए नमूने के प्राप्त होने के बाद अद्यतन करना) वातावरण में चलाने के लिए, हम उस अपेक्षा के तात्कालिक अनुमान का उपयोग करते हैं। नीचे देखें।
सरलीकरण
अधिकांश प्रणालियों के लिए अपेक्षा कार्य अनुमानित होना चाहिए। यह निम्नलिखित निष्पक्ष अनुमानक के साथ किया जा सकता है
- कहाँ उस अनुमान के लिए हमारे द्वारा उपयोग किए जाने वाले नमूनों की संख्या को इंगित करता है। सबसे सरल मामला है
- उस साधारण मामले के लिए अद्यतन एल्गोरिथ्म इस प्रकार है
दरअसल, यह एलएमएस फिल्टर के लिए अद्यतन एल्गोरिथ्म का गठन करता है।
एलएमएस एल्गोरिथम सारांश
के लिए एलएमएस एल्गोरिथम वें आदेश फ़िल्टर को संक्षेप में प्रस्तुत किया जा सकता है
Parameters: | filter order |
step size | |
Initialisation: | |
Computation: | For |
| |
माध्य में अभिसरण और स्थिरता
जैसा कि एलएमएस एल्गोरिथ्म अपेक्षाओं के सटीक मूल्यों का उपयोग नहीं करता है, वजन कभी भी पूर्ण अर्थों में इष्टतम वजन तक नहीं पहुंचेगा, लेकिन माध्य में अभिसरण संभव है। यही है, भले ही वज़न कम मात्रा में बदल सकता है, यह इष्टतम वज़न के बारे में बदलता है। हालाँकि, यदि वेरियंस जिसके साथ वज़न बदलता है, बड़ा है, माध्य में अभिसरण भ्रामक होगा। यह समस्या हो सकती है, यदि चरण-आकार का मान ठीक से नहीं चुना गया है।
अगर बड़े होने के लिए चुना जाता है, जिस मात्रा के साथ वजन परिवर्तन ढाल अनुमान पर निर्भर करता है, और इसलिए वजन बड़े मूल्य से बदल सकता है ताकि पहले पल में नकारात्मक ढाल अब सकारात्मक हो सके। और दूसरे पल में, वजन नकारात्मक ढाल के कारण बड़ी मात्रा में विपरीत दिशा में बदल सकता है और इस प्रकार इष्टतम वजन के बारे में बड़े विचरण के साथ दोलन करता रहेगा। वहीं दूसरी ओर अगर बहुत छोटा होने के लिए चुना गया है, इष्टतम भारों में अभिसरण करने का समय बहुत बड़ा होगा।
इस प्रकार, ऊपरी सीमा पर की आवश्यकता होती है जो दिया जाता है
कहाँ स्वतःसंबंध मैट्रिक्स का सबसे बड़ा eigenvalue है . यदि यह स्थिति पूरी नहीं होती है, तो एल्गोरिथम अस्थिर हो जाता है और विचलन।
अधिकतम अभिसरण गति तब प्राप्त होती है जब
कहाँ का सबसे छोटा आइगेनवैल्यू है . मान लें कि इस इष्टतम से कम या उसके बराबर है, अभिसरण गति द्वारा निर्धारित किया जाता है , तेजी से अभिसरण देने वाले बड़े मूल्य के साथ। इसका मतलब है कि तेजी से अभिसरण कब प्राप्त किया जा सकता है इसके करीब है , अर्थात्, अधिकतम प्राप्त करने योग्य अभिसरण गति के eigenvalue प्रसार पर निर्भर करता है .
एक सफेद शोर संकेत में स्वतः सहसंबंध मैट्रिक्स होता है कहाँ संकेत का विचरण है। इस मामले में सभी eigenvalues बराबर हैं, और eigenvalue प्रसार सभी संभव आव्यूहों पर न्यूनतम है। इसलिए इस परिणाम की सामान्य व्याख्या यह है कि एलएमएस सफेद इनपुट संकेतों के लिए तेजी से और रंगीन इनपुट संकेतों के लिए धीरे-धीरे अभिसरित होता है, जैसे कम-पास या उच्च-पास विशेषताओं वाली प्रक्रियाएं।
यह ध्यान रखना महत्वपूर्ण है कि उपरोक्त ऊपरी सीमा पर केवल माध्य में स्थिरता को लागू करता है, लेकिन के गुणांक अभी भी असीम रूप से बड़ा हो सकता है, यानी गुणांकों का विचलन अभी भी संभव है। अधिक व्यावहारिक सीमा है
कहाँ के ट्रेस (रैखिक बीजगणित) को दर्शाता है . यह बाध्य गारंटी देता है कि के गुणांक विचलन न करें (व्यवहार में, का मूल्य इस ऊपरी बाउंड के करीब नहीं चुना जाना चाहिए, क्योंकि यह बाउंड की व्युत्पत्ति में किए गए अनुमानों और धारणाओं के कारण कुछ हद तक आशावादी है)।
सामान्यीकृत कम से कम वर्ग फ़िल्टर (एनएलएमएस)
शुद्ध एलएमएस एल्गोरिथ्म का मुख्य दोष यह है कि यह अपने इनपुट के स्केलिंग के प्रति संवेदनशील है . इससे सीखने की दर का चयन करना बहुत कठिन (यदि असंभव नहीं है) हो जाता है जो एल्गोरिथ्म की स्थिरता की गारंटी देता है (हायकिन 2002)। सामान्यीकृत कम से कम औसत वर्ग फ़िल्टर (एनएलएमएस) एलएमएस एल्गोरिदम का प्रकार है जो इनपुट की शक्ति के साथ सामान्यीकरण करके इस समस्या को हल करता है। एनएलएमएस एल्गोरिदम को संक्षेप में प्रस्तुत किया जा सकता है:
Parameters: | filter order |
step size | |
Initialization: | |
Computation: | For |
| |
इष्टतम सीखने की दर
यह दिखाया जा सकता है कि अगर कोई हस्तक्षेप नहीं है (), तो एनएलएमएस एल्गोरिथम के लिए इष्टतम सीखने की दर है
- और इनपुट से स्वतंत्र है और वास्तविक (अज्ञात) आवेग प्रतिक्रिया . सामान्य मामले में हस्तक्षेप के साथ (), इष्टतम सीखने की दर है
ऊपर दिए गए परिणाम मानते हैं कि सिग्नल और दूसरे से असंबद्ध हैं, जो आमतौर पर व्यवहार में होता है।
प्रमाण
बता दें कि फिल्टर मिसलिग्न्मेंट को इस रूप में परिभाषित किया गया है , हम अगले नमूने के लिए अपेक्षित मिसलिग्न्मेंट प्राप्त कर सकते हैं:
होने देना और
स्वतंत्रता मानकर, हमारे पास:
इष्टतम सीखने की दर पाई जाती है , जिससे होता है:
यह भी देखें
- रिकर्सिव कम से कम वर्ग
- LMS फ़िल्टर से संबंधित सांख्यिकीय तकनीकों के लिए कम से कम वर्ग देखें।
- वीनर और एलएमएस के बीच समानताएं
- बहुविलंब ब्लॉक आवृत्ति डोमेन अनुकूली फ़िल्टर
- शून्य-बल तुल्यकारक
- कर्नेल अनुकूली फ़िल्टर
- मिलान फ़िल्टर
- वीनर फिल्टर
संदर्भ
- Monson H. Hayes: Statistical Digital Signal Processing and Modeling, Wiley, 1996, ISBN 0-471-59431-8
- Simon Haykin: Adaptive Filter Theory, Prentice Hall, 2002, ISBN 0-13-048434-2
- Simon S. Haykin, Bernard Widrow (Editor): Least-Mean-Square Adaptive Filters, Wiley, 2003, ISBN 0-471-21570-8
- Bernard Widrow, Samuel D. Stearns: Adaptive Signal Processing, Prentice Hall, 1985, ISBN 0-13-004029-0
- Weifeng Liu, Jose Principe and Simon Haykin: Kernel Adaptive Filtering: A Comprehensive Introduction, John Wiley, 2010, ISBN 0-470-44753-2
- Paulo S.R. Diniz: Adaptive Filtering: Algorithms and Practical Implementation, Kluwer Academic Publishers, 1997, ISBN 0-7923-9912-9
बाहरी संबंध
- LMS Algorithm in Adaptive Antenna Arrays www.antenna-theory.com
- LMS Noise cancellation demo www.advsolned.com