कम से कम औसत वर्ग फ़िल्टर: Difference between revisions

From Vigyanwiki
(Created page with "{{Short description|Statistical algorithm}} {{more footnotes|date=January 2019}} कम से कम औसत वर्ग (एलएमएस) एल्गोरिदम...")
 
No edit summary
Line 1: Line 1:
{{Short description|Statistical algorithm}}
{{Short description|Statistical algorithm}}कम से कम औसत वर्ग (एलएमएस) एल्गोरिदम अनुकूली फ़िल्टर का वर्ग है जो फ़िल्टर गुणांक ढूंढकर वांछित फ़िल्टर की नकल करने के लिए उपयोग किया जाता है जो त्रुटि संकेत (वांछित और वास्तविक संकेत के बीच अंतर) के कम से कम औसत वर्ग का उत्पादन करने से संबंधित है। यह स्टोकास्टिक ग्रेडियेंट वंश विधि है जिसमें फ़िल्टर केवल वर्तमान समय में त्रुटि के आधार पर अनुकूलित किया जाता है। इसका आविष्कार 1960 में [[ स्टैनफोर्ड विश्वविद्यालय |स्टैनफोर्ड विश्वविद्यालय]] के प्रोफेसर [[बर्नार्ड विड्रो]] और उनके पहले पीएच.डी. छात्र, [[टेड हॉफ]]।
{{more footnotes|date=January 2019}}
 
कम से कम औसत वर्ग (एलएमएस) एल्गोरिदम अनुकूली फ़िल्टर का एक वर्ग है जो फ़िल्टर गुणांक ढूंढकर वांछित फ़िल्टर की नकल करने के लिए उपयोग किया जाता है जो त्रुटि संकेत (वांछित और वास्तविक संकेत के बीच अंतर) के कम से कम औसत वर्ग का उत्पादन करने से संबंधित है। यह एक स्टोकास्टिक ग्रेडियेंट वंश विधि है जिसमें फ़िल्टर केवल वर्तमान समय में त्रुटि के आधार पर अनुकूलित किया जाता है। इसका आविष्कार 1960 में [[ स्टैनफोर्ड विश्वविद्यालय ]] के प्रोफेसर [[बर्नार्ड विड्रो]] और उनके पहले पीएच.डी. छात्र, [[टेड हॉफ]]।


== समस्या निर्माण ==
== समस्या निर्माण ==
[[File:Lms filter.svg|444px|एलएमएस फिल्टर]]
[[File:Lms filter.svg|444px|एलएमएस फिल्टर]]


=== [[ विनीज़ फ़िल्टर ]] से संबंध ===
=== [[ विनीज़ फ़िल्टर | विनीज़ फ़िल्टर]] से संबंध ===
सिग्नल प्रोसेसिंग डोमेन को छोड़कर, कारण वीनर फ़िल्टर की प्राप्ति कम से कम वर्गों के अनुमान के समाधान की तरह दिखती है। इनपुट मैट्रिक्स के लिए कम से कम वर्ग समाधान <math>
सिग्नल प्रोसेसिंग डोमेन को छोड़कर, कारण वीनर फ़िल्टर की प्राप्ति कम से कम वर्गों के अनुमान के समाधान की तरह दिखती है। इनपुट मैट्रिक्स के लिए कम से कम वर्ग समाधान <math>
\mathbf{X}</math> और आउटपुट वेक्टर <math>\boldsymbol y </math>
\mathbf{X}</math> और आउटपुट वेक्टर <math>\boldsymbol y </math>
Line 16: Line 13:
</math>
</math>
एफआईआर कम से कम औसत वर्ग फ़िल्टर वीनर फ़िल्टर से संबंधित है, लेकिन पूर्व के त्रुटि मानदंड को कम करना क्रॉस-सहसंबंधों या ऑटो-सहसंबंधों पर निर्भर नहीं करता है। इसका विलयन वीनर फिल्टर विलयन में परिवर्तित हो जाता है।
एफआईआर कम से कम औसत वर्ग फ़िल्टर वीनर फ़िल्टर से संबंधित है, लेकिन पूर्व के त्रुटि मानदंड को कम करना क्रॉस-सहसंबंधों या ऑटो-सहसंबंधों पर निर्भर नहीं करता है। इसका विलयन वीनर फिल्टर विलयन में परिवर्तित हो जाता है।
उपरोक्त ब्लॉक आरेख का उपयोग करके अधिकांश रैखिक अनुकूली फ़िल्टरिंग समस्याओं को तैयार किया जा सकता है। यानी एक अज्ञात प्रणाली <math>\mathbf{h}(n)</math> पहचान की जानी है और अनुकूली फ़िल्टर फ़िल्टर को अनुकूलित करने का प्रयास करता है <math>\hat{\mathbf{h}}(n)</math> जितना संभव हो उतना करीब बनाने के लिए <math>\mathbf{h}(n)</math>, केवल देखने योग्य संकेतों का उपयोग करते हुए <math>x(n)</math>, <math>d(n)</math> और <math>e(n)</math>; लेकिन <math>y(n)</math>, <math>v(n)</math> और <math>h(n)</math> प्रत्यक्ष रूप से देखने योग्य नहीं हैं। इसका समाधान वीनर फ़िल्टर से निकटता से संबंधित है।
उपरोक्त ब्लॉक आरेख का उपयोग करके अधिकांश रैखिक अनुकूली फ़िल्टरिंग समस्याओं को तैयार किया जा सकता है। यानी अज्ञात प्रणाली <math>\mathbf{h}(n)</math> पहचान की जानी है और अनुकूली फ़िल्टर फ़िल्टर को अनुकूलित करने का प्रयास करता है <math>\hat{\mathbf{h}}(n)</math> जितना संभव हो उतना करीब बनाने के लिए <math>\mathbf{h}(n)</math>, केवल देखने योग्य संकेतों का उपयोग करते हुए <math>x(n)</math>, <math>d(n)</math> और <math>e(n)</math>; लेकिन <math>y(n)</math>, <math>v(n)</math> और <math>h(n)</math> प्रत्यक्ष रूप से देखने योग्य नहीं हैं। इसका समाधान वीनर फ़िल्टर से निकटता से संबंधित है।


=== प्रतीकों की परिभाषा ===
=== प्रतीकों की परिभाषा ===
:<math>n</math> वर्तमान इनपुट नमूने की संख्या है
:<math>n</math> वर्तमान इनपुट नमूने की संख्या है
:<math>p</math> फिल्टर नल की संख्या है
:<math>p</math> फिल्टर नल की संख्या है
:<math> \{\cdot\}^H </math> ([[हर्मिटियन ट्रांसपोज़]] या [[ संयुग्मी स्थानान्तरण ]])
:<math> \{\cdot\}^H </math> ([[हर्मिटियन ट्रांसपोज़]] या [[ संयुग्मी स्थानान्तरण |संयुग्मी स्थानान्तरण]] )
:<math>
:<math>
\mathbf{x}(n) = \left[x(n), x(n-1), \dots, x(n-p-1)\right]^T
\mathbf{x}(n) = \left[x(n), x(n-1), \dots, x(n-p-1)\right]^T
Line 46: Line 43:
ऋणात्मक चिह्न दर्शाता है कि हम त्रुटि की ढलान पर नीचे जा रहे हैं, <math> \varepsilon </math> फिल्टर वजन खोजने के लिए, <math> W_i </math>, जो त्रुटि को कम करता है।
ऋणात्मक चिह्न दर्शाता है कि हम त्रुटि की ढलान पर नीचे जा रहे हैं, <math> \varepsilon </math> फिल्टर वजन खोजने के लिए, <math> W_i </math>, जो त्रुटि को कम करता है।


फिल्टर भार के एक समारोह के रूप में माध्य-स्क्वायर त्रुटि एक द्विघात समारोह है जिसका अर्थ है कि इसका केवल एक चरम है, जो औसत-वर्ग त्रुटि को कम करता है, जो कि इष्टतम वजन है। LMS इस प्रकार, माध्य-स्क्वायर-त्रुटि बनाम फ़िल्टर भार वक्र के आरोही/अवरोही द्वारा इस इष्टतम भार की ओर पहुंचता है।
फिल्टर भार के समारोह के रूप में माध्य-स्क्वायर त्रुटि द्विघात समारोह है जिसका अर्थ है कि इसका केवल चरम है, जो औसत-वर्ग त्रुटि को कम करता है, जो कि इष्टतम वजन है। LMS इस प्रकार, माध्य-स्क्वायर-त्रुटि बनाम फ़िल्टर भार वक्र के आरोही/अवरोही द्वारा इस इष्टतम भार की ओर पहुंचता है।


== व्युत्पत्ति ==
== व्युत्पत्ति ==
Line 59: Line 56:
\nabla_{\hat{\mathbf{h}}^H} C(n) = \nabla_{\hat{\mathbf{h}}^H} E\left\{e(n) \, e^{*}(n)\right\}=2E\left\{\nabla_{\hat{\mathbf{h}}^H} ( e(n)) \, e^{*}(n) \right\}
\nabla_{\hat{\mathbf{h}}^H} C(n) = \nabla_{\hat{\mathbf{h}}^H} E\left\{e(n) \, e^{*}(n)\right\}=2E\left\{\nabla_{\hat{\mathbf{h}}^H} ( e(n)) \, e^{*}(n) \right\}
</math>
</math>
कहाँ <math>\nabla</math> [[ ग्रेडियेंट ]] ऑपरेटर है
कहाँ <math>\nabla</math> [[ ग्रेडियेंट |ग्रेडियेंट]] ऑपरेटर है
:<math>
:<math>
\nabla_{\hat{\mathbf{h}}^H} (e(n))= \nabla_{\hat{\mathbf{h}}^H} \left(d(n) - \hat{\mathbf{h}}^H \cdot \mathbf{x}(n)\right)=-\mathbf{x}(n)
\nabla_{\hat{\mathbf{h}}^H} (e(n))= \nabla_{\hat{\mathbf{h}}^H} \left(d(n) - \hat{\mathbf{h}}^H \cdot \mathbf{x}(n)\right)=-\mathbf{x}(n)
Line 66: Line 63:
\nabla C(n) = -2E\left\{\mathbf{x}(n) \, e^{*}(n)\right\}
\nabla C(n) = -2E\left\{\mathbf{x}(n) \, e^{*}(n)\right\}
</math>
</math>
अब, <math>\nabla C(n)</math> एक सदिश राशि है जो लागत फलन के सबसे तीव्र आरोहण की ओर इशारा करती है। न्यूनतम लागत फ़ंक्शन खोजने के लिए हमें विपरीत दिशा में एक कदम उठाने की आवश्यकता है <math>\nabla C(n)</math>. गणितीय शब्दों में व्यक्त करने के लिए
अब, <math>\nabla C(n)</math> सदिश राशि है जो लागत फलन के सबसे तीव्र आरोहण की ओर इशारा करती है। न्यूनतम लागत फ़ंक्शन खोजने के लिए हमें विपरीत दिशा में कदम उठाने की आवश्यकता है <math>\nabla C(n)</math>. गणितीय शब्दों में व्यक्त करने के लिए
:<math>\hat{\mathbf{h}}(n+1)=\hat{\mathbf{h}}(n)-\frac{\mu}{2} \nabla C(n)=\hat{\mathbf{h}}(n)+\mu \, E\left\{\mathbf{x}(n) \, e^{*}(n)\right\}</math>
:<math>\hat{\mathbf{h}}(n+1)=\hat{\mathbf{h}}(n)-\frac{\mu}{2} \nabla C(n)=\hat{\mathbf{h}}(n)+\mu \, E\left\{\mathbf{x}(n) \, e^{*}(n)\right\}</math>
कहाँ <math>\frac{\mu}{2}</math> चरण आकार (अनुकूलन स्थिर) है। इसका मतलब है कि हमें एक अनुक्रमिक अद्यतन एल्गोरिदम मिला है जो लागत समारोह को कम करता है। दुर्भाग्य से, यह एल्गोरिथम तब तक साकार नहीं होता है जब तक हम नहीं जानते <math>E\left\{\mathbf{x}(n) \, e^{*}(n)\right\} </math>.
कहाँ <math>\frac{\mu}{2}</math> चरण आकार (अनुकूलन स्थिर) है। इसका मतलब है कि हमें अनुक्रमिक अद्यतन एल्गोरिदम मिला है जो लागत समारोह को कम करता है। दुर्भाग्य से, यह एल्गोरिथम तब तक साकार नहीं होता है जब तक हम नहीं जानते <math>E\left\{\mathbf{x}(n) \, e^{*}(n)\right\} </math>.


आम तौर पर, ऊपर की अपेक्षा की गणना नहीं की जाती है। इसके बजाय, एलएमएस को ऑनलाइन (प्रत्येक नए नमूने के प्राप्त होने के बाद अद्यतन करना) वातावरण में चलाने के लिए, हम उस अपेक्षा के तात्कालिक अनुमान का उपयोग करते हैं। नीचे देखें।
आम तौर पर, ऊपर की अपेक्षा की गणना नहीं की जाती है। इसके बजाय, एलएमएस को ऑनलाइन (प्रत्येक नए नमूने के प्राप्त होने के बाद अद्यतन करना) वातावरण में चलाने के लिए, हम उस अपेक्षा के तात्कालिक अनुमान का उपयोग करते हैं। नीचे देखें।
Line 105: Line 102:
== माध्य में अभिसरण और स्थिरता ==
== माध्य में अभिसरण और स्थिरता ==


जैसा कि एलएमएस एल्गोरिथ्म अपेक्षाओं के सटीक मूल्यों का उपयोग नहीं करता है, वजन कभी भी पूर्ण अर्थों में इष्टतम वजन तक नहीं पहुंचेगा, लेकिन माध्य में एक अभिसरण संभव है। यही है, भले ही वज़न कम मात्रा में बदल सकता है, यह इष्टतम वज़न के बारे में बदलता है। हालाँकि, यदि वेरियंस जिसके साथ वज़न बदलता है, बड़ा है, माध्य में अभिसरण भ्रामक होगा। यह समस्या हो सकती है, यदि चरण-आकार का मान <math> \mu </math> ठीक से नहीं चुना गया है।
जैसा कि एलएमएस एल्गोरिथ्म अपेक्षाओं के सटीक मूल्यों का उपयोग नहीं करता है, वजन कभी भी पूर्ण अर्थों में इष्टतम वजन तक नहीं पहुंचेगा, लेकिन माध्य में अभिसरण संभव है। यही है, भले ही वज़न कम मात्रा में बदल सकता है, यह इष्टतम वज़न के बारे में बदलता है। हालाँकि, यदि वेरियंस जिसके साथ वज़न बदलता है, बड़ा है, माध्य में अभिसरण भ्रामक होगा। यह समस्या हो सकती है, यदि चरण-आकार का मान <math> \mu </math> ठीक से नहीं चुना गया है।


अगर <math> \mu </math> बड़े होने के लिए चुना जाता है, जिस मात्रा के साथ वजन परिवर्तन ढाल अनुमान पर निर्भर करता है, और इसलिए वजन एक बड़े मूल्य से बदल सकता है ताकि पहले पल में नकारात्मक ढाल अब सकारात्मक हो सके। और दूसरे पल में, वजन नकारात्मक ढाल के कारण बड़ी मात्रा में विपरीत दिशा में बदल सकता है और इस प्रकार इष्टतम वजन के बारे में एक बड़े विचरण के साथ दोलन करता रहेगा। वहीं दूसरी ओर अगर <math> \mu </math> बहुत छोटा होने के लिए चुना गया है, इष्टतम भारों में अभिसरण करने का समय बहुत बड़ा होगा।
अगर <math> \mu </math> बड़े होने के लिए चुना जाता है, जिस मात्रा के साथ वजन परिवर्तन ढाल अनुमान पर निर्भर करता है, और इसलिए वजन बड़े मूल्य से बदल सकता है ताकि पहले पल में नकारात्मक ढाल अब सकारात्मक हो सके। और दूसरे पल में, वजन नकारात्मक ढाल के कारण बड़ी मात्रा में विपरीत दिशा में बदल सकता है और इस प्रकार इष्टतम वजन के बारे में बड़े विचरण के साथ दोलन करता रहेगा। वहीं दूसरी ओर अगर <math> \mu </math> बहुत छोटा होने के लिए चुना गया है, इष्टतम भारों में अभिसरण करने का समय बहुत बड़ा होगा।


इस प्रकार, एक ऊपरी सीमा पर <math> \mu </math> की आवश्यकता होती है जो दिया जाता है
इस प्रकार, ऊपरी सीमा पर <math> \mu </math> की आवश्यकता होती है जो दिया जाता है
  <math> 0<\mu<\frac{2}{\lambda_{\mathrm{max}}} </math>
  <math> 0<\mu<\frac{2}{\lambda_{\mathrm{max}}} </math>
कहाँ <math>\lambda_{\max}</math> स्वतःसंबंध मैट्रिक्स का सबसे बड़ा eigenvalue है <math> {\mathbf{R}} = E\{{\mathbf{x}}(n){\mathbf{x}^H}(n)\}</math>. यदि यह स्थिति पूरी नहीं होती है, तो एल्गोरिथम अस्थिर हो जाता है और <math>\hat{h}(n)</math> विचलन।
कहाँ <math>\lambda_{\max}</math> स्वतःसंबंध मैट्रिक्स का सबसे बड़ा eigenvalue है <math> {\mathbf{R}} = E\{{\mathbf{x}}(n){\mathbf{x}^H}(n)\}</math>. यदि यह स्थिति पूरी नहीं होती है, तो एल्गोरिथम अस्थिर हो जाता है और <math>\hat{h}(n)</math> विचलन।
Line 123: Line 120:
इसलिए इस परिणाम की सामान्य व्याख्या यह है कि एलएमएस सफेद इनपुट संकेतों के लिए तेजी से और रंगीन इनपुट संकेतों के लिए धीरे-धीरे अभिसरित होता है, जैसे कम-पास या उच्च-पास विशेषताओं वाली प्रक्रियाएं।
इसलिए इस परिणाम की सामान्य व्याख्या यह है कि एलएमएस सफेद इनपुट संकेतों के लिए तेजी से और रंगीन इनपुट संकेतों के लिए धीरे-धीरे अभिसरित होता है, जैसे कम-पास या उच्च-पास विशेषताओं वाली प्रक्रियाएं।


यह ध्यान रखना महत्वपूर्ण है कि उपरोक्त ऊपरी सीमा पर <math>\mu</math> केवल माध्य में स्थिरता को लागू करता है, लेकिन के गुणांक <math>\hat{h}(n)</math> अभी भी असीम रूप से बड़ा हो सकता है, यानी गुणांकों का विचलन अभी भी संभव है। एक अधिक व्यावहारिक सीमा है
यह ध्यान रखना महत्वपूर्ण है कि उपरोक्त ऊपरी सीमा पर <math>\mu</math> केवल माध्य में स्थिरता को लागू करता है, लेकिन के गुणांक <math>\hat{h}(n)</math> अभी भी असीम रूप से बड़ा हो सकता है, यानी गुणांकों का विचलन अभी भी संभव है। अधिक व्यावहारिक सीमा है
:<math>
:<math>
0<\mu<\frac{2}{\mathrm{tr}\left[{\mathbf{R}}\right]},
0<\mu<\frac{2}{\mathrm{tr}\left[{\mathbf{R}}\right]},
Line 131: Line 128:
== सामान्यीकृत कम से कम वर्ग फ़िल्टर (एनएलएमएस) ==
== सामान्यीकृत कम से कम वर्ग फ़िल्टर (एनएलएमएस) ==


शुद्ध एलएमएस एल्गोरिथ्म का मुख्य दोष यह है कि यह अपने इनपुट के स्केलिंग के प्रति संवेदनशील है <math>x(n)</math>. इससे [[सीखने की दर]] का चयन करना बहुत कठिन (यदि असंभव नहीं है) हो जाता है <math>\mu</math> जो एल्गोरिथ्म की स्थिरता की गारंटी देता है (हायकिन 2002)। सामान्यीकृत कम से कम औसत वर्ग फ़िल्टर (एनएलएमएस) एलएमएस एल्गोरिदम का एक प्रकार है जो इनपुट की शक्ति के साथ सामान्यीकरण करके इस समस्या को हल करता है। एनएलएमएस एल्गोरिदम को संक्षेप में प्रस्तुत किया जा सकता है:
शुद्ध एलएमएस एल्गोरिथ्म का मुख्य दोष यह है कि यह अपने इनपुट के स्केलिंग के प्रति संवेदनशील है <math>x(n)</math>. इससे [[सीखने की दर]] का चयन करना बहुत कठिन (यदि असंभव नहीं है) हो जाता है <math>\mu</math> जो एल्गोरिथ्म की स्थिरता की गारंटी देता है (हायकिन 2002)। सामान्यीकृत कम से कम औसत वर्ग फ़िल्टर (एनएलएमएस) एलएमएस एल्गोरिदम का प्रकार है जो इनपुट की शक्ति के साथ सामान्यीकरण करके इस समस्या को हल करता है। एनएलएमएस एल्गोरिदम को संक्षेप में प्रस्तुत किया जा सकता है:


{|  
{|  
Line 157: Line 154:
\mu_{opt}=\frac{E\left[\left|y(n)-\hat{y}(n)\right|^2\right]}{E\left[|e(n)|^2\right]}
\mu_{opt}=\frac{E\left[\left|y(n)-\hat{y}(n)\right|^2\right]}{E\left[|e(n)|^2\right]}
</math>
</math>
ऊपर दिए गए परिणाम मानते हैं कि सिग्नल <math>v(n)</math> और <math>x(n)</math> एक दूसरे से असंबद्ध हैं, जो आमतौर पर व्यवहार में होता है।
ऊपर दिए गए परिणाम मानते हैं कि सिग्नल <math>v(n)</math> और <math>x(n)</math> दूसरे से असंबद्ध हैं, जो आमतौर पर व्यवहार में होता है।


=== प्रमाण ===
=== प्रमाण ===

Revision as of 12:13, 25 June 2023

कम से कम औसत वर्ग (एलएमएस) एल्गोरिदम अनुकूली फ़िल्टर का वर्ग है जो फ़िल्टर गुणांक ढूंढकर वांछित फ़िल्टर की नकल करने के लिए उपयोग किया जाता है जो त्रुटि संकेत (वांछित और वास्तविक संकेत के बीच अंतर) के कम से कम औसत वर्ग का उत्पादन करने से संबंधित है। यह स्टोकास्टिक ग्रेडियेंट वंश विधि है जिसमें फ़िल्टर केवल वर्तमान समय में त्रुटि के आधार पर अनुकूलित किया जाता है। इसका आविष्कार 1960 में स्टैनफोर्ड विश्वविद्यालय के प्रोफेसर बर्नार्ड विड्रो और उनके पहले पीएच.डी. छात्र, टेड हॉफ

समस्या निर्माण

एलएमएस फिल्टर

विनीज़ फ़िल्टर से संबंध

सिग्नल प्रोसेसिंग डोमेन को छोड़कर, कारण वीनर फ़िल्टर की प्राप्ति कम से कम वर्गों के अनुमान के समाधान की तरह दिखती है। इनपुट मैट्रिक्स के लिए कम से कम वर्ग समाधान और आउटपुट वेक्टर है

एफआईआर कम से कम औसत वर्ग फ़िल्टर वीनर फ़िल्टर से संबंधित है, लेकिन पूर्व के त्रुटि मानदंड को कम करना क्रॉस-सहसंबंधों या ऑटो-सहसंबंधों पर निर्भर नहीं करता है। इसका विलयन वीनर फिल्टर विलयन में परिवर्तित हो जाता है। उपरोक्त ब्लॉक आरेख का उपयोग करके अधिकांश रैखिक अनुकूली फ़िल्टरिंग समस्याओं को तैयार किया जा सकता है। यानी अज्ञात प्रणाली पहचान की जानी है और अनुकूली फ़िल्टर फ़िल्टर को अनुकूलित करने का प्रयास करता है जितना संभव हो उतना करीब बनाने के लिए , केवल देखने योग्य संकेतों का उपयोग करते हुए , और ; लेकिन , और प्रत्यक्ष रूप से देखने योग्य नहीं हैं। इसका समाधान वीनर फ़िल्टर से निकटता से संबंधित है।

प्रतीकों की परिभाषा

वर्तमान इनपुट नमूने की संख्या है
फिल्टर नल की संख्या है
(हर्मिटियन ट्रांसपोज़ या संयुग्मी स्थानान्तरण )
 :
 : अनुमानित फ़िल्टर; बाद में फ़िल्टर गुणांक के अनुमान के रूप में व्याख्या करें n नमूने


विचार

एलएमएस फिल्टर के पीछे मूल विचार इष्टतम फिल्टर वजन तक पहुंचना है , फ़िल्टर वज़न को इष्टतम फ़िल्टर वज़न में परिवर्तित करने के तरीके से अपडेट करके। यह ग्रेडिएंट डिसेंट एल्गोरिथम पर आधारित है। एल्गोरिथ्म छोटे वजन (ज्यादातर मामलों में शून्य) मानकर शुरू होता है और, प्रत्येक चरण में, औसत वर्ग त्रुटि के ग्रेडिएंट का पता लगाकर, वजन को अपडेट किया जाता है। अर्थात्, यदि MSE-ग्रेडिएंट धनात्मक है, तो इसका तात्पर्य है कि त्रुटि सकारात्मक रूप से बढ़ती रहेगी यदि वही वज़न आगे पुनरावृत्तियों के लिए उपयोग किया जाता है, जिसका अर्थ है कि हमें वज़न कम करने की आवश्यकता है। उसी तरह, अगर ग्रेडिएंट नेगेटिव है, तो हमें वेट बढ़ाने की जरूरत है। वजन अद्यतन समीकरण है

कहाँ माध्य-वर्ग त्रुटि का प्रतिनिधित्व करता है और अभिसरण गुणांक है।

ऋणात्मक चिह्न दर्शाता है कि हम त्रुटि की ढलान पर नीचे जा रहे हैं, फिल्टर वजन खोजने के लिए, , जो त्रुटि को कम करता है।

फिल्टर भार के समारोह के रूप में माध्य-स्क्वायर त्रुटि द्विघात समारोह है जिसका अर्थ है कि इसका केवल चरम है, जो औसत-वर्ग त्रुटि को कम करता है, जो कि इष्टतम वजन है। LMS इस प्रकार, माध्य-स्क्वायर-त्रुटि बनाम फ़िल्टर भार वक्र के आरोही/अवरोही द्वारा इस इष्टतम भार की ओर पहुंचता है।

व्युत्पत्ति

एलएमएस फिल्टर के पीछे का विचार फ़िल्टर वजन खोजने के लिए सबसे तेज गिरावट का उपयोग करना है जो हानि समारोह को कम करता है। हम लागत फलन को इस रूप में परिभाषित करते हुए प्रारंभ करते हैं

कहाँ वर्तमान नमूना n और में त्रुटि है अपेक्षित मूल्य दर्शाता है।

यह लागत फलन () माध्य वर्ग त्रुटि है, और इसे LMS द्वारा न्यूनतम किया जाता है। यहीं पर LMS को इसका नाम मिला। स्टीपेस्ट डिसेंट को लागू करने का मतलब फ़िल्टर गुणांक (वजन) वेक्टर की व्यक्तिगत प्रविष्टियों के संबंध में आंशिक डेरिवेटिव लेना है

कहाँ ग्रेडियेंट ऑपरेटर है

अब, सदिश राशि है जो लागत फलन के सबसे तीव्र आरोहण की ओर इशारा करती है। न्यूनतम लागत फ़ंक्शन खोजने के लिए हमें विपरीत दिशा में कदम उठाने की आवश्यकता है . गणितीय शब्दों में व्यक्त करने के लिए

कहाँ चरण आकार (अनुकूलन स्थिर) है। इसका मतलब है कि हमें अनुक्रमिक अद्यतन एल्गोरिदम मिला है जो लागत समारोह को कम करता है। दुर्भाग्य से, यह एल्गोरिथम तब तक साकार नहीं होता है जब तक हम नहीं जानते .

आम तौर पर, ऊपर की अपेक्षा की गणना नहीं की जाती है। इसके बजाय, एलएमएस को ऑनलाइन (प्रत्येक नए नमूने के प्राप्त होने के बाद अद्यतन करना) वातावरण में चलाने के लिए, हम उस अपेक्षा के तात्कालिक अनुमान का उपयोग करते हैं। नीचे देखें।

सरलीकरण

अधिकांश प्रणालियों के लिए अपेक्षा कार्य अनुमानित होना चाहिए। यह निम्नलिखित निष्पक्ष अनुमानक के साथ किया जा सकता है

कहाँ उस अनुमान के लिए हमारे द्वारा उपयोग किए जाने वाले नमूनों की संख्या को इंगित करता है। सबसे सरल मामला है
उस साधारण मामले के लिए अद्यतन एल्गोरिथ्म इस प्रकार है

दरअसल, यह एलएमएस फिल्टर के लिए अद्यतन एल्गोरिथ्म का गठन करता है।

एलएमएस एल्गोरिथम सारांश

के लिए एलएमएस एल्गोरिथम वें आदेश फ़िल्टर को संक्षेप में प्रस्तुत किया जा सकता है

Parameters: filter order
step size
Initialisation:
Computation: For


माध्य में अभिसरण और स्थिरता

जैसा कि एलएमएस एल्गोरिथ्म अपेक्षाओं के सटीक मूल्यों का उपयोग नहीं करता है, वजन कभी भी पूर्ण अर्थों में इष्टतम वजन तक नहीं पहुंचेगा, लेकिन माध्य में अभिसरण संभव है। यही है, भले ही वज़न कम मात्रा में बदल सकता है, यह इष्टतम वज़न के बारे में बदलता है। हालाँकि, यदि वेरियंस जिसके साथ वज़न बदलता है, बड़ा है, माध्य में अभिसरण भ्रामक होगा। यह समस्या हो सकती है, यदि चरण-आकार का मान ठीक से नहीं चुना गया है।

अगर बड़े होने के लिए चुना जाता है, जिस मात्रा के साथ वजन परिवर्तन ढाल अनुमान पर निर्भर करता है, और इसलिए वजन बड़े मूल्य से बदल सकता है ताकि पहले पल में नकारात्मक ढाल अब सकारात्मक हो सके। और दूसरे पल में, वजन नकारात्मक ढाल के कारण बड़ी मात्रा में विपरीत दिशा में बदल सकता है और इस प्रकार इष्टतम वजन के बारे में बड़े विचरण के साथ दोलन करता रहेगा। वहीं दूसरी ओर अगर बहुत छोटा होने के लिए चुना गया है, इष्टतम भारों में अभिसरण करने का समय बहुत बड़ा होगा।

इस प्रकार, ऊपरी सीमा पर की आवश्यकता होती है जो दिया जाता है


कहाँ स्वतःसंबंध मैट्रिक्स का सबसे बड़ा eigenvalue है . यदि यह स्थिति पूरी नहीं होती है, तो एल्गोरिथम अस्थिर हो जाता है और विचलन।

अधिकतम अभिसरण गति तब प्राप्त होती है जब

कहाँ का सबसे छोटा आइगेनवैल्यू है . मान लें कि इस इष्टतम से कम या उसके बराबर है, अभिसरण गति द्वारा निर्धारित किया जाता है , तेजी से अभिसरण देने वाले बड़े मूल्य के साथ। इसका मतलब है कि तेजी से अभिसरण कब प्राप्त किया जा सकता है इसके करीब है , अर्थात्, अधिकतम प्राप्त करने योग्य अभिसरण गति के eigenvalue प्रसार पर निर्भर करता है .

एक सफेद शोर संकेत में स्वतः सहसंबंध मैट्रिक्स होता है कहाँ संकेत का विचरण है। इस मामले में सभी eigenvalues ​​​​बराबर हैं, और eigenvalue प्रसार सभी संभव आव्यूहों पर न्यूनतम है। इसलिए इस परिणाम की सामान्य व्याख्या यह है कि एलएमएस सफेद इनपुट संकेतों के लिए तेजी से और रंगीन इनपुट संकेतों के लिए धीरे-धीरे अभिसरित होता है, जैसे कम-पास या उच्च-पास विशेषताओं वाली प्रक्रियाएं।

यह ध्यान रखना महत्वपूर्ण है कि उपरोक्त ऊपरी सीमा पर केवल माध्य में स्थिरता को लागू करता है, लेकिन के गुणांक अभी भी असीम रूप से बड़ा हो सकता है, यानी गुणांकों का विचलन अभी भी संभव है। अधिक व्यावहारिक सीमा है

कहाँ के ट्रेस (रैखिक बीजगणित) को दर्शाता है . यह बाध्य गारंटी देता है कि के गुणांक विचलन न करें (व्यवहार में, का मूल्य इस ऊपरी बाउंड के करीब नहीं चुना जाना चाहिए, क्योंकि यह बाउंड की व्युत्पत्ति में किए गए अनुमानों और धारणाओं के कारण कुछ हद तक आशावादी है)।

सामान्यीकृत कम से कम वर्ग फ़िल्टर (एनएलएमएस)

शुद्ध एलएमएस एल्गोरिथ्म का मुख्य दोष यह है कि यह अपने इनपुट के स्केलिंग के प्रति संवेदनशील है . इससे सीखने की दर का चयन करना बहुत कठिन (यदि असंभव नहीं है) हो जाता है जो एल्गोरिथ्म की स्थिरता की गारंटी देता है (हायकिन 2002)। सामान्यीकृत कम से कम औसत वर्ग फ़िल्टर (एनएलएमएस) एलएमएस एल्गोरिदम का प्रकार है जो इनपुट की शक्ति के साथ सामान्यीकरण करके इस समस्या को हल करता है। एनएलएमएस एल्गोरिदम को संक्षेप में प्रस्तुत किया जा सकता है:

Parameters: filter order
step size
Initialization:
Computation: For


इष्टतम सीखने की दर

यह दिखाया जा सकता है कि अगर कोई हस्तक्षेप नहीं है (), तो एनएलएमएस एल्गोरिथम के लिए इष्टतम सीखने की दर है

और इनपुट से स्वतंत्र है और वास्तविक (अज्ञात) आवेग प्रतिक्रिया . सामान्य मामले में हस्तक्षेप के साथ (), इष्टतम सीखने की दर है

ऊपर दिए गए परिणाम मानते हैं कि सिग्नल और दूसरे से असंबद्ध हैं, जो आमतौर पर व्यवहार में होता है।

प्रमाण

बता दें कि फिल्टर मिसलिग्न्मेंट को इस रूप में परिभाषित किया गया है , हम अगले नमूने के लिए अपेक्षित मिसलिग्न्मेंट प्राप्त कर सकते हैं:

होने देना और

स्वतंत्रता मानकर, हमारे पास:

इष्टतम सीखने की दर पाई जाती है , जिससे होता है:


यह भी देखें

संदर्भ

  • Monson H. Hayes: Statistical Digital Signal Processing and Modeling, Wiley, 1996, ISBN 0-471-59431-8
  • Simon Haykin: Adaptive Filter Theory, Prentice Hall, 2002, ISBN 0-13-048434-2
  • Simon S. Haykin, Bernard Widrow (Editor): Least-Mean-Square Adaptive Filters, Wiley, 2003, ISBN 0-471-21570-8
  • Bernard Widrow, Samuel D. Stearns: Adaptive Signal Processing, Prentice Hall, 1985, ISBN 0-13-004029-0
  • Weifeng Liu, Jose Principe and Simon Haykin: Kernel Adaptive Filtering: A Comprehensive Introduction, John Wiley, 2010, ISBN 0-470-44753-2
  • Paulo S.R. Diniz: Adaptive Filtering: Algorithms and Practical Implementation, Kluwer Academic Publishers, 1997, ISBN 0-7923-9912-9


बाहरी संबंध