ऑटोरेग्रेसिव मॉडल: Difference between revisions

From Vigyanwiki
(Created page with "{{Short description|Representation of a type of random process}} {{More footnotes|date=March 2011}} सांख्यिकी, अर्थमिति और सिग्...")
 
No edit summary
Line 1: Line 1:
{{Short description|Representation of a type of random process}}
{{Short description|Representation of a type of random process}}
{{More footnotes|date=March 2011}}
{{More footnotes|date=March 2011}}
सांख्यिकी, अर्थमिति और सिग्नल प्रोसेसिंग में, एक ऑटोरेग्रेसिव (एआर) मॉडल एक प्रकार की यादृच्छिक प्रक्रिया का प्रतिनिधित्व है; जैसे, इसका उपयोग प्रकृति, अर्थशास्त्र, व्यवहार आदि में कुछ निश्चित समय-भिन्न प्रक्रियाओं का वर्णन करने के लिए किया जाता है। ऑटोरेग्रेसिव मॉडल निर्दिष्ट करता है कि आउटपुट चर अपने स्वयं के पिछले मूल्यों पर और [[स्टोकेस्टिक]] शब्द (एक अपूर्ण रूप से अनुमानित शब्द) पर रैखिक रूप से निर्भर करता है; इस प्रकार मॉडल एक स्टोकास्टिक अंतर समीकरण (या पुनरावृत्ति संबंध जो अंतर समीकरण के साथ भ्रमित नहीं होना चाहिए) के रूप में है। [[मूविंग-एवरेज मॉडल]] | मूविंग-एवरेज (MA) मॉडल के साथ, यह एक विशेष मामला है और अधिक सामान्य ऑटोरेग्रेसिव-मूविंग-एवरेज मॉडल | ऑटोरेग्रेसिव-मूविंग-एवरेज (ARMA) और [[ऑटोरेग्रेसिव इंटीग्रेटेड मूविंग एवरेज]] (ARIMA) का प्रमुख घटक है। ) समय श्रृंखला के मॉडल, जिनमें अधिक जटिल स्टोकेस्टिक संरचना होती है; यह वेक्टर ऑटोरेग्रेसिव मॉडल (VAR) का एक विशेष मामला भी है, जिसमें एक से अधिक विकसित यादृच्छिक चर में एक से अधिक इंटरलॉकिंग स्टोचैस्टिक अंतर समीकरण की प्रणाली शामिल है।
सांख्यिकी, अर्थमिति और संकेत संसाधन में '''स्वत:प्रतिगामी''' '''मॉडल''' (एआर) एक प्रकार की यादृच्छिक प्रक्रिया का प्रतिनिधित्व करता है जैसे, इसका उपयोग प्रकृति, अर्थशास्त्र, व्यवहार आदि में कुछ समय-भिन्न प्रक्रियाओं का वर्णन करने के लिए किया जाता है। स्वत:प्रतिगामी मॉडल निर्दिष्ट करता है कि आउटपुट चर अपने पिछले मानों और एक [[स्टोकेस्टिक|प्रसंभाव्य]] शब्द (एक अपूर्ण रूप से पूर्वानुमानित शब्द) पर रैखिक रूप से निर्भर करता है। इस प्रकार मॉडल एक प्रसंभाव्य अंतर समीकरण (या पुनरावृत्ति संबंध जिसे अंतर समीकरण के साथ भ्रमित नहीं किया जाना चाहिए) के रूप में है। मूविंग-एवरेज (एमए) मॉडल के साथ, यह समय श्रृंखला के अधिक सामान्य स्वत:प्रतिगामी-मूविंग-एवरेज (एआरएमए) और[[ऑटोरेग्रेसिव इंटीग्रेटेड मूविंग एवरेज|स्वत:प्रतिगामी इंटीग्रेटेड मूविंग एवरेज]] (एआरआईएमए) मॉडल का एक विशेष मामला और प्रमुख घटक है, जिसमें अधिक जटिल प्रसंभाव्य संरचना है। यह सदिश स्वत:प्रतिगामी मॉडल (वीएआर) का एक विशेष मामला भी है, जिसमें एक से अधिक विकसित यादृच्छिक चर में एक से अधिक अंतःबंधन प्रसंभाव्य अंतर समीकरण की एक प्रणाली सम्मिलित है।


मूविंग-एवरेज (MA) मॉडल के विपरीत, ऑटोरेग्रेसिव मॉडल हमेशा स्थिर नहीं होता है क्योंकि इसमें एक यूनिट रूट हो सकता है।
मूविंग-एवरेज (MA) मॉडल के विपरीत, स्वत:प्रतिगामी मॉडल हमेशा स्थिर नहीं होता है क्योंकि इसमें एक यूनिट रूट हो सकता है।


== परिभाषा ==
== परिभाषा ==


अंकन <math>AR(p)</math> ऑर्डर पी के एक ऑटोरेग्रेसिव मॉडल को इंगित करता है। एआर (पी) मॉडल के रूप में परिभाषित किया गया है
अंकन <math>AR(p)</math> ऑर्डर पी के एक स्वत:प्रतिगामी मॉडल को इंगित करता है। <math>AR(p)</math> मॉडल के रूप में परिभाषित किया गया है


:<math> X_t = \sum_{i=1}^p \varphi_i X_{t-i} + \varepsilon_t</math>
:<math> X_t = \sum_{i=1}^p \varphi_i X_{t-i} + \varepsilon_t</math>
कहाँ <math>\varphi_1, \ldots, \varphi_p</math> मॉडल के पैरामीटर हैं, और <math>\varepsilon_t</math> सफेद शोर है।<ref>{{Cite book |last=Box |first=George E. P. |url=https://www.worldcat.org/oclc/28888762 |title=Time series analysis : forecasting and control |date=1994 |publisher=Prentice Hall |others=Gwilym M. Jenkins, Gregory C. Reinsel |isbn=0-13-060774-6 |edition=3rd |location=Englewood Cliffs, N.J. |pages=54 |language=en |oclc=28888762}}</ref><ref>{{Cite book |last=Shumway |first=Robert H. |url=https://www.worldcat.org/oclc/42392178 |title=समय श्रृंखला विश्लेषण और इसके अनुप्रयोग|date=2000 |publisher=Springer |others=David S. Stoffer |isbn=0-387-98950-1 |location=New York |pages=90–91 |language=en |oclc=42392178 |access-date=2022-09-03 |archive-date=2023-04-16 |archive-url=https://web.archive.org/web/20230416160928/https://www.worldcat.org/title/42392178 |url-status=live }}</ref> इसे [[बैकशिफ्ट ऑपरेटर]] B as का उपयोग करके समान रूप से लिखा जा सकता है
कहाँ <math>\varphi_1, \ldots, \varphi_p</math> मॉडल के पैरामीटर हैं, और <math>\varepsilon_t</math> सफेद शोर है।<ref>{{Cite book |last=Box |first=George E. P. |url=https://www.worldcat.org/oclc/28888762 |title=Time series analysis : forecasting and control |date=1994 |publisher=Prentice Hall |others=Gwilym M. Jenkins, Gregory C. Reinsel |isbn=0-13-060774-6 |edition=3rd |location=Englewood Cliffs, N.J. |pages=54 |language=en |oclc=28888762}}</ref><ref>{{Cite book |last=Shumway |first=Robert H. |url=https://www.worldcat.org/oclc/42392178 |title=समय श्रृंखला विश्लेषण और इसके अनुप्रयोग|date=2000 |publisher=Springer |others=David S. Stoffer |isbn=0-387-98950-1 |location=New York |pages=90–91 |language=en |oclc=42392178 |access-date=2022-09-03 |archive-date=2023-04-16 |archive-url=https://web.archive.org/web/20230416160928/https://www.worldcat.org/title/42392178 |url-status=live }}</ref> इसे [[बैकशिफ्ट ऑपरेटर|बैकशिफ्ट संक्रियक]] B as का उपयोग करके समान रूप से लिखा जा सकता है


:<math> X_t = \sum_{i=1}^p \varphi_i B^i X_{t} + \varepsilon_t </math>
:<math> X_t = \sum_{i=1}^p \varphi_i B^i X_{t} + \varepsilon_t </math>
Line 16: Line 16:


:<math>\phi [B]X_t= \varepsilon_t</math>
:<math>\phi [B]X_t= \varepsilon_t</math>
इस प्रकार एक ऑटोरेग्रेसिव मॉडल को ऑल-[[पोल (जटिल विश्लेषण)]] [[अनंत आवेग प्रतिक्रिया]] फ़िल्टर के आउटपुट के रूप में देखा जा सकता है जिसका इनपुट सफेद शोर है।
इस प्रकार एक स्वत:प्रतिगामी मॉडल को ऑल-[[पोल (जटिल विश्लेषण)]] [[अनंत आवेग प्रतिक्रिया]] फ़िल्टर के आउटपुट के रूप में देखा जा सकता है जिसका इनपुट सफेद शोर है।


मॉडल स्थिर रहने के लिए कुछ पैरामीटर बाधाएँ आवश्यक हैं प्रक्रिया#कमजोर या व्यापक-अर्थ स्थिरता|कमजोर-भाव स्थिर। उदाहरण के लिए, एआर (1) मॉडल में प्रक्रियाएं <math>|\varphi_1 | \geq 1</math> स्थिर नहीं हैं। अधिक आम तौर पर, एआर (पी) मॉडल के लिए कमजोर-भावना स्थिर होने के लिए, बहुपद की जड़ें <math>\Phi(z):=\textstyle 1 - \sum_{i=1}^p \varphi_i z^{i}</math> [[यूनिट सर्कल]] के बाहर होना चाहिए, यानी प्रत्येक (जटिल) रूट <math>z_i</math> संतुष्ट करना चाहिए <math>|z_i |>1</math> (पेज 89,92 देखें <ref>{{cite book |last1=Shumway |first1=Robert H. |last2=Stoffer |first2=David |title=Time series analysis and its applications : with R examples |date=2010 |publisher=Springer |isbn=978-1441978646 |edition=3rd}}</ref>).
मॉडल को कमज़ोर-अर्थ स्थिर बने रहने के लिए कुछ पैरामीटर बाधाएँ आवश्यक हैं। उदाहरण के लिए, एआर (1) मॉडल में <math>|\varphi_1 | \geq 1</math> वाली प्रक्रियाएं स्थिर नहीं हैं। अधिक सामान्यतः <math>AR(p)</math> मॉडल के लिए दुर्बल-भावना स्थिर होने के लिए, बहुपद की जड़ें <math>\Phi(z):=\textstyle 1 - \sum_{i=1}^p \varphi_i z^{i}</math> [[यूनिट सर्कल]] के बाहर होना चाहिए, यानी प्रत्येक (जटिल) रूट <math>z_i</math> संतुष्ट करना चाहिए <math>|z_i |>1</math> (पेज 89,92 देखें <ref>{{cite book |last1=Shumway |first1=Robert H. |last2=Stoffer |first2=David |title=Time series analysis and its applications : with R examples |date=2010 |publisher=Springer |isbn=978-1441978646 |edition=3rd}}</ref>).


== झटकों का अंतर्कालिक प्रभाव ==
== झटकों का अंतर्कालिक प्रभाव ==


एआर प्रक्रिया में, एक बार का झटका विकासशील चर के मूल्यों को भविष्य में असीम रूप से प्रभावित करता है। उदाहरण के लिए, AR(1) मॉडल पर विचार करें <math> X_t = \varphi_1 X_{t-1} + \varepsilon_t</math>. के लिए एक गैर-शून्य मान <math>\varepsilon_t</math> कहने के समय टी = 1 प्रभावित करता है <math>X_1</math> राशि से  <math>\varepsilon_1</math>. फिर एआर समीकरण द्वारा के लिए <math>X_2</math> के अनुसार <math>X_1</math>, यह प्रभावित करता है <math>X_2</math> राशि से <math>\varphi_1 \varepsilon_1</math>. फिर एआर समीकरण द्वारा के लिए <math>X_3</math> के अनुसार <math>X_2</math>, यह प्रभावित करता है <math>X_3</math> राशि से <math>\varphi_1^2 \varepsilon_1</math>. इस प्रक्रिया को जारी रखने से पता चलता है कि का प्रभाव <math>\varepsilon_1</math> कभी समाप्त नहीं होता, यद्यपि यदि प्रक्रिया [[स्थिर प्रक्रिया]] है तो सीमा में प्रभाव शून्य की ओर कम हो जाता है।
एआर प्रक्रिया में, एक बार का झटका भविष्य में विकसित हो रहे चर के मानों को अनंत तक प्रभावित करता है। उदाहरण के लिए, AR(1) मॉडल <math> X_t = \varphi_1 X_{t-1} + \varepsilon_t</math> पर विचार करें। मान लीजिए समय t=1 पर <math>\varepsilon_t</math> के लिए एक गैर-शून्य मान <math>X_1</math> को <math>\varepsilon_t</math> की मात्रा से प्रभावित करता है। फिर <math>X_2</math> के लिए AR समीकरण द्वारा <math>X_1</math> के संदर्भ में, यह <math>X_2</math> को <math>\varepsilon_1</math> की मात्रा से प्रभावित करता है। फिर <math>X_2</math> के संदर्भ में <math>X_3</math> के लिए AR समीकरण द्वारा, यह <math>X_3</math> को <math>\varphi_1 \varepsilon_1</math> की मात्रा से प्रभावित करता है। इस प्रक्रिया को जारी रखने से पता चलता है कि <math>\varepsilon_1</math> का प्रभाव कभी समाप्त नहीं होता है, हालाँकि यदि प्रक्रिया स्थिर है तो सीमा में प्रभाव शून्य की ओर कम हो जाता है।


क्योंकि प्रत्येक आघात X मानों को असीम रूप से भविष्य में तब से प्रभावित करता है जब वे होते हैं, कोई भी मान X<sub>''t''</sub> अतीत में असीम रूप से होने वाले झटकों से प्रभावित होता है। इसे ऑटोरिग्रेशन को फिर से लिखकर भी देखा जा सकता है
चूँकि प्रत्येक झटका अपने घटित होने के समय से लेकर भविष्य में अनंत तक X मानों को प्रभावित करता है, इसलिए कोई भी दिया गया मान Xt अतीत में अनंत रूप से घटित होने वाले झटकों से प्रभावित होता है। इसे स्वत: प्रतिगमन को दोबारा लिखकर भी देखा जा सकता है


:<math>\phi (B)X_t=  \varepsilon_t \,</math>
:<math>\phi (B)X_t=  \varepsilon_t \,</math>
(जहां स्थिर शब्द को यह मानकर दबा दिया गया है कि चर को उसके माध्य से विचलन के रूप में मापा गया है) के रूप में
(जहाँ अचर पद को यह मानकर दबा दिया गया है कि चर को उसके माध्य से विचलन के रूप में मापा गया है) जैसे


:<math>X_t= \frac{1}{\phi (B)}\varepsilon_t \, .</math>
:<math>X_t= \frac{1}{\phi (B)}\varepsilon_t \, .</math>
जब दाईं ओर [[बहुपद लंबा विभाजन]] किया जाता है, तो बैकशिफ्ट ऑपरेटर में बहुपद को लागू किया जाता है <math>\varepsilon_t</math> का एक अनंत क्रम है—अर्थात्, के अंतरालित मानों की अनंत संख्या <math>\varepsilon_t</math> समीकरण के दाईं ओर दिखाई देते हैं।
जब दाईं ओर [[बहुपद लंबा विभाजन|बहुपद विभाजन]] किया जाता है, तो <math>\varepsilon_t</math> पर प्रयुक्त बैकशिफ्ट संक्रियक में बहुपद का एक अनंत क्रम होता है - अर्थात, समीकरण के दाईं ओर <math>\varepsilon_t</math> के अनंत संख्या में विलंबित मान दिखाई देते हैं।


== विशेषता बहुपद ==
== विशेषता बहुपद ==
एआर (पी) प्रक्रिया के [[स्वत: सहसंबंध समारोह]] के रूप में व्यक्त किया जा सकता है {{Citation needed|date=October 2011|reason=a_k not defined and seems wrong}}
<math>AR(p)</math> प्रक्रिया के [[स्वत: सहसंबंध समारोह]] के रूप में व्यक्त किया जा सकता है {{Citation needed|date=October 2011|reason=a_k not defined and seems wrong}}
:<math>\rho(\tau) = \sum_{k=1}^p a_k y_k^{-|\tau|} ,</math>
:<math>\rho(\tau) = \sum_{k=1}^p a_k y_k^{-|\tau|} ,</math>
कहाँ <math>y_k</math> बहुपद की जड़ें हैं
कहाँ <math>y_k</math> बहुपद की जड़ें हैं
: <math>\phi(B) = 1- \sum_{k=1}^p \varphi_k B^k </math>
: <math>\phi(B) = 1- \sum_{k=1}^p \varphi_k B^k </math>
जहां बी बैकशिफ्ट ऑपरेटर है, जहां <math>\phi(\cdot)</math> ऑटोरिग्रेशन को परिभाषित करने वाला कार्य है, और कहाँ <math>\varphi_k</math> ऑटोरिग्रेशन में गुणांक हैं। सूत्र तभी मान्य होता है जब सभी मूलों की बहुलता 1 हो।{{Citation needed|date=July 2022|reason=it is true but needs reference, see talk page}}
जहां बी बैकशिफ्ट संक्रियक है, जहां <math>\phi(\cdot)</math> स्वत: प्रतिगमन को परिभाषित करने वाला कार्य है, और कहाँ <math>\varphi_k</math> स्वत: प्रतिगमन में गुणांक हैं। सूत्र तभी मान्य होता है जब सभी मूलों की बहुलता 1 हो।{{Citation needed|date=July 2022|reason=it is true but needs reference, see talk page}}


एआर (पी) प्रक्रिया का स्वत: सहसंबंध समारोह क्षयकारी घातीयों का योग है।
<math>AR(p)</math>प्रक्रिया का स्वत: सहसंबंध समारोह क्षयकारी घातीयों का योग है।
* प्रत्येक वास्तविक जड़ स्वत: सहसंबंध समारोह में एक घटक का योगदान देता है जो तेजी से घटता है।
* प्रत्येक वास्तविक जड़ स्वत: सहसंबंध समारोह में एक घटक का योगदान देता है जो तेजी से घटता है।
* इसी तरह, जटिल संयुग्म जड़ों की प्रत्येक जोड़ी एक घातीय रूप से अवमंदित दोलन का योगदान करती है।
* इसी तरह, जटिल संयुग्म जड़ों की प्रत्येक जोड़ी एक घातीय रूप से अवमंदित दोलन का योगदान करती है।


==एआर (पी) प्रक्रियाओं के रेखांकन ==
==<math>AR(p)</math> प्रक्रियाओं के रेखांकन ==


[[File:ArTimeSeries.svg|thumb|right|alt=चित्रा में एआर प्रक्रियाओं के 5 प्लॉट हैं। एआर (0) और एआर (0.3) सफेद शोर हैं या सफेद शोर की तरह दिखते हैं। एआर (0.9) में कुछ बड़े पैमाने पर दोलन संरचना है। |एआर(0); एआर (1) एआर पैरामीटर 0.3 के साथ; एआर (1) एआर पैरामीटर 0.9 के साथ; एआर (2) एआर पैरामीटर 0.3 और 0.3 के साथ; और एआर (2) एआर पैरामीटर 0.9 और -0.8 के साथ]]सबसे सरल एआर प्रक्रिया एआर (0) है, जिसकी शर्तों के बीच कोई निर्भरता नहीं है। प्रक्रिया के आउटपुट में केवल त्रुटि/नवाचार/शोर शब्द योगदान देता है, इसलिए चित्र में, एआर (0) सफेद शोर से मेल खाता है।
[[File:ArTimeSeries.svg|thumb|right|alt=चित्रा में एआर प्रक्रियाओं के 5 प्लॉट हैं। एआर (0) और एआर (0.3) सफेद शोर हैं या सफेद शोर की तरह दिखते हैं। एआर (0.9) में कुछ बड़े पैमाने पर दोलन संरचना है। |एआर(0) एआर(1) एआर पैरामीटर 0.3 के साथ एआर(1) एआर पैरामीटर 0.9 के साथ एआर(2) एआर पैरामीटर 0.3 और 0.3 के साथ और एआर(2) एआर पैरामीटर 0.9 और −0.8 के साथ]]सबसे सरल AR प्रक्रिया AR(0) है, जिसमें पदों के बीच कोई निर्भरता नहीं है। केवल त्रुटि/नवाचार/शोर शब्द प्रक्रिया के आउटपुट में योगदान देता है, इसलिए चित्र में, AR(0) सफेद शोर से मेल खाता है।


सकारात्मक के साथ एआर (1) प्रक्रिया के लिए <math>\varphi</math>, प्रक्रिया में केवल पिछला शब्द और शोर शब्द आउटपुट में योगदान करते हैं। अगर <math>\varphi</math> 0 के करीब है, तो प्रक्रिया अभी भी सफेद शोर की तरह दिखती है, लेकिन जैसा <math>\varphi</math> दृष्टिकोण 1, आउटपुट को शोर के सापेक्ष पिछले शब्द से बड़ा योगदान मिलता है। इसका परिणाम [[लो पास फिल्टर]] के समान आउटपुट के चौरसाई या एकीकरण में होता है।
धनात्मक <math>\varphi</math> वाली AR(1) प्रक्रिया के लिए, प्रक्रिया में केवल पिछला पद और शोर पद आउटपुट में योगदान करते हैं। यदि <math>\varphi</math> 0 के करीब है, तो प्रक्रिया अभी भी सफेद शोर की तरह दिखती है, लेकिन जैसे ही <math>\varphi</math> 1 के करीब पहुंचता है, आउटपुट को शोर के सापेक्ष पिछले शब्द से बड़ा योगदान मिलता है। इसके परिणामस्वरूप कम पास फिल्टर के समान आउटपुट का "स्मूथिंग" या एकीकरण होता है।


एआर (2) प्रक्रिया के लिए, पिछले दो शब्द और शोर शब्द आउटपुट में योगदान करते हैं। अगर दोनों <math>\varphi_1</math> और <math>\varphi_2</math> सकारात्मक हैं, तो आउटपुट कम पास फिल्टर जैसा होगा, शोर के उच्च आवृत्ति वाले हिस्से में कमी आई है। अगर <math>\varphi_1</math> जबकि सकारात्मक है <math>\varphi_2</math> नकारात्मक है, तो प्रक्रिया प्रक्रिया की शर्तों के बीच साइन इन में बदलाव का समर्थन करती है। आउटपुट दोलन करता है। इसकी तुलना एज डिटेक्शन या दिशा में बदलाव का पता लगाने से की जा सकती है।
एआर(2) प्रक्रिया के लिए, पिछले दो पद और शोर पद आउटपुट में योगदान करते हैं। यदि <math>\varphi_1</math> और <math>\varphi_2</math> दोनों धनात्मक हैं, तो आउटपुट एक कम पास फिल्टर जैसा होगा, जिससे शोर का उच्च आवृत्ति वाला हिस्सा कम हो जाएगा। यदि <math>\varphi_1</math> धनात्मक है जबकि <math>\varphi_2</math> ऋणात्मक है, तो प्रक्रिया प्रक्रिया की शर्तों के बीच संकेत में बदलाव का पक्ष लेती है। आउटपुट दोलन करता है। इसकी तुलना किनारे का पता लगाने या दिशा में परिवर्तन का पता लगाने से की जा सकती है।


== उदाहरण: एक एआर (1) प्रक्रिया ==
== उदाहरण: एक एआर (1) प्रक्रिया ==


एक एआर (1) प्रक्रिया द्वारा दिया जाता है:<math display="block">X_t = \varphi X_{t-1}+\varepsilon_t\,</math>कहाँ <math>\varepsilon_t</math> शून्य माध्य और निरंतर विचरण के साथ एक श्वेत शोर प्रक्रिया है <math>\sigma_\varepsilon^2</math>.
एक एआर (1) प्रक्रिया द्वारा दिया जाता है:<math display="block">X_t = \varphi X_{t-1}+\varepsilon_t\,</math>जहां <math>\varepsilon_t</math> शून्य माध्य और स्थिर विचरण के साथ एक सफेद शोर प्रक्रिया है <math>\sigma_\varepsilon^2</math> (नोट: <math>\varphi_1</math> पर सबस्क्रिप्ट हटा दिया गया है।) प्रक्रिया दुर्बल-अर्थ स्थिर है यदि <math>|\varphi|<1</math> क्योंकि यह एक स्थिर फिल्टर के आउटपुट के रूप में प्राप्त किया जाता है जिसका इनपुट सफेद शोर है। (यदि <math>\varphi=1</math> है तो <math>X_t</math> का प्रसरण समय अंतराल t पर निर्भर करता है, जिससे कि जैसे-जैसे t अनंत तक जाता है, श्रृंखला का प्रसरण अनंत की ओर विचलन करता है, और इसलिए दुर्बल अर्थ स्थिर नहीं है।) यह मानते हुए <math>|\varphi|<1</math>, माध्य <math>\operatorname{E} (X_t)</math> दुर्बल इंद्रिय स्थिरता की परिभाषा के अनुसार t के सभी मानों के लिए समान है। यदि माध्य को <math>\mu</math> द्वारा निरूपित किया जाता है तो इसका अनुसरण होता है<math display="block">\operatorname{E} (X_t)=\varphi\operatorname{E} (X_{t-1})+\operatorname{E}(\varepsilon_t),
(नोट: सबस्क्रिप्ट ऑन <math>\varphi_1</math> गिरा दिया गया है।) प्रक्रिया स्थिर प्रक्रिया है <math>|\varphi|<1</math> चूंकि यह एक स्थिर फिल्टर के आउटपुट के रूप में प्राप्त होता है जिसका इनपुट सफेद शोर होता है। (अगर <math>\varphi=1</math> फिर का विचरण <math>X_t</math> समय अंतराल टी पर निर्भर करता है, ताकि श्रृंखला का विचलन अनंत तक जाता है क्योंकि टी अनंत तक जाता है, और इसलिए कमजोर अर्थ स्थिर नहीं है।) मानते हैं <math>|\varphi|<1</math>, मतलब <math>\operatorname{E} (X_t)</math> कमजोर भावना स्थिरता की परिभाषा से टी के सभी मूल्यों के लिए समान है। यदि माध्य द्वारा निरूपित किया जाता है <math>\mu</math>, यह इस प्रकार है<math display="block">\operatorname{E} (X_t)=\varphi\operatorname{E} (X_{t-1})+\operatorname{E}(\varepsilon_t),
</math>वह<math display="block"> \mu=\varphi\mu+0,</math>और इसलिए
</math>वह<math display="block"> \mu=\varphi\mu+0,</math>और इसलिए
:<math>\mu=0.</math>
:<math>\mu=0.</math>
भिन्नता है
भिन्नता है


:<math>\textrm{var}(X_t)=\operatorname{E}(X_t^2)-\mu^2=\frac{\sigma_\varepsilon^2}{1-\varphi^2},</math>
:<math>\textrm{var}(X_t)=\operatorname{E}(X_t^2)-\mu^2=\frac{\sigma_\varepsilon^2}{1-\varphi^2},</math>
कहाँ <math>\sigma_\varepsilon</math> का मानक विचलन है <math>\varepsilon_t</math>. इसे नोट करके दिखाया जा सकता है
जहां <math>\sigma_\varepsilon</math> का मानक विचलन <math>\varepsilon_t</math> है। इसे नोट करके दर्शाया जा सकता है
:<math>\textrm{var}(X_t) = \varphi^2\textrm{var}(X_{t-1}) + \sigma_\varepsilon^2,</math>
:<math>\textrm{var}(X_t) = \varphi^2\textrm{var}(X_{t-1}) + \sigma_\varepsilon^2,</math>
और फिर यह देखते हुए कि ऊपर की मात्रा इस संबंध का एक स्थिर निश्चित बिंदु है।
और फिर यह देखते हुए कि ऊपर की मात्रा इस संबंध का एक स्थिर निश्चित बिंदु है।
Line 68: Line 66:


:<math>B_n=\operatorname{E}(X_{t+n}X_t)-\mu^2=\frac{\sigma_\varepsilon^2}{1-\varphi^2}\,\,\varphi^{|n|}.</math>
:<math>B_n=\operatorname{E}(X_{t+n}X_t)-\mu^2=\frac{\sigma_\varepsilon^2}{1-\varphi^2}\,\,\varphi^{|n|}.</math>
यह देखा जा सकता है कि स्वतः सहप्रसरण फलन के क्षय समय (जिसे समय स्थिरांक भी कहा जाता है) के साथ क्षय होता है <math>\tau=1-\varphi</math>.<ref>Lai, Dihui; and Lu, Bingfeng; [https://www.soa.org/globalassets/assets/library/newsletters/predictive-analytics-and-futurism/2017/june/2017-predictive-analytics-iss15-lai-lu.pdf "Understanding Autoregressive Model for Time Series as a Deterministic Dynamic System"] {{Webarchive|url=https://web.archive.org/web/20230324041726/https://www.soa.org/globalassets/assets/library/newsletters/predictive-analytics-and-futurism/2017/june/2017-predictive-analytics-iss15-lai-lu.pdf |date=2023-03-24 }}, in ''Predictive Analytics and Futurism'', June 2017, number 15, June 2017, pages 7-9</ref>
यह देखा जा सकता है कि स्वसहप्रसरण फलन <math>\tau=1-\varphi</math> के क्षय समय (जिसे समय स्थिरांक भी कहा जाता है) के साथ क्षय हो जाता है।<ref>Lai, Dihui; and Lu, Bingfeng; [https://www.soa.org/globalassets/assets/library/newsletters/predictive-analytics-and-futurism/2017/june/2017-predictive-analytics-iss15-lai-lu.pdf "Understanding Autoregressive Model for Time Series as a Deterministic Dynamic System"] {{Webarchive|url=https://web.archive.org/web/20230324041726/https://www.soa.org/globalassets/assets/library/newsletters/predictive-analytics-and-futurism/2017/june/2017-predictive-analytics-iss15-lai-lu.pdf |date=2023-03-24 }}, in ''Predictive Analytics and Futurism'', June 2017, number 15, June 2017, pages 7-9</ref>
स्पेक्ट्रल घनत्व फ़ंक्शन ऑटोकोवेरियन फ़ंक्शन का [[फूरियर रूपांतरण]] है। असतत शब्दों में यह असतत-समय फूरियर रूपांतरण होगा:
 
वर्णक्रमीय घनत्व फलन स्वसहप्रसरण फलन का [[फूरियर रूपांतरण]] है। अलग-अलग शब्दों में यह अलग-अलग समय का फूरियर रूपांतरण होगा:


:<math>\Phi(\omega)=
:<math>\Phi(\omega)=
Line 75: Line 74:
=\frac{1}{\sqrt{2\pi}}\,\left(\frac{\sigma_\varepsilon^2}{1+\varphi^2-2\varphi\cos(\omega)}\right).
=\frac{1}{\sqrt{2\pi}}\,\left(\frac{\sigma_\varepsilon^2}{1+\varphi^2-2\varphi\cos(\omega)}\right).
</math>
</math>
यह अभिव्यक्ति की असतत प्रकृति के कारण आवधिक है <math>X_j</math>, जो भाजक में कोसाइन शब्द के रूप में प्रकट होता है। अगर हम मानते हैं कि नमूना लेने का समय (<math>\Delta t=1</math>) क्षय समय से बहुत छोटा है (<math>\tau</math>), तो हम एक सातत्य सन्निकटन का उपयोग कर सकते हैं <math>B_n</math>:
यह अभिव्यक्ति <math>X_j</math> की असतत प्रकृति के कारण आवधिक है, जो हर में कोसाइन पद के रूप में प्रकट होती है। यदि हम मानते हैं कि नमूना समय <math>\Delta t=1</math> क्षय समय <math>\tau</math> से बहुत छोटा है, तो हम <math>B_n</math> के लिए एक सातत्य सन्निकटन का उपयोग कर सकते हैं:


:<math>B(t)\approx \frac{\sigma_\varepsilon^2}{1-\varphi^2}\,\,\varphi^{|t|}</math>
:<math>B(t)\approx \frac{\sigma_\varepsilon^2}{1-\varphi^2}\,\,\varphi^{|t|}</math>
Line 82: Line 81:
:<math>\Phi(\omega)=
:<math>\Phi(\omega)=
\frac{1}{\sqrt{2\pi}}\,\frac{\sigma_\varepsilon^2}{1-\varphi^2}\,\frac{\gamma}{\pi(\gamma^2+\omega^2)}</math>
\frac{1}{\sqrt{2\pi}}\,\frac{\sigma_\varepsilon^2}{1-\varphi^2}\,\frac{\gamma}{\pi(\gamma^2+\omega^2)}</math>
कहाँ <math>\gamma=1/\tau</math> क्षय समय से जुड़ी कोणीय आवृत्ति है <math>\tau</math>.
जहां <math>\gamma=1/\tau</math> क्षय समय <math>\tau</math> से जुड़ी कोणीय आवृत्ति है।


के लिए एक वैकल्पिक अभिव्यक्ति <math>X_t</math> पहले स्थानापन्न करके प्राप्त किया जा सकता है <math>\varphi X_{t-2}+\varepsilon_{t-1}</math> के लिए <math>X_{t-1}</math> परिभाषित समीकरण में। इस प्रक्रिया को जारी रखने से N गुना पैदावार होती है
<math>X_t</math> के लिए एक वैकल्पिक अभिव्यक्ति पहले प्रतिस्थापन द्वारा प्राप्त की जा सकती है परिभाषित समीकरण में <math>\varphi X_{t-2}+\varepsilon_{t-1}</math> के लिए <math>X_{t-1}</math> इस प्रक्रिया को जारी रखने से N गुना लाभ मिलता है


:<math>X_t=\varphi^NX_{t-N}+\sum_{k=0}^{N-1}\varphi^k\varepsilon_{t-k}.</math>
:<math>X_t=\varphi^NX_{t-N}+\sum_{k=0}^{N-1}\varphi^k\varepsilon_{t-k}.</math>
Line 90: Line 89:


:<math>X_t=\sum_{k=0}^\infty\varphi^k\varepsilon_{t-k}.</math>
:<math>X_t=\sum_{k=0}^\infty\varphi^k\varepsilon_{t-k}.</math>
ऐसा देखा गया है <math>X_t</math> सफेद शोर के साथ संलिप्त है <math>\varphi^k</math> कर्नेल प्लस निरंतर माध्य। अगर सफेद शोर <math>\varepsilon_t</math> एक गॉसियन प्रक्रिया है तो <math>X_t</math> गॉसियन प्रक्रिया भी है। अन्य मामलों में, [[केंद्रीय सीमा प्रमेय]] इंगित करता है कि <math>X_t</math> लगभग सामान्य रूप से वितरित किया जाएगा जब <math>\varphi</math> एक के करीब है।
यह देखा गया है कि <math>X_t</math> कर्नेल <math>\varphi^k</math> और स्थिर माध्य के साथ जुड़ा हुआ सफेद शोर है। यदि श्वेत शोर <math>\varepsilon_t</math> एक गाऊसी प्रक्रिया है तो <math>X_t</math> भी एक गाऊसी प्रक्रिया है। अन्य मामलों में, [[केंद्रीय सीमा प्रमेय]] इंगित करता है कि <math>X_t</math> लगभग सामान्य रूप से वितरित किया जाएगा जब <math>\varphi</math> एक के करीब होगा।


के लिए <math>\varepsilon_t = 0</math>, प्रक्रिया <math>X_t = \varphi X_{t-1}</math> एक ज्यामितीय प्रगति (घातीय वृद्धि या क्षय) होगी। इस मामले में, समाधान विश्लेषणात्मक रूप से पाया जा सकता है: <math>X_t = a \varphi^t</math> जिसके तहत <math>a</math> एक अज्ञात स्थिरांक (प्रारंभिक स्थिति) है।
<math>\varepsilon_t = 0</math> के लिए, प्रक्रिया <math>X_t = \varphi X_{t-1}</math> एक ज्यामितीय प्रगति (घातीय वृद्धि या क्षय) होगी। इस मामले में, समाधान विश्लेषणात्मक रूप से पाया जा सकता है <math>X_t = a \varphi^t</math> जिससे <math>a</math> एक अज्ञात स्थिरांक (प्रारंभिक स्थिति) है।


=== एआर (1) प्रक्रिया का स्पष्ट माध्य/अंतर रूप ===
=== एआर (1) प्रक्रिया का स्पष्ट माध्य/अंतर रूप ===
Line 106: Line 105:


== अधिकतम अंतराल चुनना ==
== अधिकतम अंतराल चुनना ==
{{Main|Partial autocorrelation function}}
{{Main|आंशिक स्वत:सहसंबंध फलन
}}


एआर (पी) प्रक्रिया का आंशिक स्वसंबंध पी से बड़े अंतराल पर शून्य के बराबर होता है, इसलिए उपयुक्त अधिकतम अंतराल पी वह है जिसके बाद आंशिक स्वसंबंध सभी शून्य होते हैं।
<math>AR(p)</math> प्रक्रिया का आंशिक स्वत: सहसंबंध पी से बड़े अंतराल पर शून्य के बराबर होता है, इसलिए उचित अधिकतम अंतराल पी वह होता है जिसके बाद आंशिक स्वत: सहसंबंध सभी शून्य होते हैं।


== एआर मापदंडों की गणना ==
== एआर मापदंडों की गणना ==


गुणांकों का अनुमान लगाने के कई तरीके हैं, जैसे सामान्य न्यूनतम वर्ग प्रक्रिया या [[क्षणों की विधि (सांख्यिकी)]] (यूल-वॉकर समीकरणों के माध्यम से)
गुणांकों का अनुमान लगाने के कई तरीके हैं, जैसे सामान्य न्यूनतम वर्ग प्रक्रिया या क्षणों की विधि (यूलवॉकर समीकरणों के माध्यम से) <math>AR(p)</math> मॉडल समीकरण द्वारा दिया गया है:
 
एआर (पी) मॉडल समीकरण द्वारा दिया गया है


:<math> X_t = \sum_{i=1}^p \varphi_i X_{t-i}+ \varepsilon_t.\,</math>
:<math> X_t = \sum_{i=1}^p \varphi_i X_{t-i}+ \varepsilon_t.\,</math>
यह मापदंडों पर आधारित है <math>\varphi_i</math> जहां मैं = 1, ..., पी। इन मापदंडों और प्रक्रिया के सहप्रसरण समारोह के बीच एक सीधा पत्राचार होता है, और इस पत्राचार को स्वसंबंध समारोह से मापदंडों को निर्धारित करने के लिए उलटा किया जा सकता है (जो स्वयं सहसंयोजकों से प्राप्त होता है)। यह यूल-वॉकर समीकरणों का उपयोग करके किया जाता है।
यह पैरामीटर्स <math>\varphi_i</math> पर आधारित है जहां i = 1, ..., p. इन मापदंडों और प्रक्रिया के सहप्रसरण फलन के बीच एक सीधा पत्राचार है, और इस पत्राचार को ऑटोसहसंबंध फलन (जो स्वयं सहप्रसरण से प्राप्त होता है) से मापदंडों को निर्धारित करने के लिए उलटा किया जा सकता है। यह यूल-वॉकर समीकरणों का उपयोग करके किया जाता है।


===यूल–वॉकर समीकरण===
===यूल–वॉकर समीकरण===
<!-- this heading is linked from other articles -->
<!-- this heading is linked from other articles -->
यूल-वॉकर समीकरण, उडी यूल और [[गिल्बर्ट वाकर (भौतिक विज्ञानी)]]भौतिक विज्ञानी) के नाम पर,<ref>Yule, G. Udny (1927) [http://visualiseur.bnf.fr/Visualiseur?Destination=Gallica&O=NUMM-56031 "On a Method of Investigating Periodicities in Disturbed Series, with Special Reference to Wolfer's Sunspot Numbers"] {{Webarchive|url=https://web.archive.org/web/20110514094546/http://visualiseur.bnf.fr/Visualiseur?Destination=Gallica&O=NUMM-56031 |date=2011-05-14 }}, ''[[Philosophical Transactions of the Royal Society]] of London'', Ser. A, Vol. 226, 267–298.]</ref><ref>Walker, Gilbert  (1931) [http://visualiseur.bnf.fr/Visualiseur?Destination=Gallica&O=NUMM-56224 "On Periodicity in Series of Related Terms"] {{Webarchive|url=https://web.archive.org/web/20110607170511/http://visualiseur.bnf.fr/Visualiseur?Destination=Gallica&O=NUMM-56224 |date=2011-06-07 }}, ''[[Proceedings of the Royal Society]] of London'', Ser. A, Vol. 131,  518–532.</ref> समीकरणों के निम्नलिखित सेट हैं।<ref>{{cite book |last=Theodoridis |first=Sergios |title=Machine Learning: A Bayesian and Optimization Perspective |publisher=Academic Press, 2015 |chapter=Chapter 1. Probability and Stochastic Processes |pages=9–51 |isbn=978-0-12-801522-3 |date=2015-04-10 }}</ref>
यूल-वॉकर समीकरण, जिसका नाम उडनी यूल और [[गिल्बर्ट वाकर (भौतिक विज्ञानी)]] के नाम पर रखा गया है<ref>Yule, G. Udny (1927) [http://visualiseur.bnf.fr/Visualiseur?Destination=Gallica&O=NUMM-56031 "On a Method of Investigating Periodicities in Disturbed Series, with Special Reference to Wolfer's Sunspot Numbers"] {{Webarchive|url=https://web.archive.org/web/20110514094546/http://visualiseur.bnf.fr/Visualiseur?Destination=Gallica&O=NUMM-56031 |date=2011-05-14 }}, ''[[Philosophical Transactions of the Royal Society]] of London'', Ser. A, Vol. 226, 267–298.]</ref><ref>Walker, Gilbert  (1931) [http://visualiseur.bnf.fr/Visualiseur?Destination=Gallica&O=NUMM-56224 "On Periodicity in Series of Related Terms"] {{Webarchive|url=https://web.archive.org/web/20110607170511/http://visualiseur.bnf.fr/Visualiseur?Destination=Gallica&O=NUMM-56224 |date=2011-06-07 }}, ''[[Proceedings of the Royal Society]] of London'', Ser. A, Vol. 131,  518–532.</ref> समीकरणों के निम्नलिखित समुच्चय हैं।<ref>{{cite book |last=Theodoridis |first=Sergios |title=Machine Learning: A Bayesian and Optimization Perspective |publisher=Academic Press, 2015 |chapter=Chapter 1. Probability and Stochastic Processes |pages=9–51 |isbn=978-0-12-801522-3 |date=2015-04-10 }}</ref>
:<math>\gamma_m = \sum_{k=1}^p \varphi_k \gamma_{m-k} + \sigma_\varepsilon^2\delta_{m,0},</math>
:<math>\gamma_m = \sum_{k=1}^p \varphi_k \gamma_{m-k} + \sigma_\varepsilon^2\delta_{m,0},</math>
कहाँ {{nowrap|1=''m'' = 0, …, ''p''}}, देने वाला {{nowrap|''p'' + 1}} समीकरण। यहाँ <math>\gamma_m</math> X का स्वतः सहप्रसरण फलन है<sub>t</sub>, <math>\sigma_\varepsilon</math> इनपुट शोर प्रक्रिया का मानक विचलन है, और <math>\delta_{m,0}</math> [[क्रोनकर डेल्टा फ़ंक्शन]] है।
जहां {{nowrap|1=''m'' = 0, …, ''p''}} उपज {{nowrap|''p'' + 1}} समीकरण। यहां <math>\gamma_m</math> <math>X_t</math> का स्वतः सहप्रसरण फलन है <math>\sigma_\varepsilon</math> इनपुट शोर प्रक्रिया का मानक विचलन है और <math>\delta_{m,0}</math> [[क्रोनकर डेल्टा फ़ंक्शन|क्रोनकर डेल्टा फलन]] है।


क्योंकि किसी व्यक्तिगत समीकरण का अंतिम भाग केवल तभी शून्य होता है {{nowrap|1=''m'' = 0}}, समीकरणों के समुच्चय को समीकरणों को निरूपित करके हल किया जा सकता है {{nowrap|''m'' > 0}} मैट्रिक्स रूप में, इस प्रकार समीकरण प्राप्त करना
चूँकि किसी व्यक्तिगत समीकरण का अंतिम भाग केवल तभी गैर-शून्य होता है जब m = 0, समीकरणों के समुच्चय को मैट्रिक्स रूप में m > 0 के समीकरणों का प्रतिनिधित्व करके हल किया जा सकता है, इस प्रकार समीकरण प्राप्त होता है:


:<math>\begin{bmatrix}
:<math>\begin{bmatrix}
Line 157: Line 155:


:<math>\gamma_0 = \sum_{k=1}^p \varphi_k \gamma_{-k} + \sigma_\varepsilon^2 ,</math>
:<math>\gamma_0 = \sum_{k=1}^p \varphi_k \gamma_{-k} + \sigma_\varepsilon^2 ,</math>
जो, एक बार <math>\{\varphi_m ; m=1,2, \dots ,p \}</math> जाना जाता है, के लिए हल किया जा सकता है <math>\sigma_\varepsilon^2 .</math>
जो, एक बार <math>\{\varphi_m ; m=1,2, \dots ,p \}</math> जाना जाता है, के लिए हल किया जा सकता है <math>\sigma_\varepsilon^2 .</math>
एक वैकल्पिक सूत्रीकरण स्वसंबंध समारोह के संदर्भ में है। AR पैरामीटर पहले p+1 तत्वों द्वारा निर्धारित किए जाते हैं <math>\rho(\tau)</math> स्वत: सहसंबंध समारोह की। फिर पुनरावर्ती परिकलन द्वारा पूर्ण स्वसहसंबंध फलन प्राप्त किया जा सकता है
एक वैकल्पिक सूत्रीकरण स्वसंबंध समारोह के संदर्भ में है। AR पैरामीटर पहले p+1 तत्वों द्वारा निर्धारित किए जाते हैं <math>\rho(\tau)</math> स्वत: सहसंबंध समारोह की। फिर पुनरावर्ती परिकलन द्वारा पूर्ण स्वसहसंबंध फलन प्राप्त किया जा सकता है:<ref name=Storch>{{Cite book
<ref name=Storch>{{Cite book
| publisher = Cambridge University Press
| publisher = Cambridge University Press
| isbn = 0-521-01230-9
| isbn = 0-521-01230-9
Line 181: Line 178:
*** पहले समीकरण का उपयोग करने से प्राप्त होता है <math>\rho_1 = \gamma_1 / \gamma_0 = \frac{\varphi_1}{1-\varphi_2}</math>
*** पहले समीकरण का उपयोग करने से प्राप्त होता है <math>\rho_1 = \gamma_1 / \gamma_0 = \frac{\varphi_1}{1-\varphi_2}</math>
*** पुनरावर्तन सूत्र का उपयोग करने से प्राप्त होता है <math>\rho_2 = \gamma_2 / \gamma_0 = \frac{\varphi_1^2 - \varphi_2^2 + \varphi_2}{1 - \varphi_2}</math>
*** पुनरावर्तन सूत्र का उपयोग करने से प्राप्त होता है <math>\rho_2 = \gamma_2 / \gamma_0 = \frac{\varphi_1^2 - \varphi_2^2 + \varphi_2}{1 - \varphi_2}</math>
===एआर मापदंडों का अनुमान ===
===एआर मापदंडों का अनुमान ===


उपरोक्त समीकरण (यूल-वॉकर समीकरण) अनुमानित मूल्यों के साथ सैद्धांतिक सहप्रसरण को बदलकर, एआर (पी) मॉडल के मापदंडों का आकलन करने के लिए कई मार्ग प्रदान करते हैं।<ref>{{Cite web |url=http://www-stat.wharton.upenn.edu/~steele/Courses/956/Resource/YWSourceFiles/YW-Eshel.pdf |title=एआर गुणांकों के लिए यूल वॉकर समीकरण|last=Eshel |first=Gidon |website=stat.wharton.upenn.edu |access-date=2019-01-27 |archive-date=2018-07-13 |archive-url=https://web.archive.org/web/20180713135223/http://www-stat.wharton.upenn.edu/~steele/Courses/956/Resource/YWSourceFiles/YW-Eshel.pdf |url-status=live }}</ref> इनमें से कुछ प्रकारों का वर्णन इस प्रकार किया जा सकता है:
उपरोक्त समीकरण (यूल-वाकर समीकरण) अनुमानित मानों के साथ सैद्धांतिक सहप्रसरण को प्रतिस्थापित करके, <math>AR(p)</math> मॉडल के मापदंडों का अनुमान लगाने के लिए कई मार्ग प्रदान करते हैं।<ref>{{Cite web |url=http://www-stat.wharton.upenn.edu/~steele/Courses/956/Resource/YWSourceFiles/YW-Eshel.pdf |title=एआर गुणांकों के लिए यूल वॉकर समीकरण|last=Eshel |first=Gidon |website=stat.wharton.upenn.edu |access-date=2019-01-27 |archive-date=2018-07-13 |archive-url=https://web.archive.org/web/20180713135223/http://www-stat.wharton.upenn.edu/~steele/Courses/956/Resource/YWSourceFiles/YW-Eshel.pdf |url-status=live }}</ref> इनमें से कुछ प्रकारों का वर्णन इस प्रकार किया जा सकता है:


* स्वसहसंबंध या स्वसहसंबंध का अनुमान। यहां पारंपरिक अनुमानों का उपयोग करते हुए इनमें से प्रत्येक शब्द का अलग-अलग अनुमान लगाया गया है। ऐसा करने के विभिन्न तरीके हैं और इनमें से चुनाव अनुमान योजना के गुणों को प्रभावित करता है। उदाहरण के लिए, भिन्नता के नकारात्मक अनुमान कुछ विकल्पों द्वारा उत्पन्न किए जा सकते हैं।
* स्वतःसहप्रसरणों या स्वसहसंबंधों का अनुमान। यहां पारंपरिक अनुमानों का उपयोग करते हुए इनमें से प्रत्येक शब्द का अलग-अलग अनुमान लगाया गया है। ऐसा करने के विभिन्न तरीके हैं और इनके बीच चयन अनुमान योजना के गुणों को प्रभावित करता है। उदाहरण के लिए, कुछ विकल्पों द्वारा विचरण का ऋणात्मक अनुमान लगाया जा सकता है।
* [[कम से कम वर्ग प्रतिगमन]] समस्या के रूप में सूत्रीकरण जिसमें एक्स के मूल्यों की भविष्यवाणी के आधार पर एक सामान्य न्यूनतम वर्ग भविष्यवाणी समस्या का निर्माण किया गया है<sub>''t''</sub> उसी श्रृंखला के पी पिछले मूल्यों पर। इसे आगे की भविष्यवाणी योजना के रूप में माना जा सकता है। इस समस्या के लिए [[सामान्य समीकरण]]ों को यूल-वॉकर समीकरणों के मैट्रिक्स रूप के सन्निकटन के अनुरूप देखा जा सकता है, जिसमें एक ही अंतराल के ऑटोकोविरियंस की प्रत्येक उपस्थिति को थोड़ा अलग अनुमान से बदल दिया जाता है।
* न्यूनतम वर्ग प्रतिगमन समस्या के रूप में सूत्रीकरण जिसमें एक सामान्य न्यूनतम वर्ग पूर्वानुमान समस्या का निर्माण किया जाता है, जो उसी श्रृंखला के पी पिछले मानों पर एक्सटी के मानों की पूर्वानुमान को आधार बनाता है। इसे एक भविष्य-पूर्वानुमान योजना के रूप में सोचा जा सकता है। इस समस्या के लिए सामान्य समीकरणों को यूल-वाकर समीकरणों के मैट्रिक्स रूप के एक अनुमान के अनुरूप देखा जा सकता है जिसमें एक ही अंतराल के एक ऑटोकोवरियन्स की प्रत्येक उपस्थिति को थोड़ा अलग अनुमान से बदल दिया जाता है।
*सामान्य न्यूनतम वर्ग भविष्यवाणी समस्या के विस्तारित रूप के रूप में सूत्रीकरण। यहां भविष्यवाणी समीकरणों के दो सेट एक अनुमान योजना और सामान्य समीकरणों के एक सेट में संयुक्त होते हैं। एक सेट फॉरवर्ड-प्रेडिक्शन इक्वेशन का सेट है और दूसरा एआर मॉडल के बैकवर्ड प्रतिनिधित्व से संबंधित बैकवर्ड प्रेडिक्शन इक्वेशन का एक संबंधित सेट है:
*सामान्य न्यूनतम वर्ग पूर्वानुमान समस्या के विस्तारित रूप के रूप में निरूपण। यहां पूर्वानुमान समीकरणों के दो समुच्चयों को एक एकल अनुमान योजना और सामान्य समीकरणों के एक समुच्चय में संयोजित किया गया है। एक समुच्चय आगे-पूर्वानुमान समीकरणों का समुच्चय है और दूसरा एआर मॉडल के पिछड़े प्रतिनिधित्व से संबंधित पिछड़े पूर्वानुमान समीकरणों का एक संगत समुच्चय है:
::<math> X_t = \sum_{i=1}^p \varphi_i X_{t-i}+ \varepsilon^*_t \,.</math>
::<math> X_t = \sum_{i=1}^p \varphi_i X_{t-i}+ \varepsilon^*_t \,.</math>
:यहाँ X के अनुमानित मान हैं<sub>''t''</sub> उसी श्रृंखला के पी भविष्य के मूल्यों पर आधारित होगा।{{Clarify|reason=1) the latest equation was introduced as "the backward representation of the AR model"; 2) assuming t is counted in the same direction as the progression of time, then the subscripts t-i indicate past values of X w.r.t. X_t; 3) the last sentence would indicate that - suddenly - X_t would depend on future (rather than past) values of X|date=July 2020}} एआर मापदंडों का अनुमान लगाने का यह तरीका जॉन पार्कर बर्ग के कारण है,<ref name=Burg/>और इसे बर्ग विधि कहा जाता है:<ref name=Brockwell/>बर्ग और बाद के लेखकों ने इन विशेष अनुमानों को अधिकतम एन्ट्रापी अनुमान कहा,<ref name=Burg1/>लेकिन इसके पीछे तर्क अनुमानित एआर मापदंडों के किसी भी सेट के उपयोग पर लागू होता है। केवल आगे की भविष्यवाणी के समीकरणों का उपयोग करके अनुमान योजना की तुलना में, ऑटोकोवरिएंस के विभिन्न अनुमानों का उत्पादन किया जाता है, और अनुमानों में अलग-अलग स्थिरता गुण होते हैं। बर्ग अनुमान विशेष रूप से अधिकतम एन्ट्रापी वर्णक्रमीय अनुमान से जुड़े हैं।<ref name=Bos/>
:यहां एक्सटी के अनुमानित मान उसी श्रृंखला के पी भविष्य के मानों पर आधारित होंगे।{{Clarify|reason=1) the latest equation was introduced as "the backward representation of the AR model"; 2) assuming t is counted in the same direction as the progression of time, then the subscripts t-i indicate past values of X w.r.t. X_t; 3) the last sentence would indicate that - suddenly - X_t would depend on future (rather than past) values of X|date=July 2020}} एआर पैरामीटर का अनुमान लगाने का यह तरीका जॉन पार्कर बर्ग के कारण है,<ref name=Burg/> और इसे बर्ग विधि कहा जाता है:<ref name=Brockwell/> बर्ग और बाद के लेखकों ने इन विशेष अनुमानों को "अधिकतम एन्ट्रापी अनुमान" कहा, <ref name=Burg1/> लेकिन इसके पीछे का तर्क अनुमानित एआर मापदंडों के किसी भी समुच्चय के उपयोग पर प्रयुक्त होता है। केवल आगे की पूर्वानुमान समीकरणों का उपयोग करके अनुमान योजना की तुलना में, ऑटोकोवरियन्स के विभिन्न अनुमान उत्पन्न होते हैं, और अनुमानों में अलग-अलग स्थिरता गुण होते हैं। बर्ग अनुमान विशेष रूप से अधिकतम एन्ट्रापी वर्णक्रमीय अनुमान से जुड़े हैं।<ref name=Bos/>


आकलन के अन्य संभावित तरीकों में [[अधिकतम संभावना अनुमान]] शामिल है। अधिकतम संभावना के दो अलग-अलग संस्करण उपलब्ध हैं: एक में (मोटे तौर पर आगे की भविष्यवाणी कम से कम वर्ग योजना के बराबर) संभावना समारोह माना जाता है कि श्रृंखला में बाद के मूल्यों के सशर्त वितरण के अनुरूप श्रृंखला में प्रारंभिक पी मान दिए गए हैं; दूसरे में, संभावना समारोह माना जाता है कि मनाया श्रृंखला में सभी मूल्यों के बिना शर्त संयुक्त वितरण के अनुरूप है। यदि देखी गई श्रृंखला कम है, या प्रक्रिया गैर-स्थिरता के करीब है, तो इन दृष्टिकोणों के परिणामों में पर्याप्त अंतर हो सकता है।
अनुमान के अन्य संभावित तरीकों में [[अधिकतम संभावना अनुमान]] सम्मिलित है। अधिकतम संभावना के दो अलग-अलग प्रकार उपलब्ध हैं: एक में (मोटे तौर पर आगे की पूर्वानुमान न्यूनतम वर्ग योजना के बराबर) संभावना फलन पर विचार किया जाता है कि श्रृंखला में प्रारंभिक पी मान दिए गए श्रृंखला में बाद के मानों के सशर्त वितरण के अनुरूप है; दूसरे में, संभावना फलन पर विचार किया गया है जो प्रेक्षित श्रृंखला में सभी मानों के बिना शर्त संयुक्त वितरण के अनुरूप है। यदि प्रेक्षित श्रृंखला छोटी है, या यदि प्रक्रिया गैर-स्थिरता के करीब है, तो इन दृष्टिकोणों के परिणामों में पर्याप्त अंतर हो सकता है।


== स्पेक्ट्रम ==
== स्पेक्ट्रम ==
[[File:AutocorrTimeAr.svg|thumb|right]]
[[File:AutocorrTimeAr.svg|thumb|right]]
[[File:AutoCorrAR.svg|thumb|right]]शोर विचरण के साथ एआर (पी) प्रक्रिया का वर्णक्रमीय घनत्व # पावर वर्णक्रमीय घनत्व (PSD)। <math>\mathrm{Var}(Z_t) = \sigma_Z^2</math> है<ref name=Storch/>: <math>S(f) = \frac{\sigma_Z^2}{| 1-\sum_{k=1}^p \varphi_k e^{-i 2 \pi f k} |^2}.</math>
[[File:AutoCorrAR.svg|thumb|right]]शोर विचरण के साथ AR(p) प्रक्रिया का पावर स्पेक्ट्रल घनत्व <math>\mathrm{Var}(Z_t) = \sigma_Z^2</math> है।<ref name=Storch/>:  
 


<math>S(f) = \frac{\sigma_Z^2}{| 1-\sum_{k=1}^p \varphi_k e^{-i 2 \pi f k} |^2}.</math>
=== एआर (0) ===
=== एआर (0) ===
सफेद शोर के लिए (एआर (0))
सफेद शोर के लिए (एआर (0))
: <math>S(f) = \sigma_Z^2.</math>
: <math>S(f) = \sigma_Z^2.</math>
===एआर (1) ===
===एआर (1) ===
एआर के लिए (1)
एआर के लिए (1)
: <math>S(f) = \frac{\sigma_Z^2}{| 1- \varphi_1 e^{-2 \pi i f} |^2}
: <math>S(f) = \frac{\sigma_Z^2}{| 1- \varphi_1 e^{-2 \pi i f} |^2}
     = \frac{\sigma_Z^2}{ 1 + \varphi_1^2 - 2 \varphi_1 \cos 2 \pi f }</math>
     = \frac{\sigma_Z^2}{ 1 + \varphi_1^2 - 2 \varphi_1 \cos 2 \pi f }</math>
*अगर <math>\varphi_1 > 0</math> f = 0 पर एकल वर्णक्रमीय शिखर होता है, जिसे अक्सर [[लाल शोर]] कहा जाता है। जैसा <math>\varphi_1 </math> 1 के करीब होने पर, कम आवृत्तियों पर मजबूत शक्ति होती है, यानी बड़े समय के अंतराल। यह तब एक लो-पास फिल्टर है, जब पूर्ण स्पेक्ट्रम प्रकाश पर लागू किया जाता है, लाल बत्ती को छोड़कर सब कुछ फ़िल्टर किया जाएगा।
*यदि <math>\varphi_1 > 0</math> पर f = 0 पर एकल वर्णक्रमीय शिखर है, तो इसे अक्सर लाल शोर के रूप में जाना जाता है। जैसे-जैसे<math>\varphi_1 </math> 1 के करीब आता है, कम आवृत्तियों पर मजबूत शक्ति होती है, यानी बड़ा समय अंतराल। यह तब एक कम-पास फिल्टर है, जब पूर्ण स्पेक्ट्रम प्रकाश पर प्रयुक्त किया जाता है, तो लाल रोशनी को छोड़कर सब कुछ फ़िल्टर किया जाएगा।
*अगर <math>\varphi_1 < 0</math> f = 0 पर न्यूनतम होता है, जिसे अक्सर [[नीला शोर]] कहा जाता है। यह इसी तरह एक उच्च-पास फिल्टर के रूप में कार्य करता है, नीली रोशनी को छोड़कर सब कुछ फ़िल्टर हो जाएगा।
*यदि <math>\varphi_1 < 0</math> f = 0 पर न्यूनतम है, तो इसे अक्सर नीला शोर कहा जाता है। यह इसी तरह एक हाई-पास फ़िल्टर के रूप में कार्य करता है, नीली रोशनी को छोड़कर सब कुछ फ़िल्टर किया जाएगा।


===एआर (2) ===
===एआर (2) ===
Line 221: Line 214:
* कब <math>\varphi_1 < 0</math> यह वर्णक्रमीय शिखर के साथ सफेद शोर पर एक उच्च-पास फिल्टर के रूप में कार्य करता है <math>f=1/2</math>.
* कब <math>\varphi_1 < 0</math> यह वर्णक्रमीय शिखर के साथ सफेद शोर पर एक उच्च-पास फिल्टर के रूप में कार्य करता है <math>f=1/2</math>.
प्रक्रिया गैर-स्थिर होती है जब जड़ें यूनिट सर्कल के बाहर होती हैं।
प्रक्रिया गैर-स्थिर होती है जब जड़ें यूनिट सर्कल के बाहर होती हैं।
प्रक्रिया स्थिर होती है जब जड़ें यूनिट सर्कल के भीतर होती हैं, या समतुल्य जब गुणांक त्रिकोण में होते हैं <math>-1 \le \varphi_2 \le 1 - |\varphi_1|</math>.
प्रक्रिया स्थिर होती है जब जड़ें यूनिट सर्कल के भीतर होती हैं, या समतुल्य जब गुणांक त्रिकोण में होते हैं <math>-1 \le \varphi_2 \le 1 - |\varphi_1|</math>.


पूर्ण PSD फ़ंक्शन को वास्तविक रूप में व्यक्त किया जा सकता है:
पूर्ण PSD फलन को वास्तविक रूप में व्यक्त किया जा सकता है:
:<math>S(f) = \frac{\sigma_Z^2}{1 + \varphi_1^2 + \varphi_2^2 - 2\varphi_1(1-\varphi_2)\cos(2\pi f) - 2\varphi_2\cos(4\pi f)}</math>
:<math>S(f) = \frac{\sigma_Z^2}{1 + \varphi_1^2 + \varphi_2^2 - 2\varphi_1(1-\varphi_2)\cos(2\pi f) - 2\varphi_2\cos(4\pi f)}</math>




== सांख्यिकी पैकेजों में कार्यान्वयन ==
== सांख्यिकी पैकेजों में कार्यान्वयन ==
* [[आर (प्रोग्रामिंग भाषा)]], आँकड़े पैकेज में एक एआर फ़ंक्शन शामिल है।<ref>[http://finzi.psych.upenn.edu/R/library/stats/html/ar.html "Fit Autoregressive Models to Time Series"] {{Webarchive|url=https://web.archive.org/web/20160128234632/http://finzi.psych.upenn.edu/R/library/stats/html/ar.html |date=2016-01-28 }} (in R)</ref>
* [[आर (प्रोग्रामिंग भाषा)]], आँकड़े पैकेज में एक एआर फलन सम्मिलित है।<ref>[http://finzi.psych.upenn.edu/R/library/stats/html/ar.html "Fit Autoregressive Models to Time Series"] {{Webarchive|url=https://web.archive.org/web/20160128234632/http://finzi.psych.upenn.edu/R/library/stats/html/ar.html |date=2016-01-28 }} (in R)</ref>
* [[मैटलैब (प्रोग्रामिंग भाषा)]] का अर्थमिति टूलबॉक्स<ref>{{Cite web |url=https://www.mathworks.com/products/econometrics.html |title=अर्थमिति टूलबॉक्स|website=www.mathworks.com |access-date=2022-02-16 |archive-date=2023-04-16 |archive-url=https://web.archive.org/web/20230416160907/https://www.mathworks.com/products/econometrics.html |url-status=live }}</ref> और सिस्टम आइडेंटिफिकेशन टूलबॉक्स<ref>{{Cite web |url=https://www.mathworks.com/products/sysid.html |title=सिस्टम पहचान टूलबॉक्स|website=www.mathworks.com |access-date=2022-02-16 |archive-date=2022-02-16 |archive-url=https://web.archive.org/web/20220216063519/https://www.mathworks.com/products/sysid.html |url-status=live }}</ref> ऑटोरेग्रेसिव मॉडल शामिल हैं<ref>{{Cite web |url=https://www.mathworks.com/help/econ/autoregressive-model.html |title=ऑटोरेग्रेसिव मॉडल - MATLAB और सिमुलिंक|website=www.mathworks.com |access-date=2022-02-16 |archive-date=2022-02-16 |archive-url=https://web.archive.org/web/20220216063648/https://www.mathworks.com/help/econ/autoregressive-model.html |url-status=live }}</ref>
* [[मैटलैब (प्रोग्रामिंग भाषा)]] का अर्थमिति टूलबॉक्स<ref>{{Cite web |url=https://www.mathworks.com/products/econometrics.html |title=अर्थमिति टूलबॉक्स|website=www.mathworks.com |access-date=2022-02-16 |archive-date=2023-04-16 |archive-url=https://web.archive.org/web/20230416160907/https://www.mathworks.com/products/econometrics.html |url-status=live }}</ref> और सिस्टम आइडेंटिफिकेशन टूलबॉक्स<ref>{{Cite web |url=https://www.mathworks.com/products/sysid.html |title=सिस्टम पहचान टूलबॉक्स|website=www.mathworks.com |access-date=2022-02-16 |archive-date=2022-02-16 |archive-url=https://web.archive.org/web/20220216063519/https://www.mathworks.com/products/sysid.html |url-status=live }}</ref> स्वत:प्रतिगामी मॉडल सम्मिलित हैं<ref>{{Cite web |url=https://www.mathworks.com/help/econ/autoregressive-model.html |title=ऑटोरेग्रेसिव मॉडल - MATLAB और सिमुलिंक|website=www.mathworks.com |access-date=2022-02-16 |archive-date=2022-02-16 |archive-url=https://web.archive.org/web/20220216063648/https://www.mathworks.com/help/econ/autoregressive-model.html |url-status=live }}</ref>
* मैटलैब (प्रोग्रामिंग लैंग्वेज) और [[ ऑक्टेव (प्रोग्रामिंग भाषा) ]]: टीएसए टूलबॉक्स में यूनी-वैरिएट, [[बहुभिन्नरूपी आँकड़े]] और एडाप्टिव ऑटोरेग्रेसिव मॉडल के लिए कई आकलन कार्य होते हैं।<ref>{{Cite web |url=http://pub.ist.ac.at/~schloegl/matlab/tsa/ |title=The Time Series Analysis (TSA) toolbox for Octave and Matlab® |website=pub.ist.ac.at |access-date=2012-04-03 |archive-date=2012-05-11 |archive-url=https://web.archive.org/web/20120511144225/http://pub.ist.ac.at/~schloegl/matlab/tsa/ |url-status=live }}</ref>
* मैटलैब (प्रोग्रामिंग लैंग्वेज) और [[ ऑक्टेव (प्रोग्रामिंग भाषा) |ऑक्टेव (प्रोग्रामिंग भाषा)]] : टीएसए टूलबॉक्स में यूनी-वैरिएट, [[बहुभिन्नरूपी आँकड़े]] और एडाप्टिव स्वत:प्रतिगामी मॉडल के लिए कई आकलन कार्य होते हैं।<ref>{{Cite web |url=http://pub.ist.ac.at/~schloegl/matlab/tsa/ |title=The Time Series Analysis (TSA) toolbox for Octave and Matlab® |website=pub.ist.ac.at |access-date=2012-04-03 |archive-date=2012-05-11 |archive-url=https://web.archive.org/web/20120511144225/http://pub.ist.ac.at/~schloegl/matlab/tsa/ |url-status=live }}</ref>
* [[PyMC3]]: बायेसियन सांख्यिकी और संभाव्य प्रोग्रामिंग ढांचा पी लैग्स के साथ ऑटोरेग्रेसिव मोड का समर्थन करता है।
* [[PyMC3]]: बायेसियन सांख्यिकी और संभाव्य प्रोग्रामिंग ढांचा पी लैग्स के साथ स्वत:प्रतिगामी मोड का समर्थन करता है।
* Bayesloop समय-भिन्न मापदंडों के साथ AR-1 प्रक्रिया के लिए पैरामीटर अनुमान और मॉडल चयन का समर्थन करता है।<ref>{{Cite web |url=https://github.com/christophmark/bayesloop |title=christophmark/bayesloop |date=December 7, 2021 |via=GitHub |access-date=September 4, 2018 |archive-date=September 28, 2020 |archive-url=https://web.archive.org/web/20200928085417/https://github.com/christophmark/bayesloop |url-status=live }}</ref>
* Bayesloop समय-भिन्न मापदंडों के साथ AR-1 प्रक्रिया के लिए पैरामीटर अनुमान और मॉडल चयन का समर्थन करता है।<ref>{{Cite web |url=https://github.com/christophmark/bayesloop |title=christophmark/bayesloop |date=December 7, 2021 |via=GitHub |access-date=September 4, 2018 |archive-date=September 28, 2020 |archive-url=https://web.archive.org/web/20200928085417/https://github.com/christophmark/bayesloop |url-status=live }}</ref>
*Python (प्रोग्रामिंग भाषा): statsmodels में कार्यान्वयन।<ref>{{Cite web |url=https://www.statsmodels.org/stable/generated/statsmodels.tsa.ar_model.AutoReg.html |title=statsmodels.tsa.ar_model.AutoReg — statsmodels 0.12.2 documentation |website=www.statsmodels.org |access-date=2021-04-29 |archive-date=2021-02-28 |archive-url=https://web.archive.org/web/20210228123354/https://www.statsmodels.org/stable/generated/statsmodels.tsa.ar_model.AutoReg.html |url-status=live }}</ref>
*Python (प्रोग्रामिंग भाषा): statsmodels में कार्यान्वयन।<ref>{{Cite web |url=https://www.statsmodels.org/stable/generated/statsmodels.tsa.ar_model.AutoReg.html |title=statsmodels.tsa.ar_model.AutoReg — statsmodels 0.12.2 documentation |website=www.statsmodels.org |access-date=2021-04-29 |archive-date=2021-02-28 |archive-url=https://web.archive.org/web/20210228123354/https://www.statsmodels.org/stable/generated/statsmodels.tsa.ar_model.AutoReg.html |url-status=live }}</ref>
== [[आवेग प्रतिक्रिया]] ==
== [[आवेग प्रतिक्रिया]] ==


एक प्रणाली की आवेग प्रतिक्रिया k के एक समारोह के रूप में पहले सदमे की अवधि k अवधि के मूल्य में परिवर्तन के जवाब में एक विकसित चर में परिवर्तन है। चूंकि एआर मॉडल वेक्टर ऑटोरेग्रेसिव मॉडल का एक विशेष मामला है, वेक्टर ऑटोरेग्रेसिव # इंपल्स प्रतिक्रिया में आवेग प्रतिक्रिया की गणना।
एक प्रणाली की आवेग प्रतिक्रिया, k के एक फलन के रूप में, एक शॉक टर्म k अवधि के पहले के मान में परिवर्तन के जवाब में एक विकसित चर में परिवर्तन है। चूंकि एआर मॉडल सदिश स्वत:प्रतिगामी मॉडल का एक विशेष मामला है, इसलिए सदिश स्वत:प्रतिगामी#आवेग प्रतिक्रिया में आवेग प्रतिक्रिया की गणना यहां प्रयुक्त होती है।


== एन-स्टेप-फॉरवर्ड फोरकास्टिंग ==
== एन-स्टेप-फॉरवर्ड फोरकास्टिंग ==


एक बार ऑटोरिग्रेशन के पैरामीटर
एक बार स्वत: प्रतिगमन के पैरामीटर


:<math> X_t = \sum_{i=1}^p \varphi_i X_{t-i}+ \varepsilon_t \,</math>
:<math> X_t = \sum_{i=1}^p \varphi_i X_{t-i}+ \varepsilon_t \,</math>
अनुमान लगाया गया है, ऑटोरिग्रेशन का उपयोग भविष्य में मनमानी संख्या की भविष्यवाणी करने के लिए किया जा सकता है। पहली अवधि को संदर्भित करने के लिए पहले टी का उपयोग करें जिसके लिए डेटा अभी तक उपलब्ध नहीं है; ज्ञात पूर्ववर्ती मान X को प्रतिस्थापित करें<sub>''t-i''</sub> i=1, ..., p के लिए त्रुटि शब्द सेट करते समय ऑटोरेग्रेसिव समीकरण में <math>\varepsilon_t</math> शून्य के बराबर (क्योंकि हम एक्स का अनुमान लगाते हैं<sub>''t''</sub> इसके अपेक्षित मान के बराबर करने के लिए, और अनदेखे त्रुटि शब्द का अपेक्षित मान शून्य है)। ऑटोरेग्रेसिव समीकरण का आउटपुट पहली अप्रमाणित अवधि के लिए पूर्वानुमान है। अगला, अगली अवधि को संदर्भित करने के लिए t का उपयोग करें जिसके लिए डेटा अभी तक उपलब्ध नहीं है; फिर से ऑटोरिग्रेसिव समीकरण का उपयोग पूर्वानुमान बनाने के लिए किया जाता है, एक अंतर के साथ: X एक अवधि से पहले का मूल्य जो अब पूर्वानुमान किया जा रहा है, ज्ञात नहीं है, इसलिए इसका अपेक्षित मूल्य - पिछले पूर्वानुमान चरण से उत्पन्न होने वाला अनुमानित मूल्य - इसके बजाय उपयोग किया जाता है . फिर भविष्य की अवधि के लिए एक ही प्रक्रिया का उपयोग किया जाता है, हर बार भविष्य कहनेवाला समीकरण के दाईं ओर एक और पूर्वानुमान मूल्य का उपयोग करते हुए, पी भविष्यवाणियों के बाद, सभी पी दाएं-पक्ष के मूल्यों को पिछले चरणों से अनुमानित मान दिए जाते हैं।
अनुमान लगाया गया है, स्वत: प्रतिगमन का उपयोग भविष्य में मनमानी संख्या की पूर्वानुमान करने के लिए किया जा सकता है। पहले उस अवधि को संदर्भित करने के लिए t का उपयोग करें जिसके लिए डेटा अभी तक उपलब्ध नहीं है; त्रुटि शब्द <math>\varepsilon_t</math> को शून्य के बराबर समुच्चय करते समय स्वत:प्रतिगामी समीकरण में i=1, ..., p के लिए ज्ञात पूर्ववर्ती मान Xt-i को प्रतिस्थापित करें (क्योंकि हम अनुमान लगाते हैं कि Xt इसके अपेक्षित मान और अपेक्षित मान के बराबर होगा) अवलोकित त्रुटि पद शून्य है)। स्वत:प्रतिगामी समीकरण का आउटपुट पहली न देखी गई अवधि के लिए पूर्वानुमान है। इसके बाद, अगली अवधि को संदर्भित करने के लिए t का उपयोग करें जिसके लिए डेटा अभी तक उपलब्ध नहीं है; पूर्वानुमान बनाने के लिए फिर से स्वत:प्रतिगामी समीकरण का उपयोग किया जाता है, एक अंतर के साथ: जिस अवधि का अब पूर्वानुमान लगाया जा रहा है उससे एक अवधि पहले एक्स का मान ज्ञात नहीं है, इसलिए इसके अपेक्षित मान - पिछले पूर्वानुमान चरण से उत्पन्न अनुमानित मान - का उपयोग इसके अतिरिक्त किया जाता है . फिर भविष्य की अवधि के लिए उसी प्रक्रिया का उपयोग किया जाता है, हर बार पूर्वानुमानित समीकरण के दाईं ओर एक और पूर्वानुमान मान का उपयोग किया जाता है, जब तक कि पी पूर्वानुमानों के बाद, सभी पी दाईं ओर के मान पिछले चरणों से अनुमानित मान नहीं होते हैं।


इस तरीके से प्राप्त भविष्यवाणियों के संबंध में अनिश्चितता के चार स्रोत हैं: (1) अनिश्चितता कि ऑटोरेग्रेसिव मॉडल सही मॉडल है या नहीं; (2) पूर्वानुमानित मूल्यों की सटीकता के बारे में अनिश्चितता जो ऑटोरेग्रेसिव समीकरण के दाईं ओर लैग्ड मानों के रूप में उपयोग की जाती है; (3) ऑटोरेग्रेसिव गुणांक के वास्तविक मूल्यों के बारे में अनिश्चितता; और (4) त्रुटि पद के मान के बारे में अनिश्चितता <math>\varepsilon_t \,</math> भविष्यवाणी की जा रही अवधि के लिए। एन-स्टेप-फॉरवर्ड भविष्यवाणियों के लिए एक [[विश्वास अंतराल]] देने के लिए पिछले तीन में से प्रत्येक को परिमाणित और संयोजित किया जा सकता है; दाईं ओर के चरों के लिए अनुमानित मानों की बढ़ती संख्या के उपयोग के कारण विश्वास अंतराल व्यापक हो जाएगा क्योंकि n बढ़ता है।
इस तरीके से प्राप्त पूर्वानुमानों के संबंध में अनिश्चितता के चार स्रोत हैं: (1) अनिश्चितता कि क्या स्वत:प्रतिगामी मॉडल सही मॉडल है; (2) पूर्वानुमानित मानों की सटीकता के बारे में अनिश्चितता जो स्वत:प्रतिगामी समीकरण के दाईं ओर विलंबित मानों के रूप में उपयोग की जाती है; (3) स्वत:प्रतिगामी गुणांक के वास्तविक मानों के बारे में अनिश्चितता और (4) अनुमानित अवधि के लिए त्रुटि शब्द <math>\varepsilon_t \,</math> के मान के बारे में अनिश्चितता। एन-स्टेप-फॉरवर्ड पूर्वानुमानों के लिए आत्मविश्वास अंतराल देने के लिए अंतिम तीन में से प्रत्येक को मात्राबद्ध और संयोजित किया जा सकता है; दाईं ओर के चर के लिए अनुमानित मानों की बढ़ती संख्या के उपयोग के कारण n बढ़ने पर विश्वास अंतराल व्यापक हो जाएगा।


== यह भी देखें ==
== यह भी देखें ==

Revision as of 08:21, 23 June 2023

सांख्यिकी, अर्थमिति और संकेत संसाधन में स्वत:प्रतिगामी मॉडल (एआर) एक प्रकार की यादृच्छिक प्रक्रिया का प्रतिनिधित्व करता है जैसे, इसका उपयोग प्रकृति, अर्थशास्त्र, व्यवहार आदि में कुछ समय-भिन्न प्रक्रियाओं का वर्णन करने के लिए किया जाता है। स्वत:प्रतिगामी मॉडल निर्दिष्ट करता है कि आउटपुट चर अपने पिछले मानों और एक प्रसंभाव्य शब्द (एक अपूर्ण रूप से पूर्वानुमानित शब्द) पर रैखिक रूप से निर्भर करता है। इस प्रकार मॉडल एक प्रसंभाव्य अंतर समीकरण (या पुनरावृत्ति संबंध जिसे अंतर समीकरण के साथ भ्रमित नहीं किया जाना चाहिए) के रूप में है। मूविंग-एवरेज (एमए) मॉडल के साथ, यह समय श्रृंखला के अधिक सामान्य स्वत:प्रतिगामी-मूविंग-एवरेज (एआरएमए) औरस्वत:प्रतिगामी इंटीग्रेटेड मूविंग एवरेज (एआरआईएमए) मॉडल का एक विशेष मामला और प्रमुख घटक है, जिसमें अधिक जटिल प्रसंभाव्य संरचना है। यह सदिश स्वत:प्रतिगामी मॉडल (वीएआर) का एक विशेष मामला भी है, जिसमें एक से अधिक विकसित यादृच्छिक चर में एक से अधिक अंतःबंधन प्रसंभाव्य अंतर समीकरण की एक प्रणाली सम्मिलित है।

मूविंग-एवरेज (MA) मॉडल के विपरीत, स्वत:प्रतिगामी मॉडल हमेशा स्थिर नहीं होता है क्योंकि इसमें एक यूनिट रूट हो सकता है।

परिभाषा

अंकन ऑर्डर पी के एक स्वत:प्रतिगामी मॉडल को इंगित करता है। मॉडल के रूप में परिभाषित किया गया है

कहाँ मॉडल के पैरामीटर हैं, और सफेद शोर है।[1][2] इसे बैकशिफ्ट संक्रियक B as का उपयोग करके समान रूप से लिखा जा सकता है

ताकि, योग पद को बाईं ओर ले जाने और बहुपद संकेतन का उपयोग करने पर, हमारे पास हो

इस प्रकार एक स्वत:प्रतिगामी मॉडल को ऑल-पोल (जटिल विश्लेषण) अनंत आवेग प्रतिक्रिया फ़िल्टर के आउटपुट के रूप में देखा जा सकता है जिसका इनपुट सफेद शोर है।

मॉडल को कमज़ोर-अर्थ स्थिर बने रहने के लिए कुछ पैरामीटर बाधाएँ आवश्यक हैं। उदाहरण के लिए, एआर (1) मॉडल में वाली प्रक्रियाएं स्थिर नहीं हैं। अधिक सामान्यतः मॉडल के लिए दुर्बल-भावना स्थिर होने के लिए, बहुपद की जड़ें यूनिट सर्कल के बाहर होना चाहिए, यानी प्रत्येक (जटिल) रूट संतुष्ट करना चाहिए (पेज 89,92 देखें [3]).

झटकों का अंतर्कालिक प्रभाव

एआर प्रक्रिया में, एक बार का झटका भविष्य में विकसित हो रहे चर के मानों को अनंत तक प्रभावित करता है। उदाहरण के लिए, AR(1) मॉडल पर विचार करें। मान लीजिए समय t=1 पर के लिए एक गैर-शून्य मान को की मात्रा से प्रभावित करता है। फिर के लिए AR समीकरण द्वारा के संदर्भ में, यह को की मात्रा से प्रभावित करता है। फिर के संदर्भ में के लिए AR समीकरण द्वारा, यह को की मात्रा से प्रभावित करता है। इस प्रक्रिया को जारी रखने से पता चलता है कि का प्रभाव कभी समाप्त नहीं होता है, हालाँकि यदि प्रक्रिया स्थिर है तो सीमा में प्रभाव शून्य की ओर कम हो जाता है।

चूँकि प्रत्येक झटका अपने घटित होने के समय से लेकर भविष्य में अनंत तक X मानों को प्रभावित करता है, इसलिए कोई भी दिया गया मान Xt अतीत में अनंत रूप से घटित होने वाले झटकों से प्रभावित होता है। इसे स्वत: प्रतिगमन को दोबारा लिखकर भी देखा जा सकता है

(जहाँ अचर पद को यह मानकर दबा दिया गया है कि चर को उसके माध्य से विचलन के रूप में मापा गया है) जैसे

जब दाईं ओर बहुपद विभाजन किया जाता है, तो पर प्रयुक्त बैकशिफ्ट संक्रियक में बहुपद का एक अनंत क्रम होता है - अर्थात, समीकरण के दाईं ओर के अनंत संख्या में विलंबित मान दिखाई देते हैं।

विशेषता बहुपद

प्रक्रिया के स्वत: सहसंबंध समारोह के रूप में व्यक्त किया जा सकता है[citation needed]

कहाँ बहुपद की जड़ें हैं

जहां बी बैकशिफ्ट संक्रियक है, जहां स्वत: प्रतिगमन को परिभाषित करने वाला कार्य है, और कहाँ स्वत: प्रतिगमन में गुणांक हैं। सूत्र तभी मान्य होता है जब सभी मूलों की बहुलता 1 हो।[citation needed]

प्रक्रिया का स्वत: सहसंबंध समारोह क्षयकारी घातीयों का योग है।

  • प्रत्येक वास्तविक जड़ स्वत: सहसंबंध समारोह में एक घटक का योगदान देता है जो तेजी से घटता है।
  • इसी तरह, जटिल संयुग्म जड़ों की प्रत्येक जोड़ी एक घातीय रूप से अवमंदित दोलन का योगदान करती है।

प्रक्रियाओं के रेखांकन

चित्रा में एआर प्रक्रियाओं के 5 प्लॉट हैं। एआर (0) और एआर (0.3) सफेद शोर हैं या सफेद शोर की तरह दिखते हैं। एआर (0.9) में कुछ बड़े पैमाने पर दोलन संरचना है।
एआर(0) एआर(1) एआर पैरामीटर 0.3 के साथ एआर(1) एआर पैरामीटर 0.9 के साथ एआर(2) एआर पैरामीटर 0.3 और 0.3 के साथ और एआर(2) एआर पैरामीटर 0.9 और −0.8 के साथ

सबसे सरल AR प्रक्रिया AR(0) है, जिसमें पदों के बीच कोई निर्भरता नहीं है। केवल त्रुटि/नवाचार/शोर शब्द प्रक्रिया के आउटपुट में योगदान देता है, इसलिए चित्र में, AR(0) सफेद शोर से मेल खाता है।

धनात्मक वाली AR(1) प्रक्रिया के लिए, प्रक्रिया में केवल पिछला पद और शोर पद आउटपुट में योगदान करते हैं। यदि 0 के करीब है, तो प्रक्रिया अभी भी सफेद शोर की तरह दिखती है, लेकिन जैसे ही 1 के करीब पहुंचता है, आउटपुट को शोर के सापेक्ष पिछले शब्द से बड़ा योगदान मिलता है। इसके परिणामस्वरूप कम पास फिल्टर के समान आउटपुट का "स्मूथिंग" या एकीकरण होता है।

एआर(2) प्रक्रिया के लिए, पिछले दो पद और शोर पद आउटपुट में योगदान करते हैं। यदि और दोनों धनात्मक हैं, तो आउटपुट एक कम पास फिल्टर जैसा होगा, जिससे शोर का उच्च आवृत्ति वाला हिस्सा कम हो जाएगा। यदि धनात्मक है जबकि ऋणात्मक है, तो प्रक्रिया प्रक्रिया की शर्तों के बीच संकेत में बदलाव का पक्ष लेती है। आउटपुट दोलन करता है। इसकी तुलना किनारे का पता लगाने या दिशा में परिवर्तन का पता लगाने से की जा सकती है।

उदाहरण: एक एआर (1) प्रक्रिया

एक एआर (1) प्रक्रिया द्वारा दिया जाता है:

जहां शून्य माध्य और स्थिर विचरण के साथ एक सफेद शोर प्रक्रिया है (नोट: पर सबस्क्रिप्ट हटा दिया गया है।) प्रक्रिया दुर्बल-अर्थ स्थिर है यदि क्योंकि यह एक स्थिर फिल्टर के आउटपुट के रूप में प्राप्त किया जाता है जिसका इनपुट सफेद शोर है। (यदि है तो का प्रसरण समय अंतराल t पर निर्भर करता है, जिससे कि जैसे-जैसे t अनंत तक जाता है, श्रृंखला का प्रसरण अनंत की ओर विचलन करता है, और इसलिए दुर्बल अर्थ स्थिर नहीं है।) यह मानते हुए , माध्य दुर्बल इंद्रिय स्थिरता की परिभाषा के अनुसार t के सभी मानों के लिए समान है। यदि माध्य को द्वारा निरूपित किया जाता है तो इसका अनुसरण होता है
वह
और इसलिए

भिन्नता है

जहां का मानक विचलन है। इसे नोट करके दर्शाया जा सकता है

और फिर यह देखते हुए कि ऊपर की मात्रा इस संबंध का एक स्थिर निश्चित बिंदु है।

स्वसहप्रसरण द्वारा दिया जाता है

यह देखा जा सकता है कि स्वसहप्रसरण फलन के क्षय समय (जिसे समय स्थिरांक भी कहा जाता है) के साथ क्षय हो जाता है।[4]

वर्णक्रमीय घनत्व फलन स्वसहप्रसरण फलन का फूरियर रूपांतरण है। अलग-अलग शब्दों में यह अलग-अलग समय का फूरियर रूपांतरण होगा:

यह अभिव्यक्ति की असतत प्रकृति के कारण आवधिक है, जो हर में कोसाइन पद के रूप में प्रकट होती है। यदि हम मानते हैं कि नमूना समय क्षय समय से बहुत छोटा है, तो हम के लिए एक सातत्य सन्निकटन का उपयोग कर सकते हैं:

जो वर्णक्रमीय घनत्व के लिए कॉची वितरण देता है:

जहां क्षय समय से जुड़ी कोणीय आवृत्ति है।

के लिए एक वैकल्पिक अभिव्यक्ति पहले प्रतिस्थापन द्वारा प्राप्त की जा सकती है परिभाषित समीकरण में के लिए इस प्रक्रिया को जारी रखने से N गुना लाभ मिलता है

अनंत की ओर अग्रसर N के लिए, शून्य तक पहुंच जाएगा और:

यह देखा गया है कि कर्नेल और स्थिर माध्य के साथ जुड़ा हुआ सफेद शोर है। यदि श्वेत शोर एक गाऊसी प्रक्रिया है तो भी एक गाऊसी प्रक्रिया है। अन्य मामलों में, केंद्रीय सीमा प्रमेय इंगित करता है कि लगभग सामान्य रूप से वितरित किया जाएगा जब एक के करीब होगा।

के लिए, प्रक्रिया एक ज्यामितीय प्रगति (घातीय वृद्धि या क्षय) होगी। इस मामले में, समाधान विश्लेषणात्मक रूप से पाया जा सकता है जिससे एक अज्ञात स्थिरांक (प्रारंभिक स्थिति) है।

एआर (1) प्रक्रिया का स्पष्ट माध्य/अंतर रूप

एआर (1) मॉडल निरंतर ऑर्नस्टीन-उहलेनबेक प्रक्रिया का असतत समय सादृश्य है। इसलिए कभी-कभी एआर (1) मॉडल के गुणों को समतुल्य रूप में समझना उपयोगी होता है। इस रूप में, एआर (1) मॉडल, प्रक्रिया पैरामीटर के साथ द्वारा दिया गया है:

, कहाँ और मॉडल माध्य है।

इसे फॉर्म में लगाकर , और उसके बाद के लिए श्रृंखला का विस्तार करना , कोई दिखा सकता है कि:

, और
.

अधिकतम अंतराल चुनना

प्रक्रिया का आंशिक स्वत: सहसंबंध पी से बड़े अंतराल पर शून्य के बराबर होता है, इसलिए उचित अधिकतम अंतराल पी वह होता है जिसके बाद आंशिक स्वत: सहसंबंध सभी शून्य होते हैं।

एआर मापदंडों की गणना

गुणांकों का अनुमान लगाने के कई तरीके हैं, जैसे सामान्य न्यूनतम वर्ग प्रक्रिया या क्षणों की विधि (यूलवॉकर समीकरणों के माध्यम से) मॉडल समीकरण द्वारा दिया गया है:

यह पैरामीटर्स पर आधारित है जहां i = 1, ..., p. इन मापदंडों और प्रक्रिया के सहप्रसरण फलन के बीच एक सीधा पत्राचार है, और इस पत्राचार को ऑटोसहसंबंध फलन (जो स्वयं सहप्रसरण से प्राप्त होता है) से मापदंडों को निर्धारित करने के लिए उलटा किया जा सकता है। यह यूल-वॉकर समीकरणों का उपयोग करके किया जाता है।

यूल–वॉकर समीकरण

यूल-वॉकर समीकरण, जिसका नाम उडनी यूल और गिल्बर्ट वाकर (भौतिक विज्ञानी) के नाम पर रखा गया है[5][6] समीकरणों के निम्नलिखित समुच्चय हैं।[7]

जहां m = 0, …, p उपज p + 1 समीकरण। यहां का स्वतः सहप्रसरण फलन है इनपुट शोर प्रक्रिया का मानक विचलन है और क्रोनकर डेल्टा फलन है।

चूँकि किसी व्यक्तिगत समीकरण का अंतिम भाग केवल तभी गैर-शून्य होता है जब m = 0, समीकरणों के समुच्चय को मैट्रिक्स रूप में m > 0 के समीकरणों का प्रतिनिधित्व करके हल किया जा सकता है, इस प्रकार समीकरण प्राप्त होता है:

जिसे सभी के लिए हल किया जा सकता है m = 0 के लिए शेष समीकरण है

जो, एक बार जाना जाता है, के लिए हल किया जा सकता है एक वैकल्पिक सूत्रीकरण स्वसंबंध समारोह के संदर्भ में है। AR पैरामीटर पहले p+1 तत्वों द्वारा निर्धारित किए जाते हैं स्वत: सहसंबंध समारोह की। फिर पुनरावर्ती परिकलन द्वारा पूर्ण स्वसहसंबंध फलन प्राप्त किया जा सकता है:[8]

कुछ निम्न-क्रम AR(p) प्रक्रियाओं के उदाहरण

  • पी = 1
    • इस तरह
  • पी = 2
    • एआर (2) प्रक्रिया के लिए यूल-वाकर समीकरण हैं
      • उसे याद रखो
      • पहले समीकरण का उपयोग करने से प्राप्त होता है
      • पुनरावर्तन सूत्र का उपयोग करने से प्राप्त होता है

एआर मापदंडों का अनुमान

उपरोक्त समीकरण (यूल-वाकर समीकरण) अनुमानित मानों के साथ सैद्धांतिक सहप्रसरण को प्रतिस्थापित करके, मॉडल के मापदंडों का अनुमान लगाने के लिए कई मार्ग प्रदान करते हैं।[9] इनमें से कुछ प्रकारों का वर्णन इस प्रकार किया जा सकता है:

  • स्वतःसहप्रसरणों या स्वसहसंबंधों का अनुमान। यहां पारंपरिक अनुमानों का उपयोग करते हुए इनमें से प्रत्येक शब्द का अलग-अलग अनुमान लगाया गया है। ऐसा करने के विभिन्न तरीके हैं और इनके बीच चयन अनुमान योजना के गुणों को प्रभावित करता है। उदाहरण के लिए, कुछ विकल्पों द्वारा विचरण का ऋणात्मक अनुमान लगाया जा सकता है।
  • न्यूनतम वर्ग प्रतिगमन समस्या के रूप में सूत्रीकरण जिसमें एक सामान्य न्यूनतम वर्ग पूर्वानुमान समस्या का निर्माण किया जाता है, जो उसी श्रृंखला के पी पिछले मानों पर एक्सटी के मानों की पूर्वानुमान को आधार बनाता है। इसे एक भविष्य-पूर्वानुमान योजना के रूप में सोचा जा सकता है। इस समस्या के लिए सामान्य समीकरणों को यूल-वाकर समीकरणों के मैट्रिक्स रूप के एक अनुमान के अनुरूप देखा जा सकता है जिसमें एक ही अंतराल के एक ऑटोकोवरियन्स की प्रत्येक उपस्थिति को थोड़ा अलग अनुमान से बदल दिया जाता है।
  • सामान्य न्यूनतम वर्ग पूर्वानुमान समस्या के विस्तारित रूप के रूप में निरूपण। यहां पूर्वानुमान समीकरणों के दो समुच्चयों को एक एकल अनुमान योजना और सामान्य समीकरणों के एक समुच्चय में संयोजित किया गया है। एक समुच्चय आगे-पूर्वानुमान समीकरणों का समुच्चय है और दूसरा एआर मॉडल के पिछड़े प्रतिनिधित्व से संबंधित पिछड़े पूर्वानुमान समीकरणों का एक संगत समुच्चय है:
यहां एक्सटी के अनुमानित मान उसी श्रृंखला के पी भविष्य के मानों पर आधारित होंगे।[clarification needed] एआर पैरामीटर का अनुमान लगाने का यह तरीका जॉन पार्कर बर्ग के कारण है,[10] और इसे बर्ग विधि कहा जाता है:[11] बर्ग और बाद के लेखकों ने इन विशेष अनुमानों को "अधिकतम एन्ट्रापी अनुमान" कहा, [12] लेकिन इसके पीछे का तर्क अनुमानित एआर मापदंडों के किसी भी समुच्चय के उपयोग पर प्रयुक्त होता है। केवल आगे की पूर्वानुमान समीकरणों का उपयोग करके अनुमान योजना की तुलना में, ऑटोकोवरियन्स के विभिन्न अनुमान उत्पन्न होते हैं, और अनुमानों में अलग-अलग स्थिरता गुण होते हैं। बर्ग अनुमान विशेष रूप से अधिकतम एन्ट्रापी वर्णक्रमीय अनुमान से जुड़े हैं।[13]

अनुमान के अन्य संभावित तरीकों में अधिकतम संभावना अनुमान सम्मिलित है। अधिकतम संभावना के दो अलग-अलग प्रकार उपलब्ध हैं: एक में (मोटे तौर पर आगे की पूर्वानुमान न्यूनतम वर्ग योजना के बराबर) संभावना फलन पर विचार किया जाता है कि श्रृंखला में प्रारंभिक पी मान दिए गए श्रृंखला में बाद के मानों के सशर्त वितरण के अनुरूप है; दूसरे में, संभावना फलन पर विचार किया गया है जो प्रेक्षित श्रृंखला में सभी मानों के बिना शर्त संयुक्त वितरण के अनुरूप है। यदि प्रेक्षित श्रृंखला छोटी है, या यदि प्रक्रिया गैर-स्थिरता के करीब है, तो इन दृष्टिकोणों के परिणामों में पर्याप्त अंतर हो सकता है।

स्पेक्ट्रम

AutocorrTimeAr.svg
AutoCorrAR.svg

शोर विचरण के साथ AR(p) प्रक्रिया का पावर स्पेक्ट्रल घनत्व है।[8]:

एआर (0)

सफेद शोर के लिए (एआर (0))

एआर (1)

एआर के लिए (1)

  • यदि पर f = 0 पर एकल वर्णक्रमीय शिखर है, तो इसे अक्सर लाल शोर के रूप में जाना जाता है। जैसे-जैसे 1 के करीब आता है, कम आवृत्तियों पर मजबूत शक्ति होती है, यानी बड़ा समय अंतराल। यह तब एक कम-पास फिल्टर है, जब पूर्ण स्पेक्ट्रम प्रकाश पर प्रयुक्त किया जाता है, तो लाल रोशनी को छोड़कर सब कुछ फ़िल्टर किया जाएगा।
  • यदि f = 0 पर न्यूनतम है, तो इसे अक्सर नीला शोर कहा जाता है। यह इसी तरह एक हाई-पास फ़िल्टर के रूप में कार्य करता है, नीली रोशनी को छोड़कर सब कुछ फ़िल्टर किया जाएगा।

एआर (2)

AR(2) प्रक्रियाओं को उनकी जड़ों की विशेषताओं के आधार पर तीन समूहों में विभाजित किया जा सकता है:

  • कब , इस प्रक्रिया में जटिल-संयुग्मी जड़ों की एक जोड़ी होती है, जो निम्न पर एक मध्य-आवृत्ति शिखर बनाती है:

अन्यथा प्रक्रिया की वास्तविक जड़ें हैं, और:

  • कब यह वर्णक्रमीय शिखर के साथ सफेद शोर पर कम-पास फिल्टर के रूप में कार्य करता है
  • कब यह वर्णक्रमीय शिखर के साथ सफेद शोर पर एक उच्च-पास फिल्टर के रूप में कार्य करता है .

प्रक्रिया गैर-स्थिर होती है जब जड़ें यूनिट सर्कल के बाहर होती हैं।

प्रक्रिया स्थिर होती है जब जड़ें यूनिट सर्कल के भीतर होती हैं, या समतुल्य जब गुणांक त्रिकोण में होते हैं .

पूर्ण PSD फलन को वास्तविक रूप में व्यक्त किया जा सकता है:


सांख्यिकी पैकेजों में कार्यान्वयन

  • आर (प्रोग्रामिंग भाषा), आँकड़े पैकेज में एक एआर फलन सम्मिलित है।[14]
  • मैटलैब (प्रोग्रामिंग भाषा) का अर्थमिति टूलबॉक्स[15] और सिस्टम आइडेंटिफिकेशन टूलबॉक्स[16] स्वत:प्रतिगामी मॉडल सम्मिलित हैं[17]
  • मैटलैब (प्रोग्रामिंग लैंग्वेज) और ऑक्टेव (प्रोग्रामिंग भाषा) : टीएसए टूलबॉक्स में यूनी-वैरिएट, बहुभिन्नरूपी आँकड़े और एडाप्टिव स्वत:प्रतिगामी मॉडल के लिए कई आकलन कार्य होते हैं।[18]
  • PyMC3: बायेसियन सांख्यिकी और संभाव्य प्रोग्रामिंग ढांचा पी लैग्स के साथ स्वत:प्रतिगामी मोड का समर्थन करता है।
  • Bayesloop समय-भिन्न मापदंडों के साथ AR-1 प्रक्रिया के लिए पैरामीटर अनुमान और मॉडल चयन का समर्थन करता है।[19]
  • Python (प्रोग्रामिंग भाषा): statsmodels में कार्यान्वयन।[20]

आवेग प्रतिक्रिया

एक प्रणाली की आवेग प्रतिक्रिया, k के एक फलन के रूप में, एक शॉक टर्म k अवधि के पहले के मान में परिवर्तन के जवाब में एक विकसित चर में परिवर्तन है। चूंकि एआर मॉडल सदिश स्वत:प्रतिगामी मॉडल का एक विशेष मामला है, इसलिए सदिश स्वत:प्रतिगामी#आवेग प्रतिक्रिया में आवेग प्रतिक्रिया की गणना यहां प्रयुक्त होती है।

एन-स्टेप-फॉरवर्ड फोरकास्टिंग

एक बार स्वत: प्रतिगमन के पैरामीटर

अनुमान लगाया गया है, स्वत: प्रतिगमन का उपयोग भविष्य में मनमानी संख्या की पूर्वानुमान करने के लिए किया जा सकता है। पहले उस अवधि को संदर्भित करने के लिए t का उपयोग करें जिसके लिए डेटा अभी तक उपलब्ध नहीं है; त्रुटि शब्द को शून्य के बराबर समुच्चय करते समय स्वत:प्रतिगामी समीकरण में i=1, ..., p के लिए ज्ञात पूर्ववर्ती मान Xt-i को प्रतिस्थापित करें (क्योंकि हम अनुमान लगाते हैं कि Xt इसके अपेक्षित मान और अपेक्षित मान के बराबर होगा) अवलोकित त्रुटि पद शून्य है)। स्वत:प्रतिगामी समीकरण का आउटपुट पहली न देखी गई अवधि के लिए पूर्वानुमान है। इसके बाद, अगली अवधि को संदर्भित करने के लिए t का उपयोग करें जिसके लिए डेटा अभी तक उपलब्ध नहीं है; पूर्वानुमान बनाने के लिए फिर से स्वत:प्रतिगामी समीकरण का उपयोग किया जाता है, एक अंतर के साथ: जिस अवधि का अब पूर्वानुमान लगाया जा रहा है उससे एक अवधि पहले एक्स का मान ज्ञात नहीं है, इसलिए इसके अपेक्षित मान - पिछले पूर्वानुमान चरण से उत्पन्न अनुमानित मान - का उपयोग इसके अतिरिक्त किया जाता है . फिर भविष्य की अवधि के लिए उसी प्रक्रिया का उपयोग किया जाता है, हर बार पूर्वानुमानित समीकरण के दाईं ओर एक और पूर्वानुमान मान का उपयोग किया जाता है, जब तक कि पी पूर्वानुमानों के बाद, सभी पी दाईं ओर के मान पिछले चरणों से अनुमानित मान नहीं होते हैं।

इस तरीके से प्राप्त पूर्वानुमानों के संबंध में अनिश्चितता के चार स्रोत हैं: (1) अनिश्चितता कि क्या स्वत:प्रतिगामी मॉडल सही मॉडल है; (2) पूर्वानुमानित मानों की सटीकता के बारे में अनिश्चितता जो स्वत:प्रतिगामी समीकरण के दाईं ओर विलंबित मानों के रूप में उपयोग की जाती है; (3) स्वत:प्रतिगामी गुणांक के वास्तविक मानों के बारे में अनिश्चितता और (4) अनुमानित अवधि के लिए त्रुटि शब्द के मान के बारे में अनिश्चितता। एन-स्टेप-फॉरवर्ड पूर्वानुमानों के लिए आत्मविश्वास अंतराल देने के लिए अंतिम तीन में से प्रत्येक को मात्राबद्ध और संयोजित किया जा सकता है; दाईं ओर के चर के लिए अनुमानित मानों की बढ़ती संख्या के उपयोग के कारण n बढ़ने पर विश्वास अंतराल व्यापक हो जाएगा।

यह भी देखें

टिप्पणियाँ

  1. Box, George E. P. (1994). Time series analysis : forecasting and control (in English). Gwilym M. Jenkins, Gregory C. Reinsel (3rd ed.). Englewood Cliffs, N.J.: Prentice Hall. p. 54. ISBN 0-13-060774-6. OCLC 28888762.
  2. Shumway, Robert H. (2000). समय श्रृंखला विश्लेषण और इसके अनुप्रयोग (in English). David S. Stoffer. New York: Springer. pp. 90–91. ISBN 0-387-98950-1. OCLC 42392178. Archived from the original on 2023-04-16. Retrieved 2022-09-03.
  3. Shumway, Robert H.; Stoffer, David (2010). Time series analysis and its applications : with R examples (3rd ed.). Springer. ISBN 978-1441978646.
  4. Lai, Dihui; and Lu, Bingfeng; "Understanding Autoregressive Model for Time Series as a Deterministic Dynamic System" Archived 2023-03-24 at the Wayback Machine, in Predictive Analytics and Futurism, June 2017, number 15, June 2017, pages 7-9
  5. Yule, G. Udny (1927) "On a Method of Investigating Periodicities in Disturbed Series, with Special Reference to Wolfer's Sunspot Numbers" Archived 2011-05-14 at the Wayback Machine, Philosophical Transactions of the Royal Society of London, Ser. A, Vol. 226, 267–298.]
  6. Walker, Gilbert (1931) "On Periodicity in Series of Related Terms" Archived 2011-06-07 at the Wayback Machine, Proceedings of the Royal Society of London, Ser. A, Vol. 131, 518–532.
  7. Theodoridis, Sergios (2015-04-10). "Chapter 1. Probability and Stochastic Processes". Machine Learning: A Bayesian and Optimization Perspective. Academic Press, 2015. pp. 9–51. ISBN 978-0-12-801522-3.
  8. 8.0 8.1 Von Storch, Hans; Zwiers, Francis W. (2001). Statistical analysis in climate research. Cambridge University Press. doi:10.1017/CBO9780511612336. ISBN 0-521-01230-9.[page needed]
  9. Eshel, Gidon. "एआर गुणांकों के लिए यूल वॉकर समीकरण" (PDF). stat.wharton.upenn.edu. Archived (PDF) from the original on 2018-07-13. Retrieved 2019-01-27.
  10. Burg, John Parker (1968); "A new analysis technique for time series data", in Modern Spectrum Analysis (Edited by D. G. Childers), NATO Advanced Study Institute of Signal Processing with emphasis on Underwater Acoustics. IEEE Press, New York.
  11. Brockwell, Peter J.; Dahlhaus, Rainer; Trindade, A. Alexandre (2005). "Modified Burg Algorithms for Multivariate Subset Autoregression" (PDF). Statistica Sinica. 15: 197–213. Archived from the original (PDF) on 2012-10-21.
  12. Burg, John Parker (1967) "Maximum Entropy Spectral Analysis", Proceedings of the 37th Meeting of the Society of Exploration Geophysicists, Oklahoma City, Oklahoma.
  13. Bos, Robert; De Waele, Stijn; Broersen, Piet M. T. (2002). "Autoregressive spectral estimation by application of the Burg algorithm to irregularly sampled data". IEEE Transactions on Instrumentation and Measurement. 51 (6): 1289. Bibcode:2002ITIM...51.1289B. doi:10.1109/TIM.2002.808031. Archived from the original on 2023-04-16. Retrieved 2019-12-11.
  14. "Fit Autoregressive Models to Time Series" Archived 2016-01-28 at the Wayback Machine (in R)
  15. "अर्थमिति टूलबॉक्स". www.mathworks.com. Archived from the original on 2023-04-16. Retrieved 2022-02-16.
  16. "सिस्टम पहचान टूलबॉक्स". www.mathworks.com. Archived from the original on 2022-02-16. Retrieved 2022-02-16.
  17. "ऑटोरेग्रेसिव मॉडल - MATLAB और सिमुलिंक". www.mathworks.com. Archived from the original on 2022-02-16. Retrieved 2022-02-16.
  18. "The Time Series Analysis (TSA) toolbox for Octave and Matlab®". pub.ist.ac.at. Archived from the original on 2012-05-11. Retrieved 2012-04-03.
  19. "christophmark/bayesloop". December 7, 2021. Archived from the original on September 28, 2020. Retrieved September 4, 2018 – via GitHub.
  20. "statsmodels.tsa.ar_model.AutoReg — statsmodels 0.12.2 documentation". www.statsmodels.org. Archived from the original on 2021-02-28. Retrieved 2021-04-29.


संदर्भ


बाहरी संबंध