कुल विचरण का नियम: Difference between revisions

From Vigyanwiki
(Created page with "{{Short description|Theorem in probability theory}} संभाव्यता सिद्धांत में, कुल विचरण का नियम<ref>Neil A. W...")
 
No edit summary
 
(8 intermediate revisions by 3 users not shown)
Line 1: Line 1:
{{Short description|Theorem in probability theory}}
{{Short description|Theorem in probability theory}}
संभाव्यता सिद्धांत में, कुल विचरण का नियम<ref>Neil A. Weiss, ''A Course in Probability'', Addison&ndash;Wesley, 2005, pages 385&ndash;386.</ref> या विचरण अपघटन सूत्र या सशर्त विचरण सूत्र या पुनरावृत्त प्रसरण के नियम को ईव के नियम के रूप में भी जाना जाता है,<ref> Joseph K. Blitzstein and Jessica Hwang: "Introduction to Probability"</ref> बताता है कि अगर <math>X</math> और <math>Y</math> एक ही प्रायिकता स्थान पर यादृच्छिक चर हैं, और का विचरण <math>Y</math> परिमित है, तो
संभाव्यता सिद्धांत में, कुल विचरण का नियम<ref>Neil A. Weiss, ''A Course in Probability'', Addison&ndash;Wesley, 2005, pages 385&ndash;386.</ref> या विचरण अपघटन सूत्र या नियम विचरण सूत्र या पुनरावृत्त प्रसरण के नियम को ईव के नियम के रूप में भी जाना जाता है,<ref> Joseph K. Blitzstein and Jessica Hwang: "Introduction to Probability"</ref> बताता है कि यादि <math>X</math> और <math>Y</math> एक ही प्रायिकता स्थान पर यादृच्छिक चर हैं, और तब <math>Y</math> का प्रसरण परिमित है


<math display=block>
<math display=block>
\operatorname{Var_Y}(Y) = \operatorname{E_X}[\operatorname{Var_Y}(Y \mid X)] + \operatorname{Var_X}(\operatorname{E_Y}[Y \mid X]).
\operatorname{Var_Y}(Y) = \operatorname{E_X}[\operatorname{Var_Y}(Y \mid X)] + \operatorname{Var_X}(\operatorname{E_Y}[Y \mid X]).
</math>
</math>
संभाव्यता सिद्धांतकारों की तुलना में शायद सांख्यिकीविदों के लिए बेहतर ज्ञात भाषा में, दो शब्द क्रमशः अस्पष्टीकृत और विचरण के समझाए गए घटक हैं (cf. [[विचरण का अंश अस्पष्टीकृत]], व्याख्यात्मक भिन्नता)। [[ जिवानांकिकी ]] में, विशेष रूप से [[विश्वसनीयता सिद्धांत]], पहले घटक को प्रक्रिया विचरण (ईवीपीवी) का अपेक्षित मूल्य कहा जाता है और दूसरे को काल्पनिक साधनों (वीएचएम) का विचरण कहा जाता है।<ref name = "FCAS4ed">{{cite book |last1= Mahler|first1= Howard C. |last2= Dean|first2= Curtis Gary|year= 2001 |chapter= Chapter 8: Credibility |chapter-url= http://people.stat.sfu.ca/~cltsai/ACMA315/Ch8_Credibility.pdf |editor1-last= [[Casualty Actuarial Society]] |title= कैजुअल्टी एक्चुरियल साइंस की नींव|edition= 4th |publisher= [[Casualty Actuarial Society]] |pages= 525–526 |isbn= 978-0-96247-622-8|access-date= June 25, 2015}}</ref> ये दो घटक ईव के नियम शब्द के स्रोत भी हैं, प्रारंभिक EV VE से विचरण की अपेक्षा और अपेक्षा के विचरण के लिए।
संभाव्यता सिद्धांतकारों की तुलना में शायद सांख्यिकीविदों के लिए बेहतर ज्ञात भाषा में, दो शब्द क्रमशः अस्पष्टीकृत और विचरण के समझाए गए घटक हैं (cf. [[विचरण का अंश अस्पष्टीकृत]], व्याख्यात्मक भिन्नता)। [[ जिवानांकिकी |जिवानांकिकी]] में, विशेष रूप से [[विश्वसनीयता सिद्धांत]], पहले घटक को प्रक्रिया विचरण (ईवीपीवी) का अपेक्षित मान कहा जाता है और दूसरे को काल्पनिक साधनों (वीएचएम) का विचरण कहा जाता है।<ref name = "FCAS4ed">{{cite book |last1= Mahler|first1= Howard C. |last2= Dean|first2= Curtis Gary|year= 2001 |chapter= Chapter 8: Credibility |chapter-url= http://people.stat.sfu.ca/~cltsai/ACMA315/Ch8_Credibility.pdf |editor1-last= [[Casualty Actuarial Society]] |title= कैजुअल्टी एक्चुरियल साइंस की नींव|edition= 4th |publisher= [[Casualty Actuarial Society]] |pages= 525–526 |isbn= 978-0-96247-622-8|access-date= June 25, 2015}}</ref> ये दो घटक प्रारंभिक ईवी वीई से "प्रसरण की अपेक्षा" और "उम्मीद की भिन्नता" शब्द "ईव के नियम" का स्रोत भी हैं।


== सूत्रीकरण ==
== सूत्रीकरण                   ==


के लिए एक सामान्य विचरण अपघटन सूत्र है <math>c \geq 2</math> घटक (नीचे देखें)<ref name=bs>Bowsher, C.G. and P.S. Swain, Identifying sources of variation and the flow of information in biochemical networks, PNAS May 15, 2012 109 (20) E1320-E1328.</ref> उदाहरण के लिए, दो कंडीशनिंग यादृच्छिक चर के साथ:
<math>c \geq 2</math> घटकों के लिए एक सामान्य प्रसरण अपघटन सूत्र है (नीचे देखें)<ref name=bs>Bowsher, C.G. and P.S. Swain, Identifying sources of variation and the flow of information in biochemical networks, PNAS May 15, 2012 109 (20) E1320-E1328.</ref>उदाहरण के लिए दो अनुकूलन यादृच्छिक चर के साथ:
<math display=block>\operatorname{Var}[Y] = \operatorname{E}\left[\operatorname{Var}\left(Y \mid X_1, X_2\right)\right] + \operatorname{E}[\operatorname{Var}(\operatorname{E}\left[Y \mid X_1, X_2\right] \mid X_1)] + \operatorname{Var}(\operatorname{E}\left[Y \mid X_1\right]),</math>
<math display=block>\operatorname{Var}[Y] = \operatorname{E}\left[\operatorname{Var}\left(Y \mid X_1, X_2\right)\right] + \operatorname{E}[\operatorname{Var}(\operatorname{E}\left[Y \mid X_1, X_2\right] \mid X_1)] + \operatorname{Var}(\operatorname{E}\left[Y \mid X_1\right]),</math>
जो कुल सशर्त भिन्नता के कानून से निम्नानुसार है:<ref name=bs />
जो कुल नियम भिन्नता के नियम से निम्नानुसार है:<ref name=bs />
<math display=block>\operatorname{Var}(Y \mid X_1) = \operatorname{E} \left[\operatorname{Var}(Y \mid X_1, X_2) \mid X_1\right] + \operatorname{Var} \left(\operatorname{E}\left[Y \mid X_1, X_2 \right] \mid X_1\right).</math>
<math display=block>\operatorname{Var}(Y \mid X_1) = \operatorname{E} \left[\operatorname{Var}(Y \mid X_1, X_2) \mid X_1\right] + \operatorname{Var} \left(\operatorname{E}\left[Y \mid X_1, X_2 \right] \mid X_1\right).</math>
ध्यान दें कि सशर्त अपेक्षित मान <math>\operatorname{E}(Y \mid X)</math> अपने आप में एक यादृच्छिक चर है, जिसका मान के मान पर निर्भर करता है <math>X.</math> ध्यान दें कि सशर्त अपेक्षित मान <math>Y</math> देखते हुए {{em|event}} <math>X = x</math> का एक कार्य है <math>x</math> (यह वह जगह है जहां संभाव्यता सिद्धांत के पारंपरिक और कठोर केस-संवेदी अंकन का पालन महत्वपूर्ण हो जाता है!)। अगर हम लिखते हैं <math>\operatorname{E}(Y \mid X = x) = g(x)</math> फिर यादृच्छिक चर <math>\operatorname{E}(Y \mid X)</math> बस है <math>g(X).</math> इसी तरह की टिप्पणियां सशर्त भिन्नता पर लागू होती हैं।
ध्यान दें कि नियम अपेक्षित मान <math>\operatorname{E}(Y \mid X)</math> अपने आप में एक यादृच्छिक चर है, जिसका मान <math>X.</math> के मान पर निर्भर करता है ध्यान दें कि <math>Y</math> नियम अपेक्षित मान देखते हुए {{em|event}} <math>X = x</math> का एक <math>x</math> कार्य है (यह वह जगह है जहां संभाव्यता सिद्धांत के पारंपरिक और कठोर केस-संवेदी अंकन का पालन महत्वपूर्ण हो जाता है!)। यादि हम <math>\operatorname{E}(Y \mid X = x) = g(x)</math> लिखते हैं फिर यादृच्छिक चर <math>\operatorname{E}(Y \mid X)</math> बस <math>g(X).</math> इसी तरह की टिप्पणियां नियम भिन्नता पर प्रयुक्त होती हैं।


एक विशेष मामला, (कुल अपेक्षा के कानून के समान) कहता है कि यदि <math>A_1, \ldots, A_n</math> संपूर्ण परिणाम स्थान का एक विभाजन है, अर्थात, ये घटनाएँ परस्पर अनन्य और संपूर्ण हैं
एक विशेष स्थिति , (कुल अपेक्षा के नियम के समान) कहता है कि यदि <math>A_1, \ldots, A_n</math> संपूर्ण परिणाम स्थान का एक विभाजन है, अर्थात, ये घटनाएँ परस्पर अनन्य और संपूर्ण हैं
<math display=block>\begin{align}
<math display=block>\begin{align}
\operatorname{Var} (X) = {} & \sum_{i=1}^n \operatorname{Var}(X\mid A_i) \Pr(A_i) + \sum_{i=1}^n \operatorname{E}[X\mid A_i]^2 (1-\Pr(A_i))\Pr(A_i) \\[4pt]
\operatorname{Var} (X) = {} & \sum_{i=1}^n \operatorname{Var}(X\mid A_i) \Pr(A_i) + \sum_{i=1}^n \operatorname{E}[X\mid A_i]^2 (1-\Pr(A_i))\Pr(A_i) \\[4pt]
& {} - 2\sum_{i=2}^n \sum_{j=1}^{i-1} \operatorname{E}[X \mid A_i] \Pr(A_i)\operatorname{E}[X\mid A_j] \Pr(A_j).
& {} - 2\sum_{i=2}^n \sum_{j=1}^{i-1} \operatorname{E}[X \mid A_i] \Pr(A_i)\operatorname{E}[X\mid A_j] \Pr(A_j).
\end{align}</math>
\end{align}</math>
इस सूत्र में, पहला घटक सशर्त भिन्नता की अपेक्षा है; अन्य दो घटक सशर्त अपेक्षा के विचरण हैं।
इस सूत्र में, पहला घटक नियम भिन्नता की अपेक्षा है; अन्य दो घटक नियम अपेक्षा के विचरण हैं।


== प्रमाण ==
== प्रमाण ==


कुल अपेक्षा के कानून का उपयोग करके कुल भिन्नता का कानून साबित किया जा सकता है।<ref>Neil A. Weiss, ''A Course in Probability'', Addison&ndash;Wesley, 2005, pages 380&ndash;383.</ref> पहला,
कुल अपेक्षा के नियम का उपयोग करके कुल भिन्नता का नियम सिद्ध किया जा सकता है।<ref>Neil A. Weiss, ''A Course in Probability'', Addison&ndash;Wesley, 2005, pages 380&ndash;383.</ref> पहला,
<math display=block>\operatorname{Var}[Y] = \operatorname{E}\left[Y^2\right] - \operatorname{E}[Y]^2</math>
<math display=block>\operatorname{Var}[Y] = \operatorname{E}\left[Y^2\right] - \operatorname{E}[Y]^2</math>
विचरण की परिभाषा से। फिर से, विचरण की परिभाषा से, और कुल अपेक्षा के नियम को लागू करने से, हमारे पास है
विचरण की परिभाषा से। फिर से, विचरण की परिभाषा से, और कुल अपेक्षा के नियम को प्रयुक्त करने से, हमारे पास है
<math display=block>\operatorname{E}\left[Y^2\right] = \operatorname{E}\left[\operatorname{E}[Y^2\mid X]\right] = \operatorname{E} \left[\operatorname{Var}[Y \mid X] + [\operatorname{E}[Y \mid X]]^2\right].</math>
<math display=block>\operatorname{E}\left[Y^2\right] = \operatorname{E}\left[\operatorname{E}[Y^2\mid X]\right] = \operatorname{E} \left[\operatorname{Var}[Y \mid X] + [\operatorname{E}[Y \mid X]]^2\right].</math>
अब हम के सशर्त दूसरे क्षण को फिर से लिखते हैं <math>Y</math> इसके विचरण और पहले क्षण के संदर्भ में, और दाहिनी ओर कुल अपेक्षा के नियम को लागू करें:
अब हम <math>Y</math> के नियम दूसरे क्षण को फिर से लिखते हैं इसके विचरण और पहले क्षण के संदर्भ में और दाहिनी ओर कुल अपेक्षा के नियम को प्रयुक्त करते हैं:
<math display=block>\operatorname{E}\left[Y^2\right] - \operatorname{E}[Y]^2 = \operatorname{E} \left[\operatorname{Var}[Y \mid X] + [\operatorname{E}[Y \mid X]]^2\right] - [\operatorname{E} [\operatorname{E}[Y \mid X]]]^2.</math>
<math display=block>\operatorname{E}\left[Y^2\right] - \operatorname{E}[Y]^2 = \operatorname{E} \left[\operatorname{Var}[Y \mid X] + [\operatorname{E}[Y \mid X]]^2\right] - [\operatorname{E} [\operatorname{E}[Y \mid X]]]^2.</math>
चूंकि किसी राशि की अपेक्षा अपेक्षाओं का योग है, इसलिए शर्तों को अब पुनर्समूहित किया जा सकता है:
चूंकि किसी राशि की अपेक्षा अपेक्षाओं का योग है, इसलिए नियमो को अब पुनर्समूहित किया जा सकता है:
<math display=block>= \left(\operatorname{E} [\operatorname{Var}[Y \mid X]]\right) + \left(\operatorname{E} \left[\operatorname{E}[Y \mid X]^2\right] - [\operatorname{E} [\operatorname{E}[Y \mid X]]]^2\right).</math>
<math display=block>= \left(\operatorname{E} [\operatorname{Var}[Y \mid X]]\right) + \left(\operatorname{E} \left[\operatorname{E}[Y \mid X]^2\right] - [\operatorname{E} [\operatorname{E}[Y \mid X]]]^2\right).</math>
अंत में, हम कोष्ठक के दूसरे सेट में शर्तों को सशर्त अपेक्षा के विचरण के रूप में पहचानते हैं <math>\operatorname{E}[Y \mid X]</math>:
अंत में, हम कोष्ठक के दूसरे समूह में नियमो को नियम अपेक्षा <math>\operatorname{E}[Y \mid X]</math> के विचरण के रूप में पहचानते हैं ।:
<math display=block>= \operatorname{E} [\operatorname{Var}[Y \mid X]] + \operatorname{Var} [\operatorname{E}[Y \mid X]].</math>
<math display=block>= \operatorname{E} [\operatorname{Var}[Y \mid X]] + \operatorname{Var} [\operatorname{E}[Y \mid X]].</math>




== गतिशील प्रणालियों पर लागू सामान्य विचरण अपघटन ==
== गतिशील प्रणालियों पर प्रयुक्त सामान्य विचरण अपघटन ==


निम्न सूत्र दिखाता है कि सामान्य को कैसे लागू किया जाए, सैद्धांतिक विचरण अपघटन सूत्र को मापें <ref name=bs />स्टोकेस्टिक डायनेमिक सिस्टम के लिए। होने देना <math>Y(t)</math> समय पर सिस्टम चर का मान हो <math>t.</math> मान लीजिए कि हमारे पास आंतरिक इतिहास (प्राकृतिक फ़िल्टरिंग) है <math>H_{1t},H_{2t},\ldots,H_{c-1,t}</math>, सिस्टम चर के एक अलग संग्रह के इतिहास (प्रक्षेपवक्र) के अनुरूप प्रत्येक। संग्रहों को अलग करने की आवश्यकता नहीं है। का विचरण <math>Y(t)</math> हमेशा के लिए विघटित किया जा सकता है <math>t,</math> में <math>c \geq 2</math> घटक निम्नानुसार हैं:
निम्नलिखित सूत्र दिखाता है कि प्रसंभाव्य गतिशील प्रणालियों के लिए सामान्य, माप सिद्धांतिक भिन्नता अपघटन सूत्र को कैसे प्रयुक्त किया जाए।<ref name=bs /> मान लीजिए <math>Y(t)</math> समय <math>t.</math> पर प्रणाली चर का मान हो मान लीजिए कि हमारे पास आंतरिक इतिहास (प्राकृतिक निस्पंदन) '''है''' <math>H_{1t},H_{2t},\ldots,H_{c-1,t}</math>,है प्रत्येक प्रणाली चर के एक अलग संग्रह के इतिहास (प्रक्षेपवक्र) के अनुरूप है । संग्रहों को अलग करने की आवश्यकता नहीं है। <math>Y(t)</math> के प्रसरण को हर समय <math>t,</math> के लिए <math>c \geq 2</math> घटकों में निम्नानुसार विघटित किया जा सकता है:
<math display=block>\begin{align}
<math display=block>\begin{align}
\operatorname{Var}[Y(t)] = {} & \operatorname{E}(\operatorname{Var}[Y(t)\mid H_{1t},H_{2t},\ldots,H_{c-1,t}]) \\[4pt]
\operatorname{Var}[Y(t)] = {} & \operatorname{E}(\operatorname{Var}[Y(t)\mid H_{1t},H_{2t},\ldots,H_{c-1,t}]) \\[4pt]
Line 44: Line 44:
& {} + \operatorname{Var}(\operatorname{E}[Y(t)\mid H_{1t}]).
& {} + \operatorname{Var}(\operatorname{E}[Y(t)\mid H_{1t}]).
\end{align}</math>
\end{align}</math>
अपघटन अद्वितीय नहीं है। यह अनुक्रमिक अपघटन में कंडीशनिंग के क्रम पर निर्भर करता है।
अपघटन अद्वितीय नहीं है। यह अनुक्रमिक अपघटन में अनुकूलन के क्रम पर निर्भर करता है।


== सहसंबंध का वर्ग और समझाया गया (या सूचनात्मक) भिन्नता ==
== सहसंबंध का वर्ग और समझाया गया (या सूचनात्मक) भिन्नता ==


जिन मामलों में <math>(Y, X)</math> ऐसे हैं कि सशर्त अपेक्षित मान रैखिक है; यानी ऐसे मामलों में जहां
जिन स्थिति में <math>(Y, X)</math> ऐसे हैं कि नियम अपेक्षित मान रैखिक है; अर्थात ऐसे स्थिति में है जहां
<math display=block>\operatorname{E}(Y \mid X) = a X + b,</math>
<math display=block>\operatorname{E}(Y \mid X) = a X + b,</math>
यह सहप्रसरण की द्विरेखीयता से अनुसरण करता है
यह सहप्रसरण की द्विरेखीयता से अनुसरण करता है
Line 54: Line 54:
और
और
<math display=block>b = \operatorname{E}(Y)-{\operatorname{Cov}(Y, X) \over \operatorname{Var}(X)} \operatorname{E}(X)</math>
<math display=block>b = \operatorname{E}(Y)-{\operatorname{Cov}(Y, X) \over \operatorname{Var}(X)} \operatorname{E}(X)</math>
और कुल भिन्नता से विभाजित भिन्नता का समझाया गया घटक केवल सहसंबंध का वर्ग है <math>Y</math> और <math>X;</math> यानी ऐसे मामलों में
और कुल भिन्नता से विभाजित भिन्नता का समझाया गया घटक <math>Y</math> और <math>X;</math> के बीच के सहसंबंध का वर्ग है अर्थात ऐसे स्थिति में है
<math display=block>{\operatorname{Var}(\operatorname{E}(Y \mid X)) \over \operatorname{Var}(Y)} = \operatorname{Corr}(X, Y)^2.</math>
<math display=block>{\operatorname{Var}(\operatorname{E}(Y \mid X)) \over \operatorname{Var}(Y)} = \operatorname{Corr}(X, Y)^2.</math>
इस स्थिति का एक उदाहरण है जब <math>(X, Y)</math> द्विचर सामान्य (गाऊसी) वितरण है।
इस स्थिति का एक उदाहरण है जब <math>(X, Y)</math> द्विचर सामान्य (गाऊसी) वितरण है।


अधिक सामान्यतः, जब सशर्त अपेक्षा <math>\operatorname{E}(Y \mid X)</math> का एक अरैखिक फलन है <math>X</math><ref name=bs />
अधिक सामान्यतः, जब नियम अपेक्षा <math>\operatorname{E}(Y \mid X)</math> <math>X</math> का एक अरैखिक फलन है <ref name=bs />
<math display=block>\iota_{Y\mid X} = {\operatorname{Var}(\operatorname{E}(Y \mid X)) \over \operatorname{Var}(Y)} = \operatorname{Corr}(\operatorname{E}(Y \mid X), Y)^2,</math>
<math display=block>\iota_{Y\mid X} = {\operatorname{Var}(\operatorname{E}(Y \mid X)) \over \operatorname{Var}(Y)} = \operatorname{Corr}(\operatorname{E}(Y \mid X), Y)^2,</math>
जिसका अनुमान लगाया जा सकता है <math>R</math> के एक गैर रेखीय प्रतिगमन से चुकता <math>Y</math> पर <math>X,</math> के संयुक्त वितरण से प्राप्त आंकड़ों का उपयोग करना <math>(X, Y).</math> कब <math>\operatorname{E}(Y \mid X)</math> एक गाऊसी वितरण है (और का एक व्युत्क्रमणीय फलन है <math>X</math>), या <math>Y</math> अपने आप में एक (सीमांत) गॉसियन वितरण है, भिन्नता का यह समझाया गया घटक पारस्परिक जानकारी पर एक निचली सीमा निर्धारित करता है:<ref name=bs />
<math>(X, Y).</math> के संयुक्त वितरण से निकाले गए डेटा का उपयोग करते हुए, जिसे <math>X,</math>पर <math>Y</math> के एक गैर-रैखिक प्रतिगमन से आर वर्ग के रूप में अनुमानित किया जा सकता है।} जब <math>\operatorname{E}(Y \mid X)</math> का गॉसियन वितरण है (और <math>X</math> का एक व्युत्क्रमणीय कार्य है) या <math>Y</math> का स्वयं एक (सीमांत) गॉसियन वितरण है, भिन्नता का यह समझाया गया घटक पारस्परिक जानकारी पर एक निचली सीमा निर्धारित करता है:<ref name=bs />
<math display=block>\operatorname{I}(Y; X) \geq \ln \left([1 - \iota_{Y \mid X}]^{-1/2}\right).</math>
<math display=block>\operatorname{I}(Y; X) \geq \ln \left([1 - \iota_{Y \mid X}]^{-1/2}\right).</math>




== उच्च क्षण ==
== उच्च क्षण                     ==


तीसरे [[केंद्रीय क्षण]] के लिए समान कानून <math>\mu_3</math> कहते हैं
इसी प्रकार का नियम तीसरे केन्द्रीय क्षण के लिए <math>\mu_3</math> कहते है
<math display=block>\mu_3(Y)=\operatorname{E}\left(\mu_3(Y \mid X)\right) + \mu_3(\operatorname{E}(Y \mid X)) + 3\operatorname{cov}(\operatorname{E}(Y \mid X), \operatorname{var}(Y \mid X)).</math>
<math display=block>\mu_3(Y)=\operatorname{E}\left(\mu_3(Y \mid X)\right) + \mu_3(\operatorname{E}(Y \mid X)) + 3\operatorname{cov}(\operatorname{E}(Y \mid X), \operatorname{var}(Y \mid X)).</math>
उच्च संचयकों के लिए, एक सामान्यीकरण मौजूद है। [[कुल संचयन का नियम]] देखें।
उच्च संचयकों के लिए, एक सामान्यीकरण उपस्थित है। [[कुल संचयन का नियम]] देखें।


== यह भी देखें ==
== यह भी देखें                                                                       ==


* {{annotated link|Law of total covariance}} - एक सामान्यीकरण
* {{annotated link|कुल सहप्रसरण का नियम}} - एक सामान्यीकरण
* {{annotated link|Law of propagation of errors}}
* {{annotated link|त्रुटियों के प्रसार का नियम}}


==संदर्भ==
==संदर्भ                                         ==


{{reflist}}
{{reflist}}
{{reflist|group=note}}
* {{cite web|last1= Blitzstein|first1=Joe|title=Stat 110 Final Review (Eve's Law)|url=http://projects.iq.harvard.edu/files/stat110/files/final_review.pdf|work=stat110.net|publisher=Harvard University, Department of Statistics|access-date=9 July 2014}}
* {{cite web|last1= Blitzstein|first1=Joe|title=Stat 110 Final Review (Eve's Law)|url=http://projects.iq.harvard.edu/files/stat110/files/final_review.pdf|work=stat110.net|publisher=Harvard University, Department of Statistics|access-date=9 July 2014}}
* {{cite book | last=Billingsley | first=Patrick | title=Probability and Measure | publisher=John Wiley & Sons, Inc. | location=New York, NY | year=1995 | isbn=0-471-00710-2}} (Problem 34.10(b))
* {{cite book | last=Billingsley | first=Patrick | title=Probability and Measure | publisher=John Wiley & Sons, Inc. | location=New York, NY | year=1995 | isbn=0-471-00710-2}} (Problem 34.10(b))
<!-- * {{cite book | last=Weiss | first=Neil | title=A Course in Probability | publisher=Addison Wesley | isbn=0-201-77471-2 | year=2005 }} -->
[[Category: यादृच्छिक चर का बीजगणित]] [[Category: सांख्यिकीय विचलन और फैलाव]] [[Category: प्रमाण युक्त लेख]] [[Category: संभाव्यता वितरण का सिद्धांत]] [[Category: सांख्यिकी में प्रमेय]] [[Category: सांख्यिकीय कानून]]


[[Category: Machine Translated Page]]
[[Category:Created On 21/03/2023]]
[[Category:Created On 21/03/2023]]
[[Category:Lua-based templates]]
[[Category:Machine Translated Page]]
[[Category:Pages with script errors]]
[[Category:Templates Vigyan Ready]]
[[Category:Templates that add a tracking category]]
[[Category:Templates that generate short descriptions]]
[[Category:Templates using TemplateData]]
[[Category:प्रमाण युक्त लेख]]
[[Category:यादृच्छिक चर का बीजगणित]]
[[Category:संभाव्यता वितरण का सिद्धांत]]
[[Category:सांख्यिकी में प्रमेय]]
[[Category:सांख्यिकीय कानून]]
[[Category:सांख्यिकीय विचलन और फैलाव]]

Latest revision as of 09:54, 18 May 2023

संभाव्यता सिद्धांत में, कुल विचरण का नियम[1] या विचरण अपघटन सूत्र या नियम विचरण सूत्र या पुनरावृत्त प्रसरण के नियम को ईव के नियम के रूप में भी जाना जाता है,[2] बताता है कि यादि और एक ही प्रायिकता स्थान पर यादृच्छिक चर हैं, और तब का प्रसरण परिमित है

संभाव्यता सिद्धांतकारों की तुलना में शायद सांख्यिकीविदों के लिए बेहतर ज्ञात भाषा में, दो शब्द क्रमशः अस्पष्टीकृत और विचरण के समझाए गए घटक हैं (cf. विचरण का अंश अस्पष्टीकृत, व्याख्यात्मक भिन्नता)। जिवानांकिकी में, विशेष रूप से विश्वसनीयता सिद्धांत, पहले घटक को प्रक्रिया विचरण (ईवीपीवी) का अपेक्षित मान कहा जाता है और दूसरे को काल्पनिक साधनों (वीएचएम) का विचरण कहा जाता है।[3] ये दो घटक प्रारंभिक ईवी वीई से "प्रसरण की अपेक्षा" और "उम्मीद की भिन्नता" शब्द "ईव के नियम" का स्रोत भी हैं।

सूत्रीकरण

घटकों के लिए एक सामान्य प्रसरण अपघटन सूत्र है (नीचे देखें)[4]। उदाहरण के लिए दो अनुकूलन यादृच्छिक चर के साथ:

जो कुल नियम भिन्नता के नियम से निम्नानुसार है:[4]
ध्यान दें कि नियम अपेक्षित मान अपने आप में एक यादृच्छिक चर है, जिसका मान के मान पर निर्भर करता है ध्यान दें कि नियम अपेक्षित मान देखते हुए event का एक कार्य है (यह वह जगह है जहां संभाव्यता सिद्धांत के पारंपरिक और कठोर केस-संवेदी अंकन का पालन महत्वपूर्ण हो जाता है!)। यादि हम लिखते हैं फिर यादृच्छिक चर बस इसी तरह की टिप्पणियां नियम भिन्नता पर प्रयुक्त होती हैं।

एक विशेष स्थिति , (कुल अपेक्षा के नियम के समान) कहता है कि यदि संपूर्ण परिणाम स्थान का एक विभाजन है, अर्थात, ये घटनाएँ परस्पर अनन्य और संपूर्ण हैं

इस सूत्र में, पहला घटक नियम भिन्नता की अपेक्षा है; अन्य दो घटक नियम अपेक्षा के विचरण हैं।

प्रमाण

कुल अपेक्षा के नियम का उपयोग करके कुल भिन्नता का नियम सिद्ध किया जा सकता है।[5] पहला,

विचरण की परिभाषा से। फिर से, विचरण की परिभाषा से, और कुल अपेक्षा के नियम को प्रयुक्त करने से, हमारे पास है
अब हम के नियम दूसरे क्षण को फिर से लिखते हैं इसके विचरण और पहले क्षण के संदर्भ में और दाहिनी ओर कुल अपेक्षा के नियम को प्रयुक्त करते हैं:
चूंकि किसी राशि की अपेक्षा अपेक्षाओं का योग है, इसलिए नियमो को अब पुनर्समूहित किया जा सकता है:
अंत में, हम कोष्ठक के दूसरे समूह में नियमो को नियम अपेक्षा के विचरण के रूप में पहचानते हैं ।:


गतिशील प्रणालियों पर प्रयुक्त सामान्य विचरण अपघटन

निम्नलिखित सूत्र दिखाता है कि प्रसंभाव्य गतिशील प्रणालियों के लिए सामान्य, माप सिद्धांतिक भिन्नता अपघटन सूत्र को कैसे प्रयुक्त किया जाए।[4] मान लीजिए समय पर प्रणाली चर का मान हो मान लीजिए कि हमारे पास आंतरिक इतिहास (प्राकृतिक निस्पंदन) है ,है प्रत्येक प्रणाली चर के एक अलग संग्रह के इतिहास (प्रक्षेपवक्र) के अनुरूप है । संग्रहों को अलग करने की आवश्यकता नहीं है। के प्रसरण को हर समय के लिए घटकों में निम्नानुसार विघटित किया जा सकता है:

अपघटन अद्वितीय नहीं है। यह अनुक्रमिक अपघटन में अनुकूलन के क्रम पर निर्भर करता है।

सहसंबंध का वर्ग और समझाया गया (या सूचनात्मक) भिन्नता

जिन स्थिति में ऐसे हैं कि नियम अपेक्षित मान रैखिक है; अर्थात ऐसे स्थिति में है जहां

यह सहप्रसरण की द्विरेखीयता से अनुसरण करता है

 

और

और कुल भिन्नता से विभाजित भिन्नता का समझाया गया घटक और के बीच के सहसंबंध का वर्ग है अर्थात ऐसे स्थिति में है
इस स्थिति का एक उदाहरण है जब द्विचर सामान्य (गाऊसी) वितरण है।

अधिक सामान्यतः, जब नियम अपेक्षा का एक अरैखिक फलन है [4]

के संयुक्त वितरण से निकाले गए डेटा का उपयोग करते हुए, जिसे पर के एक गैर-रैखिक प्रतिगमन से आर वर्ग के रूप में अनुमानित किया जा सकता है।} जब का गॉसियन वितरण है (और का एक व्युत्क्रमणीय कार्य है) या का स्वयं एक (सीमांत) गॉसियन वितरण है, भिन्नता का यह समझाया गया घटक पारस्परिक जानकारी पर एक निचली सीमा निर्धारित करता है:[4]


उच्च क्षण

इसी प्रकार का नियम तीसरे केन्द्रीय क्षण के लिए कहते है

उच्च संचयकों के लिए, एक सामान्यीकरण उपस्थित है। कुल संचयन का नियम देखें।

यह भी देखें

संदर्भ

  1. Neil A. Weiss, A Course in Probability, Addison–Wesley, 2005, pages 385–386.
  2. Joseph K. Blitzstein and Jessica Hwang: "Introduction to Probability"
  3. Mahler, Howard C.; Dean, Curtis Gary (2001). "Chapter 8: Credibility" (PDF). In Casualty Actuarial Society (ed.). कैजुअल्टी एक्चुरियल साइंस की नींव (4th ed.). Casualty Actuarial Society. pp. 525–526. ISBN 978-0-96247-622-8. Retrieved June 25, 2015.
  4. 4.0 4.1 4.2 4.3 4.4 Bowsher, C.G. and P.S. Swain, Identifying sources of variation and the flow of information in biochemical networks, PNAS May 15, 2012 109 (20) E1320-E1328.
  5. Neil A. Weiss, A Course in Probability, Addison–Wesley, 2005, pages 380–383.
  • Blitzstein, Joe. "Stat 110 Final Review (Eve's Law)" (PDF). stat110.net. Harvard University, Department of Statistics. Retrieved 9 July 2014.
  • Billingsley, Patrick (1995). Probability and Measure. New York, NY: John Wiley & Sons, Inc. ISBN 0-471-00710-2. (Problem 34.10(b))