कुल विचरण का नियम: Difference between revisions

From Vigyanwiki
No edit summary
No edit summary
 
(7 intermediate revisions by 3 users not shown)
Line 1: Line 1:
{{Short description|Theorem in probability theory}}
{{Short description|Theorem in probability theory}}
संभाव्यता सिद्धांत में, कुल विचरण का नियम<ref>Neil A. Weiss, ''A Course in Probability'', Addison&ndash;Wesley, 2005, pages 385&ndash;386.</ref> या विचरण अपघटन सूत्र या नियम विचरण सूत्र या पुनरावृत्त प्रसरण के नियम को ईव के नियम के रूप में भी जाना जाता है,<ref> Joseph K. Blitzstein and Jessica Hwang: "Introduction to Probability"</ref> बताता है कि यादि <math>X</math> और <math>Y</math> एक ही प्रायिकता स्थान पर यादृच्छिक चर हैं, और का विचरण <math>Y</math> परिमित है, तो
संभाव्यता सिद्धांत में, कुल विचरण का नियम<ref>Neil A. Weiss, ''A Course in Probability'', Addison&ndash;Wesley, 2005, pages 385&ndash;386.</ref> या विचरण अपघटन सूत्र या नियम विचरण सूत्र या पुनरावृत्त प्रसरण के नियम को ईव के नियम के रूप में भी जाना जाता है,<ref> Joseph K. Blitzstein and Jessica Hwang: "Introduction to Probability"</ref> बताता है कि यादि <math>X</math> और <math>Y</math> एक ही प्रायिकता स्थान पर यादृच्छिक चर हैं, और तब <math>Y</math> का प्रसरण परिमित है


<math display=block>
<math display=block>
\operatorname{Var_Y}(Y) = \operatorname{E_X}[\operatorname{Var_Y}(Y \mid X)] + \operatorname{Var_X}(\operatorname{E_Y}[Y \mid X]).
\operatorname{Var_Y}(Y) = \operatorname{E_X}[\operatorname{Var_Y}(Y \mid X)] + \operatorname{Var_X}(\operatorname{E_Y}[Y \mid X]).
</math>
</math>
संभाव्यता सिद्धांतकारों की तुलना में शायद सांख्यिकीविदों के लिए बेहतर ज्ञात भाषा में, दो शब्द क्रमशः अस्पष्टीकृत और विचरण के समझाए गए घटक हैं (cf. [[विचरण का अंश अस्पष्टीकृत]], व्याख्यात्मक भिन्नता)। [[ जिवानांकिकी ]] में, विशेष रूप से [[विश्वसनीयता सिद्धांत]], पहले घटक को प्रक्रिया विचरण (ईवीपीवी) का अपेक्षित मूल्य कहा जाता है और दूसरे को काल्पनिक साधनों (वीएचएम) का विचरण कहा जाता है।<ref name = "FCAS4ed">{{cite book |last1= Mahler|first1= Howard C. |last2= Dean|first2= Curtis Gary|year= 2001 |chapter= Chapter 8: Credibility |chapter-url= http://people.stat.sfu.ca/~cltsai/ACMA315/Ch8_Credibility.pdf |editor1-last= [[Casualty Actuarial Society]] |title= कैजुअल्टी एक्चुरियल साइंस की नींव|edition= 4th |publisher= [[Casualty Actuarial Society]] |pages= 525–526 |isbn= 978-0-96247-622-8|access-date= June 25, 2015}}</ref> ये दो घटक ईव के नियम शब्द के स्रोत भी हैं, प्रारंभिक EV VE से विचरण की अपेक्षा और अपेक्षा के विचरण के लिए।
संभाव्यता सिद्धांतकारों की तुलना में शायद सांख्यिकीविदों के लिए बेहतर ज्ञात भाषा में, दो शब्द क्रमशः अस्पष्टीकृत और विचरण के समझाए गए घटक हैं (cf. [[विचरण का अंश अस्पष्टीकृत]], व्याख्यात्मक भिन्नता)। [[ जिवानांकिकी |जिवानांकिकी]] में, विशेष रूप से [[विश्वसनीयता सिद्धांत]], पहले घटक को प्रक्रिया विचरण (ईवीपीवी) का अपेक्षित मान कहा जाता है और दूसरे को काल्पनिक साधनों (वीएचएम) का विचरण कहा जाता है।<ref name = "FCAS4ed">{{cite book |last1= Mahler|first1= Howard C. |last2= Dean|first2= Curtis Gary|year= 2001 |chapter= Chapter 8: Credibility |chapter-url= http://people.stat.sfu.ca/~cltsai/ACMA315/Ch8_Credibility.pdf |editor1-last= [[Casualty Actuarial Society]] |title= कैजुअल्टी एक्चुरियल साइंस की नींव|edition= 4th |publisher= [[Casualty Actuarial Society]] |pages= 525–526 |isbn= 978-0-96247-622-8|access-date= June 25, 2015}}</ref> ये दो घटक प्रारंभिक ईवी वीई से "प्रसरण की अपेक्षा" और "उम्मीद की भिन्नता" शब्द "ईव के नियम" का स्रोत भी हैं।


== सूत्रीकरण ==
== सूत्रीकरण                   ==


के लिए एक सामान्य विचरण अपघटन सूत्र है <math>c \geq 2</math> घटक (नीचे देखें)<ref name=bs>Bowsher, C.G. and P.S. Swain, Identifying sources of variation and the flow of information in biochemical networks, PNAS May 15, 2012 109 (20) E1320-E1328.</ref> उदाहरण के लिए, दो कंडीशनिंग यादृच्छिक चर के साथ:
<math>c \geq 2</math> घटकों के लिए एक सामान्य प्रसरण अपघटन सूत्र है (नीचे देखें)<ref name=bs>Bowsher, C.G. and P.S. Swain, Identifying sources of variation and the flow of information in biochemical networks, PNAS May 15, 2012 109 (20) E1320-E1328.</ref>उदाहरण के लिए दो अनुकूलन यादृच्छिक चर के साथ:
<math display=block>\operatorname{Var}[Y] = \operatorname{E}\left[\operatorname{Var}\left(Y \mid X_1, X_2\right)\right] + \operatorname{E}[\operatorname{Var}(\operatorname{E}\left[Y \mid X_1, X_2\right] \mid X_1)] + \operatorname{Var}(\operatorname{E}\left[Y \mid X_1\right]),</math>
<math display=block>\operatorname{Var}[Y] = \operatorname{E}\left[\operatorname{Var}\left(Y \mid X_1, X_2\right)\right] + \operatorname{E}[\operatorname{Var}(\operatorname{E}\left[Y \mid X_1, X_2\right] \mid X_1)] + \operatorname{Var}(\operatorname{E}\left[Y \mid X_1\right]),</math>
जो कुल नियम भिन्नता के कानून से निम्नानुसार है:<ref name=bs />
जो कुल नियम भिन्नता के नियम से निम्नानुसार है:<ref name=bs />
<math display=block>\operatorname{Var}(Y \mid X_1) = \operatorname{E} \left[\operatorname{Var}(Y \mid X_1, X_2) \mid X_1\right] + \operatorname{Var} \left(\operatorname{E}\left[Y \mid X_1, X_2 \right] \mid X_1\right).</math>
<math display=block>\operatorname{Var}(Y \mid X_1) = \operatorname{E} \left[\operatorname{Var}(Y \mid X_1, X_2) \mid X_1\right] + \operatorname{Var} \left(\operatorname{E}\left[Y \mid X_1, X_2 \right] \mid X_1\right).</math>
ध्यान दें कि नियम अपेक्षित मान <math>\operatorname{E}(Y \mid X)</math> अपने आप में एक यादृच्छिक चर है, जिसका मान के मान पर निर्भर करता है <math>X.</math> ध्यान दें कि नियम अपेक्षित मान <math>Y</math> देखते हुए {{em|event}} <math>X = x</math> का एक कार्य है <math>x</math> (यह वह जगह है जहां संभाव्यता सिद्धांत के पारंपरिक और कठोर केस-संवेदी अंकन का पालन महत्वपूर्ण हो जाता है!)। यादि हम लिखते हैं <math>\operatorname{E}(Y \mid X = x) = g(x)</math> फिर यादृच्छिक चर <math>\operatorname{E}(Y \mid X)</math> बस है <math>g(X).</math> इसी तरह की टिप्पणियां नियम भिन्नता पर लागू होती हैं।
ध्यान दें कि नियम अपेक्षित मान <math>\operatorname{E}(Y \mid X)</math> अपने आप में एक यादृच्छिक चर है, जिसका मान <math>X.</math> के मान पर निर्भर करता है ध्यान दें कि <math>Y</math> नियम अपेक्षित मान देखते हुए {{em|event}} <math>X = x</math> का एक <math>x</math> कार्य है (यह वह जगह है जहां संभाव्यता सिद्धांत के पारंपरिक और कठोर केस-संवेदी अंकन का पालन महत्वपूर्ण हो जाता है!)। यादि हम <math>\operatorname{E}(Y \mid X = x) = g(x)</math> लिखते हैं फिर यादृच्छिक चर <math>\operatorname{E}(Y \mid X)</math> बस <math>g(X).</math> इसी तरह की टिप्पणियां नियम भिन्नता पर प्रयुक्त होती हैं।


एक विशेष मामला, (कुल अपेक्षा के कानून के समान) कहता है कि यदि <math>A_1, \ldots, A_n</math> संपूर्ण परिणाम स्थान का एक विभाजन है, अर्थात, ये घटनाएँ परस्पर अनन्य और संपूर्ण हैं
एक विशेष स्थिति , (कुल अपेक्षा के नियम के समान) कहता है कि यदि <math>A_1, \ldots, A_n</math> संपूर्ण परिणाम स्थान का एक विभाजन है, अर्थात, ये घटनाएँ परस्पर अनन्य और संपूर्ण हैं
<math display=block>\begin{align}
<math display=block>\begin{align}
\operatorname{Var} (X) = {} & \sum_{i=1}^n \operatorname{Var}(X\mid A_i) \Pr(A_i) + \sum_{i=1}^n \operatorname{E}[X\mid A_i]^2 (1-\Pr(A_i))\Pr(A_i) \\[4pt]
\operatorname{Var} (X) = {} & \sum_{i=1}^n \operatorname{Var}(X\mid A_i) \Pr(A_i) + \sum_{i=1}^n \operatorname{E}[X\mid A_i]^2 (1-\Pr(A_i))\Pr(A_i) \\[4pt]
Line 24: Line 24:
== प्रमाण ==
== प्रमाण ==


कुल अपेक्षा के कानून का उपयोग करके कुल भिन्नता का कानून साबित किया जा सकता है।<ref>Neil A. Weiss, ''A Course in Probability'', Addison&ndash;Wesley, 2005, pages 380&ndash;383.</ref> पहला,
कुल अपेक्षा के नियम का उपयोग करके कुल भिन्नता का नियम सिद्ध किया जा सकता है।<ref>Neil A. Weiss, ''A Course in Probability'', Addison&ndash;Wesley, 2005, pages 380&ndash;383.</ref> पहला,
<math display=block>\operatorname{Var}[Y] = \operatorname{E}\left[Y^2\right] - \operatorname{E}[Y]^2</math>
<math display=block>\operatorname{Var}[Y] = \operatorname{E}\left[Y^2\right] - \operatorname{E}[Y]^2</math>
विचरण की परिभाषा से। फिर से, विचरण की परिभाषा से, और कुल अपेक्षा के नियम को लागू करने से, हमारे पास है
विचरण की परिभाषा से। फिर से, विचरण की परिभाषा से, और कुल अपेक्षा के नियम को प्रयुक्त करने से, हमारे पास है
<math display=block>\operatorname{E}\left[Y^2\right] = \operatorname{E}\left[\operatorname{E}[Y^2\mid X]\right] = \operatorname{E} \left[\operatorname{Var}[Y \mid X] + [\operatorname{E}[Y \mid X]]^2\right].</math>
<math display=block>\operatorname{E}\left[Y^2\right] = \operatorname{E}\left[\operatorname{E}[Y^2\mid X]\right] = \operatorname{E} \left[\operatorname{Var}[Y \mid X] + [\operatorname{E}[Y \mid X]]^2\right].</math>
अब हम के नियम दूसरे क्षण को फिर से लिखते हैं <math>Y</math> इसके विचरण और पहले क्षण के संदर्भ में, और दाहिनी ओर कुल अपेक्षा के नियम को लागू करें:
अब हम <math>Y</math> के नियम दूसरे क्षण को फिर से लिखते हैं इसके विचरण और पहले क्षण के संदर्भ में और दाहिनी ओर कुल अपेक्षा के नियम को प्रयुक्त करते हैं:
<math display=block>\operatorname{E}\left[Y^2\right] - \operatorname{E}[Y]^2 = \operatorname{E} \left[\operatorname{Var}[Y \mid X] + [\operatorname{E}[Y \mid X]]^2\right] - [\operatorname{E} [\operatorname{E}[Y \mid X]]]^2.</math>
<math display=block>\operatorname{E}\left[Y^2\right] - \operatorname{E}[Y]^2 = \operatorname{E} \left[\operatorname{Var}[Y \mid X] + [\operatorname{E}[Y \mid X]]^2\right] - [\operatorname{E} [\operatorname{E}[Y \mid X]]]^2.</math>
चूंकि किसी राशि की अपेक्षा अपेक्षाओं का योग है, इसलिए शर्तों को अब पुनर्समूहित किया जा सकता है:
चूंकि किसी राशि की अपेक्षा अपेक्षाओं का योग है, इसलिए नियमो को अब पुनर्समूहित किया जा सकता है:
<math display=block>= \left(\operatorname{E} [\operatorname{Var}[Y \mid X]]\right) + \left(\operatorname{E} \left[\operatorname{E}[Y \mid X]^2\right] - [\operatorname{E} [\operatorname{E}[Y \mid X]]]^2\right).</math>
<math display=block>= \left(\operatorname{E} [\operatorname{Var}[Y \mid X]]\right) + \left(\operatorname{E} \left[\operatorname{E}[Y \mid X]^2\right] - [\operatorname{E} [\operatorname{E}[Y \mid X]]]^2\right).</math>
अंत में, हम कोष्ठक के दूसरे सेट में शर्तों को नियम अपेक्षा के विचरण के रूप में पहचानते हैं <math>\operatorname{E}[Y \mid X]</math>:
अंत में, हम कोष्ठक के दूसरे समूह में नियमो को नियम अपेक्षा <math>\operatorname{E}[Y \mid X]</math> के विचरण के रूप में पहचानते हैं ।:
<math display=block>= \operatorname{E} [\operatorname{Var}[Y \mid X]] + \operatorname{Var} [\operatorname{E}[Y \mid X]].</math>
<math display=block>= \operatorname{E} [\operatorname{Var}[Y \mid X]] + \operatorname{Var} [\operatorname{E}[Y \mid X]].</math>




== गतिशील प्रणालियों पर लागू सामान्य विचरण अपघटन ==
== गतिशील प्रणालियों पर प्रयुक्त सामान्य विचरण अपघटन ==


निम्न सूत्र दिखाता है कि सामान्य को कैसे लागू किया जाए, सैद्धांतिक विचरण अपघटन सूत्र को मापें <ref name=bs />स्टोकेस्टिक डायनेमिक सिस्टम के लिए। होने देना <math>Y(t)</math> समय पर सिस्टम चर का मान हो <math>t.</math> मान लीजिए कि हमारे पास आंतरिक इतिहास (प्राकृतिक फ़िल्टरिंग) है <math>H_{1t},H_{2t},\ldots,H_{c-1,t}</math>, सिस्टम चर के एक अलग संग्रह के इतिहास (प्रक्षेपवक्र) के अनुरूप प्रत्येक। संग्रहों को अलग करने की आवश्यकता नहीं है। का विचरण <math>Y(t)</math> हमेशा के लिए विघटित किया जा सकता है <math>t,</math> में <math>c \geq 2</math> घटक निम्नानुसार हैं:
निम्नलिखित सूत्र दिखाता है कि प्रसंभाव्य गतिशील प्रणालियों के लिए सामान्य, माप सिद्धांतिक भिन्नता अपघटन सूत्र को कैसे प्रयुक्त किया जाए।<ref name=bs /> मान लीजिए <math>Y(t)</math> समय <math>t.</math> पर प्रणाली चर का मान हो मान लीजिए कि हमारे पास आंतरिक इतिहास (प्राकृतिक निस्पंदन) '''है''' <math>H_{1t},H_{2t},\ldots,H_{c-1,t}</math>,है प्रत्येक प्रणाली चर के एक अलग संग्रह के इतिहास (प्रक्षेपवक्र) के अनुरूप है । संग्रहों को अलग करने की आवश्यकता नहीं है। <math>Y(t)</math> के प्रसरण को हर समय <math>t,</math> के लिए <math>c \geq 2</math> घटकों में निम्नानुसार विघटित किया जा सकता है:
<math display=block>\begin{align}
<math display=block>\begin{align}
\operatorname{Var}[Y(t)] = {} & \operatorname{E}(\operatorname{Var}[Y(t)\mid H_{1t},H_{2t},\ldots,H_{c-1,t}]) \\[4pt]
\operatorname{Var}[Y(t)] = {} & \operatorname{E}(\operatorname{Var}[Y(t)\mid H_{1t},H_{2t},\ldots,H_{c-1,t}]) \\[4pt]
Line 44: Line 44:
& {} + \operatorname{Var}(\operatorname{E}[Y(t)\mid H_{1t}]).
& {} + \operatorname{Var}(\operatorname{E}[Y(t)\mid H_{1t}]).
\end{align}</math>
\end{align}</math>
अपघटन अद्वितीय नहीं है। यह अनुक्रमिक अपघटन में कंडीशनिंग के क्रम पर निर्भर करता है।
अपघटन अद्वितीय नहीं है। यह अनुक्रमिक अपघटन में अनुकूलन के क्रम पर निर्भर करता है।


== सहसंबंध का वर्ग और समझाया गया (या सूचनात्मक) भिन्नता ==
== सहसंबंध का वर्ग और समझाया गया (या सूचनात्मक) भिन्नता ==


जिन मामलों में <math>(Y, X)</math> ऐसे हैं कि नियम अपेक्षित मान रैखिक है; यानी ऐसे मामलों में जहां
जिन स्थिति में <math>(Y, X)</math> ऐसे हैं कि नियम अपेक्षित मान रैखिक है; अर्थात ऐसे स्थिति में है जहां
<math display=block>\operatorname{E}(Y \mid X) = a X + b,</math>
<math display=block>\operatorname{E}(Y \mid X) = a X + b,</math>
यह सहप्रसरण की द्विरेखीयता से अनुसरण करता है
यह सहप्रसरण की द्विरेखीयता से अनुसरण करता है
Line 54: Line 54:
और
और
<math display=block>b = \operatorname{E}(Y)-{\operatorname{Cov}(Y, X) \over \operatorname{Var}(X)} \operatorname{E}(X)</math>
<math display=block>b = \operatorname{E}(Y)-{\operatorname{Cov}(Y, X) \over \operatorname{Var}(X)} \operatorname{E}(X)</math>
और कुल भिन्नता से विभाजित भिन्नता का समझाया गया घटक केवल सहसंबंध का वर्ग है <math>Y</math> और <math>X;</math> यानी ऐसे मामलों में
और कुल भिन्नता से विभाजित भिन्नता का समझाया गया घटक <math>Y</math> और <math>X;</math> के बीच के सहसंबंध का वर्ग है अर्थात ऐसे स्थिति में है
<math display=block>{\operatorname{Var}(\operatorname{E}(Y \mid X)) \over \operatorname{Var}(Y)} = \operatorname{Corr}(X, Y)^2.</math>
<math display=block>{\operatorname{Var}(\operatorname{E}(Y \mid X)) \over \operatorname{Var}(Y)} = \operatorname{Corr}(X, Y)^2.</math>
इस स्थिति का एक उदाहरण है जब <math>(X, Y)</math> द्विचर सामान्य (गाऊसी) वितरण है।
इस स्थिति का एक उदाहरण है जब <math>(X, Y)</math> द्विचर सामान्य (गाऊसी) वितरण है।


अधिक सामान्यतः, जब नियम अपेक्षा <math>\operatorname{E}(Y \mid X)</math> का एक अरैखिक फलन है <math>X</math><ref name=bs />
अधिक सामान्यतः, जब नियम अपेक्षा <math>\operatorname{E}(Y \mid X)</math> <math>X</math> का एक अरैखिक फलन है <ref name=bs />
<math display=block>\iota_{Y\mid X} = {\operatorname{Var}(\operatorname{E}(Y \mid X)) \over \operatorname{Var}(Y)} = \operatorname{Corr}(\operatorname{E}(Y \mid X), Y)^2,</math>
<math display=block>\iota_{Y\mid X} = {\operatorname{Var}(\operatorname{E}(Y \mid X)) \over \operatorname{Var}(Y)} = \operatorname{Corr}(\operatorname{E}(Y \mid X), Y)^2,</math>
जिसका अनुमान लगाया जा सकता है <math>R</math> के एक गैर रेखीय प्रतिगमन से चुकता <math>Y</math> पर <math>X,</math> के संयुक्त वितरण से प्राप्त आंकड़ों का उपयोग करना <math>(X, Y).</math> कब <math>\operatorname{E}(Y \mid X)</math> एक गाऊसी वितरण है (और का एक व्युत्क्रमणीय फलन है <math>X</math>), या <math>Y</math> अपने आप में एक (सीमांत) गॉसियन वितरण है, भिन्नता का यह समझाया गया घटक पारस्परिक जानकारी पर एक निचली सीमा निर्धारित करता है:<ref name=bs />
<math>(X, Y).</math> के संयुक्त वितरण से निकाले गए डेटा का उपयोग करते हुए, जिसे <math>X,</math>पर <math>Y</math> के एक गैर-रैखिक प्रतिगमन से आर वर्ग के रूप में अनुमानित किया जा सकता है।} जब <math>\operatorname{E}(Y \mid X)</math> का गॉसियन वितरण है (और <math>X</math> का एक व्युत्क्रमणीय कार्य है) या <math>Y</math> का स्वयं एक (सीमांत) गॉसियन वितरण है, भिन्नता का यह समझाया गया घटक पारस्परिक जानकारी पर एक निचली सीमा निर्धारित करता है:<ref name=bs />
<math display=block>\operatorname{I}(Y; X) \geq \ln \left([1 - \iota_{Y \mid X}]^{-1/2}\right).</math>
<math display=block>\operatorname{I}(Y; X) \geq \ln \left([1 - \iota_{Y \mid X}]^{-1/2}\right).</math>




== उच्च क्षण ==
== उच्च क्षण                     ==


तीसरे [[केंद्रीय क्षण]] के लिए समान कानून <math>\mu_3</math> कहते हैं
इसी प्रकार का नियम तीसरे केन्द्रीय क्षण के लिए <math>\mu_3</math> कहते है
<math display=block>\mu_3(Y)=\operatorname{E}\left(\mu_3(Y \mid X)\right) + \mu_3(\operatorname{E}(Y \mid X)) + 3\operatorname{cov}(\operatorname{E}(Y \mid X), \operatorname{var}(Y \mid X)).</math>
<math display=block>\mu_3(Y)=\operatorname{E}\left(\mu_3(Y \mid X)\right) + \mu_3(\operatorname{E}(Y \mid X)) + 3\operatorname{cov}(\operatorname{E}(Y \mid X), \operatorname{var}(Y \mid X)).</math>
उच्च संचयकों के लिए, एक सामान्यीकरण मौजूद है। [[कुल संचयन का नियम]] देखें।
उच्च संचयकों के लिए, एक सामान्यीकरण उपस्थित है। [[कुल संचयन का नियम]] देखें।


== यह भी देखें ==
== यह भी देखें                                                                       ==


* {{annotated link|कुल सहप्रसरण का नियम}} - एक सामान्यीकरण
* {{annotated link|कुल सहप्रसरण का नियम}} - एक सामान्यीकरण
* {{annotated link|त्रुटियों के प्रसार का नियम}}
* {{annotated link|त्रुटियों के प्रसार का नियम}}


==संदर्भ==
==संदर्भ                                         ==


{{reflist}}
{{reflist}}
{{reflist|group=note}}
* {{cite web|last1= Blitzstein|first1=Joe|title=Stat 110 Final Review (Eve's Law)|url=http://projects.iq.harvard.edu/files/stat110/files/final_review.pdf|work=stat110.net|publisher=Harvard University, Department of Statistics|access-date=9 July 2014}}
* {{cite web|last1= Blitzstein|first1=Joe|title=Stat 110 Final Review (Eve's Law)|url=http://projects.iq.harvard.edu/files/stat110/files/final_review.pdf|work=stat110.net|publisher=Harvard University, Department of Statistics|access-date=9 July 2014}}
* {{cite book | last=Billingsley | first=Patrick | title=Probability and Measure | publisher=John Wiley & Sons, Inc. | location=New York, NY | year=1995 | isbn=0-471-00710-2}} (Problem 34.10(b))
* {{cite book | last=Billingsley | first=Patrick | title=Probability and Measure | publisher=John Wiley & Sons, Inc. | location=New York, NY | year=1995 | isbn=0-471-00710-2}} (Problem 34.10(b))
<!-- * {{cite book | last=Weiss | first=Neil | title=A Course in Probability | publisher=Addison Wesley | isbn=0-201-77471-2 | year=2005 }} -->
[[Category: यादृच्छिक चर का बीजगणित]] [[Category: सांख्यिकीय विचलन और फैलाव]] [[Category: प्रमाण युक्त लेख]] [[Category: संभाव्यता वितरण का सिद्धांत]] [[Category: सांख्यिकी में प्रमेय]] [[Category: सांख्यिकीय कानून]]


[[Category: Machine Translated Page]]
[[Category:Created On 21/03/2023]]
[[Category:Created On 21/03/2023]]
[[Category:Lua-based templates]]
[[Category:Machine Translated Page]]
[[Category:Pages with script errors]]
[[Category:Templates Vigyan Ready]]
[[Category:Templates that add a tracking category]]
[[Category:Templates that generate short descriptions]]
[[Category:Templates using TemplateData]]
[[Category:प्रमाण युक्त लेख]]
[[Category:यादृच्छिक चर का बीजगणित]]
[[Category:संभाव्यता वितरण का सिद्धांत]]
[[Category:सांख्यिकी में प्रमेय]]
[[Category:सांख्यिकीय कानून]]
[[Category:सांख्यिकीय विचलन और फैलाव]]

Latest revision as of 09:54, 18 May 2023

संभाव्यता सिद्धांत में, कुल विचरण का नियम[1] या विचरण अपघटन सूत्र या नियम विचरण सूत्र या पुनरावृत्त प्रसरण के नियम को ईव के नियम के रूप में भी जाना जाता है,[2] बताता है कि यादि और एक ही प्रायिकता स्थान पर यादृच्छिक चर हैं, और तब का प्रसरण परिमित है

संभाव्यता सिद्धांतकारों की तुलना में शायद सांख्यिकीविदों के लिए बेहतर ज्ञात भाषा में, दो शब्द क्रमशः अस्पष्टीकृत और विचरण के समझाए गए घटक हैं (cf. विचरण का अंश अस्पष्टीकृत, व्याख्यात्मक भिन्नता)। जिवानांकिकी में, विशेष रूप से विश्वसनीयता सिद्धांत, पहले घटक को प्रक्रिया विचरण (ईवीपीवी) का अपेक्षित मान कहा जाता है और दूसरे को काल्पनिक साधनों (वीएचएम) का विचरण कहा जाता है।[3] ये दो घटक प्रारंभिक ईवी वीई से "प्रसरण की अपेक्षा" और "उम्मीद की भिन्नता" शब्द "ईव के नियम" का स्रोत भी हैं।

सूत्रीकरण

घटकों के लिए एक सामान्य प्रसरण अपघटन सूत्र है (नीचे देखें)[4]। उदाहरण के लिए दो अनुकूलन यादृच्छिक चर के साथ:

जो कुल नियम भिन्नता के नियम से निम्नानुसार है:[4]
ध्यान दें कि नियम अपेक्षित मान अपने आप में एक यादृच्छिक चर है, जिसका मान के मान पर निर्भर करता है ध्यान दें कि नियम अपेक्षित मान देखते हुए event का एक कार्य है (यह वह जगह है जहां संभाव्यता सिद्धांत के पारंपरिक और कठोर केस-संवेदी अंकन का पालन महत्वपूर्ण हो जाता है!)। यादि हम लिखते हैं फिर यादृच्छिक चर बस इसी तरह की टिप्पणियां नियम भिन्नता पर प्रयुक्त होती हैं।

एक विशेष स्थिति , (कुल अपेक्षा के नियम के समान) कहता है कि यदि संपूर्ण परिणाम स्थान का एक विभाजन है, अर्थात, ये घटनाएँ परस्पर अनन्य और संपूर्ण हैं

इस सूत्र में, पहला घटक नियम भिन्नता की अपेक्षा है; अन्य दो घटक नियम अपेक्षा के विचरण हैं।

प्रमाण

कुल अपेक्षा के नियम का उपयोग करके कुल भिन्नता का नियम सिद्ध किया जा सकता है।[5] पहला,

विचरण की परिभाषा से। फिर से, विचरण की परिभाषा से, और कुल अपेक्षा के नियम को प्रयुक्त करने से, हमारे पास है
अब हम के नियम दूसरे क्षण को फिर से लिखते हैं इसके विचरण और पहले क्षण के संदर्भ में और दाहिनी ओर कुल अपेक्षा के नियम को प्रयुक्त करते हैं:
चूंकि किसी राशि की अपेक्षा अपेक्षाओं का योग है, इसलिए नियमो को अब पुनर्समूहित किया जा सकता है:
अंत में, हम कोष्ठक के दूसरे समूह में नियमो को नियम अपेक्षा के विचरण के रूप में पहचानते हैं ।:


गतिशील प्रणालियों पर प्रयुक्त सामान्य विचरण अपघटन

निम्नलिखित सूत्र दिखाता है कि प्रसंभाव्य गतिशील प्रणालियों के लिए सामान्य, माप सिद्धांतिक भिन्नता अपघटन सूत्र को कैसे प्रयुक्त किया जाए।[4] मान लीजिए समय पर प्रणाली चर का मान हो मान लीजिए कि हमारे पास आंतरिक इतिहास (प्राकृतिक निस्पंदन) है ,है प्रत्येक प्रणाली चर के एक अलग संग्रह के इतिहास (प्रक्षेपवक्र) के अनुरूप है । संग्रहों को अलग करने की आवश्यकता नहीं है। के प्रसरण को हर समय के लिए घटकों में निम्नानुसार विघटित किया जा सकता है:

अपघटन अद्वितीय नहीं है। यह अनुक्रमिक अपघटन में अनुकूलन के क्रम पर निर्भर करता है।

सहसंबंध का वर्ग और समझाया गया (या सूचनात्मक) भिन्नता

जिन स्थिति में ऐसे हैं कि नियम अपेक्षित मान रैखिक है; अर्थात ऐसे स्थिति में है जहां

यह सहप्रसरण की द्विरेखीयता से अनुसरण करता है

 

और

और कुल भिन्नता से विभाजित भिन्नता का समझाया गया घटक और के बीच के सहसंबंध का वर्ग है अर्थात ऐसे स्थिति में है
इस स्थिति का एक उदाहरण है जब द्विचर सामान्य (गाऊसी) वितरण है।

अधिक सामान्यतः, जब नियम अपेक्षा का एक अरैखिक फलन है [4]

के संयुक्त वितरण से निकाले गए डेटा का उपयोग करते हुए, जिसे पर के एक गैर-रैखिक प्रतिगमन से आर वर्ग के रूप में अनुमानित किया जा सकता है।} जब का गॉसियन वितरण है (और का एक व्युत्क्रमणीय कार्य है) या का स्वयं एक (सीमांत) गॉसियन वितरण है, भिन्नता का यह समझाया गया घटक पारस्परिक जानकारी पर एक निचली सीमा निर्धारित करता है:[4]


उच्च क्षण

इसी प्रकार का नियम तीसरे केन्द्रीय क्षण के लिए कहते है

उच्च संचयकों के लिए, एक सामान्यीकरण उपस्थित है। कुल संचयन का नियम देखें।

यह भी देखें

संदर्भ

  1. Neil A. Weiss, A Course in Probability, Addison–Wesley, 2005, pages 385–386.
  2. Joseph K. Blitzstein and Jessica Hwang: "Introduction to Probability"
  3. Mahler, Howard C.; Dean, Curtis Gary (2001). "Chapter 8: Credibility" (PDF). In Casualty Actuarial Society (ed.). कैजुअल्टी एक्चुरियल साइंस की नींव (4th ed.). Casualty Actuarial Society. pp. 525–526. ISBN 978-0-96247-622-8. Retrieved June 25, 2015.
  4. 4.0 4.1 4.2 4.3 4.4 Bowsher, C.G. and P.S. Swain, Identifying sources of variation and the flow of information in biochemical networks, PNAS May 15, 2012 109 (20) E1320-E1328.
  5. Neil A. Weiss, A Course in Probability, Addison–Wesley, 2005, pages 380–383.
  • Blitzstein, Joe. "Stat 110 Final Review (Eve's Law)" (PDF). stat110.net. Harvard University, Department of Statistics. Retrieved 9 July 2014.
  • Billingsley, Patrick (1995). Probability and Measure. New York, NY: John Wiley & Sons, Inc. ISBN 0-471-00710-2. (Problem 34.10(b))