कुल विचरण का नियम: Difference between revisions

From Vigyanwiki
(Created page with "{{Short description|Theorem in probability theory}} संभाव्यता सिद्धांत में, कुल विचरण का नियम<ref>Neil A. W...")
 
No edit summary
Line 1: Line 1:
{{Short description|Theorem in probability theory}}
{{Short description|Theorem in probability theory}}
संभाव्यता सिद्धांत में, कुल विचरण का नियम<ref>Neil A. Weiss, ''A Course in Probability'', Addison&ndash;Wesley, 2005, pages 385&ndash;386.</ref> या विचरण अपघटन सूत्र या सशर्त विचरण सूत्र या पुनरावृत्त प्रसरण के नियम को ईव के नियम के रूप में भी जाना जाता है,<ref> Joseph K. Blitzstein and Jessica Hwang: "Introduction to Probability"</ref> बताता है कि अगर <math>X</math> और <math>Y</math> एक ही प्रायिकता स्थान पर यादृच्छिक चर हैं, और का विचरण <math>Y</math> परिमित है, तो
संभाव्यता सिद्धांत में, कुल विचरण का नियम<ref>Neil A. Weiss, ''A Course in Probability'', Addison&ndash;Wesley, 2005, pages 385&ndash;386.</ref> या विचरण अपघटन सूत्र या नियम विचरण सूत्र या पुनरावृत्त प्रसरण के नियम को ईव के नियम के रूप में भी जाना जाता है,<ref> Joseph K. Blitzstein and Jessica Hwang: "Introduction to Probability"</ref> बताता है कि यादि <math>X</math> और <math>Y</math> एक ही प्रायिकता स्थान पर यादृच्छिक चर हैं, और का विचरण <math>Y</math> परिमित है, तो


<math display=block>
<math display=block>
Line 11: Line 11:
के लिए एक सामान्य विचरण अपघटन सूत्र है <math>c \geq 2</math> घटक (नीचे देखें)।<ref name=bs>Bowsher, C.G. and P.S. Swain, Identifying sources of variation and the flow of information in biochemical networks, PNAS May 15, 2012 109 (20) E1320-E1328.</ref> उदाहरण के लिए, दो कंडीशनिंग यादृच्छिक चर के साथ:
के लिए एक सामान्य विचरण अपघटन सूत्र है <math>c \geq 2</math> घटक (नीचे देखें)।<ref name=bs>Bowsher, C.G. and P.S. Swain, Identifying sources of variation and the flow of information in biochemical networks, PNAS May 15, 2012 109 (20) E1320-E1328.</ref> उदाहरण के लिए, दो कंडीशनिंग यादृच्छिक चर के साथ:
<math display=block>\operatorname{Var}[Y] = \operatorname{E}\left[\operatorname{Var}\left(Y \mid X_1, X_2\right)\right] + \operatorname{E}[\operatorname{Var}(\operatorname{E}\left[Y \mid X_1, X_2\right] \mid X_1)] + \operatorname{Var}(\operatorname{E}\left[Y \mid X_1\right]),</math>
<math display=block>\operatorname{Var}[Y] = \operatorname{E}\left[\operatorname{Var}\left(Y \mid X_1, X_2\right)\right] + \operatorname{E}[\operatorname{Var}(\operatorname{E}\left[Y \mid X_1, X_2\right] \mid X_1)] + \operatorname{Var}(\operatorname{E}\left[Y \mid X_1\right]),</math>
जो कुल सशर्त भिन्नता के कानून से निम्नानुसार है:<ref name=bs />
जो कुल नियम भिन्नता के कानून से निम्नानुसार है:<ref name=bs />
<math display=block>\operatorname{Var}(Y \mid X_1) = \operatorname{E} \left[\operatorname{Var}(Y \mid X_1, X_2) \mid X_1\right] + \operatorname{Var} \left(\operatorname{E}\left[Y \mid X_1, X_2 \right] \mid X_1\right).</math>
<math display=block>\operatorname{Var}(Y \mid X_1) = \operatorname{E} \left[\operatorname{Var}(Y \mid X_1, X_2) \mid X_1\right] + \operatorname{Var} \left(\operatorname{E}\left[Y \mid X_1, X_2 \right] \mid X_1\right).</math>
ध्यान दें कि सशर्त अपेक्षित मान <math>\operatorname{E}(Y \mid X)</math> अपने आप में एक यादृच्छिक चर है, जिसका मान के मान पर निर्भर करता है <math>X.</math> ध्यान दें कि सशर्त अपेक्षित मान <math>Y</math> देखते हुए {{em|event}} <math>X = x</math> का एक कार्य है <math>x</math> (यह वह जगह है जहां संभाव्यता सिद्धांत के पारंपरिक और कठोर केस-संवेदी अंकन का पालन महत्वपूर्ण हो जाता है!)। अगर हम लिखते हैं <math>\operatorname{E}(Y \mid X = x) = g(x)</math> फिर यादृच्छिक चर <math>\operatorname{E}(Y \mid X)</math> बस है <math>g(X).</math> इसी तरह की टिप्पणियां सशर्त भिन्नता पर लागू होती हैं।
ध्यान दें कि नियम अपेक्षित मान <math>\operatorname{E}(Y \mid X)</math> अपने आप में एक यादृच्छिक चर है, जिसका मान के मान पर निर्भर करता है <math>X.</math> ध्यान दें कि नियम अपेक्षित मान <math>Y</math> देखते हुए {{em|event}} <math>X = x</math> का एक कार्य है <math>x</math> (यह वह जगह है जहां संभाव्यता सिद्धांत के पारंपरिक और कठोर केस-संवेदी अंकन का पालन महत्वपूर्ण हो जाता है!)। यादि हम लिखते हैं <math>\operatorname{E}(Y \mid X = x) = g(x)</math> फिर यादृच्छिक चर <math>\operatorname{E}(Y \mid X)</math> बस है <math>g(X).</math> इसी तरह की टिप्पणियां नियम भिन्नता पर लागू होती हैं।


एक विशेष मामला, (कुल अपेक्षा के कानून के समान) कहता है कि यदि <math>A_1, \ldots, A_n</math> संपूर्ण परिणाम स्थान का एक विभाजन है, अर्थात, ये घटनाएँ परस्पर अनन्य और संपूर्ण हैं
एक विशेष मामला, (कुल अपेक्षा के कानून के समान) कहता है कि यदि <math>A_1, \ldots, A_n</math> संपूर्ण परिणाम स्थान का एक विभाजन है, अर्थात, ये घटनाएँ परस्पर अनन्य और संपूर्ण हैं
Line 20: Line 20:
& {} - 2\sum_{i=2}^n \sum_{j=1}^{i-1} \operatorname{E}[X \mid A_i] \Pr(A_i)\operatorname{E}[X\mid A_j] \Pr(A_j).
& {} - 2\sum_{i=2}^n \sum_{j=1}^{i-1} \operatorname{E}[X \mid A_i] \Pr(A_i)\operatorname{E}[X\mid A_j] \Pr(A_j).
\end{align}</math>
\end{align}</math>
इस सूत्र में, पहला घटक सशर्त भिन्नता की अपेक्षा है; अन्य दो घटक सशर्त अपेक्षा के विचरण हैं।
इस सूत्र में, पहला घटक नियम भिन्नता की अपेक्षा है; अन्य दो घटक नियम अपेक्षा के विचरण हैं।


== प्रमाण ==
== प्रमाण ==
Line 28: Line 28:
विचरण की परिभाषा से। फिर से, विचरण की परिभाषा से, और कुल अपेक्षा के नियम को लागू करने से, हमारे पास है
विचरण की परिभाषा से। फिर से, विचरण की परिभाषा से, और कुल अपेक्षा के नियम को लागू करने से, हमारे पास है
<math display=block>\operatorname{E}\left[Y^2\right] = \operatorname{E}\left[\operatorname{E}[Y^2\mid X]\right] = \operatorname{E} \left[\operatorname{Var}[Y \mid X] + [\operatorname{E}[Y \mid X]]^2\right].</math>
<math display=block>\operatorname{E}\left[Y^2\right] = \operatorname{E}\left[\operatorname{E}[Y^2\mid X]\right] = \operatorname{E} \left[\operatorname{Var}[Y \mid X] + [\operatorname{E}[Y \mid X]]^2\right].</math>
अब हम के सशर्त दूसरे क्षण को फिर से लिखते हैं <math>Y</math> इसके विचरण और पहले क्षण के संदर्भ में, और दाहिनी ओर कुल अपेक्षा के नियम को लागू करें:
अब हम के नियम दूसरे क्षण को फिर से लिखते हैं <math>Y</math> इसके विचरण और पहले क्षण के संदर्भ में, और दाहिनी ओर कुल अपेक्षा के नियम को लागू करें:
<math display=block>\operatorname{E}\left[Y^2\right] - \operatorname{E}[Y]^2 = \operatorname{E} \left[\operatorname{Var}[Y \mid X] + [\operatorname{E}[Y \mid X]]^2\right] - [\operatorname{E} [\operatorname{E}[Y \mid X]]]^2.</math>
<math display=block>\operatorname{E}\left[Y^2\right] - \operatorname{E}[Y]^2 = \operatorname{E} \left[\operatorname{Var}[Y \mid X] + [\operatorname{E}[Y \mid X]]^2\right] - [\operatorname{E} [\operatorname{E}[Y \mid X]]]^2.</math>
चूंकि किसी राशि की अपेक्षा अपेक्षाओं का योग है, इसलिए शर्तों को अब पुनर्समूहित किया जा सकता है:
चूंकि किसी राशि की अपेक्षा अपेक्षाओं का योग है, इसलिए शर्तों को अब पुनर्समूहित किया जा सकता है:
<math display=block>= \left(\operatorname{E} [\operatorname{Var}[Y \mid X]]\right) + \left(\operatorname{E} \left[\operatorname{E}[Y \mid X]^2\right] - [\operatorname{E} [\operatorname{E}[Y \mid X]]]^2\right).</math>
<math display=block>= \left(\operatorname{E} [\operatorname{Var}[Y \mid X]]\right) + \left(\operatorname{E} \left[\operatorname{E}[Y \mid X]^2\right] - [\operatorname{E} [\operatorname{E}[Y \mid X]]]^2\right).</math>
अंत में, हम कोष्ठक के दूसरे सेट में शर्तों को सशर्त अपेक्षा के विचरण के रूप में पहचानते हैं <math>\operatorname{E}[Y \mid X]</math>:
अंत में, हम कोष्ठक के दूसरे सेट में शर्तों को नियम अपेक्षा के विचरण के रूप में पहचानते हैं <math>\operatorname{E}[Y \mid X]</math>:
<math display=block>= \operatorname{E} [\operatorname{Var}[Y \mid X]] + \operatorname{Var} [\operatorname{E}[Y \mid X]].</math>
<math display=block>= \operatorname{E} [\operatorname{Var}[Y \mid X]] + \operatorname{Var} [\operatorname{E}[Y \mid X]].</math>


Line 48: Line 48:
== सहसंबंध का वर्ग और समझाया गया (या सूचनात्मक) भिन्नता ==
== सहसंबंध का वर्ग और समझाया गया (या सूचनात्मक) भिन्नता ==


जिन मामलों में <math>(Y, X)</math> ऐसे हैं कि सशर्त अपेक्षित मान रैखिक है; यानी ऐसे मामलों में जहां
जिन मामलों में <math>(Y, X)</math> ऐसे हैं कि नियम अपेक्षित मान रैखिक है; यानी ऐसे मामलों में जहां
<math display=block>\operatorname{E}(Y \mid X) = a X + b,</math>
<math display=block>\operatorname{E}(Y \mid X) = a X + b,</math>
यह सहप्रसरण की द्विरेखीयता से अनुसरण करता है
यह सहप्रसरण की द्विरेखीयता से अनुसरण करता है
Line 58: Line 58:
इस स्थिति का एक उदाहरण है जब <math>(X, Y)</math> द्विचर सामान्य (गाऊसी) वितरण है।
इस स्थिति का एक उदाहरण है जब <math>(X, Y)</math> द्विचर सामान्य (गाऊसी) वितरण है।


अधिक सामान्यतः, जब सशर्त अपेक्षा <math>\operatorname{E}(Y \mid X)</math> का एक अरैखिक फलन है <math>X</math><ref name=bs />
अधिक सामान्यतः, जब नियम अपेक्षा <math>\operatorname{E}(Y \mid X)</math> का एक अरैखिक फलन है <math>X</math><ref name=bs />
<math display=block>\iota_{Y\mid X} = {\operatorname{Var}(\operatorname{E}(Y \mid X)) \over \operatorname{Var}(Y)} = \operatorname{Corr}(\operatorname{E}(Y \mid X), Y)^2,</math>
<math display=block>\iota_{Y\mid X} = {\operatorname{Var}(\operatorname{E}(Y \mid X)) \over \operatorname{Var}(Y)} = \operatorname{Corr}(\operatorname{E}(Y \mid X), Y)^2,</math>
जिसका अनुमान लगाया जा सकता है <math>R</math> के एक गैर रेखीय प्रतिगमन से चुकता <math>Y</math> पर <math>X,</math> के संयुक्त वितरण से प्राप्त आंकड़ों का उपयोग करना <math>(X, Y).</math> कब <math>\operatorname{E}(Y \mid X)</math> एक गाऊसी वितरण है (और का एक व्युत्क्रमणीय फलन है <math>X</math>), या <math>Y</math> अपने आप में एक (सीमांत) गॉसियन वितरण है, भिन्नता का यह समझाया गया घटक पारस्परिक जानकारी पर एक निचली सीमा निर्धारित करता है:<ref name=bs />
जिसका अनुमान लगाया जा सकता है <math>R</math> के एक गैर रेखीय प्रतिगमन से चुकता <math>Y</math> पर <math>X,</math> के संयुक्त वितरण से प्राप्त आंकड़ों का उपयोग करना <math>(X, Y).</math> कब <math>\operatorname{E}(Y \mid X)</math> एक गाऊसी वितरण है (और का एक व्युत्क्रमणीय फलन है <math>X</math>), या <math>Y</math> अपने आप में एक (सीमांत) गॉसियन वितरण है, भिन्नता का यह समझाया गया घटक पारस्परिक जानकारी पर एक निचली सीमा निर्धारित करता है:<ref name=bs />
Line 72: Line 72:
== यह भी देखें ==
== यह भी देखें ==


* {{annotated link|Law of total covariance}} - एक सामान्यीकरण
* {{annotated link|कुल सहप्रसरण का नियम}} - एक सामान्यीकरण
* {{annotated link|Law of propagation of errors}}
* {{annotated link|त्रुटियों के प्रसार का नियम}}


==संदर्भ==
==संदर्भ==

Revision as of 09:24, 23 April 2023

संभाव्यता सिद्धांत में, कुल विचरण का नियम[1] या विचरण अपघटन सूत्र या नियम विचरण सूत्र या पुनरावृत्त प्रसरण के नियम को ईव के नियम के रूप में भी जाना जाता है,[2] बताता है कि यादि और एक ही प्रायिकता स्थान पर यादृच्छिक चर हैं, और का विचरण परिमित है, तो

संभाव्यता सिद्धांतकारों की तुलना में शायद सांख्यिकीविदों के लिए बेहतर ज्ञात भाषा में, दो शब्द क्रमशः अस्पष्टीकृत और विचरण के समझाए गए घटक हैं (cf. विचरण का अंश अस्पष्टीकृत, व्याख्यात्मक भिन्नता)। जिवानांकिकी में, विशेष रूप से विश्वसनीयता सिद्धांत, पहले घटक को प्रक्रिया विचरण (ईवीपीवी) का अपेक्षित मूल्य कहा जाता है और दूसरे को काल्पनिक साधनों (वीएचएम) का विचरण कहा जाता है।[3] ये दो घटक ईव के नियम शब्द के स्रोत भी हैं, प्रारंभिक EV VE से विचरण की अपेक्षा और अपेक्षा के विचरण के लिए।

सूत्रीकरण

के लिए एक सामान्य विचरण अपघटन सूत्र है घटक (नीचे देखें)।[4] उदाहरण के लिए, दो कंडीशनिंग यादृच्छिक चर के साथ:

जो कुल नियम भिन्नता के कानून से निम्नानुसार है:[4]
ध्यान दें कि नियम अपेक्षित मान अपने आप में एक यादृच्छिक चर है, जिसका मान के मान पर निर्भर करता है ध्यान दें कि नियम अपेक्षित मान देखते हुए event का एक कार्य है (यह वह जगह है जहां संभाव्यता सिद्धांत के पारंपरिक और कठोर केस-संवेदी अंकन का पालन महत्वपूर्ण हो जाता है!)। यादि हम लिखते हैं फिर यादृच्छिक चर बस है इसी तरह की टिप्पणियां नियम भिन्नता पर लागू होती हैं।

एक विशेष मामला, (कुल अपेक्षा के कानून के समान) कहता है कि यदि संपूर्ण परिणाम स्थान का एक विभाजन है, अर्थात, ये घटनाएँ परस्पर अनन्य और संपूर्ण हैं

इस सूत्र में, पहला घटक नियम भिन्नता की अपेक्षा है; अन्य दो घटक नियम अपेक्षा के विचरण हैं।

प्रमाण

कुल अपेक्षा के कानून का उपयोग करके कुल भिन्नता का कानून साबित किया जा सकता है।[5] पहला,

विचरण की परिभाषा से। फिर से, विचरण की परिभाषा से, और कुल अपेक्षा के नियम को लागू करने से, हमारे पास है
अब हम के नियम दूसरे क्षण को फिर से लिखते हैं इसके विचरण और पहले क्षण के संदर्भ में, और दाहिनी ओर कुल अपेक्षा के नियम को लागू करें:
चूंकि किसी राशि की अपेक्षा अपेक्षाओं का योग है, इसलिए शर्तों को अब पुनर्समूहित किया जा सकता है:
अंत में, हम कोष्ठक के दूसरे सेट में शर्तों को नियम अपेक्षा के विचरण के रूप में पहचानते हैं :


गतिशील प्रणालियों पर लागू सामान्य विचरण अपघटन

निम्न सूत्र दिखाता है कि सामान्य को कैसे लागू किया जाए, सैद्धांतिक विचरण अपघटन सूत्र को मापें [4]स्टोकेस्टिक डायनेमिक सिस्टम के लिए। होने देना समय पर सिस्टम चर का मान हो मान लीजिए कि हमारे पास आंतरिक इतिहास (प्राकृतिक फ़िल्टरिंग) है , सिस्टम चर के एक अलग संग्रह के इतिहास (प्रक्षेपवक्र) के अनुरूप प्रत्येक। संग्रहों को अलग करने की आवश्यकता नहीं है। का विचरण हमेशा के लिए विघटित किया जा सकता है में घटक निम्नानुसार हैं:

अपघटन अद्वितीय नहीं है। यह अनुक्रमिक अपघटन में कंडीशनिंग के क्रम पर निर्भर करता है।

सहसंबंध का वर्ग और समझाया गया (या सूचनात्मक) भिन्नता

जिन मामलों में ऐसे हैं कि नियम अपेक्षित मान रैखिक है; यानी ऐसे मामलों में जहां

यह सहप्रसरण की द्विरेखीयता से अनुसरण करता है

 

और

और कुल भिन्नता से विभाजित भिन्नता का समझाया गया घटक केवल सहसंबंध का वर्ग है और यानी ऐसे मामलों में
इस स्थिति का एक उदाहरण है जब द्विचर सामान्य (गाऊसी) वितरण है।

अधिक सामान्यतः, जब नियम अपेक्षा का एक अरैखिक फलन है [4]

जिसका अनुमान लगाया जा सकता है के एक गैर रेखीय प्रतिगमन से चुकता पर के संयुक्त वितरण से प्राप्त आंकड़ों का उपयोग करना कब एक गाऊसी वितरण है (और का एक व्युत्क्रमणीय फलन है ), या अपने आप में एक (सीमांत) गॉसियन वितरण है, भिन्नता का यह समझाया गया घटक पारस्परिक जानकारी पर एक निचली सीमा निर्धारित करता है:[4]


उच्च क्षण

तीसरे केंद्रीय क्षण के लिए समान कानून कहते हैं

उच्च संचयकों के लिए, एक सामान्यीकरण मौजूद है। कुल संचयन का नियम देखें।

यह भी देखें

संदर्भ

  1. Neil A. Weiss, A Course in Probability, Addison–Wesley, 2005, pages 385–386.
  2. Joseph K. Blitzstein and Jessica Hwang: "Introduction to Probability"
  3. Mahler, Howard C.; Dean, Curtis Gary (2001). "Chapter 8: Credibility" (PDF). In Casualty Actuarial Society (ed.). कैजुअल्टी एक्चुरियल साइंस की नींव (4th ed.). Casualty Actuarial Society. pp. 525–526. ISBN 978-0-96247-622-8. Retrieved June 25, 2015.
  4. 4.0 4.1 4.2 4.3 4.4 Bowsher, C.G. and P.S. Swain, Identifying sources of variation and the flow of information in biochemical networks, PNAS May 15, 2012 109 (20) E1320-E1328.
  5. Neil A. Weiss, A Course in Probability, Addison–Wesley, 2005, pages 380–383.
  • Blitzstein, Joe. "Stat 110 Final Review (Eve's Law)" (PDF). stat110.net. Harvard University, Department of Statistics. Retrieved 9 July 2014.
  • Billingsley, Patrick (1995). Probability and Measure. New York, NY: John Wiley & Sons, Inc. ISBN 0-471-00710-2. (Problem 34.10(b))