कुल विचरण का नियम: Difference between revisions
(Created page with "{{Short description|Theorem in probability theory}} संभाव्यता सिद्धांत में, कुल विचरण का नियम<ref>Neil A. W...") |
No edit summary |
||
Line 1: | Line 1: | ||
{{Short description|Theorem in probability theory}} | {{Short description|Theorem in probability theory}} | ||
संभाव्यता सिद्धांत में, कुल विचरण का नियम<ref>Neil A. Weiss, ''A Course in Probability'', Addison–Wesley, 2005, pages 385–386.</ref> या विचरण अपघटन सूत्र या | संभाव्यता सिद्धांत में, कुल विचरण का नियम<ref>Neil A. Weiss, ''A Course in Probability'', Addison–Wesley, 2005, pages 385–386.</ref> या विचरण अपघटन सूत्र या नियम विचरण सूत्र या पुनरावृत्त प्रसरण के नियम को ईव के नियम के रूप में भी जाना जाता है,<ref> Joseph K. Blitzstein and Jessica Hwang: "Introduction to Probability"</ref> बताता है कि यादि <math>X</math> और <math>Y</math> एक ही प्रायिकता स्थान पर यादृच्छिक चर हैं, और का विचरण <math>Y</math> परिमित है, तो | ||
<math display=block> | <math display=block> | ||
Line 11: | Line 11: | ||
के लिए एक सामान्य विचरण अपघटन सूत्र है <math>c \geq 2</math> घटक (नीचे देखें)।<ref name=bs>Bowsher, C.G. and P.S. Swain, Identifying sources of variation and the flow of information in biochemical networks, PNAS May 15, 2012 109 (20) E1320-E1328.</ref> उदाहरण के लिए, दो कंडीशनिंग यादृच्छिक चर के साथ: | के लिए एक सामान्य विचरण अपघटन सूत्र है <math>c \geq 2</math> घटक (नीचे देखें)।<ref name=bs>Bowsher, C.G. and P.S. Swain, Identifying sources of variation and the flow of information in biochemical networks, PNAS May 15, 2012 109 (20) E1320-E1328.</ref> उदाहरण के लिए, दो कंडीशनिंग यादृच्छिक चर के साथ: | ||
<math display=block>\operatorname{Var}[Y] = \operatorname{E}\left[\operatorname{Var}\left(Y \mid X_1, X_2\right)\right] + \operatorname{E}[\operatorname{Var}(\operatorname{E}\left[Y \mid X_1, X_2\right] \mid X_1)] + \operatorname{Var}(\operatorname{E}\left[Y \mid X_1\right]),</math> | <math display=block>\operatorname{Var}[Y] = \operatorname{E}\left[\operatorname{Var}\left(Y \mid X_1, X_2\right)\right] + \operatorname{E}[\operatorname{Var}(\operatorname{E}\left[Y \mid X_1, X_2\right] \mid X_1)] + \operatorname{Var}(\operatorname{E}\left[Y \mid X_1\right]),</math> | ||
जो कुल | जो कुल नियम भिन्नता के कानून से निम्नानुसार है:<ref name=bs /> | ||
<math display=block>\operatorname{Var}(Y \mid X_1) = \operatorname{E} \left[\operatorname{Var}(Y \mid X_1, X_2) \mid X_1\right] + \operatorname{Var} \left(\operatorname{E}\left[Y \mid X_1, X_2 \right] \mid X_1\right).</math> | <math display=block>\operatorname{Var}(Y \mid X_1) = \operatorname{E} \left[\operatorname{Var}(Y \mid X_1, X_2) \mid X_1\right] + \operatorname{Var} \left(\operatorname{E}\left[Y \mid X_1, X_2 \right] \mid X_1\right).</math> | ||
ध्यान दें कि | ध्यान दें कि नियम अपेक्षित मान <math>\operatorname{E}(Y \mid X)</math> अपने आप में एक यादृच्छिक चर है, जिसका मान के मान पर निर्भर करता है <math>X.</math> ध्यान दें कि नियम अपेक्षित मान <math>Y</math> देखते हुए {{em|event}} <math>X = x</math> का एक कार्य है <math>x</math> (यह वह जगह है जहां संभाव्यता सिद्धांत के पारंपरिक और कठोर केस-संवेदी अंकन का पालन महत्वपूर्ण हो जाता है!)। यादि हम लिखते हैं <math>\operatorname{E}(Y \mid X = x) = g(x)</math> फिर यादृच्छिक चर <math>\operatorname{E}(Y \mid X)</math> बस है <math>g(X).</math> इसी तरह की टिप्पणियां नियम भिन्नता पर लागू होती हैं। | ||
एक विशेष मामला, (कुल अपेक्षा के कानून के समान) कहता है कि यदि <math>A_1, \ldots, A_n</math> संपूर्ण परिणाम स्थान का एक विभाजन है, अर्थात, ये घटनाएँ परस्पर अनन्य और संपूर्ण हैं | एक विशेष मामला, (कुल अपेक्षा के कानून के समान) कहता है कि यदि <math>A_1, \ldots, A_n</math> संपूर्ण परिणाम स्थान का एक विभाजन है, अर्थात, ये घटनाएँ परस्पर अनन्य और संपूर्ण हैं | ||
Line 20: | Line 20: | ||
& {} - 2\sum_{i=2}^n \sum_{j=1}^{i-1} \operatorname{E}[X \mid A_i] \Pr(A_i)\operatorname{E}[X\mid A_j] \Pr(A_j). | & {} - 2\sum_{i=2}^n \sum_{j=1}^{i-1} \operatorname{E}[X \mid A_i] \Pr(A_i)\operatorname{E}[X\mid A_j] \Pr(A_j). | ||
\end{align}</math> | \end{align}</math> | ||
इस सूत्र में, पहला घटक | इस सूत्र में, पहला घटक नियम भिन्नता की अपेक्षा है; अन्य दो घटक नियम अपेक्षा के विचरण हैं। | ||
== प्रमाण == | == प्रमाण == | ||
Line 28: | Line 28: | ||
विचरण की परिभाषा से। फिर से, विचरण की परिभाषा से, और कुल अपेक्षा के नियम को लागू करने से, हमारे पास है | विचरण की परिभाषा से। फिर से, विचरण की परिभाषा से, और कुल अपेक्षा के नियम को लागू करने से, हमारे पास है | ||
<math display=block>\operatorname{E}\left[Y^2\right] = \operatorname{E}\left[\operatorname{E}[Y^2\mid X]\right] = \operatorname{E} \left[\operatorname{Var}[Y \mid X] + [\operatorname{E}[Y \mid X]]^2\right].</math> | <math display=block>\operatorname{E}\left[Y^2\right] = \operatorname{E}\left[\operatorname{E}[Y^2\mid X]\right] = \operatorname{E} \left[\operatorname{Var}[Y \mid X] + [\operatorname{E}[Y \mid X]]^2\right].</math> | ||
अब हम के | अब हम के नियम दूसरे क्षण को फिर से लिखते हैं <math>Y</math> इसके विचरण और पहले क्षण के संदर्भ में, और दाहिनी ओर कुल अपेक्षा के नियम को लागू करें: | ||
<math display=block>\operatorname{E}\left[Y^2\right] - \operatorname{E}[Y]^2 = \operatorname{E} \left[\operatorname{Var}[Y \mid X] + [\operatorname{E}[Y \mid X]]^2\right] - [\operatorname{E} [\operatorname{E}[Y \mid X]]]^2.</math> | <math display=block>\operatorname{E}\left[Y^2\right] - \operatorname{E}[Y]^2 = \operatorname{E} \left[\operatorname{Var}[Y \mid X] + [\operatorname{E}[Y \mid X]]^2\right] - [\operatorname{E} [\operatorname{E}[Y \mid X]]]^2.</math> | ||
चूंकि किसी राशि की अपेक्षा अपेक्षाओं का योग है, इसलिए शर्तों को अब पुनर्समूहित किया जा सकता है: | चूंकि किसी राशि की अपेक्षा अपेक्षाओं का योग है, इसलिए शर्तों को अब पुनर्समूहित किया जा सकता है: | ||
<math display=block>= \left(\operatorname{E} [\operatorname{Var}[Y \mid X]]\right) + \left(\operatorname{E} \left[\operatorname{E}[Y \mid X]^2\right] - [\operatorname{E} [\operatorname{E}[Y \mid X]]]^2\right).</math> | <math display=block>= \left(\operatorname{E} [\operatorname{Var}[Y \mid X]]\right) + \left(\operatorname{E} \left[\operatorname{E}[Y \mid X]^2\right] - [\operatorname{E} [\operatorname{E}[Y \mid X]]]^2\right).</math> | ||
अंत में, हम कोष्ठक के दूसरे सेट में शर्तों को | अंत में, हम कोष्ठक के दूसरे सेट में शर्तों को नियम अपेक्षा के विचरण के रूप में पहचानते हैं <math>\operatorname{E}[Y \mid X]</math>: | ||
<math display=block>= \operatorname{E} [\operatorname{Var}[Y \mid X]] + \operatorname{Var} [\operatorname{E}[Y \mid X]].</math> | <math display=block>= \operatorname{E} [\operatorname{Var}[Y \mid X]] + \operatorname{Var} [\operatorname{E}[Y \mid X]].</math> | ||
Line 48: | Line 48: | ||
== सहसंबंध का वर्ग और समझाया गया (या सूचनात्मक) भिन्नता == | == सहसंबंध का वर्ग और समझाया गया (या सूचनात्मक) भिन्नता == | ||
जिन मामलों में <math>(Y, X)</math> ऐसे हैं कि | जिन मामलों में <math>(Y, X)</math> ऐसे हैं कि नियम अपेक्षित मान रैखिक है; यानी ऐसे मामलों में जहां | ||
<math display=block>\operatorname{E}(Y \mid X) = a X + b,</math> | <math display=block>\operatorname{E}(Y \mid X) = a X + b,</math> | ||
यह सहप्रसरण की द्विरेखीयता से अनुसरण करता है | यह सहप्रसरण की द्विरेखीयता से अनुसरण करता है | ||
Line 58: | Line 58: | ||
इस स्थिति का एक उदाहरण है जब <math>(X, Y)</math> द्विचर सामान्य (गाऊसी) वितरण है। | इस स्थिति का एक उदाहरण है जब <math>(X, Y)</math> द्विचर सामान्य (गाऊसी) वितरण है। | ||
अधिक सामान्यतः, जब | अधिक सामान्यतः, जब नियम अपेक्षा <math>\operatorname{E}(Y \mid X)</math> का एक अरैखिक फलन है <math>X</math><ref name=bs /> | ||
<math display=block>\iota_{Y\mid X} = {\operatorname{Var}(\operatorname{E}(Y \mid X)) \over \operatorname{Var}(Y)} = \operatorname{Corr}(\operatorname{E}(Y \mid X), Y)^2,</math> | <math display=block>\iota_{Y\mid X} = {\operatorname{Var}(\operatorname{E}(Y \mid X)) \over \operatorname{Var}(Y)} = \operatorname{Corr}(\operatorname{E}(Y \mid X), Y)^2,</math> | ||
जिसका अनुमान लगाया जा सकता है <math>R</math> के एक गैर रेखीय प्रतिगमन से चुकता <math>Y</math> पर <math>X,</math> के संयुक्त वितरण से प्राप्त आंकड़ों का उपयोग करना <math>(X, Y).</math> कब <math>\operatorname{E}(Y \mid X)</math> एक गाऊसी वितरण है (और का एक व्युत्क्रमणीय फलन है <math>X</math>), या <math>Y</math> अपने आप में एक (सीमांत) गॉसियन वितरण है, भिन्नता का यह समझाया गया घटक पारस्परिक जानकारी पर एक निचली सीमा निर्धारित करता है:<ref name=bs /> | जिसका अनुमान लगाया जा सकता है <math>R</math> के एक गैर रेखीय प्रतिगमन से चुकता <math>Y</math> पर <math>X,</math> के संयुक्त वितरण से प्राप्त आंकड़ों का उपयोग करना <math>(X, Y).</math> कब <math>\operatorname{E}(Y \mid X)</math> एक गाऊसी वितरण है (और का एक व्युत्क्रमणीय फलन है <math>X</math>), या <math>Y</math> अपने आप में एक (सीमांत) गॉसियन वितरण है, भिन्नता का यह समझाया गया घटक पारस्परिक जानकारी पर एक निचली सीमा निर्धारित करता है:<ref name=bs /> | ||
Line 72: | Line 72: | ||
== यह भी देखें == | == यह भी देखें == | ||
* {{annotated link| | * {{annotated link|कुल सहप्रसरण का नियम}} - एक सामान्यीकरण | ||
* {{annotated link| | * {{annotated link|त्रुटियों के प्रसार का नियम}} | ||
==संदर्भ== | ==संदर्भ== |
Revision as of 09:24, 23 April 2023
संभाव्यता सिद्धांत में, कुल विचरण का नियम[1] या विचरण अपघटन सूत्र या नियम विचरण सूत्र या पुनरावृत्त प्रसरण के नियम को ईव के नियम के रूप में भी जाना जाता है,[2] बताता है कि यादि और एक ही प्रायिकता स्थान पर यादृच्छिक चर हैं, और का विचरण परिमित है, तो
सूत्रीकरण
के लिए एक सामान्य विचरण अपघटन सूत्र है घटक (नीचे देखें)।[4] उदाहरण के लिए, दो कंडीशनिंग यादृच्छिक चर के साथ:
एक विशेष मामला, (कुल अपेक्षा के कानून के समान) कहता है कि यदि संपूर्ण परिणाम स्थान का एक विभाजन है, अर्थात, ये घटनाएँ परस्पर अनन्य और संपूर्ण हैं
प्रमाण
कुल अपेक्षा के कानून का उपयोग करके कुल भिन्नता का कानून साबित किया जा सकता है।[5] पहला,
गतिशील प्रणालियों पर लागू सामान्य विचरण अपघटन
निम्न सूत्र दिखाता है कि सामान्य को कैसे लागू किया जाए, सैद्धांतिक विचरण अपघटन सूत्र को मापें [4]स्टोकेस्टिक डायनेमिक सिस्टम के लिए। होने देना समय पर सिस्टम चर का मान हो मान लीजिए कि हमारे पास आंतरिक इतिहास (प्राकृतिक फ़िल्टरिंग) है , सिस्टम चर के एक अलग संग्रह के इतिहास (प्रक्षेपवक्र) के अनुरूप प्रत्येक। संग्रहों को अलग करने की आवश्यकता नहीं है। का विचरण हमेशा के लिए विघटित किया जा सकता है में घटक निम्नानुसार हैं:
सहसंबंध का वर्ग और समझाया गया (या सूचनात्मक) भिन्नता
जिन मामलों में ऐसे हैं कि नियम अपेक्षित मान रैखिक है; यानी ऐसे मामलों में जहां
और
अधिक सामान्यतः, जब नियम अपेक्षा का एक अरैखिक फलन है [4]
उच्च क्षण
तीसरे केंद्रीय क्षण के लिए समान कानून कहते हैं
यह भी देखें
- कुल सहप्रसरण का नियम - एक सामान्यीकरण
- त्रुटियों के प्रसार का नियम
संदर्भ
- ↑ Neil A. Weiss, A Course in Probability, Addison–Wesley, 2005, pages 385–386.
- ↑ Joseph K. Blitzstein and Jessica Hwang: "Introduction to Probability"
- ↑ Mahler, Howard C.; Dean, Curtis Gary (2001). "Chapter 8: Credibility" (PDF). In Casualty Actuarial Society (ed.). कैजुअल्टी एक्चुरियल साइंस की नींव (4th ed.). Casualty Actuarial Society. pp. 525–526. ISBN 978-0-96247-622-8. Retrieved June 25, 2015.
- ↑ 4.0 4.1 4.2 4.3 4.4 Bowsher, C.G. and P.S. Swain, Identifying sources of variation and the flow of information in biochemical networks, PNAS May 15, 2012 109 (20) E1320-E1328.
- ↑ Neil A. Weiss, A Course in Probability, Addison–Wesley, 2005, pages 380–383.
- Blitzstein, Joe. "Stat 110 Final Review (Eve's Law)" (PDF). stat110.net. Harvard University, Department of Statistics. Retrieved 9 July 2014.
- Billingsley, Patrick (1995). Probability and Measure. New York, NY: John Wiley & Sons, Inc. ISBN 0-471-00710-2. (Problem 34.10(b))