कुल विचरण का नियम: Difference between revisions
No edit summary |
No edit summary |
||
(7 intermediate revisions by 3 users not shown) | |||
Line 1: | Line 1: | ||
{{Short description|Theorem in probability theory}} | {{Short description|Theorem in probability theory}} | ||
संभाव्यता सिद्धांत में, कुल विचरण का नियम<ref>Neil A. Weiss, ''A Course in Probability'', Addison–Wesley, 2005, pages 385–386.</ref> या विचरण अपघटन सूत्र या नियम विचरण सूत्र या पुनरावृत्त प्रसरण के नियम को ईव के नियम के रूप में भी जाना जाता है,<ref> Joseph K. Blitzstein and Jessica Hwang: "Introduction to Probability"</ref> बताता है कि यादि <math>X</math> और <math>Y</math> एक ही प्रायिकता स्थान पर यादृच्छिक चर हैं, और | संभाव्यता सिद्धांत में, कुल विचरण का नियम<ref>Neil A. Weiss, ''A Course in Probability'', Addison–Wesley, 2005, pages 385–386.</ref> या विचरण अपघटन सूत्र या नियम विचरण सूत्र या पुनरावृत्त प्रसरण के नियम को ईव के नियम के रूप में भी जाना जाता है,<ref> Joseph K. Blitzstein and Jessica Hwang: "Introduction to Probability"</ref> बताता है कि यादि <math>X</math> और <math>Y</math> एक ही प्रायिकता स्थान पर यादृच्छिक चर हैं, और तब <math>Y</math> का प्रसरण परिमित है | ||
<math display=block> | <math display=block> | ||
\operatorname{Var_Y}(Y) = \operatorname{E_X}[\operatorname{Var_Y}(Y \mid X)] + \operatorname{Var_X}(\operatorname{E_Y}[Y \mid X]). | \operatorname{Var_Y}(Y) = \operatorname{E_X}[\operatorname{Var_Y}(Y \mid X)] + \operatorname{Var_X}(\operatorname{E_Y}[Y \mid X]). | ||
</math> | </math> | ||
संभाव्यता सिद्धांतकारों की तुलना में शायद सांख्यिकीविदों के लिए बेहतर ज्ञात भाषा में, दो शब्द क्रमशः अस्पष्टीकृत और विचरण के समझाए गए घटक हैं (cf. [[विचरण का अंश अस्पष्टीकृत]], व्याख्यात्मक भिन्नता)। [[ जिवानांकिकी ]] में, विशेष रूप से [[विश्वसनीयता सिद्धांत]], पहले घटक को प्रक्रिया विचरण (ईवीपीवी) का अपेक्षित | संभाव्यता सिद्धांतकारों की तुलना में शायद सांख्यिकीविदों के लिए बेहतर ज्ञात भाषा में, दो शब्द क्रमशः अस्पष्टीकृत और विचरण के समझाए गए घटक हैं (cf. [[विचरण का अंश अस्पष्टीकृत]], व्याख्यात्मक भिन्नता)। [[ जिवानांकिकी |जिवानांकिकी]] में, विशेष रूप से [[विश्वसनीयता सिद्धांत]], पहले घटक को प्रक्रिया विचरण (ईवीपीवी) का अपेक्षित मान कहा जाता है और दूसरे को काल्पनिक साधनों (वीएचएम) का विचरण कहा जाता है।<ref name = "FCAS4ed">{{cite book |last1= Mahler|first1= Howard C. |last2= Dean|first2= Curtis Gary|year= 2001 |chapter= Chapter 8: Credibility |chapter-url= http://people.stat.sfu.ca/~cltsai/ACMA315/Ch8_Credibility.pdf |editor1-last= [[Casualty Actuarial Society]] |title= कैजुअल्टी एक्चुरियल साइंस की नींव|edition= 4th |publisher= [[Casualty Actuarial Society]] |pages= 525–526 |isbn= 978-0-96247-622-8|access-date= June 25, 2015}}</ref> ये दो घटक प्रारंभिक ईवी वीई से "प्रसरण की अपेक्षा" और "उम्मीद की भिन्नता" शब्द "ईव के नियम" का स्रोत भी हैं। | ||
== सूत्रीकरण == | == सूत्रीकरण == | ||
<math>c \geq 2</math> घटकों के लिए एक सामान्य प्रसरण अपघटन सूत्र है (नीचे देखें)<ref name=bs>Bowsher, C.G. and P.S. Swain, Identifying sources of variation and the flow of information in biochemical networks, PNAS May 15, 2012 109 (20) E1320-E1328.</ref>। उदाहरण के लिए दो अनुकूलन यादृच्छिक चर के साथ: | |||
<math display=block>\operatorname{Var}[Y] = \operatorname{E}\left[\operatorname{Var}\left(Y \mid X_1, X_2\right)\right] + \operatorname{E}[\operatorname{Var}(\operatorname{E}\left[Y \mid X_1, X_2\right] \mid X_1)] + \operatorname{Var}(\operatorname{E}\left[Y \mid X_1\right]),</math> | <math display=block>\operatorname{Var}[Y] = \operatorname{E}\left[\operatorname{Var}\left(Y \mid X_1, X_2\right)\right] + \operatorname{E}[\operatorname{Var}(\operatorname{E}\left[Y \mid X_1, X_2\right] \mid X_1)] + \operatorname{Var}(\operatorname{E}\left[Y \mid X_1\right]),</math> | ||
जो कुल नियम भिन्नता के | जो कुल नियम भिन्नता के नियम से निम्नानुसार है:<ref name=bs /> | ||
<math display=block>\operatorname{Var}(Y \mid X_1) = \operatorname{E} \left[\operatorname{Var}(Y \mid X_1, X_2) \mid X_1\right] + \operatorname{Var} \left(\operatorname{E}\left[Y \mid X_1, X_2 \right] \mid X_1\right).</math> | <math display=block>\operatorname{Var}(Y \mid X_1) = \operatorname{E} \left[\operatorname{Var}(Y \mid X_1, X_2) \mid X_1\right] + \operatorname{Var} \left(\operatorname{E}\left[Y \mid X_1, X_2 \right] \mid X_1\right).</math> | ||
ध्यान दें कि नियम अपेक्षित मान <math>\operatorname{E}(Y \mid X)</math> अपने आप में एक यादृच्छिक चर है, जिसका मान | ध्यान दें कि नियम अपेक्षित मान <math>\operatorname{E}(Y \mid X)</math> अपने आप में एक यादृच्छिक चर है, जिसका मान <math>X.</math> के मान पर निर्भर करता है ध्यान दें कि <math>Y</math> नियम अपेक्षित मान देखते हुए {{em|event}} <math>X = x</math> का एक <math>x</math> कार्य है (यह वह जगह है जहां संभाव्यता सिद्धांत के पारंपरिक और कठोर केस-संवेदी अंकन का पालन महत्वपूर्ण हो जाता है!)। यादि हम <math>\operatorname{E}(Y \mid X = x) = g(x)</math> लिखते हैं फिर यादृच्छिक चर <math>\operatorname{E}(Y \mid X)</math> बस <math>g(X).</math> इसी तरह की टिप्पणियां नियम भिन्नता पर प्रयुक्त होती हैं। | ||
एक विशेष | एक विशेष स्थिति , (कुल अपेक्षा के नियम के समान) कहता है कि यदि <math>A_1, \ldots, A_n</math> संपूर्ण परिणाम स्थान का एक विभाजन है, अर्थात, ये घटनाएँ परस्पर अनन्य और संपूर्ण हैं | ||
<math display=block>\begin{align} | <math display=block>\begin{align} | ||
\operatorname{Var} (X) = {} & \sum_{i=1}^n \operatorname{Var}(X\mid A_i) \Pr(A_i) + \sum_{i=1}^n \operatorname{E}[X\mid A_i]^2 (1-\Pr(A_i))\Pr(A_i) \\[4pt] | \operatorname{Var} (X) = {} & \sum_{i=1}^n \operatorname{Var}(X\mid A_i) \Pr(A_i) + \sum_{i=1}^n \operatorname{E}[X\mid A_i]^2 (1-\Pr(A_i))\Pr(A_i) \\[4pt] | ||
Line 24: | Line 24: | ||
== प्रमाण == | == प्रमाण == | ||
कुल अपेक्षा के | कुल अपेक्षा के नियम का उपयोग करके कुल भिन्नता का नियम सिद्ध किया जा सकता है।<ref>Neil A. Weiss, ''A Course in Probability'', Addison–Wesley, 2005, pages 380–383.</ref> पहला, | ||
<math display=block>\operatorname{Var}[Y] = \operatorname{E}\left[Y^2\right] - \operatorname{E}[Y]^2</math> | <math display=block>\operatorname{Var}[Y] = \operatorname{E}\left[Y^2\right] - \operatorname{E}[Y]^2</math> | ||
विचरण की परिभाषा से। फिर से, विचरण की परिभाषा से, और कुल अपेक्षा के नियम को | विचरण की परिभाषा से। फिर से, विचरण की परिभाषा से, और कुल अपेक्षा के नियम को प्रयुक्त करने से, हमारे पास है | ||
<math display=block>\operatorname{E}\left[Y^2\right] = \operatorname{E}\left[\operatorname{E}[Y^2\mid X]\right] = \operatorname{E} \left[\operatorname{Var}[Y \mid X] + [\operatorname{E}[Y \mid X]]^2\right].</math> | <math display=block>\operatorname{E}\left[Y^2\right] = \operatorname{E}\left[\operatorname{E}[Y^2\mid X]\right] = \operatorname{E} \left[\operatorname{Var}[Y \mid X] + [\operatorname{E}[Y \mid X]]^2\right].</math> | ||
अब हम के नियम दूसरे क्षण को फिर से लिखते हैं | अब हम <math>Y</math> के नियम दूसरे क्षण को फिर से लिखते हैं इसके विचरण और पहले क्षण के संदर्भ में और दाहिनी ओर कुल अपेक्षा के नियम को प्रयुक्त करते हैं: | ||
<math display=block>\operatorname{E}\left[Y^2\right] - \operatorname{E}[Y]^2 = \operatorname{E} \left[\operatorname{Var}[Y \mid X] + [\operatorname{E}[Y \mid X]]^2\right] - [\operatorname{E} [\operatorname{E}[Y \mid X]]]^2.</math> | <math display=block>\operatorname{E}\left[Y^2\right] - \operatorname{E}[Y]^2 = \operatorname{E} \left[\operatorname{Var}[Y \mid X] + [\operatorname{E}[Y \mid X]]^2\right] - [\operatorname{E} [\operatorname{E}[Y \mid X]]]^2.</math> | ||
चूंकि किसी राशि की अपेक्षा अपेक्षाओं का योग है, इसलिए | चूंकि किसी राशि की अपेक्षा अपेक्षाओं का योग है, इसलिए नियमो को अब पुनर्समूहित किया जा सकता है: | ||
<math display=block>= \left(\operatorname{E} [\operatorname{Var}[Y \mid X]]\right) + \left(\operatorname{E} \left[\operatorname{E}[Y \mid X]^2\right] - [\operatorname{E} [\operatorname{E}[Y \mid X]]]^2\right).</math> | <math display=block>= \left(\operatorname{E} [\operatorname{Var}[Y \mid X]]\right) + \left(\operatorname{E} \left[\operatorname{E}[Y \mid X]^2\right] - [\operatorname{E} [\operatorname{E}[Y \mid X]]]^2\right).</math> | ||
अंत में, हम कोष्ठक के दूसरे | अंत में, हम कोष्ठक के दूसरे समूह में नियमो को नियम अपेक्षा <math>\operatorname{E}[Y \mid X]</math> के विचरण के रूप में पहचानते हैं ।: | ||
<math display=block>= \operatorname{E} [\operatorname{Var}[Y \mid X]] + \operatorname{Var} [\operatorname{E}[Y \mid X]].</math> | <math display=block>= \operatorname{E} [\operatorname{Var}[Y \mid X]] + \operatorname{Var} [\operatorname{E}[Y \mid X]].</math> | ||
== गतिशील प्रणालियों पर | == गतिशील प्रणालियों पर प्रयुक्त सामान्य विचरण अपघटन == | ||
निम्नलिखित सूत्र दिखाता है कि प्रसंभाव्य गतिशील प्रणालियों के लिए सामान्य, माप सिद्धांतिक भिन्नता अपघटन सूत्र को कैसे प्रयुक्त किया जाए।<ref name=bs /> मान लीजिए <math>Y(t)</math> समय <math>t.</math> पर प्रणाली चर का मान हो मान लीजिए कि हमारे पास आंतरिक इतिहास (प्राकृतिक निस्पंदन) '''है''' <math>H_{1t},H_{2t},\ldots,H_{c-1,t}</math>,है प्रत्येक प्रणाली चर के एक अलग संग्रह के इतिहास (प्रक्षेपवक्र) के अनुरूप है । संग्रहों को अलग करने की आवश्यकता नहीं है। <math>Y(t)</math> के प्रसरण को हर समय <math>t,</math> के लिए <math>c \geq 2</math> घटकों में निम्नानुसार विघटित किया जा सकता है: | |||
<math display=block>\begin{align} | <math display=block>\begin{align} | ||
\operatorname{Var}[Y(t)] = {} & \operatorname{E}(\operatorname{Var}[Y(t)\mid H_{1t},H_{2t},\ldots,H_{c-1,t}]) \\[4pt] | \operatorname{Var}[Y(t)] = {} & \operatorname{E}(\operatorname{Var}[Y(t)\mid H_{1t},H_{2t},\ldots,H_{c-1,t}]) \\[4pt] | ||
Line 44: | Line 44: | ||
& {} + \operatorname{Var}(\operatorname{E}[Y(t)\mid H_{1t}]). | & {} + \operatorname{Var}(\operatorname{E}[Y(t)\mid H_{1t}]). | ||
\end{align}</math> | \end{align}</math> | ||
अपघटन अद्वितीय नहीं है। यह अनुक्रमिक अपघटन में | अपघटन अद्वितीय नहीं है। यह अनुक्रमिक अपघटन में अनुकूलन के क्रम पर निर्भर करता है। | ||
== सहसंबंध का वर्ग और समझाया गया (या सूचनात्मक) भिन्नता == | == सहसंबंध का वर्ग और समझाया गया (या सूचनात्मक) भिन्नता == | ||
जिन | जिन स्थिति में <math>(Y, X)</math> ऐसे हैं कि नियम अपेक्षित मान रैखिक है; अर्थात ऐसे स्थिति में है जहां | ||
<math display=block>\operatorname{E}(Y \mid X) = a X + b,</math> | <math display=block>\operatorname{E}(Y \mid X) = a X + b,</math> | ||
यह सहप्रसरण की द्विरेखीयता से अनुसरण करता है | यह सहप्रसरण की द्विरेखीयता से अनुसरण करता है | ||
Line 54: | Line 54: | ||
और | और | ||
<math display=block>b = \operatorname{E}(Y)-{\operatorname{Cov}(Y, X) \over \operatorname{Var}(X)} \operatorname{E}(X)</math> | <math display=block>b = \operatorname{E}(Y)-{\operatorname{Cov}(Y, X) \over \operatorname{Var}(X)} \operatorname{E}(X)</math> | ||
और कुल भिन्नता से विभाजित भिन्नता का समझाया गया घटक | और कुल भिन्नता से विभाजित भिन्नता का समझाया गया घटक <math>Y</math> और <math>X;</math> के बीच के सहसंबंध का वर्ग है अर्थात ऐसे स्थिति में है | ||
<math display=block>{\operatorname{Var}(\operatorname{E}(Y \mid X)) \over \operatorname{Var}(Y)} = \operatorname{Corr}(X, Y)^2.</math> | <math display=block>{\operatorname{Var}(\operatorname{E}(Y \mid X)) \over \operatorname{Var}(Y)} = \operatorname{Corr}(X, Y)^2.</math> | ||
इस स्थिति का एक उदाहरण है जब <math>(X, Y)</math> द्विचर सामान्य (गाऊसी) वितरण है। | इस स्थिति का एक उदाहरण है जब <math>(X, Y)</math> द्विचर सामान्य (गाऊसी) वितरण है। | ||
अधिक सामान्यतः, जब नियम अपेक्षा <math>\operatorname{E}(Y \mid X)</math> | अधिक सामान्यतः, जब नियम अपेक्षा <math>\operatorname{E}(Y \mid X)</math> <math>X</math> का एक अरैखिक फलन है <ref name=bs /> | ||
<math display=block>\iota_{Y\mid X} = {\operatorname{Var}(\operatorname{E}(Y \mid X)) \over \operatorname{Var}(Y)} = \operatorname{Corr}(\operatorname{E}(Y \mid X), Y)^2,</math> | <math display=block>\iota_{Y\mid X} = {\operatorname{Var}(\operatorname{E}(Y \mid X)) \over \operatorname{Var}(Y)} = \operatorname{Corr}(\operatorname{E}(Y \mid X), Y)^2,</math> | ||
<math>(X, Y).</math> के संयुक्त वितरण से निकाले गए डेटा का उपयोग करते हुए, जिसे <math>X,</math>पर <math>Y</math> के एक गैर-रैखिक प्रतिगमन से आर वर्ग के रूप में अनुमानित किया जा सकता है।} जब <math>\operatorname{E}(Y \mid X)</math> का गॉसियन वितरण है (और <math>X</math> का एक व्युत्क्रमणीय कार्य है) या <math>Y</math> का स्वयं एक (सीमांत) गॉसियन वितरण है, भिन्नता का यह समझाया गया घटक पारस्परिक जानकारी पर एक निचली सीमा निर्धारित करता है:<ref name=bs /> | |||
<math display=block>\operatorname{I}(Y; X) \geq \ln \left([1 - \iota_{Y \mid X}]^{-1/2}\right).</math> | <math display=block>\operatorname{I}(Y; X) \geq \ln \left([1 - \iota_{Y \mid X}]^{-1/2}\right).</math> | ||
== उच्च क्षण == | == उच्च क्षण == | ||
तीसरे | इसी प्रकार का नियम तीसरे केन्द्रीय क्षण के लिए <math>\mu_3</math> कहते है | ||
<math display=block>\mu_3(Y)=\operatorname{E}\left(\mu_3(Y \mid X)\right) + \mu_3(\operatorname{E}(Y \mid X)) + 3\operatorname{cov}(\operatorname{E}(Y \mid X), \operatorname{var}(Y \mid X)).</math> | <math display=block>\mu_3(Y)=\operatorname{E}\left(\mu_3(Y \mid X)\right) + \mu_3(\operatorname{E}(Y \mid X)) + 3\operatorname{cov}(\operatorname{E}(Y \mid X), \operatorname{var}(Y \mid X)).</math> | ||
उच्च संचयकों के लिए, एक सामान्यीकरण | उच्च संचयकों के लिए, एक सामान्यीकरण उपस्थित है। [[कुल संचयन का नियम]] देखें। | ||
== यह भी देखें == | == यह भी देखें == | ||
* {{annotated link|कुल सहप्रसरण का नियम}} - एक सामान्यीकरण | * {{annotated link|कुल सहप्रसरण का नियम}} - एक सामान्यीकरण | ||
* {{annotated link|त्रुटियों के प्रसार का नियम}} | * {{annotated link|त्रुटियों के प्रसार का नियम}} | ||
==संदर्भ== | ==संदर्भ == | ||
{{reflist}} | {{reflist}} | ||
* {{cite web|last1= Blitzstein|first1=Joe|title=Stat 110 Final Review (Eve's Law)|url=http://projects.iq.harvard.edu/files/stat110/files/final_review.pdf|work=stat110.net|publisher=Harvard University, Department of Statistics|access-date=9 July 2014}} | * {{cite web|last1= Blitzstein|first1=Joe|title=Stat 110 Final Review (Eve's Law)|url=http://projects.iq.harvard.edu/files/stat110/files/final_review.pdf|work=stat110.net|publisher=Harvard University, Department of Statistics|access-date=9 July 2014}} | ||
* {{cite book | last=Billingsley | first=Patrick | title=Probability and Measure | publisher=John Wiley & Sons, Inc. | location=New York, NY | year=1995 | isbn=0-471-00710-2}} (Problem 34.10(b)) | * {{cite book | last=Billingsley | first=Patrick | title=Probability and Measure | publisher=John Wiley & Sons, Inc. | location=New York, NY | year=1995 | isbn=0-471-00710-2}} (Problem 34.10(b)) | ||
[[Category:Created On 21/03/2023]] | [[Category:Created On 21/03/2023]] | ||
[[Category:Lua-based templates]] | |||
[[Category:Machine Translated Page]] | |||
[[Category:Pages with script errors]] | |||
[[Category:Templates Vigyan Ready]] | |||
[[Category:Templates that add a tracking category]] | |||
[[Category:Templates that generate short descriptions]] | |||
[[Category:Templates using TemplateData]] | |||
[[Category:प्रमाण युक्त लेख]] | |||
[[Category:यादृच्छिक चर का बीजगणित]] | |||
[[Category:संभाव्यता वितरण का सिद्धांत]] | |||
[[Category:सांख्यिकी में प्रमेय]] | |||
[[Category:सांख्यिकीय कानून]] | |||
[[Category:सांख्यिकीय विचलन और फैलाव]] |
Latest revision as of 09:54, 18 May 2023
संभाव्यता सिद्धांत में, कुल विचरण का नियम[1] या विचरण अपघटन सूत्र या नियम विचरण सूत्र या पुनरावृत्त प्रसरण के नियम को ईव के नियम के रूप में भी जाना जाता है,[2] बताता है कि यादि और एक ही प्रायिकता स्थान पर यादृच्छिक चर हैं, और तब का प्रसरण परिमित है
सूत्रीकरण
घटकों के लिए एक सामान्य प्रसरण अपघटन सूत्र है (नीचे देखें)[4]। उदाहरण के लिए दो अनुकूलन यादृच्छिक चर के साथ:
एक विशेष स्थिति , (कुल अपेक्षा के नियम के समान) कहता है कि यदि संपूर्ण परिणाम स्थान का एक विभाजन है, अर्थात, ये घटनाएँ परस्पर अनन्य और संपूर्ण हैं
प्रमाण
कुल अपेक्षा के नियम का उपयोग करके कुल भिन्नता का नियम सिद्ध किया जा सकता है।[5] पहला,
गतिशील प्रणालियों पर प्रयुक्त सामान्य विचरण अपघटन
निम्नलिखित सूत्र दिखाता है कि प्रसंभाव्य गतिशील प्रणालियों के लिए सामान्य, माप सिद्धांतिक भिन्नता अपघटन सूत्र को कैसे प्रयुक्त किया जाए।[4] मान लीजिए समय पर प्रणाली चर का मान हो मान लीजिए कि हमारे पास आंतरिक इतिहास (प्राकृतिक निस्पंदन) है ,है प्रत्येक प्रणाली चर के एक अलग संग्रह के इतिहास (प्रक्षेपवक्र) के अनुरूप है । संग्रहों को अलग करने की आवश्यकता नहीं है। के प्रसरण को हर समय के लिए घटकों में निम्नानुसार विघटित किया जा सकता है:
सहसंबंध का वर्ग और समझाया गया (या सूचनात्मक) भिन्नता
जिन स्थिति में ऐसे हैं कि नियम अपेक्षित मान रैखिक है; अर्थात ऐसे स्थिति में है जहां
और
अधिक सामान्यतः, जब नियम अपेक्षा का एक अरैखिक फलन है [4]
उच्च क्षण
इसी प्रकार का नियम तीसरे केन्द्रीय क्षण के लिए कहते है
यह भी देखें
- कुल सहप्रसरण का नियम - एक सामान्यीकरण
- त्रुटियों के प्रसार का नियम
संदर्भ
- ↑ Neil A. Weiss, A Course in Probability, Addison–Wesley, 2005, pages 385–386.
- ↑ Joseph K. Blitzstein and Jessica Hwang: "Introduction to Probability"
- ↑ Mahler, Howard C.; Dean, Curtis Gary (2001). "Chapter 8: Credibility" (PDF). In Casualty Actuarial Society (ed.). कैजुअल्टी एक्चुरियल साइंस की नींव (4th ed.). Casualty Actuarial Society. pp. 525–526. ISBN 978-0-96247-622-8. Retrieved June 25, 2015.
- ↑ 4.0 4.1 4.2 4.3 4.4 Bowsher, C.G. and P.S. Swain, Identifying sources of variation and the flow of information in biochemical networks, PNAS May 15, 2012 109 (20) E1320-E1328.
- ↑ Neil A. Weiss, A Course in Probability, Addison–Wesley, 2005, pages 380–383.
- Blitzstein, Joe. "Stat 110 Final Review (Eve's Law)" (PDF). stat110.net. Harvard University, Department of Statistics. Retrieved 9 July 2014.
- Billingsley, Patrick (1995). Probability and Measure. New York, NY: John Wiley & Sons, Inc. ISBN 0-471-00710-2. (Problem 34.10(b))