कुल विचरण का नियम: Difference between revisions

From Vigyanwiki
No edit summary
No edit summary
 
(6 intermediate revisions by 3 users not shown)
Line 5: Line 5:
\operatorname{Var_Y}(Y) = \operatorname{E_X}[\operatorname{Var_Y}(Y \mid X)] + \operatorname{Var_X}(\operatorname{E_Y}[Y \mid X]).
\operatorname{Var_Y}(Y) = \operatorname{E_X}[\operatorname{Var_Y}(Y \mid X)] + \operatorname{Var_X}(\operatorname{E_Y}[Y \mid X]).
</math>
</math>
संभाव्यता सिद्धांतकारों की तुलना में शायद सांख्यिकीविदों के लिए बेहतर ज्ञात भाषा में, दो शब्द क्रमशः अस्पष्टीकृत और विचरण के समझाए गए घटक हैं (cf. [[विचरण का अंश अस्पष्टीकृत]], व्याख्यात्मक भिन्नता)। [[ जिवानांकिकी ]] में, विशेष रूप से [[विश्वसनीयता सिद्धांत]], पहले घटक को प्रक्रिया विचरण (ईवीपीवी) का अपेक्षित मान कहा जाता है और दूसरे को काल्पनिक साधनों (वीएचएम) का विचरण कहा जाता है।<ref name = "FCAS4ed">{{cite book |last1= Mahler|first1= Howard C. |last2= Dean|first2= Curtis Gary|year= 2001 |chapter= Chapter 8: Credibility |chapter-url= http://people.stat.sfu.ca/~cltsai/ACMA315/Ch8_Credibility.pdf |editor1-last= [[Casualty Actuarial Society]] |title= कैजुअल्टी एक्चुरियल साइंस की नींव|edition= 4th |publisher= [[Casualty Actuarial Society]] |pages= 525–526 |isbn= 978-0-96247-622-8|access-date= June 25, 2015}}</ref> ये दो घटक प्रारंभिक EV VE से "प्रसरण की अपेक्षा" और "उम्मीद की भिन्नता" शब्द "ईव के नियम" का स्रोत भी हैं।
संभाव्यता सिद्धांतकारों की तुलना में शायद सांख्यिकीविदों के लिए बेहतर ज्ञात भाषा में, दो शब्द क्रमशः अस्पष्टीकृत और विचरण के समझाए गए घटक हैं (cf. [[विचरण का अंश अस्पष्टीकृत]], व्याख्यात्मक भिन्नता)। [[ जिवानांकिकी |जिवानांकिकी]] में, विशेष रूप से [[विश्वसनीयता सिद्धांत]], पहले घटक को प्रक्रिया विचरण (ईवीपीवी) का अपेक्षित मान कहा जाता है और दूसरे को काल्पनिक साधनों (वीएचएम) का विचरण कहा जाता है।<ref name = "FCAS4ed">{{cite book |last1= Mahler|first1= Howard C. |last2= Dean|first2= Curtis Gary|year= 2001 |chapter= Chapter 8: Credibility |chapter-url= http://people.stat.sfu.ca/~cltsai/ACMA315/Ch8_Credibility.pdf |editor1-last= [[Casualty Actuarial Society]] |title= कैजुअल्टी एक्चुरियल साइंस की नींव|edition= 4th |publisher= [[Casualty Actuarial Society]] |pages= 525–526 |isbn= 978-0-96247-622-8|access-date= June 25, 2015}}</ref> ये दो घटक प्रारंभिक ईवी वीई से "प्रसरण की अपेक्षा" और "उम्मीद की भिन्नता" शब्द "ईव के नियम" का स्रोत भी हैं।


== सूत्रीकरण ==
== सूत्रीकरण                   ==


<math>c \geq 2</math> घटकों के लिए एक सामान्य प्रसरण अपघटन सूत्र है (नीचे देखें)<ref name=bs>Bowsher, C.G. and P.S. Swain, Identifying sources of variation and the flow of information in biochemical networks, PNAS May 15, 2012 109 (20) E1320-E1328.</ref>। उदाहरण के लिए दो अनुकूलन यादृच्छिक चर के साथ:
<math>c \geq 2</math> घटकों के लिए एक सामान्य प्रसरण अपघटन सूत्र है (नीचे देखें)<ref name=bs>Bowsher, C.G. and P.S. Swain, Identifying sources of variation and the flow of information in biochemical networks, PNAS May 15, 2012 109 (20) E1320-E1328.</ref>। उदाहरण के लिए दो अनुकूलन यादृच्छिक चर के साथ:
Line 13: Line 13:
जो कुल नियम भिन्नता के नियम से निम्नानुसार है:<ref name=bs />
जो कुल नियम भिन्नता के नियम से निम्नानुसार है:<ref name=bs />
<math display=block>\operatorname{Var}(Y \mid X_1) = \operatorname{E} \left[\operatorname{Var}(Y \mid X_1, X_2) \mid X_1\right] + \operatorname{Var} \left(\operatorname{E}\left[Y \mid X_1, X_2 \right] \mid X_1\right).</math>
<math display=block>\operatorname{Var}(Y \mid X_1) = \operatorname{E} \left[\operatorname{Var}(Y \mid X_1, X_2) \mid X_1\right] + \operatorname{Var} \left(\operatorname{E}\left[Y \mid X_1, X_2 \right] \mid X_1\right).</math>
ध्यान दें कि नियम अपेक्षित मान <math>\operatorname{E}(Y \mid X)</math> अपने आप में एक यादृच्छिक चर है, जिसका मान <math>X.</math> के मान पर निर्भर करता है ध्यान दें कि <math>Y</math> नियम अपेक्षित मान देखते हुए {{em|event}} <math>X = x</math> का एक <math>x</math> कार्य है (यह वह जगह है जहां संभाव्यता सिद्धांत के पारंपरिक और कठोर केस-संवेदी अंकन का पालन महत्वपूर्ण हो जाता है!)। यादि हम <math>\operatorname{E}(Y \mid X = x) = g(x)</math> लिखते हैं फिर यादृच्छिक चर <math>\operatorname{E}(Y \mid X)</math> बस <math>g(X).</math> इसी तरह की टिप्पणियां नियम भिन्नता पर प्रयुक्त होती हैं।
ध्यान दें कि नियम अपेक्षित मान <math>\operatorname{E}(Y \mid X)</math> अपने आप में एक यादृच्छिक चर है, जिसका मान <math>X.</math> के मान पर निर्भर करता है ध्यान दें कि <math>Y</math> नियम अपेक्षित मान देखते हुए {{em|event}} <math>X = x</math> का एक <math>x</math> कार्य है (यह वह जगह है जहां संभाव्यता सिद्धांत के पारंपरिक और कठोर केस-संवेदी अंकन का पालन महत्वपूर्ण हो जाता है!)। यादि हम <math>\operatorname{E}(Y \mid X = x) = g(x)</math> लिखते हैं फिर यादृच्छिक चर <math>\operatorname{E}(Y \mid X)</math> बस <math>g(X).</math> इसी तरह की टिप्पणियां नियम भिन्नता पर प्रयुक्त होती हैं।


एक विशेष स्थिति , (कुल अपेक्षा के नियम के समान) कहता है कि यदि <math>A_1, \ldots, A_n</math> संपूर्ण परिणाम स्थान का एक विभाजन है, अर्थात, ये घटनाएँ परस्पर अनन्य और संपूर्ण हैं
एक विशेष स्थिति , (कुल अपेक्षा के नियम के समान) कहता है कि यदि <math>A_1, \ldots, A_n</math> संपूर्ण परिणाम स्थान का एक विभाजन है, अर्थात, ये घटनाएँ परस्पर अनन्य और संपूर्ण हैं
<math display=block>\begin{align}
<math display=block>\begin{align}
\operatorname{Var} (X) = {} & \sum_{i=1}^n \operatorname{Var}(X\mid A_i) \Pr(A_i) + \sum_{i=1}^n \operatorname{E}[X\mid A_i]^2 (1-\Pr(A_i))\Pr(A_i) \\[4pt]
\operatorname{Var} (X) = {} & \sum_{i=1}^n \operatorname{Var}(X\mid A_i) \Pr(A_i) + \sum_{i=1}^n \operatorname{E}[X\mid A_i]^2 (1-\Pr(A_i))\Pr(A_i) \\[4pt]
Line 26: Line 26:
कुल अपेक्षा के नियम का उपयोग करके कुल भिन्नता का नियम सिद्ध किया जा सकता है।<ref>Neil A. Weiss, ''A Course in Probability'', Addison&ndash;Wesley, 2005, pages 380&ndash;383.</ref> पहला,
कुल अपेक्षा के नियम का उपयोग करके कुल भिन्नता का नियम सिद्ध किया जा सकता है।<ref>Neil A. Weiss, ''A Course in Probability'', Addison&ndash;Wesley, 2005, pages 380&ndash;383.</ref> पहला,
<math display=block>\operatorname{Var}[Y] = \operatorname{E}\left[Y^2\right] - \operatorname{E}[Y]^2</math>
<math display=block>\operatorname{Var}[Y] = \operatorname{E}\left[Y^2\right] - \operatorname{E}[Y]^2</math>
विचरण की परिभाषा से। फिर से, विचरण की परिभाषा से, और कुल अपेक्षा के नियम को प्रयुक्त करने से, हमारे पास है
विचरण की परिभाषा से। फिर से, विचरण की परिभाषा से, और कुल अपेक्षा के नियम को प्रयुक्त करने से, हमारे पास है
<math display=block>\operatorname{E}\left[Y^2\right] = \operatorname{E}\left[\operatorname{E}[Y^2\mid X]\right] = \operatorname{E} \left[\operatorname{Var}[Y \mid X] + [\operatorname{E}[Y \mid X]]^2\right].</math>
<math display=block>\operatorname{E}\left[Y^2\right] = \operatorname{E}\left[\operatorname{E}[Y^2\mid X]\right] = \operatorname{E} \left[\operatorname{Var}[Y \mid X] + [\operatorname{E}[Y \mid X]]^2\right].</math>
अब हम <math>Y</math> के नियम दूसरे क्षण को फिर से लिखते हैं इसके विचरण और पहले क्षण के संदर्भ में और दाहिनी ओर कुल अपेक्षा के नियम को प्रयुक्त करते हैं:
अब हम <math>Y</math> के नियम दूसरे क्षण को फिर से लिखते हैं इसके विचरण और पहले क्षण के संदर्भ में और दाहिनी ओर कुल अपेक्षा के नियम को प्रयुक्त करते हैं:
<math display=block>\operatorname{E}\left[Y^2\right] - \operatorname{E}[Y]^2 = \operatorname{E} \left[\operatorname{Var}[Y \mid X] + [\operatorname{E}[Y \mid X]]^2\right] - [\operatorname{E} [\operatorname{E}[Y \mid X]]]^2.</math>
<math display=block>\operatorname{E}\left[Y^2\right] - \operatorname{E}[Y]^2 = \operatorname{E} \left[\operatorname{Var}[Y \mid X] + [\operatorname{E}[Y \mid X]]^2\right] - [\operatorname{E} [\operatorname{E}[Y \mid X]]]^2.</math>
चूंकि किसी राशि की अपेक्षा अपेक्षाओं का योग है, इसलिए नियमो को अब पुनर्समूहित किया जा सकता है:
चूंकि किसी राशि की अपेक्षा अपेक्षाओं का योग है, इसलिए नियमो को अब पुनर्समूहित किया जा सकता है:
<math display=block>= \left(\operatorname{E} [\operatorname{Var}[Y \mid X]]\right) + \left(\operatorname{E} \left[\operatorname{E}[Y \mid X]^2\right] - [\operatorname{E} [\operatorname{E}[Y \mid X]]]^2\right).</math>
<math display=block>= \left(\operatorname{E} [\operatorname{Var}[Y \mid X]]\right) + \left(\operatorname{E} \left[\operatorname{E}[Y \mid X]^2\right] - [\operatorname{E} [\operatorname{E}[Y \mid X]]]^2\right).</math>
अंत में, हम कोष्ठक के दूसरे समूह में नियमो को नियम अपेक्षा <math>\operatorname{E}[Y \mid X]</math> के विचरण के रूप में पहचानते हैं ।:
अंत में, हम कोष्ठक के दूसरे समूह में नियमो को नियम अपेक्षा <math>\operatorname{E}[Y \mid X]</math> के विचरण के रूप में पहचानते हैं ।:
<math display=block>= \operatorname{E} [\operatorname{Var}[Y \mid X]] + \operatorname{Var} [\operatorname{E}[Y \mid X]].</math>
<math display=block>= \operatorname{E} [\operatorname{Var}[Y \mid X]] + \operatorname{Var} [\operatorname{E}[Y \mid X]].</math>




== गतिशील प्रणालियों पर प्रयुक्त सामान्य विचरण अपघटन ==
== गतिशील प्रणालियों पर प्रयुक्त सामान्य विचरण अपघटन ==


निम्नलिखित सूत्र दिखाता है कि प्रसंभाव्य गतिशील प्रणालियों के लिए सामान्य, माप सिद्धांतिक भिन्नता अपघटन सूत्र को कैसे प्रयुक्त किया जाए।<ref name=bs /> '''स्टोकेस्टिक डायनेमिक प्रणाली के लिए।'''  मान लीजिए <math>Y(t)</math> समय <math>t.</math> पर प्रणाली चर का मान हो मान लीजिए कि हमारे पास आंतरिक इतिहास (प्राकृतिक निस्पंदन) '''है''' <math>H_{1t},H_{2t},\ldots,H_{c-1,t}</math>,है प्रत्येक प्रणाली चर के एक अलग संग्रह के इतिहास (प्रक्षेपवक्र) के अनुरूप है '''प्रत्येक'''। संग्रहों को अलग करने की आवश्यकता नहीं है। <math>Y(t)</math> के प्रसरण को हर समय <math>t,</math> के लिए <math>c \geq 2</math> घटकों में निम्नानुसार विघटित किया जा सकता है: '''का विचरण  सदैव के लिए विघटित किया जा सकता है <math>t,</math> में <math>c \geq 2</math> घटक निम्नानुसार हैं:'''
निम्नलिखित सूत्र दिखाता है कि प्रसंभाव्य गतिशील प्रणालियों के लिए सामान्य, माप सिद्धांतिक भिन्नता अपघटन सूत्र को कैसे प्रयुक्त किया जाए।<ref name=bs /> मान लीजिए <math>Y(t)</math> समय <math>t.</math> पर प्रणाली चर का मान हो मान लीजिए कि हमारे पास आंतरिक इतिहास (प्राकृतिक निस्पंदन) '''है''' <math>H_{1t},H_{2t},\ldots,H_{c-1,t}</math>,है प्रत्येक प्रणाली चर के एक अलग संग्रह के इतिहास (प्रक्षेपवक्र) के अनुरूप है । संग्रहों को अलग करने की आवश्यकता नहीं है। <math>Y(t)</math> के प्रसरण को हर समय <math>t,</math> के लिए <math>c \geq 2</math> घटकों में निम्नानुसार विघटित किया जा सकता है:
<math display=block>\begin{align}
<math display=block>\begin{align}
\operatorname{Var}[Y(t)] = {} & \operatorname{E}(\operatorname{Var}[Y(t)\mid H_{1t},H_{2t},\ldots,H_{c-1,t}]) \\[4pt]
\operatorname{Var}[Y(t)] = {} & \operatorname{E}(\operatorname{Var}[Y(t)\mid H_{1t},H_{2t},\ldots,H_{c-1,t}]) \\[4pt]
Line 64: Line 64:




== उच्च क्षण ==
== उच्च क्षण                     ==


इसी प्रकार का नियम तीसरे केन्द्रीय क्षण के लिए <math>\mu_3</math> कहते है
इसी प्रकार का नियम तीसरे केन्द्रीय क्षण के लिए <math>\mu_3</math> कहते है
Line 70: Line 70:
उच्च संचयकों के लिए, एक सामान्यीकरण उपस्थित है। [[कुल संचयन का नियम]] देखें।
उच्च संचयकों के लिए, एक सामान्यीकरण उपस्थित है। [[कुल संचयन का नियम]] देखें।


== यह भी देखें ==
== यह भी देखें                                                                       ==


* {{annotated link|कुल सहप्रसरण का नियम}} - एक सामान्यीकरण
* {{annotated link|कुल सहप्रसरण का नियम}} - एक सामान्यीकरण
* {{annotated link|त्रुटियों के प्रसार का नियम}}
* {{annotated link|त्रुटियों के प्रसार का नियम}}


==संदर्भ==
==संदर्भ                                         ==


{{reflist}}
{{reflist}}
{{reflist|group=note}}
* {{cite web|last1= Blitzstein|first1=Joe|title=Stat 110 Final Review (Eve's Law)|url=http://projects.iq.harvard.edu/files/stat110/files/final_review.pdf|work=stat110.net|publisher=Harvard University, Department of Statistics|access-date=9 July 2014}}
* {{cite web|last1= Blitzstein|first1=Joe|title=Stat 110 Final Review (Eve's Law)|url=http://projects.iq.harvard.edu/files/stat110/files/final_review.pdf|work=stat110.net|publisher=Harvard University, Department of Statistics|access-date=9 July 2014}}
* {{cite book | last=Billingsley | first=Patrick | title=Probability and Measure | publisher=John Wiley & Sons, Inc. | location=New York, NY | year=1995 | isbn=0-471-00710-2}} (Problem 34.10(b))
* {{cite book | last=Billingsley | first=Patrick | title=Probability and Measure | publisher=John Wiley & Sons, Inc. | location=New York, NY | year=1995 | isbn=0-471-00710-2}} (Problem 34.10(b))
<!-- * {{cite book | last=Weiss | first=Neil | title=A Course in Probability | publisher=Addison Wesley | isbn=0-201-77471-2 | year=2005 }} -->
[[Category: यादृच्छिक चर का बीजगणित]] [[Category: सांख्यिकीय विचलन और फैलाव]] [[Category: प्रमाण युक्त लेख]] [[Category: संभाव्यता वितरण का सिद्धांत]] [[Category: सांख्यिकी में प्रमेय]] [[Category: सांख्यिकीय कानून]]


[[Category: Machine Translated Page]]
[[Category:Created On 21/03/2023]]
[[Category:Created On 21/03/2023]]
[[Category:Lua-based templates]]
[[Category:Machine Translated Page]]
[[Category:Pages with script errors]]
[[Category:Templates Vigyan Ready]]
[[Category:Templates that add a tracking category]]
[[Category:Templates that generate short descriptions]]
[[Category:Templates using TemplateData]]
[[Category:प्रमाण युक्त लेख]]
[[Category:यादृच्छिक चर का बीजगणित]]
[[Category:संभाव्यता वितरण का सिद्धांत]]
[[Category:सांख्यिकी में प्रमेय]]
[[Category:सांख्यिकीय कानून]]
[[Category:सांख्यिकीय विचलन और फैलाव]]

Latest revision as of 09:54, 18 May 2023

संभाव्यता सिद्धांत में, कुल विचरण का नियम[1] या विचरण अपघटन सूत्र या नियम विचरण सूत्र या पुनरावृत्त प्रसरण के नियम को ईव के नियम के रूप में भी जाना जाता है,[2] बताता है कि यादि और एक ही प्रायिकता स्थान पर यादृच्छिक चर हैं, और तब का प्रसरण परिमित है

संभाव्यता सिद्धांतकारों की तुलना में शायद सांख्यिकीविदों के लिए बेहतर ज्ञात भाषा में, दो शब्द क्रमशः अस्पष्टीकृत और विचरण के समझाए गए घटक हैं (cf. विचरण का अंश अस्पष्टीकृत, व्याख्यात्मक भिन्नता)। जिवानांकिकी में, विशेष रूप से विश्वसनीयता सिद्धांत, पहले घटक को प्रक्रिया विचरण (ईवीपीवी) का अपेक्षित मान कहा जाता है और दूसरे को काल्पनिक साधनों (वीएचएम) का विचरण कहा जाता है।[3] ये दो घटक प्रारंभिक ईवी वीई से "प्रसरण की अपेक्षा" और "उम्मीद की भिन्नता" शब्द "ईव के नियम" का स्रोत भी हैं।

सूत्रीकरण

घटकों के लिए एक सामान्य प्रसरण अपघटन सूत्र है (नीचे देखें)[4]। उदाहरण के लिए दो अनुकूलन यादृच्छिक चर के साथ:

जो कुल नियम भिन्नता के नियम से निम्नानुसार है:[4]
ध्यान दें कि नियम अपेक्षित मान अपने आप में एक यादृच्छिक चर है, जिसका मान के मान पर निर्भर करता है ध्यान दें कि नियम अपेक्षित मान देखते हुए event का एक कार्य है (यह वह जगह है जहां संभाव्यता सिद्धांत के पारंपरिक और कठोर केस-संवेदी अंकन का पालन महत्वपूर्ण हो जाता है!)। यादि हम लिखते हैं फिर यादृच्छिक चर बस इसी तरह की टिप्पणियां नियम भिन्नता पर प्रयुक्त होती हैं।

एक विशेष स्थिति , (कुल अपेक्षा के नियम के समान) कहता है कि यदि संपूर्ण परिणाम स्थान का एक विभाजन है, अर्थात, ये घटनाएँ परस्पर अनन्य और संपूर्ण हैं

इस सूत्र में, पहला घटक नियम भिन्नता की अपेक्षा है; अन्य दो घटक नियम अपेक्षा के विचरण हैं।

प्रमाण

कुल अपेक्षा के नियम का उपयोग करके कुल भिन्नता का नियम सिद्ध किया जा सकता है।[5] पहला,

विचरण की परिभाषा से। फिर से, विचरण की परिभाषा से, और कुल अपेक्षा के नियम को प्रयुक्त करने से, हमारे पास है
अब हम के नियम दूसरे क्षण को फिर से लिखते हैं इसके विचरण और पहले क्षण के संदर्भ में और दाहिनी ओर कुल अपेक्षा के नियम को प्रयुक्त करते हैं:
चूंकि किसी राशि की अपेक्षा अपेक्षाओं का योग है, इसलिए नियमो को अब पुनर्समूहित किया जा सकता है:
अंत में, हम कोष्ठक के दूसरे समूह में नियमो को नियम अपेक्षा के विचरण के रूप में पहचानते हैं ।:


गतिशील प्रणालियों पर प्रयुक्त सामान्य विचरण अपघटन

निम्नलिखित सूत्र दिखाता है कि प्रसंभाव्य गतिशील प्रणालियों के लिए सामान्य, माप सिद्धांतिक भिन्नता अपघटन सूत्र को कैसे प्रयुक्त किया जाए।[4] मान लीजिए समय पर प्रणाली चर का मान हो मान लीजिए कि हमारे पास आंतरिक इतिहास (प्राकृतिक निस्पंदन) है ,है प्रत्येक प्रणाली चर के एक अलग संग्रह के इतिहास (प्रक्षेपवक्र) के अनुरूप है । संग्रहों को अलग करने की आवश्यकता नहीं है। के प्रसरण को हर समय के लिए घटकों में निम्नानुसार विघटित किया जा सकता है:

अपघटन अद्वितीय नहीं है। यह अनुक्रमिक अपघटन में अनुकूलन के क्रम पर निर्भर करता है।

सहसंबंध का वर्ग और समझाया गया (या सूचनात्मक) भिन्नता

जिन स्थिति में ऐसे हैं कि नियम अपेक्षित मान रैखिक है; अर्थात ऐसे स्थिति में है जहां

यह सहप्रसरण की द्विरेखीयता से अनुसरण करता है

 

और

और कुल भिन्नता से विभाजित भिन्नता का समझाया गया घटक और के बीच के सहसंबंध का वर्ग है अर्थात ऐसे स्थिति में है
इस स्थिति का एक उदाहरण है जब द्विचर सामान्य (गाऊसी) वितरण है।

अधिक सामान्यतः, जब नियम अपेक्षा का एक अरैखिक फलन है [4]

के संयुक्त वितरण से निकाले गए डेटा का उपयोग करते हुए, जिसे पर के एक गैर-रैखिक प्रतिगमन से आर वर्ग के रूप में अनुमानित किया जा सकता है।} जब का गॉसियन वितरण है (और का एक व्युत्क्रमणीय कार्य है) या का स्वयं एक (सीमांत) गॉसियन वितरण है, भिन्नता का यह समझाया गया घटक पारस्परिक जानकारी पर एक निचली सीमा निर्धारित करता है:[4]


उच्च क्षण

इसी प्रकार का नियम तीसरे केन्द्रीय क्षण के लिए कहते है

उच्च संचयकों के लिए, एक सामान्यीकरण उपस्थित है। कुल संचयन का नियम देखें।

यह भी देखें

संदर्भ

  1. Neil A. Weiss, A Course in Probability, Addison–Wesley, 2005, pages 385–386.
  2. Joseph K. Blitzstein and Jessica Hwang: "Introduction to Probability"
  3. Mahler, Howard C.; Dean, Curtis Gary (2001). "Chapter 8: Credibility" (PDF). In Casualty Actuarial Society (ed.). कैजुअल्टी एक्चुरियल साइंस की नींव (4th ed.). Casualty Actuarial Society. pp. 525–526. ISBN 978-0-96247-622-8. Retrieved June 25, 2015.
  4. 4.0 4.1 4.2 4.3 4.4 Bowsher, C.G. and P.S. Swain, Identifying sources of variation and the flow of information in biochemical networks, PNAS May 15, 2012 109 (20) E1320-E1328.
  5. Neil A. Weiss, A Course in Probability, Addison–Wesley, 2005, pages 380–383.
  • Blitzstein, Joe. "Stat 110 Final Review (Eve's Law)" (PDF). stat110.net. Harvard University, Department of Statistics. Retrieved 9 July 2014.
  • Billingsley, Patrick (1995). Probability and Measure. New York, NY: John Wiley & Sons, Inc. ISBN 0-471-00710-2. (Problem 34.10(b))