संभाव्यता सिद्धांतकारों की तुलना में शायद सांख्यिकीविदों के लिए बेहतर ज्ञात भाषा में, दो शब्द क्रमशः अस्पष्टीकृत और विचरण के समझाए गए घटक हैं (cf. [[विचरण का अंश अस्पष्टीकृत]], व्याख्यात्मक भिन्नता)। [[ जिवानांकिकी |जिवानांकिकी]] में, विशेष रूप से [[विश्वसनीयता सिद्धांत]], पहले घटक को प्रक्रिया विचरण (ईवीपीवी) का अपेक्षित मान कहा जाता है और दूसरे को काल्पनिक साधनों (वीएचएम) का विचरण कहा जाता है।<ref name = "FCAS4ed">{{cite book |last1= Mahler|first1= Howard C. |last2= Dean|first2= Curtis Gary|year= 2001 |chapter= Chapter 8: Credibility |chapter-url= http://people.stat.sfu.ca/~cltsai/ACMA315/Ch8_Credibility.pdf |editor1-last= [[Casualty Actuarial Society]] |title= कैजुअल्टी एक्चुरियल साइंस की नींव|edition= 4th |publisher= [[Casualty Actuarial Society]] |pages= 525–526 |isbn= 978-0-96247-622-8|access-date= June 25, 2015}}</ref> ये दो घटक प्रारंभिक ईवी वीई से "प्रसरण की अपेक्षा" और "उम्मीद की भिन्नता" शब्द "ईव के नियम" का स्रोत भी हैं।
संभाव्यता सिद्धांतकारों की तुलना में शायद सांख्यिकीविदों के लिए बेहतर ज्ञात भाषा में, दो शब्द क्रमशः अस्पष्टीकृत और विचरण के समझाए गए घटक हैं (cf. [[विचरण का अंश अस्पष्टीकृत]], व्याख्यात्मक भिन्नता)। [[ जिवानांकिकी |जिवानांकिकी]] में, विशेष रूप से [[विश्वसनीयता सिद्धांत]], पहले घटक को प्रक्रिया विचरण (ईवीपीवी) का अपेक्षित मान कहा जाता है और दूसरे को काल्पनिक साधनों (वीएचएम) का विचरण कहा जाता है।<ref name = "FCAS4ed">{{cite book |last1= Mahler|first1= Howard C. |last2= Dean|first2= Curtis Gary|year= 2001 |chapter= Chapter 8: Credibility |chapter-url= http://people.stat.sfu.ca/~cltsai/ACMA315/Ch8_Credibility.pdf |editor1-last= [[Casualty Actuarial Society]] |title= कैजुअल्टी एक्चुरियल साइंस की नींव|edition= 4th |publisher= [[Casualty Actuarial Society]] |pages= 525–526 |isbn= 978-0-96247-622-8|access-date= June 25, 2015}}</ref> ये दो घटक प्रारंभिक ईवी वीई से "प्रसरण की अपेक्षा" और "उम्मीद की भिन्नता" शब्द "ईव के नियम" का स्रोत भी हैं।
== सूत्रीकरण ==
== सूत्रीकरण ==
<math>c \geq 2</math> घटकों के लिए एक सामान्य प्रसरण अपघटन सूत्र है (नीचे देखें)<ref name=bs>Bowsher, C.G. and P.S. Swain, Identifying sources of variation and the flow of information in biochemical networks, PNAS May 15, 2012 109 (20) E1320-E1328.</ref>। उदाहरण के लिए दो अनुकूलन यादृच्छिक चर के साथ:
<math>c \geq 2</math> घटकों के लिए एक सामान्य प्रसरण अपघटन सूत्र है (नीचे देखें)<ref name=bs>Bowsher, C.G. and P.S. Swain, Identifying sources of variation and the flow of information in biochemical networks, PNAS May 15, 2012 109 (20) E1320-E1328.</ref>। उदाहरण के लिए दो अनुकूलन यादृच्छिक चर के साथ:
Line 64:
Line 64:
== उच्च क्षण ==
== उच्च क्षण ==
इसी प्रकार का नियम तीसरे केन्द्रीय क्षण के लिए <math>\mu_3</math> कहते है
इसी प्रकार का नियम तीसरे केन्द्रीय क्षण के लिए <math>\mu_3</math> कहते है
संभाव्यता सिद्धांत में, कुल विचरण का नियम[1] या विचरण अपघटन सूत्र या नियम विचरण सूत्र या पुनरावृत्त प्रसरण के नियम को ईव के नियम के रूप में भी जाना जाता है,[2] बताता है कि यादि और एक ही प्रायिकता स्थान पर यादृच्छिक चर हैं, और तब का प्रसरण परिमित है
संभाव्यता सिद्धांतकारों की तुलना में शायद सांख्यिकीविदों के लिए बेहतर ज्ञात भाषा में, दो शब्द क्रमशः अस्पष्टीकृत और विचरण के समझाए गए घटक हैं (cf. विचरण का अंश अस्पष्टीकृत, व्याख्यात्मक भिन्नता)। जिवानांकिकी में, विशेष रूप से विश्वसनीयता सिद्धांत, पहले घटक को प्रक्रिया विचरण (ईवीपीवी) का अपेक्षित मान कहा जाता है और दूसरे को काल्पनिक साधनों (वीएचएम) का विचरण कहा जाता है।[3] ये दो घटक प्रारंभिक ईवी वीई से "प्रसरण की अपेक्षा" और "उम्मीद की भिन्नता" शब्द "ईव के नियम" का स्रोत भी हैं।
ध्यान दें कि नियम अपेक्षित मान अपने आप में एक यादृच्छिक चर है, जिसका मान के मान पर निर्भर करता है ध्यान दें कि नियम अपेक्षित मान देखते हुए event का एक कार्य है (यह वह जगह है जहां संभाव्यता सिद्धांत के पारंपरिक और कठोर केस-संवेदी अंकन का पालन महत्वपूर्ण हो जाता है!)। यादि हम लिखते हैं फिर यादृच्छिक चर बस इसी तरह की टिप्पणियां नियम भिन्नता पर प्रयुक्त होती हैं।
एक विशेष स्थिति , (कुल अपेक्षा के नियम के समान) कहता है कि यदि संपूर्ण परिणाम स्थान का एक विभाजन है, अर्थात, ये घटनाएँ परस्पर अनन्य और संपूर्ण हैं
इस सूत्र में, पहला घटक नियम भिन्नता की अपेक्षा है; अन्य दो घटक नियम अपेक्षा के विचरण हैं।
प्रमाण
कुल अपेक्षा के नियम का उपयोग करके कुल भिन्नता का नियम सिद्ध किया जा सकता है।[5] पहला,
विचरण की परिभाषा से। फिर से, विचरण की परिभाषा से, और कुल अपेक्षा के नियम को प्रयुक्त करने से, हमारे पास है
अब हम के नियम दूसरे क्षण को फिर से लिखते हैं इसके विचरण और पहले क्षण के संदर्भ में और दाहिनी ओर कुल अपेक्षा के नियम को प्रयुक्त करते हैं:
चूंकि किसी राशि की अपेक्षा अपेक्षाओं का योग है, इसलिए नियमो को अब पुनर्समूहित किया जा सकता है:
अंत में, हम कोष्ठक के दूसरे समूह में नियमो को नियम अपेक्षा के विचरण के रूप में पहचानते हैं ।:
गतिशील प्रणालियों पर प्रयुक्त सामान्य विचरण अपघटन
निम्नलिखित सूत्र दिखाता है कि प्रसंभाव्य गतिशील प्रणालियों के लिए सामान्य, माप सिद्धांतिक भिन्नता अपघटन सूत्र को कैसे प्रयुक्त किया जाए।[4] मान लीजिए समय पर प्रणाली चर का मान हो मान लीजिए कि हमारे पास आंतरिक इतिहास (प्राकृतिक निस्पंदन) है,है प्रत्येक प्रणाली चर के एक अलग संग्रह के इतिहास (प्रक्षेपवक्र) के अनुरूप है । संग्रहों को अलग करने की आवश्यकता नहीं है। के प्रसरण को हर समय के लिए घटकों में निम्नानुसार विघटित किया जा सकता है:
अपघटन अद्वितीय नहीं है। यह अनुक्रमिक अपघटन में अनुकूलन के क्रम पर निर्भर करता है।
सहसंबंध का वर्ग और समझाया गया (या सूचनात्मक) भिन्नता
जिन स्थिति में ऐसे हैं कि नियम अपेक्षित मान रैखिक है; अर्थात ऐसे स्थिति में है जहां
यह सहप्रसरण की द्विरेखीयता से अनुसरण करता है
और
और कुल भिन्नता से विभाजित भिन्नता का समझाया गया घटक और के बीच के सहसंबंध का वर्ग है अर्थात ऐसे स्थिति में है
इस स्थिति का एक उदाहरण है जब द्विचर सामान्य (गाऊसी) वितरण है।
अधिक सामान्यतः, जब नियम अपेक्षा का एक अरैखिक फलन है [4]
के संयुक्त वितरण से निकाले गए डेटा का उपयोग करते हुए, जिसे पर के एक गैर-रैखिक प्रतिगमन से आर वर्ग के रूप में अनुमानित किया जा सकता है।} जब का गॉसियन वितरण है (और का एक व्युत्क्रमणीय कार्य है) या का स्वयं एक (सीमांत) गॉसियन वितरण है, भिन्नता का यह समझाया गया घटक पारस्परिक जानकारी पर एक निचली सीमा निर्धारित करता है:[4]
उच्च क्षण
इसी प्रकार का नियम तीसरे केन्द्रीय क्षण के लिए कहते है
उच्च संचयकों के लिए, एक सामान्यीकरण उपस्थित है। कुल संचयन का नियम देखें।
↑ 4.04.14.24.34.4Bowsher, C.G. and P.S. Swain, Identifying sources of variation and the flow of information in biochemical networks, PNAS May 15, 2012 109 (20) E1320-E1328.
↑Neil A. Weiss, A Course in Probability, Addison–Wesley, 2005, pages 380–383.
Blitzstein, Joe. "Stat 110 Final Review (Eve's Law)"(PDF). stat110.net. Harvard University, Department of Statistics. Retrieved 9 July 2014.
Billingsley, Patrick (1995). Probability and Measure. New York, NY: John Wiley & Sons, Inc. ISBN0-471-00710-2. (Problem 34.10(b))