वृहद संख्या नियम

From Vigyanwiki
Revision as of 16:51, 27 March 2023 by alpha>Abhishek

right संभाव्यता सिद्धांत में, बड़ी संख्या का कानून (एलएलएन) एक प्रमेय है जो एक ही प्रयोग को बड़ी संख्या में करने के परिणाम का वर्णन करता है। कानून के अनुसार, बड़ी संख्या में परीक्षणों से प्राप्त परिणामों का औसत अपेक्षित मूल्य के करीब होना चाहिए और अधिक परीक्षण किए जाने पर अपेक्षित मूल्य के करीब होने की प्रवृत्ति होती है।[1] एलएलएन महत्वपूर्ण है क्योंकि यह कुछ यादृच्छिक घटनाओं के औसत के लिए स्थिर दीर्घकालिक परिणामों की गारंटी देता है।[1][2] उदाहरण के लिए, जबकि एक कैसीनो रूलेट व्हील के एक स्पिन में पैसा खो सकता है, इसकी कमाई बड़ी संख्या में स्पिनों पर अनुमानित प्रतिशत की ओर बढ़ती है। एक खिलाड़ी द्वारा जीतने वाली कोई भी लकीर अंततः खेल के मापदंडों से दूर हो जाएगी। महत्वपूर्ण रूप से, कानून तभी लागू होता है (जैसा कि नाम से पता चलता है) केवल तभी लागू होता है जब बड़ी संख्या में टिप्पणियों पर विचार किया जाता है। ऐसा कोई सिद्धांत नहीं है कि टिप्पणियों की एक छोटी संख्या अपेक्षित मूल्य के साथ मेल खाएगी या कि एक मूल्य की एक लकीर तुरंत दूसरों द्वारा संतुलित हो जाएगी (जुआरी की गिरावट देखें)।

एलएलएन केवल औसत पर लागू होता है। इसलिए, जबकि

समान दिखने वाले अन्य सूत्र सत्यापित नहीं हैं, जैसे कि सैद्धांतिक परिणामों से अपरिष्कृत विचलन:

n बढ़ने पर न केवल यह शून्य की ओर अभिसरित नहीं होता है, बल्कि n बढ़ने पर यह निरपेक्ष मान में वृद्धि करता है।

उदाहरण

उदाहरण के लिए, एक निष्पक्ष, छह-पक्षीय पासा का एक रोल 1, 2, 3, 4, 5, या 6 में से प्रत्येक को समान संभावना के साथ संख्या में से एक बनाता है। इसलिए, रोल के औसत का अपेक्षित मूल्य है:

बड़ी संख्या के कानून के अनुसार, यदि बड़ी संख्या में छह-तरफा पासा लुढ़काए जाते हैं, तो उनके मूल्यों का औसत (कभी-कभी नमूना माध्य कहा जाता है) 3.5 तक पहुंच जाएगा, सटीकता के साथ अधिक पासा फेंका जाता है।

यह बड़ी संख्या के कानून से अनुसरण करता है कि बर्नौली परीक्षणों की एक श्रृंखला में सफलता की अनुभवजन्य संभावना सैद्धांतिक संभाव्यता में परिवर्तित हो जाएगी। बर्नौली यादृच्छिक चर के लिए, अपेक्षित मूल्य सफलता की सैद्धांतिक संभावना है, और n ऐसे चर का औसत (यह मानते हुए कि वे स्वतंत्र हैं और समान रूप से यादृच्छिक चर वितरित किए गए हैं। स्वतंत्र और समान रूप से वितरित (i.i.d.)) वास्तव में सापेक्ष आवृत्ति है।

उदाहरण के लिए, एक निष्पक्ष सिक्का टॉस एक बर्नौली परीक्षण है। जब एक निष्पक्ष सिक्के को एक बार उछाला जाता है, तो परिणाम के हेड होने की सैद्धांतिक प्रायिकता बराबर होती है 12. इसलिए, बड़ी संख्या के कानून के अनुसार, बड़ी संख्या में सिक्का फ़्लिप में सिर का अनुपात मोटे तौर पर होना चाहिए 12. विशेष रूप से, n फ़्लिप के बाद सिर का अनुपात लगभग निश्चित रूप से अनुक्रम को सीमित कर देगा 12 जैसे n अनंत तक पहुंचता है।

यद्यपि सिर (और पूंछ) का अनुपात निकट आता है 12, लगभग निश्चित रूप से चित और पट की संख्या में पूर्ण अंतर बड़ा हो जाएगा क्योंकि फ़्लिप की संख्या बड़ी हो जाती है। अर्थात्, पूर्ण अंतर के एक छोटी संख्या होने की संभावना शून्य के करीब पहुंच जाती है क्योंकि फ़्लिप की संख्या बड़ी हो जाती है। इसके अलावा, लगभग निश्चित रूप से फ़्लिप की संख्या के पूर्ण अंतर का अनुपात शून्य तक पहुंच जाएगा। सहज रूप से, अपेक्षित अंतर बढ़ता है, लेकिन फ़्लिप की संख्या की तुलना में धीमी गति से।

एलएलएन का एक और अच्छा उदाहरण मोंटे कार्लो पद्धति है। ये विधियाँ गणना कलन विधि की एक विस्तृत श्रेणी हैं जो संख्यात्मक परिणाम प्राप्त करने के लिए बार-बार यादृच्छिक नमूने पर निर्भर करती हैं। दोहराव की संख्या जितनी अधिक होगी, सन्निकटन उतना ही बेहतर होगा। इस पद्धति के महत्वपूर्ण होने का मुख्य कारण यह है कि कभी-कभी अन्य तरीकों का उपयोग करना कठिन या असंभव होता है।[3]


सीमा

बड़ी संख्या में परीक्षणों से प्राप्त परिणामों का औसत कुछ मामलों में अभिसरण करने में विफल हो सकता है। उदाहरण के लिए, कॉची वितरण या कुछ परेटो वितरण (α<1) से लिए गए n परिणामों का औसत n के बड़े होने पर अभिसरित नहीं होगा; इसका कारण भारी पूंछ वाला वितरण है। कॉची वितरण और पेरेटो वितरण दो मामलों का प्रतिनिधित्व करते हैं: कॉची वितरण में अपेक्षा नहीं होती है,[4] जबकि पेरेटो वितरण की अपेक्षा (α<1) अनंत है।[5] कॉची-वितरित उदाहरण उत्पन्न करने का एक तरीका यह है कि यादृच्छिक संख्या -90° और +90° के बीच समान रूप से वितरित कोण के स्पर्शरेखा के बराबर होती है। माध्यिका शून्य है, लेकिन अपेक्षित मान मौजूद नहीं है, और वास्तव में n ऐसे चरों के औसत का वितरण एक ऐसे चर के समान है। यह संभाव्यता में शून्य (या किसी अन्य मान) की ओर अभिसरण नहीं करता है क्योंकि n अनंत तक जाता है।

और यदि परीक्षण एक चयन पूर्वाग्रह को एम्बेड करते हैं, जो मानव आर्थिक/तर्कसंगत व्यवहार में विशिष्ट है, तो बड़ी संख्या का कानून पूर्वाग्रह को हल करने में मदद नहीं करता है। भले ही परीक्षणों की संख्या में वृद्धि हो, चयन पूर्वाग्रह बना रहता है।

इतिहास

आणविक प्रसार बड़ी संख्या के नियम का एक उदाहरण है। प्रारंभ में, एक बाधा (मैजेंटा लाइन) के बाईं ओर विलेय अणु होते हैं और दाईं ओर कोई नहीं होता है। बाधा हटा दी जाती है, और विलेय पूरे कंटेनर को भरने के लिए विसरित हो जाता है।
  • Top: With a single molecule, the motion appears to be quite random.
  • Middle: With more molecules, there is clearly a trend where the solute fills the container more and more uniformly, but there are also random fluctuations.
  • Bottom: With an enormous number of solute molecules (too many to see), the randomness is essentially gone: The solute appears to move smoothly and systematically from high-concentration areas to low-concentration areas. In realistic situations, chemists can describe diffusion as a deterministic macroscopic phenomenon (see Fick's laws), despite its underlying random nature.

इतालवी गणितज्ञ जेरोम कार्डानो (1501-1576) ने बिना प्रमाण के कहा कि अनुभवजन्य आंकड़ों की सटीकता परीक्षणों की संख्या में सुधार करती है।[6] इसे तब बड़ी संख्या के कानून के रूप में औपचारिक रूप दिया गया था। एलएलएन (बाइनरी रैंडम वेरिएबल के लिए) का एक विशेष रूप सबसे पहले जैकब बर्नौली द्वारा सिद्ध किया गया था।[7] पर्याप्त रूप से कठोर गणितीय प्रमाण विकसित करने में उन्हें 20 साल से अधिक का समय लगा, जो उनके द्वारा प्रकाशित किया गया था Ars Conjectandi (अनुमान लगाने की कला) 1713 में। उन्होंने इसे अपनी स्वर्ण प्रमेय का नाम दिया लेकिन इसे आम तौर पर 'बर्नौली के प्रमेय' के रूप में जाना जाने लगा। इसे बर्नौली के सिद्धांत से भ्रमित नहीं होना चाहिए, जिसका नाम जैकब बर्नौली के भतीजे डेनियल बर्नौली के नाम पर रखा गया है। 1837 में, शिमोन डेनिस पोइसन|एस. डी. पोइसन ने आगे इसका वर्णन इस नाम से किया है "la loi des grands nombres" (बड़ी संख्या का कानून)।[8][9] तत्पश्चात् इसे दोनों नामों से जाना गया, लेकिन बड़ी संख्या के नियम का प्रयोग सबसे अधिक बार किया जाता है।

बर्नौली और पोइसन ने अपने प्रयासों को प्रकाशित करने के बाद, अन्य गणितज्ञों ने भी कानून को परिष्कृत करने में योगदान दिया, जिसमें पफन्युटी चेबीशेव भी शामिल थे,[10] एंड्री मार्कोव, एमिल बोरेल, फ्रांसेस्को पाओलो कैंटेली, एंड्री कोलमोगोरोव और अलेक्सांद्र खींचीं मार्कोव ने दिखाया कि कानून एक यादृच्छिक चर पर लागू हो सकता है जिसमें कुछ अन्य कमजोर धारणा के तहत एक परिमित भिन्नता नहीं है, और खिनचिन ने 1929 में दिखाया कि यदि श्रृंखला में स्वतंत्र रूप से समान रूप से वितरित यादृच्छिक चर शामिल हैं, तो यह पर्याप्त है कि अपेक्षित मूल्य मौजूद है। बड़ी संख्या के कमजोर कानून का सच होना।[11][12] आगे के इन अध्ययनों ने एलएलएन के दो प्रमुख रूपों को जन्म दिया है। एक को कमजोर कानून और दूसरे को मजबूत कानून कहा जाता है, संचयी नमूने के अनुक्रम की सीमा के दो अलग-अलग तरीकों के संदर्भ में अपेक्षित मूल्य का मतलब है; विशेष रूप से, जैसा कि नीचे समझाया गया है, मजबूत रूप का अर्थ है कमजोर।[11]

फॉर्म

बड़ी संख्या के कानून के दो अलग-अलग संस्करण हैं जिनका वर्णन नीचे किया गया है। उन्हें "बड़ी संख्या का मजबूत कानून" और "बड़ी संख्या का कमजोर कानून" कहा जाता है।[13][1]उस मामले के लिए कहा गया जहां X1, एक्स2, ... स्वतंत्र और समान रूप से वितरित रैंडम चर का एक अनंत अनुक्रम है | स्वतंत्र और समान रूप से वितरित (i.i.d.) अपेक्षित मूल्य E(X)1) = ई (एक्स2) = ... = µ, कानून के दोनों संस्करण बताते हैं कि नमूना औसत

अपेक्षित मान में परिवर्तित होता है:

 

 

 

 

(1)

(लेबेस्ग्यू एक्स की इंटीग्रैबिलिटीjइसका मतलब है कि अपेक्षित मूल्य ई (एक्सj) Lebesgue एकीकरण के अनुसार मौजूद है और परिमित है। इसका मतलब यह नहीं है कि संबंधित संभाव्यता माप लेबेस्गु माप के संबंध में बिल्कुल निरंतर है।)

परिचयात्मक संभाव्यता पाठ अक्सर समान परिमित विचरण को अतिरिक्त रूप से मानते हैं (सभी के लिए ) और यादृच्छिक चर के बीच कोई संबंध नहीं। उस स्थिति में, n यादृच्छिक चर के औसत का विचरण है

जिसका उपयोग सबूतों को छोटा और सरल बनाने के लिए किया जा सकता है। परिमित भिन्नता की यह धारणा आवश्यक नहीं है। बड़ा या अनंत विचरण अभिसरण धीमा कर देगा, लेकिन एलएलएन वैसे भी धारण करता है।[14] स्वतंत्रता (संभाव्यता सिद्धांत) # यादृच्छिक चर के दो से अधिक यादृच्छिक चर को जोड़ीदार स्वतंत्रता द्वारा प्रतिस्थापित किया जा सकता है[15] या विनिमेय यादृच्छिक चर[16] कानून के दोनों संस्करणों में।

मजबूत और कमजोर संस्करण के बीच का अंतर अभिसरण के तरीके पर जोर देने से संबंधित है। इन विधियों की व्याख्या के लिए, यादृच्छिक चरों का अभिसरण देखें।

कमजोर कानून

Simulation illustrating the law of large numbers. Each frame, a coin that is red on one side and blue on the other is flipped, and a dot is added in the corresponding column. A pie chart shows the proportion of red and blue so far. Notice that while the proportion varies significantly at first, it approaches 50% as the number of trials increases.

बड़ी संख्या का कमजोर नियम (जिसे अलेक्सांद्र खिनचिन का नियम भी कहा जाता है) बताता है कि अपेक्षित मूल्य की ओर संभाव्यता में नमूना औसत अभिसरण[17]

 

 

 

 

(2)

अर्थात्, किसी धनात्मक संख्या ε के लिए,

इस परिणाम की व्याख्या करते हुए, कमजोर कानून कहता है कि किसी भी गैर-शून्य मार्जिन निर्दिष्ट (ε) के लिए, चाहे कितना छोटा हो, पर्याप्त रूप से बड़े नमूने के साथ बहुत अधिक संभावना होगी कि अवलोकनों का औसत अपेक्षित मूल्य के करीब होगा; यानी मार्जिन के भीतर।

जैसा कि पहले उल्लेख किया गया है, कमजोर कानून i.i.d. के मामले में लागू होता है। यादृच्छिक चर, लेकिन यह कुछ अन्य मामलों में भी लागू होता है। उदाहरण के लिए, अपेक्षित मान को स्थिर रखते हुए, श्रृंखला में प्रत्येक यादृच्छिक चर के लिए भिन्नता भिन्न हो सकती है। यदि प्रसरण सीमित हैं, तो कानून लागू होता है, जैसा कि 1867 की शुरुआत में Pafnuty Chebyshev द्वारा दिखाया गया था। (यदि श्रृंखला के दौरान अपेक्षित मान बदलते हैं, तो हम कानून को संबंधित अपेक्षित मूल्यों से औसत विचलन पर लागू कर सकते हैं। कानून फिर बताता है कि यह संभाव्यता में शून्य हो जाता है।) वास्तव में, चेबीशेव का प्रमाण तब तक काम करता है जब तक पहले n मानों के औसत का विचलन शून्य हो जाता है क्योंकि n अनंत तक जाता है।[12]एक उदाहरण के रूप में, मान लें कि श्रृंखला में प्रत्येक यादृच्छिक चर औसत शून्य के साथ गॉसियन वितरण का अनुसरण करता है, लेकिन विचरण के बराबर , जिसकी कोई सीमा न हो। प्रत्येक चरण में, औसत सामान्य रूप से वितरित किया जाएगा (सामान्य रूप से वितरित चर के सेट के औसत के रूप में)। योग का प्रसरण भिन्नों के योग के बराबर है, जो कि स्पर्शोन्मुख है . इसलिए औसत का विचरण स्पर्शोन्मुख है और शून्य हो जाता है।

अपेक्षित मूल्य मौजूद न होने पर भी कमजोर कानून के लागू होने के उदाहरण हैं।

कड़ा कानून

बड़ी संख्या का मजबूत कानून (जिसे एंड्री कोलमोगोरोव का कानून भी कहा जाता है) कहता है कि नमूना औसत अनुमानित मूल्य के लगभग निश्चित अभिसरण[18]

 

 

 

 

(3)

वह है,

इसका मतलब यह है कि संभावना यह है कि जैसे-जैसे परीक्षणों की संख्या अनंत तक जाती है, अवलोकनों का औसत अपेक्षित मूल्य में परिवर्तित हो जाता है, एक के बराबर होता है। मजबूत कानून का आधुनिक सबूत कमजोर कानून की तुलना में अधिक जटिल है, और एक उपयुक्त अनुवर्ती पारित करने पर निर्भर करता है।[14] बड़ी संख्या के मजबूत कानून को एर्गोडिक सिद्धांत#एर्गोडिक प्रमेय के एक विशेष मामले के रूप में ही देखा जा सकता है। यह दृश्य एक यादृच्छिक चर के अपेक्षित मूल्य (केवल लेबेसेग एकीकरण के लिए) की सहज व्याख्या को सही ठहराता है जब दीर्घकालिक औसत के रूप में बार-बार नमूना लिया जाता है।

कानून 3 को मजबूत कानून कहा जाता है क्योंकि यादृच्छिक चर जो दृढ़ता से अभिसरण करते हैं (लगभग निश्चित रूप से) कमजोर रूप से अभिसरण करने की गारंटी देते हैं (संभाव्यता में)। हालाँकि, कमजोर कानून को कुछ स्थितियों में धारण करने के लिए जाना जाता है जहाँ मजबूत कानून पकड़ में नहीं आता है और फिर अभिसरण केवल कमजोर होता है (संभाव्यता में)। कमजोर कानून और मजबूत कानून के बीच #अंतर देखें।

मजबूत कानून एक अपेक्षित मूल्य (जैसे कमजोर कानून) वाले स्वतंत्र समान रूप से वितरित यादृच्छिक चर पर लागू होता है। यह 1930 में कोलमोगोरोव द्वारा सिद्ध किया गया था। यह अन्य मामलों में भी लागू हो सकता है। 1933 में कोलमोगोरोव ने यह भी दिखाया कि यदि चर स्वतंत्र और समान रूप से वितरित हैं, तो औसत के लिए लगभग निश्चित रूप से किसी चीज़ पर अभिसरण करने के लिए (इसे मजबूत कानून का एक और कथन माना जा सकता है), यह आवश्यक है कि उनका एक अपेक्षित मूल्य हो ( और फिर निश्चित रूप से औसत उस पर लगभग निश्चित रूप से अभिसरित होगा)।[19] योग स्वतंत्र हैं लेकिन समान रूप से वितरित नहीं हैं, तो

 

 

 

 

(2)

बशर्ते कि प्रत्येक एक्सk एक परिमित दूसरा पल है और

इस कथन को कोलमोगोरोव के मजबूत कानून के रूप में जाना जाता है, उदाहरण के लिए देखें। Sen & Singer (1993, Theorem 2.3.10).

कमजोर कानून और मजबूत कानून के बीच अंतर

कमजोर कानून बताता है कि निर्दिष्ट बड़े एन के लिए, औसत μ के करीब रहने की संभावना है। इस प्रकार, यह संभावना को खुला छोड़ देता है अनंत बार होता है, हालांकि बहुत कम अंतराल पर। (आवश्यक रूप से नहीं सभी के लिए एन)।

मजबूत कानून से पता चलता है कि यह लगभग निश्चित रूप से घटित नहीं होगा। इसका अर्थ यह नहीं है कि प्रायिकता 1 के साथ, हमारे पास वह किसी के लिए भी है ε > 0 असमानता सभी पर्याप्त बड़े n के लिए धारण करता है, क्योंकि अभिसरण आवश्यक रूप से उस सेट पर एक समान नहीं होता है जहाँ वह धारण करता है।[20] मजबूत कानून निम्नलिखित मामलों में पकड़ में नहीं आता है, लेकिन कमजोर कानून करता है।[21][22]

  1. Let X be an exponentially distributed random variable with parameter 1. The random variable has no expected value according to Lebesgue integration, but using conditional convergence and interpreting the integral as a Dirichlet integral, which is an improper Riemann integral, we can say:
  2. Let X be a geometrically distributed random variable with probability 0.5. The random variable does not have an expected value in the conventional sense because the infinite series is not absolutely convergent, but using conditional convergence, we can say:
  3. If the cumulative distribution function of a random variable is
    then it has no expected value, but the weak law is true.[23][24]
  4. Let Xk be plus or minus (starting at sufficiently large k so that the denominator is positive) with probability 12 for each.[19] The variance of Xk is then Kolmogorov's strong law does not apply because the partial sum in his criterion up to k = n is asymptotic to and this is unbounded. If we replace the random variables with Gaussian variables having the same variances, namely , then the average at any point will also be normally distributed. The width of the distribution of the average will tend toward zero (standard deviation asymptotic to ), but for a given ε, there is probability which does not go to zero with n, while the average sometime after the nth trial will come back up to ε. Since the width of the distribution of the average is not zero, it must have a positive lower bound p(ε), which means there is a probability of at least p(ε) that the average will attain ε after n trials. It will happen with probability p(ε)/2 before some m which depends on n. But even after m, there is still a probability of at least p(ε) that it will happen. (This seems to indicate that p(ε)=1 and the average will attain ε an infinite number of times.)

बड़ी संख्या का एक समान कानून

मान लीजिए f(x,θ) θ ∈ Θ के लिए परिभाषित कुछ फ़ंक्शन (गणित) है, और θ में निरंतर है। फिर किसी निश्चित θ के लिए अनुक्रम {f(X1, θ), च (एक्स2,θ), ...} स्वतंत्र और समान रूप से वितरित यादृच्छिक चर का एक क्रम होगा, जैसे कि इस अनुक्रम का नमूना माध्य संभाव्यता में E[f(X,θ)] में अभिसरण करता है। यह बिन्दुवार (θ में) अभिसरण है।

'बड़ी संख्या का एकसमान नियम' उन शर्तों को बताता है जिनके तहत अभिसरण θ में समान रूप से होता है। अगर[25][26]

  1. Θ कॉम्पैक्ट है,
  2. f(x,θ) प्रत्येक θ ∈ Θ पर लगभग हर जगह xs के लिए निरंतर है, और प्रत्येक θ पर x का मापनीय कार्य है।
  3. एक प्रभुत्व अभिसरण प्रमेय फ़ंक्शन डी (एक्स) मौजूद है जैसे कि ई [डी (एक्स)] < ∞, और

फिर E[f(X,θ)] θ में निरंतर है, और

यह परिणाम अनुमानकों के एक बड़े वर्ग की संगति प्राप्त करने के लिए उपयोगी है (Extremum estimator देखें)।

बड़ी संख्या का बोरेल का नियम

एमिल बोरेल के नाम पर बोरेल का बड़ी संख्या का कानून कहता है कि यदि एक प्रयोग को समान परिस्थितियों में स्वतंत्र रूप से बड़ी संख्या में दोहराया जाता है, तो किसी भी निर्दिष्ट घटना के होने का अनुपात लगभग किसी विशेष पर घटना की घटना की संभावना के बराबर होता है। परीक्षण; दोहराव की संख्या जितनी अधिक होगी, सन्निकटन उतना ही बेहतर होगा। अधिक सटीक रूप से, यदि विचाराधीन घटना को दर्शाता है, पी इसके घटित होने की संभावना, और एन'n(ई) पहले एन परीक्षणों में ई की संख्या होती है, फिर प्रायिकता एक के साथ,[27]

यह प्रमेय किसी घटना के घटित होने की दीर्घकालीन सापेक्ष आवृत्ति के रूप में संभाव्यता की सहज धारणा को कठोर बनाता है। संभाव्यता सिद्धांत में बड़ी संख्या के कई सामान्य कानूनों में से यह एक विशेष मामला है।

चेबिशेव की असमानता। चलो एक्स परिमित अपेक्षित मान μ और परिमित गैर-शून्य विचरण σ के साथ एक यादृच्छिक चर हो2</उप>। फिर किसी वास्तविक संख्या के लिए k > 0,


कमजोर कानून का सबूत

दिया गया एक्स1, एक्स2, ... आई.आई.डी. का एक अनंत अनुक्रम परिमित अपेक्षित मान के साथ यादृच्छिक चर , हम नमूना औसत के अभिसरण में रुचि रखते हैं

बड़ी संख्या का कमजोर कानून कहता है:

 

 

 

 

(2)

परिमित प्रसरण मानते हुए चेबिशेव की असमानता का उपयोग करके प्रमाण

यह प्रमाण परिमित विचरण की धारणा का उपयोग करता है (सभी के लिए ). यादृच्छिक चर की स्वतंत्रता का अर्थ उनके बीच कोई संबंध नहीं है, और हमारे पास वह है

अनुक्रम का सामान्य माध्य μ नमूना औसत का माध्य है:

चेबिशेव की असमानता का उपयोग करना का परिणाम

इसका उपयोग निम्नलिखित प्राप्त करने के लिए किया जा सकता है:

जैसे ही n अनंत तक पहुंचता है, अभिव्यक्ति 1 तक पहुंचती है। और संभाव्यता में अभिसरण की परिभाषा से, हमने प्राप्त किया है

 

 

 

 

(2)

विशेषता कार्यों के अभिसरण का उपयोग करके सबूत

जटिल कार्यों के लिए टेलर के प्रमेय द्वारा, परिमित माध्य μ के साथ किसी भी यादृच्छिक चर, एक्स के विशेषता कार्य (संभाव्यता सिद्धांत) के रूप में लिखा जा सकता है

सभी एक्स1, एक्स2, ... का अभिलाक्षणिक फलन समान है, इसलिए हम केवल इस φ को निरूपित करेंगेX.

चारित्रिक कार्यों के मूल गुणों में से हैं

अगर एक्स और वाई स्वतंत्र हैं।

इन नियमों का उपयोग विशेषता कार्य की गणना के लिए किया जा सकता है φ के संदर्भ मेंX:

सीमा ईitμ निरंतर यादृच्छिक चर μ का विशिष्ट कार्य है, और इसलिए लेवी निरंतरता प्रमेय द्वारा, μ के वितरण में अभिसरण:

μ एक स्थिरांक है, जिसका तात्पर्य है कि μ के वितरण में अभिसरण और μ की संभाव्यता में अभिसरण समकक्ष हैं (यादृच्छिक चर का अभिसरण देखें।) इसलिए,

 

 

 

 

(2)

इससे पता चलता है कि नमूना माध्य संभाव्यता में अभिसरण करता है मूल में विशेषता समारोह के व्युत्पन्न के लिए, जब तक कि उत्तरार्द्ध मौजूद है।

परिणाम

बड़ी संख्या का कानून अनुक्रम की प्राप्ति से अज्ञात वितरण की अपेक्षा प्रदान करता है, लेकिन संभाव्यता वितरण की कोई भी विशेषता भी प्रदान करता है।[1]बड़ी संख्या के बोरेल के नियम को लागू करके, प्रायिकता द्रव्यमान फलन आसानी से प्राप्त किया जा सकता है। वस्तुनिष्ठ प्रायिकता सामूहिक फलन में प्रत्येक घटना के लिए, किसी घटना के घटित होने की प्रायिकता को किसी भी निर्दिष्ट घटना के घटित होने के समय के अनुपात के साथ अनुमानित किया जा सकता है। दोहराव की संख्या जितनी अधिक होगी, सन्निकटन उतना ही बेहतर होगा। निरंतर मामले के लिए: , छोटे सकारात्मक एच के लिए। इस प्रकार, बड़े एन के लिए:

इस पद्धति से, एक ग्रिड (ग्रिड आकार 2h के साथ) के साथ पूरे एक्स-अक्ष को कवर किया जा सकता है और एक बार ग्राफ प्राप्त किया जा सकता है जिसे हिस्टोग्राम कहा जाता है।

यह भी देखें

टिप्पणियाँ

  1. 1.0 1.1 1.2 1.3 Dekking, Michel (2005). संभाव्यता और सांख्यिकी का एक आधुनिक परिचय. Springer. pp. 181–190. ISBN 9781852338961.
  2. Yao, Kai; Gao, Jinwu (2016). "अनिश्चित यादृच्छिक चर के लिए बड़ी संख्या का कानून". IEEE Transactions on Fuzzy Systems. 24 (3): 615–621. doi:10.1109/TFUZZ.2015.2466080. ISSN 1063-6706. S2CID 2238905.
  3. Kroese, Dirk P.; Brereton, Tim; Taimre, Thomas; Botev, Zdravko I. (2014). "मोंटे कार्लो पद्धति आज इतनी महत्वपूर्ण क्यों है". Wiley Interdisciplinary Reviews: Computational Statistics (in English). 6 (6): 386–392. doi:10.1002/wics.1314. S2CID 18521840.
  4. Dekking, Michel (2005). संभाव्यता और सांख्यिकी का एक आधुनिक परिचय. Springer. pp. 92. ISBN 9781852338961.
  5. Dekking, Michel (2005). संभाव्यता और सांख्यिकी का एक आधुनिक परिचय. Springer. pp. 63. ISBN 9781852338961.
  6. Mlodinow, L. (2008). शराबी की चाल. New York: Random House. p. 50.
  7. Bernoulli, Jakob (1713). "4". Ars Conjectandi: Usum & Applicationem Praecedentis Doctrinae in Civilibus, Moralibus & Oeconomicis (in Latina). Translated by Sheynin, Oscar.
  8. Poisson names the "law of large numbers" (la loi des grands nombres) in: Poisson, S. D. (1837). Probabilité des jugements en matière criminelle et en matière civile, précédées des règles générales du calcul des probabilitiés (in français). Paris, France: Bachelier. p. 7. He attempts a two-part proof of the law on pp. 139–143 and pp. 277 ff.
  9. Hacking, Ian (1983). "19th-century Cracks in the Concept of Determinism". Journal of the History of Ideas. 44 (3): 455–475. doi:10.2307/2709176. JSTOR 2709176.
  10. Tchebichef, P. (1846). "Démonstration élémentaire d'une proposition générale de la théorie des probabilités". Journal für die reine und angewandte Mathematik (in français). 1846 (33): 259–267. doi:10.1515/crll.1846.33.259. S2CID 120850863.
  11. 11.0 11.1 Seneta 2013.
  12. 12.0 12.1 Yuri Prohorov. "बड़ी संख्या का कानून". Encyclopedia of Mathematics. EMS Press.
  13. Bhattacharya, Rabi; Lin, Lizhen; Patrangenaru, Victor (2016). गणितीय सांख्यिकी और बड़े नमूना सिद्धांत में एक कोर्स. Springer Texts in Statistics. New York, NY: Springer New York. doi:10.1007/978-1-4939-4032-5. ISBN 978-1-4939-4030-1.
  14. 14.0 14.1 "The strong law of large numbers – What's new". Terrytao.wordpress.com. 19 June 2008. Retrieved 2012-06-09.
  15. Etemadi, N. Z. (1981). "बड़ी संख्या के मजबूत कानून का एक प्राथमिक प्रमाण". Wahrscheinlichkeitstheorie Verw Gebiete. 55 (1): 119–122. doi:10.1007/BF01013465. S2CID 122166046.
  16. Kingman, J. F. C. (April 1978). "विनिमेयता का उपयोग". The Annals of Probability (in English). 6 (2). doi:10.1214/aop/1176995566. ISSN 0091-1798.
  17. Loève 1977, Chapter 1.4, p. 14
  18. Loève 1977, Chapter 17.3, p. 251
  19. 19.0 19.1 Yuri Prokhorov. "बड़ी संख्या का मजबूत कानून". Encyclopedia of Mathematics.
  20. Ross (2009)
  21. Lehmann, Erich L.; Romano, Joseph P. (2006-03-30). कमजोर कानून निरंतर में परिवर्तित हो जाता है. ISBN 9780387276052.
  22. Dguvl Hun Hong; Sung Ho Lee (1998). "एक्सचेंजेबल रैंडम वेरिएबल्स के लिए बड़ी संख्या के कमजोर कानून पर एक नोट" (PDF). Communications of the Korean Mathematical Society. 13 (2): 385–391. Archived from the original (PDF) on 2016-07-01. Retrieved 2014-06-28.
  23. Mukherjee, Sayan. "Law of large numbers" (PDF). Archived from the original (PDF) on 2013-03-09. Retrieved 2014-06-28.
  24. J. Geyer, Charles. "Law of large numbers" (PDF).
  25. Newey & McFadden 1994, Lemma 2.4
  26. Jennrich, Robert I. (1969). "गैर रेखीय कम से कम वर्ग अनुमानकों के स्पर्शोन्मुख गुण". The Annals of Mathematical Statistics. 40 (2): 633–643. doi:10.1214/aoms/1177697731.
  27. An Analytic Technique to Prove Borel's Strong Law of Large Numbers Wen, L. Am Math Month 1991


संदर्भ

  • Grimmett, G. R.; Stirzaker, D. R. (1992). Probability and Random Processes (2nd ed.). Oxford: Clarendon Press. ISBN 0-19-853665-8.
  • Durrett, Richard (1995). Probability: Theory and Examples (2nd ed.). Duxbury Press.
  • Martin Jacobsen (1992). Videregående Sandsynlighedsregning [Advanced Probability Theory] (in dansk) (3rd ed.). Copenhagen: HCØ-tryk. ISBN 87-91180-71-6.
  • Loève, Michel (1977). Probability theory 1 (4th ed.). Springer.
  • Newey, Whitney K.; McFadden, Daniel (1994). "36". Large sample estimation and hypothesis testing. Handbook of econometrics. Vol. IV. Elsevier Science. pp. 2111–2245.
  • Ross, Sheldon (2009). A first course in probability (8th ed.). Prentice Hall. ISBN 978-0-13-603313-4.
  • Sen, P. K; Singer, J. M. (1993). Large sample methods in statistics. Chapman & Hall.
  • Seneta, Eugene (2013). "A Tricentenary history of the Law of Large Numbers". Bernoulli. 19 (4): 1088–1121. arXiv:1309.6488. doi:10.3150/12-BEJSP12. S2CID 88520834.


बाहरी संबंध