अपसरण (सांख्यिकी)
सूचना ज्यामिति में, विचलन एक प्रकार की सांख्यिकीय दूरी है: एक बाइनरी फ़ंक्शन जो एक संभाव्यता वितरण से दूसरे सांख्यिकीय कई गुना पर अलगाव को स्थापित करता है।
सबसे सरल विचलन यूक्लिडियन दूरी (SED) है, और विचलन को SED के सामान्यीकरण के रूप में देखा जा सकता है। अन्य सबसे महत्वपूर्ण विचलन सापेक्ष एन्ट्रॉपी (कुल्बैक-लीब्लर विचलन, केएल विचलन) है, जो सूचना सिद्धांत के लिए केंद्रीय है। कई अन्य विशिष्ट विचलन और विचलन के वर्ग हैं, विशेष रूप से f-divergence|f-divergences और Bregman विचलन (देखें § Examples).
परिभाषा
एक अलग करने योग्य कई गुना दिया गया[lower-alpha 1] आयाम का , पर एक अंतर एक है -समारोह संतुष्टि देने वाला:[1][2]
- सभी के लिए (गैर-नकारात्मकता),
- अगर और केवल अगर (सकारात्मकता),
- हर मोड़ पर , अत्यल्प विस्थापनों के लिए धनात्मक-निश्चित द्विघात रूप है से .
सांख्यिकी के अनुप्रयोगों में, कई गुना आमतौर पर एक पैरामीट्रिक परिवार के मापदंडों का स्थान होता है।
शर्त 3 का मतलब है स्पर्शरेखा स्थान पर एक आंतरिक उत्पाद को परिभाषित करता है हरएक के लिए . तब से है पर , यह रिमेंनियन मीट्रिक को परिभाषित करता है पर .
स्थानीय रूप से , हम निर्देशांक के साथ एक स्थानीय समन्वय चार्ट बना सकते हैं , तो विचलन है
स्थिति 3 के आयामी विश्लेषण से पता चलता है कि विचलन में वर्ग दूरी का आयाम है।[3]
द्वैत विचलन परिभाषित किया जाता है
जब हम इसके विपरीत करना चाहते हैं ख़िलाफ़ , हम सन्दर्भ देते है प्राथमिक विचलन के रूप में।
किसी विचलन को देखते हुए , इसके सममित संस्करण को इसके दोहरे विचलन के साथ औसत करके प्राप्त किया जाता है:[3]
अन्य समान अवधारणाओं से अंतर
मीट्रिक (गणित) के विपरीत, डाइवर्जेंस को सममित होने की आवश्यकता नहीं है, और विषमता अनुप्रयोगों में महत्वपूर्ण है।[3] तद्नुसार, अक्सर p और q के बीच के बजाय p या p से q के विचलन को असमान रूप से संदर्भित किया जाता है। दूसरे, डाइवर्जेंस वर्ग दूरी का सामान्यीकरण करते हैं, रेखीय दूरी का नहीं, और इस प्रकार त्रिकोण असमानता को संतुष्ट नहीं करते हैं, लेकिन कुछ डाइवर्जेंस (जैसे कि ब्रेगमैन डाइवर्जेंस#गुण) पाइथागोरस प्रमेय के सामान्यीकरण को संतुष्ट करते हैं।
सामान्य आँकड़ों और संभाव्यता में, विचलन आमतौर पर किसी भी प्रकार के कार्य को संदर्भित करता है , कहाँ संभाव्यता वितरण या विचाराधीन अन्य वस्तुएं हैं, जैसे कि शर्तें 1, 2 संतुष्ट हैं। सूचना ज्यामिति में प्रयुक्त विचलन के लिए शर्त 3 आवश्यक है।
एक उदाहरण के रूप में, संभाव्यता उपायों की कुल भिन्नता दूरी, आमतौर पर इस्तेमाल किया जाने वाला सांख्यिकीय विचलन, स्थिति 3 को संतुष्ट नहीं करता है।
नोटेशन
विचलन के लिए संकेतन क्षेत्रों के बीच महत्वपूर्ण रूप से भिन्न होता है, हालांकि कुछ परंपराएं हैं।
डायवर्जेंस को आमतौर पर एक अपरकेस 'डी' के साथ नोट किया जाता है, जैसा कि में है , उन्हें मीट्रिक दूरियों से अलग करने के लिए, जिन्हें लोअरकेस 'डी' के साथ नोट किया गया है। जब कई डायवर्जेंस उपयोग में होते हैं, तो वे आमतौर पर सबस्क्रिप्ट के साथ अलग-अलग होते हैं, जैसे कि कुल्बैक-लीब्लर डाइवर्जेंस (KL डाइवर्जेंस) के लिए।
अक्सर मापदंडों के बीच एक अलग विभाजक का उपयोग किया जाता है, विशेष रूप से विषमता पर जोर देने के लिए। सूचना सिद्धांत में, आमतौर पर एक डबल बार का उपयोग किया जाता है: ; यह समान है, लेकिन सशर्त संभाव्यता के लिए संकेतन से अलग है, , और सापेक्ष एन्ट्रॉपी के रूप में विचलन को सापेक्ष माप के रूप में व्याख्या करने पर जोर देता है; केएल विचलन के लिए यह अंकन सामान्य है। इसके बजाय एक कोलन का उपयोग किया जा सकता है,[lower-alpha 2] जैसा ; यह दो वितरणों का समर्थन करने वाली सापेक्ष जानकारी पर जोर देता है।
मापदंडों के लिए अंकन भी भिन्न होता है। अपरकेस प्रायिकता वितरण के रूप में मापदंडों की व्याख्या करता है, जबकि लोअरकेस या अंतरिक्ष में बिंदुओं के रूप में उनकी ज्यामितीय रूप से व्याख्या करता है, और या उन्हें उपायों के रूप में व्याख्या करता है।
ज्यामितीय गुण
डायवर्जेंस के कई गुणों को प्राप्त किया जा सकता है यदि हम एस को एक सांख्यिकीय कई गुना तक सीमित करते हैं, जिसका अर्थ है कि इसे परिमित-आयामी समन्वय प्रणाली θ के साथ पैरामीट्रिज किया जा सकता है, ताकि वितरण के लिए p ∈ S हम लिख सकते हैं p = p(θ).
एक जोड़ी अंक के लिए p, q ∈ S निर्देशांक θ के साथp और θq, डी (पी, क्यू) के आंशिक डेरिवेटिव को निरूपित करें
अब हम इन कार्यों को एक विकर्ण तक सीमित करते हैं p = q, और निरूपित करें [4]
परिभाषा के अनुसार, फलन D(p, q) को न्यूनतम किया जाता है p = q, और इसलिए
जहां मैट्रिक्स जी(D) सकारात्मक अर्ध-निश्चित मैट्रिक्स है | सकारात्मक अर्ध-निश्चित है और कई गुना एस पर एक अद्वितीय रिमेंनियन मीट्रिक परिभाषित करता है।
डायवर्जेंस डी (·, ·) भी कनेक्शन-मुक्त affine कनेक्शन के एक अद्वितीय मरोड़ को परिभाषित करता है ∇(डी) </ sup> गुणांक के साथ
और इस कनेक्शन के लिए दोहरी संबंध कनेक्शन ∇* दोहरी विचलन डी* द्वारा उत्पन्न होता है।
इस प्रकार, एक विचलन डी (·, ·) एक सांख्यिकीय कई गुना पर एक अद्वितीय द्वैतवादी संरचना उत्पन्न करता है (जी(डी) ∇, ∇(डी) ∇, ∇(डी*)). इसका विलोम भी सत्य है: प्रत्येक मरोड़-मुक्त द्वैतवादी संरचना एक सांख्यिकीय कई गुना पर कुछ विश्व स्तर पर परिभाषित विचलन समारोह से प्रेरित होती है (जो कि अद्वितीय होने की आवश्यकता नहीं है)।[5] उदाहरण के लिए, जब D एक f-विचलन है[6] कुछ फ़ंक्शन ƒ(·) के लिए, तो यह रीमैनियन मीट्रिक उत्पन्न करता है g(Df) = c·g और कनेक्शन ∇(Df) = ∇(α), जहां g कैनोनिकल फिशर सूचना मीट्रिक है, ∇(ए) α-कनेक्शन है, c = ƒ′′(1), और α = 3 + 2ƒ′′′(1)/ƒ′′(1).
उदाहरण
दो सबसे महत्वपूर्ण विचलन सापेक्ष एंट्रॉपी (कुल्बैक-लीब्लर विचलन, केएल विचलन) हैं, जो सूचना सिद्धांत और आंकड़ों के लिए केंद्रीय है, और स्क्वायर यूक्लिडियन दूरी (एसईडी)। अधिकतम एंट्रॉपी और कम से कम वर्गों के सिद्धांत के माध्यम से, विशेष रूप से लॉजिस्टिक प्रतिगमन और रैखिक प्रतिगमन में, इन दो भिन्नताओं को कम करना मुख्य तरीका है कि रैखिक उलटा समस्या हल हो जाती है।[7]
डाइवर्जेंस के दो सबसे महत्वपूर्ण वर्ग हैं एफ-डाइवर्जेंस|एफ-डाइवर्जेंस और ब्रैगमैन डाइवर्जेंस; हालाँकि, साहित्य में अन्य प्रकार के विचलन कार्यों का भी सामना करना पड़ता है। कुल्बैक-लीब्लर विचलन एकमात्र विचलन है जो एक एफ-विचलन और ब्रैगमैन विचलन दोनों है;[8] चुकता यूक्लिडियन विचलन एक ब्रेगमैन विचलन है (फ़ंक्शन के अनुरूप ), लेकिन f-विचलन नहीं।
एफ विचलन
उत्तल कार्य दिया गया ऐसा है कि , द्वारा उत्पन्न एफ-विचलन परिभाषित किया जाता है
Kullback–Leibler divergence: | |
squared Hellinger distance: | |
Jensen–Shannon divergence: | |
α-divergence | |
chi-squared divergence: | |
(α,β)-product divergence[citation needed]: |
ब्रैगमैन डायवर्जेंस
ब्रैगमैन डायवर्जेंस उत्तल सेटों पर उत्तल कार्यों के अनुरूप हैं। एक कड़ाई से उत्तल कार्य दिया गया है, निरंतर भिन्न कार्य F एक उत्तल सेट पर, जिसे ब्रैगमैन जनरेटर के रूप में जाना जाता है, ब्रैगमैन डाइवर्जेंस उत्तलता को मापता है: के रैखिक सन्निकटन की त्रुटि F से q पर मान के सन्निकटन के रूप में p:
ब्रैगमैन विचलन के लिए दोहरी विचलन उत्तल संयुग्म द्वारा उत्पन्न विचलन है {{math|F*}मूल विचलन के ब्रेगमैन जनरेटर का }। उदाहरण के लिए, यूक्लिडियन दूरी के वर्ग के लिए, जनरेटर है , जबकि सापेक्ष एन्ट्रापी के लिए जनरेटर ऋणात्मक एन्ट्रापी है .
इतिहास
अपसरण शब्द का उपयोग - यह किस प्रकार के कार्यों को संदर्भित करता है, और विभिन्न सांख्यिकीय दूरियों को क्या कहा जाता है - समय के साथ महत्वपूर्ण रूप से भिन्न होता है, लेकिन सी द्वारा। 2000 सूचना ज्यामिति के भीतर, विशेष रूप से पाठ्यपुस्तक में वर्तमान उपयोग पर तय किया गया था Amari & Nagaoka (2000).[1]
एक सांख्यिकीय दूरी के लिए विचलन शब्द का उपयोग अनौपचारिक रूप से सी से विभिन्न संदर्भों में किया गया था। 1910 से सी। 1940. इसका औपचारिक उपयोग कम से कम दिनांकित है Bhattacharyya (1943), उनके संभाव्यता वितरण द्वारा परिभाषित दो सांख्यिकीय आबादी के बीच विचलन के माप पर हकदार है, जो भट्टाचार्य दूरी को परिभाषित करता है, और Bhattacharyya (1946), दो बहुराष्ट्रीय आबादी के बीच विचलन के माप पर हकदार, जिसने भट्टाचार्य कोण को परिभाषित किया। में कुल्बैक-लीब्लर विचलन के लिए इसके उपयोग से यह शब्द लोकप्रिय हुआ Kullback & Leibler (1951) और पाठ्यपुस्तक में इसका उपयोग Kullback (1959). विचलन शब्द का प्रयोग आम तौर पर किया जाता था Ali & Silvey (1966) सांख्यिकीय दूरियों के लिए। सांख्यिकीय दूरियों के पूर्व उपयोगों के अनेक संदर्भ में दिए गए हैं Adhikari & Joshi (1956) और Kullback (1959, pp. 6–7, 1.3 Divergence).
Kullback & Leibler (1951) वास्तव में सममित विचलन को संदर्भित करने के लिए विचलन का उपयोग किया गया था (यह फ़ंक्शन पहले से ही 1948 में हेरोल्ड जेफरीस द्वारा परिभाषित और उपयोग किया गया था[9]), भेदभाव के लिए औसत जानकारी के रूप में असममित कार्य का जिक्र करते हुए ... प्रति अवलोकन,[10] जबकि Kullback (1959) असममित कार्य को निर्देशित विचलन के रूप में संदर्भित करता है।[11] Ali & Silvey (1966) आम तौर पर इस तरह के एक समारोह को विचलन के गुणांक के रूप में संदर्भित किया जाता है, और दिखाया गया है कि कई मौजूदा कार्यों को एफ-विचलन के रूप में व्यक्त किया जा सकता है, जेफरीस के समारोह को जेफरीस के विचलन के उपाय (आज जेफरीस विचलन), और कुल्बैक-लीब्लर के असममित समारोह के रूप में संदर्भित किया गया है। (प्रत्येक दिशा में) कुलबैक और लीब्लर के भेदभावपूर्ण जानकारी के उपायों के रूप में (आज कुल्बैक-लीब्लर विचलन)।[12]
विचलन की सूचना ज्यामिति परिभाषा (इस लेख का विषय) को शुरू में अर्ध-दूरी सहित वैकल्पिक शब्दों द्वारा संदर्भित किया गया था Amari (1982, p. 369) और कंट्रास्ट फ़ंक्शन Eguchi (1985), हालांकि विचलन का उपयोग किया गया था Amari (1985) के लिए α-विचलन, और सामान्य वर्ग के लिए मानक बन गया है।[1][2]
विचलन शब्द एक दूरी (मीट्रिक) के विपरीत है, क्योंकि सममित विचलन त्रिभुज असमानता को संतुष्ट नहीं करता है।[13] उदाहरण के लिए, ब्रैगमैन दूरी शब्द अभी भी पाया जाता है, लेकिन ब्रैगमैन डाइवर्जेंस अब पसंद किया जाता है।
सांकेतिक रूप से, Kullback & Leibler (1951) ने उनके असममित कार्य को निरूपित किया , जबकि Ali & Silvey (1966) उनके कार्यों को लोअरकेस 'डी' के रूप में दर्शाता है .
यह भी देखें
- सांख्यिकीय दूरी
टिप्पणियाँ
- ↑ Throughout, we only require differentiability class C2 (continuous with continuous first and second derivatives), since only second derivatives are required. In practice, commonly used statistical manifolds and divergences are infinitely differentiable ("smooth").
- ↑ A colon is used in Kullback & Leibler (1951, p. 80), where the KL divergence between measure and is written as .
संदर्भ
- ↑ 1.0 1.1 1.2 Amari & Nagaoka 2000, chapter 3.2.
- ↑ 2.0 2.1 Amari 2016, p. 10, Definition 1.1.
- ↑ 3.0 3.1 3.2 Amari 2016, p. 10.
- ↑ Eguchi (1992)
- ↑ Matumoto (1993)
- ↑ Nielsen, F.; Nock, R. (2013). "On the Chi square and higher-order Chi distances for approximating f-divergences". IEEE Signal Processing Letters. 21: 10–13. arXiv:1309.3029. doi:10.1109/LSP.2013.2288355.
- ↑ Csiszar 1991.
- ↑ Jiao, Jiantao; Courtade, Thomas; No, Albert; Venkat, Kartik; Weissman, Tsachy (December 2014). "Information Measures: the Curious Case of the Binary Alphabet". IEEE Transactions on Information Theory. 60 (12): 7616–7626. arXiv:1404.6810. doi:10.1109/TIT.2014.2360184. ISSN 0018-9448.
- ↑ Jeffreys 1948, p. 158.
- ↑ Kullback & Leibler 1951, p. 80.
- ↑ Kullback 1959, p. 7.
- ↑ Ali & Silvey 1966, p. 139.
- ↑ Kullback 1959, p. 6.
ग्रन्थसूची
- Adhikari, B. P.; Joshi, D. D. (1956). "Distance, discrimination et résumé exhaustif". Pub. Inst. Stat. Univ. Paris. 5: 57–74.
- Amari, Shun-Ichi (1982). "Differential Geometry of Curved Exponential Families-Curvatures and Information Loss". The Annals of Statistics. 10 (2): 357–385. ISSN 0090-5364. JSTOR 2240672.
- Amari, Shun-Ichi (1985). Differential-Geometrical Methods in Statistics. Lecture Notes in Statistics. Vol. 28. Springer-Verlag.
- Amari, Shun-ichi; Nagaoka, Hiroshi (2000). Methods of information geometry. Oxford University Press. ISBN 0-8218-0531-2.
- Amari, Shun-ichi (2016). Information Geometry and Its Applications. Applied Mathematical Sciences. Springer Japan. pp. XIII, 374. doi:10.1007/978-4-431-55978-8. ISBN 978-4-431-55977-1.
- Bhattacharyya, A. (1946). "On a Measure of Divergence between Two Multinomial Populations". Sankhyā: The Indian Journal of Statistics (1933-1960). 7 (4): 401–406. ISSN 0036-4452. JSTOR 25047882.
- Bhattacharyya, A. (1943). "On a measure of divergence between two statistical populations defined by their probability distributions". Bull. Calcutta Math. Soc. 35: 99–109.
- Csiszar, Imre (1 December 1991). "Why Least Squares and Maximum Entropy? An Axiomatic Approach to Inference for Linear Inverse Problems". The Annals of Statistics. 19 (4). doi:10.1214/aos/1176348385.
- Eguchi, Shinto (1985). "A differential geometric approach to statistical inference on the basis of contrast functionals". Hiroshima Mathematical Journal. 15 (2): 341–391. doi:10.32917/hmj/1206130775.
- Eguchi, Shinto (1992). "Geometry of minimum contrast". Hiroshima Mathematical Journal. 22 (3): 631–647. doi:10.32917/hmj/1206128508.
- Ali, S. M.; Silvey, S. D. (1966). "A General Class of Coefficients of Divergence of One Distribution from Another". Journal of the Royal Statistical Society. Series B (Methodological). 28 (1): 131–142. ISSN 0035-9246. JSTOR 2984279.
- Jeffreys, Harold (1948). Theory of Probability (Second ed.). Oxford University Press.
- Kullback, S.; Leibler, R.A. (1951). "On information and sufficiency". Annals of Mathematical Statistics. 22 (1): 79–86. doi:10.1214/aoms/1177729694. JSTOR 2236703. MR 0039968.
- Kullback, S. (1959), Information Theory and Statistics, John Wiley & Sons. Republished by Dover Publications in 1968; reprinted in 1978: ISBN 0-8446-5625-9
- Matumoto, Takao (1993). "Any statistical manifold has a contrast function — on the C³-functions taking the minimum at the diagonal of the product manifold". Hiroshima Mathematical Journal. 23 (2): 327–332. doi:10.32917/hmj/1206128255.