दूरी सहसंबंध: Difference between revisions
(Created page with "सांख्यिकी और संभाव्यता सिद्धांत में, दूरी सहसंबंध या दूरी सहप्रसर...") |
No edit summary |
||
Line 1: | Line 1: | ||
सांख्यिकी और | सांख्यिकी और प्रायिकता सिद्धांत में, '''दूरी सहसंबंध या दूरी सहसंयोजक''', यादृच्छिक के दो युग्मित यादृच्छिक वैक्टर के बीच निर्भरता का एक माप है। जनसंख्या सहसंबंध गुणांक शून्य है अगर और केवल अगर यादृच्छिक वेक्टर स्वतंत्र है। इस प्रकार, दूरी सहसंबंध दो यादृच्छिक चर या यादृच्छिक वेक्टर के बीच रैखिक और गैर-रेखीय संबंध दोनों को मापता है। यह पियर्सन के सहसंबंध के विपरीत है,जो केवल दो यादृच्छिक चर के बीच रैखिक संबंध का आकलन कर सकता है। | ||
दूरी सहसंबंध का उपयोग क्रमपरिवर्तन परीक्षण के साथ निर्भरता का [[सांख्यिकीय परिकल्पना परीक्षण|सांख्यिकीय परीक्षण]] करने के लिए किया जा सकता है। सबसे पहले दो यादृच्छिक वैक्टरों के बीच दूरी सहसंबंध ([[यूक्लिडियन वेक्टर|यूक्लिडियन]] दूरी मैट्रिक्स के पुन: केंद्रित होने सहित) की गणना करता है और फिर इस मान की तुलना डेटा के कई फेरबदल के दूरी सहसंबंधों से करता है।[[Image:Distance Correlation Examples.svg|thumb|upright=1.8|right|प्रत्येक सेट के लिए x और y के दूरी सहसंबंध गुणांक के साथ (x, y) बिंदुओं के कई सेट। सहसंबंध पर ग्राफ की तुलना करें]] | |||
== पृष्ठभूमि == | == पृष्ठभूमि == | ||
निर्भरता का | निर्भरता का संरचनात्मक माप, [[पियर्सन उत्पाद-आघूर्ण सहसंबंध गुणांक|पियर्सन]] [[पियर्सन उत्पाद-आघूर्ण सहसंबंध गुणांक|सहसंबंध गुणांक]],<ref>{{harvs|nb|last=Pearson|year=1895a|year2=1895b}}</ref> मुख्य रूप से दो चर के बीच एक रैखिक संबंध के प्रति संवेदनशील है. दूरी सहसंबंध 2005 में गैबोर जे द्वारा प्रस्तुत किया गया था. पियर्सन के सहसंबंध की इस कमी को दूर करने के लिए कई व्याख्यानों में स्ज़ेकली, अर्थात् यह निर्भर चर के लिए आसानी से शून्य हो सकता है. सहसंबंध = 0 ( असंबद्धता ) स्वतंत्रता का अर्थ नहीं है जबकि दूरी सहसंबंध = 0 स्वतंत्रता का अर्थ है. दूरी सहसंबंध पर पहला परिणाम 2007 और 2009 में प्रकाशित हुआ था।{{sfn|Székely|Rizzo|Bakirov|2007}}{{sfn|Székely|Rizzo|2009a}} यह साबित हो गया था कि दूरी सहसंयोजक ब्राउनियन सहसंयोजक के समान है।{{sfn|Székely|Rizzo|2009a}} ये उपाय ऊर्जा दूरी के उदाहरण हैं। | ||
दूरी सहसंबंध कई अन्य मात्राओं से | दूरी सहसंबंध कई अन्य मात्राओं से लिया गया है जो इसके विनिर्देशन में उपयोग किए जाते हैं, विशेष रूप से: दूरी विचरण, दूरी मानक विचलन, और दूरी सहसंयोजक। ये मात्रा पियरसन उत्पाद-पल सहसंबंध गुणांक के विनिर्देशन में संबंधित संख्याओं के साथ सामान्य क्षणों के समान भूमिका निभाती हैं। | ||
== परिभाषाएँ == | == परिभाषाएँ == |
Revision as of 18:19, 25 June 2023
सांख्यिकी और प्रायिकता सिद्धांत में, दूरी सहसंबंध या दूरी सहसंयोजक, यादृच्छिक के दो युग्मित यादृच्छिक वैक्टर के बीच निर्भरता का एक माप है। जनसंख्या सहसंबंध गुणांक शून्य है अगर और केवल अगर यादृच्छिक वेक्टर स्वतंत्र है। इस प्रकार, दूरी सहसंबंध दो यादृच्छिक चर या यादृच्छिक वेक्टर के बीच रैखिक और गैर-रेखीय संबंध दोनों को मापता है। यह पियर्सन के सहसंबंध के विपरीत है,जो केवल दो यादृच्छिक चर के बीच रैखिक संबंध का आकलन कर सकता है।
दूरी सहसंबंध का उपयोग क्रमपरिवर्तन परीक्षण के साथ निर्भरता का सांख्यिकीय परीक्षण करने के लिए किया जा सकता है। सबसे पहले दो यादृच्छिक वैक्टरों के बीच दूरी सहसंबंध (यूक्लिडियन दूरी मैट्रिक्स के पुन: केंद्रित होने सहित) की गणना करता है और फिर इस मान की तुलना डेटा के कई फेरबदल के दूरी सहसंबंधों से करता है।
पृष्ठभूमि
निर्भरता का संरचनात्मक माप, पियर्सन सहसंबंध गुणांक,[1] मुख्य रूप से दो चर के बीच एक रैखिक संबंध के प्रति संवेदनशील है. दूरी सहसंबंध 2005 में गैबोर जे द्वारा प्रस्तुत किया गया था. पियर्सन के सहसंबंध की इस कमी को दूर करने के लिए कई व्याख्यानों में स्ज़ेकली, अर्थात् यह निर्भर चर के लिए आसानी से शून्य हो सकता है. सहसंबंध = 0 ( असंबद्धता ) स्वतंत्रता का अर्थ नहीं है जबकि दूरी सहसंबंध = 0 स्वतंत्रता का अर्थ है. दूरी सहसंबंध पर पहला परिणाम 2007 और 2009 में प्रकाशित हुआ था।[2][3] यह साबित हो गया था कि दूरी सहसंयोजक ब्राउनियन सहसंयोजक के समान है।[3] ये उपाय ऊर्जा दूरी के उदाहरण हैं।
दूरी सहसंबंध कई अन्य मात्राओं से लिया गया है जो इसके विनिर्देशन में उपयोग किए जाते हैं, विशेष रूप से: दूरी विचरण, दूरी मानक विचलन, और दूरी सहसंयोजक। ये मात्रा पियरसन उत्पाद-पल सहसंबंध गुणांक के विनिर्देशन में संबंधित संख्याओं के साथ सामान्य क्षणों के समान भूमिका निभाती हैं।
परिभाषाएँ
दूरी सहप्रसरण
आइए हम नमूना दूरी सहप्रसरण की परिभाषा से शुरू करें। चलो (एक्सk, औरk), k = 1, 2, ..., n वास्तविक मान वाले या सदिश मान वाले यादृच्छिक चर (X, Y) की जोड़ी से एक सांख्यिकीय नमूना हो। सबसे पहले, n बटा n दूरी मैट्रिक्स की गणना करें (aj, k) और बीj, k) जिसमें सभी जोड़ीदार यूक्लिडियन दूरी शामिल है
जहां ||⋅ |. फिर सभी दोगुनी केंद्रित दूरियां लें
कहाँ है j-वीं पंक्ति मतलब, है k-वाँ स्तंभ माध्य, और की दूरी मैट्रिक्स का भव्य माध्य है X नमूना। अंकन के लिए समान है b मान। (केन्द्रित दूरियों के आव्यूहों में (एj, k) और बीj,k) सभी पंक्तियों और सभी स्तंभों का योग शून्य है।) वर्गित नमूना दूरी सहप्रसरण (एक अदिश) केवल उत्पाद A का अंकगणितीय औसत है।j, k Bj, k:
सांख्यिकी टीn = एन डीकोव2</उप>n(एक्स, वाई) मनमाना आयामों में यादृच्छिक वैक्टर की स्वतंत्रता का एक सुसंगत बहुभिन्नरूपी परीक्षण निर्धारित करता है। कार्यान्वयन के लिए R (प्रोग्रामिंग भाषा) के लिए ऊर्जा पैकेज में dcov.test फ़ंक्शन देखें।[4]
दूरी सहप्रसरण के जनसंख्या मूल्य को उसी रेखा के साथ परिभाषित किया जा सकता है। चलो 'एक्स' एक यादृच्छिक चर है जो संभाव्यता वितरण के साथ 'पी'-आयामी यूक्लिडियन अंतरिक्ष में मान लेता है μ और Y को एक यादृच्छिक चर होने दें जो संभाव्यता वितरण के साथ q-आयामी यूक्लिडियन स्थान में मान लेता है ν, और मान लीजिए कि X और Y की परिमित अपेक्षाएँ हैं। लिखना
अंत में, X और Y के वर्ग दूरी सहप्रसरण के जनसंख्या मान को इस प्रकार परिभाषित करें
कोई दिखा सकता है कि यह निम्नलिखित परिभाषा के बराबर है:
जहां ई अपेक्षित मान दर्शाता है, और और स्वतंत्र और समान रूप से वितरित हैं। प्राथमिक यादृच्छिक चर और निरूपित चर की स्वतंत्र और समान रूप से वितरित (iid) प्रतियां और और इसी तरह iid हैं।[5] दूरी सहप्रसरण को पारम्परिक पियर्सन सहप्रसरण के संदर्भ में व्यक्त किया जा सकता है, सीओवी, इस प्रकार है:
यह पहचान दर्शाती है कि दूरी सहप्रसरण दूरियों के सहप्रसरण के समान नहीं है, cov(||X − X' ||, ||Y − Y' ||). यह शून्य हो सकता है भले ही X और Y स्वतंत्र न हों।
वैकल्पिक रूप से, दूरी सहप्रसरण को भारित मानदण्ड (गणित)#Euclidean_norm|L के रूप में परिभाषित किया जा सकता है2 यादृच्छिक चर के संयुक्त विशेषता फ़ंक्शन (संभाव्यता सिद्धांत) और उनके सीमांत विशेषता कार्यों के उत्पाद के बीच की दूरी का मानदंड:[6]
कहाँ , , और के विशेषता कार्य (संभावना सिद्धांत) हैं (X, Y), एक्स, और वाई, क्रमशः, पी, क्यू एक्स और वाई के यूक्लिडियन आयाम को दर्शाता है, और इस प्रकार एस और टी, और सीp, सीq स्थिरांक हैं। वजन समारोह स्केल इक्विवेरिएंट और रोटेशन इनवेरिएंट माप का उत्पादन करने के लिए चुना जाता है जो निर्भर चर के लिए शून्य पर नहीं जाता है।[6][7] अभिलाक्षणिक फलन परिभाषा की एक व्याख्या यह है कि चर eisX और ईitY s और t द्वारा दी गई विभिन्न अवधियों के साथ X और Y का चक्रीय निरूपण है, और व्यंजक ϕX, Y(s, t) − ϕX(s) ϕY(t) विशेषता फ़ंक्शन के अंश में दूरी सहप्रसरण की परिभाषा केवल e का क्लासिकल सहप्रसरण हैisX और ईआईटीवाई. विशिष्ट कार्य परिभाषा स्पष्ट रूप से दिखाती है डीकोव2(X, Y) = 0 यदि और केवल यदि X और Y स्वतंत्र हैं।
दूरी विचरण और दूरी मानक विचलन
दूरी विचरण दूरी सहप्रसरण का एक विशेष मामला है जब दो चर समान होते हैं। दूरी विचरण का जनसंख्या मान का वर्गमूल है
कहाँ , , और स्वतंत्र और समान रूप से वितरित यादृच्छिक चर हैं, अपेक्षित मूल्य को दर्शाता है, और समारोह के लिए , जैसे, .
नमूना दूरी प्रसरण का वर्गमूल है
जो 1912 में पेश किए गए कॉनराड गिन्नी के मीन निरपेक्ष अंतर का एक रिश्तेदार है (लेकिन गिन्नी ने केंद्रित दूरियों के साथ काम नहीं किया)।[8]
दूरी मानक विचलन दूरी विचरण का वर्गमूल है।
दूरी सहसंबंध
दूरी सहसंबंध [2]{{sfn|Székely|Rizzo|2009a}दो यादृच्छिक चरों का } उनके दूरी सहप्रसरण को उनके दूरी मानक विचलन के गुणनफल से विभाजित करके प्राप्त किया जाता है। दूरी सहसंबंध का वर्गमूल है
और नमूना दूरी सहसंबंध को उपरोक्त जनसंख्या गुणांक के लिए नमूना दूरी सहप्रसरण और दूरी प्रसरण को प्रतिस्थापित करके परिभाषित किया गया है।
नमूना दूरी सहसंबंध की आसान गणना के लिए R (प्रोग्रामिंग भाषा) के लिए ऊर्जा पैकेज में dcor फ़ंक्शन देखें।[4]
गुण
दूरी सहसंबंध
- and ; this is in contrast to Pearson's correlation, which can be negative.
- if and only if X and Y are independent.
- implies that dimensions of the linear subspaces spanned by X and Y samples respectively are almost surely equal and if we assume that these subspaces are equal, then in this subspace for some vector A, scalar b, and orthonormal matrix .
दूरी सहप्रसरण
- and ;
- for all constant vectors , scalars , and orthonormal matrices .
- If the random vectors and are independent then
- if and only if X and Y are independent.
यह अंतिम संपत्ति केंद्रित दूरियों के साथ काम करने का सबसे महत्वपूर्ण प्रभाव है।
आँकड़ा का पक्षपाती अनुमानक है . X और Y की स्वतंत्रता के तहत [9]
का एक निष्पक्ष अनुमानक शेकेली और रिज़ो द्वारा दिया गया है।[10]
दूरी विचरण
- if and only if almost surely.
- if and only if every sample observation is identical.
- for all constant vectors A, scalars b, and orthonormal matrices .
- If X and Y are independent then .
समानता (iv) में होती है यदि और केवल यदि यादृच्छिक चर में से एक X या Y स्थिरांक है।
सामान्यीकरण
यूक्लिडियन दूरी की शक्तियों को शामिल करने के लिए दूरी सहप्रसरण को सामान्यीकृत किया जा सकता है। परिभाषित करना
फिर प्रत्येक के लिए , और स्वतंत्र हैं अगर और केवल अगर . यह ध्यान रखना महत्वपूर्ण है कि यह लक्षण वर्णन एक्सपोनेंट के लिए नहीं है ; इस मामले में bivariate के लिए , पियर्सन सहसंबंध का एक नियतात्मक कार्य है।[2] अगर और हैं संबंधित दूरियों की शक्तियां, , तब नमूना दूरी सहप्रसरण को गैर-नकारात्मक संख्या के रूप में परिभाषित किया जा सकता है
कोई विस्तार कर सकता है मीट्रिक स्थान के लिए | मेट्रिक-स्पेस-वैल्यू यादृच्छिक चर और : अगर कानून है मीट्रिक के साथ एक मीट्रिक स्थान में , फिर परिभाषित करें , , और (प्रदान किया गया परिमित है, अर्थात्, पहला क्षण परिमित है), . तो अगर कानून है (परिमित पहले क्षण के साथ संभावित रूप से भिन्न मीट्रिक स्थान में), परिभाषित करें
यह ऐसे सभी के लिए गैर-नकारात्मक है iff दोनों मीट्रिक रिक्त स्थान नकारात्मक प्रकार के होते हैं।[11] यहां, एक मीट्रिक स्थान यदि नकारात्मक प्रकार है हिल्बर्ट अंतरिक्ष के एक सबसेट के लिए आइसोमेट्री है।[12] अगर दोनों मेट्रिक स्पेस में स्ट्रॉन्ग नेगेटिव टाइप है, तो आईएफएफ स्वतंत्र हैं।[11]
दूरी सहप्रसरण की वैकल्पिक परिभाषा
मूल दूरी सहसंबंध#दूरी सहप्रसरण को के वर्गमूल के रूप में परिभाषित किया गया है , चुकता गुणांक के बजाय। संपत्ति है कि यह संयुक्त वितरण के बीच ऊर्जा की दूरी है और इसके मार्जिन का उत्पाद। इस परिभाषा के तहत, हालांकि, दूरी मानक विचलन के बजाय दूरी भिन्नता को उसी इकाइयों में मापा जाता है दूरियां।
वैकल्पिक रूप से, ऊर्जा दूरी के वर्ग के रूप में 'दूरी सहप्रसरण' को परिभाषित किया जा सकता है: इस मामले में, की दूरी मानक विचलन के समान इकाइयों में मापा जाता है दूरी, और जनसंख्या दूरी सहप्रसरण के लिए एक निष्पक्ष अनुमानक मौजूद है।[10]
इन वैकल्पिक परिभाषाओं के अंतर्गत, दूरी सहसंबंध को वर्ग के रूप में भी परिभाषित किया गया है , वर्गमूल के बजाय।
वैकल्पिक सूत्रीकरण: ब्राउनियन सहप्रसरण
ब्राउनियन कोवैरियंस स्टोचैस्टिक प्रक्रियाओं के लिए कॉन्वर्सिस की धारणा के सामान्यीकरण से प्रेरित है। यादृच्छिक चर X और Y के सहप्रसरण के वर्ग को निम्न रूप में लिखा जा सकता है:
जहां ई अपेक्षित मूल्य को दर्शाता है और अभाज्य स्वतंत्र और समान रूप से वितरित प्रतियों को दर्शाता है। हमें इस सूत्र के निम्नलिखित सामान्यीकरण की आवश्यकता है। यदि यू (एस), वी (टी) मनमानी यादृच्छिक प्रक्रियाएं हैं जो सभी वास्तविक एस और टी के लिए परिभाषित हैं तो एक्स के यू-केंद्रित संस्करण को परिभाषित करें
जब भी घटाया गया सशर्त अपेक्षित मूल्य मौजूद होता है और Y द्वारा निरूपित होता हैV Y का V-केंद्रित संस्करण।[3][13][14] (यू, वी) सहप्रसरण (एक्स, वाई) को गैर-नकारात्मक संख्या के रूप में परिभाषित किया गया है जिसका वर्ग है
जब भी दाहिना हाथ गैर-नकारात्मक और परिमित होता है। सबसे महत्वपूर्ण उदाहरण है जब यू और वी दो तरफा स्वतंत्र एक प्रकार कि गति / वीनर प्रक्रिया शून्य और सहप्रसरण की अपेक्षा के साथ होते हैं |s| + |t| − |s − t| = 2 min(s,t) (नॉननेगेटिव एस के लिए, केवल टी)। (यह मानक वीनर प्रक्रिया से दोगुना सहप्रसरण है; यहां कारक 2 संगणना को सरल करता है।) इस मामले में (U,V) सहप्रसरण को 'ब्राउनियन सहप्रसरण' कहा जाता है और इसे इसके द्वारा निरूपित किया जाता है।
एक आश्चर्यजनक संयोग है: ब्राउनियन सहप्रसरण दूरी सहप्रसरण के समान है:
और इस प्रकार ब्राउनियन सहसंबंध दूरी सहसंबंध के समान है।
दूसरी ओर, यदि हम ब्राउनियन गति को नियतात्मक पहचान समारोह आईडी से प्रतिस्थापित करते हैं तो Covid(एक्स, वाई) शास्त्रीय पियर्सन सहप्रसरण का केवल निरपेक्ष मान है,
संबंधित मेट्रिक्स
कर्नेल-आधारित सहसंबंधी मेट्रिक्स (जैसे हिल्बर्ट-श्मिट इंडिपेंडेंस क्राइटेरियन या HSIC) सहित अन्य सहसंबंधी मेट्रिक्स भी रैखिक और गैर-रैखिक इंटरैक्शन का पता लगा सकते हैं। दूरी सहसंबंध और कर्नेल-आधारित मेट्रिक्स दोनों का उपयोग मजबूत सांख्यिकीय शक्ति प्राप्त करने के लिए विहित सहसंबंध विश्लेषण और स्वतंत्र घटक विश्लेषण जैसे तरीकों में किया जा सकता है।
यह भी देखें
- आरवी गुणांक
- संबंधित तीसरे क्रम के आंकड़े के लिए, तिरछापन#दूरी तिरछापन देखें।
टिप्पणियाँ
- ↑ Pearson 1895a, 1895b
- ↑ 2.0 2.1 2.2 Székely, Rizzo & Bakirov 2007.
- ↑ 3.0 3.1 3.2 Székely & Rizzo 2009a.
- ↑ 4.0 4.1 Rizzo & Székely 2021.
- ↑ Székely & Rizzo 2014, p. 11.
- ↑ 6.0 6.1 Székely & Rizzo 2009a, p. 1249, Theorem 7, (3.7).
- ↑ Székely & Rizzo 2012.
- ↑ Gini 1912.
- ↑ Székely & Rizzo 2009b.
- ↑ 10.0 10.1 Székely & Rizzo 2014.
- ↑ 11.0 11.1 Lyons 2014.
- ↑ Klebanov 2005, p. [page needed].
- ↑ Bickel & Xu 2009.
- ↑ Kosorok 2009.
संदर्भ
- Bickel, Peter J.; Xu, Ying (2009). "Discussion of: Brownian distance covariance". The Annals of Applied Statistics. 3 (4): 1266–1269. doi:10.1214/09-AOAS312A.
- Gini, C. (1912). Variabilità e Mutabilità. Bologna: Tipografia di Paolo Cuppini. Bibcode:1912vamu.book.....G.
- Klebanov, L. B. (2005). N-distances and their applications. Prague: Karolinum Press, Charles University. ISBN 9788024611525.
- Kosorok, Michael R. (2009). "Discussion of: Brownian distance covariance". The Annals of Applied Statistics. 3 (4): 1270–1278. arXiv:1010.0822. doi:10.1214/09-AOAS312B. S2CID 88518490.
- Lyons, Russell (2014). "Distance covariance in metric spaces". The Annals of Probability. 41 (5): 3284–3305. arXiv:1106.5758. doi:10.1214/12-AOP803. S2CID 73677891.
- Pearson, K. (1895a). "Note on regression and inheritance in the case of two parents". Proceedings of the Royal Society. 58: 240–242. Bibcode:1895RSPS...58..240P.
- Pearson, K. (1895b). "Notes on the history of correlation". Biometrika. 13: 25–45. doi:10.1093/biomet/13.1.25.
- Rizzo, Maria; Székely, Gábor (2021-02-22). "energy: E-Statistics: Multivariate Inference via the Energy of Data". Version: 1.7-8. Retrieved 2021-10-31.
- Székely, Gábor J.; Rizzo, Maria L.; Bakirov, Nail K. (2007). "Measuring and testing independence by correlation of distances". The Annals of Statistics. 35 (6): 2769–2794. arXiv:0803.4101. doi:10.1214/009053607000000505. S2CID 5661488.
- Székely, Gábor J.; Rizzo, Maria L. (2009a). "Brownian distance covariance". The Annals of Applied Statistics. 3 (4): 1236–1265. doi:10.1214/09-AOAS312. PMC 2889501. PMID 20574547.
- Székely, Gábor J.; Rizzo, Maria L. (2009b). "Rejoinder: Brownian distance covariance". The Annals of Applied Statistics. 3 (4): 1303–1308. doi:10.1214/09-AOAS312REJ.
- Székely, Gábor J.; Rizzo, Maria L. (2012). "On the uniqueness of distance covariance". Statistics & Probability Letters. 82 (12): 2278–2282. doi:10.1016/j.spl.2012.08.007.
- Székely, Gabor J.; Rizzo, Maria L. (2014). "Partial Distance Correlation with Methods for Dissimilarities". The Annals of Statistics. 42 (6): 2382–2412. arXiv:1310.2926. Bibcode:2014arXiv1310.2926S. doi:10.1214/14-AOS1255. S2CID 55801702.