दूरी सहसंबंध: Difference between revisions
No edit summary |
No edit summary |
||
Line 15: | Line 15: | ||
=== दूरी सहप्रसरण === | === दूरी सहप्रसरण === | ||
आइए हम | आइए हम दृष्टांत दूरी की परिभाषा के साथ प्रारंभ करें। मान लें (''X<sub>k</sub>'', ''Y<sub>k</sub>''), ''k'' = 1, 2, ..., ''n'' वास्तविक मूल्यवान या वेक्टर मूल्यवान यादृच्छिक चर की एक युग्म से एक [[सांख्यिकीय नमूना|सांख्यिकीय दृष्टांत]] (''X'', ''Y'') हो। सबसे पहले, ''n'' दूरी की मैट्रिसेस द्वारा ''n'' की गणना करें (''a<sub>j</sub>''<sub>, ''k''</sub>) और (''b<sub>j</sub>''<sub>, ''k''</sub>) जिसमें सभी युग्मन दूरी हैं। | ||
:<math> | :<math> | ||
Line 29: | Line 29: | ||
B_{j, k} := b_{j, k} - \overline{b}_{j\cdot} -\overline{b}_{\cdot k} + \overline{b}_{\cdot\cdot}, | B_{j, k} := b_{j, k} - \overline{b}_{j\cdot} -\overline{b}_{\cdot k} + \overline{b}_{\cdot\cdot}, | ||
</math> | </math> | ||
जहां <math>\textstyle \overline{a}_{j\cdot}</math> j-वें पंक्ति का माध्य है, <math>\textstyle \overline{a}_{\cdot k}</math> k-वें स्तंभ का माध्य है, और <math>\textstyle \overline{a}_{\cdot\cdot}</math> {{math|''X''}} नमूने की दूरी मैट्रिक्स का भव्य माध्य है। {{math|''b''}} मानों के लिए अंकन समान है। (केंद्रित दूरियों (''A<sub>j</sub>''<sub>, ''k''</sub>) और (''B<sub>j</sub>''<sub>,''k''</sub>) के आव्यूहों में सभी पंक्तियों और सभी स्तंभों का योग शून्य होता है।) वर्गित | जहां <math>\textstyle \overline{a}_{j\cdot}</math> j-वें पंक्ति का माध्य है, <math>\textstyle \overline{a}_{\cdot k}</math> k-वें स्तंभ का माध्य है, और <math>\textstyle \overline{a}_{\cdot\cdot}</math> {{math|''X''}} नमूने की दूरी मैट्रिक्स का भव्य माध्य है। {{math|''b''}} मानों के लिए अंकन समान है। (केंद्रित दूरियों (''A<sub>j</sub>''<sub>, ''k''</sub>) और (''B<sub>j</sub>''<sub>,''k''</sub>) के आव्यूहों में सभी पंक्तियों और सभी स्तंभों का योग शून्य होता है।) वर्गित दृष्टांत दूरी सहप्रसरण (एक अदिश राशि) केवल उत्पादों ''A<sub>j</sub>''<sub>, ''k''</sub> ''B<sub>j</sub>''<sub>, ''k''</sub>: का अंकगणितीय औसत है: | ||
:<math> | :<math> | ||
Line 76: | Line 76: | ||
जहाँ <math>X</math>, <math>X'</math>, और <math>X''</math> [[स्वतंत्र और समान रूप से वितरित यादृच्छिक चर]] हैं, <math>\operatorname{E}</math> [[अपेक्षित मूल्य]] को दर्शाता है, और <math>f^2(\cdot)=(f(\cdot))^2</math> फलन के लिए <math>f(\cdot)</math>, जैसे, <math>\operatorname{E}^2[\cdot] = (\operatorname{E}[\cdot])^2</math>. | जहाँ <math>X</math>, <math>X'</math>, और <math>X''</math> [[स्वतंत्र और समान रूप से वितरित यादृच्छिक चर]] हैं, <math>\operatorname{E}</math> [[अपेक्षित मूल्य]] को दर्शाता है, और <math>f^2(\cdot)=(f(\cdot))^2</math> फलन के लिए <math>f(\cdot)</math>, जैसे, <math>\operatorname{E}^2[\cdot] = (\operatorname{E}[\cdot])^2</math>. | ||
दृष्टांत दूरी प्रसरण का वर्गमूल है | |||
:<math> | :<math> | ||
Line 87: | Line 87: | ||
=== दूरी सहसंबंध === | === दूरी सहसंबंध === | ||
दूरी सहसंबंध {{sfn|Székely|Rizzo|Bakirov|2007}} | दो यादृच्छिक चर के ''दूरी सहसंबंध''{{sfn|Székely|Rizzo|Bakirov|2007}} उनकी दूरी मानक विचलन के उत्पाद द्वारा उनकी ''दूरी के सहसंयोजक'' को विभाजित करके प्राप्त किया जाता है. दूरी सहसंबंध वर्गमूल है। | ||
:<math> | :<math> | ||
\operatorname{dCor}^2(X,Y) = \frac{\operatorname{dCov}^2(X,Y)}{\sqrt{\operatorname{dVar}^2(X)\,\operatorname{dVar}^2(Y)}}, | \operatorname{dCor}^2(X,Y) = \frac{\operatorname{dCov}^2(X,Y)}{\sqrt{\operatorname{dVar}^2(X)\,\operatorname{dVar}^2(Y)}}, | ||
</math> | </math> | ||
और | और दृष्टांत दूरी सहसंबंध को उपरोक्त जनसंख्या गुणांक के लिए दृष्टांत दूरी सहप्रसरण और दूरी प्रसरण को प्रतिस्थापित करके परिभाषित किया गया है। | ||
दृष्टांत दूरी सहसंबंध की आसान गणना के लिए ''R'' के लिए ऊर्जा पैकेज में डीसीओआर फलन देखें।{{sfn|Rizzo|Székely|2021}} | |||
== गुण == | == गुण == | ||
Line 102: | Line 102: | ||
|<math>0\leq\operatorname{dCor}_n(X,Y)\leq1</math> and <math>0\leq\operatorname{dCor}(X,Y)\leq1</math>; | |<math>0\leq\operatorname{dCor}_n(X,Y)\leq1</math> and <math>0\leq\operatorname{dCor}(X,Y)\leq1</math>; | ||
यह पियर्सन के सहसंबंध के विपरीत है, जो ऋणात्मक हो सकता है। | |||
|<math>\operatorname{dCor}(X,Y) = 0</math> | |<math>\operatorname{dCor}(X,Y) = 0</math> यदि और केवल यदि {{mvar|X}} और {{mvar|Y}} स्वतंत्र हैं। | ||
|<math>\operatorname{dCor}_n(X,Y) = 1</math> तात्पर्य है कि रैखिक उप-स्थानों के आयामों द्वारा प्रायोजित {{mvar|X}} और {{mvar|Y}} नमूने क्रमशः लगभग निश्चित रूप से समान हैं और यदि हम मानते हैं कि ये उप-स्थान समान हैं, तो इस उप-स्थान में <math>Y = A + b\,\mathbf{C}X</math> f या कुछ सदिश {{mvar|A}}, अदिश {{mvar|b}}, और [[ऑर्थोनॉर्मल मैट्रिक्स]] <math>\mathbf{C}</math>। | |||
|<math>\operatorname{dCor}_n(X,Y) = 1</math> | |||
}} | }} | ||
=== दूरी सहप्रसरण === | === दूरी सहप्रसरण === | ||
{{Ordered list |list_style_type=lower-roman | {{Ordered list |list_style_type=lower-roman | ||
|<math>\operatorname{dCov}(X,Y)\geq0</math> | |<math>\operatorname{dCov}(X,Y)\geq0</math> और <math>\operatorname{dCov}_n(X,Y)\geq0</math>; | ||
|<math>\operatorname{dCov}^2(a_1 + b_1\,\mathbf{C}_1\,X, a_2 + b_2\,\mathbf{C}_2\,Y) = |b_1\,b_2|\operatorname{dCov}^2(X,Y)</math> | |<math>\operatorname{dCov}^2(a_1 + b_1\,\mathbf{C}_1\,X, a_2 + b_2\,\mathbf{C}_2\,Y) = |b_1\,b_2|\operatorname{dCov}^2(X,Y)</math> | ||
सभी स्थिर सदिशों के लिए <math>a_1, a_2</math>, अदिश <math>b_1, b_2</math>, और ऑर्थोनॉर्मल मैट्रिक्स<math>\mathbf{C}_1, \mathbf{C}_2</math>. | |||
| | |यदि यादृच्छिक सदिश <math>(X_1, Y_1)</math> and <math>(X_2, Y_2)</math> फिर स्वतंत्र हैं | ||
:<math> | :<math> | ||
\operatorname{dCov}(X_1 + X_2, Y_1 + Y_2) \leq \operatorname{dCov}(X_1, Y_1) + \operatorname{dCov}(X_2, Y_2). | \operatorname{dCov}(X_1 + X_2, Y_1 + Y_2) \leq \operatorname{dCov}(X_1, Y_1) + \operatorname{dCov}(X_2, Y_2). | ||
</math> | </math> | ||
समानता यदि और केवल यदि ही मान्य है <math>X_1</math> and <math>Y_1</math> दोनों स्थिरांक हैं, या <math>X_2</math> और <math>Y_2</math> दोनों स्थिरांक हैं, या <math>X_1, X_2, Y_1, Y_2</math> पारस्परिक रूप से स्वतंत्र हैं। | |||
|<math>\operatorname{dCov}(X,Y) = 0</math> यदि और केवल यदि {{mvar|X}} और {{mvar|Y}} स्वतन्त्र हैं। | |||
|<math>\operatorname{dCov}(X,Y) = 0</math> | |||
}} | }} | ||
यह अंतिम संपत्ति केंद्रित दूरियों के साथ काम करने का सबसे महत्वपूर्ण प्रभाव है। | यह अंतिम संपत्ति केंद्रित दूरियों के साथ काम करने का सबसे महत्वपूर्ण प्रभाव है। | ||
सांख्यिकी <math>\operatorname{dCov}^2_n(X,Y)</math> का पक्षपाती अनुमानक है <math>\operatorname{dCov}^2(X,Y)</math> X और Y की स्वतंत्रता के अंतर्गत है। {{sfn|Székely|Rizzo|2009b}} | |||
:<math> | :<math> | ||
Line 157: | Line 155: | ||
\end{align} | \end{align} | ||
</math> | </math> | ||
फिर प्रत्येक के लिए <math>0<\alpha<2</math>, <math>X</math> और <math>Y</math> स्वतंत्र हैं अगर और केवल अगर <math>\operatorname{dCov}^2(X, Y; \alpha) = 0</math>. यह ध्यान रखना महत्वपूर्ण है कि यह लक्षण वर्णन एक्सपोनेंट के लिए नहीं है <math>\alpha=2</math>; इस मामले में bivariate के लिए <math>(X, Y)</math>, <math>\operatorname{dCor}(X, Y; \alpha=2)</math> पियर्सन सहसंबंध का एक नियतात्मक कार्य है।{{sfn|Székely|Rizzo|Bakirov|2007}} अगर <math>a_{k,\ell}</math> और <math>b_{k,\ell}</math> हैं <math>\alpha</math> संबंधित दूरियों की शक्तियां, <math>0<\alpha\leq2</math>, तब <math>\alpha</math> | फिर प्रत्येक के लिए <math>0<\alpha<2</math>, <math>X</math> और <math>Y</math> स्वतंत्र हैं अगर और केवल अगर <math>\operatorname{dCov}^2(X, Y; \alpha) = 0</math>. यह ध्यान रखना महत्वपूर्ण है कि यह लक्षण वर्णन एक्सपोनेंट के लिए नहीं है <math>\alpha=2</math>; इस मामले में bivariate के लिए <math>(X, Y)</math>, <math>\operatorname{dCor}(X, Y; \alpha=2)</math> पियर्सन सहसंबंध का एक नियतात्मक कार्य है।{{sfn|Székely|Rizzo|Bakirov|2007}} अगर <math>a_{k,\ell}</math> और <math>b_{k,\ell}</math> हैं <math>\alpha</math> संबंधित दूरियों की शक्तियां, <math>0<\alpha\leq2</math>, तब <math>\alpha</math> दृष्टांत दूरी सहप्रसरण को गैर-नकारात्मक संख्या के रूप में परिभाषित किया जा सकता है | ||
:<math> | :<math> | ||
\operatorname{dCov}^2_n(X, Y; \alpha):= \frac{1}{n^2}\sum_{k,\ell}A_{k,\ell}\,B_{k,\ell}. | \operatorname{dCov}^2_n(X, Y; \alpha):= \frac{1}{n^2}\sum_{k,\ell}A_{k,\ell}\,B_{k,\ell}. |
Revision as of 21:01, 25 June 2023
सांख्यिकी और प्रायिकता सिद्धांत में, दूरी सहसंबंध या दूरी सहसंयोजक, यादृच्छिक के दो युग्मित यादृच्छिक वैक्टर के बीच निर्भरता का एक माप है। जनसंख्या सहसंबंध गुणांक शून्य है अगर और केवल अगर यादृच्छिक वेक्टर स्वतंत्र है। इस प्रकार, दूरी सहसंबंध दो यादृच्छिक चर या यादृच्छिक वेक्टर के बीच रैखिक और गैर-रेखीय संबंध दोनों को मापता है। यह पियर्सन के सहसंबंध के विपरीत है,जो केवल दो यादृच्छिक चर के बीच रैखिक संबंध का आकलन कर सकता है।
दूरी सहसंबंध का उपयोग क्रमपरिवर्तन परीक्षण के साथ निर्भरता का सांख्यिकीय परीक्षण करने के लिए किया जा सकता है। सबसे पहले दो यादृच्छिक वैक्टरों के बीच दूरी सहसंबंध (यूक्लिडियन दूरी मैट्रिक्स के पुन: केंद्रित होने सहित) की गणना करता है और फिर इस मान की तुलना डेटा के कई फेरबदल के दूरी सहसंबंधों से करता है।
पृष्ठभूमि
निर्भरता का संरचनात्मक माप, पियर्सन सहसंबंध गुणांक, [1] दो चर के बीच एक रैखिक संबंध के लिए मुख्य संवेदनशील है. दूरी सहसंबंध 2005 में गैबोर जे द्वारा पेश किया गया था. पियर्सन के सहसंबंध के इस घाटे को दूर करने के लिए कई व्याख्यानों में स्ज़ेकली, अर्थात् यह निर्भर चर के लिए आसानी से शून्य हो सकता है. सहसंबंध = 0 ( असंबद्धता ) स्वतंत्रता का अर्थ नहीं है जबकि दूरी सहसंबंध = 0 स्वतंत्रता का अर्थ है. दूरी सहसंबंध पर पहला परिणाम 2007 और 2009 में प्रकाशित हुआ था।[2][3] यह प्रचारित किया गया था कि दूरी सहसंयोजक ब्राउनियन सहसंयोजक के समान है।[3] ये उपाय ऊर्जा दूरी के उदाहरण हैं.
निर्भरता का संरचनात्मक माप, पियर्सन सहसंबंध गुणांक, मुख्य रूप से दो चर के बीच एक रैखिक संबंध के प्रति संवेदनशील है. दूरी सहसंबंध 2005 में गैबोर जे द्वारा प्रस्तुत किया गया था. पियर्सन के सहसंबंध की इस कमी को दूर करने के लिए कई व्याख्यानों में स्ज़ेकली, अर्थात् यह निर्भर चर के लिए आसानी से शून्य हो सकता है. सहसंबंध = 0 ( असंबद्धता ) स्वतंत्रता का अर्थ नहीं है जबकि दूरी सहसंबंध = 0 स्वतंत्रता का अर्थ है. दूरी सहसंबंध पर पहला परिणाम 2007 और 2009 में प्रकाशित हुआ था। यह साबित हो गया था कि दूरी सहसंयोजक ब्राउनियन सहसंयोजक के समान है। ये माप ऊर्जा दूरियों के उदाहरण हैं।
दूरी सहसंबंध कई अन्य मात्राओं से लिया गया है जो इसके विनिर्देशन में उपयोग किए जाते हैं, विशेष रूप से: दूरी विचरण, दूरी मानक विचलन, और दूरी सहसंयोजक. ये मात्रा पियरसन गुणक सहसंबंध गुणांक के विनिर्देशन में संबंधित नामों के साथ सामान्य क्षणों के समान भूमिका निभाती हैं।
परिभाषाएँ
दूरी सहप्रसरण
आइए हम दृष्टांत दूरी की परिभाषा के साथ प्रारंभ करें। मान लें (Xk, Yk), k = 1, 2, ..., n वास्तविक मूल्यवान या वेक्टर मूल्यवान यादृच्छिक चर की एक युग्म से एक सांख्यिकीय दृष्टांत (X, Y) हो। सबसे पहले, n दूरी की मैट्रिसेस द्वारा n की गणना करें (aj, k) और (bj, k) जिसमें सभी युग्मन दूरी हैं।
जहां || ⋅ || यूक्लिडियन मानक को दर्शाता है. फिर सभी दोगुनी केंद्रित दूरी लें
जहां j-वें पंक्ति का माध्य है, k-वें स्तंभ का माध्य है, और X नमूने की दूरी मैट्रिक्स का भव्य माध्य है। b मानों के लिए अंकन समान है। (केंद्रित दूरियों (Aj, k) और (Bj,k) के आव्यूहों में सभी पंक्तियों और सभी स्तंभों का योग शून्य होता है।) वर्गित दृष्टांत दूरी सहप्रसरण (एक अदिश राशि) केवल उत्पादों Aj, k Bj, k: का अंकगणितीय औसत है:
सांख्यिकीय Tn = n dCov2n(X, Y) यादृच्छिकआयामों में यादृच्छिक वैक्टर की स्वतंत्रता का एक सुसंगत बहुभिन्नरूपी परीक्षण निर्धारित करता है. कार्यान्वयन के लिए R के लिए ऊर्जा पैकेज में dcov.test फ़ंक्शन देखें।[4]
दूरी सहप्रसरण के जनसंख्या मान को उसी तर्ज पर परिभाषित किया जा सकता है। मान X एक यादृच्छिक चर है जो संभाव्यता वितरण μ के साथ एक पी-आयामी यूक्लिडियन स्थान में मान लेता है और Y को एक यादृच्छिक चर होने देता है जो एक q-आयामी यूक्लिडियन स्थान में मान लेता है संभाव्यता वितरण ν के साथ, और मान लीजिए कि X और Y की सीमित अपेक्षाएँ हैं। लिखें
अंत में, X और Y के वर्ग दूरी सहप्रसरण के जनसंख्या मान को इस प्रकार परिभाषित करें
कोई दिखा सकता है कि यह निम्नलिखित परिभाषा के बराबर है:
जहां E अपेक्षित मान दर्शाता है, और और स्वतंत्र और समान रूप से वितरित हैं। प्राथमिक यादृच्छिक चर और निरूपित चर की स्वतंत्र और समान रूप से वितरित (iid) प्रतियां और और इसी तरह iid हैं।[5] दूरी सहप्रसरण को पारम्परिक पियर्सन सहप्रसरण के संदर्भ में व्यक्त किया जा सकता है, सीओवी, इस प्रकार है:
यह पहचान दर्शाती है कि दूरी सहप्रसरण दूरियों के सहप्रसरण के समान नहीं है, cov(||X − X' ||, ||Y − Y' ||)। यह शून्य हो सकता है भले ही X और Y स्वतंत्र न हों।
वैकल्पिक रूप से, दूरी सहप्रसरण को यादृच्छिक चर के संयुक्त विशेषता फ़ंक्शन और उनके सीमांत विशिष्ट कार्यों के उत्पाद के बीच दूरी के भारित l2 मानक के रूप में परिभाषित किया जा सकता है:[6]
जहां और क्रमशः (X, Y), X और Y के विशिष्ट फलन हैं, p, q, X और Y के यूक्लिडियन आयाम को दर्शाते हैं, और इस प्रकार s और t,और cp, cq स्थिरांक हैं। भार फलन एक पैमाने पर समतुल्य और घूर्णन अपरिवर्तनीय माप का उत्पादन करने के लिए चुना जाता है जो निर्भर चर के लिए शून्य पर नहीं जाता है।[6][7] अभिलाक्षणिक फलन परिभाषा की एक व्याख्या यह है कि चर eisX और eitY द्वारा दी गई विभिन्न अवधियों के साथ X और Y का चक्रीय निरूपण है, और व्यंजक ϕX, Y(s, t) − ϕX(s) ϕY(t) विशेषता फ़ंक्शन के अंश में दूरी सहप्रसरण की परिभाषा केवल eisX और eitY वर्गीय सहसंयोजक है। विशेषता फ़ंक्शन परिभाषा स्पष्ट रूप से दिखाती है कि dCov2(X, Y) = 0 यदि और केवल X और Y स्वतंत्र हैं।
दूरी विचरण और दूरी मानक विस्थापन
दूरी विचरण दूरी के सहसंयोजक का एक विशेष मामला है जब दो चर समान होते हैं. दूरी विचरण का जनसंख्या मूल्य वर्गमूल है
जहाँ , , और स्वतंत्र और समान रूप से वितरित यादृच्छिक चर हैं, अपेक्षित मूल्य को दर्शाता है, और फलन के लिए , जैसे, .
दृष्टांत दूरी प्रसरण का वर्गमूल है
जो 1912 में शुरू किए गए कोराडो गिन्नी के औसत अंतर का एक संबंध है ( लेकिन गिन्नी केंद्रित दूरी ) के साथ काम नहीं करती थी।[8]
दूरी मानक विचलन दूरी विचरण का वर्गमूल है।
दूरी सहसंबंध
दो यादृच्छिक चर के दूरी सहसंबंध[2] उनकी दूरी मानक विचलन के उत्पाद द्वारा उनकी दूरी के सहसंयोजक को विभाजित करके प्राप्त किया जाता है. दूरी सहसंबंध वर्गमूल है।
और दृष्टांत दूरी सहसंबंध को उपरोक्त जनसंख्या गुणांक के लिए दृष्टांत दूरी सहप्रसरण और दूरी प्रसरण को प्रतिस्थापित करके परिभाषित किया गया है।
दृष्टांत दूरी सहसंबंध की आसान गणना के लिए R के लिए ऊर्जा पैकेज में डीसीओआर फलन देखें।[4]
गुण
दूरी सहसंबंध
- and ; यह पियर्सन के सहसंबंध के विपरीत है, जो ऋणात्मक हो सकता है।
- यदि और केवल यदि X और Y स्वतंत्र हैं।
- तात्पर्य है कि रैखिक उप-स्थानों के आयामों द्वारा प्रायोजित X और Y नमूने क्रमशः लगभग निश्चित रूप से समान हैं और यदि हम मानते हैं कि ये उप-स्थान समान हैं, तो इस उप-स्थान में f या कुछ सदिश A, अदिश b, और ऑर्थोनॉर्मल मैट्रिक्स ।
दूरी सहप्रसरण
- और ;
- सभी स्थिर सदिशों के लिए , अदिश , और ऑर्थोनॉर्मल मैट्रिक्स.
- यदि यादृच्छिक सदिश and फिर स्वतंत्र हैं
- यदि और केवल यदि X और Y स्वतन्त्र हैं।
यह अंतिम संपत्ति केंद्रित दूरियों के साथ काम करने का सबसे महत्वपूर्ण प्रभाव है।
सांख्यिकी का पक्षपाती अनुमानक है X और Y की स्वतंत्रता के अंतर्गत है। [9]
का एक निष्पक्ष अनुमानक शेकेली और रिज़ो द्वारा दिया गया है।[10]
दूरी विचरण
- if and only if almost surely.
- if and only if every sample observation is identical.
- for all constant vectors A, scalars b, and orthonormal matrices .
- If X and Y are independent then .
समानता (iv) में होती है यदि और केवल यदि यादृच्छिक चर में से एक X या Y स्थिरांक है।
सामान्यीकरण
यूक्लिडियन दूरी की शक्तियों को शामिल करने के लिए दूरी सहप्रसरण को सामान्यीकृत किया जा सकता है। परिभाषित करना
फिर प्रत्येक के लिए , और स्वतंत्र हैं अगर और केवल अगर . यह ध्यान रखना महत्वपूर्ण है कि यह लक्षण वर्णन एक्सपोनेंट के लिए नहीं है ; इस मामले में bivariate के लिए , पियर्सन सहसंबंध का एक नियतात्मक कार्य है।[2] अगर और हैं संबंधित दूरियों की शक्तियां, , तब दृष्टांत दूरी सहप्रसरण को गैर-नकारात्मक संख्या के रूप में परिभाषित किया जा सकता है
कोई विस्तार कर सकता है मीट्रिक स्थान के लिए | मेट्रिक-स्पेस-वैल्यू यादृच्छिक चर और : अगर कानून है मीट्रिक के साथ एक मीट्रिक स्थान में , फिर परिभाषित करें , , और (प्रदान किया गया परिमित है, अर्थात्, पहला क्षण परिमित है), . तो अगर कानून है (परिमित पहले क्षण के साथ संभावित रूप से भिन्न मीट्रिक स्थान में), परिभाषित करें
यह ऐसे सभी के लिए गैर-नकारात्मक है iff दोनों मीट्रिक रिक्त स्थान नकारात्मक प्रकार के होते हैं।[11] यहां, एक मीट्रिक स्थान यदि नकारात्मक प्रकार है हिल्बर्ट अंतरिक्ष के एक सबसेट के लिए आइसोमेट्री है।[12] अगर दोनों मेट्रिक स्पेस में स्ट्रॉन्ग नेगेटिव टाइप है, तो आईएफएफ स्वतंत्र हैं।[11]
दूरी सहप्रसरण की वैकल्पिक परिभाषा
मूल दूरी सहसंबंध#दूरी सहप्रसरण को के वर्गमूल के रूप में परिभाषित किया गया है , चुकता गुणांक के बजाय। संपत्ति है कि यह संयुक्त वितरण के बीच ऊर्जा की दूरी है और इसके मार्जिन का उत्पाद। इस परिभाषा के तहत, हालांकि, दूरी मानक विचलन के बजाय दूरी भिन्नता को उसी इकाइयों में मापा जाता है दूरियां।
वैकल्पिक रूप से, ऊर्जा दूरी के वर्ग के रूप में 'दूरी सहप्रसरण' को परिभाषित किया जा सकता है: इस मामले में, की दूरी मानक विचलन के समान इकाइयों में मापा जाता है दूरी, और जनसंख्या दूरी सहप्रसरण के लिए एक निष्पक्ष अनुमानक मौजूद है।[10]
इन वैकल्पिक परिभाषाओं के अंतर्गत, दूरी सहसंबंध को वर्ग के रूप में भी परिभाषित किया गया है , वर्गमूल के बजाय।
वैकल्पिक सूत्रीकरण: ब्राउनियन सहप्रसरण
ब्राउनियन कोवैरियंस स्टोचैस्टिक प्रक्रियाओं के लिए कॉन्वर्सिस की धारणा के सामान्यीकरण से प्रेरित है। यादृच्छिक चर X और Y के सहप्रसरण के वर्ग को निम्न रूप में लिखा जा सकता है:
जहां ई अपेक्षित मूल्य को दर्शाता है और अभाज्य स्वतंत्र और समान रूप से वितरित प्रतियों को दर्शाता है। हमें इस सूत्र के निम्नलिखित सामान्यीकरण की आवश्यकता है। यदि यू (एस), वी (टी) मनमानी यादृच्छिक प्रक्रियाएं हैं जो सभी वास्तविक एस और टी के लिए परिभाषित हैं तो एक्स के यू-केंद्रित संस्करण को परिभाषित करें
जब भी घटाया गया सशर्त अपेक्षित मूल्य मौजूद होता है और Y द्वारा निरूपित होता हैV Y का V-केंद्रित संस्करण।[3][13][14] (यू, वी) सहप्रसरण (एक्स, वाई) को गैर-नकारात्मक संख्या के रूप में परिभाषित किया गया है जिसका वर्ग है
जब भी दाहिना हाथ गैर-नकारात्मक और परिमित होता है। सबसे महत्वपूर्ण उदाहरण है जब यू और वी दो तरफा स्वतंत्र एक प्रकार कि गति / वीनर प्रक्रिया शून्य और सहप्रसरण की अपेक्षा के साथ होते हैं |s| + |t| − |s − t| = 2 min(s,t) (नॉननेगेटिव एस के लिए, केवल टी)। (यह मानक वीनर प्रक्रिया से दोगुना सहप्रसरण है; यहां कारक 2 संगणना को सरल करता है।) इस मामले में (U,V) सहप्रसरण को 'ब्राउनियन सहप्रसरण' कहा जाता है और इसे इसके द्वारा निरूपित किया जाता है।
एक आश्चर्यजनक संयोग है: ब्राउनियन सहप्रसरण दूरी सहप्रसरण के समान है:
और इस प्रकार ब्राउनियन सहसंबंध दूरी सहसंबंध के समान है।
दूसरी ओर, यदि हम ब्राउनियन गति को नियतात्मक पहचान फलन आईडी से प्रतिस्थापित करते हैं तो Covid(एक्स, वाई) शास्त्रीय पियर्सन सहप्रसरण का केवल निरपेक्ष मान है,
संबंधित मेट्रिक्स
कर्नेल-आधारित सहसंबंधी मेट्रिक्स (जैसे हिल्बर्ट-श्मिट इंडिपेंडेंस क्राइटेरियन या HSIC) सहित अन्य सहसंबंधी मेट्रिक्स भी रैखिक और गैर-रैखिक इंटरैक्शन का पता लगा सकते हैं। दूरी सहसंबंध और कर्नेल-आधारित मेट्रिक्स दोनों का उपयोग मजबूत सांख्यिकीय शक्ति प्राप्त करने के लिए विहित सहसंबंध विश्लेषण और स्वतंत्र घटक विश्लेषण जैसे तरीकों में किया जा सकता है।
यह भी देखें
- आरवी गुणांक
- संबंधित तीसरे क्रम के आंकड़े के लिए, तिरछापन#दूरी तिरछापन देखें।
टिप्पणियाँ
- ↑ Pearson 1895a, 1895b
- ↑ 2.0 2.1 2.2 Székely, Rizzo & Bakirov 2007.
- ↑ 3.0 3.1 3.2 Székely & Rizzo 2009a.
- ↑ 4.0 4.1 Rizzo & Székely 2021.
- ↑ Székely & Rizzo 2014, p. 11.
- ↑ 6.0 6.1 Székely & Rizzo 2009a, p. 1249, Theorem 7, (3.7).
- ↑ Székely & Rizzo 2012.
- ↑ Gini 1912.
- ↑ Székely & Rizzo 2009b.
- ↑ 10.0 10.1 Székely & Rizzo 2014.
- ↑ 11.0 11.1 Lyons 2014.
- ↑ Klebanov 2005, p. [page needed].
- ↑ Bickel & Xu 2009.
- ↑ Kosorok 2009.
संदर्भ
- Bickel, Peter J.; Xu, Ying (2009). "Discussion of: Brownian distance covariance". The Annals of Applied Statistics. 3 (4): 1266–1269. doi:10.1214/09-AOAS312A.
- Gini, C. (1912). Variabilità e Mutabilità. Bologna: Tipografia di Paolo Cuppini. Bibcode:1912vamu.book.....G.
- Klebanov, L. B. (2005). N-distances and their applications. Prague: Karolinum Press, Charles University. ISBN 9788024611525.
- Kosorok, Michael R. (2009). "Discussion of: Brownian distance covariance". The Annals of Applied Statistics. 3 (4): 1270–1278. arXiv:1010.0822. doi:10.1214/09-AOAS312B. S2CID 88518490.
- Lyons, Russell (2014). "Distance covariance in metric spaces". The Annals of Probability. 41 (5): 3284–3305. arXiv:1106.5758. doi:10.1214/12-AOP803. S2CID 73677891.
- Pearson, K. (1895a). "Note on regression and inheritance in the case of two parents". Proceedings of the Royal Society. 58: 240–242. Bibcode:1895RSPS...58..240P.
- Pearson, K. (1895b). "Notes on the history of correlation". Biometrika. 13: 25–45. doi:10.1093/biomet/13.1.25.
- Rizzo, Maria; Székely, Gábor (2021-02-22). "energy: E-Statistics: Multivariate Inference via the Energy of Data". Version: 1.7-8. Retrieved 2021-10-31.
- Székely, Gábor J.; Rizzo, Maria L.; Bakirov, Nail K. (2007). "Measuring and testing independence by correlation of distances". The Annals of Statistics. 35 (6): 2769–2794. arXiv:0803.4101. doi:10.1214/009053607000000505. S2CID 5661488.
- Székely, Gábor J.; Rizzo, Maria L. (2009a). "Brownian distance covariance". The Annals of Applied Statistics. 3 (4): 1236–1265. doi:10.1214/09-AOAS312. PMC 2889501. PMID 20574547.
- Székely, Gábor J.; Rizzo, Maria L. (2009b). "Rejoinder: Brownian distance covariance". The Annals of Applied Statistics. 3 (4): 1303–1308. doi:10.1214/09-AOAS312REJ.
- Székely, Gábor J.; Rizzo, Maria L. (2012). "On the uniqueness of distance covariance". Statistics & Probability Letters. 82 (12): 2278–2282. doi:10.1016/j.spl.2012.08.007.
- Székely, Gabor J.; Rizzo, Maria L. (2014). "Partial Distance Correlation with Methods for Dissimilarities". The Annals of Statistics. 42 (6): 2382–2412. arXiv:1310.2926. Bibcode:2014arXiv1310.2926S. doi:10.1214/14-AOS1255. S2CID 55801702.