दूरी सहसंबंध: Difference between revisions

From Vigyanwiki
No edit summary
 
(19 intermediate revisions by 3 users not shown)
Line 1: Line 1:
सांख्यिकी और प्रायिकता सिद्धांत में, '''दूरी सहसंबंध या दूरी सहसंयोजक''', यादृच्छिक के दो युग्मित यादृच्छिक वैक्टर के बीच निर्भरता का एक माप है। जनसंख्या सहसंबंध गुणांक शून्य है अगर और केवल अगर यादृच्छिक वेक्टर स्वतंत्र है। इस प्रकार, दूरी सहसंबंध दो यादृच्छिक चर या यादृच्छिक वेक्टर के बीच रैखिक और गैर-रेखीय संबंध दोनों को मापता है। यह पियर्सन के सहसंबंध के विपरीत है,जो केवल दो यादृच्छिक चर के बीच रैखिक संबंध का आकलन कर सकता है।
सांख्यिकी और प्रायिकता सिद्धांत में, '''दूरी सहसंबंध या दूरी सहसंयोजक''', यादृच्छिक के दो युग्मित यादृच्छिक सदिश के बीच निर्भरता का एक माप है। जनसंख्या सहसंबंध गुणांक शून्य है यदि और केवल यदि यादृच्छिक सदिश स्वतंत्र है। इस प्रकार, दूरी सहसंबंध दो यादृच्छिक चर या यादृच्छिक सदिश के बीच रैखिक और गैर-रेखीय संबंधों को मापता है। यह पियर्सन के सहसंबंध के विपरीत है, जो केवल दो यादृच्छिक चर के बीच रैखिक संबंध का आकलन कर सकता है।


दूरी सहसंबंध का उपयोग क्रमपरिवर्तन परीक्षण के साथ निर्भरता का [[सांख्यिकीय परिकल्पना परीक्षण|सांख्यिकीय परीक्षण]] करने के लिए किया जा सकता है। सबसे पहले दो यादृच्छिक वैक्टरों के बीच दूरी सहसंबंध ([[यूक्लिडियन वेक्टर|यूक्लिडियन]] दूरी मैट्रिक्स के पुन: केंद्रित होने सहित) की गणना करता है और फिर इस मान की तुलना डेटा के कई फेरबदल के दूरी सहसंबंधों से करता है।[[Image:Distance Correlation Examples.svg|thumb|upright=1.8|right|प्रत्येक सेट के लिए x और y के दूरी सहसंबंध गुणांक के साथ (x, y) बिंदुओं के कई सेट। सहसंबंध पर ग्राफ की तुलना करें]]
दूरी सहसंबंध का उपयोग क्रमपरिवर्तन परीक्षण के साथ निर्भरता का [[सांख्यिकीय परिकल्पना परीक्षण|सांख्यिकीय परीक्षण]] करने के लिए किया जा सकता है। पहले दो यादृच्छिक सदिश के बीच दूरी सहसंबंध ([[यूक्लिडियन वेक्टर|यूक्लिडियन]] दूरी आव्यूह के पुन: केंद्रित होने सहित) की गणना करता है और फिर इस मान की तुलना डेटा के कई क्रमपरिवर्तनों के दूरी सहसंबंधों से करता है।[[Image:Distance Correlation Examples.svg|thumb|upright=1.8|right|प्रत्येक सेट के लिए x और y के दूरी सहसंबंध गुणांक के साथ (x, y) बिंदुओं के कई सेट। सहसंबंध पर ग्राफ की तुलना करें]]


== पृष्ठभूमि ==
== पृष्ठभूमि ==


निर्भरता का संरचनात्मक माप, पियर्सन सहसंबंध गुणांक, <ref>{{harvs|nb|last=Pearson|year=1895a|year2=1895b}}</ref> दो चर के बीच एक रैखिक संबंध के लिए मुख्य संवेदनशील है. दूरी सहसंबंध 2005 में गैबोर जे द्वारा पेश किया गया था. पियर्सन के सहसंबंध के इस घाटे को दूर करने के लिए कई व्याख्यानों में स्ज़ेकली, अर्थात् यह निर्भर चर के लिए आसानी से शून्य हो सकता है. सहसंबंध = 0 ( असंबद्धता ) स्वतंत्रता का अर्थ नहीं है जबकि दूरी सहसंबंध = 0 स्वतंत्रता का अर्थ है. दूरी सहसंबंध पर पहला परिणाम 2007 और 2009 में प्रकाशित हुआ था।{{sfn|Székely|Rizzo|Bakirov|2007}}{{sfn|Székely|Rizzo|2009a}} यह प्रचारित किया गया था कि दूरी सहसंयोजक ब्राउनियन सहसंयोजक के समान है।{{sfn|Székely|Rizzo|2009a}} ये उपाय ऊर्जा दूरी के उदाहरण हैं.
निर्भरता का संरचनात्मक माप, [[पियर्सन उत्पाद-आघूर्ण सहसंबंध गुणांक|पियर्सन]] [[पियर्सन उत्पाद-आघूर्ण सहसंबंध गुणांक|सहसंबंध गुणांक]], <ref>{{harvs|nb|last=Pearson|year=1895a|year2=1895b}}</ref> दो चर के बीच एक रैखिक संबंध के लिए मुख्य संवेदनशील है। दूरी सहसंबंध 2005 में गैबोर जे द्वारा पेश किया गया था। पियर्सन के सहसंबंध के इस घाटे को दूर करने के लिए कई व्याख्यानों में स्ज़ेकली, अर्थात् यह निर्भर चर के लिए आसानी से शून्य हो सकता है। सहसंबंध = 0 ( असंबद्धता ) स्वतंत्रता का अर्थ नहीं है जबकि दूरी सहसंबंध = 0 स्वतंत्रता का अर्थ है। दूरी सहसंबंध पर पहला परिणाम 2007 और 2009 में प्रकाशित हुआ था।{{sfn|Székely|Rizzo|Bakirov|2007}}{{sfn|Székely|Rizzo|2009a}} यह प्रचारित किया गया था कि दूरी सहसंयोजक ब्राउनियन सहसंयोजक के समान है।{{sfn|Székely|Rizzo|2009a}} ये माप ऊर्जा दूरी के उदाहरण हैं।


निर्भरता का संरचनात्मक माप, [[पियर्सन उत्पाद-आघूर्ण सहसंबंध गुणांक|पियर्सन]] [[पियर्सन उत्पाद-आघूर्ण सहसंबंध गुणांक|सहसंबंध गुणांक]], मुख्य रूप से दो चर के बीच एक रैखिक संबंध के प्रति संवेदनशील है. दूरी सहसंबंध 2005 में गैबोर जे द्वारा प्रस्तुत किया गया था. पियर्सन के सहसंबंध की इस कमी को दूर करने के लिए कई व्याख्यानों में स्ज़ेकली, अर्थात् यह निर्भर चर के लिए आसानी से शून्य हो सकता है. सहसंबंध = 0 ( असंबद्धता ) स्वतंत्रता का अर्थ नहीं है जबकि दूरी सहसंबंध = 0 स्वतंत्रता का अर्थ है. दूरी सहसंबंध पर पहला परिणाम 2007 और 2009 में प्रकाशित हुआ था। यह साबित हो गया था कि दूरी सहसंयोजक ब्राउनियन सहसंयोजक के समान है। ये माप ऊर्जा दूरियों के उदाहरण हैं।
दूरी सहसंबंध कई अन्य मात्राओं से लिया गया है जो इसके विनिर्देशन में उपयोग किए जाते हैं, विशेष रूप से: '''दूरी विचरण''', '''दूरी मानक''' '''विचलन''', और '''दूरी सहसंयोजक'''ये मात्राएं पियर्सन गुणक सहसंबंध गुणांक के विनिर्देशन में संबंधित नामों के साथ सामान्य क्षणों के समान भूमिका निभाती हैं।
 
दूरी सहसंबंध कई अन्य मात्राओं से लिया गया है जो इसके विनिर्देशन में उपयोग किए जाते हैं, विशेष रूप से: '''दूरी विचरण''', '''दूरी मानक''' '''विचलन''', और '''दूरी सहसंयोजक'''. ये मात्रा पियरसन गुणक सहसंबंध गुणांक के विनिर्देशन में संबंधित नामों के साथ सामान्य क्षणों के समान भूमिका निभाती हैं।


== परिभाषाएँ ==
== परिभाषाएँ ==
Line 15: Line 13:
=== दूरी सहप्रसरण ===
=== दूरी सहप्रसरण ===


आइए हम नमूना दूरी की परिभाषा के साथ प्रारंभ करें। मान लें (''X<sub>k</sub>'', ''Y<sub>k</sub>''), ''k'' = 1, 2, ..., ''n'' वास्तविक मूल्यवान या वेक्टर मूल्यवान यादृच्छिक चर की एक युग्म से एक [[सांख्यिकीय नमूना]] (''X'', ''Y'') हो। सबसे पहले, ''n'' दूरी की मैट्रिसेस द्वारा ''n'' की गणना करें (''a<sub>j</sub>''<sub>, ''k''</sub>) और (''b<sub>j</sub>''<sub>, ''k''</sub>) जिसमें सभी युग्मन दूरी हैं।
आइए हम दृष्टांत दूरी की परिभाषा के साथ प्रारंभ करें। मान लें (''X<sub>k</sub>'', ''Y<sub>k</sub>''), ''k'' = 1, 2, ..., ''n'' वास्तविक मूल्यवान या सदिश मूल्यवान यादृच्छिक चर की एक युग्म से [[सांख्यिकीय नमूना|सांख्यिकीय दृष्टांत]] (''X'', ''Y'') हो। सबसे पहले, ''n'' दूरी की आव्यूह द्वारा ''n'' की गणना करें (''a<sub>j</sub>''<sub>, ''k''</sub>) और (''b<sub>j</sub>''<sub>, ''k''</sub>) जिसमें सभी युग्मन दूरी हैं।


:<math>
:<math>
Line 23: Line 21:
\end{align}
\end{align}
</math>
</math>
जहां || ⋅ || यूक्लिडियन मानक को दर्शाता है. फिर सभी दोगुनी केंद्रित दूरी लें
जहां || ⋅ || यूक्लिडियन मानक को दर्शाता है। फिर सभी दोगुनी केंद्रित दूरी लें


:<math>
:<math>
Line 29: Line 27:
B_{j, k} := b_{j, k} - \overline{b}_{j\cdot} -\overline{b}_{\cdot k} + \overline{b}_{\cdot\cdot},
B_{j, k} := b_{j, k} - \overline{b}_{j\cdot} -\overline{b}_{\cdot k} + \overline{b}_{\cdot\cdot},
</math>
</math>
जहां <math>\textstyle \overline{a}_{j\cdot}</math> j-वें पंक्ति का माध्य है, <math>\textstyle \overline{a}_{\cdot k}</math> k-वें स्तंभ का माध्य है, और <math>\textstyle \overline{a}_{\cdot\cdot}</math> {{math|''X''}} नमूने की दूरी मैट्रिक्स का भव्य माध्य है। {{math|''b''}} मानों के लिए अंकन समान है। (केंद्रित दूरियों (''A<sub>j</sub>''<sub>, ''k''</sub>) और (''B<sub>j</sub>''<sub>,''k''</sub>) के आव्यूहों में सभी पंक्तियों और सभी स्तंभों का योग शून्य होता है।) वर्गित नमूना दूरी सहप्रसरण (एक अदिश राशि) केवल उत्पादों ''A<sub>j</sub>''<sub>, ''k''</sub> ''B<sub>j</sub>''<sub>, ''k''</sub>: का अंकगणितीय औसत है:
जहां <math>\textstyle \overline{a}_{j\cdot}</math> j-वें पंक्ति का माध्य है, <math>\textstyle \overline{a}_{\cdot k}</math> k-वें स्तंभ का माध्य है, और <math>\textstyle \overline{a}_{\cdot\cdot}</math> {{math|''X''}} नमूने की दूरी आव्यूह का भव्य माध्य है। {{math|''b''}} मानों के लिए अंकन समान है। (केंद्रित दूरियों (''A<sub>j</sub>''<sub>, ''k''</sub>) और (''B<sub>j</sub>''<sub>,''k''</sub>) के आव्यूहों में सभी पंक्तियों और सभी स्तंभों का योग शून्य होता है।) वर्गित दृष्टांत दूरी सहप्रसरण (एक अदिश राशि) केवल गुणनों ''A<sub>j</sub>''<sub>, ''k''</sub> ''B<sub>j</sub>''<sub>, ''k''</sub>: का अंकगणितीय औसत है:
 
कहाँ  है {{math|''j''}}-वीं पंक्ति मतलब,  है {{math|''k''}}-वाँ स्तंभ माध्य, और  की दूरी मैट्रिक्स का भव्य माध्य है  नमूना। अंकन के लिए समान है  मान। (केन्द्रित दूरियों के आव्यूहों में (ए<sub>''j'', ''k''</sub>) और बी<sub>''j'',''k''</sub>) सभी पंक्तियों और सभी स्तंभों का योग शून्य है।) वर्गित नमूना दूरी सहप्रसरण (एक अदिश) केवल उत्पाद ''A'' का अंकगणितीय औसत है।<sub>''j'', ''k ''</sub>B<sub>''j'', ''k''</sub>:


:<math>
:<math>
\operatorname{dCov}^2_n(X,Y) := \frac 1 {n^2} \sum_{j = 1}^n \sum_{k = 1}^n A_{j, k} \, B_{j, k}.
\operatorname{dCov}^2_n(X,Y) := \frac 1 {n^2} \sum_{j = 1}^n \sum_{k = 1}^n A_{j, k} \, B_{j, k}.
</math>
</math>
सांख्यिकी टी<sub>''n''</sub> = एन डीकोव<sup>2</उप><sub>''n''</sub>(एक्स, वाई) मनमाना आयामों में यादृच्छिक वैक्टर की स्वतंत्रता का एक सुसंगत बहुभिन्नरूपी परीक्षण निर्धारित करता है। कार्यान्वयन के लिए R (प्रोग्रामिंग भाषा) के लिए ऊर्जा पैकेज में dcov.test फ़ंक्शन देखें।{{sfn|Rizzo|Székely|2021}}
सांख्यिकीय ''T<sub>n</sub>'' = ''n'' dCov<sup>2</sup><sub>''n''</sub>(''X'', ''Y'') यादृच्छिक आयामों में यादृच्छिक सदिश की स्वतंत्रता का सुसंगत बहुभिन्नरूपी परीक्षण निर्धारित करता है। कार्यान्वयन के लिए R के लिए ऊर्जा पैकेज में dcov.test फलन देखें।<sup>{{sfn|Rizzo|Székely|2021}}


दूरी सहप्रसरण के जनसंख्या मूल्य को उसी रेखा के साथ परिभाषित किया जा सकता है। चलो 'एक्स' एक यादृच्छिक चर है जो संभाव्यता वितरण के साथ 'पी'-आयामी यूक्लिडियन अंतरिक्ष में मान लेता है {{math|&mu;}} और Y को एक यादृच्छिक चर होने दें जो संभाव्यता वितरण के साथ q-आयामी यूक्लिडियन स्थान में मान लेता है {{math|&nu;}}, और मान लीजिए कि X और Y की परिमित अपेक्षाएँ हैं। लिखना
'''दूरी सहप्रसरण''' के जनसंख्या मान को उसी पद्धति पर परिभाषित किया जा सकता है। मान X यादृच्छिक चर है जो संभाव्यता वितरण μ के साथ p-आयामी यूक्लिडियन स्थान में मान लेता है और Y को एक यादृच्छिक चर होने देता है जो एक q-आयामी यूक्लिडियन स्थान में मान लेता है संभाव्यता वितरण ν के साथ, और मान लीजिए कि X और Y की सीमित अपेक्षाएँ हैं। लिखें


:<math>a_\mu(x):= \operatorname{E}[\|X-x\|], \quad D(\mu) := \operatorname{E}[a_\mu(X)], \quad d_\mu(x, x') := \|x-x'\|-a_\mu(x)-a_\mu(x')+D(\mu).
:<math>a_\mu(x):= \operatorname{E}[\|X-x\|], \quad D(\mu) := \operatorname{E}[a_\mu(X)], \quad d_\mu(x, x') := \|x-x'\|-a_\mu(x)-a_\mu(x')+D(\mu).
Line 45: Line 41:


:<math>\operatorname{dCov}^2(X, Y) := \operatorname{E}\big[d_\mu(X,X')d_\nu(Y,Y')\big].</math>
:<math>\operatorname{dCov}^2(X, Y) := \operatorname{E}\big[d_\mu(X,X')d_\nu(Y,Y')\big].</math>
कोई दिखा सकता है कि यह निम्नलिखित परिभाषा के बराबर है:
कोई दर्शा सकता है कि यह निम्नलिखित परिभाषा के समतुल्य है:


:<math>
:<math>
Line 56: Line 52:
\end{align}
\end{align}
</math>
</math>
जहां '''' अपेक्षित मान दर्शाता है, और <math>\textstyle (X, Y),</math> <math>\textstyle (X', Y'),</math> और <math>\textstyle (X'',Y'')</math> स्वतंत्र और समान रूप से वितरित हैं। प्राथमिक यादृच्छिक चर <math>\textstyle (X', Y')</math> और <math>\textstyle (X'',Y'')</math> निरूपित
जहां '''''E''''' अपेक्षित मान दर्शाता है, और <math>\textstyle (X, Y),</math> <math>\textstyle (X', Y'),</math> और <math>\textstyle (X'',Y'')</math> स्वतंत्र और समान रूप से वितरित हैं। प्राथमिक यादृच्छिक चर <math>\textstyle (X', Y')</math> और <math>\textstyle (X'',Y'')</math> निरूपित
चर की स्वतंत्र और समान रूप से वितरित (iid) प्रतियां <math>X</math> और <math>Y</math> और इसी तरह iid हैं।{{sfn|Székely|Rizzo|2014|p=11}} दूरी [[सहप्रसरण]] को पारम्परिक पियर्सन सहप्रसरण के संदर्भ में व्यक्त किया जा सकता है,
चर की स्वतंत्र और समान रूप से वितरित (iid) प्रतियां <math>X</math> और <math>Y</math> और इसी तरह iid हैं।{{sfn|Székely|Rizzo|2014|p=11}} दूरी [[सहप्रसरण]] को पारम्परिक पियर्सन सहप्रसरण के संदर्भ में व्यक्त किया जा सकता है, सीओवी, इस प्रकार है:
सीओवी, इस प्रकार है:


:<math>\operatorname{dCov}^2(X,Y) = \operatorname{cov}(\|X-X'\|,\|Y-Y'\|) - 2\operatorname{cov}(\|X-X'\|,\|Y-Y''\|).
:<math>\operatorname{dCov}^2(X,Y) = \operatorname{cov}(\|X-X'\|,\|Y-Y'\|) - 2\operatorname{cov}(\|X-X'\|,\|Y-Y''\|).
</math>
</math>
यह पहचान दर्शाती है कि दूरी सहप्रसरण दूरियों के सहप्रसरण के समान नहीं है, {{nowrap|cov({{norm|''X'' − ''X' ''}}, {{norm|''Y'' − ''Y' '' }}}}). यह शून्य हो सकता है भले ही X और Y स्वतंत्र न हों।
यह पहचान दर्शाती है कि दूरी सहप्रसरण दूरियों के सहप्रसरण के समान नहीं है, {{nowrap|cov({{norm|''X'' − ''X' ''}}, {{norm|''Y'' − ''Y' '' }}}})यह शून्य हो सकता है भले ही X और Y स्वतंत्र न हों।


वैकल्पिक रूप से, दूरी सहप्रसरण को भारित मानदण्ड (गणित)#Euclidean_norm|L के रूप में परिभाषित किया जा सकता है<sup>2</sup> यादृच्छिक चर के संयुक्त विशेषता फ़ंक्शन (संभाव्यता सिद्धांत) और उनके सीमांत विशेषता कार्यों के उत्पाद के बीच की दूरी का मानदंड:<ref name=SR2009a>{{harvnb|Székely|Rizzo|2009a|p=1249}}, Theorem 7, (3.7).</ref>
वैकल्पिक रूप से, दूरी के सहसंयोजक को यादृच्छिक चर के संयुक्त विशेषता फलन और उनके सीमांत विशेषता कार्यों के गुणन के बीच की दूरी के निर्धारित L<sup>2</sup> मानक के रूप में परिभाषित किया जा सकता है:<ref name=SR2009a>{{harvnb|Székely|Rizzo|2009a|p=1249}}, Theorem 7, (3.7).</ref>  
: <math>
: <math>
\operatorname{dCov}^2(X,Y)= \frac 1 {c_p c_q} \int_{\mathbb{R}^{p+q}} \frac{\left|\varphi_{X,Y}(s, t) - \varphi_X(s)\varphi_Y(t) \right|^2}{|s|_p^{1+p} |t|_q^{1+q}} \,dt\,ds
\operatorname{dCov}^2(X,Y)= \frac 1 {c_p c_q} \int_{\mathbb{R}^{p+q}} \frac{\left|\varphi_{X,Y}(s, t) - \varphi_X(s)\varphi_Y(t) \right|^2}{|s|_p^{1+p} |t|_q^{1+q}} \,dt\,ds
</math>
</math>
कहाँ <math>\varphi_{X,Y}(s,t)</math>, <math>\varphi_{X}(s)</math>, और <math>\varphi_{Y}(t)</math> के विशेषता कार्य (संभावना सिद्धांत) हैं {{nowrap|(''X'', ''Y''),}} एक्स, और वाई, क्रमशः, पी, क्यू एक्स और वाई के यूक्लिडियन आयाम को दर्शाता है, और इस प्रकार एस और टी, और सी<sub>''p''</sub>, सी<sub>''q''</sub> स्थिरांक हैं। वजन समारोह <math>({c_p c_q}{|s|_p^{1+p} |t|_q^{1+q}})^{-1}</math> स्केल इक्विवेरिएंट और रोटेशन इनवेरिएंट माप का उत्पादन करने के लिए चुना जाता है जो निर्भर चर के लिए शून्य पर नहीं जाता है।<ref name=SR2009a/>{{sfn|Székely|Rizzo|2012}} अभिलाक्षणिक फलन परिभाषा की एक व्याख्या यह है कि चर e<sup>isX</sup> और <sup>itY</sup> s और t द्वारा दी गई विभिन्न अवधियों के साथ X और Y का चक्रीय निरूपण है, और व्यंजक {{nowrap|''ϕ''<sub>''X'', ''Y''</sub>(''s'', ''t'') − ''ϕ''<sub>''X''</sub>(''s'') ''ϕ''<sub>''Y''</sub>(''t'')}} विशेषता फ़ंक्शन के अंश में दूरी सहप्रसरण की परिभाषा केवल e का क्लासिकल सहप्रसरण है<sup>isX</sup> और <sup>आईटीवाई</sup>. विशिष्ट कार्य परिभाषा स्पष्ट रूप से दिखाती है
जहां <math>\varphi_{X,Y}(s,t)</math>और <math>\varphi_{Y}(t)</math> क्रमशः {{nowrap|(''X'', ''Y''),}} ''X'' और ''Y'' के विशिष्ट फलन हैं, ''p, q, X'' और ''Y'' के यूक्लिडियन आयाम को दर्शाते हैं, और इस प्रकार ''s'' और ''t'',और ''c<sub>p</sub>'', ''c<sub>q</sub>'' स्थिरांक हैं। भार फलन <math>({c_p c_q}{|s|_p^{1+p} |t|_q^{1+q}})^{-1}</math> समतुल्य और घूर्णन अपरिवर्तनीय मापों को ऐसे पैमाने पर गुणा करने के लिए चुना गया है जो आश्रित चर के लिए शून्य की ओर नहीं जाता है।<ref name=SR2009a/>{{sfn|Székely|Rizzo|2012}} अभिलाक्षणिक फलन परिभाषा की एक व्याख्या यह है कि चर ''e<sup>isX</sup>'' और ''e<sup>itY</sup>'' द्वारा दी गई विभिन्न अवधियों के साथ ''X'' और ''Y'' का चक्रीय निरूपण है, और व्यंजक {{nowrap|''ϕ''<sub>''X'', ''Y''</sub>(''s'', ''t'') − ''ϕ''<sub>''X''</sub>(''s'') ''ϕ''<sub>''Y''</sub>(''t'')}} विशेषता फलन के अंश में दूरी सहप्रसरण की परिभाषा केवल ''e<sup>isX</sup>'' और ''e<sup>itY</sup>'' वर्गीय सहसंयोजक है। विशेषता फलन परिभाषा स्पष्ट रूप से दिखाती है कि dCov<sup>2</sup>(''X'', ''Y'') = 0 यदि और केवल ''X'' और ''Y'' स्वतंत्र हैं।
डीकोव<sup>2</sup>(X, Y) = 0 यदि और केवल यदि X और Y स्वतंत्र हैं।


=== दूरी विचरण और दूरी मानक विचलन ===
=== दूरी विचरण और दूरी मानक विस्थापन ===


दूरी विचरण दूरी सहप्रसरण का एक विशेष मामला है जब दो चर समान होते हैं। दूरी विचरण का जनसंख्या मान का वर्गमूल है
दूरी ''विचरण दूरी'' के सहसंयोजक का विशेष स्तिथि है जब दो चर समान होते हैं। दूरी विचरण का जनसंख्या मूल्य वर्गमूल है


:<math>
:<math>
\operatorname{dVar}^2(X) := \operatorname{E}[\|X-X'\|^2] + \operatorname{E}^2[\|X-X'\|] - 2\operatorname{E}[\|X-X'\|\,\|X-X''\|],
\operatorname{dVar}^2(X) := \operatorname{E}[\|X-X'\|^2] + \operatorname{E}^2[\|X-X'\|] - 2\operatorname{E}[\|X-X'\|\,\|X-X''\|],
</math>
</math>
कहाँ <math>X</math>, <math>X'</math>, और <math>X''</math> [[स्वतंत्र और समान रूप से वितरित यादृच्छिक चर]] हैं, <math>\operatorname{E}</math> [[अपेक्षित मूल्य]] को दर्शाता है, और <math>f^2(\cdot)=(f(\cdot))^2</math> समारोह के लिए <math>f(\cdot)</math>, जैसे, <math>\operatorname{E}^2[\cdot] = (\operatorname{E}[\cdot])^2</math>.
जहाँ <math>X</math>, <math>X'</math>, और <math>X''</math> [[स्वतंत्र और समान रूप से वितरित यादृच्छिक चर]] हैं, <math>\operatorname{E}</math> [[अपेक्षित मूल्य]] को दर्शाता है, और <math>f^2(\cdot)=(f(\cdot))^2</math> फलन के लिए <math>f(\cdot)</math>, जैसे, <math>\operatorname{E}^2[\cdot] = (\operatorname{E}[\cdot])^2</math>


नमूना दूरी प्रसरण का वर्गमूल है
दृष्टांत दूरी प्रसरण का वर्गमूल है


:<math>
:<math>
\operatorname{dVar}^2_n(X) := \operatorname{dCov}^2_n(X,X) = \tfrac{1}{n^2}\sum_{k,\ell}A_{k,\ell}^2,
\operatorname{dVar}^2_n(X) := \operatorname{dCov}^2_n(X,X) = \tfrac{1}{n^2}\sum_{k,\ell}A_{k,\ell}^2,
</math>
</math>
जो 1912 में पेश किए गए [[कॉनराड गिन्नी]] के मीन निरपेक्ष अंतर का एक रिश्तेदार है (लेकिन गिन्नी ने केंद्रित दूरियों के साथ काम नहीं किया)।{{sfn|Gini|1912}}
जो 1912 में प्रारम्भ किए गए [[कॉनराड गिन्नी|कोराडो गिन्नी]] के औसत अंतर का संबंध है (लेकिन गिन्नी केंद्रित दूरी) के साथ काम नहीं करती थी।{{sfn|Gini|1912}}


दूरी मानक विचलन दूरी विचरण का वर्गमूल है।
दूरी मानक विचलन दूरी विचरण का वर्गमूल है।
Line 91: Line 85:
=== दूरी सहसंबंध ===
=== दूरी सहसंबंध ===


दूरी सहसंबंध {{sfn|Székely|Rizzo|Bakirov|2007}}{{sfn|Székely|Rizzo|2009a}दो यादृच्छिक चरों का } उनके दूरी सहप्रसरण को उनके दूरी मानक विचलन के गुणनफल से विभाजित करके प्राप्त किया जाता है। दूरी सहसंबंध का वर्गमूल है
दो यादृच्छिक चर के ''दूरी सहसंबंध''{{sfn|Székely|Rizzo|Bakirov|2007}} उनकी दूरी मानक विचलन के गुणन द्वारा उनकी ''दूरी के सहसंयोजक'' को विभाजित करके प्राप्त किया जाता है। दूरी सहसंबंध वर्गमूल है:


:<math>
:<math>
\operatorname{dCor}^2(X,Y) = \frac{\operatorname{dCov}^2(X,Y)}{\sqrt{\operatorname{dVar}^2(X)\,\operatorname{dVar}^2(Y)}},
\operatorname{dCor}^2(X,Y) = \frac{\operatorname{dCov}^2(X,Y)}{\sqrt{\operatorname{dVar}^2(X)\,\operatorname{dVar}^2(Y)}},
</math>
</math>
और नमूना दूरी सहसंबंध को उपरोक्त जनसंख्या गुणांक के लिए नमूना दूरी सहप्रसरण और दूरी प्रसरण को प्रतिस्थापित करके परिभाषित किया गया है।
और दृष्टांत दूरी सहसंबंध को उपरोक्त जनसंख्या गुणांक के लिए दृष्टांत दूरी सहप्रसरण और दूरी प्रसरण को प्रतिस्थापित करके परिभाषित किया गया है।


नमूना दूरी सहसंबंध की आसान गणना के लिए R (प्रोग्रामिंग भाषा) के लिए ऊर्जा पैकेज में dcor फ़ंक्शन देखें।{{sfn|Rizzo|Székely|2021}}
दृष्टांत दूरी सहसंबंध की आसान गणना के लिए ''R'' के लिए ऊर्जा पैकेज में डीसीओआर फलन देखें।{{sfn|Rizzo|Székely|2021}}  


== गुण ==
== गुण ==
Line 106: Line 100:
|<math>0\leq\operatorname{dCor}_n(X,Y)\leq1</math> and <math>0\leq\operatorname{dCor}(X,Y)\leq1</math>;
|<math>0\leq\operatorname{dCor}_n(X,Y)\leq1</math> and <math>0\leq\operatorname{dCor}(X,Y)\leq1</math>;


this is in contrast to Pearson's correlation, which can be negative.
यह पियर्सन के सहसंबंध के विपरीत है, जो ऋणात्मक हो सकता है।
 
|<math>\operatorname{dCor}(X,Y) = 0</math> if and only if {{mvar|X}} and {{mvar|Y}} are independent.


|<math>\operatorname{dCor}_n(X,Y) = 1</math> implies that dimensions of the linear subspaces spanned by {{mvar|X}} and {{mvar|Y}} samples respectively are almost surely equal and if we assume that these subspaces are equal, then in this subspace <math>Y = A + b\,\mathbf{C}X</math> for some vector {{mvar|A}}, scalar {{mvar|b}}, and [[orthonormal matrix]] <math>\mathbf{C}</math>.
|<math>\operatorname{dCor}(X,Y) = 0</math> यदि और केवल यदि {{mvar|X}} और {{mvar|Y}} स्वतंत्र हैं।
|<math>\operatorname{dCor}_n(X,Y) = 1</math> तात्पर्य है कि रैखिक उप-स्थानों के आयामों द्वारा प्रायोजित {{mvar|X}} और {{mvar|Y}} नमूने क्रमशः लगभग निश्चित रूप से समान हैं और यदि हम मानते हैं कि ये उप-स्थान समान हैं, तो इस उप-स्थान में <math>Y = A + b\,\mathbf{C}X</math> f या कुछ सदिश {{mvar|A}}, अदिश {{mvar|b}}, और [[ऑर्थोनॉर्मल मैट्रिक्स]] <math>\mathbf{C}</math>
}}
}}


=== दूरी सहप्रसरण ===
=== दूरी सहप्रसरण ===
{{Ordered list |list_style_type=lower-roman
{{Ordered list |list_style_type=lower-roman
|<math>\operatorname{dCov}(X,Y)\geq0</math> and <math>\operatorname{dCov}_n(X,Y)\geq0</math>;
|<math>\operatorname{dCov}(X,Y)\geq0</math> और <math>\operatorname{dCov}_n(X,Y)\geq0</math>;


|<math>\operatorname{dCov}^2(a_1 + b_1\,\mathbf{C}_1\,X, a_2 + b_2\,\mathbf{C}_2\,Y) = |b_1\,b_2|\operatorname{dCov}^2(X,Y)</math>
|<math>\operatorname{dCov}^2(a_1 + b_1\,\mathbf{C}_1\,X, a_2 + b_2\,\mathbf{C}_2\,Y) = |b_1\,b_2|\operatorname{dCov}^2(X,Y)</math>
for all constant vectors <math>a_1, a_2</math>, scalars <math>b_1, b_2</math>, and orthonormal matrices <math>\mathbf{C}_1, \mathbf{C}_2</math>.
सभी स्थिर सदिशों के लिए <math>a_1, a_2</math>, अदिश <math>b_1, b_2</math>, और ऑर्थोनॉर्मल मैट्रिक्स<math>\mathbf{C}_1, \mathbf{C}_2</math>.


|If the random vectors <math>(X_1, Y_1)</math> and <math>(X_2, Y_2)</math> are independent then
|यदि यादृच्छिक सदिश <math>(X_1, Y_1)</math> and <math>(X_2, Y_2)</math> फिर स्वतंत्र हैं
:<math>
:<math>
\operatorname{dCov}(X_1 + X_2, Y_1 + Y_2) \leq \operatorname{dCov}(X_1, Y_1) + \operatorname{dCov}(X_2, Y_2).
\operatorname{dCov}(X_1 + X_2, Y_1 + Y_2) \leq \operatorname{dCov}(X_1, Y_1) + \operatorname{dCov}(X_2, Y_2).
</math>
</math>
Equality holds if and only if <math>X_1</math> and <math>Y_1</math> are both constants, or <math>X_2</math> and <math>Y_2</math> are both constants, or <math>X_1, X_2, Y_1, Y_2</math> are mutually independent.
समानता यदि और केवल यदि ही मान्य है <math>X_1</math> and <math>Y_1</math> दोनों स्थिरांक हैं, या <math>X_2</math> और <math>Y_2</math> दोनों स्थिरांक हैं, या <math>X_1, X_2, Y_1, Y_2</math> पारस्परिक रूप से स्वतंत्र हैं।
 
|<math>\operatorname{dCov}(X,Y) = 0</math> यदि और केवल यदि {{mvar|X}} और {{mvar|Y}} स्वतन्त्र हैं।
|<math>\operatorname{dCov}(X,Y) = 0</math> if and only if {{mvar|X}} and {{mvar|Y}} are independent.
}}
}}
यह अंतिम संपत्ति केंद्रित दूरियों के साथ काम करने का सबसे महत्वपूर्ण प्रभाव है।
यह अंतिम गुण केंद्रित दूरियों के साथ काम करने का सबसे महत्वपूर्ण प्रभाव है।


आँकड़ा <math>\operatorname{dCov}^2_n(X,Y)</math> का पक्षपाती अनुमानक है <math>\operatorname{dCov}^2(X,Y)</math>. X और Y की स्वतंत्रता के तहत {{sfn|Székely|Rizzo|2009b}}
सांख्यिकी <math>\operatorname{dCov}^2_n(X,Y)</math> का पक्षपाती अनुमानक है <math>\operatorname{dCov}^2(X,Y)</math> X और Y की स्वतंत्रता के अंतर्गत है। {{sfn|Székely|Rizzo|2009b}}


:<math>
:<math>
Line 142: Line 134:
=== दूरी विचरण ===
=== दूरी विचरण ===
{{Ordered list |list_style_type=lower-roman
{{Ordered list |list_style_type=lower-roman
|<math>\operatorname{dVar}(X) = 0</math> if and only if <math>X = \operatorname{E}[X]</math> almost surely.
|<math>\operatorname{dVar}(X) = 0</math> यदि और केवल यदि <math>X = \operatorname{E}[X]</math> लगभग निश्चित रूप से।


|<math>\operatorname{dVar}_n(X) = 0</math> if and only if every sample observation is identical.
|<math>\operatorname{dVar}_n(X) = 0</math> यदि और केवल यदि प्रत्येक दृष्टांत अवलोकन समान है।


|<math>\operatorname{dVar}(A + b\,\mathbf{C}\,X) = |b|\operatorname{dVar}(X)</math> for all constant vectors {{mvar|A}}, scalars {{mvar|b}}, and orthonormal matrices <math>\mathbf{C}</math>.
|<math>\operatorname{dVar}(A + b\,\mathbf{C}\,X) = |b|\operatorname{dVar}(X)</math> सभी स्थिर सदिशों के लिए {{mvar|A}}, scalars {{mvar|b}}, और ऑर्थोनॉर्मल मैट्रिक्स <math>\mathbf{C}</math>.


|If {{mvar|X}} and {{mvar|Y}} are independent then <math>\operatorname{dVar}(X + Y) \leq\operatorname{dVar}(X) + \operatorname{dVar}(Y)</math>.
|If {{mvar|X}} और {{mvar|Y}} फिर स्वतंत्र हैं <math>\operatorname{dVar}(X + Y) \leq\operatorname{dVar}(X) + \operatorname{dVar}(Y)</math>.
}}
}}
समानता (iv) में होती है यदि और केवल यदि यादृच्छिक चर में से एक {{mvar|X}} या {{mvar|Y}} स्थिरांक है।
समानता (iv) में होती है यदि और केवल यदि यादृच्छिक चर में से एक {{mvar|X}} या {{mvar|Y}} स्थिरांक है।
Line 154: Line 146:
== सामान्यीकरण ==
== सामान्यीकरण ==


यूक्लिडियन दूरी की शक्तियों को शामिल करने के लिए दूरी सहप्रसरण को सामान्यीकृत किया जा सकता है। परिभाषित करना
यूक्लिडियन दूरी की घात को सम्मिलित करने के लिए दूरी सहप्रसरण को सामान्यीकृत किया जा सकता है।  
:<math>
:<math>
\begin{align}
\begin{align}
Line 161: Line 153:
\end{align}
\end{align}
</math>
</math>
फिर प्रत्येक के लिए <math>0<\alpha<2</math>, <math>X</math> और <math>Y</math> स्वतंत्र हैं अगर और केवल अगर <math>\operatorname{dCov}^2(X, Y; \alpha) = 0</math>. यह ध्यान रखना महत्वपूर्ण है कि यह लक्षण वर्णन एक्सपोनेंट के लिए नहीं है <math>\alpha=2</math>; इस मामले में bivariate के लिए <math>(X, Y)</math>, <math>\operatorname{dCor}(X, Y; \alpha=2)</math> पियर्सन सहसंबंध का एक नियतात्मक कार्य है।{{sfn|Székely|Rizzo|Bakirov|2007}} अगर <math>a_{k,\ell}</math> और <math>b_{k,\ell}</math> हैं <math>\alpha</math> संबंधित दूरियों की शक्तियां, <math>0<\alpha\leq2</math>, तब <math>\alpha</math> नमूना दूरी सहप्रसरण को गैर-नकारात्मक संख्या के रूप में परिभाषित किया जा सकता है
फिर प्रत्येक के लिए <math>0<\alpha<2</math>, <math>X</math> और <math>Y</math> स्वतंत्र हैं अगर और केवल अगर <math>\operatorname{dCov}^2(X, Y; \alpha) = 0</math>यह ध्यान रखना महत्वपूर्ण है कि यह लक्षण वर्णन प्रतिपादक के लिए नहीं है <math>\alpha=2</math>; इस स्तिथि में द्विचर के लिए <math>(X, Y)</math>, <math>\operatorname{dCor}(X, Y; \alpha=2)</math> पियर्सन सहसंबंध का एक नियतात्मक कार्य है।{{sfn|Székely|Rizzo|Bakirov|2007}} अगर <math>a_{k,\ell}</math> और <math>b_{k,\ell}</math> हैं <math>\alpha</math> संबंधित दूरियों की घात, <math>0<\alpha\leq2</math>, तब <math>\alpha</math> दृष्टांत दूरी सहप्रसरण को ऋणात्मक संख्या के रूप में परिभाषित किया जा सकता है।
:<math>
:<math>
\operatorname{dCov}^2_n(X, Y; \alpha):= \frac{1}{n^2}\sum_{k,\ell}A_{k,\ell}\,B_{k,\ell}.
\operatorname{dCov}^2_n(X, Y; \alpha):= \frac{1}{n^2}\sum_{k,\ell}A_{k,\ell}\,B_{k,\ell}.
</math>
</math>
कोई विस्तार कर सकता है <math>\operatorname{dCov}</math> [[ मीट्रिक स्थान ]] के लिए | मेट्रिक-स्पेस-वैल्यू [[यादृच्छिक चर]] <math>X</math> और <math>Y</math>: अगर <math>X</math> कानून है <math>\mu</math> मीट्रिक के साथ एक मीट्रिक स्थान में <math>d</math>, फिर परिभाषित करें <math>a_\mu(x):= \operatorname{E}[d(X, x)]</math>, <math>D(\mu) := \operatorname{E}[a_\mu(X)]</math>, और (प्रदान किया गया <math>a_\mu</math> परिमित है, अर्थात्, <math>X</math> पहला क्षण परिमित है), <math>d_\mu(x, x') := d(x, x')-a_\mu(x)-a_\mu(x')+D(\mu)</math>. तो अगर <math>Y</math> कानून है <math>\nu</math> (परिमित पहले क्षण के साथ संभावित रूप से भिन्न मीट्रिक स्थान में), परिभाषित करें
कोई विस्तार कर सकता है <math>\operatorname{dCov}</math> [[ मीट्रिक स्थान |मापीय स्थान]] के लिए | मापीय-स्पेस-वैल्यू [[यादृच्छिक चर]] <math>X</math> और <math>Y</math>: अगर <math>X</math> कानून है <math>\mu</math> मापीय के साथ एक मापीय स्थान में <math>d</math>, फिर परिभाषित करें <math>a_\mu(x):= \operatorname{E}[d(X, x)]</math>, <math>D(\mu) := \operatorname{E}[a_\mu(X)]</math>, और (प्रदान किया गया <math>a_\mu</math> परिमित है, अर्थात्, <math>X</math> पहला क्षण परिमित है), <math>d_\mu(x, x') := d(x, x')-a_\mu(x)-a_\mu(x')+D(\mu)</math>. तो अगर <math>Y</math> कानून है <math>\nu</math> (परिमित पहले क्षण के साथ संभावित रूप से भिन्न मापीय स्थान में), परिभाषित करें
:<math>
:<math>
\operatorname{dCov}^2(X, Y) := \operatorname{E}\big[d_\mu(X,X')d_\nu(Y,Y')\big].
\operatorname{dCov}^2(X, Y) := \operatorname{E}\big[d_\mu(X,X')d_\nu(Y,Y')\big].
</math>
</math>
यह ऐसे सभी के लिए गैर-नकारात्मक है <math>X, Y</math> iff दोनों मीट्रिक रिक्त स्थान नकारात्मक प्रकार के होते हैं।{{sfn|Lyons|2014}} यहां, एक मीट्रिक स्थान <math>(M, d)</math> यदि नकारात्मक प्रकार है <math>(M, d^{1/2})</math> [[हिल्बर्ट अंतरिक्ष]] के एक सबसेट के लिए [[आइसोमेट्री]] है।{{sfn|Klebanov|2005|p={{pn|date=October 2021}}}} अगर दोनों मेट्रिक स्पेस में स्ट्रॉन्ग नेगेटिव टाइप है, तो <math>\operatorname{dCov}^2(X, Y)= 0</math> आईएफएफ <math>X, Y</math> स्वतंत्र हैं।{{sfn|Lyons|2014}}
यह ऐसे सभी के लिए ऋणात्मक है <math>X, Y</math> यदि दोनों मापीय रिक्त स्थान ऋणात्मक प्रकार के होते हैं।{{sfn|Lyons|2014}} यहां, एक मापीय स्थान <math>(M, d)</math> यदि ऋणात्मक प्रकार है <math>(M, d^{1/2})</math> [[हिल्बर्ट अंतरिक्ष|हिल्बर्ट स्पेस]] के एक सबसेट के लिए [[आइसोमेट्री]] है।{{sfn|Klebanov|2005|p={{pn|date=October 2021}}}} अगर दोनों मापीय स्पेस में स्ट्रॉन्ग नेगेटिव टाइप है, तो <math>\operatorname{dCov}^2(X, Y)= 0</math> आईएफएफ <math>X, Y</math> स्वतंत्र हैं।{{sfn|Lyons|2014}}


== दूरी सहप्रसरण की वैकल्पिक परिभाषा ==
== दूरी सहप्रसरण की वैकल्पिक परिभाषा ==


मूल दूरी सहसंबंध#दूरी सहप्रसरण को के वर्गमूल के रूप में परिभाषित किया गया है <math>\operatorname{dCov}^2(X,Y)</math>, चुकता गुणांक के बजाय। <math>\operatorname{dCov}(X,Y)</math> संपत्ति है कि यह संयुक्त वितरण के बीच ऊर्जा की दूरी है <math>\operatorname X, Y </math> और इसके मार्जिन का उत्पाद। इस परिभाषा के तहत, हालांकि, दूरी मानक विचलन के बजाय दूरी भिन्नता को उसी इकाइयों में मापा जाता है <math>\operatorname X </math> दूरियां।
मूल दूरी सहसंबंध दूरी सहप्रसरण को के वर्गमूल के रूप में परिभाषित किया गया है। <math>\operatorname{dCov}^2(X,Y)</math>, वर्ग गुणांक के बल्कि <math>\operatorname{dCov}(X,Y)</math> संयुक्त वितरण के बीच ऊर्जा की दूरी है <math>\operatorname X, Y </math>और इसके अंतर का गुणन है। इस परिभाषा के तहत, हालांकि, दूरी मानक विचलन के बजाय दूरी भिन्नता <math>\operatorname X </math> को उसी इकाइयों में मापा जाता है।


वैकल्पिक रूप से, ऊर्जा दूरी के वर्ग के रूप में 'दूरी सहप्रसरण' को परिभाषित किया जा सकता है:
वैकल्पिक रूप से, ऊर्जा दूरी के वर्ग के रूप में 'दूरी सहप्रसरण' को परिभाषित किया जा सकता है: <math> \operatorname{dCov}^2(X,Y).</math> इस स्तिथि में, की दूरी मानक विचलन <math>X</math> के समान इकाइयों में मापा जाता है <math>X</math> दूरी, और जनसंख्या दूरी सहप्रसरण के लिए एक निष्पक्ष अनुमानक उपस्थित है।{{sfn|Székely|Rizzo|2014}}
<math> \operatorname{dCov}^2(X,Y).</math> इस मामले में, की दूरी मानक विचलन <math>X</math> के समान इकाइयों में मापा जाता है <math>X</math> दूरी, और जनसंख्या दूरी सहप्रसरण के लिए एक निष्पक्ष अनुमानक मौजूद है।{{sfn|Székely|Rizzo|2014}}


इन वैकल्पिक परिभाषाओं के अंतर्गत, दूरी सहसंबंध को वर्ग के रूप में भी परिभाषित किया गया है <math>\operatorname{dCor}^2(X,Y)</math>, वर्गमूल के बजाय।
इन वैकल्पिक परिभाषाओं के अंतर्गत, दूरी सहसंबंध को वर्ग <math>\operatorname{dCor}^2(X,Y)</math> के रूप में भी परिभाषित किया गया है।


== वैकल्पिक सूत्रीकरण: ब्राउनियन सहप्रसरण ==
== वैकल्पिक सूत्रीकरण: ब्राउनियन सहप्रसरण ==
Line 191: Line 182:
     \right]
     \right]
</math>
</math>
जहां अपेक्षित मूल्य को दर्शाता है और अभाज्य स्वतंत्र और समान रूप से वितरित प्रतियों को दर्शाता है। हमें इस सूत्र के निम्नलिखित सामान्यीकरण की आवश्यकता है। यदि यू (एस), वी (टी) मनमानी यादृच्छिक प्रक्रियाएं हैं जो सभी वास्तविक एस और टी के लिए परिभाषित हैं तो एक्स के यू-केंद्रित संस्करण को परिभाषित करें
जहां '''''E''''' अपेक्षित मूल्य को दर्शाता है और अभाज्य स्वतंत्र और समान रूप से वितरित प्रतियों को दर्शाता है। हमें इस सूत्र के निम्नलिखित सामान्यीकरण की आवश्यकता है। यदि U(s),V(t) मनमानी यादृच्छिक प्रक्रियाएं हैं जो सभी वास्तविक s और t के लिए परिभाषित हैं तो X के U-केंद्रित संस्करण को परिभाषित करें
:<math>
:<math>
X_U := U(X) - \operatorname{E}_X\left[ U(X) \mid \left \{ U(t) \right \} \right]
X_U := U(X) - \operatorname{E}_X\left[ U(X) \mid \left \{ U(t) \right \} \right]
</math>
</math>
जब भी घटाया गया सशर्त अपेक्षित मूल्य मौजूद होता है और Y द्वारा निरूपित होता है<sub>V</sub> Y का V-केंद्रित संस्करण।{{sfn|Székely|Rizzo|2009a}}{{sfn|Bickel|Xu|2009}}{{sfn|Kosorok|2009}} (यू, वी) सहप्रसरण (एक्स, वाई) को गैर-नकारात्मक संख्या के रूप में परिभाषित किया गया है जिसका वर्ग है
जब भी घटाया गया सशर्त अपेक्षित मूल्य उपस्थित होता है और Y<sub>V</sub> द्वारा Y का V-केंद्रित संस्करण निरूपित किया जाता है।{{sfn|Székely|Rizzo|2009a}}{{sfn|Bickel|Xu|2009}}{{sfn|Kosorok|2009}} (X,Y) के (U,V) सहप्रसरण को उस गैरऋणात्मक संख्या के रूप में परिभाषित किया गया है जिसका वर्ग है:
:<math>
:<math>
\operatorname{cov}_{U,V}^2(X,Y) := \operatorname{E}\left[X_U X_U^\mathrm{'} Y_V Y_V^\mathrm{'}\right]
\operatorname{cov}_{U,V}^2(X,Y) := \operatorname{E}\left[X_U X_U^\mathrm{'} Y_V Y_V^\mathrm{'}\right]
</math>
</math>
जब भी दाहिना हाथ गैर-नकारात्मक और परिमित होता है। सबसे महत्वपूर्ण उदाहरण है जब यू और वी दो तरफा स्वतंत्र [[एक प्रकार कि गति]] / [[वीनर प्रक्रिया]] शून्य और सहप्रसरण की अपेक्षा के साथ होते हैं {{nowrap|1={{abs|''s''}} + {{abs|''t''}} − {{abs|''s'' − ''t''}} = 2 min(''s'',''t'')}} (नॉननेगेटिव एस के लिए, केवल टी)। (यह मानक वीनर प्रक्रिया से दोगुना सहप्रसरण है; यहां कारक 2 संगणना को सरल करता है।) इस मामले में (U,V) सहप्रसरण को 'ब्राउनियन सहप्रसरण' कहा जाता है और इसे इसके द्वारा निरूपित किया जाता है।
जब भी दाहिने हाथ की तरफ गैरऋणात्मक और परिमित हो, सबसे महत्वपूर्ण उदाहरण है जब U और V दो तरफा स्वतंत्र ब्राउनियन गति हैं। अपेक्षा शून्य और सहसंयोजक के साथ [[वीनर प्रक्रिया]] {{nowrap|1={{abs|''s''}} + {{abs|''t''}} − {{abs|''s'' − ''t''}} = 2 min(''s'',''t'')}} ( केवल ऋणात्मक s के लिए, t. (यह मानक वीनर प्रक्रिया के सहसंयोजक से दोगुना है; यहाँ कारक 2 संगणना को सरल करता है।) इस स्तिथि में (U, V) सहसंयोजक को ब्राउनियन सहसंयोजक कहा जाता है और इसके द्वारा निरूपित किया जाता है।
:<math>
:<math>
\operatorname{cov}_W(X,Y).  
\operatorname{cov}_W(X,Y).  
Line 209: Line 200:
और इस प्रकार ब्राउनियन सहसंबंध दूरी सहसंबंध के समान है।
और इस प्रकार ब्राउनियन सहसंबंध दूरी सहसंबंध के समान है।


दूसरी ओर, यदि हम ब्राउनियन गति को नियतात्मक पहचान समारोह ''आईडी'' से प्रतिस्थापित करते हैं तो Cov<sub>id</sub>(एक्स, वाई) शास्त्रीय पियर्सन सहप्रसरण का केवल निरपेक्ष मान है,
दूसरी ओर, यदि हम ब्राउनियन गति को नियतात्मक पहचान फलन ''आईडी'' से प्रतिस्थापित करते हैं तो Cov<sub>id</sub>(''X'',''Y'') चिरसम्मत पियर्सन सहप्रसरण का केवल निरपेक्ष मान है:
:<math>
:<math>
\operatorname{cov}_{\mathrm{id}}(X,Y) = \left\vert\operatorname{cov}(X,Y)\right\vert.
\operatorname{cov}_{\mathrm{id}}(X,Y) = \left\vert\operatorname{cov}(X,Y)\right\vert.
</math>
</math>


 
== संबंधित आव्यूह ==
== संबंधित मेट्रिक्स ==
कर्नेल-आधारित सहसंबंध आव्यूह (जैसे कि हिल्बर्ट-श्मिट इंडिपेंडेंस क्राइटेरियन या एचएसआईसी) सहित अन्य सहसंबंध आव्यूह भी रैखिक और गैर-रेखीय परस्पर क्रिया का पता लगा सकते हैं। स्थिर [[सांख्यिकीय शक्ति|सांख्यिकीय]] घात प्राप्त करने के लिए दूरी सहसंबंध और कर्नेल-आधारित आव्यूह दोनों का उपयोग कैनोनिकल सांख्यिकीय विश्लेषण और [[स्वतंत्र घटक विश्लेषण]] जैसी विधियों के साथ किया जा सकता है।
 
कर्नेल-आधारित सहसंबंधी मेट्रिक्स (जैसे हिल्बर्ट-श्मिट इंडिपेंडेंस क्राइटेरियन या HSIC) सहित अन्य सहसंबंधी मेट्रिक्स भी रैखिक और गैर-रैखिक इंटरैक्शन का पता लगा सकते हैं। दूरी सहसंबंध और कर्नेल-आधारित मेट्रिक्स दोनों का उपयोग मजबूत [[सांख्यिकीय शक्ति]] प्राप्त करने के लिए [[विहित सहसंबंध विश्लेषण]] और [[स्वतंत्र घटक विश्लेषण]] जैसे तरीकों में किया जा सकता है।


== यह भी देखें ==
== यह भी देखें ==
* [[आरवी गुणांक]]
* [[आरवी गुणांक]]
* संबंधित तीसरे क्रम के आंकड़े के लिए, तिरछापन#दूरी तिरछापन देखें।
*संबंधित तृतीय-क्रम आँकड़ों के लिए, दूरी विषमता देखें।


==टिप्पणियाँ==
==टिप्पणियाँ==
Line 246: Line 235:
*[http://personal.bgsu.edu/~mrizzo/energy.htm E-statistics (energy statistics)]
*[http://personal.bgsu.edu/~mrizzo/energy.htm E-statistics (energy statistics)]


{{DEFAULTSORT:Distance Correlation}}[[Category: सांख्यिकीय दूरी]] [[Category: संभाव्यता वितरण का सिद्धांत]] [[Category: सहप्रसरण और सहसंबंध]]
{{DEFAULTSORT:Distance Correlation}}
 
 


[[Category: Machine Translated Page]]
[[Category:Created On 24/05/2023|Distance Correlation]]
[[Category:Created On 24/05/2023]]
[[Category:Machine Translated Page|Distance Correlation]]
[[Category:Pages with script errors|Distance Correlation]]
[[Category:Templates Vigyan Ready|Distance Correlation]]
[[Category:Wikipedia articles needing page number citations from October 2021]]
[[Category:संभाव्यता वितरण का सिद्धांत|Distance Correlation]]
[[Category:सहप्रसरण और सहसंबंध|Distance Correlation]]
[[Category:सांख्यिकीय दूरी|Distance Correlation]]

Latest revision as of 11:18, 2 July 2023

सांख्यिकी और प्रायिकता सिद्धांत में, दूरी सहसंबंध या दूरी सहसंयोजक, यादृच्छिक के दो युग्मित यादृच्छिक सदिश के बीच निर्भरता का एक माप है। जनसंख्या सहसंबंध गुणांक शून्य है यदि और केवल यदि यादृच्छिक सदिश स्वतंत्र है। इस प्रकार, दूरी सहसंबंध दो यादृच्छिक चर या यादृच्छिक सदिश के बीच रैखिक और गैर-रेखीय संबंधों को मापता है। यह पियर्सन के सहसंबंध के विपरीत है, जो केवल दो यादृच्छिक चर के बीच रैखिक संबंध का आकलन कर सकता है।

दूरी सहसंबंध का उपयोग क्रमपरिवर्तन परीक्षण के साथ निर्भरता का सांख्यिकीय परीक्षण करने के लिए किया जा सकता है। पहले दो यादृच्छिक सदिश के बीच दूरी सहसंबंध (यूक्लिडियन दूरी आव्यूह के पुन: केंद्रित होने सहित) की गणना करता है और फिर इस मान की तुलना डेटा के कई क्रमपरिवर्तनों के दूरी सहसंबंधों से करता है।

प्रत्येक सेट के लिए x और y के दूरी सहसंबंध गुणांक के साथ (x, y) बिंदुओं के कई सेट। सहसंबंध पर ग्राफ की तुलना करें

पृष्ठभूमि

निर्भरता का संरचनात्मक माप, पियर्सन सहसंबंध गुणांक, [1] दो चर के बीच एक रैखिक संबंध के लिए मुख्य संवेदनशील है। दूरी सहसंबंध 2005 में गैबोर जे द्वारा पेश किया गया था। पियर्सन के सहसंबंध के इस घाटे को दूर करने के लिए कई व्याख्यानों में स्ज़ेकली, अर्थात् यह निर्भर चर के लिए आसानी से शून्य हो सकता है। सहसंबंध = 0 ( असंबद्धता ) स्वतंत्रता का अर्थ नहीं है जबकि दूरी सहसंबंध = 0 स्वतंत्रता का अर्थ है। दूरी सहसंबंध पर पहला परिणाम 2007 और 2009 में प्रकाशित हुआ था।[2][3] यह प्रचारित किया गया था कि दूरी सहसंयोजक ब्राउनियन सहसंयोजक के समान है।[3] ये माप ऊर्जा दूरी के उदाहरण हैं।

दूरी सहसंबंध कई अन्य मात्राओं से लिया गया है जो इसके विनिर्देशन में उपयोग किए जाते हैं, विशेष रूप से: दूरी विचरण, दूरी मानक विचलन, और दूरी सहसंयोजक। ये मात्राएं पियर्सन गुणक सहसंबंध गुणांक के विनिर्देशन में संबंधित नामों के साथ सामान्य क्षणों के समान भूमिका निभाती हैं।

परिभाषाएँ

दूरी सहप्रसरण

आइए हम दृष्टांत दूरी की परिभाषा के साथ प्रारंभ करें। मान लें (Xk, Yk), k = 1, 2, ..., n वास्तविक मूल्यवान या सदिश मूल्यवान यादृच्छिक चर की एक युग्म से सांख्यिकीय दृष्टांत (X, Y) हो। सबसे पहले, n दूरी की आव्यूह द्वारा n की गणना करें (aj, k) और (bj, k) जिसमें सभी युग्मन दूरी हैं।

जहां || ⋅ || यूक्लिडियन मानक को दर्शाता है। फिर सभी दोगुनी केंद्रित दूरी लें

जहां j-वें पंक्ति का माध्य है, k-वें स्तंभ का माध्य है, और X नमूने की दूरी आव्यूह का भव्य माध्य है। b मानों के लिए अंकन समान है। (केंद्रित दूरियों (Aj, k) और (Bj,k) के आव्यूहों में सभी पंक्तियों और सभी स्तंभों का योग शून्य होता है।) वर्गित दृष्टांत दूरी सहप्रसरण (एक अदिश राशि) केवल गुणनों Aj, k Bj, k: का अंकगणितीय औसत है:

सांख्यिकीय Tn = n dCov2n(X, Y) यादृच्छिक आयामों में यादृच्छिक सदिश की स्वतंत्रता का सुसंगत बहुभिन्नरूपी परीक्षण निर्धारित करता है। कार्यान्वयन के लिए R के लिए ऊर्जा पैकेज में dcov.test फलन देखें।[4]

दूरी सहप्रसरण के जनसंख्या मान को उसी पद्धति पर परिभाषित किया जा सकता है। मान X यादृच्छिक चर है जो संभाव्यता वितरण μ के साथ p-आयामी यूक्लिडियन स्थान में मान लेता है और Y को एक यादृच्छिक चर होने देता है जो एक q-आयामी यूक्लिडियन स्थान में मान लेता है संभाव्यता वितरण ν के साथ, और मान लीजिए कि X और Y की सीमित अपेक्षाएँ हैं। लिखें

अंत में, X और Y के वर्ग दूरी सहप्रसरण के जनसंख्या मान को इस प्रकार परिभाषित करें

कोई दर्शा सकता है कि यह निम्नलिखित परिभाषा के समतुल्य है:

जहां E अपेक्षित मान दर्शाता है, और और स्वतंत्र और समान रूप से वितरित हैं। प्राथमिक यादृच्छिक चर और निरूपित चर की स्वतंत्र और समान रूप से वितरित (iid) प्रतियां और और इसी तरह iid हैं।[5] दूरी सहप्रसरण को पारम्परिक पियर्सन सहप्रसरण के संदर्भ में व्यक्त किया जा सकता है, सीओवी, इस प्रकार है:

यह पहचान दर्शाती है कि दूरी सहप्रसरण दूरियों के सहप्रसरण के समान नहीं है, cov(||XX' ||, ||YY' ||)। यह शून्य हो सकता है भले ही X और Y स्वतंत्र न हों।

वैकल्पिक रूप से, दूरी के सहसंयोजक को यादृच्छिक चर के संयुक्त विशेषता फलन और उनके सीमांत विशेषता कार्यों के गुणन के बीच की दूरी के निर्धारित L2 मानक के रूप में परिभाषित किया जा सकता है:[6]

जहां और क्रमशः (X, Y), X और Y के विशिष्ट फलन हैं, p, q, X और Y के यूक्लिडियन आयाम को दर्शाते हैं, और इस प्रकार s और t,और cp, cq स्थिरांक हैं। भार फलन समतुल्य और घूर्णन अपरिवर्तनीय मापों को ऐसे पैमाने पर गुणा करने के लिए चुना गया है जो आश्रित चर के लिए शून्य की ओर नहीं जाता है।[6][7] अभिलाक्षणिक फलन परिभाषा की एक व्याख्या यह है कि चर eisX और eitY द्वारा दी गई विभिन्न अवधियों के साथ X और Y का चक्रीय निरूपण है, और व्यंजक ϕX, Y(s, t) − ϕX(s) ϕY(t) विशेषता फलन के अंश में दूरी सहप्रसरण की परिभाषा केवल eisX और eitY वर्गीय सहसंयोजक है। विशेषता फलन परिभाषा स्पष्ट रूप से दिखाती है कि dCov2(X, Y) = 0 यदि और केवल X और Y स्वतंत्र हैं।

दूरी विचरण और दूरी मानक विस्थापन

दूरी विचरण दूरी के सहसंयोजक का विशेष स्तिथि है जब दो चर समान होते हैं। दूरी विचरण का जनसंख्या मूल्य वर्गमूल है

जहाँ , , और स्वतंत्र और समान रूप से वितरित यादृच्छिक चर हैं, अपेक्षित मूल्य को दर्शाता है, और फलन के लिए , जैसे,

दृष्टांत दूरी प्रसरण का वर्गमूल है

जो 1912 में प्रारम्भ किए गए कोराडो गिन्नी के औसत अंतर का संबंध है (लेकिन गिन्नी केंद्रित दूरी) के साथ काम नहीं करती थी।[8]

दूरी मानक विचलन दूरी विचरण का वर्गमूल है।

दूरी सहसंबंध

दो यादृच्छिक चर के दूरी सहसंबंध[2] उनकी दूरी मानक विचलन के गुणन द्वारा उनकी दूरी के सहसंयोजक को विभाजित करके प्राप्त किया जाता है। दूरी सहसंबंध वर्गमूल है:

और दृष्टांत दूरी सहसंबंध को उपरोक्त जनसंख्या गुणांक के लिए दृष्टांत दूरी सहप्रसरण और दूरी प्रसरण को प्रतिस्थापित करके परिभाषित किया गया है।

दृष्टांत दूरी सहसंबंध की आसान गणना के लिए R के लिए ऊर्जा पैकेज में डीसीओआर फलन देखें।[4]

गुण

दूरी सहसंबंध

  1. and ; यह पियर्सन के सहसंबंध के विपरीत है, जो ऋणात्मक हो सकता है।
  2. यदि और केवल यदि X और Y स्वतंत्र हैं।
  3. तात्पर्य है कि रैखिक उप-स्थानों के आयामों द्वारा प्रायोजित X और Y नमूने क्रमशः लगभग निश्चित रूप से समान हैं और यदि हम मानते हैं कि ये उप-स्थान समान हैं, तो इस उप-स्थान में f या कुछ सदिश A, अदिश b, और ऑर्थोनॉर्मल मैट्रिक्स

दूरी सहप्रसरण

  1. और ;
  2. सभी स्थिर सदिशों के लिए , अदिश , और ऑर्थोनॉर्मल मैट्रिक्स.
  3. यदि यादृच्छिक सदिश and फिर स्वतंत्र हैं
    समानता यदि और केवल यदि ही मान्य है and दोनों स्थिरांक हैं, या और दोनों स्थिरांक हैं, या पारस्परिक रूप से स्वतंत्र हैं।
  4. यदि और केवल यदि X और Y स्वतन्त्र हैं।

यह अंतिम गुण केंद्रित दूरियों के साथ काम करने का सबसे महत्वपूर्ण प्रभाव है।

सांख्यिकी का पक्षपाती अनुमानक है X और Y की स्वतंत्रता के अंतर्गत है। [9]

का एक निष्पक्ष अनुमानक शेकेली और रिज़ो द्वारा दिया गया है।[10]

दूरी विचरण

  1. यदि और केवल यदि लगभग निश्चित रूप से।
  2. यदि और केवल यदि प्रत्येक दृष्टांत अवलोकन समान है।
  3. सभी स्थिर सदिशों के लिए A, scalars b, और ऑर्थोनॉर्मल मैट्रिक्स .
  4. If X और Y फिर स्वतंत्र हैं .

समानता (iv) में होती है यदि और केवल यदि यादृच्छिक चर में से एक X या Y स्थिरांक है।

सामान्यीकरण

यूक्लिडियन दूरी की घात को सम्मिलित करने के लिए दूरी सहप्रसरण को सामान्यीकृत किया जा सकता है।

फिर प्रत्येक के लिए , और स्वतंत्र हैं अगर और केवल अगर । यह ध्यान रखना महत्वपूर्ण है कि यह लक्षण वर्णन प्रतिपादक के लिए नहीं है ; इस स्तिथि में द्विचर के लिए , पियर्सन सहसंबंध का एक नियतात्मक कार्य है।[2] अगर और हैं संबंधित दूरियों की घात, , तब दृष्टांत दूरी सहप्रसरण को ऋणात्मक संख्या के रूप में परिभाषित किया जा सकता है।

कोई विस्तार कर सकता है मापीय स्थान के लिए | मापीय-स्पेस-वैल्यू यादृच्छिक चर और : अगर कानून है मापीय के साथ एक मापीय स्थान में , फिर परिभाषित करें , , और (प्रदान किया गया परिमित है, अर्थात्, पहला क्षण परिमित है), . तो अगर कानून है (परिमित पहले क्षण के साथ संभावित रूप से भिन्न मापीय स्थान में), परिभाषित करें

यह ऐसे सभी के लिए ऋणात्मक है यदि दोनों मापीय रिक्त स्थान ऋणात्मक प्रकार के होते हैं।[11] यहां, एक मापीय स्थान यदि ऋणात्मक प्रकार है हिल्बर्ट स्पेस के एक सबसेट के लिए आइसोमेट्री है।[12] अगर दोनों मापीय स्पेस में स्ट्रॉन्ग नेगेटिव टाइप है, तो आईएफएफ स्वतंत्र हैं।[11]

दूरी सहप्रसरण की वैकल्पिक परिभाषा

मूल दूरी सहसंबंध दूरी सहप्रसरण को के वर्गमूल के रूप में परिभाषित किया गया है। , वर्ग गुणांक के बल्कि संयुक्त वितरण के बीच ऊर्जा की दूरी है और इसके अंतर का गुणन है। इस परिभाषा के तहत, हालांकि, दूरी मानक विचलन के बजाय दूरी भिन्नता को उसी इकाइयों में मापा जाता है।

वैकल्पिक रूप से, ऊर्जा दूरी के वर्ग के रूप में 'दूरी सहप्रसरण' को परिभाषित किया जा सकता है: इस स्तिथि में, की दूरी मानक विचलन के समान इकाइयों में मापा जाता है दूरी, और जनसंख्या दूरी सहप्रसरण के लिए एक निष्पक्ष अनुमानक उपस्थित है।[10]

इन वैकल्पिक परिभाषाओं के अंतर्गत, दूरी सहसंबंध को वर्ग के रूप में भी परिभाषित किया गया है।

वैकल्पिक सूत्रीकरण: ब्राउनियन सहप्रसरण

ब्राउनियन कोवैरियंस स्टोचैस्टिक प्रक्रियाओं के लिए कॉन्वर्सिस की धारणा के सामान्यीकरण से प्रेरित है। यादृच्छिक चर X और Y के सहप्रसरण के वर्ग को निम्न रूप में लिखा जा सकता है:

जहां E अपेक्षित मूल्य को दर्शाता है और अभाज्य स्वतंत्र और समान रूप से वितरित प्रतियों को दर्शाता है। हमें इस सूत्र के निम्नलिखित सामान्यीकरण की आवश्यकता है। यदि U(s),V(t) मनमानी यादृच्छिक प्रक्रियाएं हैं जो सभी वास्तविक s और t के लिए परिभाषित हैं तो X के U-केंद्रित संस्करण को परिभाषित करें

जब भी घटाया गया सशर्त अपेक्षित मूल्य उपस्थित होता है और YV द्वारा Y का V-केंद्रित संस्करण निरूपित किया जाता है।[3][13][14] (X,Y) के (U,V) सहप्रसरण को उस गैरऋणात्मक संख्या के रूप में परिभाषित किया गया है जिसका वर्ग है:

जब भी दाहिने हाथ की तरफ गैरऋणात्मक और परिमित हो, सबसे महत्वपूर्ण उदाहरण है जब U और V दो तरफा स्वतंत्र ब्राउनियन गति हैं। अपेक्षा शून्य और सहसंयोजक के साथ वीनर प्रक्रिया |s| + |t| − |st| = 2 min(s,t) ( केवल ऋणात्मक s के लिए, t. (यह मानक वीनर प्रक्रिया के सहसंयोजक से दोगुना है; यहाँ कारक 2 संगणना को सरल करता है।) इस स्तिथि में (U, V) सहसंयोजक को ब्राउनियन सहसंयोजक कहा जाता है और इसके द्वारा निरूपित किया जाता है।

एक आश्चर्यजनक संयोग है: ब्राउनियन सहप्रसरण दूरी सहप्रसरण के समान है:

और इस प्रकार ब्राउनियन सहसंबंध दूरी सहसंबंध के समान है।

दूसरी ओर, यदि हम ब्राउनियन गति को नियतात्मक पहचान फलन आईडी से प्रतिस्थापित करते हैं तो Covid(X,Y) चिरसम्मत पियर्सन सहप्रसरण का केवल निरपेक्ष मान है:

संबंधित आव्यूह

कर्नेल-आधारित सहसंबंध आव्यूह (जैसे कि हिल्बर्ट-श्मिट इंडिपेंडेंस क्राइटेरियन या एचएसआईसी) सहित अन्य सहसंबंध आव्यूह भी रैखिक और गैर-रेखीय परस्पर क्रिया का पता लगा सकते हैं। स्थिर सांख्यिकीय घात प्राप्त करने के लिए दूरी सहसंबंध और कर्नेल-आधारित आव्यूह दोनों का उपयोग कैनोनिकल सांख्यिकीय विश्लेषण और स्वतंत्र घटक विश्लेषण जैसी विधियों के साथ किया जा सकता है।

यह भी देखें

  • आरवी गुणांक
  • संबंधित तृतीय-क्रम आँकड़ों के लिए, दूरी विषमता देखें।

टिप्पणियाँ


संदर्भ


बाहरी संबंध