हेलिंगर दूरी: Difference between revisions
No edit summary |
No edit summary |
||
(4 intermediate revisions by 3 users not shown) | |||
Line 1: | Line 1: | ||
{{Short description|Metric used in probability and statistics}} | {{Short description|Metric used in probability and statistics}} | ||
प्रायिकता सिद्धांत और गणितीय आंकड़ों में, हेलिंगर दूरी ([[भट्टाचार्य दूरी]] से निकटता से संबंधित, यद्यपि भिन्न) का उपयोग दो [[संभाव्यता वितरण|प्रायिकता वितरणों]] के बीच समानता को मापने के लिए किया जाता है। यह एक प्रकार का ''f''-भिन्नता है। हेलिंगर दूरी को [[हेलिंगर अभिन्न]] के संदर्भ में परिभाषित किया गया है, जिसे 1909 में [[अर्नेस्ट हेलिंगर]] द्वारा प्रस्तुत किया गया था।<ref>{{SpringerEOM|title=Hellinger distance|id=h/h046890|first=M.S. |last=Nikulin}}</ref><ref>{{Citation | प्रायिकता सिद्धांत और गणितीय आंकड़ों में, '''हेलिंगर दूरी''' ([[भट्टाचार्य दूरी]] से निकटता से संबंधित, यद्यपि भिन्न) का उपयोग दो [[संभाव्यता वितरण|प्रायिकता वितरणों]] के बीच समानता को मापने के लिए किया जाता है। यह एक प्रकार का ''f''-भिन्नता है। अतः हेलिंगर दूरी को [[हेलिंगर अभिन्न|'''हेलिंगर समाकलन''']] के संदर्भ में परिभाषित किया गया है, जिसे 1909 में [[अर्नेस्ट हेलिंगर]] द्वारा पूर्ण रूप से प्रस्तुत किया गया था।<ref>{{SpringerEOM|title=Hellinger distance|id=h/h046890|first=M.S. |last=Nikulin}}</ref><ref>{{Citation | ||
| last = Hellinger | | last = Hellinger | ||
| first = Ernst | | first = Ernst | ||
Line 17: | Line 17: | ||
}}</ref> | }}</ref> | ||
इसे कभी-कभी जेफ़्रीज़ दूरी भी कहा जाता है।<ref>{{Cite web |title=जेफ़्रीज़ दूरी - गणित का विश्वकोश|url=https://encyclopediaofmath.org/wiki/Jeffreys_distance |access-date=2022-05-24 |website=encyclopediaofmath.org |language=en}}</ref><ref>{{Cite journal |date=1946-09-24 |title=अनुमान समस्याओं में पूर्व संभाव्यता के लिए एक अपरिवर्तनीय रूप|url=http://dx.doi.org/10.1098/rspa.1946.0056 |journal=Proceedings of the Royal Society of London. Series A. Mathematical and Physical Sciences |volume=186 |issue=1007 |pages=453–461 |doi=10.1098/rspa.1946.0056 |pmid=20998741 |bibcode=1946RSPSA.186..453J |issn=0080-4630|last1=Jeffreys |first1=Harold |s2cid=19490929 |doi-access=free }}</ref> | इस प्रकार से इसे कभी-कभी जेफ़्रीज़ दूरी भी कहा जाता है।<ref>{{Cite web |title=जेफ़्रीज़ दूरी - गणित का विश्वकोश|url=https://encyclopediaofmath.org/wiki/Jeffreys_distance |access-date=2022-05-24 |website=encyclopediaofmath.org |language=en}}</ref><ref>{{Cite journal |date=1946-09-24 |title=अनुमान समस्याओं में पूर्व संभाव्यता के लिए एक अपरिवर्तनीय रूप|url=http://dx.doi.org/10.1098/rspa.1946.0056 |journal=Proceedings of the Royal Society of London. Series A. Mathematical and Physical Sciences |volume=186 |issue=1007 |pages=453–461 |doi=10.1098/rspa.1946.0056 |pmid=20998741 |bibcode=1946RSPSA.186..453J |issn=0080-4630|last1=Jeffreys |first1=Harold |s2cid=19490929 |doi-access=free }}</ref> | ||
==परिभाषा== | ==परिभाषा== | ||
===[[माप सिद्धांत]]=== | ===[[माप सिद्धांत]]=== | ||
माप सिद्धांत के संदर्भ में हेलिंगर दूरी को परिभाषित करने के लिए, <math>P</math> और <math>Q</math> को माप समष्टि <math>\mathcal{X}</math> पर दो [[संभाव्यता माप|प्रायिकता मापों]] को निरूपित करने दें जो सहायक माप <math>\lambda</math> के संबंध में [[पूर्ण निरंतरता]] हैं। ऐसा माप सदैव स्थित रहता है, उदाहरण के लिए <math>\lambda = (P + Q)</math>। <math>P</math> और <math>Q</math> के बीच हेलिंगर दूरी का वर्ग मात्रा | अतः माप सिद्धांत के संदर्भ में हेलिंगर दूरी को परिभाषित करने के लिए, <math>P</math> और <math>Q</math> को माप समष्टि <math>\mathcal{X}</math> पर दो [[संभाव्यता माप|प्रायिकता मापों]] को निरूपित करने दें जो सहायक माप <math>\lambda</math> के संबंध में [[पूर्ण निरंतरता]] हैं। ऐसा माप सदैव स्थित रहता है, इस प्रकार से उदाहरण के लिए <math>\lambda = (P + Q)</math>। <math>P</math> और <math>Q</math> के बीच हेलिंगर दूरी का वर्ग मात्रा | ||
:<math>H^2(P,Q) = \frac{1}{2}\displaystyle \int_{\mathcal{X}} \left(\sqrt{p(x)} - \sqrt{q(x)}\right)^2 \lambda(dx) </math> के रूप में परिभाषित किया गया है। | :<math>H^2(P,Q) = \frac{1}{2}\displaystyle \int_{\mathcal{X}} \left(\sqrt{p(x)} - \sqrt{q(x)}\right)^2 \lambda(dx) </math> के रूप में पूर्ण रूप से परिभाषित किया गया है। | ||
यहाँ, <math>P(dx) = p(x)\lambda(dx)</math> और <math>Q(dx) = q(x) \lambda(dx)</math>, अर्थात <math>p</math> और <math>q</math>, <math>\lambda</math> के संबंध में क्रमशः P और Q के रेडॉन-निकोडिम व्युत्पन्न हैं। यह परिभाषा <math>\lambda</math> पर निर्भर नहीं करती है,अर्थात P और Q के बीच हेलिंगर दूरी नहीं बदलती है यदि <math>\lambda</math> को एक अलग प्रायिकता माप के साथ प्रतिस्थापित किया जाता है जिसके संबंध में P और Q दोनों [[पूर्ण निरंतरता]] हैं। सघनता के लिए, उपरोक्त सूत्र को प्रातः | यहाँ, <math>P(dx) = p(x)\lambda(dx)</math> और <math>Q(dx) = q(x) \lambda(dx)</math>, अर्थात <math>p</math> और <math>q</math>, <math>\lambda</math> के संबंध में क्रमशः P और Q के रेडॉन-निकोडिम व्युत्पन्न हैं। अतः यह परिभाषा <math>\lambda</math> पर निर्भर नहीं करती है,अर्थात P और Q के बीच हेलिंगर दूरी नहीं बदलती है यदि <math>\lambda</math> को एक अलग प्रायिकता माप के साथ प्रतिस्थापित किया जाता है जिसके संबंध में P और Q दोनों [[पूर्ण निरंतरता]] हैं। इस प्रकार से सघनता के लिए, उपरोक्त सूत्र को प्रातः | ||
:<math>H^2(P,Q) = \frac{1}{2}\int_{\mathcal{X}} \left(\sqrt{P(dx)} - \sqrt{Q(dx)}\right)^2 </math> के रूप में लिखा जाता है। | :<math>H^2(P,Q) = \frac{1}{2}\int_{\mathcal{X}} \left(\sqrt{P(dx)} - \sqrt{Q(dx)}\right)^2 </math> के रूप में पूर्ण रूप से लिखा जाता है। | ||
===[[लेब्सेग माप]] का उपयोग कर प्रायिकता सिद्धांत=== | ===[[लेब्सेग माप]] का उपयोग कर प्रायिकता सिद्धांत=== | ||
प्रारंभिक प्रायिकता सिद्धांत के संदर्भ में हेलिंगर दूरी को परिभाषित करने के लिए, हम '''λ''' को लेबेस्ग माप के रूप में लेते हैं, ताकि '''dP / dλ''' और '''dQ / dλ''' मात्र प्रायिकता घनत्व फलन हों। यदि हम घनत्वों को क्रमशः ''f'' और ''g'' के रूप में निरूपित करते हैं, तो वर्ग हेलिंगर दूरी को मानक गणना समाकल | अतः प्रारंभिक प्रायिकता सिद्धांत के संदर्भ में हेलिंगर दूरी को परिभाषित करने के लिए, हम '''λ''' को लेबेस्ग माप के रूप में लेते हैं, ताकि '''dP / dλ''' और '''dQ / dλ''' मात्र प्रायिकता घनत्व फलन हों। इस प्रकार से यदि हम घनत्वों को क्रमशः ''f'' और ''g'' के रूप में निरूपित करते हैं, तो वर्ग हेलिंगर दूरी को मानक गणना समाकल | ||
:<math>H^2(f,g) =\frac{1}{2}\int \left(\sqrt{f(x)} - \sqrt{g(x)}\right)^2 \, dx = 1 - \int \sqrt{f(x) g(x)} \, dx</math> | :<math>H^2(f,g) =\frac{1}{2}\int \left(\sqrt{f(x)} - \sqrt{g(x)}\right)^2 \, dx = 1 - \int \sqrt{f(x) g(x)} \, dx</math> | ||
के रूप में निरूपित करते हैं, जहां दूसरा रूप वर्ग का विस्तार करके और इस तथ्य का उपयोग करके प्राप्त किया जा सकता है कि इसके डोमेन पर प्रायिकता घनत्व का अभिन्न अंग 1 के बराबर है। | के रूप में निरूपित करते हैं, जहां दूसरा रूप वर्ग का विस्तार करके और इस तथ्य का उपयोग करके प्राप्त किया जा सकता है कि इसके डोमेन पर प्रायिकता घनत्व का अभिन्न अंग 1 के बराबर है। | ||
हेलिंगर दूरी '''H(P,Q)''' गुण (कॉची-श्वार्ज़ असमानता से व्युत्पन्न) | इस प्रकार से हेलिंगर दूरी '''H(P,Q)''' गुण (कॉची-श्वार्ज़ असमानता से व्युत्पन्न) | ||
: <math>0\le H(P,Q) \le 1</math> को संतुष्ट करती है। | : <math>0\le H(P,Q) \le 1</math> को पूर्ण रूप से संतुष्ट करती है। | ||
===असतत वितरण=== | ===असतत वितरण=== | ||
दो असतत प्रायिकता वितरणों <math>P=(p_1, \ldots, p_k)</math> और <math>Q=(q_1, \ldots, q_k)</math> के लिए, उनकी हेलिंगर दूरी को | अतः दो असतत प्रायिकता वितरणों <math>P=(p_1, \ldots, p_k)</math> और <math>Q=(q_1, \ldots, q_k)</math> के लिए, उनकी हेलिंगर दूरी को | ||
: <math> | : <math> | ||
Line 53: | Line 50: | ||
1 - H^2(P,Q) = \sum_{i=1}^k \sqrt{p_i q_i}. | 1 - H^2(P,Q) = \sum_{i=1}^k \sqrt{p_i q_i}. | ||
</math> | </math> | ||
==गुण== | ==गुण== | ||
हेलिंगर दूरी किसी दिए गए [[संभाव्यता स्थान|प्रायिकता]] समष्टि पर प्रायिकता वितरण के फलन समष्टि पर एक [[बंधा हुआ कार्य]] [[मीट्रिक (गणित)]] बनाती है। | इस प्रकार से हेलिंगर दूरी किसी दिए गए [[संभाव्यता स्थान|प्रायिकता]] समष्टि पर प्रायिकता वितरण के फलन समष्टि पर एक [[बंधा हुआ कार्य|परिबद्ध फलन]] [[मीट्रिक (गणित)|माप (गणित)]] बनाती है। | ||
अधिकतम दूरी 1 तब प्राप्त होती है जब P प्रत्येक | अतः अधिकतम दूरी 1 तब प्राप्त होती है जब P प्रत्येक समुच्चय के लिए प्रायिकता शून्य निर्दिष्ट करता है, जिस पर Q धनात्मक प्रायिकता को पूर्ण रूप से निर्दिष्ट करता है, और इसके विपरीत होता है। | ||
कभी-कभी कारक <math>1/\sqrt{2}</math> | इस प्रकार से कभी-कभी समाकलन के सामने कारक <math>1/\sqrt{2}</math> को छोड़ दिया जाता है, ऐसी स्थिति में हेलिंगर की दूरी शून्य से दो के वर्गमूल तक होती है। | ||
हेलिंगर दूरी भट्टाचार्य दूरी | अतः हेलिंगर दूरी भट्टाचार्य दूरी <math>BC(P,Q)</math> से संबंधित है क्योंकि इसे | ||
: <math>H(P,Q) = \sqrt{1 - BC(P,Q)} | : <math>H(P,Q) = \sqrt{1 - BC(P,Q)}</math> के रूप में पूर्ण रूप से परिभाषित किया जा सकता है। | ||
हेलिंजर दूरियों का उपयोग [[अनुक्रमिक विश्लेषण]] और स्पर्शोन्मुख सांख्यिकी के सिद्धांत में किया जाता है।<ref>{{cite book |first=Erik |last=Torgerson |year=1991 |chapter=Comparison of Statistical Experiments |volume=36 |title=गणित का विश्वकोश|publisher=Cambridge University Press }}</ref><ref>{{cite book | इस प्रकार से हेलिंजर दूरियों का उपयोग [[अनुक्रमिक विश्लेषण]] और स्पर्शोन्मुख सांख्यिकी के सिद्धांत में किया जाता है।<ref>{{cite book |first=Erik |last=Torgerson |year=1991 |chapter=Comparison of Statistical Experiments |volume=36 |title=गणित का विश्वकोश|publisher=Cambridge University Press }}</ref><ref>{{cite book | ||
|author1=Liese, Friedrich |author2=Miescke, Klaus-J. | |author1=Liese, Friedrich |author2=Miescke, Klaus-J. | ||
| title = Statistical Decision Theory: Estimation, Testing, and Selection | | title = Statistical Decision Theory: Estimation, Testing, and Selection | ||
Line 73: | Line 68: | ||
}} | }} | ||
</ref> | </ref> | ||
दो [[सामान्य वितरण]] | |||
अतः दो [[सामान्य वितरण|सामान्य वितरणों]] <math> P \sim \mathcal{N}(\mu_1,\sigma_1^2)</math> और <math> Q \sim \mathcal{N}(\mu_2,\sigma_2^2)</math> के बीच वर्गाकार हेलिंगर दूरी है: | |||
: <math> | : <math> | ||
H^2(P, Q) = 1 - \sqrt{\frac{2\sigma_1\sigma_2}{\sigma_1^2+\sigma_2^2}} \, e^{-\frac{1}{4}\frac{(\mu_1-\mu_2)^2}{\sigma_1^2+\sigma_2^2}}. | H^2(P, Q) = 1 - \sqrt{\frac{2\sigma_1\sigma_2}{\sigma_1^2+\sigma_2^2}} \, e^{-\frac{1}{4}\frac{(\mu_1-\mu_2)^2}{\sigma_1^2+\sigma_2^2}}. | ||
</math> | </math> | ||
दो [[बहुभिन्नरूपी सामान्य वितरण]] | दो [[बहुभिन्नरूपी सामान्य वितरण|बहुभिन्नरूपी सामान्य वितरणों]] <math> P \sim \mathcal{N}(\mu_1,\Sigma_1)</math> और <math> Q \sim \mathcal{N}(\mu_2,\Sigma_2)</math> के बीच वर्गाकार हेलिंगर दूरी है <ref>{{cite book |last=Pardo |first=L. |year=2006 |title=विचलन माप के आधार पर सांख्यिकीय अनुमान|location=New York |publisher=Chapman and Hall/CRC |page=51 |isbn=1-58488-600-5 }}</ref> | ||
: <math> | : <math> | ||
H^2(P, Q) = 1 - \frac{ \det (\Sigma_1)^{1/4} \det (\Sigma_2) ^{1/4}} { \det \left( \frac{\Sigma_1 + \Sigma_2}{2}\right)^{1/2} } | H^2(P, Q) = 1 - \frac{ \det (\Sigma_1)^{1/4} \det (\Sigma_2) ^{1/4}} { \det \left( \frac{\Sigma_1 + \Sigma_2}{2}\right)^{1/2} } | ||
Line 84: | Line 80: | ||
(\mu_1 - \mu_2) | (\mu_1 - \mu_2) | ||
\right\} </math> | \right\} </math> | ||
दो घातीय वितरणों | इस प्रकार से दो घातीय वितरणों <math> P \sim \mathrm{Exp}(\alpha)</math> और <math> Q \sim \mathrm{Exp}(\beta)</math> के बीच वर्गाकार हेलिंगर दूरी है: | ||
: <math>H^2(P, Q) = 1 - \frac{2 \sqrt{\alpha \beta}}{\alpha + \beta}.</math> | : <math>H^2(P, Q) = 1 - \frac{2 \sqrt{\alpha \beta}}{\alpha + \beta}.</math> | ||
दो [[वेइबुल वितरण]] | अतः दो [[वेइबुल वितरण|वेइबुल वितरणों]] के बीच वर्गाकार हेलिंगर दूरी <math> P \sim \mathrm{W}(k,\alpha)</math> और <math> Q \sim \mathrm{W}(k,\beta)</math> (जहाँ <math> k </math> एक सामान्य आकार पैरामीटर है और <math> \alpha\, , \beta </math> क्रमशः माप पैरामीटर हैं): | ||
: <math> H^2(P, Q) = 1 - \frac{2 (\alpha \beta)^{k/2}}{\alpha^k + \beta^k}. </math> | : <math> H^2(P, Q) = 1 - \frac{2 (\alpha \beta)^{k/2}}{\alpha^k + \beta^k}. </math> | ||
दर मापदंडों | दर मापदंडों <math>\alpha</math> और <math>\beta</math> के साथ दो पॉइसन वितरणों के बीच वर्गाकार हेलिंगर दूरी, ताकि <math> P \sim \mathrm{Poisson}(\alpha)</math> और <math> Q \sim \mathrm{Poisson}(\beta)</math>, है: | ||
: <math> H^2(P,Q) = 1-e^{-\frac{1}{2} (\sqrt{\alpha} - \sqrt{\beta})^2}. </math> | : <math> H^2(P,Q) = 1-e^{-\frac{1}{2} (\sqrt{\alpha} - \sqrt{\beta})^2}. </math> | ||
दो [[बीटा वितरण]] | इस प्रकार से दो [[बीटा वितरण|बीटा वितरणों]] के बीच वर्गाकार हेलिंगर दूरी <math> P \sim \text{Beta}(a_1,b_1)</math> और <math> Q \sim \text{Beta}(a_2, b_2)</math> है: | ||
: <math>H^2(P,Q) = 1 - \frac{B\left(\frac{a_1 + a_2}{2}, \frac{b_1 + b_2}{2}\right)}{\sqrt{B(a_1, b_1) B(a_2, b_2)}}</math> | : <math>H^2(P,Q) = 1 - \frac{B\left(\frac{a_1 + a_2}{2}, \frac{b_1 + b_2}{2}\right)}{\sqrt{B(a_1, b_1) B(a_2, b_2)}}</math> | ||
जहाँ <math>B</math> [[बीटा फ़ंक्शन|बीटा फलन]] है। | |||
दो [[गामा वितरण]] | अतः दो [[गामा वितरण|गामा वितरणों]] <math> P \sim \text{Gamma}(a_1,b_1)</math> और <math> Q \sim \text{Gamma}(a_2, b_2)</math> के बीच वर्गाकार हेलिंगर दूरी है: | ||
: <math>H^2(P,Q) = 1 - \Gamma\left({\scriptstyle\frac{a_1 + a_2}{2}}\right)\left(\frac{b_1+b_2}{2}\right)^{-(a_1+a_2)/2}\sqrt{\frac{b_1^{a_1}b_2^{a_2}}{\Gamma(a_1)\Gamma(a_2)}}</math> | : <math>H^2(P,Q) = 1 - \Gamma\left({\scriptstyle\frac{a_1 + a_2}{2}}\right)\left(\frac{b_1+b_2}{2}\right)^{-(a_1+a_2)/2}\sqrt{\frac{b_1^{a_1}b_2^{a_2}}{\Gamma(a_1)\Gamma(a_2)}}</math> | ||
जहाँ <math>\Gamma</math> [[गामा फ़ंक्शन|गामा फलन]] है। | |||
== कुल भिन्नता दूरी के साथ संबंध == | == कुल भिन्नता दूरी के साथ संबंध == | ||
हेलिंगर दूरी <math>H(P,Q)</math> और [[कुल भिन्नता दूरी]] (या सांख्यिकीय दूरी) <math>\delta(P,Q)</math> इस प्रकार संबंधित हैं:<ref>{{cite web |url=https://www.tcs.tifr.res.in/~prahladh/teaching/2011-12/comm/lectures/l12.pdf |title=संचार जटिलता पर व्याख्यान नोट्स|date=September 23, 2011 |first=Prahladh |last=Harsha }}</ref> | इस प्रकार से हेलिंगर दूरी <math>H(P,Q)</math> और [[कुल भिन्नता दूरी]] (या सांख्यिकीय दूरी) <math>\delta(P,Q)</math> इस प्रकार संबंधित हैं:<ref>{{cite web |url=https://www.tcs.tifr.res.in/~prahladh/teaching/2011-12/comm/lectures/l12.pdf |title=संचार जटिलता पर व्याख्यान नोट्स|date=September 23, 2011 |first=Prahladh |last=Harsha }}</ref> | ||
: <math> | : <math> | ||
H^2(P,Q) \leq \delta(P,Q) \leq \sqrt{2}H(P,Q)\,. | H^2(P,Q) \leq \delta(P,Q) \leq \sqrt{2}H(P,Q)\,. | ||
</math> | </math> | ||
इस असमानता में स्थिरांक | अतः इस असमानता में स्थिरांक इस पर निर्भर हो सकते हैं कि आप कौन सा पुनर्सामान्यीकरण (<math>1/2</math> या <math>1/\sqrt{2}</math>) पूर्ण रूप से चुनते हैं। | ||
ये असमानताएं | इस प्रकार से ये असमानताएं 1-मानदंड और 2-मानदंड के बीच की असमानताओं से तुरंत उत्पन्न होती हैं। | ||
==यह भी देखें== | ==यह भी देखें== | ||
Line 113: | Line 109: | ||
* भट्टाचार्य दूरी | * भट्टाचार्य दूरी | ||
* कुल भिन्नता दूरी | * कुल भिन्नता दूरी | ||
* [[फिशर सूचना मीट्रिक]] | * [[फिशर सूचना मीट्रिक|फिशर सूचना मापन]] | ||
==टिप्पणियाँ== | ==टिप्पणियाँ== | ||
Line 123: | Line 119: | ||
* {{cite book |author=Vaart, A. W. van der |title=Asymptotic Statistics (Cambridge Series in Statistical and Probabilistic Mathematics) |date=19 June 2000 |publisher=Cambridge University Press |location=Cambridge, UK |isbn=0-521-78450-6 }} | * {{cite book |author=Vaart, A. W. van der |title=Asymptotic Statistics (Cambridge Series in Statistical and Probabilistic Mathematics) |date=19 June 2000 |publisher=Cambridge University Press |location=Cambridge, UK |isbn=0-521-78450-6 }} | ||
* {{cite book |author=Pollard, David E. |title=A user's guide to measure theoretic probability |publisher=Cambridge University Press |location=Cambridge, UK |year=2002 |isbn=0-521-00289-3 }} | * {{cite book |author=Pollard, David E. |title=A user's guide to measure theoretic probability |publisher=Cambridge University Press |location=Cambridge, UK |year=2002 |isbn=0-521-00289-3 }} | ||
[[Category: | [[Category:CS1 Deutsch-language sources (de)]] | ||
[[Category:CS1 English-language sources (en)]] | |||
[[Category:Created On 06/07/2023]] | [[Category:Created On 06/07/2023]] | ||
[[Category:Lua-based templates]] | |||
[[Category:Machine Translated Page]] | |||
[[Category:Pages with script errors]] | |||
[[Category:Templates Vigyan Ready]] | |||
[[Category:Templates that add a tracking category]] | |||
[[Category:Templates that generate short descriptions]] | |||
[[Category:Templates using TemplateData]] | |||
[[Category:एफ-विचलन]] | |||
[[Category:संभाव्यता वितरण का सिद्धांत]] | |||
[[Category:सांख्यिकीय दूरी]] |
Latest revision as of 18:28, 16 July 2023
प्रायिकता सिद्धांत और गणितीय आंकड़ों में, हेलिंगर दूरी (भट्टाचार्य दूरी से निकटता से संबंधित, यद्यपि भिन्न) का उपयोग दो प्रायिकता वितरणों के बीच समानता को मापने के लिए किया जाता है। यह एक प्रकार का f-भिन्नता है। अतः हेलिंगर दूरी को हेलिंगर समाकलन के संदर्भ में परिभाषित किया गया है, जिसे 1909 में अर्नेस्ट हेलिंगर द्वारा पूर्ण रूप से प्रस्तुत किया गया था।[1][2]
इस प्रकार से इसे कभी-कभी जेफ़्रीज़ दूरी भी कहा जाता है।[3][4]
परिभाषा
माप सिद्धांत
अतः माप सिद्धांत के संदर्भ में हेलिंगर दूरी को परिभाषित करने के लिए, और को माप समष्टि पर दो प्रायिकता मापों को निरूपित करने दें जो सहायक माप के संबंध में पूर्ण निरंतरता हैं। ऐसा माप सदैव स्थित रहता है, इस प्रकार से उदाहरण के लिए । और के बीच हेलिंगर दूरी का वर्ग मात्रा
- के रूप में पूर्ण रूप से परिभाषित किया गया है।
यहाँ, और , अर्थात और , के संबंध में क्रमशः P और Q के रेडॉन-निकोडिम व्युत्पन्न हैं। अतः यह परिभाषा पर निर्भर नहीं करती है,अर्थात P और Q के बीच हेलिंगर दूरी नहीं बदलती है यदि को एक अलग प्रायिकता माप के साथ प्रतिस्थापित किया जाता है जिसके संबंध में P और Q दोनों पूर्ण निरंतरता हैं। इस प्रकार से सघनता के लिए, उपरोक्त सूत्र को प्रातः
- के रूप में पूर्ण रूप से लिखा जाता है।
लेब्सेग माप का उपयोग कर प्रायिकता सिद्धांत
अतः प्रारंभिक प्रायिकता सिद्धांत के संदर्भ में हेलिंगर दूरी को परिभाषित करने के लिए, हम λ को लेबेस्ग माप के रूप में लेते हैं, ताकि dP / dλ और dQ / dλ मात्र प्रायिकता घनत्व फलन हों। इस प्रकार से यदि हम घनत्वों को क्रमशः f और g के रूप में निरूपित करते हैं, तो वर्ग हेलिंगर दूरी को मानक गणना समाकल
के रूप में निरूपित करते हैं, जहां दूसरा रूप वर्ग का विस्तार करके और इस तथ्य का उपयोग करके प्राप्त किया जा सकता है कि इसके डोमेन पर प्रायिकता घनत्व का अभिन्न अंग 1 के बराबर है।
इस प्रकार से हेलिंगर दूरी H(P,Q) गुण (कॉची-श्वार्ज़ असमानता से व्युत्पन्न)
- को पूर्ण रूप से संतुष्ट करती है।
असतत वितरण
अतः दो असतत प्रायिकता वितरणों और के लिए, उनकी हेलिंगर दूरी को
के रूप में परिभाषित किया गया है, जो प्रत्यक्षतः वर्गमूल सदिश के अंतर के यूक्लिडियन दूरी से संबंधित है, अर्थात
भी,
गुण
इस प्रकार से हेलिंगर दूरी किसी दिए गए प्रायिकता समष्टि पर प्रायिकता वितरण के फलन समष्टि पर एक परिबद्ध फलन माप (गणित) बनाती है।
अतः अधिकतम दूरी 1 तब प्राप्त होती है जब P प्रत्येक समुच्चय के लिए प्रायिकता शून्य निर्दिष्ट करता है, जिस पर Q धनात्मक प्रायिकता को पूर्ण रूप से निर्दिष्ट करता है, और इसके विपरीत होता है।
इस प्रकार से कभी-कभी समाकलन के सामने कारक को छोड़ दिया जाता है, ऐसी स्थिति में हेलिंगर की दूरी शून्य से दो के वर्गमूल तक होती है।
अतः हेलिंगर दूरी भट्टाचार्य दूरी से संबंधित है क्योंकि इसे
- के रूप में पूर्ण रूप से परिभाषित किया जा सकता है।
इस प्रकार से हेलिंजर दूरियों का उपयोग अनुक्रमिक विश्लेषण और स्पर्शोन्मुख सांख्यिकी के सिद्धांत में किया जाता है।[5][6]
अतः दो सामान्य वितरणों और के बीच वर्गाकार हेलिंगर दूरी है:
दो बहुभिन्नरूपी सामान्य वितरणों और के बीच वर्गाकार हेलिंगर दूरी है [7]
इस प्रकार से दो घातीय वितरणों और के बीच वर्गाकार हेलिंगर दूरी है:
अतः दो वेइबुल वितरणों के बीच वर्गाकार हेलिंगर दूरी और (जहाँ एक सामान्य आकार पैरामीटर है और क्रमशः माप पैरामीटर हैं):
दर मापदंडों और के साथ दो पॉइसन वितरणों के बीच वर्गाकार हेलिंगर दूरी, ताकि और , है:
इस प्रकार से दो बीटा वितरणों के बीच वर्गाकार हेलिंगर दूरी और है:
जहाँ बीटा फलन है।
अतः दो गामा वितरणों और के बीच वर्गाकार हेलिंगर दूरी है:
जहाँ गामा फलन है।
कुल भिन्नता दूरी के साथ संबंध
इस प्रकार से हेलिंगर दूरी और कुल भिन्नता दूरी (या सांख्यिकीय दूरी) इस प्रकार संबंधित हैं:[8]
अतः इस असमानता में स्थिरांक इस पर निर्भर हो सकते हैं कि आप कौन सा पुनर्सामान्यीकरण ( या ) पूर्ण रूप से चुनते हैं।
इस प्रकार से ये असमानताएं 1-मानदंड और 2-मानदंड के बीच की असमानताओं से तुरंत उत्पन्न होती हैं।
यह भी देखें
- सांख्यिकीय दूरी
- कुल्बैक-लीब्लर विचलन
- भट्टाचार्य दूरी
- कुल भिन्नता दूरी
- फिशर सूचना मापन
टिप्पणियाँ
- ↑ Nikulin, M.S. (2001) [1994], "Hellinger distance", Encyclopedia of Mathematics, EMS Press
- ↑ Hellinger, Ernst (1909), "Neue Begründung der Theorie quadratischer Formen von unendlichvielen Veränderlichen", Journal für die reine und angewandte Mathematik (in Deutsch), 1909 (136): 210–271, doi:10.1515/crll.1909.136.210, JFM 40.0393.01, S2CID 121150138
- ↑ "जेफ़्रीज़ दूरी - गणित का विश्वकोश". encyclopediaofmath.org (in English). Retrieved 2022-05-24.
- ↑ Jeffreys, Harold (1946-09-24). "अनुमान समस्याओं में पूर्व संभाव्यता के लिए एक अपरिवर्तनीय रूप". Proceedings of the Royal Society of London. Series A. Mathematical and Physical Sciences. 186 (1007): 453–461. Bibcode:1946RSPSA.186..453J. doi:10.1098/rspa.1946.0056. ISSN 0080-4630. PMID 20998741. S2CID 19490929.
- ↑ Torgerson, Erik (1991). "Comparison of Statistical Experiments". गणित का विश्वकोश. Vol. 36. Cambridge University Press.
- ↑ Liese, Friedrich; Miescke, Klaus-J. (2008). Statistical Decision Theory: Estimation, Testing, and Selection. Springer. ISBN 978-0-387-73193-3.
- ↑ Pardo, L. (2006). विचलन माप के आधार पर सांख्यिकीय अनुमान. New York: Chapman and Hall/CRC. p. 51. ISBN 1-58488-600-5.
- ↑ Harsha, Prahladh (September 23, 2011). "संचार जटिलता पर व्याख्यान नोट्स" (PDF).
संदर्भ
- Yang, Grace Lo; Le Cam, Lucien M. (2000). Asymptotics in Statistics: Some Basic Concepts. Berlin: Springer. ISBN 0-387-95036-2.
- Vaart, A. W. van der (19 June 2000). Asymptotic Statistics (Cambridge Series in Statistical and Probabilistic Mathematics). Cambridge, UK: Cambridge University Press. ISBN 0-521-78450-6.
- Pollard, David E. (2002). A user's guide to measure theoretic probability. Cambridge, UK: Cambridge University Press. ISBN 0-521-00289-3.