हेलिंगर दूरी: Difference between revisions

From Vigyanwiki
(Created page with "{{Short description|Metric used in probability and statistics}} संभाव्यता सिद्धांत और गणितीय आंकड़ों में,...")
 
No edit summary
 
(5 intermediate revisions by 3 users not shown)
Line 1: Line 1:
{{Short description|Metric used in probability and statistics}}
{{Short description|Metric used in probability and statistics}}
संभाव्यता सिद्धांत और गणितीय आंकड़ों में, हेलिंगर दूरी ([[भट्टाचार्य दूरी]] से निकटता से संबंधित, हालांकि अलग) का उपयोग दो [[संभाव्यता वितरण]]ों के बीच समानता को मापने के लिए किया जाता है। यह एक प्रकार का f-डाइवर्जेंस|''f''-डाइवर्जेंस है। हेलिंगर दूरी को [[हेलिंगर अभिन्न]] के संदर्भ में परिभाषित किया गया है, जिसे 1909 में [[अर्नेस्ट हेलिंगर]] द्वारा पेश किया गया था।<ref>{{SpringerEOM|title=Hellinger distance|id=h/h046890|first=M.S. |last=Nikulin}}</ref><ref>{{Citation  
प्रायिकता सिद्धांत और गणितीय आंकड़ों में, '''हेलिंगर दूरी''' ([[भट्टाचार्य दूरी]] से निकटता से संबंधित, यद्यपि भिन्न) का उपयोग दो [[संभाव्यता वितरण|प्रायिकता वितरणों]] के बीच समानता को मापने के लिए किया जाता है। यह एक प्रकार का ''f''-भिन्नता है। अतः हेलिंगर दूरी को [[हेलिंगर अभिन्न|'''हेलिंगर समाकलन''']] के संदर्भ में परिभाषित किया गया है, जिसे 1909 में [[अर्नेस्ट हेलिंगर]] द्वारा पूर्ण रूप से प्रस्तुत किया गया था।<ref>{{SpringerEOM|title=Hellinger distance|id=h/h046890|first=M.S. |last=Nikulin}}</ref><ref>{{Citation  
| last = Hellinger  
| last = Hellinger  
| first = Ernst
| first = Ernst
Line 16: Line 16:
| s2cid = 121150138
| s2cid = 121150138
}}</ref>
}}</ref>
इसे कभी-कभी जेफ़्रीज़ दूरी भी कहा जाता है।<ref>{{Cite web |title=जेफ़्रीज़ दूरी - गणित का विश्वकोश|url=https://encyclopediaofmath.org/wiki/Jeffreys_distance |access-date=2022-05-24 |website=encyclopediaofmath.org |language=en}}</ref><ref>{{Cite journal |date=1946-09-24 |title=अनुमान समस्याओं में पूर्व संभाव्यता के लिए एक अपरिवर्तनीय रूप|url=http://dx.doi.org/10.1098/rspa.1946.0056 |journal=Proceedings of the Royal Society of London. Series A. Mathematical and Physical Sciences |volume=186 |issue=1007 |pages=453–461 |doi=10.1098/rspa.1946.0056 |pmid=20998741 |bibcode=1946RSPSA.186..453J |issn=0080-4630|last1=Jeffreys |first1=Harold |s2cid=19490929 |doi-access=free }}</ref>


इस प्रकार से इसे कभी-कभी जेफ़्रीज़ दूरी भी कहा जाता है।<ref>{{Cite web |title=जेफ़्रीज़ दूरी - गणित का विश्वकोश|url=https://encyclopediaofmath.org/wiki/Jeffreys_distance |access-date=2022-05-24 |website=encyclopediaofmath.org |language=en}}</ref><ref>{{Cite journal |date=1946-09-24 |title=अनुमान समस्याओं में पूर्व संभाव्यता के लिए एक अपरिवर्तनीय रूप|url=http://dx.doi.org/10.1098/rspa.1946.0056 |journal=Proceedings of the Royal Society of London. Series A. Mathematical and Physical Sciences |volume=186 |issue=1007 |pages=453–461 |doi=10.1098/rspa.1946.0056 |pmid=20998741 |bibcode=1946RSPSA.186..453J |issn=0080-4630|last1=Jeffreys |first1=Harold |s2cid=19490929 |doi-access=free }}</ref>
==परिभाषा==
==परिभाषा==


===[[माप सिद्धांत]]===
===[[माप सिद्धांत]]===
माप सिद्धांत के संदर्भ में हेलिंगर दूरी को परिभाषित करने के लिए, आइए <math>P</math> और <math>Q</math> माप स्थान पर दो [[संभाव्यता माप]]ों को निरूपित करें <math>\mathcal{X}</math> यह एक सहायक माप के संबंध में [[पूर्ण निरंतरता]] है <math>\lambda</math>. ऐसा उपाय हमेशा मौजूद रहता है, उदा <math>\lambda = (P + Q)</math>. हेलिंगर के वर्ग के बीच की दूरी <math>P</math> और <math>Q</math> मात्रा के रूप में परिभाषित किया गया है
अतः माप सिद्धांत के संदर्भ में हेलिंगर दूरी को परिभाषित करने के लिए, <math>P</math> और <math>Q</math> को माप समष्टि <math>\mathcal{X}</math> पर दो [[संभाव्यता माप|प्रायिकता मापों]] को निरूपित करने दें जो सहायक माप <math>\lambda</math> के संबंध में [[पूर्ण निरंतरता]] हैं। ऐसा माप सदैव स्थित रहता है, इस प्रकार से उदाहरण के लिए <math>\lambda = (P + Q)</math><math>P</math> और <math>Q</math> के बीच हेलिंगर दूरी का वर्ग मात्रा  


:<math>H^2(P,Q) = \frac{1}{2}\displaystyle \int_{\mathcal{X}} \left(\sqrt{p(x)} - \sqrt{q(x)}\right)^2 \lambda(dx). </math>
:<math>H^2(P,Q) = \frac{1}{2}\displaystyle \int_{\mathcal{X}} \left(\sqrt{p(x)} - \sqrt{q(x)}\right)^2 \lambda(dx) </math> के रूप में पूर्ण रूप से परिभाषित किया गया है।
यहाँ, <math>P(dx) = p(x)\lambda(dx)</math> और <math>Q(dx) = q(x) \lambda(dx)</math>, अर्थात। <math>p</math> और <math>q</math> के संबंध में क्रमशः पी और क्यू के रेडॉन-निकोडिम डेरिवेटिव हैं <math>\lambda</math>. यह परिभाषा निर्भर नहीं करती <math>\lambda</math>, यानी पी और क्यू के बीच हेलिंगर दूरी नहीं बदलती है <math>\lambda</math> को एक अलग संभाव्यता माप के साथ प्रतिस्थापित किया जाता है जिसके संबंध में P और Q दोनों बिल्कुल निरंतर हैं। सघनता के लिए, उपरोक्त सूत्र को अक्सर इस प्रकार लिखा जाता है
यहाँ, <math>P(dx) = p(x)\lambda(dx)</math> और <math>Q(dx) = q(x) \lambda(dx)</math>, अर्थात <math>p</math> और <math>q</math>, <math>\lambda</math> के संबंध में क्रमशः P और Q के रेडॉन-निकोडिम व्युत्पन्न हैं। अतः यह परिभाषा <math>\lambda</math> पर निर्भर नहीं करती है,अर्थात P और Q के बीच हेलिंगर दूरी नहीं बदलती है यदि <math>\lambda</math> को एक अलग प्रायिकता माप के साथ प्रतिस्थापित किया जाता है जिसके संबंध में P और Q दोनों [[पूर्ण निरंतरता]] हैं। इस प्रकार से सघनता के लिए, उपरोक्त सूत्र को प्रातः


:<math>H^2(P,Q) = \frac{1}{2}\int_{\mathcal{X}} \left(\sqrt{P(dx)} - \sqrt{Q(dx)}\right)^2. </math>
:<math>H^2(P,Q) = \frac{1}{2}\int_{\mathcal{X}} \left(\sqrt{P(dx)} - \sqrt{Q(dx)}\right)^2 </math> के रूप में पूर्ण रूप से लिखा जाता है।


===[[लेब्सेग माप]] का उपयोग कर प्रायिकता सिद्धांत===
अतः प्रारंभिक प्रायिकता सिद्धांत के संदर्भ में हेलिंगर दूरी को परिभाषित करने के लिए, हम '''λ''' को लेबेस्ग माप के रूप में लेते हैं, ताकि '''dP / dλ''' और '''dQ / dλ''' मात्र प्रायिकता घनत्व फलन हों। इस प्रकार से यदि हम घनत्वों को क्रमशः ''f'' और ''g'' के रूप में निरूपित करते हैं, तो वर्ग हेलिंगर दूरी को मानक गणना समाकल


===[[लेब्सेग माप]] का उपयोग कर संभाव्यता सिद्धांत===
:<math>H^2(f,g) =\frac{1}{2}\int \left(\sqrt{f(x)} - \sqrt{g(x)}\right)^2 \, dx = 1 - \int \sqrt{f(x) g(x)} \, dx</math>
प्रारंभिक संभाव्यता सिद्धांत के संदर्भ में हेलिंगर दूरी को परिभाषित करने के लिए, हम λ को लेबेस्ग माप के रूप में लेते हैं, ताकि dP / dλ और dQ / dλ केवल संभाव्यता घनत्व फ़ंक्शन हों। यदि हम घनत्वों को क्रमशः एफ और जी के रूप में निरूपित करते हैं, तो वर्ग हेलिंगर दूरी को मानक कैलकुलस इंटीग्रल के रूप में व्यक्त किया जा सकता है
के रूप में निरूपित करते हैं, जहां दूसरा रूप वर्ग का विस्तार करके और इस तथ्य का उपयोग करके प्राप्त किया जा सकता है कि इसके डोमेन पर प्रायिकता घनत्व का अभिन्न अंग 1 के बराबर है।
 
:<math>H^2(f,g) =\frac{1}{2}\int \left(\sqrt{f(x)} - \sqrt{g(x)}\right)^2 \, dx = 1 - \int \sqrt{f(x) g(x)} \, dx,</math>
जहां दूसरा रूप वर्ग का विस्तार करके और इस तथ्य का उपयोग करके प्राप्त किया जा सकता है कि इसके डोमेन पर संभाव्यता घनत्व का अभिन्न अंग 1 के बराबर है।
 
हेलिंगर दूरी H(P,Q) संपत्ति को संतुष्ट करती है (कॉची-श्वार्ज़ असमानता#L2|कॉची-श्वार्ज़ असमानता से व्युत्पन्न)
 
: <math>0\le H(P,Q) \le 1.</math>


इस प्रकार से हेलिंगर दूरी '''H(P,Q)''' गुण (कॉची-श्वार्ज़ असमानता से व्युत्पन्न)


: <math>0\le H(P,Q) \le 1</math> को पूर्ण रूप से संतुष्ट करती है।
===असतत वितरण===
===असतत वितरण===
दो असतत संभाव्यता वितरणों के लिए <math>P=(p_1, \ldots, p_k)</math> और <math>Q=(q_1, \ldots, q_k)</math>,
अतः दो असतत प्रायिकता वितरणों <math>P=(p_1, \ldots, p_k)</math> और <math>Q=(q_1, \ldots, q_k)</math> के लिए, उनकी हेलिंगर दूरी को
उनकी हेलिंगर दूरी को इस प्रकार परिभाषित किया गया है


: <math>
: <math>
   H(P, Q) = \frac{1}{\sqrt{2}} \; \sqrt{\sum_{i=1}^k (\sqrt{p_i} - \sqrt{q_i})^2},
   H(P, Q) = \frac{1}{\sqrt{2}} \; \sqrt{\sum_{i=1}^k (\sqrt{p_i} - \sqrt{q_i})^2},
</math>
</math>
जो सीधे तौर पर वर्गमूल सदिशों के अंतर की [[यूक्लिडियन दूरी]] से संबंधित है, अर्थात।
के रूप में परिभाषित किया गया है, जो प्रत्यक्षतः वर्गमूल सदिश के अंतर के [[यूक्लिडियन दूरी]] से संबंधित है, अर्थात
: <math>
: <math>
H(P, Q) = \frac{1}{\sqrt{2}} \; \bigl\|\sqrt{P} - \sqrt{Q} \bigr\|_2 .
H(P, Q) = \frac{1}{\sqrt{2}} \; \bigl\|\sqrt{P} - \sqrt{Q} \bigr\|_2 .
Line 55: Line 50:
   1 - H^2(P,Q) = \sum_{i=1}^k \sqrt{p_i q_i}.
   1 - H^2(P,Q) = \sum_{i=1}^k \sqrt{p_i q_i}.
</math>
</math>
==गुण==
==गुण==
हेलिंगर दूरी किसी दिए गए [[संभाव्यता स्थान]] पर संभाव्यता वितरण के फ़ंक्शन स्थान पर एक [[बंधा हुआ कार्य]] [[मीट्रिक (गणित)]] बनाती है।
इस प्रकार से हेलिंगर दूरी किसी दिए गए [[संभाव्यता स्थान|प्रायिकता]] समष्टि पर प्रायिकता वितरण के फलन समष्टि पर एक [[बंधा हुआ कार्य|परिबद्ध फलन]] [[मीट्रिक (गणित)|माप (गणित)]] बनाती है।


अधिकतम दूरी 1 तब प्राप्त होती है जब P प्रत्येक सेट के लिए संभाव्यता शून्य निर्दिष्ट करता है, जिस पर Q सकारात्मक संभावना निर्दिष्ट करता है, और इसके विपरीत।
अतः अधिकतम दूरी 1 तब प्राप्त होती है जब P प्रत्येक समुच्चय के लिए प्रायिकता शून्य निर्दिष्ट करता है, जिस पर Q धनात्मक प्रायिकता को पूर्ण रूप से निर्दिष्ट करता है, और इसके विपरीत होता है।


कभी-कभी कारक <math>1/\sqrt{2}</math> अभिन्न के सामने छोड़ दिया गया है, इस स्थिति में हेलिंगर की दूरी शून्य से दो के वर्गमूल तक होती है।
इस प्रकार से कभी-कभी समाकलन के सामने कारक <math>1/\sqrt{2}</math> को छोड़ दिया जाता है, ऐसी स्थिति में हेलिंगर की दूरी शून्य से दो के वर्गमूल तक होती है।


हेलिंगर दूरी भट्टाचार्य दूरी से संबंधित है <math>BC(P,Q)</math> जैसा कि इसे परिभाषित किया जा सकता है
अतः हेलिंगर दूरी भट्टाचार्य दूरी <math>BC(P,Q)</math> से संबंधित है क्योंकि इसे


: <math>H(P,Q) = \sqrt{1 - BC(P,Q)}.</math>
: <math>H(P,Q) = \sqrt{1 - BC(P,Q)}</math> के रूप में पूर्ण रूप से परिभाषित किया जा सकता है।
हेलिंजर दूरियों का उपयोग [[अनुक्रमिक विश्लेषण]] और स्पर्शोन्मुख सांख्यिकी के सिद्धांत में किया जाता है।<ref>{{cite book |first=Erik |last=Torgerson |year=1991 |chapter=Comparison of Statistical Experiments |volume=36 |title=गणित का विश्वकोश|publisher=Cambridge University Press }}</ref><ref>{{cite book
इस प्रकार से हेलिंजर दूरियों का उपयोग [[अनुक्रमिक विश्लेषण]] और स्पर्शोन्मुख सांख्यिकी के सिद्धांत में किया जाता है।<ref>{{cite book |first=Erik |last=Torgerson |year=1991 |chapter=Comparison of Statistical Experiments |volume=36 |title=गणित का विश्वकोश|publisher=Cambridge University Press }}</ref><ref>{{cite book
   |author1=Liese, Friedrich  |author2=Miescke, Klaus-J.
   |author1=Liese, Friedrich  |author2=Miescke, Klaus-J.
   | title = Statistical Decision Theory: Estimation, Testing, and Selection
   | title = Statistical Decision Theory: Estimation, Testing, and Selection
Line 75: Line 68:
   }}
   }}
</ref>
</ref>
दो [[सामान्य वितरण]]ों के बीच वर्गाकार हेलिंगर दूरी <math> P \sim \mathcal{N}(\mu_1,\sigma_1^2)</math> और <math> Q \sim \mathcal{N}(\mu_2,\sigma_2^2)</math> है:
 
अतः दो [[सामान्य वितरण|सामान्य वितरणों]] <math> P \sim \mathcal{N}(\mu_1,\sigma_1^2)</math> और <math> Q \sim \mathcal{N}(\mu_2,\sigma_2^2)</math> के बीच वर्गाकार हेलिंगर दूरी है:
: <math>
: <math>
   H^2(P, Q) = 1 - \sqrt{\frac{2\sigma_1\sigma_2}{\sigma_1^2+\sigma_2^2}} \,  e^{-\frac{1}{4}\frac{(\mu_1-\mu_2)^2}{\sigma_1^2+\sigma_2^2}}.
   H^2(P, Q) = 1 - \sqrt{\frac{2\sigma_1\sigma_2}{\sigma_1^2+\sigma_2^2}} \,  e^{-\frac{1}{4}\frac{(\mu_1-\mu_2)^2}{\sigma_1^2+\sigma_2^2}}.
   </math>
   </math>
दो [[बहुभिन्नरूपी सामान्य वितरण]]ों के बीच वर्गाकार हेलिंगर दूरी <math> P \sim \mathcal{N}(\mu_1,\Sigma_1)</math> और <math> Q \sim \mathcal{N}(\mu_2,\Sigma_2)</math> है <ref>{{cite book |last=Pardo |first=L. |year=2006 |title=विचलन माप के आधार पर सांख्यिकीय अनुमान|location=New York |publisher=Chapman and Hall/CRC |page=51 |isbn=1-58488-600-5 }}</ref>
दो [[बहुभिन्नरूपी सामान्य वितरण|बहुभिन्नरूपी सामान्य वितरणों]] <math> P \sim \mathcal{N}(\mu_1,\Sigma_1)</math> और <math> Q \sim \mathcal{N}(\mu_2,\Sigma_2)</math> के बीच वर्गाकार हेलिंगर दूरी है <ref>{{cite book |last=Pardo |first=L. |year=2006 |title=विचलन माप के आधार पर सांख्यिकीय अनुमान|location=New York |publisher=Chapman and Hall/CRC |page=51 |isbn=1-58488-600-5 }}</ref>
: <math>
: <math>
   H^2(P, Q) = 1 - \frac{ \det (\Sigma_1)^{1/4} \det (\Sigma_2) ^{1/4}} { \det \left( \frac{\Sigma_1 + \Sigma_2}{2}\right)^{1/2} }
   H^2(P, Q) = 1 - \frac{ \det (\Sigma_1)^{1/4} \det (\Sigma_2) ^{1/4}} { \det \left( \frac{\Sigma_1 + \Sigma_2}{2}\right)^{1/2} }
Line 86: Line 80:
               (\mu_1 - \mu_2)               
               (\mu_1 - \mu_2)               
               \right\} </math>
               \right\} </math>
दो घातीय वितरणों के बीच वर्गाकार हेलिंगर दूरी <math> P \sim \mathrm{Exp}(\alpha)</math> और <math> Q \sim \mathrm{Exp}(\beta)</math> है:
इस प्रकार से दो घातीय वितरणों <math> P \sim \mathrm{Exp}(\alpha)</math> और <math> Q \sim \mathrm{Exp}(\beta)</math> के बीच वर्गाकार हेलिंगर दूरी है:
: <math>H^2(P, Q) = 1 - \frac{2 \sqrt{\alpha \beta}}{\alpha + \beta}.</math>
: <math>H^2(P, Q) = 1 - \frac{2 \sqrt{\alpha \beta}}{\alpha + \beta}.</math>
दो [[वेइबुल वितरण]]ों के बीच वर्गाकार हेलिंगर दूरी <math> P \sim \mathrm{W}(k,\alpha)</math> और <math> Q \sim \mathrm{W}(k,\beta)</math> (कहाँ <math> k </math> एक सामान्य आकार पैरामीटर है और <math> \alpha\, , \beta </math> क्रमशः स्केल पैरामीटर हैं):
अतः दो [[वेइबुल वितरण|वेइबुल वितरणों]] के बीच वर्गाकार हेलिंगर दूरी <math> P \sim \mathrm{W}(k,\alpha)</math> और <math> Q \sim \mathrm{W}(k,\beta)</math> (जहाँ <math> k </math> एक सामान्य आकार पैरामीटर है और <math> \alpha\, , \beta </math> क्रमशः माप पैरामीटर हैं):
: <math> H^2(P, Q) = 1 - \frac{2 (\alpha \beta)^{k/2}}{\alpha^k + \beta^k}. </math>
: <math> H^2(P, Q) = 1 - \frac{2 (\alpha \beta)^{k/2}}{\alpha^k + \beta^k}. </math>
दर मापदंडों के साथ दो पॉइसन वितरणों के बीच वर्गाकार हेलिंगर दूरी <math>\alpha</math> और <math>\beta</math>, ताकि <math> P \sim \mathrm{Poisson}(\alpha)</math> और <math> Q \sim \mathrm{Poisson}(\beta)</math>, है:
दर मापदंडों <math>\alpha</math> और <math>\beta</math> के साथ दो पॉइसन वितरणों के बीच वर्गाकार हेलिंगर दूरी, ताकि <math> P \sim \mathrm{Poisson}(\alpha)</math> और <math> Q \sim \mathrm{Poisson}(\beta)</math>, है:
: <math> H^2(P,Q) = 1-e^{-\frac{1}{2} (\sqrt{\alpha} - \sqrt{\beta})^2}. </math>
: <math> H^2(P,Q) = 1-e^{-\frac{1}{2} (\sqrt{\alpha} - \sqrt{\beta})^2}. </math>
दो [[बीटा वितरण]]ों के बीच वर्गाकार हेलिंगर दूरी <math> P \sim \text{Beta}(a_1,b_1)</math> और <math> Q \sim \text{Beta}(a_2, b_2)</math> है:
इस प्रकार से दो [[बीटा वितरण|बीटा वितरणों]] के बीच वर्गाकार हेलिंगर दूरी <math> P \sim \text{Beta}(a_1,b_1)</math> और <math> Q \sim \text{Beta}(a_2, b_2)</math> है:
: <math>H^2(P,Q) = 1 - \frac{B\left(\frac{a_1 + a_2}{2}, \frac{b_1 + b_2}{2}\right)}{\sqrt{B(a_1, b_1) B(a_2, b_2)}}</math>
: <math>H^2(P,Q) = 1 - \frac{B\left(\frac{a_1 + a_2}{2}, \frac{b_1 + b_2}{2}\right)}{\sqrt{B(a_1, b_1) B(a_2, b_2)}}</math>
कहाँ <math>B</math> [[बीटा फ़ंक्शन]] है.
जहाँ <math>B</math> [[बीटा फ़ंक्शन|बीटा फलन]] है।


दो [[गामा वितरण]]ों के बीच वर्गाकार हेलिंगर दूरी <math> P \sim \text{Gamma}(a_1,b_1)</math> और <math> Q \sim \text{Gamma}(a_2, b_2)</math> है:
अतः दो [[गामा वितरण|गामा वितरणों]] <math> P \sim \text{Gamma}(a_1,b_1)</math> और <math> Q \sim \text{Gamma}(a_2, b_2)</math> के बीच वर्गाकार हेलिंगर दूरी है:
: <math>H^2(P,Q) = 1 - \Gamma\left({\scriptstyle\frac{a_1 + a_2}{2}}\right)\left(\frac{b_1+b_2}{2}\right)^{-(a_1+a_2)/2}\sqrt{\frac{b_1^{a_1}b_2^{a_2}}{\Gamma(a_1)\Gamma(a_2)}}</math>
: <math>H^2(P,Q) = 1 - \Gamma\left({\scriptstyle\frac{a_1 + a_2}{2}}\right)\left(\frac{b_1+b_2}{2}\right)^{-(a_1+a_2)/2}\sqrt{\frac{b_1^{a_1}b_2^{a_2}}{\Gamma(a_1)\Gamma(a_2)}}</math>
कहाँ <math>\Gamma</math> [[गामा फ़ंक्शन]] है.
जहाँ <math>\Gamma</math> [[गामा फ़ंक्शन|गामा फलन]] है।


== कुल भिन्नता दूरी के साथ संबंध ==
== कुल भिन्नता दूरी के साथ संबंध ==


हेलिंगर दूरी <math>H(P,Q)</math> और [[कुल भिन्नता दूरी]] (या सांख्यिकीय दूरी) <math>\delta(P,Q)</math> इस प्रकार संबंधित हैं:<ref>{{cite web |url=https://www.tcs.tifr.res.in/~prahladh/teaching/2011-12/comm/lectures/l12.pdf |title=संचार जटिलता पर व्याख्यान नोट्स|date=September 23, 2011 |first=Prahladh |last=Harsha }}</ref>
इस प्रकार से हेलिंगर दूरी <math>H(P,Q)</math> और [[कुल भिन्नता दूरी]] (या सांख्यिकीय दूरी) <math>\delta(P,Q)</math> इस प्रकार संबंधित हैं:<ref>{{cite web |url=https://www.tcs.tifr.res.in/~prahladh/teaching/2011-12/comm/lectures/l12.pdf |title=संचार जटिलता पर व्याख्यान नोट्स|date=September 23, 2011 |first=Prahladh |last=Harsha }}</ref>
: <math>
: <math>
H^2(P,Q) \leq \delta(P,Q) \leq  \sqrt{2}H(P,Q)\,.
H^2(P,Q) \leq \delta(P,Q) \leq  \sqrt{2}H(P,Q)\,.
</math>
</math>
इस असमानता में स्थिरांक आपके द्वारा चुने गए पुनर्सामान्यीकरण के आधार पर बदल सकते हैं (<math>1/2</math> या <math>1/\sqrt{2}</math>).
अतः इस असमानता में स्थिरांक इस पर निर्भर हो सकते हैं कि आप कौन सा पुनर्सामान्यीकरण (<math>1/2</math> या <math>1/\sqrt{2}</math>) पूर्ण रूप से चुनते हैं।


ये असमानताएं एलपी स्पेस#परिमित आयामों में पी-मानदंड|1-मानदंड और एलपी स्थान#परिमित आयामों में पी-मानदंड|2-मानदंड के बीच की असमानताओं से तुरंत उत्पन्न होती हैं।
इस प्रकार से ये असमानताएं 1-मानदंड और 2-मानदंड के बीच की असमानताओं से तुरंत उत्पन्न होती हैं।


==यह भी देखें==
==यह भी देखें==
Line 115: Line 109:
* भट्टाचार्य दूरी
* भट्टाचार्य दूरी
* कुल भिन्नता दूरी
* कुल भिन्नता दूरी
* [[फिशर सूचना मीट्रिक]]
* [[फिशर सूचना मीट्रिक|फिशर सूचना मापन]]


==टिप्पणियाँ==
==टिप्पणियाँ==
Line 125: Line 119:
* {{cite book |author=Vaart, A. W. van der |title=Asymptotic Statistics (Cambridge Series in Statistical and Probabilistic Mathematics) |date=19 June 2000 |publisher=Cambridge University Press |location=Cambridge, UK |isbn=0-521-78450-6 }}
* {{cite book |author=Vaart, A. W. van der |title=Asymptotic Statistics (Cambridge Series in Statistical and Probabilistic Mathematics) |date=19 June 2000 |publisher=Cambridge University Press |location=Cambridge, UK |isbn=0-521-78450-6 }}
* {{cite book |author=Pollard, David E. |title=A user's guide to measure theoretic probability |publisher=Cambridge University Press |location=Cambridge, UK |year=2002 |isbn=0-521-00289-3 }}
* {{cite book |author=Pollard, David E. |title=A user's guide to measure theoretic probability |publisher=Cambridge University Press |location=Cambridge, UK |year=2002 |isbn=0-521-00289-3 }}
[[Category: संभाव्यता वितरण का सिद्धांत]] [[Category: एफ-विचलन]] [[Category: सांख्यिकीय दूरी]]


[[Category: Machine Translated Page]]
[[Category:CS1 Deutsch-language sources (de)]]
[[Category:CS1 English-language sources (en)]]
[[Category:Created On 06/07/2023]]
[[Category:Created On 06/07/2023]]
[[Category:Lua-based templates]]
[[Category:Machine Translated Page]]
[[Category:Pages with script errors]]
[[Category:Templates Vigyan Ready]]
[[Category:Templates that add a tracking category]]
[[Category:Templates that generate short descriptions]]
[[Category:Templates using TemplateData]]
[[Category:एफ-विचलन]]
[[Category:संभाव्यता वितरण का सिद्धांत]]
[[Category:सांख्यिकीय दूरी]]

Latest revision as of 18:28, 16 July 2023

प्रायिकता सिद्धांत और गणितीय आंकड़ों में, हेलिंगर दूरी (भट्टाचार्य दूरी से निकटता से संबंधित, यद्यपि भिन्न) का उपयोग दो प्रायिकता वितरणों के बीच समानता को मापने के लिए किया जाता है। यह एक प्रकार का f-भिन्नता है। अतः हेलिंगर दूरी को हेलिंगर समाकलन के संदर्भ में परिभाषित किया गया है, जिसे 1909 में अर्नेस्ट हेलिंगर द्वारा पूर्ण रूप से प्रस्तुत किया गया था।[1][2]

इस प्रकार से इसे कभी-कभी जेफ़्रीज़ दूरी भी कहा जाता है।[3][4]

परिभाषा

माप सिद्धांत

अतः माप सिद्धांत के संदर्भ में हेलिंगर दूरी को परिभाषित करने के लिए, और को माप समष्टि पर दो प्रायिकता मापों को निरूपित करने दें जो सहायक माप के संबंध में पूर्ण निरंतरता हैं। ऐसा माप सदैव स्थित रहता है, इस प्रकार से उदाहरण के लिए और के बीच हेलिंगर दूरी का वर्ग मात्रा

के रूप में पूर्ण रूप से परिभाषित किया गया है।

यहाँ, और , अर्थात और , के संबंध में क्रमशः P और Q के रेडॉन-निकोडिम व्युत्पन्न हैं। अतः यह परिभाषा पर निर्भर नहीं करती है,अर्थात P और Q के बीच हेलिंगर दूरी नहीं बदलती है यदि को एक अलग प्रायिकता माप के साथ प्रतिस्थापित किया जाता है जिसके संबंध में P और Q दोनों पूर्ण निरंतरता हैं। इस प्रकार से सघनता के लिए, उपरोक्त सूत्र को प्रातः

के रूप में पूर्ण रूप से लिखा जाता है।

लेब्सेग माप का उपयोग कर प्रायिकता सिद्धांत

अतः प्रारंभिक प्रायिकता सिद्धांत के संदर्भ में हेलिंगर दूरी को परिभाषित करने के लिए, हम λ को लेबेस्ग माप के रूप में लेते हैं, ताकि dP / dλ और dQ / dλ मात्र प्रायिकता घनत्व फलन हों। इस प्रकार से यदि हम घनत्वों को क्रमशः f और g के रूप में निरूपित करते हैं, तो वर्ग हेलिंगर दूरी को मानक गणना समाकल

के रूप में निरूपित करते हैं, जहां दूसरा रूप वर्ग का विस्तार करके और इस तथ्य का उपयोग करके प्राप्त किया जा सकता है कि इसके डोमेन पर प्रायिकता घनत्व का अभिन्न अंग 1 के बराबर है।

इस प्रकार से हेलिंगर दूरी H(P,Q) गुण (कॉची-श्वार्ज़ असमानता से व्युत्पन्न)

को पूर्ण रूप से संतुष्ट करती है।

असतत वितरण

अतः दो असतत प्रायिकता वितरणों और के लिए, उनकी हेलिंगर दूरी को

के रूप में परिभाषित किया गया है, जो प्रत्यक्षतः वर्गमूल सदिश के अंतर के यूक्लिडियन दूरी से संबंधित है, अर्थात

भी,

गुण

इस प्रकार से हेलिंगर दूरी किसी दिए गए प्रायिकता समष्टि पर प्रायिकता वितरण के फलन समष्टि पर एक परिबद्ध फलन माप (गणित) बनाती है।

अतः अधिकतम दूरी 1 तब प्राप्त होती है जब P प्रत्येक समुच्चय के लिए प्रायिकता शून्य निर्दिष्ट करता है, जिस पर Q धनात्मक प्रायिकता को पूर्ण रूप से निर्दिष्ट करता है, और इसके विपरीत होता है।

इस प्रकार से कभी-कभी समाकलन के सामने कारक को छोड़ दिया जाता है, ऐसी स्थिति में हेलिंगर की दूरी शून्य से दो के वर्गमूल तक होती है।

अतः हेलिंगर दूरी भट्टाचार्य दूरी से संबंधित है क्योंकि इसे

के रूप में पूर्ण रूप से परिभाषित किया जा सकता है।

इस प्रकार से हेलिंजर दूरियों का उपयोग अनुक्रमिक विश्लेषण और स्पर्शोन्मुख सांख्यिकी के सिद्धांत में किया जाता है।[5][6]

अतः दो सामान्य वितरणों और के बीच वर्गाकार हेलिंगर दूरी है:

दो बहुभिन्नरूपी सामान्य वितरणों और के बीच वर्गाकार हेलिंगर दूरी है [7]

इस प्रकार से दो घातीय वितरणों और के बीच वर्गाकार हेलिंगर दूरी है:

अतः दो वेइबुल वितरणों के बीच वर्गाकार हेलिंगर दूरी और (जहाँ एक सामान्य आकार पैरामीटर है और क्रमशः माप पैरामीटर हैं):

दर मापदंडों और के साथ दो पॉइसन वितरणों के बीच वर्गाकार हेलिंगर दूरी, ताकि और , है:

इस प्रकार से दो बीटा वितरणों के बीच वर्गाकार हेलिंगर दूरी और है:

जहाँ बीटा फलन है।

अतः दो गामा वितरणों और के बीच वर्गाकार हेलिंगर दूरी है:

जहाँ गामा फलन है।

कुल भिन्नता दूरी के साथ संबंध

इस प्रकार से हेलिंगर दूरी और कुल भिन्नता दूरी (या सांख्यिकीय दूरी) इस प्रकार संबंधित हैं:[8]

अतः इस असमानता में स्थिरांक इस पर निर्भर हो सकते हैं कि आप कौन सा पुनर्सामान्यीकरण ( या ) पूर्ण रूप से चुनते हैं।

इस प्रकार से ये असमानताएं 1-मानदंड और 2-मानदंड के बीच की असमानताओं से तुरंत उत्पन्न होती हैं।

यह भी देखें

टिप्पणियाँ

  1. Nikulin, M.S. (2001) [1994], "Hellinger distance", Encyclopedia of Mathematics, EMS Press
  2. Hellinger, Ernst (1909), "Neue Begründung der Theorie quadratischer Formen von unendlichvielen Veränderlichen", Journal für die reine und angewandte Mathematik (in Deutsch), 1909 (136): 210–271, doi:10.1515/crll.1909.136.210, JFM 40.0393.01, S2CID 121150138
  3. "जेफ़्रीज़ दूरी - गणित का विश्वकोश". encyclopediaofmath.org (in English). Retrieved 2022-05-24.
  4. Jeffreys, Harold (1946-09-24). "अनुमान समस्याओं में पूर्व संभाव्यता के लिए एक अपरिवर्तनीय रूप". Proceedings of the Royal Society of London. Series A. Mathematical and Physical Sciences. 186 (1007): 453–461. Bibcode:1946RSPSA.186..453J. doi:10.1098/rspa.1946.0056. ISSN 0080-4630. PMID 20998741. S2CID 19490929.
  5. Torgerson, Erik (1991). "Comparison of Statistical Experiments". गणित का विश्वकोश. Vol. 36. Cambridge University Press.
  6. Liese, Friedrich; Miescke, Klaus-J. (2008). Statistical Decision Theory: Estimation, Testing, and Selection. Springer. ISBN 978-0-387-73193-3.
  7. Pardo, L. (2006). विचलन माप के आधार पर सांख्यिकीय अनुमान. New York: Chapman and Hall/CRC. p. 51. ISBN 1-58488-600-5.
  8. Harsha, Prahladh (September 23, 2011). "संचार जटिलता पर व्याख्यान नोट्स" (PDF).


संदर्भ

  • Yang, Grace Lo; Le Cam, Lucien M. (2000). Asymptotics in Statistics: Some Basic Concepts. Berlin: Springer. ISBN 0-387-95036-2.
  • Vaart, A. W. van der (19 June 2000). Asymptotic Statistics (Cambridge Series in Statistical and Probabilistic Mathematics). Cambridge, UK: Cambridge University Press. ISBN 0-521-78450-6.
  • Pollard, David E. (2002). A user's guide to measure theoretic probability. Cambridge, UK: Cambridge University Press. ISBN 0-521-00289-3.