कोसाइन समानता: Difference between revisions

From Vigyanwiki
No edit summary
No edit summary
Line 1: Line 1:
{{Short description|Similarity measure for number sequences}}
{{Short description|Similarity measure for number sequences}}


[[डेटा विश्लेषण]] में, कोसाइन समानता एक [[आंतरिक उत्पाद स्थान]] में परिभाषित दो गैर-शून्य वैक्टरों के बीच समानता का एक उपाय है। [[कोज्या]] समानता सदिशों के बीच के कोण की कोज्या है; अर्थात्, यह उनकी लंबाई के गुणनफल से विभाजित सदिशों का डॉट गुणनफल है। इससे पता चलता है कि कोज्या समानता सदिशों के परिमाण पर निर्भर नहीं करती है, बल्कि केवल उनके कोण पर निर्भर करती है। कोसाइन समानता हमेशा अंतराल से संबंधित होती है <math>[-1, 1].</math> उदाहरण के लिए, दो [[आनुपातिक वैक्टर]] में 1 की कोज्या समानता होती है, दो [[ऑर्थोगोनल वैक्टर]] में 0 की समानता होती है, और दो [[विपरीत (गणित)]] वैक्टर में -1 की समानता होती है। कुछ संदर्भों में, सदिशों के घटक मान ऋणात्मक नहीं हो सकते, जिस स्थिति में कोसाइन समानता सीमित होती है <math>[0,1]</math>.
[[डेटा विश्लेषण]] में, कोसाइन समानता [[आंतरिक उत्पाद स्थान|आंतरिक  गुणन क्षेत्र]] में परिभाषित दो गैर-शून्य सदिश के बीच समानता का का माप होता है। [[कोज्या|कोसाइन]] समानता सदिशों के बीच के कोण की कोज्या होती है; अर्थात्, यह उनकी लंबाई के गुणनफल से विभाजित सदिशों के डॉट का गुणनफल होता है। इससे यह पता चलता है कि कोज्या समानता सदिशों के परिमाण पर निर्भर नहीं करती है, लेकिन  केवल उनके कोण पर निर्भर करती है। कोसाइन समानता अधिकांशतः अंतराल <math>[-1, 1].</math> से संबंधित होती है। उदाहरण के लिए दो [[आनुपातिक वैक्टर|समानुपाती सदिशों]] में 1 की कोज्या समानता होती है और इस प्रकार दो [[ऑर्थोगोनल वैक्टर|लंबकोणीय]] [[आनुपातिक वैक्टर|सदिशों]]  की कोसाइन समानता 0 होती है और दो [[विपरीत (गणित)|विपरीत]] सदिश  में -1 की समानता होती है। कुछ संदर्भों में, सदिशों के घटक मान ऋणात्मक नहीं हो सकते है और जिस स्थिति में कोसाइन समानता <math>[0,1]</math>.के रूप में सीमित होती है


उदाहरण के लिए, सूचना पुनर्प्राप्ति और पाठ खनन में, प्रत्येक शब्द को एक अलग निर्देशांक दिया जाता है और दस्तावेज़ में प्रत्येक शब्द की घटनाओं की संख्या के वेक्टर द्वारा एक दस्तावेज़ का प्रतिनिधित्व किया जाता है। कोसाइन समानता तब इस बात का एक उपयोगी माप देती है कि उनकी विषय वस्तु के संदर्भ में और दस्तावेज़ों की लंबाई से स्वतंत्र रूप से दो दस्तावेज़ों के समान होने की कितनी संभावना है।<ref>[[Amit Singhal|Singhal, Amit]] (2001). "[http://singhal.info/ieee2001.pdf Modern Information Retrieval: A Brief Overview]". ''Bulletin of the IEEE Computer Society Technical Committee on Data Engineering'' 24 (4): 35–43.</ref>
उदाहरण के लिए, सूचना पुनर्प्राप्ति और पाठ खनन में, प्रत्येक शब्द को एक अलग निर्देशांक दिया जाता है और दस्तावेज़ में प्रत्येक शब्द की घटनाओं की संख्या के वेक्टर द्वारा एक दस्तावेज़ का प्रतिनिधित्व किया जाता है। कोसाइन समानता तब इस बात का एक उपयोगी माप देती है कि उनकी विषय वस्तु के संदर्भ में और दस्तावेज़ों की लंबाई से स्वतंत्र रूप से दो दस्तावेज़ों के समान होने की कितनी संभावना है।<ref>[[Amit Singhal|Singhal, Amit]] (2001). "[http://singhal.info/ieee2001.pdf Modern Information Retrieval: A Brief Overview]". ''Bulletin of the IEEE Computer Society Technical Committee on Data Engineering'' 24 (4): 35–43.</ref>
Line 11: Line 11:
== परिभाषा ==
== परिभाषा ==


यूक्लिडियन वेक्टर#डॉट उत्पाद सूत्र का उपयोग करके दो गैर-शून्य वैक्टरों की कोज्या प्राप्त की जा सकती है:
यूक्लिडियन वेक्टर#डॉट गुणन सूत्र का उपयोग करके दो गैर-शून्य सदिश की कोज्या प्राप्त की जा सकती है:


:<math>\mathbf{A}\cdot\mathbf{B}
:<math>\mathbf{A}\cdot\mathbf{B}
=\left\|\mathbf{A}\right\|\left\|\mathbf{B}\right\|\cos\theta</math>
=\left\|\mathbf{A}\right\|\left\|\mathbf{B}\right\|\cos\theta</math>
गुणों के दो एन-आयामी [[वेक्टर (ज्यामितीय)]] को देखते हुए, 'ए' और 'बी', कोसाइन समानता, {{math|cos(θ)}}, एक डॉट उत्पाद और परिमाण (गणित) #यूक्लिडियन वेक्टर स्पेस का उपयोग करके दर्शाया गया है
गुणों के दो एन-आयामी [[वेक्टर (ज्यामितीय)]] को देखते हुए, 'ए' और 'बी', कोसाइन समानता, {{math|cos(θ)}}, एक डॉट गुणन और परिमाण (गणित) #यूक्लिडियन वेक्टर स्पेस का उपयोग करके दर्शाया गया है


:<math>\text{cosine similarity} =S_C (A,B):= \cos(\theta) = {\mathbf{A} \cdot \mathbf{B} \over \|\mathbf{A}\| \|\mathbf{B}\|} = \frac{ \sum\limits_{i=1}^{n}{A_i  B_i} }{ \sqrt{\sum\limits_{i=1}^{n}{A_i^2}}  \sqrt{\sum\limits_{i=1}^{n}{B_i^2}} },</math>
:<math>\text{cosine similarity} =S_C (A,B):= \cos(\theta) = {\mathbf{A} \cdot \mathbf{B} \over \|\mathbf{A}\| \|\mathbf{B}\|} = \frac{ \sum\limits_{i=1}^{n}{A_i  B_i} }{ \sqrt{\sum\limits_{i=1}^{n}{A_i^2}}  \sqrt{\sum\limits_{i=1}^{n}{B_i^2}} },</math>
Line 22: Line 22:
परिणामी समानता -1 से लेकर होती है जिसका अर्थ बिल्कुल विपरीत होता है, 1 का अर्थ बिल्कुल समान होता है, 0 के साथ [[ओर्थोगोनालिटी]] या अलंकरण का संकेत मिलता है, जबकि बीच के मान मध्यवर्ती समानता या असमानता का संकेत देते हैं।
परिणामी समानता -1 से लेकर होती है जिसका अर्थ बिल्कुल विपरीत होता है, 1 का अर्थ बिल्कुल समान होता है, 0 के साथ [[ओर्थोगोनालिटी]] या अलंकरण का संकेत मिलता है, जबकि बीच के मान मध्यवर्ती समानता या असमानता का संकेत देते हैं।


[[अनुमानित स्ट्रिंग मिलान]] के लिए, विशेषता वेक्टर ए और बी सामान्यतः  दस्तावेजों के टीएफ-आईडीएफ वैक्टर होते हैं। कोसाइन समानता को तुलना के दौरान [[सामान्यीकरण (सांख्यिकी)]] दस्तावेज़ लंबाई की एक विधि के रूप में देखा जा सकता है। सूचना पुनर्प्राप्ति के स्थितियों  में, दो दस्तावेज़ों की कोसाइन समानता की सीमा होगी <math>0 \to 1</math>, क्योंकि पद आवृत्ति ऋणात्मक नहीं हो सकती। tf-idf|TF-IDF वज़न का उपयोग करते समय यह सही रहता है। दो टर्म फ़्रीक्वेंसी वैक्टर के बीच का कोण 90° से ज़्यादा नहीं हो सकता।
[[अनुमानित स्ट्रिंग मिलान]] के लिए, विशेषता वेक्टर ए और बी सामान्यतः  दस्तावेजों के टीएफ-आईडीएफ सदिश  होते हैं। कोसाइन समानता को तुलना के दौरान [[सामान्यीकरण (सांख्यिकी)]] दस्तावेज़ लंबाई की एक विधि के रूप में देखा जा सकता है। सूचना पुनर्प्राप्ति के स्थितियों  में, दो दस्तावेज़ों की कोसाइन समानता की सीमा होगी <math>0 \to 1</math>, क्योंकि पद आवृत्ति ऋणात्मक नहीं हो सकती। tf-idf|TF-IDF वज़न का उपयोग करते समय यह सही रहता है। दो टर्म फ़्रीक्वेंसी सदिश  के बीच का कोण 90° से ज़्यादा नहीं हो सकता।


यदि विशेषता सदिशों को सदिश माध्यों को घटाकर सामान्यीकृत किया जाता है (उदा., <math>A - \bar{A}</math>), माप को केंद्रित कोसाइन समानता कहा जाता है और [[पियर्सन सहसंबंध गुणांक]] के बराबर है। केंद्रीकरण के उदाहरण के लिए, <math>\text{if}\, A = [A_1, A_2]^T, \text{ then } \bar{A} = \left[\frac{(A_1+A_2)}{2},\frac{(A_1+A_2)}{2}\right]^T, \text{ so } A-\bar{A}=  \left[\frac{(A_1-A_2)}{2},\frac{(-A_1+A_2)}{2}\right]^T.</math>
यदि विशेषता सदिशों को सदिश माध्यों को घटाकर सामान्यीकृत किया जाता है (उदा., <math>A - \bar{A}</math>), माप को केंद्रित कोसाइन समानता कहा जाता है और [[पियर्सन सहसंबंध गुणांक]] के बराबर है। केंद्रीकरण के उदाहरण के लिए, <math>\text{if}\, A = [A_1, A_2]^T, \text{ then } \bar{A} = \left[\frac{(A_1+A_2)}{2},\frac{(A_1+A_2)}{2}\right]^T, \text{ so } A-\bar{A}=  \left[\frac{(A_1-A_2)}{2},\frac{(-A_1+A_2)}{2}\right]^T.</math>
Line 29: Line 29:
=== कोसाइन दूरी ===
=== कोसाइन दूरी ===


शब्द कोसाइन दूरी<ref>{{cite web |url=https://reference.wolfram.com/language/ref/CosineDistance.html |title=कोसाइनडिस्टैंक - वोल्फ्राम लैंग्वेज डॉक्यूमेंटेशन|author=Wolfram Research (2007) |website=wolfram.com}}</ref> सामान्यतः  सकारात्मक स्थान में कोज्या समानता के पूरक के लिए उपयोग किया जाता है, अर्थात
शब्द कोसाइन दूरी<ref>{{cite web |url=https://reference.wolfram.com/language/ref/CosineDistance.html |title=कोसाइनडिस्टैंक - वोल्फ्राम लैंग्वेज डॉक्यूमेंटेशन|author=Wolfram Research (2007) |website=wolfram.com}}</ref> सामान्यतः  सकारात्मक क्षेत्र  में कोज्या समानता के पूरक के लिए उपयोग किया जाता है, अर्थात


: <math> \text{cosine distance} = D_C(A,B) := 1 - S_C(A,B).</math> यह ध्यान रखना महत्वपूर्ण है कि कोसाइन दूरी एक वास्तविक [[दूरी मीट्रिक]] नहीं है क्योंकि यह त्रिकोण असमानता संपत्ति को प्रदर्शित नहीं करती है - या अधिक औपचारिक रूप से, श्वार्ज़ असमानता - और यह संयोग स्वयंसिद्ध का उल्लंघन करती है। इसे देखने का एक विधि ा है कोज्या समानता # गुण कि कोसाइन दूरी वर्ग की यूक्लिडियन दूरी का आधा है <math>L_2</math> सदिशों का सामान्यीकरण, और यूक्लिडियन दूरी का वर्ग त्रिभुज असमानता को भी संतुष्ट नहीं करता है। समान क्रम को बनाए रखते हुए त्रिभुज असमानता संपत्ति की मरम्मत के लिए, कोणीय दूरी या कोसाइन समानता # एल 2-सामान्यीकृत यूक्लिडियन दूरी में परिवर्तित करना आवश्यक है। वैकल्पिक रूप से, त्रिकोणीय असमानता जो कोणीय दूरियों के लिए काम करती है, सीधे कोसाइन के संदर्भ में व्यक्त की जा सकती है; कोसाइन समानता #कोज्या समानता के लिए त्रिभुज असमानता देखें।
: <math> \text{cosine distance} = D_C(A,B) := 1 - S_C(A,B).</math> यह ध्यान रखना महत्वपूर्ण है कि कोसाइन दूरी एक वास्तविक [[दूरी मीट्रिक]] नहीं है क्योंकि यह त्रिकोण असमानता संपत्ति को प्रदर्शित नहीं करती है - या अधिक औपचारिक रूप से, श्वार्ज़ असमानता - और यह संयोग स्वयंसिद्ध का उल्लंघन करती है। इसे देखने का एक विधि ा है कोज्या समानता # गुण कि कोसाइन दूरी वर्ग की यूक्लिडियन दूरी का आधा है <math>L_2</math> सदिशों का सामान्यीकरण, और यूक्लिडियन दूरी का वर्ग त्रिभुज असमानता को भी संतुष्ट नहीं करता है। समान क्रम को बनाए रखते हुए त्रिभुज असमानता संपत्ति की मरम्मत के लिए, कोणीय दूरी या कोसाइन समानता # एल 2-सामान्यीकृत यूक्लिडियन दूरी में परिवर्तित करना आवश्यक है। वैकल्पिक रूप से, त्रिकोणीय असमानता जो कोणीय दूरियों के लिए काम करती है, सीधे कोसाइन के संदर्भ में व्यक्त की जा सकती है; कोसाइन समानता #कोज्या समानता के लिए त्रिभुज असमानता देखें।
Line 97: Line 97:
}}</ref> जिसे इस प्रकार दर्शाया जा सकता है:
}}</ref> जिसे इस प्रकार दर्शाया जा सकता है:
:<math>K =\frac{|A \cap B|}{\sqrt{|A| \times |B|}}</math>
:<math>K =\frac{|A \cap B|}{\sqrt{|A| \times |B|}}</math>
यहाँ, <math>A</math> और <math>B</math> [[सेट (गणित)]] हैं, और <math>|A|</math> में तत्वों की संख्या है <math>A</math>. यदि सेट को बिट वैक्टर के रूप में दर्शाया जाता है, तो ओत्सुका-ओचियाई गुणांक कोसाइन समानता के समान देखा जा सकता है।
यहाँ, <math>A</math> और <math>B</math> [[सेट (गणित)]] हैं, और <math>|A|</math> में तत्वों की संख्या है <math>A</math>. यदि सेट को बिट सदिश  के रूप में दर्शाया जाता है, तो ओत्सुका-ओचियाई गुणांक कोसाइन समानता के समान देखा जा सकता है।


हाल की एक किताब में,<ref name="Howarth2017">{{cite book
हाल की एक किताब में,<ref name="Howarth2017">{{cite book
Line 125: Line 125:
== गुण ==
== गुण ==


कोसाइन समानता की सबसे उल्लेखनीय संपत्ति यह है कि यह अलग-अलग वेक्टर आयामों की तुलना में निरपेक्ष के अतिरिक्त  एक रिश्तेदार को दर्शाती है। किसी भी स्थिरांक के लिए <math>a</math> और वेक्टर <math>V</math>, वैक्टर <math>V</math> और <math>aV</math> अधिकतम समान हैं। माप इस प्रकार डेटा के लिए सबसे उपयुक्त है जहां आवृत्ति निरपेक्ष मूल्यों की तुलना में अधिक महत्वपूर्ण है; विशेष रूप से, दस्तावेजों में शब्द आवृत्ति।
कोसाइन समानता की सबसे उल्लेखनीय संपत्ति यह है कि यह अलग-अलग वेक्टर आयामों की तुलना में निरपेक्ष के अतिरिक्त  एक रिश्तेदार को दर्शाती है। किसी भी स्थिरांक के लिए <math>a</math> और वेक्टर <math>V</math>, सदिश  <math>V</math> और <math>aV</math> अधिकतम समान हैं। माप इस प्रकार डेटा के लिए सबसे उपयुक्त है जहां आवृत्ति निरपेक्ष मूल्यों की तुलना में अधिक महत्वपूर्ण है; विशेष रूप से, दस्तावेजों में शब्द आवृत्ति।
चूंकि  सूचना सिद्धांत में ग्राउंडिंग के साथ हाल ही के मेट्रिक्स, जैसे जेन्सेन-शैनन विचलन | जेन्सेन-शैनन, एसईडी, और त्रिकोणीय विचलन को कम से कम कुछ संदर्भों में बेहतर शब्दार्थ दिखाया गया है।
चूंकि  सूचना सिद्धांत में ग्राउंडिंग के साथ हाल ही के मेट्रिक्स, जैसे जेन्सेन-शैनन विचलन | जेन्सेन-शैनन, एसईडी, और त्रिकोणीय विचलन को कम से कम कुछ संदर्भों में बेहतर शब्दार्थ दिखाया गया है।
<ref>{{cite conference
<ref>{{cite conference
Line 149: Line 149:
यूक्लिडियन दूरी को जीवा दूरी कहा जाता है (क्योंकि यह यूनिट सर्कल पर जीवा की लंबाई है) और यह सदिशों के बीच यूक्लिडियन दूरी है जो उनके भीतर वर्ग मानों के इकाई योग के लिए सामान्यीकृत थे।
यूक्लिडियन दूरी को जीवा दूरी कहा जाता है (क्योंकि यह यूनिट सर्कल पर जीवा की लंबाई है) और यह सदिशों के बीच यूक्लिडियन दूरी है जो उनके भीतर वर्ग मानों के इकाई योग के लिए सामान्यीकृत थे।


'[[अशक्त वितरण]]:' डेटा के लिए जो नकारात्मक और साथ ही सकारात्मक हो सकता है, कोसाइन समानता के लिए अशक्त वितरण दो स्वतंत्र यादृच्छिक इकाई वैक्टर के डॉट उत्पाद का वितरण है। इस बंटन का माध्य शून्य और विचरण है <math>1/n</math> (कहाँ <math>n</math> आयामों की संख्या है), और यद्यपि वितरण -1 और +1 के बीच सीमित है, जैसे <math>n</math> बड़ा होता है वितरण [[सामान्य वितरण]] द्वारा तेजी से अच्छी तरह से अनुमानित है।<ref>{{cite journal
'[[अशक्त वितरण]]:' डेटा के लिए जो नकारात्मक और साथ ही सकारात्मक हो सकता है, कोसाइन समानता के लिए अशक्त वितरण दो स्वतंत्र यादृच्छिक इकाई सदिश  के डॉट गुणन का वितरण है। इस बंटन का माध्य शून्य और विचरण है <math>1/n</math> (कहाँ <math>n</math> आयामों की संख्या है), और यद्यपि वितरण -1 और +1 के बीच सीमित है, जैसे <math>n</math> बड़ा होता है वितरण [[सामान्य वितरण]] द्वारा तेजी से अच्छी तरह से अनुमानित है।<ref>{{cite journal
  | author = Spruill, Marcus C.
  | author = Spruill, Marcus C.
  | year = 2007
  | year = 2007
Line 177: Line 177:
सॉफ्ट कोसाइन की गणना के लिए, मैट्रिक्स {{math|'''s'''}} का उपयोग सुविधाओं के बीच समानता को इंगित करने के लिए किया जाता है। इसकी गणना लेवेनशेटिन दूरी, [[ शब्दतंत्र ]] समानता, या अन्य समानता उपायों के माध्यम से की जा सकती है। फिर हम इस मैट्रिक्स से गुणा करते हैं।
सॉफ्ट कोसाइन की गणना के लिए, मैट्रिक्स {{math|'''s'''}} का उपयोग सुविधाओं के बीच समानता को इंगित करने के लिए किया जाता है। इसकी गणना लेवेनशेटिन दूरी, [[ शब्दतंत्र ]] समानता, या अन्य समानता उपायों के माध्यम से की जा सकती है। फिर हम इस मैट्रिक्स से गुणा करते हैं।


दो दिया {{math|''N''}}-आयाम वैक्टर <math>a</math> और <math>b</math>, सॉफ्ट कोसाइन समानता की गणना निम्नानुसार की जाती है:
दो दिया {{math|''N''}}-आयाम सदिश  <math>a</math> और <math>b</math>, सॉफ्ट कोसाइन समानता की गणना निम्नानुसार की जाती है:


:<math>\begin{align}
:<math>\begin{align}

Revision as of 11:11, 14 May 2023

डेटा विश्लेषण में, कोसाइन समानता आंतरिक गुणन क्षेत्र में परिभाषित दो गैर-शून्य सदिश के बीच समानता का का माप होता है। कोसाइन समानता सदिशों के बीच के कोण की कोज्या होती है; अर्थात्, यह उनकी लंबाई के गुणनफल से विभाजित सदिशों के डॉट का गुणनफल होता है। इससे यह पता चलता है कि कोज्या समानता सदिशों के परिमाण पर निर्भर नहीं करती है, लेकिन केवल उनके कोण पर निर्भर करती है। कोसाइन समानता अधिकांशतः अंतराल से संबंधित होती है। उदाहरण के लिए दो समानुपाती सदिशों में 1 की कोज्या समानता होती है और इस प्रकार दो लंबकोणीय सदिशों की कोसाइन समानता 0 होती है और दो विपरीत सदिश में -1 की समानता होती है। कुछ संदर्भों में, सदिशों के घटक मान ऋणात्मक नहीं हो सकते है और जिस स्थिति में कोसाइन समानता .के रूप में सीमित होती है

उदाहरण के लिए, सूचना पुनर्प्राप्ति और पाठ खनन में, प्रत्येक शब्द को एक अलग निर्देशांक दिया जाता है और दस्तावेज़ में प्रत्येक शब्द की घटनाओं की संख्या के वेक्टर द्वारा एक दस्तावेज़ का प्रतिनिधित्व किया जाता है। कोसाइन समानता तब इस बात का एक उपयोगी माप देती है कि उनकी विषय वस्तु के संदर्भ में और दस्तावेज़ों की लंबाई से स्वतंत्र रूप से दो दस्तावेज़ों के समान होने की कितनी संभावना है।[1] डेटा खनन के क्षेत्र में क्लस्टर के भीतर सामंजस्य को मापने के लिए तकनीक का भी उपयोग किया जाता है।[2] कोसाइन समानता का एक लाभ इसकी कम्प्यूटेशनल जटिलता है, विशेष रूप से विरल मैट्रिक्स के लिए: केवल गैर-शून्य निर्देशांक पर विचार करने की आवश्यकता है।

कोसाइन समानता के अन्य नामों में सम्मलित हैं ओरचिनी समानता और सर्वांगसमता का टकर गुणांक; ओत्सुका-ओचियाई समानता (नीचे देखें) बाइनरी डेटा पर लागू कोसाइन समानता है।

परिभाषा

यूक्लिडियन वेक्टर#डॉट गुणन सूत्र का उपयोग करके दो गैर-शून्य सदिश की कोज्या प्राप्त की जा सकती है:

गुणों के दो एन-आयामी वेक्टर (ज्यामितीय) को देखते हुए, 'ए' और 'बी', कोसाइन समानता, cos(θ), एक डॉट गुणन और परिमाण (गणित) #यूक्लिडियन वेक्टर स्पेस का उपयोग करके दर्शाया गया है

कहाँ और हैं वें यूक्लिडियन वेक्टर#सदिशों का अपघटन और , क्रमश।

परिणामी समानता -1 से लेकर होती है जिसका अर्थ बिल्कुल विपरीत होता है, 1 का अर्थ बिल्कुल समान होता है, 0 के साथ ओर्थोगोनालिटी या अलंकरण का संकेत मिलता है, जबकि बीच के मान मध्यवर्ती समानता या असमानता का संकेत देते हैं।

अनुमानित स्ट्रिंग मिलान के लिए, विशेषता वेक्टर ए और बी सामान्यतः दस्तावेजों के टीएफ-आईडीएफ सदिश होते हैं। कोसाइन समानता को तुलना के दौरान सामान्यीकरण (सांख्यिकी) दस्तावेज़ लंबाई की एक विधि के रूप में देखा जा सकता है। सूचना पुनर्प्राप्ति के स्थितियों में, दो दस्तावेज़ों की कोसाइन समानता की सीमा होगी , क्योंकि पद आवृत्ति ऋणात्मक नहीं हो सकती। tf-idf|TF-IDF वज़न का उपयोग करते समय यह सही रहता है। दो टर्म फ़्रीक्वेंसी सदिश के बीच का कोण 90° से ज़्यादा नहीं हो सकता।

यदि विशेषता सदिशों को सदिश माध्यों को घटाकर सामान्यीकृत किया जाता है (उदा., ), माप को केंद्रित कोसाइन समानता कहा जाता है और पियर्सन सहसंबंध गुणांक के बराबर है। केंद्रीकरण के उदाहरण के लिए,


कोसाइन दूरी

शब्द कोसाइन दूरी[3] सामान्यतः सकारात्मक क्षेत्र में कोज्या समानता के पूरक के लिए उपयोग किया जाता है, अर्थात

यह ध्यान रखना महत्वपूर्ण है कि कोसाइन दूरी एक वास्तविक दूरी मीट्रिक नहीं है क्योंकि यह त्रिकोण असमानता संपत्ति को प्रदर्शित नहीं करती है - या अधिक औपचारिक रूप से, श्वार्ज़ असमानता - और यह संयोग स्वयंसिद्ध का उल्लंघन करती है। इसे देखने का एक विधि ा है कोज्या समानता # गुण कि कोसाइन दूरी वर्ग की यूक्लिडियन दूरी का आधा है सदिशों का सामान्यीकरण, और यूक्लिडियन दूरी का वर्ग त्रिभुज असमानता को भी संतुष्ट नहीं करता है। समान क्रम को बनाए रखते हुए त्रिभुज असमानता संपत्ति की मरम्मत के लिए, कोणीय दूरी या कोसाइन समानता # एल 2-सामान्यीकृत यूक्लिडियन दूरी में परिवर्तित करना आवश्यक है। वैकल्पिक रूप से, त्रिकोणीय असमानता जो कोणीय दूरियों के लिए काम करती है, सीधे कोसाइन के संदर्भ में व्यक्त की जा सकती है; कोसाइन समानता #कोज्या समानता के लिए त्रिभुज असमानता देखें।

कोणीय दूरी और समानता

सामान्यीकृत कोण, जिसे किन्हीं दो सदिशों के बीच कोणीय दूरी कहा जाता है और एक औपचारिक दूरी मीट्रिक है और इसकी गणना कोसाइन समानता से की जा सकती है।[4] कोणीय दूरी मीट्रिक के पूरक का उपयोग तब 0 और 1 के बीच घिरे हुए कोणीय समानता फ़ंक्शन को परिभाषित करने के लिए किया जा सकता है।

जब सदिश तत्व धनात्मक या ऋणात्मक हो सकते हैं:

या, यदि वेक्टर तत्व हमेशा सकारात्मक होते हैं:

दुर्भाग्य से, व्युत्क्रम कोसाइन की गणना (arccos) फ़ंक्शन धीमा है, ऊपर की अधिक सामान्य (लेकिन मीट्रिक नहीं) कोसाइन दूरी का उपयोग करने की तुलना में कोणीय दूरी का उपयोग अधिक कम्प्यूटेशनल रूप से महंगा है।

एल2सामान्यीकृत यूक्लिडियन दूरी

कोसाइन दूरी के लिए एक और प्रभावी प्रतिनिधि Norm_(mathematics)#Euclidean_norm| सदिशों का सामान्यीकरण, उसके बाद सामान्य यूक्लिडियन दूरी का अनुप्रयोग। इस तकनीक का उपयोग करते हुए प्रत्येक सदिश में प्रत्येक पद को पहले सदिश के परिमाण से विभाजित किया जाता है, जिससे इकाई लंबाई का सदिश प्राप्त होता है। फिर किन्हीं दो सदिशों के अंत-बिंदुओं पर यूक्लिडियन दूरी एक उचित मीट्रिक है जो सदिशों की किसी भी तुलना के लिए कोसाइन दूरी (यूक्लिडियन दूरी का एक मोनोटोनिक परिवर्तन; देखें कोसाइन समानता#गुण) के समान क्रम देता है, और इसके अतिरिक्त सदिशों की तुलना से बचता है एक उचित मीट्रिक प्राप्त करने के लिए संभावित रूप से महंगे त्रिकोणमितीय संचालन की आवश्यकता होती है। एक बार सामान्यीकरण हो जाने के बाद, वेक्टर स्पेस का उपयोग किसी भी यूक्लिडियन स्पेस के लिए उपलब्ध तकनीकों की पूरी श्रृंखला के साथ किया जा सकता है, विशेष रूप से मानक आयामीता में कमी तकनीक। यह सामान्यीकृत फॉर्म दूरी अधिकांशतः कई गहन शिक्षण एल्गोरिदम में उपयोग की जाती है।

ओत्सुका-ओचियाई गुणांक

जीव विज्ञान में, एक ऐसी ही अवधारणा है जिसे ओत्सुका-ओचियाई गुणांक के रूप में जाना जाता है।[5] Japanese: 大塚 弥之助)[6] और अकीरा ओचियाई (Japanese: 落合 明),[7] ओचियाई-बार्कमैन के रूप में भी जाना जाता है[8] या ओचियाई गुणांक,[9] जिसे इस प्रकार दर्शाया जा सकता है:

यहाँ, और सेट (गणित) हैं, और में तत्वों की संख्या है . यदि सेट को बिट सदिश के रूप में दर्शाया जाता है, तो ओत्सुका-ओचियाई गुणांक कोसाइन समानता के समान देखा जा सकता है।

हाल की एक किताब में,[10] गुणांक को ओत्सुका परिवार के नाम वाले एक अन्य जापानी शोधकर्ता को गलत विधि े से आरोपित किया गया है। भ्रम उत्पन्न होता है क्योंकि 1957 में अकीरा ओचियाई गुणांक को केवल ओत्सुका (पहले नाम का उल्लेख नहीं) के लिए जिम्मेदार ठहराते हैं।[7]इकुसो हमाई के एक लेख का हवाला देते हुए (Japanese: 浜井 生三),[11] जो बदले में यानोसुके ओत्सुका के मूल 1936 के लेख का हवाला देते हैं।[6]


गुण

कोसाइन समानता की सबसे उल्लेखनीय संपत्ति यह है कि यह अलग-अलग वेक्टर आयामों की तुलना में निरपेक्ष के अतिरिक्त एक रिश्तेदार को दर्शाती है। किसी भी स्थिरांक के लिए और वेक्टर , सदिश और अधिकतम समान हैं। माप इस प्रकार डेटा के लिए सबसे उपयुक्त है जहां आवृत्ति निरपेक्ष मूल्यों की तुलना में अधिक महत्वपूर्ण है; विशेष रूप से, दस्तावेजों में शब्द आवृत्ति। चूंकि सूचना सिद्धांत में ग्राउंडिंग के साथ हाल ही के मेट्रिक्स, जैसे जेन्सेन-शैनन विचलन | जेन्सेन-शैनन, एसईडी, और त्रिकोणीय विचलन को कम से कम कुछ संदर्भों में बेहतर शब्दार्थ दिखाया गया है। [12] कोसाइन समानता यूक्लिडियन दूरी से निम्नानुसार संबंधित है। यूक्लिडियन दूरी को सामान्य रूप से निरूपित करें , और उसका निरीक्षण करें

(ध्रुवीकरण पहचान#Relation_to_the_law_of_cosines)

बहुपद विस्तार द्वारा। कब A और B इकाई लंबाई के लिए सामान्यीकृत हैं, तो यह अभिव्यक्ति के बराबर है

संक्षेप में, कोसाइन दूरी को यूक्लिडियन दूरी के रूप में व्यक्त किया जा सकता है

.

यूक्लिडियन दूरी को जीवा दूरी कहा जाता है (क्योंकि यह यूनिट सर्कल पर जीवा की लंबाई है) और यह सदिशों के बीच यूक्लिडियन दूरी है जो उनके भीतर वर्ग मानों के इकाई योग के लिए सामान्यीकृत थे।

'अशक्त वितरण:' डेटा के लिए जो नकारात्मक और साथ ही सकारात्मक हो सकता है, कोसाइन समानता के लिए अशक्त वितरण दो स्वतंत्र यादृच्छिक इकाई सदिश के डॉट गुणन का वितरण है। इस बंटन का माध्य शून्य और विचरण है (कहाँ आयामों की संख्या है), और यद्यपि वितरण -1 और +1 के बीच सीमित है, जैसे बड़ा होता है वितरण सामान्य वितरण द्वारा तेजी से अच्छी तरह से अनुमानित है।[13][14] अन्य प्रकार के डेटा जैसे bitstream , जो केवल मान 0 या 1 लेते हैं, अशक्त वितरण एक अलग रूप लेता है और इसका एक गैर-शून्य माध्य हो सकता है।[15]


कोज्या समानता के लिए त्रिभुज असमानता

कोणों के लिए साधारण त्रिभुज असमानता (अर्थात , एक इकाई हाइपरस्फीयर पर चाप की लंबाई) हमें वह देती है

क्योंकि कोज्या फलन एक कोण के रूप में घटता है [0, π] रेडियन बढ़ता है, तो इन असमानताओं की भावना उलट जाती है जब हम प्रत्येक मूल्य का कोसाइन लेते हैं:

कोसाइन जोड़ और घटाव सूत्रों का उपयोग करके, इन दो असमानताओं को मूल कोसाइन के रूप में लिखा जा सकता है,

त्रिभुज असमानता के इस रूप का उपयोग दो वस्तुओं ए और बी की न्यूनतम और अधिकतम समानता को सीमित करने के लिए किया जा सकता है यदि किसी संदर्भ वस्तु सी की समानता पहले से ही ज्ञात हो। इसका उपयोग उदाहरण के लिए मीट्रिक डेटा इंडेक्सिंग में किया जाता है, लेकिन इसका उपयोग गोलाकार k-मतलब क्लस्टरिंग में तेजी लाने के लिए भी किया जाता है[16] उसी तरह यूक्लिडियन त्रिकोण असमानता का उपयोग नियमित के-साधनों को तेज करने के लिए किया गया है।

शीतल कोसाइन उपाय

दो सदिशों के बीच एक नरम कोसाइन या (नरम समानता) सुविधाओं के जोड़े के बीच समानता पर विचार करता है।[17] पारंपरिक कोसाइन समानता वेक्टर अंतरिक्ष मॉडल (वीएसएम) सुविधाओं को स्वतंत्र या पूरी तरह से अलग मानती है, जबकि सॉफ्ट कोसाइन उपाय वीएसएम में सुविधाओं की समानता पर विचार करने का प्रस्ताव करता है, जो कोसाइन (और सॉफ्ट कोसाइन) की अवधारणा के साथ-साथ विचार को सामान्य बनाने में मदद करता है। (मुलायम) समानता।

उदाहरण के लिए, प्राकृतिक भाषा प्रसंस्करण (एनएलपी) के क्षेत्र में सुविधाओं के बीच समानता बहुत सहज है। शब्द, एन-ग्राम|एन-ग्राम, या वाक्यात्मक एन-ग्राम जैसी विशेषताएं[18] बहुत सीमा तक समान हो सकते हैं, चूंकि औपचारिक रूप से उन्हें वीएसएम में विभिन्न विशेषताओं के रूप में माना जाता है। उदाहरण के लिए, शब्द "प्ले" और "गेम" अलग-अलग शब्द हैं और इस प्रकार वीएसएम में विभिन्न बिंदुओं पर मैप किए गए; फिर भी वे शब्दार्थ से संबंधित हैं। एन-ग्राम या सिंटैक्टिक एन-ग्राम के स्थितियों में, लेवेनशेटिन दूरी को लागू किया जा सकता है (वास्तव में, लेवेनशेटिन दूरी को शब्दों पर भी लागू किया जा सकता है)।

सॉफ्ट कोसाइन की गणना के लिए, मैट्रिक्स s का उपयोग सुविधाओं के बीच समानता को इंगित करने के लिए किया जाता है। इसकी गणना लेवेनशेटिन दूरी, शब्दतंत्र समानता, या अन्य समानता उपायों के माध्यम से की जा सकती है। फिर हम इस मैट्रिक्स से गुणा करते हैं।

दो दिया N-आयाम सदिश और , सॉफ्ट कोसाइन समानता की गणना निम्नानुसार की जाती है:

कहाँ sij = similarity(featurei, featurej).

यदि सुविधाओं के बीच कोई समानता नहीं है (sii = 1, sij = 0 के लिए ij), दिया गया समीकरण पारंपरिक कोसाइन समानता सूत्र के बराबर है।

इस उपाय की समय जटिलता द्विघात है, जो इसे वास्तविक दुनिया के कार्यों पर लागू करती है। ध्यान दें कि जटिलता को सबक्वाड्रैटिक में कम किया जा सकता है।[19] ऐसी सॉफ्ट कोसाइन समानता का एक कुशल कार्यान्वयन Gensim ओपन सोर्स लाइब्रेरी में सम्मलित है।

यह भी देखें

संदर्भ

  1. Singhal, Amit (2001). "Modern Information Retrieval: A Brief Overview". Bulletin of the IEEE Computer Society Technical Committee on Data Engineering 24 (4): 35–43.
  2. P.-N. Tan, M. Steinbach & V. Kumar, Introduction to Data Mining, Addison-Wesley (2005), ISBN 0-321-32136-7, chapter 8; page 500.
  3. Wolfram Research (2007). "कोसाइनडिस्टैंक - वोल्फ्राम लैंग्वेज डॉक्यूमेंटेशन". wolfram.com.
  4. "कोसाइन दूरी, कोसाइन समानता, कोणीय कोसाइन दूरी, कोणीय कोसाइन समानता". www.itl.nist.gov. Retrieved 2020-07-11.
  5. Omori, Masae (2004). "Geological idea of Yanosuke Otuka, who built the foundation of neotectonics (geoscientist)". Earth Science. 58 (4): 256–259. doi:10.15080/agcjchikyukagaku.58.4_256.
  6. 6.0 6.1 Otsuka, Yanosuke (1936). "The faunal character of the Japanese Pleistocene marine Mollusca, as evidence of the climate having become colder during the Pleistocene in Japan". Bulletin of the Biogeographical Society of Japan. 6 (16): 165–170.
  7. 7.0 7.1 Ochiai, Akira (1957). "Zoogeographical studies on the soleoid fishes found in Japan and its neighhouring regions-II". Bulletin of the Japanese Society of Scientific Fisheries. 22 (9): 526–530. doi:10.2331/suisan.22.526.
  8. Barkman, Jan J. (1958). Phytosociology and Ecology of Cryptogamic Epiphytes: Including a Taxonomic Survey and Description of Their Vegetation Units in Europe. Assen: Van Gorcum.
  9. H. Charles Romesburg (1984). Cluster Analysis for Researchers. Belmont, California: Lifetime Learning Publications. p. 149.
  10. Howarth, Richard J. (2017). Dictionary of Mathematical Geosciences: With Historical Notes. Cham: Springer. p. 421. doi:10.1007/978-3-319-57315-1. ISBN 978-3-319-57314-4. S2CID 67081034.
  11. Hamai, Ikuso (1955). "Stratification of community by means of "community coefficient" (continued)". Japanese Journal of Ecology. 5 (1): 41–45. doi:10.18960/seitai.5.1_41.
  12. Connor, Richard (2016). A Tale of Four Metrics. Similarity Search and Applications. Tokyo: Springer. doi:10.1007/978-3-319-46759-7_16.
  13. Spruill, Marcus C. (2007). "Asymptotic distribution of coordinates on high dimensional spheres". Electronic Communications in Probability. 12: 234–247. doi:10.1214/ECP.v12-1294.
  14. "Distribution of dot products between two random unit vectors in RD". CrossValidated.
  15. Graham L. Giller (2012). "रैंडम बिटस्ट्रीम के सांख्यिकीय गुण और कोसाइन समानता का नमूना वितरण". Giller Investments Research Notes (20121024/1). doi:10.2139/ssrn.2167044. S2CID 123332455.
  16. Schubert, Erich; Lang, Andreas; Feher, Gloria (2021). Reyes, Nora; Connor, Richard; Kriege, Nils; Kazempour, Daniyal; Bartolini, Ilaria; Schubert, Erich; Chen, Jian-Jia (eds.). "गोलाकार के-मीन्स को तेज करना". Similarity Search and Applications. Lecture Notes in Computer Science (in English). Cham: Springer International Publishing. 13058: 217–231. arXiv:2107.04074. doi:10.1007/978-3-030-89657-7_17. ISBN 978-3-030-89657-7. S2CID 235790358.
  17. Sidorov, Grigori; Gelbukh, Alexander; Gómez-Adorno, Helena; Pinto, David (29 September 2014). "Soft Similarity and Soft Cosine Measure: Similarity of Features in Vector Space Model". Computación y Sistemas. 18 (3): 491–504. doi:10.13053/CyS-18-3-2043. Retrieved 7 October 2014.
  18. Sidorov, Grigori; Velasquez, Francisco; Stamatatos, Efstathios; Gelbukh, Alexander; Chanona-Hernández, Liliana (2013). कम्प्यूटेशनल इंटेलिजेंस में अग्रिम. Lecture Notes in Computer Science. Vol. 7630. LNAI 7630. pp. 1–11. doi:10.1007/978-3-642-37798-3_1. ISBN 978-3-642-37798-3.
  19. Novotný, Vít (2018). सॉफ्ट कोसाइन उपाय के लिए कार्यान्वयन नोट्स. The 27th ACM International Conference on Information and Knowledge Management. Torun, Italy: Association for Computing Machinery. pp. 1639–1642. arXiv:1808.09407. doi:10.1145/3269206.3269317. ISBN 978-1-4503-6014-2.


बाहरी संबंध