नाँलेज ग्राफ एम्बेडिंग: Difference between revisions
No edit summary |
m (17 revisions imported from alpha:नाँलेज_ग्राफ_एम्बेडिंग) |
||
(3 intermediate revisions by 3 users not shown) | |||
Line 10: | Line 10: | ||
# प्रतिनिधित्व समष्टि: निम्न-आयामी समष्टि जिसमें एम्बेडिंग और संबंधों का प्रतिनिधित्व किया जाता है।<ref name=":0" /> | # प्रतिनिधित्व समष्टि: निम्न-आयामी समष्टि जिसमें एम्बेडिंग और संबंधों का प्रतिनिधित्व किया जाता है।<ref name=":0" /> | ||
#स्कोरिंग फलन: ट्रिपल एम्बेडेड प्रतिनिधित्व की स्पष्टता का | #स्कोरिंग फलन: ट्रिपल एम्बेडेड प्रतिनिधित्व की स्पष्टता का एक उपाय है।<ref name=":0" /> | ||
#एन्कोडिंग मॉडल: वह पद्धति जिसमें एम्बेडिंग और संबंधों का एम्बेडेड प्रतिनिधित्व दूसरे के साथ परस्पर क्रिया करता है।<ref name=":0" /> | #एन्कोडिंग मॉडल: वह पद्धति जिसमें एम्बेडिंग और संबंधों का एम्बेडेड प्रतिनिधित्व दूसरे के साथ परस्पर क्रिया करता है।<ref name=":0" /> | ||
#अतिरिक्त सूचना: नाँलेज ग्राफ से आने वाली कोई भी अतिरिक्त सूचना जो एम्बेडेड प्रतिनिधित्व को समृद्ध कर सकती है।<ref name=":0" /> सामान्यतः, प्रत्येक अतिरिक्त सूचना के लिए तदर्थ स्कोरिंग फलन को सामान्य स्कोरिंग फलन में पूर्ण रूप से एकीकृत किया जाता है।<ref name=":1" /><ref name=":0" /><ref>{{Cite book|last1=Guo|first1=Shu|last2=Wang|first2=Quan|last3=Wang|first3=Bin|last4=Wang|first4=Lihong|last5=Guo|first5=Li|title=Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 1: Long Papers) |chapter=Semantically Smooth Knowledge Graph Embedding |date=2015|chapter-url=http://aclweb.org/anthology/P15-1009 |language=en |publisher=Association for Computational Linguistics|pages=84–94|doi=10.3115/v1/P15-1009|s2cid=205692|doi-access=free}}</ref> | #अतिरिक्त सूचना: नाँलेज ग्राफ से आने वाली कोई भी अतिरिक्त सूचना जो एम्बेडेड प्रतिनिधित्व को समृद्ध कर सकती है।<ref name=":0" /> सामान्यतः, प्रत्येक अतिरिक्त सूचना के लिए तदर्थ स्कोरिंग फलन को सामान्य स्कोरिंग फलन में पूर्ण रूप से एकीकृत किया जाता है।<ref name=":1" /><ref name=":0" /><ref>{{Cite book|last1=Guo|first1=Shu|last2=Wang|first2=Quan|last3=Wang|first3=Bin|last4=Wang|first4=Lihong|last5=Guo|first5=Li|title=Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 1: Long Papers) |chapter=Semantically Smooth Knowledge Graph Embedding |date=2015|chapter-url=http://aclweb.org/anthology/P15-1009 |language=en |publisher=Association for Computational Linguistics|pages=84–94|doi=10.3115/v1/P15-1009|s2cid=205692|doi-access=free}}</ref> | ||
Line 550: | Line 550: | ||
[[Category: Machine Translated Page]] | [[Category: Machine Translated Page]] | ||
[[Category:Created On 07/12/2023]] | [[Category:Created On 07/12/2023]] | ||
[[Category:Vigyan Ready]] |
Latest revision as of 22:14, 18 December 2023
प्रतिनिधित्व शिक्षण में, नाँलेज ग्राफ एम्बेडिंग (KGE), जिसे नाँलेज प्रतिनिधित्व शिक्षण (KRL), या बहु-संबंध शिक्षण भी कहा जाता है,[1] नाँलेज ग्राफ की एम्बेडिंग और संबंधों के अर्थपूर्ण अर्थ को संरक्षित करते हुए उनके निम्न-आयामी प्रतिनिधित्व को सीखने का एक मशीन सीखने का क्रिया है।[1][2][3] उनके एम्बेडिंग प्रतिनिधित्व का लाभ उठाते हुए, नाँलेज ग्राफ़ (केजी) का उपयोग लिंक भविष्यवाणी, ट्रिपल वर्गीकरण, इकाई मान्यता, क्लस्टर विश्लेषण और संबंध निष्कर्षण जैसे विभिन्न अनुप्रयोगों के लिए किया जा सकता है।[1][4]
परिभाषा
इस प्रकार से एक नाँलेज ग्राफ इकाई , संबंध , और तथ्य का एक संग्रह है।[5] एक तथ्य एक ट्रिपल है जो ट्रिपल के शीर्ष और पुंछ के बीच एक लिंक को दर्शाता है। इस प्रकार से एक अन्य संकेतन जो प्रायः साहित्य में ट्रिपल (या तथ्य) का प्रतिनिधित्व करने के लिए उपयोग किया जाता है अर्थात । इस नोटेशन को संसाधन विवरण संरचना (आरडीएफ) कहा जाता है।[1][5] एक नाँलेज ग्राफ़ विशिष्ट डोमेन से संबंधित नाँलेज का प्रतिनिधित्व करता है; इस संरचित प्रतिनिधित्व का लाभ उठाते हुए, कुछ शोधन चरणों के बाद इससे नवीन नाँलेज का अनुमान लगाना संभव है।[6] यद्यपि, आजकल, लोगों को वास्तविक संसार के एप्लिकेशन में उनका उपयोग करने के लिए डेटा की विरलता और कम्प्यूटेशनल अक्षमता से निपटना पड़ता है।[3][7]
अतः नाँलेज ग्राफ का एम्बेडिंग प्रत्येक इकाई और नाँलेज ग्राफ के संबंध, को किसी दिए गए आयाम , के सदिश में अनुवादित करता है, जिसे एम्बेडिंग आयाम कहा जाता है।[7] सामान्य स्थिति में, हमारे निकट इकाई और संबंध के लिए अलग-अलग एम्बेडिंग आयाम हो सकते हैं।[7] नाँलेज ग्राफ में सभी एम्बेडिंग और संबंधों के लिए एम्बेडिंग सदिश का संग्रह तब डाउनस्ट्रीम क्रियाओं के लिए पूर्ण रूप से उपयोग किया जा सकता है।
इस प्रकार से एक नाँलेज ग्राफ़ एम्बेडिंग को चार अलग-अलग निम्नलिखित गुणों की विशेषता है:[1]
- प्रतिनिधित्व समष्टि: निम्न-आयामी समष्टि जिसमें एम्बेडिंग और संबंधों का प्रतिनिधित्व किया जाता है।[1]
- स्कोरिंग फलन: ट्रिपल एम्बेडेड प्रतिनिधित्व की स्पष्टता का एक उपाय है।[1]
- एन्कोडिंग मॉडल: वह पद्धति जिसमें एम्बेडिंग और संबंधों का एम्बेडेड प्रतिनिधित्व दूसरे के साथ परस्पर क्रिया करता है।[1]
- अतिरिक्त सूचना: नाँलेज ग्राफ से आने वाली कोई भी अतिरिक्त सूचना जो एम्बेडेड प्रतिनिधित्व को समृद्ध कर सकती है।[1] सामान्यतः, प्रत्येक अतिरिक्त सूचना के लिए तदर्थ स्कोरिंग फलन को सामान्य स्कोरिंग फलन में पूर्ण रूप से एकीकृत किया जाता है।[5][1][8]
एंबेडिंग प्रक्रिया
अतः सभी अलग-अलग नाँलेज ग्राफ एम्बेडिंग मॉडल तथ्यों के अर्थपूर्ण अर्थ को जानने के लिए लगभग एक ही प्रक्रिया का पालन करते हैं।[7] सबसे पहले, नाँलेज ग्राफ के एम्बेडेड प्रतिनिधित्व को सीखने के लिए, एम्बेडिंग और संबंधों के एम्बेडिंग सदिश को यादृच्छिक मानों के लिए प्रारंभ किया जाता है।[7] फिर, प्रशिक्षण सेट से प्रारंभ करके स्टॉप स्थिति तक पहुंचने तक, एल्गोरिदम निरंतर एम्बेडिंग को अनुकूलित करता है।[7] सामान्यतः, स्टॉप की स्थिति प्रशिक्षण सेट पर ओवरफिटिंग द्वारा दी जाती है।[7] प्रत्येक पुनरावृत्ति के लिए, प्रशिक्षण सेट से आकार के एक बैच का प्रतिदर्श लिया जाता है, और बैच के प्रत्येक ट्रिपल के लिए एक यादृच्छिक भ्रष्ट तथ्य का प्रतिदर्श लिया जाता है—अर्थात, ट्रिपल जो नाँलेज ग्राफ में उचित तथ्य का प्रतिनिधित्व नहीं करता है।[7] ट्रिपल के भ्रष्टाचार में ट्रिपल के शीर्ष या पूंछ (या दोनों) को किसी अन्य इकाई के साथ प्रतिस्थापित करना सम्मिलित है जो तथ्य को अनुचित बनाता है।[7] इस प्रकार से मूल ट्रिपल और दूषित ट्रिपल को प्रशिक्षण बैच में जोड़ा जाता है, और फिर स्कोरिंग फलन को अनुकूलित करते हुए एम्बेडिंग को अपडेट किया जाता है।[5][7] एल्गोरिदम के अंत में, सीखे गए एम्बेडिंग को ट्रिपल से अर्थपूर्ण अर्थ निकालना चाहिए और नाँलेज ग्राफ में अनदेखे उचित तथ्यों की उचित भविष्यवाणी करनी चाहिए।[5]
स्यूडोकोड
इस प्रकार से सामान्य एम्बेडिंग प्रक्रिया के लिए छद्मकोड निम्नलिखित है।[9][7]
algorithm Compute entity and relation embeddings is input: The training set , entity set , relation set , embedding dimension output: Entity and relation embeddings initialization: the entities and relations embeddings (vectors) are randomly initialized while stop condition do // From the training set randomly sample a batch of size b for each in do // sample a corrupted fact of triple end for Update embeddings by minimizing the loss function end while
परफॉरमेंस संकेतक
अतः इन सूचकांकों का उपयोग प्रायः किसी मॉडल की एम्बेडिंग गुणवत्ता को मापने के लिए किया जाता है। सूचकांकों की सरलता उन्हें बड़े पैमाने पर भी एम्बेडिंग एल्गोरिदम के परफॉरमेंस का मूल्यांकन करने के लिए बहुत उपयुक्त बनाती है।[10] इस प्रकार से किसी मॉडल की सभी पद की गई भविष्यवाणियों के सेट के रूप में को देखते हुए, तीन अलग-अलग परफॉरमेंस सूचकांकों को परिभाषित करना संभव है: Hits@K, MR, और MRR।[10]
Hits@K
Hits@K या संक्षेप में, H@K, परफॉरमेंस सूचकांक है जो पहले शीर्ष के मॉडल भविष्यवाणियों में उचित भविष्यवाणी खोजने की संभावना को मापता है।[10] सामान्यतः इसका प्रयोग किया जाता है।[10] इस प्रकार से Hits@K दो दिए गए ट्रिपल के बीच संबंध की उचित भविष्यवाणी करने के लिए एम्बेडिंग मॉडल की यथार्थता को दर्शाता है।[10]
Hits@K
बड़े मानों का अर्थ स्पष्ट अनुमानित परफॉरमेंस है।[10]
औसत पद (एमआर)
औसत पद सभी संभावित वस्तुओं के बीच मॉडल द्वारा अनुमानित वस्तुओं की औसत पद स्थिति है।[10]
अतः मान जितना छोटा होगा, मॉडल उतना ही स्पष्ट होगा।[10]
माध्य पारस्परिक पद (एमआरआर)
माध्य पारस्परिक पद उचित रूप से अनुमानित ट्रिपल की संख्या को मापता है।[10] यदि पहला अनुमानित ट्रिपल उचित है, तो 1 जोड़ा जाता है, यदि दूसरा उचित है तो का योग किया जाता है, और इसी प्रकार।[10]
अतः औसत पारस्परिक पद का उपयोग सामान्यतः खोज एल्गोरिदम के प्रभाव को मापने के लिए किया जाता है।[10]
इस प्रकार से सूचकांक जितना बड़ा होगा, मॉडल उतना ही स्पष्ट होगा।[10]
अनुप्रयोग
मशीन लर्निंग क्रिया
अतः नाँलेज ग्राफ पूर्णता (केजीसी) एम्बेडेड नाँलेज ग्राफ प्रतिनिधित्व से नाँलेज का अनुमान लगाने के लिए तकनीकों का संग्रह है।[11] विशेष रूप से, यह तकनीक लुप्त इकाई या संबंध का अनुमान लगाते हुए ट्रिपल को पूर्ण करती है।[11] संबंधित उप-क्रियाओं को लिंक या इकाई भविष्यवाणी (अर्थात, ट्रिपल की दूसरी इकाई और संबंध को देखते हुए एम्बेडिंग से इकाई का अनुमान लगाना), और संबंध भविष्यवाणी (अर्थात, दो इकाइयों को जोड़ने वाले सबसे प्रशंसनीय संबंध की भविष्यवाणी करना) नाम दिया गया है।[11]
इस प्रकार से ट्रिपल वर्गीकरण द्विआधारी वर्गीकरण समस्या है।[1] एक ट्रिपल को देखते हुए, प्रशिक्षित मॉडल एम्बेडिंग का उपयोग करके ट्रिपल की संभाव्यता का मूल्यांकन करता है ताकि यह निर्धारित किया जा सके कि ट्रिपल उचित है या अनुचित।[11] अतः निर्णय मॉडल स्कोर फलन और दी गई सीमा के साथ किया जाता है।[11] क्लस्टरिंग अन्य एप्लिकेशन है जो 2डी स्पेस में समान सिमेंटिक इकाइयों के प्रतिनिधित्व को संक्षिप्त करने के लिए विरल नाँलेज ग्राफ के एम्बेडेड प्रतिनिधित्व का पूर्ण रूप से लाभ उठाता है।[4]
वास्तविक संसार के अनुप्रयोग
कई अनुप्रयोगों में नाँलेज ग्राफ एम्बेडिंग का उपयोग तीव्र से व्यापक हो रहा है। अतः अनुशंसा प्रणाली की स्थिति में, नाँलेज ग्राफ एम्बेडिंग का उपयोग सामान्य सुदृढीकरण सीखने की सीमाओं को दूर कर सकता है।[12][13] इस प्रकार की अनुशंसा प्रणाली को प्रशिक्षित करने के लिए उपयोगकर्ताओं से भारी मात्रा में सूचना की आवश्यकता होती है; यद्यपि, नाँलेज ग्राफ़ तकनीकें आइटम सहसंबंध के पूर्व नाँलेज पर पहले से ही बनाए गए ग्राफ़ का उपयोग करके और उससे अनुशंसा का अनुमान लगाने के लिए एम्बेडिंग का उपयोग करके इस समस्या को पूर्ण रूप से हल कर सकती हैं।[12] इस प्रकार से औषधि पुनर्प्रयोजन पहले से ही अनुमोदित औषधि का उपयोग है,परंतु चिकित्सीय उद्देश्य के लिए उस उद्देश्य से भिन्न होता है जिसके लिए इसे प्रारंभ में डिज़ाइन किया गया था।[14] बड़े पैमाने पर साहित्य और जैव चिकित्सा डेटाबेस की उपलब्धता का लाभ उठाकर निर्मित जैव चिकित्सा नाँलेज ग्राफ का उपयोग करके पहले से स्थित औषधि और बीमारी के बीच नवीन संबंध का अनुमान लगाने के लिए लिंक भविष्यवाणी के क्रिया का उपयोग करना संभव है।[14] अतः नाँलेज ग्राफ एम्बेडिंग का उपयोग सामाजिक राजनीति के क्षेत्र में भी किया जा सकता है।[4]
मॉडल
इस प्रकार से ट्रिपल (या तथ्यों) के संग्रह को देखते हुए, नाँलेज ग्राफ एम्बेडिंग मॉडल नाँलेज ग्राफ में स्थित प्रत्येक इकाई और संबंध के लिए एक सतत सदिश प्रतिनिधित्व उत्पन्न करता है।[7] अतः , और के साथ ट्रिपल का संगत एम्बेडिंग है, जहां एम्बेडिंग के लिए एम्बेडिंग आयाम है, और संबंधों के लिए है।[7] अतः किसी दिए गए मॉडल का स्कोर फलन द्वारा दर्शाया गया है और संबंध के एम्बेडिंग को देखते हुए पूंछ के एम्बेडिंग से शीर्ष के एम्बेडिंग की दूरी को मापता है, या दूसरे शब्दों में, यह किसी दिए गए तथ्य के एम्बेडेड प्रतिनिधित्व की संभाव्यता को मापता है।[5]
इस प्रकार से रॉसी एट अल. एम्बेडिंग मॉडल की वर्गीकरण का प्रस्ताव करें और मॉडल के तीन मुख्य वर्गों की पहचान करें: टेंसर अपघटन मॉडल, ज्यामितीय मॉडल और गहन शिक्षण मॉडल।[5]
टेंसर अपघटन मॉडल
अतः टेंसर अपघटन नाँलेज ग्राफ एम्बेडिंग मॉडल का वर्ग है जो नाँलेज ग्राफ का प्रतिनिधित्व करने के लिए बहु-आयामी आव्यूह का उपयोग करता है,[1][5][17] यह किसी विशेष डोमेन का पूर्ण रूप से वर्णन करने वाले नाँलेज ग्राफ के अंतराल के कारण आंशिक रूप से जानने योग्य है।[5] इस प्रकार से विशेष रूप से, ये मॉडल तीन-पक्षीय (3डी) टेन्सर का उपयोग करते हैं, जिसे बाद में निम्न-आयामी सदिश में विभाजित किया जाता है जो कि इकाइयां और संबंध एम्बेडिंग होते हैं।[5][17] तीसरे क्रम का टेंसर नाँलेज ग्राफ का प्रतिनिधित्व करने के लिए उपयुक्त पद्धति है क्योंकि यह मात्र एम्बेडिंग के बीच संबंध के अस्तित्व या अनुपस्थिति को रिकॉर्ड करता है,[17] और इस कारण से यह सरल है, और नेटवर्क संरचना को प्राथमिकता से जानने की कोई आवश्यकता नहीं है,[15] एम्बेडिंग मॉडल के इस वर्ग को हल्का और प्रशिक्षित करना सरल बनाता है, यद्यपि वे उच्च-आयामी और डेटा की विरलता से पीड़ित हों।[5][17]
द्विरेखीय मॉडल
अतः मॉडलों का यह वर्ग संबंध के माध्यम से एम्बेडिंग के बीच संबंध को एम्बेड करने के लिए रैखिक समीकरण का उपयोग करता है।[1] विशेष रूप से, संबंधों का अंतर्निहित प्रतिनिधित्व द्विआयामी आव्यूह है।[5] इस प्रकार से ये मॉडल, एम्बेडिंग प्रक्रिया के समय, एम्बेडेड प्रतिनिधित्व की गणना करने के लिए मात्र एकल तथ्यों का उपयोग करते हैं और उसी इकाई या संबंध के अन्य संघों को अनदेखा करते हैं।[18]
- DistMult[19]: चूँकि संबंध का एम्बेडिंग आव्यूह एक विकर्ण आव्यूह है, स्कोरिंग फलन असममित तथ्यों को अलग नहीं कर सकता है।[5][5][18]
- ComplEx[20]: चूँकि DistMult एम्बेडिंग संबंधों का प्रतिनिधित्व करने के लिए एक विकर्ण आव्यूह का उपयोग करता है, परंतु जटिल सदिश समष्टि और हर्मिटियन उत्पाद में एक प्रतिनिधित्व जोड़ता है, यह सममित और असममित तथ्यों को पूर्ण रूप से अलग कर सकता है।[5][17] अतः यह दृष्टिकोण समय और समष्टि लागत के संदर्भ में बड़े नाँलेज ग्राफ के लिए मापनीय है।[20]
- ANALOGY[21]: यह मॉडल आगमनात्मक तर्क को अनुकरण करने के लिए नाँलेज ग्राफ की अनुरूप संरचना को एम्बेड करने में एन्कोड करता है।[21][5][1] एक भिन्न उद्देश्य फलन का उपयोग करते हुए, ANALOGY में उचित सैद्धांतिक व्यापकता और कम्प्यूटेशनल मापनीयता है।[21] अतः यह सिद्ध है कि ANALOGY द्वारा निर्मित एम्बेडिंग DistMult, ComplEx, और HolE की एम्बेडिंग को पूर्ण रूप से पुनर्प्राप्त करती है।[21]
- SimplE[22]: यह मॉडल विहित बहुपद अपघटन (सीपी) का एक संशोधन है, जिसमें संबंध के लिए एम्बेडिंग सदिश और प्रत्येक इकाई के लिए दो स्वतंत्र एम्बेडिंग सदिश सीखे जाते हैं, यह इस पर निर्भर करता है कि यह नाँलेज ग्राफ तथ्य में शीर्ष या पुंछ है या नहीं।[22] इस प्रकार से SimpleE एक व्युत्क्रम संबंध का उपयोग करके दो इकाई एम्बेडिंग की स्वतंत्र सीखने की समस्या को हल करता है और और के सीपी स्कोर को औसत करता है।[7][17] अतः इस प्रकार, SimpleE एम्बेडिंग के बीच संबंध एकत्र करता है जबकि वे किसी तथ्य के भीतर विषय या वस्तु की भूमिका में दिखाई देते हैं, और यह असममित संबंधों को एम्बेड करने में पूर्ण रूप से सक्षम है।[5]
गैर-द्विरेखीय मॉडल
- HolE:[23] नाँलेज ग्राफ का एम्बेडेड प्रतिनिधित्व बनाने के लिए HolE परिपत्र सहसंबंध का उपयोग करता है,[23] जिसे आव्यूह उत्पाद के संपीड़न के रूप में देखा जा सकता है,परंतु असममित संबंध व्यक्त करने की क्षमताओं को बनाए रखते हुए अधिक कम्प्यूटेशनल रूप से कुशल और मापनीय है क्योंकि परिपत्र सहसंबंध क्रमविनिमेय नहीं है।[18] अतः HolE होलोग्राफिक और जटिल एम्बेडिंग को पूर्ण रूप से जोड़ता है, यदि फूरियर रूपांतरण के साथ साथ उपयोग किया जाता है, तो इसे ComplEx की विशेष स्थिति के रूप में देखा जा सकता है।[1]
- TuckER:[24] TuckER नाँलेज ग्राफ को टेंसर के रूप में देखता है जिसे सदिश के संग्रह में TuckER अपघटन का उपयोग करके विघटित किया जा सकता है—अर्थात, एम्बेडिंग और संबंधों का एम्बेडिंग— एक साझा कोर के साथ।[24][5] कोर टेंसर का भार एम्बेडिंग के साथ मिलकर सीखा जाता है और प्रविष्टियों के परस्पर क्रिया के स्तर का प्रतिनिधित्व करता है।[25] इस प्रकार से प्रत्येक इकाई और संबंध का अपना एम्बेडिंग आयाम होता है, और कोर टेंसर का आकार परस्पर क्रिया करने वाली एम्बेडिंग और संबंधों के आकार से निर्धारित होता है।[5] किसी तथ्य के विषय और वस्तु के एम्बेडिंग को उसी प्रकार से संक्षेपित किया जाता है, जिससे TuckER पूर्ण रूप से अभिव्यंजक हो जाता है, और अन्य एम्बेडिंग मॉडल जैसे कि RESCAL, DistMult, ComplEx और SimplE को TuckER के विशेष सूत्रीकरण के रूप में व्यक्त किया जा सकता है।[24]
- MEI:[26] MEI कक्ष पद टेंसर प्रारूप के साथ बहु-विभाजन एम्बेडिंग परस्पर क्रिया तकनीक प्रस्तुत करता है, जो सीपी अपघटन और TuckER अपघटन का सामान्यीकरण है। अतः यह एम्बेडिंग सदिश को कई विभाजनों में विभाजित करता है और ComplEx या SimpleE मॉडल जैसे निश्चित विशेष पैटर्न का उपयोग करने के अतिरिक्त डेटा से स्थानीय परस्पर क्रिया पैटर्न सीखता है। अतः यह MEI को इष्टतम दक्षता प्राप्त करने में सक्षम बनाता है - अभिव्यंजना व्यापार-संवृत, न कि मात्र पूर्ण रूप से अभिव्यंजक होना।[26] पूर्व मॉडल जैसे TuckER, RESCAL, DistMult, ComplEx, और SimpleE MEI की उप-इष्टतम प्रतिबंधित विशेष स्थिति हैं।
- MEIM:[27] MEIM बहु-विभाजन एम्बेडिंग परस्पर क्रिया के अतिरिक्त, एसेम्बल बूस्टिंग प्रभावों के लिए स्वतंत्र कोर टेंसर और अधिकतम-पद संबंधपरक प्रतिचित्रण के लिए मृदु लंबकोणीयता को प्रस्तुत करने के लिए कक्ष पद टेंसर प्रारूप से आगे जाता है। इस प्रकार से MEIM कई पूर्व मॉडलों जैसे MEI और इसके सम्मिलित मॉडल, RotaE और QuatE को सामान्यीकृत करता है।[27] इस प्रकार से MEIN व्यवहार में अत्यधिक कुशल होते हुए भी अभिव्यंजना में संशोधन करता है, जिससे इसे अत्यधिक छोटे मॉडल आकारों का उपयोग करके स्पष्ट परिणाम प्राप्त करने में सहायता मिलती है।
ज्यामितीय मॉडल
इस प्रकार से मॉडलों के इस वर्ग द्वारा परिभाषित ज्यामितीय समष्टि किसी तथ्य के शीर्ष और पूंछ के बीच ज्यामितीय परिवर्तन के रूप में संबंध को कूटबद्ध करता है।[5] अतः इस कारण से, पूंछ के एम्बेडिंग की गणना करने के लिए, शीर्ष एम्बेडिंग में एक परिवर्तन लागू करना आवश्यक है, और एक दूरी फलन का उपयोग एम्बेडिंग की स्पष्टता को मापने या किसी तथ्य की विश्वसनीयता को स्कोर करने के लिए किया जाता है।[5]
ज्यामितीय मॉडल टेंसर अपघटन मॉडल के समान हैं, परंतु दोनों के बीच मुख्य अंतर यह है कि उन्हें ज्यामितीय समष्टि में परिवर्तन की प्रयोज्यता को संरक्षित करना है जिसमें इसे पूर्ण रूप से परिभाषित किया गया है।[5]
शुद्ध अनुवादात्मक मॉडल
मॉडलों का यह वर्ग Word2vec में प्रस्तुत किए गए अनुवाद अपरिवर्तनीयता के विचार से प्रेरित है।[7] एक शुद्ध अनुवादात्मक मॉडल इस तथ्य पर निर्भर करता है कि इकाइयों के एम्बेडिंग सदिश ज्यामितीय समष्टि में उचित संबंधपरक अनुवाद लागू करने के बाद एक-दूसरे के निकट होते हैं जिसमें उन्हें परिभाषित किया जाता है।[18] अतः दूसरे शब्दों में, तथ्य को देखते हुए, जब संबंध के एम्बेडिंग में शीर्ष का एम्बेडिंग जोड़ा जाता है, तो अपेक्षित परिणाम पुंछ का एम्बेडिंग होना चाहिए।[5] इस प्रकार से एम्बेडिंग एम्बेडिंग की निकटता कुछ दूरी माप द्वारा दी जाती है और किसी तथ्य की विश्वसनीयता को पूर्ण रूप से निर्धारित करती है।[17]
- TransE[9]: यह मॉडल स्कोरिंग फलन का उपयोग करता है जो एम्बेडिंग को प्रत्येक तथ्य में साधारण सदिश योग समीकरण को संतुष्ट करने के लिए विवश करता है जिसमें वे दिखाई देते हैं: ।[7] एम्बेडिंग यथार्थ होगी यदि प्रत्येक इकाई और संबंध मात्र एक ही तथ्य में प्रकट होता है, और इस कारण से, व्यवहार में एक-से-अनेक, अनेक-से-एक और असममित संबंधों का ठीक रूप से प्रतिनिधित्व नहीं करता है।[5][7]
- TransH[28]: यह संबंधों के प्रकारों को उचित रूप से प्रस्तुत करने की समस्या को हल करने के लिए अधिसमतल को ज्यामितीय समष्टि के रूप में प्रस्तुत करने वाले TransE का विकास है।[28] TransH में, प्रत्येक संबंध का अलग अधिसमतल पर अलग एम्बेडेड प्रतिनिधित्व होता है, यह इस पर आधारित होता है कि यह किन एम्बेडिंग के साथ परस्पर क्रिया करता है।[7] अतः इसलिए, उदाहरण के लिए, किसी तथ्य के स्कोर फलन की गणना करने के लिए, संबंध के उचित अधिसमतल पर संबंधपरक प्रक्षेपण आव्यूह का उपयोग करके शीर्ष और पुंछ के एम्बेडेड प्रतिनिधित्व को प्रक्षेपित करने की आवश्यकता होती है।[1][7]
- TransR[29]: TransR, TransH का विकास है क्योंकि यह एम्बेडिंग और संबंधों के अंतर्निहित प्रतिनिधित्व का प्रतिनिधित्व करने के लिए दो अलग-अलग समष्टियों का उपयोग करता है,[1][18]और एम्बेडिंग और संबंधों के शब्दार्थ समष्टि को पूर्ण रूप से अलग कर दें।[7] इस प्रकार से इसके अतिरिक्त TransR इकाइयों के एम्बेडिंग को संबंध समष्टि में अनुवाद करने के लिए संबंधपरक प्रक्षेपण आव्यूह का पूर्ण रूप से उपयोग करता है।[7]
- TransD:[30] किसी तथ्य को देखते हुए, TransR में, किसी तथ्य का शीर्ष और पूर्व भाग दो अलग-अलग प्रकार की एम्बेडिंग से संबंधित हो सकता है, उदाहरण के लिए, तथ्य में, ओबामा और यूएसए दो संस्थाएं हैं परंतु एक एक व्यक्ति है और दूसरा एक देश है।[30][7] अतः प्रक्षेपण की गणना करने के लिए TransR में आव्यूह गुणन भी बहु मानित प्रक्रिया है।[7][30] अतः इस संदर्भ में, TransD गतिशील प्रतिचित्रण की गणना करने के लिए प्रत्येक इकाई-संबंध युग्मन के लिए दो सदिश को नियोजित करता है जो आयामी जटिलता को कम करते हुए प्रक्षेपण आव्यूह को प्रतिस्थापित करता है।[1][7][30] पहले सदिश का उपयोग एम्बेडिंग और संबंधों के अर्थपूर्ण अर्थ को दर्शाने के लिए किया जाता है, दूसरे का उपयोग प्रतिचित्रण आव्यूह की गणना करने के लिए किया जाता है।[30]
- TransA:[31] सभी अनुवादात्मक मॉडल अपने प्रतिनिधित्व समष्टि में स्कोर फलन को परिभाषित करते हैं, परंतु वे इस मीट्रिक हानि को अधिक सरल बनाते हैं।[31] चूंकि एम्बेडिंग और संबंधों का सदिश प्रतिनिधित्व उचित नहीं है, का शुद्ध अनुवाद से दूर हो सकता है, और एक गोलाकार समविभव यूक्लिडियन दूरी से यह भेद करना कठिन हो जाता है कि निकटतम इकाई कौन सी है।[31] अतः इसके अतिरिक्त, TransA, अस्पष्टता को दूर करने के लिए दीर्घवृत्त सतहों के साथ, एम्बेडिंग आयामों को भारित करने के लिए अनुकूली महालनोबिस दूरी का परिचय देता है।[1][7][31]
अतिरिक्त एम्बेडिंग के साथ अनुवादात्मक मॉडल
नाँलेज ग्राफ में प्रत्येक तत्व और उनके सामान्य प्रतिनिधित्व तथ्यों के साथ अतिरिक्त सूचना जोड़ना संभव है।[1] नाँलेज ग्राफ के साथ डोमेन के समग्र विवरण को स्पष्ट बनाने के लिए प्रत्येक इकाई और संबंध को पाठ विवरण, भार, बाधाओं और अन्य से समृद्ध किया जा सकता है।[1] इस प्रकार से नाँलेज ग्राफ के एम्बेडिंग के समय, इस सूचना का उपयोग इन विशेषताओं के लिए विशेष एम्बेडिंग सीखने के लिए किया जा सकता है, साथ ही अधिक महत्वपूर्ण संख्या में सदिश सीखने की लागत के साथ, एम्बेडिंग और संबंधों के सामान्य एम्बेडेड प्रतिनिधित्व को भी सीखा जा सकता है।[5]
- STransE:[32] यह मॉडल TransE और संरचना एम्बेडिंग के संयोजन का परिणाम है जिससे यह एक-से-अनेक, अनेक-से-एक और अनेक-से-अनेक संबंधों का बेहतर प्रतिनिधित्व करने में सक्षम है।[32][5] ऐसा करने पर, मॉडल में केजी में प्रत्येक एम्बेडेड संबंध के लिए दो अतिरिक्त स्वतंत्र आव्यूह और सम्मिलित होते हैं।[32] अतः प्रत्येक अतिरिक्त आव्यूह का उपयोग इस तथ्य के आधार पर किया जाता है कि विशिष्ट संबंध तथ्य के शीर्ष या पूंछ के साथ परस्पर क्रिया करता है।[32] दूसरे शब्दों में, एक तथ्य दिया गया है, सदिश अनुवाद लागू करने से पहले, शीर्ष को से गुणा किया जाता है और पुंछ को से गुणा किया जाता है।[7]
- CrossE:[33] विनिमय परस्पर क्रिया का उपयोग संबंधित सूचना चयन के लिए किया जा सकता है, और एम्बेडिंग प्रक्रिया के लिए बहुत उपयोगी हो सकता है।[33] विनिमय परस्पर क्रिया सूचना चयन में दो अलग-अलग योगदान प्रदान करते हैं: संबंधों से एम्बेडिंग तक परस्पर क्रिया और एम्बेडिंग से संबंधों तक परस्पर क्रिया।[33] अतः इसका अर्थ यह है कि संबंध, उदाहरण के लिए 'President_of' स्वचालित रूप से उन एम्बेडिंग के प्रकार का चयन करता है जो विषय को किसी तथ्य की वस्तु से जोड़ रहे हैं।[33] इसी प्रकार, किसी तथ्य की इकाई अप्रत्यक्ष रूप से यह निर्धारित करती है कि संबंधित ट्रिपल की वस्तु की भविष्यवाणी करने के लिए कौन सा अनुमान पथ चुनना है।[33] CrossE, ऐसा करने के लिए, एक अतिरिक्त परस्पर क्रिया आव्यूह सीखता है, और के बीच परस्पर क्रिया की गणना करने के लिए तत्व-वार उत्पाद का उपयोग करता है।[5][33] यद्यपि, CrossE, तंत्रिका नेटवर्क आर्किटेक्चर पर विश्वास नहीं करता है, यह दिखाया गया है कि इस पद्धति को ऐसे आर्किटेक्चर में पूर्ण रूप से एन्कोड किया जा सकता है।[1]
रोटो-अनुवादात्मक मॉडल
इस प्रकार से मॉडलों का यह वर्ग, अनुवाद के अतिरिक्त या प्रतिस्थापन में घूर्णन-जैसे परिवर्तन को पूर्ण रूप से नियोजित करता है।[5]
- TorusE:[34] TorusE का नियमितीकरण शब्द इकाई को गोलाकार स्थान बनाने के लिए एम्बेड करता है, और परिणामस्वरूप ज्यामितीय समष्टि के अनुवाद गुणों को खो देता है।[34] इस समस्या का हल करने के लिए, TorusE संहत लाई समूह के उपयोग का लाभ उठाता है जो इस विशिष्ट स्थिति में n-आयामी टोरस समष्टि है, और नियमितीकरण के उपयोग से बचता है।[1][34] अतः TorusE, TransE के L1 और L2 मानदंड को प्रतिस्थापित करने के लिए दूरी फलन को परिभाषित करता है।[5]
- RotatE:[35] RotatE यूलर की पहचान से प्रेरित है और इसमें जटिल स्थान में शीर्ष से पूंछ तक घूर्णन के रूप में संबंध का प्रतिनिधित्व करने के लिए हैडामर्ड उत्पाद (मैट्रिसेस) का उपयोग पूर्ण रूप से सम्मिलित है।[35] ट्रिपल के प्रत्येक तत्व के लिए, एम्बेडिंग का जटिल भाग अक्ष के संबंध में वामावर्त घूर्णन का वर्णन करता है, जिसे यूलर की पहचान के साथ वर्णित किया जा सकता है, जबकि संबंध सदिश का मापांक 1 है।[35] अतः यह दिखाया गया है कि मॉडल नाँलेज ग्राफ से सममित, असममित, उलटा और संरचना संबंधों को एम्बेड करने में सक्षम है।[35]
गहन शिक्षण मॉडल
इस प्रकार से एम्बेडिंग मॉडल का यह समूह नाँलेज ग्राफ से पैटर्न सीखने के लिए गहन तंत्रिका नेटवर्क का उपयोग करता है जो इनपुट डेटा हैं।[5] अतः इन मॉडलों में इकाई और संबंध के प्रकार, अस्थायी सूचना, पथ सूचना, अंतर्निहित संरचित सूचना को अलग करने की व्यापकता है।[18] और नाँलेज ग्राफ की सभी विशेषताओं का प्रतिनिधित्व करने में दूरी-आधारित और अर्थ-मिलान-आधारित मॉडल की सीमाओं को हल करें।[1] अतः नाँलेज ग्राफ एम्बेडिंग के लिए गहन शिक्षण के उपयोग ने स्पष्ट अनुमानित परफॉरमेंस दिखाया है, यद्यपि वे प्रशिक्षण चरण में अधिक बहु मानित हों, डेटा की कमी हो, और प्रायः अलग एम्बेडिंग मॉडल से आने वाले नाँलेज ग्राफ के पूर्व-प्रशिक्षित एम्बेडिंग प्रतिनिधित्व की आवश्यकता होती है।[1][5]
संवादात्मक तंत्रिका नेटवर्क
इस प्रकार से मॉडलों का यह वर्ग, पूर्ण रूप से कनेक्टेड परतों का उपयोग करने के अतिरिक्त, या से अधिक ConvEन्शनल परतों को नियोजित करता है जो निम्न-आयामी फ़िल्टर लागू करके इनपुट डेटा को संयोजित करता है जो गैर रेखीय सुविधाओं को सीखकर कुछ मापदंडों के साथ जटिल संरचनाओं को एम्बेड करने में सक्षम होता है।[1][5][18]
- ConvE:[36] ConvE एम्बेडिंग एक ऐसा मॉडल है जो गहन शिक्षण मॉडल और कम्प्यूटेशनल अधिकतम मूल्य की उचित ट्रेडऑफ़ अभिव्यक्ति का प्रतिनिधित्व करता है,[17] वस्तुतः यह दिखाया गया है कि DistMult की तुलना में इसमें 8x कम पैरामीटर का उपयोग किया गया है।[36] ConvE नाँलेज ग्राफ की संस्थाओं और संबंधों का प्रतिनिधित्व करने के लिए एक-आयामी आकार एम्बेडिंग का उपयोग करता है।[5][36] ट्रिपल के स्कोर फलन की गणना करने के लिए, ConvE एक सरल प्रक्रिया लागू करता है: पहले कॉनकैटेन्स और ट्रिपल के हेड के एम्बेडिंग और एकल डेटा में संबंध को मर्ज करता है, फिर इस आव्यूह को 2D कनवल्शनल लेयर के लिए इनपुट के रूप में उपयोग किया जाता है।[5][17] फिर परिणाम को एक गहन परत के माध्यम से पारित किया जाता है जो आव्यूह द्वारा पैरामीटरयुक्त एक रैखिक परिवर्तन लागू करता है और अंत में, आंतरिक उत्पाद के साथ पुंछ ट्रिपल से जुड़ा होता है।[5][18] अतः ConvE मूल्यांकन प्रक्रिया में भी विशेष रूप से कुशल है: 1-एन स्कोरिंग का उपयोग करके, मॉडल मिलान करता है, एक शीर्ष और एक संबंध दिया जाता है, एक ही समय में सभी पुंछ, अन्य मॉडलों के 1-1 मूल्यांकन फलन की तुलना में बहुत अधिक मूल्यांकन समय बचाते हैं।[18]
- ConvR:[37] ConvR अनुकूली दृढ़ नेटवर्क है जिसका उद्देश्य एम्बेडिंग और संबंधों के बीच सभी संभावित परस्पर क्रिया का गहनता से प्रतिनिधित्व करना है।[37] इस क्रिया के लिए, ConvR, प्रत्येक संबंध के लिए संकेंद्रित फ़िल्टर की गणना करता है, और, जब आवश्यक हो, जटिल सुविधाओं को निकालने के लिए इन फ़िल्टरों को रुचि की इकाई पर लागू करता है।[37] अतः ट्रिपल के स्कोर की गणना करने की प्रक्रिया ConvE के समान है।[5]
- ConvKB:[38] ConvKB, किसी दिए गए ट्रिपल के स्कोर फलन की गणना करने के लिए, यह बिना किसी आकार परिवर्तन के आयाम का एक इनपुट उत्पन्न करता है और इसे आकार के कन्वेन्शनल फ़िल्टर की श्रृंखला में भेजता है।[38] यह परिणाम मात्र न्यूरॉन के साथ सघन परत को पोषित करता है जो अंतिम स्कोर उत्पन्न करता है।[38] एकल अंतिम न्यूरॉन इस आर्किटेक्चर को बाइनरी क्लासिफायरियर के रूप में बनाता है जिसमें तथ्य उचित या अनुचित हो सकता है।[5] ConvE के साथ अंतर यह है कि एम्बेडिंग की आयामीता नहीं बदली जाती है।[17]
कैप्सूल तंत्रिका नेटवर्क
इस प्रकार से मॉडलों का यह वर्ग अधिक स्थिर प्रतिनिधित्व बनाने के लिए कैप्सूल न्यूरल नेटवर्क का उपयोग करता है जो स्थानिक सूचना समाप्त हुए बिना इनपुट में सुविधा को पहचानने में सक्षम है।[5] अतः नेटवर्क संकेंद्रित परतों से बना है,परंतु वे कैप्सूल में व्यवस्थित होते हैं, और कैप्सूल का समग्र परिणाम गतिशील प्रक्रिया रूटीन द्वारा निर्धारित किए गए उच्च-कैप्सूल को भेजा जाता है।[5]
CapsE:[39] CapsE एक तथ्य को मॉडल करने के लिए एक कैप्सूल नेटवर्क लागू करता है।[39] जैसा कि ConvKB में होता है, प्रत्येक ट्रिपल तत्व को आव्यूह बनाने के लिए संयोजित किया जाता है और कन्वेन्शनल फीचर्स को निकालने के लिए कन्वेन्शनल परत को फीड करने के लिए उपयोग किया जाता है।[5][39] फिर इन विशेषताओं को सतत सदिश बनाने के लिए कैप्सूल पर पुनर्निर्देशित किया जाता है, सदिश जितना लंबा होगा, तथ्य उतना ही अधिक सत्य होगा।[39]
आवर्तक तंत्रिका नेटवर्क
इस प्रकार से मॉडलों का यह वर्ग आवर्ती तंत्रिका नेटवर्क के उपयोग का लाभ उठाता है।[5] अतः इस आर्किटेक्चर का लाभ मात्र विस्तृत एकल घटनाओं के अतिरिक्त तथ्यों के अनुक्रम को याद रखना है।[40]
RSN:[40] एम्बेडिंग प्रक्रिया के समय सामान्यतः यह माना जाता है कि, समान एम्बेडिंग के समान संबंध होते हैं।[40] व्यवहार में, इस प्रकार की सूचना का लाभ नहीं उठाया जाता है, क्योंकि एम्बेडिंग की गणना तथ्यों के इतिहास के अतिरिक्त मात्र वर्तमान तथ्य पर की जाती है।[40] आवर्तक स्किपिंग नेटवर्क (RSN) रैंडम वॉक सैंपलिंग का उपयोग करके संबंधपरक पथ सीखने के लिए आवर्तक तंत्रिका नेटवर्क का उपयोग करता है।[5][40]
मॉडल परफॉरमेंस
अतः नाँलेज ग्राफ़ एम्बेडिंग के लिए मशीन लर्निंग क्रिया जो मॉडलों की एम्बेडिंग यथार्थता का मूल्यांकन करने के लिए अधिक बार उपयोग किया जाता है वह लिंक भविष्यवाणी है।[1][3][5][6][7][18] रॉसी एट अल.[5] मॉडलों का एक व्यापक बेंचमार्क तैयार किया, परंतु अन्य सर्वेक्षण भी समान परिणाम देते हैं।[3][7][18][25] बेंचमार्क (कंप्यूटिंग) में पांच डेटासेट FB15k, WN18, FB15k-237, WN18RR और YAGO3-10 सम्मिलित हैं।[9][9][41][36][42] वर्तमान में, यह चर्चा हुई है कि ये डेटासेट वास्तविक संसार के अनुप्रयोगों से बहुत दूर हैं, और अन्य डेटासेट को मानक बेंचमार्क के रूप में एकीकृत किया जाना चाहिए।[43]
डेटासेट नाम | विभिन्न एम्बेडिंग की संख्या | विभिन्न संबंधों की संख्या | ट्रिपल की संख्या |
---|---|---|---|
FB15k[9] | 14951 | 1345 | 584,113 |
WN18[9] | 40943 | 18 | 151,442 |
FB15k-237[41] | 14541 | 237 | 310,116 |
WN18RR[36] | 40943 | 11 | 93,003 |
YAGO3-10[42] | 123182 | 37 | 1,089,040 |
मॉडल नाम | मेमोरी जटिलता | FB15K (Hits@10) | FB15K (MR) | FB15K (MRR) | FB15K - 237 (Hits@10) | FB15K - 237 (MR) | FB15K - 237 (MRR) | WN18 (Hits@10) | WN18 (MR) | WN18 (MRR) | WN18RR (Hits@10) | WN18RR (MR) | WN18RR (MRR) | YAGO3-10 (Hits@10) | YAGO3-10 (MR) | YAGO3-10 (MRR) |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
DistMul[19] | 0.863 | 173 | 0.784 | 0.490 | 199 | 0.313 | 0.946 | 675 | 0.824 | 0.502 | 5913 | 0.433 | 0.661 | 1107 | 0.501 | |
ComplEx[20] | 0.905 | 34 | 0.848 | 0.529 | 202 | 0.349 | 0.955 | 3623 | 0.949 | 0.521 | 4907 | 0.458 | 0.703 | 1112 | 0.576 | |
HolE[23] | 0.867 | 211 | 0.800 | 0.476 | 186 | 0.303 | 0.949 | 650 | 0.938 | 0.487 | 8401 | 0.432 | 0.651 | 6489 | 0.502 | |
ANALOGY[21] | 0.837 | 126 | 0.726 | 0.353 | 476 | 0.202 | 0.944 | 808 | 0.934 | 0.380 | 9266 | 0.366 | 0.456 | 2423 | 0.283 | |
SimplE[22] | 0.836 | 138 | 0.726 | 0.343 | 651 | 0.179 | 0.945 | 759 | 0.938 | 0.426 | 8764 | 0.398 | 0.631 | 2849 | 0.453 | |
TuckER[24] | 0.888 | 39 | 0.788 | 0.536 | 162 | 0.352 | 0.958 | 510 | 0.951 | 0.514 | 6239 | 0.459 | 0.680 | 2417 | 0.544 | |
MEI[26] | 0.552 | 145 | 0.365 | 0.551 | 3268 | 0.481 | 0.709 | 756 | 0.578 | |||||||
MEIM[27] | 0.557 | 137 | 0.369 | 0.577 | 2434 | 0.499 | 0.716 | 747 | 0.585 | |||||||
TransE[9] | 0.847 | 45 | 0.628 | 0.497 | 209 | 0.310 | 0.948 | 279 | 0.646 | 0.495 | 3936 | 0.206 | 0.673 | 1187 | 0.501 | |
STransE[32] | 0.796 | 69 | 0.543 | 0.495 | 357 | 0.315 | 0.934 | 208 | 0.656 | 0.422 | 5172 | 0.226 | 0.073 | 5797 | 0.049 | |
CrossE[33] | 0.862 | 136 | 0.702 | 0.470 | 227 | 0.298 | 0.950 | 441 | 0.834 | 0.449 | 5212 | 0.405 | 0.654 | 3839 | 0.446 | |
TorusE[34] | 0.839 | 143 | 0.746 | 0.447 | 211 | 0.281 | 0.954 | 525 | 0.947 | 0.535 | 4873 | 0.463 | 0.474 | 19455 | 0.342 | |
RotatE[35] | 0.881 | 42 | 0.791 | 0.522 | 178 | 0.336 | 0.960 | 274 | 0.949 | 0.573 | 3318 | 0.475 | 0.570 | 1827 | 0.498 | |
ConvE[36] | 0.849 | 51 | 0.688 | 0.521 | 281 | 0.305 | 0.956 | 413 | 0.945 | 0.507 | 4944 | 0.427 | 0.657 | 2429 | 0.488 | |
ConvKB[38] | 0.408 | 324 | 0.211 | 0.517 | 309 | 0.230 | 0.948 | 202 | 0.709 | 0.525 | 3429 | 0.249 | 0.604 | 1683 | 0.420 | |
ConvR[37] | 0.885 | 70 | 0.773 | 0.526 | 251 | 0.346 | 0.958 | 471 | 0.950 | 0.526 | 5646 | 0.467 | 0.673 | 2582 | 0.527 | |
CapsE[39] | 0.217 | 610 | 0.087 | 0.356 | 405 | 0.160 | 0.950 | 233 | 0.890 | 0.559 | 720 | 0.415 | 0 | 60676 | 0.000 | |
RSN[40] | 0.870 | 51 | 0.777 | 0.444 | 248 | 0.280 | 0.951 | 346 | 0.928 | 0.483 | 4210 | 0.395 | 0.664 | 1339 | 0.511 |
लाइब्रेरी
- KGE on GitHub
- MEI-KGE on GitHub
- Pykg2vec on GitHub
- DGL-KE on GitHub
- PyKEEN on GitHub
- TorchKGE on GitHub
- AmpliGraph on GitHub
- OpenKE on GitHub
- scikit-kge on GitHub
- Fast-TransX on GitHub
- MEIM-KGE on GitHub
- DICEE on GitHub
यह भी देखें
- नाँलेज ग्राफ
- एंबेडिंग
- यंत्र अधिगम
- नाँलेज धार
- नाँलेज निष्कर्षण
- सांख्यिकीय संबंधपरक शिक्षा
- प्रतिनिधित्व सीखना
- ग्राफ एम्बेडिंग
संदर्भ
- ↑ 1.00 1.01 1.02 1.03 1.04 1.05 1.06 1.07 1.08 1.09 1.10 1.11 1.12 1.13 1.14 1.15 1.16 1.17 1.18 1.19 1.20 1.21 1.22 1.23 1.24 1.25 1.26 Ji, Shaoxiong; Pan, Shirui; Cambria, Erik; Marttinen, Pekka; Yu, Philip S. (2021). "A Survey on Knowledge Graphs: Representation, Acquisition, and Applications". IEEE Transactions on Neural Networks and Learning Systems. PP (2): 494–514. arXiv:2002.00388. doi:10.1109/TNNLS.2021.3070843. hdl:10072/416709. ISSN 2162-237X. PMID 33900922. S2CID 211010433.
- ↑ Mohamed, Sameh K; Nováček, Vít; Nounu, Aayah (2019-08-01). Cowen, Lenore (ed.). "नॉलेज ग्राफ एंबेडिंग का उपयोग करके प्रोटीन औषधि लक्ष्य की खोज करना". Bioinformatics (in English). 36 (2): 603–610. doi:10.1093/bioinformatics/btz600. hdl:10379/15375. ISSN 1367-4803. PMID 31368482.
- ↑ 3.0 3.1 3.2 3.3 Lin, Yankai; Han, Xu; Xie, Ruobing; Liu, Zhiyuan; Sun, Maosong (2018-12-28). "Knowledge Representation Learning: A Quantitative Review". arXiv:1812.10901 [cs.CL].
- ↑ 4.0 4.1 4.2 Abu-Salih, Bilal; Al-Tawil, Marwan; Aljarah, Ibrahim; Faris, Hossam; Wongthongtham, Pornpit; Chan, Kit Yan; Beheshti, Amin (2021-05-12). "नॉलेज ग्राफ एंबेडिंग का उपयोग करके सामाजिक राजनीति का संबंधपरक शिक्षण विश्लेषण". Data Mining and Knowledge Discovery (in English). 35 (4): 1497–1536. arXiv:2006.01626. doi:10.1007/s10618-021-00760-w. ISSN 1573-756X. S2CID 219179556.
- ↑ 5.00 5.01 5.02 5.03 5.04 5.05 5.06 5.07 5.08 5.09 5.10 5.11 5.12 5.13 5.14 5.15 5.16 5.17 5.18 5.19 5.20 5.21 5.22 5.23 5.24 5.25 5.26 5.27 5.28 5.29 5.30 5.31 5.32 5.33 5.34 5.35 5.36 5.37 5.38 5.39 5.40 5.41 5.42 5.43 5.44 Rossi, Andrea; Barbosa, Denilson; Firmani, Donatella; Matinata, Antonio; Merialdo, Paolo (2020). "Knowledge Graph Embedding for Link Prediction: A Comparative Analysis". ACM Transactions on Knowledge Discovery from Data (in English). 15 (2): 1–49. arXiv:2002.00819. doi:10.1145/3424672. hdl:11573/1638610. ISSN 1556-4681. S2CID 211011226.
- ↑ 6.0 6.1 Paulheim, Heiko (2016-12-06). Cimiano, Philipp (ed.). "Knowledge graph refinement: A survey of approaches and evaluation methods". Semantic Web. 8 (3): 489–508. doi:10.3233/SW-160218. S2CID 13151033.
- ↑ 7.00 7.01 7.02 7.03 7.04 7.05 7.06 7.07 7.08 7.09 7.10 7.11 7.12 7.13 7.14 7.15 7.16 7.17 7.18 7.19 7.20 7.21 7.22 7.23 7.24 7.25 7.26 7.27 Dai, Yuanfei; Wang, Shiping; Xiong, Neal N.; Guo, Wenzhong (May 2020). "A Survey on Knowledge Graph Embedding: Approaches, Applications and Benchmarks". Electronics (in English). 9 (5): 750. doi:10.3390/electronics9050750.
- ↑ Guo, Shu; Wang, Quan; Wang, Bin; Wang, Lihong; Guo, Li (2015). "Semantically Smooth Knowledge Graph Embedding". Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 1: Long Papers) (in English). Association for Computational Linguistics. pp. 84–94. doi:10.3115/v1/P15-1009. S2CID 205692.
- ↑ 9.0 9.1 9.2 9.3 9.4 9.5 9.6 Bordes, Antoine; Usunier, Nicolas; Garcia-Durán, Alberto; Weston, Jason; Yakhnenko, Oksana (May 2013). "Translating embeddings for modeling multi-relational data". NIPS'13: Proceedings of the 26th International Conference on Neural Information Processing Systems. Curran Associates Inc. pp. 2787–2795.
- ↑ 10.00 10.01 10.02 10.03 10.04 10.05 10.06 10.07 10.08 10.09 10.10 10.11 Chen, Zhe; Wang, Yuehan; Zhao, Bin; Cheng, Jing; Zhao, Xin; Duan, Zongtao (2020). "Knowledge Graph Completion: A Review". IEEE Access. 8: 192435–192456. doi:10.1109/ACCESS.2020.3030076. ISSN 2169-3536. S2CID 226230006.
- ↑ 11.0 11.1 11.2 11.3 11.4 Cai, Hongyun; Zheng, Vincent W.; Chang, Kevin Chen-Chuan (2018-02-02). "A Comprehensive Survey of Graph Embedding: Problems, Techniques and Applications". arXiv:1709.07604 [cs.AI].
- ↑ 12.0 12.1 Zhou, Sijin; Dai, Xinyi; Chen, Haokun; Zhang, Weinan; Ren, Kan; Tang, Ruiming; He, Xiuqiang; Yu, Yong (2020-06-18). "नॉलेज ग्राफ-एन्हांस्ड रीइन्फोर्समेंट लर्निंग के माध्यम से इंटरैक्टिव अनुशंसा प्रणाली". arXiv:2006.10389 [cs.IR].
- ↑ Liu, Chan; Li, Lun; Yao, Xiaolu; Tang, Lin (August 2019). "A Survey of Recommendation Algorithms Based on Knowledge Graph Embedding". 2019 IEEE International Conference on Computer Science and Educational Informatization (CSEI). pp. 168–171. doi:10.1109/CSEI47661.2019.8938875. ISBN 978-1-7281-2308-0. S2CID 209459928.
- ↑ 14.0 14.1 Sosa, Daniel N.; Derry, Alexander; Guo, Margaret; Wei, Eric; Brinton, Connor; Altman, Russ B. (2020). "दुर्लभ बीमारियों में दवा के पुनरुत्पादन के अवसरों की पहचान के लिए एक साहित्य-आधारित ज्ञान ग्राफ एम्बेडिंग विधि". Pacific Symposium on Biocomputing. Pacific Symposium on Biocomputing. 25: 463–474. ISSN 2335-6936. PMC 6937428. PMID 31797619.
- ↑ 15.0 15.1 Nickel, Maximilian; Tresp, Volker; Kriegel, Hans-Peter (2011-06-28). "A three-way model for collective learning on multi-relational data". ICML'11: Proceedings of the 28th International Conference on International Conference on Machine Learning. Omnipress. pp. 809–816. ISBN 978-1-4503-0619-5.
- ↑ Nickel, Maximilian; Tresp, Volker; Kriegel, Hans-Peter (2012-04-16). "Factorizing YAGO". Proceedings of the 21st international conference on World Wide Web. Association for Computing Machinery. pp. 271–280. doi:10.1145/2187836.2187874. ISBN 978-1-4503-1229-5. S2CID 6348464.
- ↑ 17.0 17.1 17.2 17.3 17.4 17.5 17.6 17.7 17.8 17.9 Alshahrani, Mona; Thafar, Maha A.; Essack, Magbubah (2021-02-18). "बायोमेडिकल डेटा में ज्ञान ग्राफ एम्बेडिंग का अनुप्रयोग और मूल्यांकन". PeerJ Computer Science (in English). 7: e341. doi:10.7717/peerj-cs.341. ISSN 2376-5992. PMC 7959619. PMID 33816992.
- ↑ 18.00 18.01 18.02 18.03 18.04 18.05 18.06 18.07 18.08 18.09 18.10 Wang, Meihong; Qiu, Linling; Wang, Xiaoli (2021-03-16). "लिंक भविष्यवाणी के लिए ज्ञान ग्राफ एंबेडिंग पर एक सर्वेक्षण". Symmetry (in English). 13 (3): 485. Bibcode:2021Symm...13..485W. doi:10.3390/sym13030485. ISSN 2073-8994.
- ↑ 19.0 19.1 Yang, Bishan; Yih, Wen-tau; He, Xiaodong; Gao, Jianfeng; Deng, Li (2015-08-29). "ज्ञान के आधारों में सीखने और अनुमान के लिए संस्थाओं और संबंधों को एम्बेड करना". arXiv:1412.6575 [cs.CL].
- ↑ 20.0 20.1 20.2 Trouillon, Théo; Welbl, Johannes; Riedel, Sebastian; Gaussier, Éric; Bouchard, Guillaume (2016-06-20). "सरल लिंक भविष्यवाणी के लिए जटिल एंबेडिंग". arXiv:1606.06357 [cs.AI].
- ↑ 21.0 21.1 21.2 21.3 21.4 Liu, Hanxiao; Wu, Yuexin; Yang, Yiming (2017-07-06). "बहु-संबंधपरक एंबेडिंग के लिए अनुरूप अनुमान". arXiv:1705.02426 [cs.LG].
- ↑ 22.0 22.1 22.2 Kazemi, Seyed Mehran; Poole, David (2018-10-25). "ज्ञान ग्राफ़ में लिंक भविष्यवाणी के लिए सरल एम्बेडिंग". arXiv:1802.04868 [stat.ML].
- ↑ 23.0 23.1 23.2 Nickel, Maximilian; Rosasco, Lorenzo; Poggio, Tomaso (2015-12-07). "ज्ञान ग्राफ़ की होलोग्राफ़िक एंबेडिंग". arXiv:1510.04935 [cs.AI].
- ↑ 24.0 24.1 24.2 24.3 Balažević, Ivana; Allen, Carl; Hospedales, Timothy M. (2019). "TuckER: Tensor Factorization for Knowledge Graph Completion". Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP). pp. 5184–5193. arXiv:1901.09590. doi:10.18653/v1/D19-1522. S2CID 59316623.
- ↑ 25.0 25.1 Ali, Mehdi; Berrendorf, Max; Hoyt, Charles Tapley; Vermue, Laurent; Galkin, Mikhail; Sharifzadeh, Sahand; Fischer, Asja; Tresp, Volker; Lehmann, Jens (2021). "Bringing Light into the Dark: A Large-scale Evaluation of Knowledge Graph Embedding Models under a Unified Framework". IEEE Transactions on Pattern Analysis and Machine Intelligence. PP (12): 8825–8845. arXiv:2006.13365. doi:10.1109/TPAMI.2021.3124805. PMID 34735335. S2CID 220041612.
- ↑ 26.0 26.1 26.2 Tran, Hung Nghiep; Takasu, Atsuhiro (2020). "Multi-Partition Embedding Interaction with Block Term Format for Knowledge Graph Completion". Proceedings of the European Conference on Artificial Intelligence (ECAI 2020). Frontiers in Artificial Intelligence and Applications. Vol. 325. IOS Press. pp. 833–840. doi:10.3233/FAIA200173. S2CID 220265751.
- ↑ 27.0 27.1 27.2 Tran, Hung-Nghiep; Takasu, Atsuhiro (2022-07-16). "MEIM: Multi-partition Embedding Interaction Beyond Block Term Format for Efficient and Expressive Link Prediction". आर्टिफिशियल इंटेलिजेंस पर इकतीसवें अंतर्राष्ट्रीय संयुक्त सम्मेलन की कार्यवाही (in English). Vol. 3. pp. 2262–2269. doi:10.24963/ijcai.2022/314. ISBN 978-1-956792-00-3. S2CID 250635995.
- ↑ 28.0 28.1 Wang, Zhen (2014). "Knowledge Graph Embedding by Translating on Hyperplanes". आर्टिफिशियल इंटेलिजेंस पर एएएआई सम्मेलन की कार्यवाही. Vol. 28. doi:10.1609/aaai.v28i1.8870. S2CID 15027084.
- ↑ Lin, Yankai; Liu, Zhiyuan; Sun, Maosong; Liu, Yang; Zhu, Xuan (2015-01-25). ज्ञान ग्राफ पूरा करने के लिए सीखने की इकाई और संबंध एम्बेडिंग. AAAI Press. pp. 2181–2187. ISBN 978-0-262-51129-2.
- ↑ 30.0 30.1 30.2 30.3 30.4 Ji, Guoliang; He, Shizhu; Xu, Liheng; Liu, Kang; Zhao, Jun (July 2015). "Knowledge Graph Embedding via Dynamic Mapping Matrix". Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 1: Long Papers). Association for Computational Linguistics. pp. 687–696. doi:10.3115/v1/P15-1067. S2CID 11202498.
- ↑ 31.0 31.1 31.2 31.3 Xiao, Han; Huang, Minlie; Hao, Yu; Zhu, Xiaoyan (2015-09-27). "TransA: An Adaptive Approach for Knowledge Graph Embedding". arXiv:1509.05490 [cs.CL].
- ↑ 32.0 32.1 32.2 32.3 32.4 Nguyen, Dat Quoc; Sirts, Kairit; Qu, Lizhen; Johnson, Mark (June 2016). "STransE: A novel embedding model of entities and relationships in knowledge bases". Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies. Association for Computational Linguistics. pp. 460–466. arXiv:1606.08140. doi:10.18653/v1/N16-1054. S2CID 9884935.
- ↑ 33.0 33.1 33.2 33.3 33.4 33.5 33.6 Zhang, Wen; Paudel, Bibek; Zhang, Wei; Bernstein, Abraham; Chen, Huajun (2019-01-30). "Interaction Embeddings for Prediction and Explanation in Knowledge Graphs". वेब खोज और डेटा माइनिंग पर बारहवें एसीएम अंतर्राष्ट्रीय सम्मेलन की कार्यवाही. pp. 96–104. arXiv:1903.04750. doi:10.1145/3289600.3291014. ISBN 9781450359405. S2CID 59516071.
- ↑ 34.0 34.1 34.2 34.3 Ebisu, Takuma; Ichise, Ryutaro (2017-11-15). "TorusE: Knowledge Graph Embedding on a Lie Group". arXiv:1711.05435 [cs.AI].
- ↑ 35.0 35.1 35.2 35.3 35.4 Sun, Zhiqing; Deng, Zhi-Hong; Nie, Jian-Yun; Tang, Jian (2019-02-26). "RotatE: Knowledge Graph Embedding by Relational Rotation in Complex Space". arXiv:1902.10197 [cs.LG].
- ↑ 36.0 36.1 36.2 36.3 36.4 36.5 Dettmers, Tim; Minervini, Pasquale; Stenetorp, Pontus; Riedel, Sebastian (2018-07-04). "Convolutional 2D Knowledge Graph Embeddings". arXiv:1707.01476 [cs.LG].
- ↑ 37.0 37.1 37.2 37.3 Jiang, Xiaotian; Wang, Quan; Wang, Bin (June 2019). "Adaptive Convolution for Multi-Relational Learning". Proceedings of the 2019 Conference of the North. Association for Computational Linguistics. pp. 978–987. doi:10.18653/v1/N19-1103. S2CID 174800352.
- ↑ 38.0 38.1 38.2 38.3 Nguyen, Dai Quoc; Nguyen, Tu Dinh; Nguyen, Dat Quoc; Phung, Dinh (2018). "A Novel Embedding Model for Knowledge Base Completion Based on Convolutional Neural Network". Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 2 (Short Papers). pp. 327–333. arXiv:1712.02121. doi:10.18653/v1/N18-2053. S2CID 3882054.
- ↑ 39.0 39.1 39.2 39.3 39.4 Nguyen, Dai Quoc; Vu, Thanh; Nguyen, Tu Dinh; Nguyen, Dat Quoc; Phung, Dinh (2019-03-06). "ज्ञान ग्राफ़ पूर्णता और खोज वैयक्तिकरण के लिए एक कैप्सूल नेटवर्क-आधारित एंबेडिंग मॉडल". arXiv:1808.04122 [cs.CL].
- ↑ 40.0 40.1 40.2 40.3 40.4 40.5 Guo, Lingbing; Sun, Zequn; Hu, Wei (2019-05-13). "ज्ञान ग्राफ़ में दीर्घकालिक संबंधपरक निर्भरता का दोहन करना सीखना". arXiv:1905.04914 [cs.AI].
- ↑ 41.0 41.1 Toutanova, Kristina; Chen, Danqi (July 2015). "Observed versus latent features for knowledge base and text inference". Proceedings of the 3rd Workshop on Continuous Vector Space Models and their Compositionality. Association for Computational Linguistics. pp. 57–66. doi:10.18653/v1/W15-4007. S2CID 5378837.
- ↑ 42.0 42.1 Mahdisoltani, F.; Biega, J.; Suchanek, Fabian M. (2015). "YAGO3: A Knowledge Base from Multilingual Wikipedias". CIDR. S2CID 6611164.
- ↑ Hu, Weihua; Fey, Matthias; Zitnik, Marinka; Dong, Yuxiao; Ren, Hongyu; Liu, Bowen; Catasta, Michele; Leskovec, Jure (2021-02-24). "Open Graph Benchmark: Datasets for Machine Learning on Graphs". arXiv:2005.00687 [cs.LG].