आंतरिक आयाम
डेटा सेट के आंतरिक आयाम को डेटा के न्यूनतम प्रतिनिधित्व में आवश्यक चर की संख्या के रूप में माना जा सकता है। इसी तरह, बहुआयामी संकेतों के संकेत प्रसंस्करण में, सिग्नल का आंतरिक आयाम बताता है कि सिग्नल के अच्छे सन्निकटन को उत्पन्न करने के लिए कितने चर की आवश्यकता होती है।
आंतरिक आयाम का आकलन करते समय, हालांकि, कई गुना आयाम के आधार पर थोड़ी व्यापक परिभाषा का उपयोग अक्सर किया जाता है, जहां आंतरिक आयाम में एक प्रतिनिधित्व को केवल स्थानीय रूप से मौजूद होने की आवश्यकता होती है। इस तरह के आंतरिक आयाम अनुमान तरीके डेटा सेट के विभिन्न भागों में विभिन्न आंतरिक आयामों के साथ डेटा सेट को संभाल सकते हैं। इसे अक्सर स्थानीय आंतरिक आयाम (एलआईडी) के रूप में जाना जाता है।
आंतरिक आयाम का उपयोग आयाम में कमी के माध्यम से डेटा सेट को संपीड़ित करना संभव है, लेकिन इसका उपयोग डेटा सेट या सिग्नल की जटिलता के माप के रूप में भी किया जा सकता है। एन चर के डेटा सेट या सिग्नल के लिए, इसका आंतरिक आयाम एम 0 ≤ एम ≤ एन को संतुष्ट करता है, हालांकि अनुमानक उच्च मान प्राप्त कर सकते हैं।
उदाहरण
होने देनाकई चरों का एक फलन हो | दो-चर फलन (या संकेत) जो कि रूप का हो एक वास्तविक चर के कुछ फ़ंक्शन के लिए | एक-चर फ़ंक्शन जी जो लगातार फ़ंक्शन नहीं है। इसका अर्थ है कि f पहले चर के साथ या पहले निर्देशांक (गणित) के साथ, g के अनुसार भिन्न होता है। दूसरी ओर, f दूसरे चर के संबंध में या दूसरे निर्देशांक के साथ स्थिर है। f का मान निर्धारित करने के लिए केवल एक, अर्थात् पहले चर का मान जानना आवश्यक है। इसलिए, यह एक दो चर वाला कार्य है लेकिन इसका आंतरिक आयाम एक है।
थोड़ा और जटिल उदाहरण है. f अभी भी आंतरिक एक-आयामी है, जिसे चरों में परिवर्तन करके देखा जा सकता है और जो देता है . चूँकि f में भिन्नता को एकल चर y द्वारा वर्णित किया जा सकता है1इसका आंतरिक आयाम एक है।
इस मामले के लिए कि एफ स्थिर है, इसका आंतरिक आयाम शून्य है क्योंकि भिन्नता का वर्णन करने के लिए किसी चर की आवश्यकता नहीं है। सामान्य स्थिति के लिए, जब दो-चर फ़ंक्शन f का आंतरिक आयाम न तो शून्य या एक होता है, तो यह दो होता है।
साहित्य में, फ़ंक्शन जो आंतरिक आयाम शून्य, एक या दो के हैं, उन्हें कभी-कभी क्रमशः i0D, i1D या i2D के रूप में संदर्भित किया जाता है।
संकेतों के लिए औपचारिक परिभाषा
एक एन-वैरिएबल फ़ंक्शन f के लिए, चर के सेट को एन-डायमेंशनल वेक्टर 'x' के रूप में दर्शाया जा सकता है: .
अगर कुछ एम-वैरिएबल फंक्शन जी और एम × एन मैट्रिक्स 'ए' के लिए यह मामला है
- सभी 'एक्स' के लिए;
- M सबसे छोटी संख्या है जिसके लिए f और g के बीच उपरोक्त संबंध पाया जा सकता है,
तो f का आंतरिक आयाम M है।
आंतरिक आयाम f का लक्षण वर्णन है, यह न तो g का और न ही 'A' का स्पष्ट लक्षण वर्णन है। अर्थात्, यदि उपरोक्त संबंध कुछ f, g, और 'A' के लिए संतुष्ट है, तो इसे उसी f और g' और 'A द्वारा दिए गए के लिए भी संतुष्ट होना चाहिए और जहां बी एक गैर-एकवचन एम × एम मैट्रिक्स है, क्योंकि .
कम आंतरिक आयाम के संकेतों का फूरियर रूपांतरण
एक एन वेरिएबल फ़ंक्शन जिसमें आंतरिक आयाम एम <एन है, में एक विशेषता फूरियर रूपांतरण है। सहज रूप से, चूंकि इस प्रकार का फ़ंक्शन एक या कई आयामों के साथ स्थिर होता है, इसलिए फूरियर ट्रांसफ़ॉर्म आवृत्ति डोमेन में समान आयाम के साथ डिराक डेल्टा समारोह (स्थिर का फूरियर ट्रांसफ़ॉर्म) की तरह दिखाई देना चाहिए।
एक साधारण उदाहरण
मान लीजिए f एक दो-चर फलन है जो कि i1D है। इसका मतलब है कि एक सामान्यीकृत वेक्टर मौजूद है और एक एक चर समारोह जी ऐसा है कि सभी के लिए . यदि F, f का फूरियर रूपांतरण है (दोनों दो-चर कार्य हैं) तो ऐसा होना चाहिए .
यहाँ G, g का फूरियर रूपांतरण है (दोनों एक-चर कार्य हैं), δ Dirac डेल्टा फ़ंक्शन है और 'm' एक सामान्यीकृत वेक्टर है n के लंबवत। इसका मतलब यह है कि एफ एक रेखा को छोड़कर हर जगह गायब हो जाता है जो आवृत्ति डोमेन की उत्पत्ति के माध्यम से गुजरता है और एम के समानांतर है। इस रेखा के साथ 'एफ' 'जी' के अनुसार बदलता रहता है।
सामान्य मामला
मान लीजिए f एक N-वैरिएबल फ़ंक्शन है जिसका आंतरिक आयाम M है, अर्थात, एक M-वैरिएबल फ़ंक्शन g और M × N मैट्रिक्स 'A' मौजूद है जैसे कि .
इसके फूरियर ट्रांसफॉर्म एफ को निम्नानुसार वर्णित किया जा सकता है:
- एफ आयाम एम के उप-स्थान को छोड़कर हर जगह गायब हो जाता है
- उपस्थान M को मैट्रिक्स 'A' की पंक्तियों द्वारा फैलाया गया है
- उप-स्थान में, एफ जी के अनुसार जी के फूरियर रूपांतरण के अनुसार भिन्न होता है
सामान्यीकरण
ऊपर वर्णित आंतरिक आयाम का प्रकार यह मानता है कि एन-वैरिएबल फ़ंक्शन एफ के निर्देशांक पर एक रैखिक परिवर्तन लागू किया जाता है ताकि एम चर का उत्पादन किया जा सके जो कि एफ के प्रत्येक मूल्य का प्रतिनिधित्व करने के लिए आवश्यक है। इसका मतलब यह है कि एन और एम के आधार पर एफ लाइनों, विमानों या हाइपरप्लेन के साथ स्थिर है।
एक सामान्य स्थिति में, f का आंतरिक आयाम M होता है यदि M फ़ंक्शन a मौजूद होता है1, ए2, ..., एMऔर एक एम-वैरिएबल फ़ंक्शन जी ऐसा है
- सभी एक्स के लिए
- एम कार्यों की सबसे छोटी संख्या है जो उपरोक्त परिवर्तन की अनुमति देता है
एक साधारण उदाहरण 2-वैरिएबल फ़ंक्शन f को ध्रुवीय निर्देशांक में बदल रहा है:
- , f i1D है और मूल बिंदु पर केंद्रित किसी भी वृत्त के साथ स्थिर है
- , f i1D है और उत्पत्ति से सभी किरणों के साथ स्थिर है
सामान्य मामले के लिए, या तो बिंदु सेट का एक सरल विवरण जिसके लिए f स्थिर है या इसका फूरियर रूपांतरण आमतौर पर संभव नहीं है।
स्थानीय आंतरिक आयाम
स्थानीय आंतरिक आयाम (एलआईडी) अवलोकन को संदर्भित करता है कि अक्सर डेटा को निम्न-आयामी मैनिफोल्ड पर वितरित किया जाता है जब केवल डेटा के पास के सबसेट पर विचार किया जाता है। उदाहरण के लिए समारोह एक-आयामी माना जा सकता है जब y 0 के करीब हो (एक चर x के साथ), दो-आयामी जब y 1 के करीब हो, और फिर से एक-आयामी जब y धनात्मक हो और 1 से बहुत बड़ा हो (चर x+y के साथ) .
स्थानीय आंतरिक आयाम का उपयोग अक्सर डेटा के संबंध में किया जाता है। इसके बाद आमतौर पर डेटा बिंदु के k निकटतम पड़ोसियों के आधार पर अनुमान लगाया जाता है,[1] अक्सर गणित में दोहरीकरण स्थान से संबंधित अवधारणा पर आधारित होता है। चूँकि d-sphere का आयतन d में घातीय रूप से बढ़ता है, जिस दर पर खोज त्रिज्या के रूप में नए पड़ोसी पाए जाते हैं, उसका उपयोग स्थानीय आंतरिक आयाम (जैसे, GED अनुमान) का अनुमान लगाने के लिए किया जा सकता है।[2]). हालाँकि, अनुमान के वैकल्पिक दृष्टिकोण प्रस्तावित किए गए हैं, उदाहरण के लिए कोण-आधारित अनुमान।[3]
इतिहास
1950 के दशक के दौरान बहुआयामी डेटा सेटों का पता लगाने और सारांशित करने के लिए तथाकथित स्केलिंग विधियों को सामाजिक विज्ञानों में विकसित किया गया था।[4] 1962 में शेपर्ड द्वारा गैर-मीट्रिक बहुआयामी स्केलिंग शुरू करने के बाद[5] बहुआयामी स्केलिंग (एमडीएस) के भीतर प्रमुख शोध क्षेत्रों में से एक आंतरिक आयाम का अनुमान था।[6] इस विषय का अध्ययन सूचना सिद्धांत में भी किया गया था, 1965 में बेनेट द्वारा अग्रणी, जिन्होंने आंतरिक आयाम शब्द गढ़ा और इसका अनुमान लगाने के लिए एक कंप्यूटर प्रोग्राम लिखा।[7][8][9] 1970 के दशक के दौरान आंतरिक आयामीता आकलन विधियों का निर्माण किया गया था जो एमडीएस जैसे आयामीता में कमी पर निर्भर नहीं करती थी: स्थानीय eigenvalues के आधार पर।[10] दूरी वितरण के आधार पर,[11] और अन्य आयाम-निर्भर ज्यामितीय गुणों पर आधारित है[12] गतिशील प्रणालियों के क्षेत्र में लगभग 1980 के बाद से सेट और संभाव्यता उपायों के आंतरिक आयाम का व्यापक अध्ययन किया गया है, जहां (अजीब) आकर्षित करने वालों के आयाम रुचि का विषय रहे हैं।[13][14][15][16] अजीब आकर्षित करने वालों के लिए कई गुना धारणा नहीं है, और मापा गया आयाम भग्न आयाम का कुछ संस्करण है - जो गैर-पूर्णांक भी हो सकता है। हालाँकि, भग्न आयाम की परिभाषाएँ कई गुना के लिए कई गुना आयाम देती हैं।
2000 के दशक में आंतरिक आयाम का अनुमान लगाने के लिए आयामीता के अभिशाप का उपयोग किया गया है।[17][18]
अनुप्रयोग
एक दो-चर संकेत का मामला जो i1D है अक्सर कंप्यूटर दृष्टि और छवि प्रसंस्करण में प्रकट होता है और स्थानीय छवि क्षेत्रों के विचार को पकड़ता है जिसमें रेखाएँ या किनारे होते हैं। ऐसे क्षेत्रों के विश्लेषण का एक लंबा इतिहास है, लेकिन यह तब तक नहीं था जब तक कि इस तरह के ऑपरेशनों का अधिक औपचारिक और सैद्धांतिक उपचार शुरू नहीं हुआ था, तब तक आंतरिक आयाम की अवधारणा स्थापित नहीं हुई थी, भले ही नाम भिन्न हो।
उदाहरण के लिए, अवधारणा जिसे यहाँ आंतरिक आयाम 1 या i1D पड़ोस के एक छवि पड़ोस के रूप में संदर्भित किया जाता है, को नटसन (1982) द्वारा 1-आयामी कहा जाता है,[19] बिगून और ग्रैनलंड द्वारा रैखिक सममित (1987)[20] और ग्रैनलुंड एंड नट्ससन (1995) में सरल पड़ोस।[21]
यह भी देखें
संदर्भ
- ↑ Amsaleg, Laurent; Chelly, Oussama; Furon, Teddy; Girard, Stéphane; Houle, Michael E.; Kawarabayashi, Ken-ichi; Nett, Michael (2015-08-10). "स्थानीय आंतरिक आयाम का अनुमान लगाना". Proceedings of the 21th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. KDD '15. Sydney, NSW, Australia: Association for Computing Machinery: 29–38. doi:10.1145/2783258.2783405. ISBN 978-1-4503-3664-2. S2CID 16058196.
- ↑ Houle, M. E.; Kashima, H.; Nett, M. (2012). "सामान्यीकृत विस्तार आयाम". 2012 IEEE 12th International Conference on Data Mining Workshops: 587–594. doi:10.1109/ICDMW.2012.94. ISBN 978-1-4673-5164-5. S2CID 8336466.
- ↑ Thordsen, Erik; Schubert, Erich (2020). Satoh, Shin'ichi; Vadicamo, Lucia; Zimek, Arthur; Carrara, Fabio; Bartolini, Ilaria; Aumüller, Martin; Jónsson, Björn Þór; Pagh, Rasmus (eds.). "ABID: Angle Based Intrinsic Dimensionality". Similarity Search and Applications. Lecture Notes in Computer Science (in English). Cham: Springer International Publishing. 12440: 218–232. arXiv:2006.12880. doi:10.1007/978-3-030-60936-8_17. ISBN 978-3-030-60936-8. S2CID 219980390.
- ↑ Torgerson, Warren S. (1978) [1958]. Theory and methods of scaling. Wiley. ISBN 0471879452. OCLC 256008416.
- ↑ Shepard, Roger N. (1962). "The analysis of proximities: Multidimensional scaling with an unknown distance function. I.". Psychometrika. 27 (2): 125–140. doi:10.1007/BF02289630. S2CID 186222646.
- ↑ Shepard, Roger N. (1974). "Representation of structure in similarity data: Problems and prospects". Psychometrika. 39 (4): 373–421. doi:10.1007/BF02291665. S2CID 121704645.
- ↑ Bennet, Robert S. (June 1965). "Representation and analysis of signals—Part XXI: The intrinsic dimensionality of signal collections". Rep. 163. Baltimore, MD: The Johns Hopkins University.
- ↑ Robert S. Bennett (1965). Representation and Analysis of Signals Part XXI. The intrinsic dimensionality of signal collections (PDF) (PhD). Ann Arbor, Michigan: The Johns Hopkins University. Archived from the original (PDF) on December 27, 2019.
- ↑ Bennett, Robert S. (September 1969). "The intrinsic dimensionality of signal collections". IEEE Transactions on Information Theory. 15 (5): 517–525. doi:10.1109/TIT.1969.1054365.
- ↑ Fukunaga, K.; Olsen, D. R. (1971). "डेटा की आंतरिक आयामीता खोजने के लिए एक एल्गोरिथ्म". IEEE Transactions on Computers. 20 (2): 176–183. doi:10.1109/T-C.1971.223208. S2CID 30206700.
- ↑ Pettis, K. W.; Bailey, Thomas A.; Jain, Anil K.; Dubes, Richard C. (1979). "निकट-पड़ोसी जानकारी से आंतरिक आयामी अनुमानक". IEEE Transactions on Pattern Analysis and Machine Intelligence. 1 (1): 25–37. doi:10.1109/TPAMI.1979.4766873. PMID 21868828. S2CID 2196461.
- ↑ Trunk, G. V. (1976). "एक शोर संकेत संग्रह के आंतरिक आयाम का सांख्यिकीय अनुमान". IEEE Transactions on Computers. 100 (2): 165–171. doi:10.1109/TC.1976.5009231. S2CID 1181023.
- ↑ Grassberger, P.; Procaccia, I. (1983). "अजीब आकर्षित करने वालों की विचित्रता को मापना". Physica D: Nonlinear Phenomena. 9 (1–2): 189–208. Bibcode:1983PhyD....9..189G. doi:10.1016/0167-2789(83)90298-1.
- ↑ Takens, F. (1984). "On the numerical determination of the dimension of an attractor". In Tong, Howell (ed.). Dynamical Systems and Bifurcations, Proceedings of a Workshop Held in Groningen, The Netherlands, April 16-20, 1984. Lecture Notes in Mathematics. Vol. 1125. Springer-Verlag. pp. 99–106. doi:10.1007/BFb0075637. ISBN 3540394117.
- ↑ Cutler, C. D. (1993). "A review of the theory and estimation of fractal dimension". आयाम अनुमान और मॉडल. Nonlinear Time Series and Chaos. Vol. 1. World Scientific. pp. 1–107. ISBN 9810213530.
- ↑ Harte, D. (2001). Multifractals — Theory and Applications. Chapman and Hall/CRC. ISBN 9781584881544.
- ↑ Chavez, E. (2001). "मीट्रिक रिक्त स्थान में खोज करना". ACM Computing Surveys. 33 (3): 273–321. doi:10.1145/502807.502808. hdl:10533/172863. S2CID 3201604.
- ↑ Pestov, V. (2008). "डेटासेट के आंतरिक आयाम के लिए एक स्वयंसिद्ध दृष्टिकोण". Neural Networks. 21 (2–3): 204–213. arXiv:0712.2063. doi:10.1016/j.neunet.2007.12.030. PMID 18234471. S2CID 2309396.
- ↑ Knutsson, Hans (1982). Filtering and reconstruction in image processing (PDF). Linköping Studies in Science and Technology. Vol. 88. Linköping University. ISBN 91-7372-595-1. oai:DiVA.org:liu-54890.
- ↑ Bigün, Josef; Granlund, Gösta H. (1987). "Optimal orientation detection of linear symmetry" (PDF). Proceedings of the International Conference on Computer Vision. pp. 433–438.
- ↑ Granlund, Gösta H.; Knutsson, Hans (1995). Signal Processing in Computer Vision. Kluwer Academic. ISBN 978-1-4757-2377-9.
- Michael Felsberg; Sinan Kalkan; Norbert Krueger (2009). "Continuous Dimensionality Characterization of Image Structures". Image and Vision Computing. 27 (6): 628–636. doi:10.1016/j.imavis.2008.06.018. hdl:11511/36631.