स्वतंत्र घटक विश्लेषण: Difference between revisions
(Created page with "{{Short description|Signal processing computational method}} {{More citations needed|date=October 2011}} {{machine learning|Dimensionality reduction}} संकेत आ...") |
No edit summary |
||
Line 1: | Line 1: | ||
{{Short description|Signal processing computational method}} | {{Short description|Signal processing computational method}} | ||
{{machine learning|Dimensionality reduction}} | {{machine learning|Dimensionality reduction}} | ||
[[ संकेत आगे बढ़ाना ]] में, स्वतंत्र घटक विश्लेषण (आईसीए) | [[ संकेत आगे बढ़ाना | संकेत आगे बढ़ाना]] में, स्वतंत्र घटक विश्लेषण (आईसीए) बहुभिन्नरूपी सांख्यिकी संकेत को योगात्मक उपघटकों में अलग करने के लिए कम्प्यूटेशनल विधि है। ऐसा यह मानकर किया जाता है कि अधिक से अधिक उपघटक गाऊसी है और यह कि उपघटक दूसरे से सांख्यिकीय रूप से स्वतंत्र हैं।<ref>{{cite web | url=http://research.ics.aalto.fi/ica/icademo/ | title=Independent Component Analysis: A Demo }}</ref> ICA [[ अंधा स्रोत जुदाई |अंधा स्रोत जुदाई]] का विशेष मामला है। सामान्य उदाहरण अनुप्रयोग शोरगुल वाले कमरे में व्यक्ति के भाषण को सुनने की कॉकटेल पार्टी समस्या है।<ref>{{Cite journal|last=Hyvärinen|first=Aapo|date=2013|title=Independent component analysis: recent advances|journal=Philosophical Transactions: Mathematical, Physical and Engineering Sciences|volume=371|issue=1984|pages=20110534|issn=1364-503X|jstor=41739975|bibcode=2012RSPTA.37110534H|doi=10.1098/rsta.2011.0534|pmid=23277597|pmc=3538438}}</ref> | ||
== परिचय == | == परिचय == | ||
[[File:A-Local-Learning-Rule-for-Independent-Component-Analysis-srep28073-s3.ogv|300px|thumb|right|चार बेतरतीब ढंग से मिश्रित वीडियो पर ICA।<ref>{{cite journal|last1=Isomura|first1=Takuya|last2=Toyoizumi|first2=Taro|title=स्वतंत्र घटक विश्लेषण के लिए एक स्थानीय शिक्षण नियम|journal=Scientific Reports|volume=6|pages=28073|date=2016|doi=10.1038/srep28073|pmid=27323661|pmc=4914970|bibcode=2016NatSR...628073I}}</ref> शीर्ष: मूल स्रोत वीडियो। मध्य: एल्गोरिदम में इनपुट के रूप में उपयोग किए जाने वाले चार यादृच्छिक मिश्रण। नीचे: पुनर्निर्मित वीडियो।]]स्वतंत्र घटक विश्लेषण | [[File:A-Local-Learning-Rule-for-Independent-Component-Analysis-srep28073-s3.ogv|300px|thumb|right|चार बेतरतीब ढंग से मिश्रित वीडियो पर ICA।<ref>{{cite journal|last1=Isomura|first1=Takuya|last2=Toyoizumi|first2=Taro|title=स्वतंत्र घटक विश्लेषण के लिए एक स्थानीय शिक्षण नियम|journal=Scientific Reports|volume=6|pages=28073|date=2016|doi=10.1038/srep28073|pmid=27323661|pmc=4914970|bibcode=2016NatSR...628073I}}</ref> शीर्ष: मूल स्रोत वीडियो। मध्य: एल्गोरिदम में इनपुट के रूप में उपयोग किए जाने वाले चार यादृच्छिक मिश्रण। नीचे: पुनर्निर्मित वीडियो।]]स्वतंत्र घटक विश्लेषण बहुभिन्नरूपी संकेत को स्वतंत्र गैर-गाऊसी संकेतों में विघटित करने का प्रयास करता है। उदाहरण के रूप में, ध्वनि आमतौर पर संकेत होता है जो कई स्रोतों से संकेतों के प्रत्येक समय टी पर संख्यात्मक जोड़ से बना होता है। सवाल यह है कि क्या इन योगदान स्रोतों को देखे गए कुल सिग्नल से अलग करना संभव है। जब सांख्यिकीय स्वतंत्रता धारणा सही होती है, तो मिश्रित संकेत का अंधा ICA पृथक्करण बहुत अच्छा परिणाम देता है। इसका उपयोग उन संकेतों के लिए भी किया जाता है जिन्हें विश्लेषण उद्देश्यों के लिए मिश्रित करके उत्पन्न नहीं किया जाना चाहिए। | ||
कॉकटेल पार्टी की समस्या आईसीए का | कॉकटेल पार्टी की समस्या आईसीए का सरल अनुप्रयोग है, जहां अंतर्निहित भाषण संकेतों को कमरे में साथ बात करने वाले लोगों के नमूना डेटा से अलग किया जाता है। आमतौर पर बिना किसी देरी या गूँज के समस्या को सरल बना दिया जाता है। ध्यान दें कि फ़िल्टर्ड और विलंबित संकेत आश्रित घटक की प्रति है, और इस प्रकार सांख्यिकीय स्वतंत्रता धारणा का उल्लंघन नहीं होता है। | ||
निर्माण के लिए वजन मिलाना<math display="inline">M</math>से संकेतों का अवलोकन किया <math display="inline">N</math> घटकों को | निर्माण के लिए वजन मिलाना<math display="inline">M</math>से संकेतों का अवलोकन किया <math display="inline">N</math> घटकों को में रखा जा सकता है <math display="inline">M \times N</math> आव्यूह। विचार करने वाली महत्वपूर्ण बात यह है कि यदि <math display="inline">N</math> स्रोत मौजूद हैं, कम से कम <math display="inline">N</math> मूल संकेतों को पुनर्प्राप्त करने के लिए अवलोकन (उदाहरण के लिए माइक्रोफ़ोन यदि देखा गया संकेत ऑडियो है) की आवश्यकता होती है। जब समान संख्या में अवलोकन और स्रोत संकेत होते हैं, तो मिश्रण मैट्रिक्स वर्गाकार होता है (<math display="inline">M = N</math>). अनिर्धारित के अन्य मामले (<math display="inline">M < N</math>) और अतिनिर्धारित (<math display="inline">M > N</math>) की जांच की गई है। | ||
यह कि मिश्रित संकेतों का ICA पृथक्करण बहुत अच्छे परिणाम देता है, यह दो धारणाओं और मिश्रण स्रोत संकेतों के तीन प्रभावों पर आधारित है। दो धारणाएँ: | यह कि मिश्रित संकेतों का ICA पृथक्करण बहुत अच्छे परिणाम देता है, यह दो धारणाओं और मिश्रण स्रोत संकेतों के तीन प्रभावों पर आधारित है। दो धारणाएँ: | ||
# स्रोत संकेत | # स्रोत संकेत दूसरे से स्वतंत्र हैं। | ||
# प्रत्येक स्रोत सिग्नल के मान में गैर-गाऊसी वितरण होते हैं। | # प्रत्येक स्रोत सिग्नल के मान में गैर-गाऊसी वितरण होते हैं। | ||
स्रोत संकेतों को मिलाने के तीन प्रभाव: | स्रोत संकेतों को मिलाने के तीन प्रभाव: | ||
#स्वतंत्रता: धारणा 1 के अनुसार, स्रोत संकेत स्वतंत्र हैं; हालाँकि, उनके सिग्नल मिश्रण नहीं हैं। ऐसा इसलिए है क्योंकि सिग्नल मिश्रण समान स्रोत सिग्नल साझा करते हैं। | #स्वतंत्रता: धारणा 1 के अनुसार, स्रोत संकेत स्वतंत्र हैं; हालाँकि, उनके सिग्नल मिश्रण नहीं हैं। ऐसा इसलिए है क्योंकि सिग्नल मिश्रण समान स्रोत सिग्नल साझा करते हैं। | ||
#सामान्यता: [[केंद्रीय सीमा प्रमेय]] के अनुसार, परिमित विचरण के साथ स्वतंत्र यादृच्छिक चर के योग का वितरण गॉसियन वितरण की ओर जाता है।<br />सरल शब्दों में कहें तो, दो स्वतंत्र यादृच्छिक चर के योग में आमतौर पर | #सामान्यता: [[केंद्रीय सीमा प्रमेय]] के अनुसार, परिमित विचरण के साथ स्वतंत्र यादृच्छिक चर के योग का वितरण गॉसियन वितरण की ओर जाता है।<br />सरल शब्दों में कहें तो, दो स्वतंत्र यादृच्छिक चर के योग में आमतौर पर वितरण होता है जो इसके करीब होता है गॉसियन दो मूल चरों में से किसी की तुलना में। यहां हम प्रत्येक संकेत के मान को यादृच्छिक चर मानते हैं। | ||
#जटिलता: किसी भी सिग्नल मिश्रण की अस्थायी जटिलता उसके सरलतम घटक स्रोत सिग्नल की तुलना में अधिक होती है। | #जटिलता: किसी भी सिग्नल मिश्रण की अस्थायी जटिलता उसके सरलतम घटक स्रोत सिग्नल की तुलना में अधिक होती है। | ||
वे सिद्धांत आईसीए की बुनियादी स्थापना में योगदान करते हैं। यदि मिश्रण के | वे सिद्धांत आईसीए की बुनियादी स्थापना में योगदान करते हैं। यदि मिश्रण के सेट से निकाले गए संकेत स्वतंत्र हैं, और गैर-गाऊसी हिस्टोग्राम हैं या कम जटिलता है, तो उन्हें स्रोत संकेत होना चाहिए।<ref name="Stone 2004">{{cite book|last=Stone|first=James V.|title=Independent component analysis : a tutorial introduction|year=2004|publisher=MIT Press|location=Cambridge, Massachusetts |isbn=978-0-262-69315-8}}</ref><ref>{{cite book|last1= Hyvärinen |first1=Aapo |last2=Karhunen |first2=Juha |last3=Oja |first3=Erkki |title=स्वतंत्र घटक विश्लेषण|year=2001|publisher=John Wiley & Sons|location=New York|isbn=978-0-471-22131-9|edition=1st}}</ref> | ||
== घटक स्वतंत्रता को परिभाषित करना == | == घटक स्वतंत्रता को परिभाषित करना == | ||
आईसीए अनुमानित घटकों की सांख्यिकीय स्वतंत्रता को अधिकतम करके स्वतंत्र घटकों (जिन्हें कारक, अव्यक्त चर या स्रोत भी कहा जाता है) का पता लगाता है। हम स्वतंत्रता के लिए प्रॉक्सी को परिभाषित करने के कई तरीकों में से | आईसीए अनुमानित घटकों की सांख्यिकीय स्वतंत्रता को अधिकतम करके स्वतंत्र घटकों (जिन्हें कारक, अव्यक्त चर या स्रोत भी कहा जाता है) का पता लगाता है। हम स्वतंत्रता के लिए प्रॉक्सी को परिभाषित करने के कई तरीकों में से चुन सकते हैं, और यह विकल्प आईसीए एल्गोरिथम के रूप को नियंत्रित करता है। आईसीए के लिए स्वतंत्रता की दो व्यापक परिभाषाएँ हैं | ||
# [[आपसी जानकारी]] को कम करना | # [[आपसी जानकारी]] को कम करना | ||
Line 32: | Line 27: | ||
आईसीए के लिए विशिष्ट एल्गोरिदम वास्तविक पुनरावृत्त एल्गोरिदम के लिए समस्या की जटिलता को सरल बनाने और कम करने के लिए केंद्रीकरण (शून्य माध्य संकेत बनाने के लिए माध्य घटाना), श्वेत परिवर्तन (आमतौर पर ईजेनवेल्यू अपघटन के साथ), और पूर्वप्रक्रमण चरणों के रूप में [[आयाम में कमी]] का उपयोग करते हैं। . मुख्य घटक विश्लेषण या एकवचन मूल्य अपघटन के साथ श्वेतकरण और आयाम में कमी प्राप्त की जा सकती है। श्वेतकरण यह सुनिश्चित करता है कि एल्गोरिदम चलाने से पहले सभी आयामों को समान रूप से प्राथमिकता माना जाता है। आईसीए के लिए प्रसिद्ध एल्गोरिदम में [[infomax]], फास्टआईसीए, जेएडीई (आईसीए), और [[कर्नेल-स्वतंत्र घटक विश्लेषण]] शामिल हैं। सामान्य तौर पर, आईसीए स्रोत संकेतों की वास्तविक संख्या, स्रोत संकेतों के विशिष्ट रूप से सही क्रम, और न ही स्रोत संकेतों के उचित स्केलिंग (साइन सहित) की पहचान नहीं कर सकता है। | आईसीए के लिए विशिष्ट एल्गोरिदम वास्तविक पुनरावृत्त एल्गोरिदम के लिए समस्या की जटिलता को सरल बनाने और कम करने के लिए केंद्रीकरण (शून्य माध्य संकेत बनाने के लिए माध्य घटाना), श्वेत परिवर्तन (आमतौर पर ईजेनवेल्यू अपघटन के साथ), और पूर्वप्रक्रमण चरणों के रूप में [[आयाम में कमी]] का उपयोग करते हैं। . मुख्य घटक विश्लेषण या एकवचन मूल्य अपघटन के साथ श्वेतकरण और आयाम में कमी प्राप्त की जा सकती है। श्वेतकरण यह सुनिश्चित करता है कि एल्गोरिदम चलाने से पहले सभी आयामों को समान रूप से प्राथमिकता माना जाता है। आईसीए के लिए प्रसिद्ध एल्गोरिदम में [[infomax]], फास्टआईसीए, जेएडीई (आईसीए), और [[कर्नेल-स्वतंत्र घटक विश्लेषण]] शामिल हैं। सामान्य तौर पर, आईसीए स्रोत संकेतों की वास्तविक संख्या, स्रोत संकेतों के विशिष्ट रूप से सही क्रम, और न ही स्रोत संकेतों के उचित स्केलिंग (साइन सहित) की पहचान नहीं कर सकता है। | ||
आईसीए सिग्नल पृथक्करण के लिए महत्वपूर्ण है और इसके कई व्यावहारिक अनुप्रयोग हैं। यह डेटा के [[ तथ्यात्मक कोड ]] की खोज (या यहां तक कि | आईसीए सिग्नल पृथक्करण के लिए महत्वपूर्ण है और इसके कई व्यावहारिक अनुप्रयोग हैं। यह डेटा के [[ तथ्यात्मक कोड |तथ्यात्मक कोड]] की खोज (या यहां तक कि विशेष मामले) से निकटता से संबंधित है, यानी, प्रत्येक डेटा वेक्टर का नया वेक्टर-मूल्यवान प्रतिनिधित्व इस तरह से परिणामी कोड वेक्टर (नुकसान मुक्त) द्वारा विशिष्ट रूप से एन्कोड किया जाता है। कोडिंग), लेकिन कोड घटक सांख्यिकीय रूप से स्वतंत्र हैं। | ||
== गणितीय परिभाषाएँ == | == गणितीय परिभाषाएँ == | ||
रैखिक स्वतंत्र घटक विश्लेषण को नीरव और शोर वाले मामलों में विभाजित किया जा सकता है, जहां नीरव आईसीए शोर आईसीए का | रैखिक स्वतंत्र घटक विश्लेषण को नीरव और शोर वाले मामलों में विभाजित किया जा सकता है, जहां नीरव आईसीए शोर आईसीए का विशेष मामला है। नॉनलाइनियर आईसीए को अलग मामले के रूप में माना जाना चाहिए। | ||
=== सामान्य परिभाषा === | === सामान्य परिभाषा === | ||
डेटा को देखे गए [[यादृच्छिक वेक्टर]] द्वारा दर्शाया गया है <math>\boldsymbol{x}=(x_1,\ldots,x_m)^T</math> और छिपे हुए घटक यादृच्छिक वेक्टर के रूप में <math>\boldsymbol{s}=(s_1,\ldots,s_n)^T.</math> कार्य देखे गए डेटा को बदलना है <math>\boldsymbol{x},</math> | डेटा को देखे गए [[यादृच्छिक वेक्टर]] द्वारा दर्शाया गया है <math>\boldsymbol{x}=(x_1,\ldots,x_m)^T</math> और छिपे हुए घटक यादृच्छिक वेक्टर के रूप में <math>\boldsymbol{s}=(s_1,\ldots,s_n)^T.</math> कार्य देखे गए डेटा को बदलना है <math>\boldsymbol{x},</math> रैखिक स्थिर परिवर्तन का उपयोग करना <math>\boldsymbol{W}</math> जैसा <math>\boldsymbol{s} = \boldsymbol{W} \boldsymbol{x},</math> अधिकतम स्वतंत्र घटकों के वेक्टर में <math>\boldsymbol{s}</math> किसी कार्य द्वारा मापा जाता है <math>F(s_1,\ldots,s_n)</math> आज़ाद के। | ||
=== जनरेटिव मॉडल === | === जनरेटिव मॉडल === | ||
Line 53: | Line 48: | ||
उसी जनरेटिव मॉडल को सदिश रूप में लिखा जा सकता है <math>\boldsymbol{x}=\sum_{k=1}^{n} s_k \boldsymbol{a}_k</math>, जहां मनाया यादृच्छिक वेक्टर <math>\boldsymbol{x}</math> आधार वैक्टर द्वारा दर्शाया गया है <math>\boldsymbol{a}_k=(\boldsymbol{a}_{1,k},\ldots,\boldsymbol{a}_{m,k})^T</math>. आधार वैक्टर <math>\boldsymbol{a}_k</math> मिक्सिंग मैट्रिक्स के कॉलम बनाएं <math>\boldsymbol{A}=(\boldsymbol{a}_1,\ldots,\boldsymbol{a}_n)</math> और उत्पादक सूत्र के रूप में लिखा जा सकता है <math>\boldsymbol{x}=\boldsymbol{A} \boldsymbol{s}</math>, कहाँ <math>\boldsymbol{s}=(s_1,\ldots,s_n)^T</math>. | उसी जनरेटिव मॉडल को सदिश रूप में लिखा जा सकता है <math>\boldsymbol{x}=\sum_{k=1}^{n} s_k \boldsymbol{a}_k</math>, जहां मनाया यादृच्छिक वेक्टर <math>\boldsymbol{x}</math> आधार वैक्टर द्वारा दर्शाया गया है <math>\boldsymbol{a}_k=(\boldsymbol{a}_{1,k},\ldots,\boldsymbol{a}_{m,k})^T</math>. आधार वैक्टर <math>\boldsymbol{a}_k</math> मिक्सिंग मैट्रिक्स के कॉलम बनाएं <math>\boldsymbol{A}=(\boldsymbol{a}_1,\ldots,\boldsymbol{a}_n)</math> और उत्पादक सूत्र के रूप में लिखा जा सकता है <math>\boldsymbol{x}=\boldsymbol{A} \boldsymbol{s}</math>, कहाँ <math>\boldsymbol{s}=(s_1,\ldots,s_n)^T</math>. | ||
मॉडल और प्राप्तियों (नमूने) को देखते हुए <math>\boldsymbol{x}_1,\ldots,\boldsymbol{x}_N</math> यादृच्छिक वेक्टर का <math>\boldsymbol{x}</math>, कार्य दोनों मिश्रण मैट्रिक्स का अनुमान लगाना है <math>\boldsymbol{A}</math> और स्रोत <math>\boldsymbol{s}</math>. यह अनुकूल रूप से गणना करके किया जाता है <math>\boldsymbol{w}</math> वैक्टर और | मॉडल और प्राप्तियों (नमूने) को देखते हुए <math>\boldsymbol{x}_1,\ldots,\boldsymbol{x}_N</math> यादृच्छिक वेक्टर का <math>\boldsymbol{x}</math>, कार्य दोनों मिश्रण मैट्रिक्स का अनुमान लगाना है <math>\boldsymbol{A}</math> और स्रोत <math>\boldsymbol{s}</math>. यह अनुकूल रूप से गणना करके किया जाता है <math>\boldsymbol{w}</math> वैक्टर और लागत समारोह स्थापित करना जो या तो गणना की गैर-गौसियनिटी को अधिकतम करता है <math>s_k = \boldsymbol{w}^T \boldsymbol{x}</math> या आपसी जानकारी को कम करता है। कुछ मामलों में, स्रोतों के संभाव्यता बंटन का प्राथमिक ज्ञान लागत फलन में इस्तेमाल किया जा सकता है। | ||
मूल स्रोत <math>\boldsymbol{s}</math> देखे गए संकेतों को गुणा करके पुनर्प्राप्त किया जा सकता है <math>\boldsymbol{x}</math> मिश्रण मैट्रिक्स के व्युत्क्रम के साथ <math>\boldsymbol{W}=\boldsymbol{A}^{-1}</math>, जिसे अनमिक्सिंग मैट्रिक्स के रूप में भी जाना जाता है। यहाँ यह माना जाता है कि मिश्रण मैट्रिक्स वर्ग है (<math>n=m</math>). यदि आधार सदिशों की संख्या प्रेक्षित सदिशों की विमा से अधिक है, <math>n>m</math>, कार्य अधूरा है लेकिन छद्म व्युत्क्रम के साथ अभी भी हल करने योग्य है। | मूल स्रोत <math>\boldsymbol{s}</math> देखे गए संकेतों को गुणा करके पुनर्प्राप्त किया जा सकता है <math>\boldsymbol{x}</math> मिश्रण मैट्रिक्स के व्युत्क्रम के साथ <math>\boldsymbol{W}=\boldsymbol{A}^{-1}</math>, जिसे अनमिक्सिंग मैट्रिक्स के रूप में भी जाना जाता है। यहाँ यह माना जाता है कि मिश्रण मैट्रिक्स वर्ग है (<math>n=m</math>). यदि आधार सदिशों की संख्या प्रेक्षित सदिशों की विमा से अधिक है, <math>n>m</math>, कार्य अधूरा है लेकिन छद्म व्युत्क्रम के साथ अभी भी हल करने योग्य है। | ||
Line 63: | Line 58: | ||
==== अरैखिक आईसीए ==== | ==== अरैखिक आईसीए ==== | ||
स्रोतों के मिश्रण को रैखिक होने की आवश्यकता नहीं है। | स्रोतों के मिश्रण को रैखिक होने की आवश्यकता नहीं है। अरैखिक मिश्रण समारोह का उपयोग करना <math>f(\cdot|\theta)</math> मापदंडों के साथ <math>\theta</math> [[ अरेखीय आईसीए |अरेखीय आईसीए]] मॉडल है <math>x=f(s|\theta)+n</math>. | ||
=== पहचान === | === पहचान === | ||
Line 69: | Line 64: | ||
स्रोतों के क्रमपरिवर्तन और स्केलिंग तक स्वतंत्र घटकों की पहचान की जा सकती है। इस पहचान की आवश्यकता है कि: | स्रोतों के क्रमपरिवर्तन और स्केलिंग तक स्वतंत्र घटकों की पहचान की जा सकती है। इस पहचान की आवश्यकता है कि: | ||
* अधिक से अधिक | * अधिक से अधिक स्रोत <math>s_k</math> गाऊसी है, | ||
* देखे गए मिश्रणों की संख्या, <math>m</math>, कम से कम अनुमानित घटकों की संख्या जितनी बड़ी होनी चाहिए <math>n</math>: <math>m \ge n</math>. यह मिश्रण मैट्रिक्स कहने के बराबर है <math>\boldsymbol{A}</math> इसके व्युत्क्रम के अस्तित्व के लिए पूर्ण [[रैंक (रैखिक बीजगणित)]] का होना चाहिए। | * देखे गए मिश्रणों की संख्या, <math>m</math>, कम से कम अनुमानित घटकों की संख्या जितनी बड़ी होनी चाहिए <math>n</math>: <math>m \ge n</math>. यह मिश्रण मैट्रिक्स कहने के बराबर है <math>\boldsymbol{A}</math> इसके व्युत्क्रम के अस्तित्व के लिए पूर्ण [[रैंक (रैखिक बीजगणित)]] का होना चाहिए। | ||
== बाइनरी आईसीए == | == बाइनरी आईसीए == | ||
आईसीए का | आईसीए का विशेष संस्करण बाइनरी आईसीए है जिसमें सिग्नल स्रोत और मॉनिटर दोनों बाइनरी फॉर्म में हैं और मॉनिटर से अवलोकन बाइनरी स्वतंत्र स्रोतों के संयोजन मिश्रण हैं। समस्या को [[चिकित्सा निदान]], [[बहु-क्लस्टर असाइनमेंट]], [[नेटवर्क टोमोग्राफी]] और [[इंटरनेट संसाधन प्रबंधन]] सहित कई डोमेन में अनुप्रयोगों के लिए दिखाया गया था। | ||
होने देना <math>{x_1, x_2, \ldots, x_m}</math> से बाइनरी चर का सेट हो <math>m</math> मॉनिटर और <math>{y_1, y_2, \ldots, y_n}</math> से बाइनरी चर का सेट हो <math>n</math> स्रोत। स्रोत-मॉनिटर कनेक्शन (अज्ञात) मिश्रण मैट्रिक्स द्वारा दर्शाए जाते हैं <math display="inline">\boldsymbol{G}</math>, कहाँ <math>g_{ij} = 1</math> इंगित करता है कि i-वें स्रोत से संकेत j-वें मॉनिटर द्वारा देखा जा सकता है। सिस्टम निम्नानुसार काम करता है: किसी भी समय, यदि कोई स्रोत <math>i</math> सक्रिय है (<math>y_i=1</math>) और यह मॉनिटर से जुड़ा होता है <math>j</math> (<math>g_{ij}=1</math>) फिर मॉनिटर <math>j</math> कुछ गतिविधि देखेंगे (<math>x_j=1</math>). औपचारिक रूप से हमारे पास है: | होने देना <math>{x_1, x_2, \ldots, x_m}</math> से बाइनरी चर का सेट हो <math>m</math> मॉनिटर और <math>{y_1, y_2, \ldots, y_n}</math> से बाइनरी चर का सेट हो <math>n</math> स्रोत। स्रोत-मॉनिटर कनेक्शन (अज्ञात) मिश्रण मैट्रिक्स द्वारा दर्शाए जाते हैं <math display="inline">\boldsymbol{G}</math>, कहाँ <math>g_{ij} = 1</math> इंगित करता है कि i-वें स्रोत से संकेत j-वें मॉनिटर द्वारा देखा जा सकता है। सिस्टम निम्नानुसार काम करता है: किसी भी समय, यदि कोई स्रोत <math>i</math> सक्रिय है (<math>y_i=1</math>) और यह मॉनिटर से जुड़ा होता है <math>j</math> (<math>g_{ij}=1</math>) फिर मॉनिटर <math>j</math> कुछ गतिविधि देखेंगे (<math>x_j=1</math>). औपचारिक रूप से हमारे पास है: | ||
Line 85: | Line 80: | ||
उपरोक्त समस्या को ह्यूरिस्टिक रूप से हल किया जा सकता है<ref name="Hyvärinen">जोहान हिमबर्गैंड आपो हाइवरिनन, [http://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.11.8895 बाइनरी डेटा के लिए स्वतंत्र घटक विश्लेषण: एक प्रायोगिक अध्ययन], प्रोक। इंट। इंडिपेंडेंट कंपोनेंट एनालिसिस एंड ब्लाइंड सिग्नल सेपरेशन (ICA2001), सैन डिएगो, कैलिफ़ोर्निया, 2001 पर वर्कशॉप। </ रेफ> यह मानकर कि चर निरंतर हैं और मिक्सिंग मैट्रिक्स प्राप्त करने के लिए बाइनरी ऑब्जर्वेशन डेटा पर FastICA चला रहे हैं <math display="inline">\boldsymbol{G}</math> (वास्तविक मूल्य), फिर [[गोल संख्या]] तकनीकों को लागू करें <math display="inline">\boldsymbol{G}</math> बाइनरी मान प्राप्त करने के लिए। यह दृष्टिकोण अत्यधिक गलत परिणाम उत्पन्न करने के लिए दिखाया गया है।{{citation needed|date=October 2012}} | उपरोक्त समस्या को ह्यूरिस्टिक रूप से हल किया जा सकता है<ref name="Hyvärinen">जोहान हिमबर्गैंड आपो हाइवरिनन, [http://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.11.8895 बाइनरी डेटा के लिए स्वतंत्र घटक विश्लेषण: एक प्रायोगिक अध्ययन], प्रोक। इंट। इंडिपेंडेंट कंपोनेंट एनालिसिस एंड ब्लाइंड सिग्नल सेपरेशन (ICA2001), सैन डिएगो, कैलिफ़ोर्निया, 2001 पर वर्कशॉप। </ रेफ> यह मानकर कि चर निरंतर हैं और मिक्सिंग मैट्रिक्स प्राप्त करने के लिए बाइनरी ऑब्जर्वेशन डेटा पर FastICA चला रहे हैं <math display="inline">\boldsymbol{G}</math> (वास्तविक मूल्य), फिर [[गोल संख्या]] तकनीकों को लागू करें <math display="inline">\boldsymbol{G}</math> बाइनरी मान प्राप्त करने के लिए। यह दृष्टिकोण अत्यधिक गलत परिणाम उत्पन्न करने के लिए दिखाया गया है।{{citation needed|date=October 2012}} | ||
एक अन्य विधि [[गतिशील प्रोग्रामिंग]] का उपयोग करना है: अवलोकन मैट्रिक्स को पुनरावर्ती रूप से तोड़ना <math display="inline">\boldsymbol{X}</math> इसके उप-मैट्रिसेस में और इन सब-मैट्रिसेस पर इंट्रेंस एल्गोरिथम चलाते हैं। मुख्य अवलोकन जो इस एल्गोरिथम की ओर ले जाता है वह उप-मैट्रिक्स है <math display="inline">\boldsymbol{X}^0</math> का <math display="inline">\boldsymbol{X}</math> कहाँ <math display="inline">x_{ij} = 0, \forall j</math> छिपे हुए घटकों के निष्पक्ष अवलोकन मैट्रिक्स से मेल खाती है जिनका संबंध नहीं है <math>i</math>-वें मॉनिटर। से प्रायोगिक परिणाम<ref name="Huyna">Huy Nguyen and Rong Zheng, ''[http://ieeexplore.ieee.org/xpls/abs_all.jsp?arnumber=5753957 Binary Independent Component Analysis With or Mixtures]'', IEEE Transactions on Signal Processing, Vol. 59, Issue 7. (July 2011), pp. 3168–3181.</ref> दिखाएँ कि यह दृष्टिकोण मध्यम शोर स्तरों के तहत सटीक है। | एक अन्य विधि [[गतिशील प्रोग्रामिंग]] का उपयोग करना है: अवलोकन मैट्रिक्स को पुनरावर्ती रूप से तोड़ना <math display="inline">\boldsymbol{X}</math> इसके उप-मैट्रिसेस में और इन सब-मैट्रिसेस पर इंट्रेंस एल्गोरिथम चलाते हैं। मुख्य अवलोकन जो इस एल्गोरिथम की ओर ले जाता है वह उप-मैट्रिक्स है <math display="inline">\boldsymbol{X}^0</math> का <math display="inline">\boldsymbol{X}</math> कहाँ <math display="inline">x_{ij} = 0, \forall j</math> छिपे हुए घटकों के निष्पक्ष अवलोकन मैट्रिक्स से मेल खाती है जिनका संबंध नहीं है <math>i</math>-वें मॉनिटर। से प्रायोगिक परिणाम<nowiki><ref name="Huyna">Huy Nguyen and Rong Zheng, </nowiki>''[http://ieeexplore.ieee.org/xpls/abs_all.jsp?arnumber=5753957 Binary Independent Component Analysis With or Mixtures]'', IEEE Transactions on Signal Processing, Vol. 59, Issue 7. (July 2011), pp. 3168–3181.</ref> दिखाएँ कि यह दृष्टिकोण मध्यम शोर स्तरों के तहत सटीक है। | ||
सामान्यीकृत बाइनरी आईसीए ढांचा<ref name="Generalized Binary ICA">{{cite book|last1=Painsky|first1=Amichai|last2=Rosset|first2=Saharon|last3=Feder|first3=Meir|title=सामान्यीकृत बाइनरी स्वतंत्र घटक विश्लेषण|journal=IEEE International Symposium on Information Theory (ISIT), 2014|pages=1326–1330|doi=10.1109/ISIT.2014.6875048|year=2014|isbn=978-1-4799-5186-4|s2cid=18579555}}</ref> | सामान्यीकृत बाइनरी आईसीए ढांचा<ref name="Generalized Binary ICA">{{cite book|last1=Painsky|first1=Amichai|last2=Rosset|first2=Saharon|last3=Feder|first3=Meir|title=सामान्यीकृत बाइनरी स्वतंत्र घटक विश्लेषण|journal=IEEE International Symposium on Information Theory (ISIT), 2014|pages=1326–1330|doi=10.1109/ISIT.2014.6875048|year=2014|isbn=978-1-4799-5186-4|s2cid=18579555}}</ref> व्यापक समस्या सूत्रीकरण प्रस्तुत करता है जिसके लिए जनरेटिव मॉडल पर किसी भी ज्ञान की आवश्यकता नहीं होती है। दूसरे शब्दों में, यह विधि किसी स्रोत को उसके स्वतंत्र घटकों (जितना संभव हो सके, और बिना किसी जानकारी को खोए) में विघटित करने का प्रयास करती है, जिस तरह से इसे उत्पन्न किया गया था। यद्यपि यह समस्या काफी जटिल दिखाई देती है, इसे शाखा और बाउंड सर्च ट्री एल्गोरिथम या सदिश के साथ मैट्रिक्स के एकल गुणन के साथ कसकर ऊपरी सीमा के साथ सटीक रूप से हल किया जा सकता है। | ||
== अंधा स्रोत जुदाई के तरीके == | == अंधा स्रोत जुदाई के तरीके == | ||
Line 93: | Line 88: | ||
=== [[प्रक्षेपण पीछा]] === | === [[प्रक्षेपण पीछा]] === | ||
सिग्नल मिश्रण में गॉसियन संभाव्यता घनत्व कार्य होते हैं, और स्रोत संकेतों में गैर-गाऊसी प्रायिकता घनत्व फ़ंक्शन होते हैं। प्रत्येक स्रोत संकेत को वजन वेक्टर के आंतरिक उत्पाद और उन सिग्नल मिश्रणों को ले कर संकेत मिश्रणों के | सिग्नल मिश्रण में गॉसियन संभाव्यता घनत्व कार्य होते हैं, और स्रोत संकेतों में गैर-गाऊसी प्रायिकता घनत्व फ़ंक्शन होते हैं। प्रत्येक स्रोत संकेत को वजन वेक्टर के आंतरिक उत्पाद और उन सिग्नल मिश्रणों को ले कर संकेत मिश्रणों के सेट से निकाला जा सकता है जहां यह आंतरिक उत्पाद सिग्नल मिश्रणों का ऑर्थोगोनल प्रक्षेपण प्रदान करता है। शेष चुनौती इस तरह के वजन वाले वेक्टर को ढूंढ रही है। ऐसा करने के लिए प्रकार का तरीका प्रोजेक्शन परस्यूट है।<ref name="James V. Stone 2004">James V. Stone(2004); "Independent Component Analysis: A Tutorial Introduction", The MIT Press Cambridge, Massachusetts, London, England; {{ISBN|0-262-69315-1}}</ref><ref>Kruskal, JB. 1969; "Toward a practical method which helps uncover the structure of a set of observations by finding the line transformation which optimizes a new "index of condensation", Pages 427–440 of: Milton, RC, & Nelder, JA (eds), Statistical computation; New York, Academic Press</ref> | ||
प्रोजेक्शन पीछा | प्रोजेक्शन पीछा समय में प्रक्षेपण की तलाश करता है जैसे कि निकाला गया संकेत जितना संभव हो उतना गैर-गाऊसी है। यह आईसीए के विपरीत है, जो आमतौर पर एम सिग्नल मिश्रण से साथ एम सिग्नल निकालता है, जिसके लिए एम × एम अनमिक्सिंग मैट्रिक्स का अनुमान लगाने की आवश्यकता होती है। आईसीए पर प्रक्षेपण खोज का व्यावहारिक लाभ यह है कि यदि आवश्यक हो तो एम से कम सिग्नल निकाले जा सकते हैं, जहां प्रत्येक स्रोत सिग्नल को एम-एलिमेंट वेट वेक्टर का उपयोग करके एम सिग्नल मिश्रण से निकाला जाता है। | ||
प्रक्षेपण खोज के उपयोग के साथ सही वज़न वैक्टर ढूंढकर हम कर्टोसिस का उपयोग एकाधिक स्रोत सिग्नल को पुनर्प्राप्त करने के लिए कर सकते हैं। | प्रक्षेपण खोज के उपयोग के साथ सही वज़न वैक्टर ढूंढकर हम कर्टोसिस का उपयोग एकाधिक स्रोत सिग्नल को पुनर्प्राप्त करने के लिए कर सकते हैं। | ||
एक परिमित नमूने के लिए | एक परिमित नमूने के लिए संकेत के संभाव्यता घनत्व समारोह के कर्टोसिस की गणना इस प्रकार की जाती है | ||
:<math> | :<math> | ||
Line 105: | Line 100: | ||
कहाँ <math>\mathbf{\overline{y}}</math> का [[नमूना माध्य]] है <math>\mathbf{y}</math>, निकाले गए संकेत। निरंतर 3 सुनिश्चित करता है कि गॉसियन संकेतों में शून्य कर्टोसिस है, सुपर-गाऊसी संकेतों में सकारात्मक कुर्तोसिस है, और उप-गाऊसी संकेतों में नकारात्मक कुर्तोसिस है। भाजक का विचरण है <math>\mathbf{y}</math>, और यह सुनिश्चित करता है कि मापा कर्टोसिस सिग्नल विचरण को ध्यान में रखता है। प्रोजेक्शन परस्यूट का लक्ष्य कर्टोसिस को अधिकतम करना है, और निकाले गए सिग्नल को यथासंभव गैर-सामान्य बनाना है। | कहाँ <math>\mathbf{\overline{y}}</math> का [[नमूना माध्य]] है <math>\mathbf{y}</math>, निकाले गए संकेत। निरंतर 3 सुनिश्चित करता है कि गॉसियन संकेतों में शून्य कर्टोसिस है, सुपर-गाऊसी संकेतों में सकारात्मक कुर्तोसिस है, और उप-गाऊसी संकेतों में नकारात्मक कुर्तोसिस है। भाजक का विचरण है <math>\mathbf{y}</math>, और यह सुनिश्चित करता है कि मापा कर्टोसिस सिग्नल विचरण को ध्यान में रखता है। प्रोजेक्शन परस्यूट का लक्ष्य कर्टोसिस को अधिकतम करना है, और निकाले गए सिग्नल को यथासंभव गैर-सामान्य बनाना है। | ||
कर्टोसिस को गैर-सामान्यता के माप के रूप में उपयोग करते हुए, अब हम जांच कर सकते हैं कि सिग्नल का कर्टोसिस कैसे होता है <math>\mathbf{y} = \mathbf{w}^T \mathbf{x}</math> एम मिश्रण के | कर्टोसिस को गैर-सामान्यता के माप के रूप में उपयोग करते हुए, अब हम जांच कर सकते हैं कि सिग्नल का कर्टोसिस कैसे होता है <math>\mathbf{y} = \mathbf{w}^T \mathbf{x}</math> एम मिश्रण के सेट से निकाला गया <math>\mathbf{x}=(x_1,x_2,\ldots,x_M)^T</math> वजन वेक्टर के रूप में भिन्न होता है <math>\mathbf{w}</math> मूल के चारों ओर घुमाया जाता है। हमारी धारणा को देखते हुए कि प्रत्येक स्रोत संकेत देता है <math>\mathbf{s}</math> सुपर-गाऊसी है जिसकी हम उम्मीद करेंगे: | ||
# निकाले गए सिग्नल का कर्टोसिस <math>\mathbf{y}</math> अधिकतम सटीक होना जब <math>\mathbf{y} = \mathbf{s}</math>. | # निकाले गए सिग्नल का कर्टोसिस <math>\mathbf{y}</math> अधिकतम सटीक होना जब <math>\mathbf{y} = \mathbf{s}</math>. | ||
# निकाले गए सिग्नल का कर्टोसिस <math>\mathbf{y}</math> अधिकतम कब होना है <math>\mathbf{w}</math> अनुमानित कुल्हाड़ियों के लिए ओर्थोगोनल है <math>S_1</math> या <math>S_2</math>, क्योंकि हम जानते हैं कि इष्टतम भार सदिश रूपांतरित अक्ष के लिए ओर्थोगोनल होना चाहिए <math>S_1</math> या <math>S_2</math>. | # निकाले गए सिग्नल का कर्टोसिस <math>\mathbf{y}</math> अधिकतम कब होना है <math>\mathbf{w}</math> अनुमानित कुल्हाड़ियों के लिए ओर्थोगोनल है <math>S_1</math> या <math>S_2</math>, क्योंकि हम जानते हैं कि इष्टतम भार सदिश रूपांतरित अक्ष के लिए ओर्थोगोनल होना चाहिए <math>S_1</math> या <math>S_2</math>. | ||
Line 111: | Line 106: | ||
एकाधिक स्रोत मिश्रण संकेतों के लिए, हम संकेतों को पुनर्प्राप्त करने के लिए कर्टोसिस और [[ग्राम-श्मिट]] ऑर्थोगोनलाइज़ेशन (जीएसओ) का उपयोग कर सकते हैं। एम-डायमेंशनल स्पेस में एम सिग्नल मिश्रण दिए जाने पर, जीएसओ इन डेटा पॉइंट्स को वेट वेक्टर का उपयोग करके (एम-1) -डायमेंशनल स्पेस पर प्रोजेक्ट करता है। हम जीएसओ के उपयोग से निकाले गए संकेतों की स्वतंत्रता की गारंटी दे सकते हैं। | एकाधिक स्रोत मिश्रण संकेतों के लिए, हम संकेतों को पुनर्प्राप्त करने के लिए कर्टोसिस और [[ग्राम-श्मिट]] ऑर्थोगोनलाइज़ेशन (जीएसओ) का उपयोग कर सकते हैं। एम-डायमेंशनल स्पेस में एम सिग्नल मिश्रण दिए जाने पर, जीएसओ इन डेटा पॉइंट्स को वेट वेक्टर का उपयोग करके (एम-1) -डायमेंशनल स्पेस पर प्रोजेक्ट करता है। हम जीएसओ के उपयोग से निकाले गए संकेतों की स्वतंत्रता की गारंटी दे सकते हैं। | ||
का सही मान ज्ञात करने के लिए <math>\mathbf{w}</math>, हम [[ ढतला हुआ वंश ]] विधि का उपयोग कर सकते हैं। हम सबसे पहले डेटा को सफेद करते हैं, और रूपांतरित करते हैं <math>\mathbf{x}</math> | का सही मान ज्ञात करने के लिए <math>\mathbf{w}</math>, हम [[ ढतला हुआ वंश |ढतला हुआ वंश]] विधि का उपयोग कर सकते हैं। हम सबसे पहले डेटा को सफेद करते हैं, और रूपांतरित करते हैं <math>\mathbf{x}</math> नए मिश्रण में <math>\mathbf{z}</math>, जिसका इकाई विचरण है, और <math>\mathbf{z}=(z_1,z_2,\ldots,z_M)^T</math>. इस प्रक्रिया को एकवचन मान अपघटन लागू करके प्राप्त किया जा सकता है <math>\mathbf{x}</math>, | ||
: <math>\mathbf{x} = \mathbf{U} \mathbf{D} \mathbf{V}^T</math> | : <math>\mathbf{x} = \mathbf{U} \mathbf{D} \mathbf{V}^T</math> | ||
Line 121: | Line 116: | ||
के लिए अद्यतन करने की प्रक्रिया <math>\mathbf{w}</math> है: | के लिए अद्यतन करने की प्रक्रिया <math>\mathbf{w}</math> है: | ||
:<math>\mathbf{w}_{new}=\mathbf{w}_{old}-\eta\operatorname{E}[\mathbf{z}(\mathbf{w}_{old}^T \mathbf{z})^3 ].</math> | :<math>\mathbf{w}_{new}=\mathbf{w}_{old}-\eta\operatorname{E}[\mathbf{z}(\mathbf{w}_{old}^T \mathbf{z})^3 ].</math> | ||
कहाँ <math>\eta</math> इसकी गारंटी देने के लिए | कहाँ <math>\eta</math> इसकी गारंटी देने के लिए छोटा स्थिरांक है <math>\mathbf{w}</math> इष्टतम समाधान में परिवर्तित हो जाता है। प्रत्येक अद्यतन के बाद, हम सामान्य करते हैं <math>\mathbf{w}_{new}=\frac{\mathbf{w}_{new}}{|\mathbf{w}_{new}|}</math>, और सेट करें <math>\mathbf{w}_{old}=\mathbf{w}_{new}</math>, और अद्यतन प्रक्रिया को अभिसरण तक दोहराएं। हम वेट वेक्टर को अपडेट करने के लिए दूसरे एल्गोरिदम का भी उपयोग कर सकते हैं <math>\mathbf{w}</math>. | ||
एक अन्य दृष्टिकोण नेगेंट्रॉपी का उपयोग कर रहा है<ref name=comon94/><ref>{{cite journal|last=Hyvärinen|first=Aapo|author2=Erkki Oja|title=Independent Component Analysis:Algorithms and Applications|journal=Neural Networks|year=2000|volume=13|issue=4–5|series=4-5|pages=411–430|doi=10.1016/s0893-6080(00)00026-5|pmid=10946390|citeseerx=10.1.1.79.7003|s2cid=11959218 }}</ref> कर्टोसिस के बजाय। कर्टोसिस की तुलना में नेगेंट्रॉपी का उपयोग करना अधिक मजबूत तरीका है, क्योंकि कुर्तोसिस आउटलेयर के प्रति बहुत संवेदनशील है। गौसियन वितरण की | एक अन्य दृष्टिकोण नेगेंट्रॉपी का उपयोग कर रहा है<ref name=comon94/><ref>{{cite journal|last=Hyvärinen|first=Aapo|author2=Erkki Oja|title=Independent Component Analysis:Algorithms and Applications|journal=Neural Networks|year=2000|volume=13|issue=4–5|series=4-5|pages=411–430|doi=10.1016/s0893-6080(00)00026-5|pmid=10946390|citeseerx=10.1.1.79.7003|s2cid=11959218 }}</ref> कर्टोसिस के बजाय। कर्टोसिस की तुलना में नेगेंट्रॉपी का उपयोग करना अधिक मजबूत तरीका है, क्योंकि कुर्तोसिस आउटलेयर के प्रति बहुत संवेदनशील है। गौसियन वितरण की महत्वपूर्ण संपत्ति पर नेगेंट्रॉपी विधियां आधारित हैं: समान भिन्नता के सभी निरंतर यादृच्छिक चर के बीच गॉसियन वैरिएबल में सबसे बड़ा एंट्रॉपी है। यही कारण है कि हम सबसे अधिक नॉनगॉसियन चर खोजना चाहते हैं। [[विभेदक एन्ट्रापी]] में साधारण प्रमाण पाया जा सकता है। | ||
:<math>J(x) = S(y) - S(x)\,</math> | :<math>J(x) = S(y) - S(x)\,</math> | ||
y x के समान सहप्रसरण मैट्रिक्स का गॉसियन यादृच्छिक चर है | y x के समान सहप्रसरण मैट्रिक्स का गॉसियन यादृच्छिक चर है | ||
:<math>S(x) = - \int p_x(u) \log p_x(u) du</math> | :<math>S(x) = - \int p_x(u) \log p_x(u) du</math> | ||
नेगेंट्रॉपी के लिए | नेगेंट्रॉपी के लिए सन्निकटन है | ||
:<math>J(x)=\frac{1}{12}(E(x^3))^2 + \frac{1}{48}(kurt(x))^2</math> कॉमन के मूल पत्रों में | :<math>J(x)=\frac{1}{12}(E(x^3))^2 + \frac{1}{48}(kurt(x))^2</math> कॉमन के मूल पत्रों में प्रमाण पाया जा सकता है;<ref name=pc91/><ref name=comon94/>इसे आपो हाइवरिनन, जुहा करहुनेन और [[एर्की ओजा]] द्वारा स्वतंत्र घटक विश्लेषण पुस्तक में पुन: प्रस्तुत किया गया है।<ref>{{cite book|first1=Aapo |last1=Hyvärinen |first2=Juha |last2=Karhunen |first3=Erkki |last3=Oja|title=स्वतंत्र घटक विश्लेषण|year=2001|publisher=Wiley|location=New York, NY |isbn=978-0-471-40540-5|edition=Reprint}}</ref> यह सन्निकटन भी कर्टोसिस (आउटलेर्स के प्रति संवेदनशीलता) जैसी समस्या से ग्रस्त है। अन्य दृष्टिकोण विकसित किए गए हैं।<ref>{{cite journal|last=Hyvärinen|first=Aapo|title=स्वतंत्र घटक विश्लेषण और प्रक्षेपण खोज के लिए अंतर एंट्रॉपी के नए अनुमान।|journal=Advances in Neural Information Processing Systems|year=1998|volume=10|pages=273–279}}</ref> :<math>J(y) = k_1(E(G_1(y)))^2 + k_2(E(G_2(y)) - E(G_2(v))^2</math> | ||
का | का विकल्प <math>G_1</math> और <math>G_2</math> हैं | ||
:<math>G_1 = \frac{1}{a_1}\log(\cosh(a_1u))</math> और <math>G_2 = -\exp(-\frac{u^2}{2})</math> | :<math>G_1 = \frac{1}{a_1}\log(\cosh(a_1u))</math> और <math>G_2 = -\exp(-\frac{u^2}{2})</math> | ||
Line 136: | Line 131: | ||
=== इन्फोमैक्स === पर आधारित | === इन्फोमैक्स === पर आधारित | ||
इन्फोमैक्स आईसीए<ref name="Bell-Sejnowski">Bell, A. J.; Sejnowski, T. J. (1995). "An Information-Maximization Approach to Blind Separation and Blind Deconvolution", Neural Computation, 7, 1129-1159</ref> अनिवार्य रूप से प्रक्षेपण खोज का | इन्फोमैक्स आईसीए<ref name="Bell-Sejnowski">Bell, A. J.; Sejnowski, T. J. (1995). "An Information-Maximization Approach to Blind Separation and Blind Deconvolution", Neural Computation, 7, 1129-1159</ref> अनिवार्य रूप से प्रक्षेपण खोज का बहुभिन्नरूपी, समानांतर संस्करण है। जबकि प्रोजेक्शन परस्यूट एम सिग्नल मिश्रण के सेट से बार में सिग्नल की श्रृंखला निकालता है, आईसीए समानांतर में एम सिग्नल निकालता है। यह प्रक्षेपण खोज की तुलना में ICA को अधिक मजबूत बनाता है।<ref name="ReferenceA">James V. Stone (2004). "Independent Component Analysis: A Tutorial Introduction", The MIT Press | ||
Cambridge, Massachusetts, London, England; {{ISBN|0-262-69315-1}}</ref> | Cambridge, Massachusetts, London, England; {{ISBN|0-262-69315-1}}</ref> | ||
प्रोजेक्शन परस्यूट विधि निकाले गए सिग्नल की स्वतंत्रता सुनिश्चित करने के लिए ग्राम-श्मिट ऑर्थोगोनलाइजेशन का उपयोग करती है, जबकि आईसीए निकाले गए सिग्नल की स्वतंत्रता सुनिश्चित करने के लिए इन्फोमैक्स और अधिकतम संभावना अनुमान का उपयोग करती है। निकाले गए सिग्नल की गैर-सामान्यता सिग्नल के लिए उपयुक्त मॉडल, या पूर्व, निर्दिष्ट करके हासिल की जाती है। | प्रोजेक्शन परस्यूट विधि निकाले गए सिग्नल की स्वतंत्रता सुनिश्चित करने के लिए ग्राम-श्मिट ऑर्थोगोनलाइजेशन का उपयोग करती है, जबकि आईसीए निकाले गए सिग्नल की स्वतंत्रता सुनिश्चित करने के लिए इन्फोमैक्स और अधिकतम संभावना अनुमान का उपयोग करती है। निकाले गए सिग्नल की गैर-सामान्यता सिग्नल के लिए उपयुक्त मॉडल, या पूर्व, निर्दिष्ट करके हासिल की जाती है। | ||
इन्फोमैक्स पर आधारित आईसीए की प्रक्रिया संक्षेप में है: सिग्नल मिश्रण का | इन्फोमैक्स पर आधारित आईसीए की प्रक्रिया संक्षेप में है: सिग्नल मिश्रण का सेट दिया गया है <math>\mathbf{x}</math> और समान स्वतंत्र मॉडल [[संचयी वितरण कार्य]]ों का सेट (cdfs) <math>g</math>, हम अनमिक्सिंग मैट्रिक्स की तलाश करते हैं <math>\mathbf{W}</math> जो संकेतों की संयुक्त एन्ट्रॉपी को अधिकतम करता है <math>\mathbf{Y}=g(\mathbf{y})</math>, कहाँ <math>\mathbf{y}=\mathbf{Wx}</math> द्वारा निकाले गए संकेत हैं <math>\mathbf{W}</math>. इष्टतम दिया <math>\mathbf{W}</math>, संकेत <math>\mathbf{Y}</math> अधिकतम एन्ट्रापी है और इसलिए स्वतंत्र हैं, जो यह सुनिश्चित करता है कि निकाले गए संकेत <math>\mathbf{y}=g^{-1}(\mathbf{Y})</math> स्वतंत्र भी हैं। <math>g</math> उलटा कार्य है, और सिग्नल मॉडल है। ध्यान दें कि यदि स्रोत संकेत मॉडल प्रायिकता घनत्व कार्य करता है <math>p_s</math> निकाले गए सिग्नल की प्रायिकता घनत्व फ़ंक्शन से मेल खाता है <math>p_{\mathbf{y}}</math>, फिर की संयुक्त एन्ट्रापी को अधिकतम करना <math>Y</math> के बीच आपसी जानकारी की मात्रा को भी अधिकतम करता है <math>\mathbf{x}</math> और <math>\mathbf{Y}</math>. इस कारण से, स्वतंत्र संकेतों को निकालने के लिए एंट्रॉपी का उपयोग करना इन्फोमैक्स के रूप में जाना जाता है। | ||
वेक्टर चर की एन्ट्रापी पर विचार करें <math>\mathbf{Y}=g(\mathbf{y})</math>, कहाँ <math>\mathbf{y}=\mathbf{Wx}</math> अनमिक्सिंग मैट्रिक्स द्वारा निकाले गए संकेतों का सेट है <math>\mathbf{W}</math>. पीडीएफ के साथ वितरण से नमूना मूल्यों के सीमित सेट के लिए <math>p_{\mathbf{y}}</math>, की एन्ट्रापी <math>\mathbf{Y}</math> अनुमान लगाया जा सकता है: | वेक्टर चर की एन्ट्रापी पर विचार करें <math>\mathbf{Y}=g(\mathbf{y})</math>, कहाँ <math>\mathbf{y}=\mathbf{Wx}</math> अनमिक्सिंग मैट्रिक्स द्वारा निकाले गए संकेतों का सेट है <math>\mathbf{W}</math>. पीडीएफ के साथ वितरण से नमूना मूल्यों के सीमित सेट के लिए <math>p_{\mathbf{y}}</math>, की एन्ट्रापी <math>\mathbf{Y}</math> अनुमान लगाया जा सकता है: | ||
Line 180: | Line 175: | ||
h(\mathbf{Y})=\frac{1}{N}\sum_{i=1}^M\sum_{t=1}^N \ln (1-\tanh(\mathbf{w_i^T x^t})^2)+\ln|\mathbf{W}| | h(\mathbf{Y})=\frac{1}{N}\sum_{i=1}^M\sum_{t=1}^N \ln (1-\tanh(\mathbf{w_i^T x^t})^2)+\ln|\mathbf{W}| | ||
</math> | </math> | ||
योग में, | योग में, मनाया संकेत मिश्रण दिया <math>\mathbf{x}</math>, निकाले गए संकेतों का संगत सेट <math>\mathbf{y}</math> और स्रोत सिग्नल मॉडल <math>p_{\mathbf{s}}=g'</math>, हम इष्टतम अनमिक्सिंग मैट्रिक्स पा सकते हैं <math>\mathbf{W}</math>, और निकाले गए संकेतों को स्वतंत्र और गैर-गाऊसी बनाते हैं। प्रोजेक्शन पीछा की स्थिति की तरह, हम अनमिक्सिंग मैट्रिक्स का इष्टतम समाधान खोजने के लिए ग्रेडिएंट डिसेंट विधि का उपयोग कर सकते हैं। | ||
=== अधिकतम संभावना अनुमान के आधार पर === | === अधिकतम संभावना अनुमान के आधार पर === | ||
अधिकतम संभावना अनुमान (एमएलई) पैरामीटर मान खोजने के लिए | अधिकतम संभावना अनुमान (एमएलई) पैरामीटर मान खोजने के लिए मानक सांख्यिकीय उपकरण है (उदाहरण के लिए अनमिक्सिंग मैट्रिक्स <math>\mathbf{W}</math>) जो कुछ डेटा का सबसे अच्छा फिट प्रदान करते हैं (उदाहरण के लिए, निकाले गए सिग्नल <math>y</math>) किसी दिए गए मॉडल के लिए (उदाहरण के लिए, अनुमानित संयुक्त संभावना घनत्व फ़ंक्शन (पीडीएफ) <math>p_s</math> स्रोत संकेतों का)।<ref name="ReferenceA"/> | ||
एमएल मॉडल में | एमएल मॉडल में पीडीएफ का विनिर्देश शामिल होता है, जो इस मामले में पीडीएफ है <math>p_s</math> अज्ञात स्रोत संकेतों की <math>s</math>. एमएल आईसीए का उपयोग करना, उद्देश्य अनमिक्सिंग मैट्रिक्स खोजना है जो निकाले गए संकेतों को उत्पन्न करता है <math>y = \mathbf{W}x</math> संयुक्त पीडीएफ के साथ जितना संभव हो उतना संयुक्त पीडीएफ के साथ <math>p_s</math> अज्ञात स्रोत संकेतों की <math>s</math>. | ||
MLE इस प्रकार इस धारणा पर आधारित है कि यदि मॉडल pdf <math>p_s</math> और मॉडल पैरामीटर <math>\mathbf{A}</math> सही हैं तो डेटा के लिए | MLE इस प्रकार इस धारणा पर आधारित है कि यदि मॉडल pdf <math>p_s</math> और मॉडल पैरामीटर <math>\mathbf{A}</math> सही हैं तो डेटा के लिए उच्च संभावना प्राप्त की जानी चाहिए <math>x</math> जो वास्तव में देखे गए थे। इसके विपरीत यदि <math>\mathbf{A}</math> सही पैरामीटर मानों से दूर है तो देखे गए डेटा की कम संभावना की उम्मीद की जाएगी। | ||
MLE का उपयोग करते हुए, हम मॉडल पैरामीटर मानों के दिए गए सेट के लिए प्रेक्षित डेटा की प्रायिकता कहते हैं (उदाहरण के लिए, | MLE का उपयोग करते हुए, हम मॉडल पैरामीटर मानों के दिए गए सेट के लिए प्रेक्षित डेटा की प्रायिकता कहते हैं (उदाहरण के लिए, pdf <math>p_s</math> और मैट्रिक्स <math>\mathbf{A}</math>) देखे गए डेटा को देखते हुए मॉडल पैरामीटर मानों की संभावना। | ||
हम | हम संभावना समारोह को परिभाषित करते हैं <math>\mathbf{L(W)}</math> का <math>\mathbf{W}</math>: | ||
<math>\mathbf{ L(W)} = p_s (\mathbf{W}x)|\det \mathbf{W}|. </math> | <math>\mathbf{ L(W)} = p_s (\mathbf{W}x)|\det \mathbf{W}|. </math> | ||
यह प्रायिकता घनत्व के बराबर है <math>x</math>, तब से <math>s = \mathbf{W}x</math>. | यह प्रायिकता घनत्व के बराबर है <math>x</math>, तब से <math>s = \mathbf{W}x</math>. | ||
इस प्रकार, यदि हम | इस प्रकार, यदि हम खोजना चाहते हैं <math>\mathbf{W}</math> यह देखे गए मिश्रणों को उत्पन्न करने की सबसे अधिक संभावना है <math>x</math> अज्ञात स्रोत संकेतों से <math>s</math> पीडीएफ के साथ <math>p_s</math> तो हमें केवल उसे खोजने की जरूरत है <math>\mathbf{W}</math> जो संभावना को अधिकतम करता है <math>\mathbf{L(W)}</math>. अनमिक्सिंग मैट्रिक्स जो समीकरण को अधिकतम करता है, इष्टतम अनमिक्सिंग मैट्रिक्स के एमएलई के रूप में जाना जाता है। | ||
लॉग ''संभावना'' का उपयोग करना आम बात है, क्योंकि इसका मूल्यांकन करना आसान है। जैसा कि लघुगणक | लॉग ''संभावना'' का उपयोग करना आम बात है, क्योंकि इसका मूल्यांकन करना आसान है। जैसा कि लघुगणक मोनोटोनिक फ़ंक्शन है, <math>\mathbf{W}</math> जो कार्य को अधिकतम करता है <math>\mathbf{L(W)}</math> इसके लघुगणक को भी अधिकतम करता है <math>\ln \mathbf{L(W)}</math>. यह हमें उपरोक्त समीकरण का लघुगणक लेने की अनुमति देता है, जो लॉग संभावना फ़ंक्शन उत्पन्न करता है | ||
<math>\ln \mathbf{L(W)} =\sum_{i}\sum_{t} \ln p_s(w^T_ix_t) + N\ln|\det \mathbf{W}|</math> | <math>\ln \mathbf{L(W)} =\sum_{i}\sum_{t} \ln p_s(w^T_ix_t) + N\ln|\det \mathbf{W}|</math> | ||
Line 209: | Line 204: | ||
== इतिहास और पृष्ठभूमि == | == इतिहास और पृष्ठभूमि == | ||
स्वतंत्र घटक विश्लेषण के लिए प्रारंभिक सामान्य रूपरेखा 1984 से जेनी हेरॉल्ट और बर्नार्ड Ans द्वारा पेश की गई थी,<ref>{{cite journal | last1 = Hérault | first1 = J. | last2 = Ans | first2 = B. | year = 1984 | title = Réseau de neurones à synapses modifiables : Décodage de messages sensoriels composites par apprentissage non supervisé et permanent | journal = Comptes Rendus de l'Académie des Sciences, Série III | volume = 299 | pages = 525–528 }}</ref> 1985 और 1986 में क्रिश्चियन जटन द्वारा और विकसित किया गया,<ref>Ans, B., Hérault, J., & Jutten, C. (1985). Architectures neuromimétiques adaptatives : Détection de primitives. ''Cognitiva 85'' (Vol. 2, pp. 593-597). Paris: CESTA.</ref><ref>Hérault, J., Jutten, C., & Ans, B. (1985). Détection de grandeurs primitives dans un message composite par une architecture de calcul neuromimétique en apprentissage non supervisé. ''Proceedings of the 10th Workshop Traitement du signal et ses applications'' (Vol. 2, pp. 1017-1022). Nice (France): GRETSI.</ref><ref>Hérault, J., & Jutten, C. (1986). Space or time adaptive signal processing by neural networks models. ''Intern. Conf. on Neural Networks for Computing'' (pp. 206-211). Snowbird (Utah, USA).</ref> और 1991 में पियरे कोमोन द्वारा परिष्कृत,<ref name="pc91">P.Comon, Independent Component Analysis, Workshop on Higher-Order Statistics, July 1991, republished in J-L. Lacoume, editor, Higher Order Statistics, pp. 29-38. Elsevier, Amsterdam, London, 1992. [https://hal.archives-ouvertes.fr/hal-00346684 HAL link]</ref> और 1994 के अपने पेपर में लोकप्रिय हुआ।<ref name="comon94">Pierre Comon (1994) Independent component analysis, a new concept? http://www.ece.ucsb.edu/wcsl/courses/ECE594/594C_F10Madhow/comon94.pdf</ref> 1995 में, टोनी बेल और [[टेरी सेजनोव्स्की]] ने infomax पर आधारित | स्वतंत्र घटक विश्लेषण के लिए प्रारंभिक सामान्य रूपरेखा 1984 से जेनी हेरॉल्ट और बर्नार्ड Ans द्वारा पेश की गई थी,<ref>{{cite journal | last1 = Hérault | first1 = J. | last2 = Ans | first2 = B. | year = 1984 | title = Réseau de neurones à synapses modifiables : Décodage de messages sensoriels composites par apprentissage non supervisé et permanent | journal = Comptes Rendus de l'Académie des Sciences, Série III | volume = 299 | pages = 525–528 }}</ref> 1985 और 1986 में क्रिश्चियन जटन द्वारा और विकसित किया गया,<ref>Ans, B., Hérault, J., & Jutten, C. (1985). Architectures neuromimétiques adaptatives : Détection de primitives. ''Cognitiva 85'' (Vol. 2, pp. 593-597). Paris: CESTA.</ref><ref>Hérault, J., Jutten, C., & Ans, B. (1985). Détection de grandeurs primitives dans un message composite par une architecture de calcul neuromimétique en apprentissage non supervisé. ''Proceedings of the 10th Workshop Traitement du signal et ses applications'' (Vol. 2, pp. 1017-1022). Nice (France): GRETSI.</ref><ref>Hérault, J., & Jutten, C. (1986). Space or time adaptive signal processing by neural networks models. ''Intern. Conf. on Neural Networks for Computing'' (pp. 206-211). Snowbird (Utah, USA).</ref> और 1991 में पियरे कोमोन द्वारा परिष्कृत,<ref name="pc91">P.Comon, Independent Component Analysis, Workshop on Higher-Order Statistics, July 1991, republished in J-L. Lacoume, editor, Higher Order Statistics, pp. 29-38. Elsevier, Amsterdam, London, 1992. [https://hal.archives-ouvertes.fr/hal-00346684 HAL link]</ref> और 1994 के अपने पेपर में लोकप्रिय हुआ।<ref name="comon94">Pierre Comon (1994) Independent component analysis, a new concept? http://www.ece.ucsb.edu/wcsl/courses/ECE594/594C_F10Madhow/comon94.pdf</ref> 1995 में, टोनी बेल और [[टेरी सेजनोव्स्की]] ने infomax पर आधारित तेज़ और कुशल ICA एल्गोरिथम पेश किया, जो 1987 में राल्फ लिंस्कर द्वारा पेश किया गया सिद्धांत था। | ||
साहित्य में कई एल्गोरिदम उपलब्ध हैं जो आईसीए करते हैं। औद्योगिक अनुप्रयोगों सहित | साहित्य में कई एल्गोरिदम उपलब्ध हैं जो आईसीए करते हैं। औद्योगिक अनुप्रयोगों सहित बड़े पैमाने पर इस्तेमाल किया जाने वाला फास्टिका एल्गोरिथम है, जिसे हावरिनन और ओजा द्वारा विकसित किया गया है, जो लागत कार्य के रूप में नेगेंट्रॉपी का उपयोग करता है।<ref>{{Cite journal|last1=Hyvärinen|first1=A.|last2=Oja|first2=E.|date=2000-06-01|title=Independent component analysis: algorithms and applications|url=https://www.sciencedirect.com/science/article/pii/S0893608000000265|journal=Neural Networks|language=en|volume=13|issue=4|pages=411–430|doi=10.1016/S0893-6080(00)00026-5|pmid=10946390 |s2cid=11959218 |issn=0893-6080}}</ref> अन्य उदाहरण नेत्रहीन स्रोत पृथक्करण से संबंधित हैं जहां अधिक सामान्य दृष्टिकोण का उपयोग किया जाता है। उदाहरण के लिए, कोई स्वतंत्रता धारणा को छोड़ सकता है और पारस्परिक रूप से सहसंबद्ध संकेतों को अलग कर सकता है, इस प्रकार, सांख्यिकीय रूप से निर्भर संकेत। सेप होचरेइटर और जुरगेन श्मिटहुबर ने दिखाया कि [[नियमितीकरण (गणित)]] (1999) के उप-उत्पाद के रूप में गैर-रैखिक आईसीए या स्रोत पृथक्करण कैसे प्राप्त किया जाए।<ref name="HochreiterSchmidhuber1999">{{cite journal|last1=Hochreiter|first1=Sepp|last2=Schmidhuber|first2=Jürgen|title=LOCOCODE के माध्यम से फ़ीचर एक्सट्रैक्शन|journal=Neural Computation|volume=11|issue=3|year=1999|pages=679–714|issn=0899-7667|doi=10.1162/089976699300016629 |pmid=10085426|s2cid=1642107|url=ftp://ftp.idsia.ch/pub/juergen/lococode.pdf |access-date=24 February 2018 }}</ref> उनकी पद्धति को स्वतंत्र स्रोतों की संख्या के बारे में प्राथमिक ज्ञान की आवश्यकता नहीं है। | ||
== अनुप्रयोग == | == अनुप्रयोग == |
Revision as of 11:25, 13 June 2023
Part of a series on |
Machine learning and data mining |
---|
संकेत आगे बढ़ाना में, स्वतंत्र घटक विश्लेषण (आईसीए) बहुभिन्नरूपी सांख्यिकी संकेत को योगात्मक उपघटकों में अलग करने के लिए कम्प्यूटेशनल विधि है। ऐसा यह मानकर किया जाता है कि अधिक से अधिक उपघटक गाऊसी है और यह कि उपघटक दूसरे से सांख्यिकीय रूप से स्वतंत्र हैं।[1] ICA अंधा स्रोत जुदाई का विशेष मामला है। सामान्य उदाहरण अनुप्रयोग शोरगुल वाले कमरे में व्यक्ति के भाषण को सुनने की कॉकटेल पार्टी समस्या है।[2]
परिचय
स्वतंत्र घटक विश्लेषण बहुभिन्नरूपी संकेत को स्वतंत्र गैर-गाऊसी संकेतों में विघटित करने का प्रयास करता है। उदाहरण के रूप में, ध्वनि आमतौर पर संकेत होता है जो कई स्रोतों से संकेतों के प्रत्येक समय टी पर संख्यात्मक जोड़ से बना होता है। सवाल यह है कि क्या इन योगदान स्रोतों को देखे गए कुल सिग्नल से अलग करना संभव है। जब सांख्यिकीय स्वतंत्रता धारणा सही होती है, तो मिश्रित संकेत का अंधा ICA पृथक्करण बहुत अच्छा परिणाम देता है। इसका उपयोग उन संकेतों के लिए भी किया जाता है जिन्हें विश्लेषण उद्देश्यों के लिए मिश्रित करके उत्पन्न नहीं किया जाना चाहिए।
कॉकटेल पार्टी की समस्या आईसीए का सरल अनुप्रयोग है, जहां अंतर्निहित भाषण संकेतों को कमरे में साथ बात करने वाले लोगों के नमूना डेटा से अलग किया जाता है। आमतौर पर बिना किसी देरी या गूँज के समस्या को सरल बना दिया जाता है। ध्यान दें कि फ़िल्टर्ड और विलंबित संकेत आश्रित घटक की प्रति है, और इस प्रकार सांख्यिकीय स्वतंत्रता धारणा का उल्लंघन नहीं होता है।
निर्माण के लिए वजन मिलानासे संकेतों का अवलोकन किया घटकों को में रखा जा सकता है आव्यूह। विचार करने वाली महत्वपूर्ण बात यह है कि यदि स्रोत मौजूद हैं, कम से कम मूल संकेतों को पुनर्प्राप्त करने के लिए अवलोकन (उदाहरण के लिए माइक्रोफ़ोन यदि देखा गया संकेत ऑडियो है) की आवश्यकता होती है। जब समान संख्या में अवलोकन और स्रोत संकेत होते हैं, तो मिश्रण मैट्रिक्स वर्गाकार होता है (). अनिर्धारित के अन्य मामले () और अतिनिर्धारित () की जांच की गई है।
यह कि मिश्रित संकेतों का ICA पृथक्करण बहुत अच्छे परिणाम देता है, यह दो धारणाओं और मिश्रण स्रोत संकेतों के तीन प्रभावों पर आधारित है। दो धारणाएँ:
- स्रोत संकेत दूसरे से स्वतंत्र हैं।
- प्रत्येक स्रोत सिग्नल के मान में गैर-गाऊसी वितरण होते हैं।
स्रोत संकेतों को मिलाने के तीन प्रभाव:
- स्वतंत्रता: धारणा 1 के अनुसार, स्रोत संकेत स्वतंत्र हैं; हालाँकि, उनके सिग्नल मिश्रण नहीं हैं। ऐसा इसलिए है क्योंकि सिग्नल मिश्रण समान स्रोत सिग्नल साझा करते हैं।
- सामान्यता: केंद्रीय सीमा प्रमेय के अनुसार, परिमित विचरण के साथ स्वतंत्र यादृच्छिक चर के योग का वितरण गॉसियन वितरण की ओर जाता है।
सरल शब्दों में कहें तो, दो स्वतंत्र यादृच्छिक चर के योग में आमतौर पर वितरण होता है जो इसके करीब होता है गॉसियन दो मूल चरों में से किसी की तुलना में। यहां हम प्रत्येक संकेत के मान को यादृच्छिक चर मानते हैं। - जटिलता: किसी भी सिग्नल मिश्रण की अस्थायी जटिलता उसके सरलतम घटक स्रोत सिग्नल की तुलना में अधिक होती है।
वे सिद्धांत आईसीए की बुनियादी स्थापना में योगदान करते हैं। यदि मिश्रण के सेट से निकाले गए संकेत स्वतंत्र हैं, और गैर-गाऊसी हिस्टोग्राम हैं या कम जटिलता है, तो उन्हें स्रोत संकेत होना चाहिए।[4][5]
घटक स्वतंत्रता को परिभाषित करना
आईसीए अनुमानित घटकों की सांख्यिकीय स्वतंत्रता को अधिकतम करके स्वतंत्र घटकों (जिन्हें कारक, अव्यक्त चर या स्रोत भी कहा जाता है) का पता लगाता है। हम स्वतंत्रता के लिए प्रॉक्सी को परिभाषित करने के कई तरीकों में से चुन सकते हैं, और यह विकल्प आईसीए एल्गोरिथम के रूप को नियंत्रित करता है। आईसीए के लिए स्वतंत्रता की दो व्यापक परिभाषाएँ हैं
- आपसी जानकारी को कम करना
- गैर-गौसियनिटी का अधिकतमकरण
आईसीए एल्गोरिथम का मिनिमाइजेशन-ऑफ-म्युचुअल इंफॉर्मेशन (एमएमआई) परिवार कुल्बैक-लीब्लर डाइवर्जेंस | कुल्बैक-लीब्लर डाइवर्जेंस और अधिकतम एंट्रॉपी के सिद्धांत जैसे उपायों का उपयोग करता है। केंद्रीय सीमा प्रमेय से प्रेरित ICA एल्गोरिदम का गैर-गौसियनिटी परिवार, कुकुदता और नाइनट्रॉपी का उपयोग करता है।
आईसीए के लिए विशिष्ट एल्गोरिदम वास्तविक पुनरावृत्त एल्गोरिदम के लिए समस्या की जटिलता को सरल बनाने और कम करने के लिए केंद्रीकरण (शून्य माध्य संकेत बनाने के लिए माध्य घटाना), श्वेत परिवर्तन (आमतौर पर ईजेनवेल्यू अपघटन के साथ), और पूर्वप्रक्रमण चरणों के रूप में आयाम में कमी का उपयोग करते हैं। . मुख्य घटक विश्लेषण या एकवचन मूल्य अपघटन के साथ श्वेतकरण और आयाम में कमी प्राप्त की जा सकती है। श्वेतकरण यह सुनिश्चित करता है कि एल्गोरिदम चलाने से पहले सभी आयामों को समान रूप से प्राथमिकता माना जाता है। आईसीए के लिए प्रसिद्ध एल्गोरिदम में infomax, फास्टआईसीए, जेएडीई (आईसीए), और कर्नेल-स्वतंत्र घटक विश्लेषण शामिल हैं। सामान्य तौर पर, आईसीए स्रोत संकेतों की वास्तविक संख्या, स्रोत संकेतों के विशिष्ट रूप से सही क्रम, और न ही स्रोत संकेतों के उचित स्केलिंग (साइन सहित) की पहचान नहीं कर सकता है।
आईसीए सिग्नल पृथक्करण के लिए महत्वपूर्ण है और इसके कई व्यावहारिक अनुप्रयोग हैं। यह डेटा के तथ्यात्मक कोड की खोज (या यहां तक कि विशेष मामले) से निकटता से संबंधित है, यानी, प्रत्येक डेटा वेक्टर का नया वेक्टर-मूल्यवान प्रतिनिधित्व इस तरह से परिणामी कोड वेक्टर (नुकसान मुक्त) द्वारा विशिष्ट रूप से एन्कोड किया जाता है। कोडिंग), लेकिन कोड घटक सांख्यिकीय रूप से स्वतंत्र हैं।
गणितीय परिभाषाएँ
रैखिक स्वतंत्र घटक विश्लेषण को नीरव और शोर वाले मामलों में विभाजित किया जा सकता है, जहां नीरव आईसीए शोर आईसीए का विशेष मामला है। नॉनलाइनियर आईसीए को अलग मामले के रूप में माना जाना चाहिए।
सामान्य परिभाषा
डेटा को देखे गए यादृच्छिक वेक्टर द्वारा दर्शाया गया है और छिपे हुए घटक यादृच्छिक वेक्टर के रूप में कार्य देखे गए डेटा को बदलना है रैखिक स्थिर परिवर्तन का उपयोग करना जैसा अधिकतम स्वतंत्र घटकों के वेक्टर में किसी कार्य द्वारा मापा जाता है आज़ाद के।
जनरेटिव मॉडल
रैखिक नीरव आईसीए
अवयव देखे गए यादृच्छिक वेक्टर की स्वतंत्र घटकों के योग के रूप में उत्पन्न होते हैं , :
मिश्रण भार द्वारा भारित .
उसी जनरेटिव मॉडल को सदिश रूप में लिखा जा सकता है , जहां मनाया यादृच्छिक वेक्टर आधार वैक्टर द्वारा दर्शाया गया है . आधार वैक्टर मिक्सिंग मैट्रिक्स के कॉलम बनाएं और उत्पादक सूत्र के रूप में लिखा जा सकता है , कहाँ .
मॉडल और प्राप्तियों (नमूने) को देखते हुए यादृच्छिक वेक्टर का , कार्य दोनों मिश्रण मैट्रिक्स का अनुमान लगाना है और स्रोत . यह अनुकूल रूप से गणना करके किया जाता है वैक्टर और लागत समारोह स्थापित करना जो या तो गणना की गैर-गौसियनिटी को अधिकतम करता है या आपसी जानकारी को कम करता है। कुछ मामलों में, स्रोतों के संभाव्यता बंटन का प्राथमिक ज्ञान लागत फलन में इस्तेमाल किया जा सकता है।
मूल स्रोत देखे गए संकेतों को गुणा करके पुनर्प्राप्त किया जा सकता है मिश्रण मैट्रिक्स के व्युत्क्रम के साथ , जिसे अनमिक्सिंग मैट्रिक्स के रूप में भी जाना जाता है। यहाँ यह माना जाता है कि मिश्रण मैट्रिक्स वर्ग है (). यदि आधार सदिशों की संख्या प्रेक्षित सदिशों की विमा से अधिक है, , कार्य अधूरा है लेकिन छद्म व्युत्क्रम के साथ अभी भी हल करने योग्य है।
रैखिक शोर आईसीए
शून्य-माध्य और असंबद्ध गाऊसी शोर की अतिरिक्त धारणा के साथ , आईसीए मॉडल रूप लेता है .
अरैखिक आईसीए
स्रोतों के मिश्रण को रैखिक होने की आवश्यकता नहीं है। अरैखिक मिश्रण समारोह का उपयोग करना मापदंडों के साथ अरेखीय आईसीए मॉडल है .
पहचान
स्रोतों के क्रमपरिवर्तन और स्केलिंग तक स्वतंत्र घटकों की पहचान की जा सकती है। इस पहचान की आवश्यकता है कि:
- अधिक से अधिक स्रोत गाऊसी है,
- देखे गए मिश्रणों की संख्या, , कम से कम अनुमानित घटकों की संख्या जितनी बड़ी होनी चाहिए : . यह मिश्रण मैट्रिक्स कहने के बराबर है इसके व्युत्क्रम के अस्तित्व के लिए पूर्ण रैंक (रैखिक बीजगणित) का होना चाहिए।
बाइनरी आईसीए
आईसीए का विशेष संस्करण बाइनरी आईसीए है जिसमें सिग्नल स्रोत और मॉनिटर दोनों बाइनरी फॉर्म में हैं और मॉनिटर से अवलोकन बाइनरी स्वतंत्र स्रोतों के संयोजन मिश्रण हैं। समस्या को चिकित्सा निदान, बहु-क्लस्टर असाइनमेंट, नेटवर्क टोमोग्राफी और इंटरनेट संसाधन प्रबंधन सहित कई डोमेन में अनुप्रयोगों के लिए दिखाया गया था।
होने देना से बाइनरी चर का सेट हो मॉनिटर और से बाइनरी चर का सेट हो स्रोत। स्रोत-मॉनिटर कनेक्शन (अज्ञात) मिश्रण मैट्रिक्स द्वारा दर्शाए जाते हैं , कहाँ इंगित करता है कि i-वें स्रोत से संकेत j-वें मॉनिटर द्वारा देखा जा सकता है। सिस्टम निम्नानुसार काम करता है: किसी भी समय, यदि कोई स्रोत सक्रिय है () और यह मॉनिटर से जुड़ा होता है () फिर मॉनिटर कुछ गतिविधि देखेंगे (). औपचारिक रूप से हमारे पास है:
कहाँ बूलियन और है बूलियन OR है। ध्यान दें कि शोर को स्पष्ट रूप से प्रतिरूपित नहीं किया जाता है, बल्कि इसे स्वतंत्र स्रोतों के रूप में माना जा सकता है।
उपरोक्त समस्या को ह्यूरिस्टिक रूप से हल किया जा सकता है[6] दिखाएँ कि यह दृष्टिकोण मध्यम शोर स्तरों के तहत सटीक है।
सामान्यीकृत बाइनरी आईसीए ढांचा[7] व्यापक समस्या सूत्रीकरण प्रस्तुत करता है जिसके लिए जनरेटिव मॉडल पर किसी भी ज्ञान की आवश्यकता नहीं होती है। दूसरे शब्दों में, यह विधि किसी स्रोत को उसके स्वतंत्र घटकों (जितना संभव हो सके, और बिना किसी जानकारी को खोए) में विघटित करने का प्रयास करती है, जिस तरह से इसे उत्पन्न किया गया था। यद्यपि यह समस्या काफी जटिल दिखाई देती है, इसे शाखा और बाउंड सर्च ट्री एल्गोरिथम या सदिश के साथ मैट्रिक्स के एकल गुणन के साथ कसकर ऊपरी सीमा के साथ सटीक रूप से हल किया जा सकता है।
अंधा स्रोत जुदाई के तरीके
प्रक्षेपण पीछा
सिग्नल मिश्रण में गॉसियन संभाव्यता घनत्व कार्य होते हैं, और स्रोत संकेतों में गैर-गाऊसी प्रायिकता घनत्व फ़ंक्शन होते हैं। प्रत्येक स्रोत संकेत को वजन वेक्टर के आंतरिक उत्पाद और उन सिग्नल मिश्रणों को ले कर संकेत मिश्रणों के सेट से निकाला जा सकता है जहां यह आंतरिक उत्पाद सिग्नल मिश्रणों का ऑर्थोगोनल प्रक्षेपण प्रदान करता है। शेष चुनौती इस तरह के वजन वाले वेक्टर को ढूंढ रही है। ऐसा करने के लिए प्रकार का तरीका प्रोजेक्शन परस्यूट है।[8][9] प्रोजेक्शन पीछा समय में प्रक्षेपण की तलाश करता है जैसे कि निकाला गया संकेत जितना संभव हो उतना गैर-गाऊसी है। यह आईसीए के विपरीत है, जो आमतौर पर एम सिग्नल मिश्रण से साथ एम सिग्नल निकालता है, जिसके लिए एम × एम अनमिक्सिंग मैट्रिक्स का अनुमान लगाने की आवश्यकता होती है। आईसीए पर प्रक्षेपण खोज का व्यावहारिक लाभ यह है कि यदि आवश्यक हो तो एम से कम सिग्नल निकाले जा सकते हैं, जहां प्रत्येक स्रोत सिग्नल को एम-एलिमेंट वेट वेक्टर का उपयोग करके एम सिग्नल मिश्रण से निकाला जाता है।
प्रक्षेपण खोज के उपयोग के साथ सही वज़न वैक्टर ढूंढकर हम कर्टोसिस का उपयोग एकाधिक स्रोत सिग्नल को पुनर्प्राप्त करने के लिए कर सकते हैं।
एक परिमित नमूने के लिए संकेत के संभाव्यता घनत्व समारोह के कर्टोसिस की गणना इस प्रकार की जाती है
कहाँ का नमूना माध्य है , निकाले गए संकेत। निरंतर 3 सुनिश्चित करता है कि गॉसियन संकेतों में शून्य कर्टोसिस है, सुपर-गाऊसी संकेतों में सकारात्मक कुर्तोसिस है, और उप-गाऊसी संकेतों में नकारात्मक कुर्तोसिस है। भाजक का विचरण है , और यह सुनिश्चित करता है कि मापा कर्टोसिस सिग्नल विचरण को ध्यान में रखता है। प्रोजेक्शन परस्यूट का लक्ष्य कर्टोसिस को अधिकतम करना है, और निकाले गए सिग्नल को यथासंभव गैर-सामान्य बनाना है।
कर्टोसिस को गैर-सामान्यता के माप के रूप में उपयोग करते हुए, अब हम जांच कर सकते हैं कि सिग्नल का कर्टोसिस कैसे होता है एम मिश्रण के सेट से निकाला गया वजन वेक्टर के रूप में भिन्न होता है मूल के चारों ओर घुमाया जाता है। हमारी धारणा को देखते हुए कि प्रत्येक स्रोत संकेत देता है सुपर-गाऊसी है जिसकी हम उम्मीद करेंगे:
- निकाले गए सिग्नल का कर्टोसिस अधिकतम सटीक होना जब .
- निकाले गए सिग्नल का कर्टोसिस अधिकतम कब होना है अनुमानित कुल्हाड़ियों के लिए ओर्थोगोनल है या , क्योंकि हम जानते हैं कि इष्टतम भार सदिश रूपांतरित अक्ष के लिए ओर्थोगोनल होना चाहिए या .
एकाधिक स्रोत मिश्रण संकेतों के लिए, हम संकेतों को पुनर्प्राप्त करने के लिए कर्टोसिस और ग्राम-श्मिट ऑर्थोगोनलाइज़ेशन (जीएसओ) का उपयोग कर सकते हैं। एम-डायमेंशनल स्पेस में एम सिग्नल मिश्रण दिए जाने पर, जीएसओ इन डेटा पॉइंट्स को वेट वेक्टर का उपयोग करके (एम-1) -डायमेंशनल स्पेस पर प्रोजेक्ट करता है। हम जीएसओ के उपयोग से निकाले गए संकेतों की स्वतंत्रता की गारंटी दे सकते हैं।
का सही मान ज्ञात करने के लिए , हम ढतला हुआ वंश विधि का उपयोग कर सकते हैं। हम सबसे पहले डेटा को सफेद करते हैं, और रूपांतरित करते हैं नए मिश्रण में , जिसका इकाई विचरण है, और . इस प्रक्रिया को एकवचन मान अपघटन लागू करके प्राप्त किया जा सकता है ,
प्रत्येक वेक्टर को पुनर्स्केल करना , और जाने . भारित वेक्टर द्वारा निकाला गया संकेत है . यदि भार सदिश w की इकाई लंबाई है, तो y का प्रसरण भी 1 है, अर्थात . कर्टोसिस को इस प्रकार लिखा जा सकता है:
के लिए अद्यतन करने की प्रक्रिया है:
कहाँ इसकी गारंटी देने के लिए छोटा स्थिरांक है इष्टतम समाधान में परिवर्तित हो जाता है। प्रत्येक अद्यतन के बाद, हम सामान्य करते हैं , और सेट करें , और अद्यतन प्रक्रिया को अभिसरण तक दोहराएं। हम वेट वेक्टर को अपडेट करने के लिए दूसरे एल्गोरिदम का भी उपयोग कर सकते हैं .
एक अन्य दृष्टिकोण नेगेंट्रॉपी का उपयोग कर रहा है[10][11] कर्टोसिस के बजाय। कर्टोसिस की तुलना में नेगेंट्रॉपी का उपयोग करना अधिक मजबूत तरीका है, क्योंकि कुर्तोसिस आउटलेयर के प्रति बहुत संवेदनशील है। गौसियन वितरण की महत्वपूर्ण संपत्ति पर नेगेंट्रॉपी विधियां आधारित हैं: समान भिन्नता के सभी निरंतर यादृच्छिक चर के बीच गॉसियन वैरिएबल में सबसे बड़ा एंट्रॉपी है। यही कारण है कि हम सबसे अधिक नॉनगॉसियन चर खोजना चाहते हैं। विभेदक एन्ट्रापी में साधारण प्रमाण पाया जा सकता है।
y x के समान सहप्रसरण मैट्रिक्स का गॉसियन यादृच्छिक चर है
नेगेंट्रॉपी के लिए सन्निकटन है
- कॉमन के मूल पत्रों में प्रमाण पाया जा सकता है;[12][10]इसे आपो हाइवरिनन, जुहा करहुनेन और एर्की ओजा द्वारा स्वतंत्र घटक विश्लेषण पुस्तक में पुन: प्रस्तुत किया गया है।[13] यह सन्निकटन भी कर्टोसिस (आउटलेर्स के प्रति संवेदनशीलता) जैसी समस्या से ग्रस्त है। अन्य दृष्टिकोण विकसित किए गए हैं।[14] :
का विकल्प और हैं
- और
=== इन्फोमैक्स === पर आधारित
इन्फोमैक्स आईसीए[15] अनिवार्य रूप से प्रक्षेपण खोज का बहुभिन्नरूपी, समानांतर संस्करण है। जबकि प्रोजेक्शन परस्यूट एम सिग्नल मिश्रण के सेट से बार में सिग्नल की श्रृंखला निकालता है, आईसीए समानांतर में एम सिग्नल निकालता है। यह प्रक्षेपण खोज की तुलना में ICA को अधिक मजबूत बनाता है।[16] प्रोजेक्शन परस्यूट विधि निकाले गए सिग्नल की स्वतंत्रता सुनिश्चित करने के लिए ग्राम-श्मिट ऑर्थोगोनलाइजेशन का उपयोग करती है, जबकि आईसीए निकाले गए सिग्नल की स्वतंत्रता सुनिश्चित करने के लिए इन्फोमैक्स और अधिकतम संभावना अनुमान का उपयोग करती है। निकाले गए सिग्नल की गैर-सामान्यता सिग्नल के लिए उपयुक्त मॉडल, या पूर्व, निर्दिष्ट करके हासिल की जाती है।
इन्फोमैक्स पर आधारित आईसीए की प्रक्रिया संक्षेप में है: सिग्नल मिश्रण का सेट दिया गया है और समान स्वतंत्र मॉडल संचयी वितरण कार्यों का सेट (cdfs) , हम अनमिक्सिंग मैट्रिक्स की तलाश करते हैं जो संकेतों की संयुक्त एन्ट्रॉपी को अधिकतम करता है , कहाँ द्वारा निकाले गए संकेत हैं . इष्टतम दिया , संकेत अधिकतम एन्ट्रापी है और इसलिए स्वतंत्र हैं, जो यह सुनिश्चित करता है कि निकाले गए संकेत स्वतंत्र भी हैं। उलटा कार्य है, और सिग्नल मॉडल है। ध्यान दें कि यदि स्रोत संकेत मॉडल प्रायिकता घनत्व कार्य करता है निकाले गए सिग्नल की प्रायिकता घनत्व फ़ंक्शन से मेल खाता है , फिर की संयुक्त एन्ट्रापी को अधिकतम करना के बीच आपसी जानकारी की मात्रा को भी अधिकतम करता है और . इस कारण से, स्वतंत्र संकेतों को निकालने के लिए एंट्रॉपी का उपयोग करना इन्फोमैक्स के रूप में जाना जाता है।
वेक्टर चर की एन्ट्रापी पर विचार करें , कहाँ अनमिक्सिंग मैट्रिक्स द्वारा निकाले गए संकेतों का सेट है . पीडीएफ के साथ वितरण से नमूना मूल्यों के सीमित सेट के लिए , की एन्ट्रापी अनुमान लगाया जा सकता है:
संयुक्त पीडीएफ संयुक्त पीडीएफ से संबंधित दिखाया जा सकता है बहुभिन्नरूपी रूप से निकाले गए संकेतों की:
कहाँ जैकबियन मैट्रिक्स है। अपने पास , और स्रोत संकेतों के लिए माना गया पीडीएफ है , इसलिए,
इसलिए,
हम जानते हैं कि कब , समान वितरण का है, और अधिकतम है। तब से
कहाँ अनमिक्सिंग मैट्रिक्स के निर्धारक का निरपेक्ष मान है . इसलिए,
इसलिए,
तब से , और अधिकतम करना प्रभावित नहीं करता , इसलिए हम फ़ंक्शन को अधिकतम कर सकते हैं
निकाले गए सिग्नल की स्वतंत्रता प्राप्त करने के लिए।
यदि मॉडल संयुक्त पीडीएफ के एम सीमांत पीडीएफ़ हैं स्वतंत्र हैं और स्रोत संकेतों के लिए आमतौर पर सुपर-गॉसियन मॉडल पीडीएफ का उपयोग करते हैं , तो हमारे पास हैं
योग में, मनाया संकेत मिश्रण दिया , निकाले गए संकेतों का संगत सेट और स्रोत सिग्नल मॉडल , हम इष्टतम अनमिक्सिंग मैट्रिक्स पा सकते हैं , और निकाले गए संकेतों को स्वतंत्र और गैर-गाऊसी बनाते हैं। प्रोजेक्शन पीछा की स्थिति की तरह, हम अनमिक्सिंग मैट्रिक्स का इष्टतम समाधान खोजने के लिए ग्रेडिएंट डिसेंट विधि का उपयोग कर सकते हैं।
अधिकतम संभावना अनुमान के आधार पर
अधिकतम संभावना अनुमान (एमएलई) पैरामीटर मान खोजने के लिए मानक सांख्यिकीय उपकरण है (उदाहरण के लिए अनमिक्सिंग मैट्रिक्स ) जो कुछ डेटा का सबसे अच्छा फिट प्रदान करते हैं (उदाहरण के लिए, निकाले गए सिग्नल ) किसी दिए गए मॉडल के लिए (उदाहरण के लिए, अनुमानित संयुक्त संभावना घनत्व फ़ंक्शन (पीडीएफ) स्रोत संकेतों का)।[16]
एमएल मॉडल में पीडीएफ का विनिर्देश शामिल होता है, जो इस मामले में पीडीएफ है अज्ञात स्रोत संकेतों की . एमएल आईसीए का उपयोग करना, उद्देश्य अनमिक्सिंग मैट्रिक्स खोजना है जो निकाले गए संकेतों को उत्पन्न करता है संयुक्त पीडीएफ के साथ जितना संभव हो उतना संयुक्त पीडीएफ के साथ अज्ञात स्रोत संकेतों की .
MLE इस प्रकार इस धारणा पर आधारित है कि यदि मॉडल pdf और मॉडल पैरामीटर सही हैं तो डेटा के लिए उच्च संभावना प्राप्त की जानी चाहिए जो वास्तव में देखे गए थे। इसके विपरीत यदि सही पैरामीटर मानों से दूर है तो देखे गए डेटा की कम संभावना की उम्मीद की जाएगी।
MLE का उपयोग करते हुए, हम मॉडल पैरामीटर मानों के दिए गए सेट के लिए प्रेक्षित डेटा की प्रायिकता कहते हैं (उदाहरण के लिए, pdf और मैट्रिक्स ) देखे गए डेटा को देखते हुए मॉडल पैरामीटर मानों की संभावना।
हम संभावना समारोह को परिभाषित करते हैं का :
यह प्रायिकता घनत्व के बराबर है , तब से .
इस प्रकार, यदि हम खोजना चाहते हैं यह देखे गए मिश्रणों को उत्पन्न करने की सबसे अधिक संभावना है अज्ञात स्रोत संकेतों से पीडीएफ के साथ तो हमें केवल उसे खोजने की जरूरत है जो संभावना को अधिकतम करता है . अनमिक्सिंग मैट्रिक्स जो समीकरण को अधिकतम करता है, इष्टतम अनमिक्सिंग मैट्रिक्स के एमएलई के रूप में जाना जाता है।
लॉग संभावना का उपयोग करना आम बात है, क्योंकि इसका मूल्यांकन करना आसान है। जैसा कि लघुगणक मोनोटोनिक फ़ंक्शन है, जो कार्य को अधिकतम करता है इसके लघुगणक को भी अधिकतम करता है . यह हमें उपरोक्त समीकरण का लघुगणक लेने की अनुमति देता है, जो लॉग संभावना फ़ंक्शन उत्पन्न करता है
यदि हम स्रोत संकेतों के लिए आमतौर पर उपयोग किए जाने वाले उच्च-कर्टोसिस मॉडल पीडीएफ को प्रतिस्थापित करते हैं तो हमारे पास हैं
यह मैट्रिक्स जो इस फ़ंक्शन को अधिकतम करता है वह अधिकतम संभावना अनुमान है।
इतिहास और पृष्ठभूमि
स्वतंत्र घटक विश्लेषण के लिए प्रारंभिक सामान्य रूपरेखा 1984 से जेनी हेरॉल्ट और बर्नार्ड Ans द्वारा पेश की गई थी,[17] 1985 और 1986 में क्रिश्चियन जटन द्वारा और विकसित किया गया,[18][19][20] और 1991 में पियरे कोमोन द्वारा परिष्कृत,[12] और 1994 के अपने पेपर में लोकप्रिय हुआ।[10] 1995 में, टोनी बेल और टेरी सेजनोव्स्की ने infomax पर आधारित तेज़ और कुशल ICA एल्गोरिथम पेश किया, जो 1987 में राल्फ लिंस्कर द्वारा पेश किया गया सिद्धांत था।
साहित्य में कई एल्गोरिदम उपलब्ध हैं जो आईसीए करते हैं। औद्योगिक अनुप्रयोगों सहित बड़े पैमाने पर इस्तेमाल किया जाने वाला फास्टिका एल्गोरिथम है, जिसे हावरिनन और ओजा द्वारा विकसित किया गया है, जो लागत कार्य के रूप में नेगेंट्रॉपी का उपयोग करता है।[21] अन्य उदाहरण नेत्रहीन स्रोत पृथक्करण से संबंधित हैं जहां अधिक सामान्य दृष्टिकोण का उपयोग किया जाता है। उदाहरण के लिए, कोई स्वतंत्रता धारणा को छोड़ सकता है और पारस्परिक रूप से सहसंबद्ध संकेतों को अलग कर सकता है, इस प्रकार, सांख्यिकीय रूप से निर्भर संकेत। सेप होचरेइटर और जुरगेन श्मिटहुबर ने दिखाया कि नियमितीकरण (गणित) (1999) के उप-उत्पाद के रूप में गैर-रैखिक आईसीए या स्रोत पृथक्करण कैसे प्राप्त किया जाए।[22] उनकी पद्धति को स्वतंत्र स्रोतों की संख्या के बारे में प्राथमिक ज्ञान की आवश्यकता नहीं है।
अनुप्रयोग
आईसीए को गैर-भौतिक संकेतों का विश्लेषण करने के लिए बढ़ाया जा सकता है। उदाहरण के लिए, आईसीए को समाचार सूची संग्रहों के बैग पर चर्चा के विषयों को खोजने के लिए लागू किया गया है।
कुछ आईसीए आवेदन नीचे सूचीबद्ध हैं:[4]
* न्यूरॉन्स की ऑप्टिकल इमेजिंग[23] * न्यूरोनल स्पाइक सॉर्टिंग[24] * चेहरा पहचान[25] * प्राथमिक दृश्य न्यूरॉन्स के ग्रहणशील क्षेत्रों की मॉडलिंग[26] * शेयर बाजार की कीमतों की भविष्यवाणी[27] * मोबाइल फोन संचार[28] * टमाटर के पकने का रंग आधारित पता लगाना[29]
- ईईजी डेटा से आंखों की झपकी जैसी कलाकृतियों को हटाना।[30]
- ईईजी का उपयोग करके निर्णय लेने की भविष्यवाणी करना[31]
- एकल कोशिका (जीव विज्ञान) आरएनए-अनुक्रमण प्रयोगों में समय के साथ जीन अभिव्यक्ति में परिवर्तन का विश्लेषण।[32]
- मस्तिष्क की रेस्टिंग अवस्था fMRI का अध्ययन।[33]
- खगोल विज्ञान और ब्रह्मांड विज्ञान[34]
- वित्त[35]
उपलब्धता
आईसीए निम्नलिखित सॉफ्टवेयर के माध्यम से लागू किया जा सकता है:
- एसएएस भाषा प्रोसी आईसीए
- स्किकिट-लर्न पायथन कार्यान्वयन [https://scikit-learn.org/stable/modules/generated/sklearn.decomposition.FastICA.html sklearn.decomposition.FastICA]
यह भी देखें
- अंधा deconvolution
- कारक विश्लेषण
- हिल्बर्ट स्पेक्ट्रम
- मूर्ति प्रोद्योगिकी
- गैर-नकारात्मक मैट्रिक्स गुणनखंड|गैर-ऋणात्मक मैट्रिक्स गुणनखंडन (NMF)
- गैर रेखीय आयामीता में कमी
- प्रोजेक्शन पीछा
- वेरिमैक्स रोटेशन
टिप्पणियाँ
- ↑ "Independent Component Analysis: A Demo".
- ↑ Hyvärinen, Aapo (2013). "Independent component analysis: recent advances". Philosophical Transactions: Mathematical, Physical and Engineering Sciences. 371 (1984): 20110534. Bibcode:2012RSPTA.37110534H. doi:10.1098/rsta.2011.0534. ISSN 1364-503X. JSTOR 41739975. PMC 3538438. PMID 23277597.
- ↑ Isomura, Takuya; Toyoizumi, Taro (2016). "स्वतंत्र घटक विश्लेषण के लिए एक स्थानीय शिक्षण नियम". Scientific Reports. 6: 28073. Bibcode:2016NatSR...628073I. doi:10.1038/srep28073. PMC 4914970. PMID 27323661.
- ↑ 4.0 4.1 Stone, James V. (2004). Independent component analysis : a tutorial introduction. Cambridge, Massachusetts: MIT Press. ISBN 978-0-262-69315-8.
- ↑ Hyvärinen, Aapo; Karhunen, Juha; Oja, Erkki (2001). स्वतंत्र घटक विश्लेषण (1st ed.). New York: John Wiley & Sons. ISBN 978-0-471-22131-9.
- ↑ जोहान हिमबर्गैंड आपो हाइवरिनन, बाइनरी डेटा के लिए स्वतंत्र घटक विश्लेषण: एक प्रायोगिक अध्ययन, प्रोक। इंट। इंडिपेंडेंट कंपोनेंट एनालिसिस एंड ब्लाइंड सिग्नल सेपरेशन (ICA2001), सैन डिएगो, कैलिफ़ोर्निया, 2001 पर वर्कशॉप। </ रेफ> यह मानकर कि चर निरंतर हैं और मिक्सिंग मैट्रिक्स प्राप्त करने के लिए बाइनरी ऑब्जर्वेशन डेटा पर FastICA चला रहे हैं (वास्तविक मूल्य), फिर गोल संख्या तकनीकों को लागू करें बाइनरी मान प्राप्त करने के लिए। यह दृष्टिकोण अत्यधिक गलत परिणाम उत्पन्न करने के लिए दिखाया गया है।[citation needed] एक अन्य विधि गतिशील प्रोग्रामिंग का उपयोग करना है: अवलोकन मैट्रिक्स को पुनरावर्ती रूप से तोड़ना इसके उप-मैट्रिसेस में और इन सब-मैट्रिसेस पर इंट्रेंस एल्गोरिथम चलाते हैं। मुख्य अवलोकन जो इस एल्गोरिथम की ओर ले जाता है वह उप-मैट्रिक्स है का कहाँ छिपे हुए घटकों के निष्पक्ष अवलोकन मैट्रिक्स से मेल खाती है जिनका संबंध नहीं है -वें मॉनिटर। से प्रायोगिक परिणाम<ref name="Huyna">Huy Nguyen and Rong Zheng, Binary Independent Component Analysis With or Mixtures, IEEE Transactions on Signal Processing, Vol. 59, Issue 7. (July 2011), pp. 3168–3181.
- ↑ Painsky, Amichai; Rosset, Saharon; Feder, Meir (2014). सामान्यीकृत बाइनरी स्वतंत्र घटक विश्लेषण. pp. 1326–1330. doi:10.1109/ISIT.2014.6875048. ISBN 978-1-4799-5186-4. S2CID 18579555.
{{cite book}}
:|journal=
ignored (help) - ↑ James V. Stone(2004); "Independent Component Analysis: A Tutorial Introduction", The MIT Press Cambridge, Massachusetts, London, England; ISBN 0-262-69315-1
- ↑ Kruskal, JB. 1969; "Toward a practical method which helps uncover the structure of a set of observations by finding the line transformation which optimizes a new "index of condensation", Pages 427–440 of: Milton, RC, & Nelder, JA (eds), Statistical computation; New York, Academic Press
- ↑ 10.0 10.1 10.2 Pierre Comon (1994) Independent component analysis, a new concept? http://www.ece.ucsb.edu/wcsl/courses/ECE594/594C_F10Madhow/comon94.pdf
- ↑ Hyvärinen, Aapo; Erkki Oja (2000). "Independent Component Analysis:Algorithms and Applications". Neural Networks. 4-5. 13 (4–5): 411–430. CiteSeerX 10.1.1.79.7003. doi:10.1016/s0893-6080(00)00026-5. PMID 10946390. S2CID 11959218.
- ↑ 12.0 12.1 P.Comon, Independent Component Analysis, Workshop on Higher-Order Statistics, July 1991, republished in J-L. Lacoume, editor, Higher Order Statistics, pp. 29-38. Elsevier, Amsterdam, London, 1992. HAL link
- ↑ Hyvärinen, Aapo; Karhunen, Juha; Oja, Erkki (2001). स्वतंत्र घटक विश्लेषण (Reprint ed.). New York, NY: Wiley. ISBN 978-0-471-40540-5.
- ↑ Hyvärinen, Aapo (1998). "स्वतंत्र घटक विश्लेषण और प्रक्षेपण खोज के लिए अंतर एंट्रॉपी के नए अनुमान।". Advances in Neural Information Processing Systems. 10: 273–279.
- ↑ Bell, A. J.; Sejnowski, T. J. (1995). "An Information-Maximization Approach to Blind Separation and Blind Deconvolution", Neural Computation, 7, 1129-1159
- ↑ 16.0 16.1 James V. Stone (2004). "Independent Component Analysis: A Tutorial Introduction", The MIT Press Cambridge, Massachusetts, London, England; ISBN 0-262-69315-1
- ↑ Hérault, J.; Ans, B. (1984). "Réseau de neurones à synapses modifiables : Décodage de messages sensoriels composites par apprentissage non supervisé et permanent". Comptes Rendus de l'Académie des Sciences, Série III. 299: 525–528.
- ↑ Ans, B., Hérault, J., & Jutten, C. (1985). Architectures neuromimétiques adaptatives : Détection de primitives. Cognitiva 85 (Vol. 2, pp. 593-597). Paris: CESTA.
- ↑ Hérault, J., Jutten, C., & Ans, B. (1985). Détection de grandeurs primitives dans un message composite par une architecture de calcul neuromimétique en apprentissage non supervisé. Proceedings of the 10th Workshop Traitement du signal et ses applications (Vol. 2, pp. 1017-1022). Nice (France): GRETSI.
- ↑ Hérault, J., & Jutten, C. (1986). Space or time adaptive signal processing by neural networks models. Intern. Conf. on Neural Networks for Computing (pp. 206-211). Snowbird (Utah, USA).
- ↑ Hyvärinen, A.; Oja, E. (2000-06-01). "Independent component analysis: algorithms and applications". Neural Networks (in English). 13 (4): 411–430. doi:10.1016/S0893-6080(00)00026-5. ISSN 0893-6080. PMID 10946390. S2CID 11959218.
- ↑ Hochreiter, Sepp; Schmidhuber, Jürgen (1999). "LOCOCODE के माध्यम से फ़ीचर एक्सट्रैक्शन" (PDF). Neural Computation. 11 (3): 679–714. doi:10.1162/089976699300016629. ISSN 0899-7667. PMID 10085426. S2CID 1642107. Retrieved 24 February 2018.
- ↑ Brown, GD; Yamada,S; Sejnowski, TJ (2001). "तंत्रिका कॉकटेल पार्टी में स्वतंत्र घटक विश्लेषण". Trends in Neurosciences. 24 (1): 54–63. doi:10.1016/s0166-2236(00)01683-0. PMID 11163888. S2CID 511254.
- ↑ Lewicki, MS (1998). "Areview of methods for spike sorting: detection and classification of neural action potentials". Network: Computation in Neural Systems. 9 (4): 53–78. doi:10.1088/0954-898X_9_4_001. S2CID 10290908.
- ↑ Barlett, MS (2001). अप्रशिक्षित शिक्षण द्वारा चेहरा छवि विश्लेषण. Boston: Kluwer International Series on Engineering and Computer Science.
- ↑ Bell, AJ; Sejnowski, TJ (1997). "प्राकृतिक दृश्यों के स्वतंत्र घटक एज फिल्टर हैं". Vision Research. 37 (23): 3327–3338. doi:10.1016/s0042-6989(97)00121-1. PMC 2882863. PMID 9425547.
- ↑ Back, AD; Weigend, AS (1997). "स्टॉक रिटर्न से संरचना निकालने के लिए स्वतंत्र घटक विश्लेषण का पहला प्रयोग". International Journal of Neural Systems. 8 (4): 473–484. doi:10.1142/s0129065797000458. PMID 9730022. S2CID 872703.
- ↑ Hyvarinen, A, Karhunen,J & Oja,E (2001a). स्वतंत्र घटक विश्लेषण. New York: John Wiley and Sons.
{{cite book}}
: CS1 maint: multiple names: authors list (link) - ↑ Polder, G; van der Heijen, FWAM (2003). "स्वतंत्र घटक विश्लेषण का उपयोग करके टमाटर की वर्णक्रमीय छवियों में यौगिक वितरण का अनुमान". Austrian Computer Society: 57–64.
- ↑ Delorme, A; Sejnowski, T; Makeig, S (2007). "उच्च-क्रम के आँकड़ों और स्वतंत्र घटक विश्लेषण का उपयोग करके ईईजी डेटा में कलाकृतियों की बढ़ी हुई पहचान". NeuroImage. 34 (4): 1443–1449. doi:10.1016/j.neuroimage.2006.11.004. PMC 2895624. PMID 17188898.
- ↑ Douglas, P (2013). "स्वतंत्र घटक सुविधाओं का उपयोग करके ईईजी और एफएमआरआई डेटा से विश्वास निर्णय लेने का एकल परीक्षण डिकोडिंग". Frontiers in Human Neuroscience. 7: 392. doi:10.3389/fnhum.2013.00392. PMC 3728485. PMID 23914164.
- ↑ Trapnell, C; Cacchiarelli, D; Grimsby, J (2014). "एकल कोशिकाओं के स्यूडोटेम्पोरल ऑर्डर द्वारा सेल भाग्य निर्णयों की गतिशीलता और नियामकों का पता चलता है". Nature Biotechnology. 32 (4): 381–386. doi:10.1038/nbt.2859. PMC 4122333. PMID 24658644.
- ↑ Kiviniemi, Vesa J.; Kantola, Juha-Heikki; Jauhiainen, Jukka; Hyvärinen, Aapo; Tervonen, Osmo (2003). "गैर नियतात्मक fMRI संकेत स्रोतों का स्वतंत्र घटक विश्लेषण". NeuroImage. 19 (2): 253–260. doi:10.1016/S1053-8119(03)00097-1. PMID 12814576. S2CID 17110486.
- ↑ Wang, Jingying; Xu, Haiguang; Gu, Junhua; An, Tao; Cui, Haijuan; Li, Jianxun; Zhang, Zhongli; Zheng, Qian; Wu, Xiang-Ping (2010-11-01). "How to Identify and Separate Bright Galaxy Clusters from the Low-frequency Radio Sky?". The Astrophysical Journal. 723 (1): 620–633. arXiv:1008.3391. Bibcode:2010ApJ...723..620W. doi:10.1088/0004-637X/723/1/620. ISSN 0004-637X.
- ↑ Moraux, Franck; Villa, Christophe (2003). "The dynamics of the term structure of interest rates: an Independent Component Analysis". Connectionist Approaches in Economics and Management Sciences. Advances in Computational Management Science. 6: 215–232. doi:10.1007/978-1-4757-3722-6_11. ISBN 978-1-4757-3722-6.
संदर्भ
- Comon, Pierre (1994): "Independent Component Analysis: a new concept?", Signal Processing, 36(3):287–314 (The original paper describing the concept of ICA)
- Hyvärinen, A.; Karhunen, J.; Oja, E. (2001): Independent Component Analysis, New York: Wiley, ISBN 978-0-471-40540-5 ( Introductory chapter )
- Hyvärinen, A.; Oja, E. (2000): "Independent Component Analysis: Algorithms and Application", Neural Networks, 13(4-5):411-430. (Technical but pedagogical introduction).
- Comon, P.; Jutten C., (2010): Handbook of Blind Source Separation, Independent Component Analysis and Applications. Academic Press, Oxford UK. ISBN 978-0-12-374726-6
- Lee, T.-W. (1998): Independent component analysis: Theory and applications, Boston, Mass: Kluwer Academic Publishers, ISBN 0-7923-8261-7
- Acharyya, Ranjan (2008): A New Approach for Blind Source Separation of Convolutive Sources - Wavelet Based Separation Using Shrinkage Function ISBN 3-639-07797-0 ISBN 978-3639077971 (this book focuses on unsupervised learning with Blind Source Separation)
बाहरी संबंध
- What is independent component analysis? by Aapo Hyvärinen
- Independent Component Analysis: A Tutorial by Aapo Hyvärinen
- A Tutorial on Independent Component Analysis
- FastICA as a package for Matlab, in R language, C++
- ICALAB Toolboxes for Matlab, developed at RIKEN
- High Performance Signal Analysis Toolkit provides C++ implementations of FastICA and Infomax
- ICA toolbox Matlab tools for ICA with Bell-Sejnowski, Molgedey-Schuster and mean field ICA. Developed at DTU.
- Demonstration of the cocktail party problem
- EEGLAB Toolbox ICA of EEG for Matlab, developed at UCSD.
- FMRLAB Toolbox ICA of fMRI for Matlab, developed at UCSD
- MELODIC, part of the FMRIB Software Library.
- Discussion of ICA used in a biomedical shape-representation context
- FastICA, CuBICA, JADE and TDSEP algorithm for Python and more...
- Group ICA Toolbox and Fusion ICA Toolbox
- Tutorial: Using ICA for cleaning EEG signals