कारक विश्लेषण
कारक विश्लेषण सांख्यिकी पद्धति है जिसका उपयोग प्रेक्षित, सहसंबद्ध वेरिएबल (गणित) के मध्य विचरण का वर्णन करने के लिए संभावित रूप से कम संख्या में न देखे गए वेरिएबल के संदर्भ में किया जाता है जिन्हें कारक कहा जाता है। उदाहरण के लिए, यह संभव है कि छह देखे गए वेरिएबलों में भिन्नताएं मुख्य रूप से दो न देखे गए (अंतर्निहित) वेरिएबलों में भिन्नताएं दर्शाती हैं। कारक विश्लेषण न देखे गए अव्यक्त वेरिएबलों की प्रतिक्रिया में ऐसी संयुक्त विविधताओं की खोज करता है। इसको देखे गए वेरिएबल के आंकड़ों के संदर्भ में संभावित कारकों और त्रुटियों और अवशेषों के रैखिक संयोजन के रूप में तैयार किया गया है, इसलिए कारक विश्लेषण को वेरिएबल-में-त्रुटि मॉडल के विशेष स्तिथियों के रूप में माना जा सकता है। [1] सीधे शब्दों में कहेंतब, किसी वेरिएबल का कारक लोडिंग उस सीमा को निर्धारित करता है, जिस सीमा तक वेरिएबल किसी दिए गए कारक से संबंधित होता है। [2]
कारक विश्लेषणात्मक विधियों के पीछे सामान्य तर्क यह है कि देखे गए वेरिएबल के मध्य अन्योन्याश्रितताओं के बारे में प्राप्त सूचना का उपयोग और इसके पश्चात में डेटासमुच्चय में वेरिएबल के समुच्चय को कम करने के लिए किया जा सकता है। कारक विश्लेषण का उपयोग सामान्यतः साइकोमेट्रिक्स, व्यक्तित्व मनोविज्ञान, जीव विज्ञान, विपणन, उत्पाद प्रबंधन, संचालन अनुसंधान, वित्त और यंत्र अधिगम में किया जाता है। यह उन डेटा समुच्चयों से निपटने में सहायता कर सकता है जहां बड़ी संख्या में देखे गए वेरिएबल हैं जो अंतर्निहित/अव्यक्त वेरिएबल की लघु संख्या को प्रतिबिंबित करते हैं। यह सबसे अधिक उपयोग की जाने वाली अंतर-निर्भरता तकनीकों में से है और इसका उपयोग तब किया जाता है जब वेरिएबल का प्रासंगिक समुच्चय व्यवस्थित अंतर-निर्भरता दिखाता है और इसका उद्देश्य उन अव्यक्त कारकों का पता लगाना है जो समानता बनाते हैं।
सांख्यिकीय मॉडल
परिभाषा
मॉडल प्रत्येक व्यक्तियों में सामान्य कारकों के समुच्चय के साथ अवलोकनों के समुच्चय को समझाने का प्रयास करता है, जहां प्रति इकाई अवलोकनों की तुलना में प्रति इकाई कम कारक होते हैं। प्रत्येक व्यक्ति के समीप अपने स्वयं के सामान्य कारक होते हैं, और यहएकल अवलोकन के लिए, कारक लोडिंग आव्युह के माध्यम से अवलोकनों से संबंधित होते हैं।
जहाँ
- वें व्यक्ति के वें अवलोकन का मान है,
- वें अवलोकन के लिए अवलोकन माध्य है,
- वें कारक के वें अवलोकन के लिए लोडिंग है,
- वें व्यक्ति के वें कारक का मान है, और
- माध्य शून्य और परिमित विचरण के साथ वां अवलोकित स्टोकेस्टिक त्रुटि शब्द है।
आव्युह नोटेशन में
जहां अवलोकन आव्यूह , लोडिंग आव्यूह , कारक आव्यूह , त्रुटि टर्म आव्यूह और माध्य आव्यूह है, जिससे वां अवयव सिर्फ है।
इसके अतिरिक्त हम निम्नलिखित धारणाएँ भी प्रयुक्त करेंगे :
- और स्वतंत्र हैं.
- ; जहां अपेक्षा है
- जहाँ सहप्रसरण आव्युह है, यह सुनिश्चित करने के लिए कि कारक असंबंधित हैं, और पहचान आव्युह है.
कल्पना करना . तब
और इसलिए, लगाई गई शर्तों 1 और 2 से ऊपर, और , देना
या, समुच्चयिंग ,
ध्यान दें कि किसी भी ऑर्थोगोनल आव्युह के लिए,यदि और और हम अगर हम समुच्चय करते हैं तब कारक और कारक लोडिंग के मानदंड अभी भी दृढ़ हैं। इसलिए कारकों और कारक लोडिंग का समुच्चय केवल ऑर्थोगोनल परिवर्तन तक अद्वितीय है।
उदाहरण
मान लीजिए कि मनोवैज्ञानिक की परिकल्पना है कि बुद्धि (विशेषता) दो प्रकार की होती है, मौखिक बुद्धि और गणितीय बुद्धि, जिनमें से कोई भी प्रत्यक्ष रूप से नहीं देखी जाती है। इसमें 1000 छात्रों के 10 भिन्न-भिन्न शैक्षणिक क्षेत्रों में से प्रत्येक के परीक्षा अंकों में परिकल्पना के साक्ष्य मांगे गए हैं। यदि प्रत्येक छात्र को बड़ी आपश्चाती (सांख्यिकी) से यादृच्छिक रूप से चुना जाता है,तब प्रत्येक छात्र के 10 अंक यादृच्छिक वेरिएबल होते हैं। मनोवैज्ञानिक की परिकल्पना कह सकती है कि 10 अकादमिक क्षेत्रों में से प्रत्येक के लिए, उन सभी छात्रों के समूह पर औसत स्कोर जो मौखिक और गणितीय बुद्धि के लिए मानों की कुछ सामान्य जोड़ी साझा करते हैं, कुछ स्थिरांक (गणित) उनकी मौखिक बुद्धि के स्तर का यह अनेक गुना होता है और अन्य स्थिरांक उनके गणितीय बुद्धि के स्तर का अनेक गुना है, अथार्त, यह उन दो कारकों का रैखिक संयोजन है। किसी विशेष विषय के लिए संख्याएँ होती हैं, जिनके द्वारा अपेक्षित स्कोर प्राप्त करने के लिए दो प्रकार की बुद्धिमत्ता को गुणा किया जाता है, परिकल्पना द्वारा सभी बुद्धिमत्ता स्तर के जोड़े के लिए समान मानी जाती हैं, और इस विषय के लिए कारक लोडिंग कहलाती हैं। उदाहरण के लिए, परिकल्पना यह मान सकती है कि खगोल विज्ञान के क्षेत्र में अनुमानित औसत छात्र की योग्यता है
- {10 × छात्र की मौखिक बुद्धि} + {6 × छात्र की गणितीय बुद्धि}।
संख्या 10 और 6 खगोल विज्ञान से जुड़े कारक लोडिंग हैं। अन्य शैक्षणिक विषयों में भिन्न-भिन्न कारक लोड हो सकते हैं।
ऐसा माना जाता है कि मौखिक और गणितीय बुद्धि की समान डिग्री वाले दो छात्रों की खगोल विज्ञान में भिन्न-भिन्न मापी गई योग्यताएं हो सकती हैं क्योंकि व्यक्तिगत योग्यताएं औसत योग्यताओं (ऊपर अनुमानित) से भिन्न होती हैं और इसमें माप त्रुटि के कारण ही भिन्न होती हैं। इस प्रकार के मतभेदों को सामूहिक रूप से त्रुटि कहा जाता है - सांख्यिकीय शब्द जिसका अर्थ है वह मात्रा जिसके द्वारा किसी व्यक्ति को मापा जाता है, जो उसकी बुद्धिमत्ता के स्तर के लिए औसत या अनुमानित से भिन्न होता है (आंकड़ों में त्रुटियां और अवशेष देखें)।
कारक विश्लेषण में जाने वाला अवलोकन योग्य डेटा 1000 छात्रों में से प्रत्येक के 10 अंक, कुल 10,000 नंबर होंते हैं। डेटा से प्रत्येक छात्र की दो प्रकार की बुद्धि के कारक लोडिंग और स्तर का अनुमान लगाया जाना चाहिए।
उसी उदाहरण का गणितीय मॉडल
निम्नलिखित में, आव्युह को अनुक्रमित वेरिएबल द्वारा दर्शाया जाएगा। "विषय" सूचकांकों को अक्षर , और ,का उपयोग करके दर्शाया जाएगा, जिसमें मान से तक चलेंगे जो उपरोक्त उदाहरण में के सामान्य है। "कारक" सूचकांकों को अक्षर , और का उपयोग करके दर्शाया जाएगा, जिसका मान से तक होगा जो उपरोक्त उदाहरण में के सामान्य है। "उदाहरण" या "प्रतिरूप" सूचकांकों को , और अक्षरों का उपयोग करके दर्शाया जाएगा, जिसमें मान से तक चलेंगे। उपरोक्त उदाहरण में, यदि छात्रों के प्रतिरूप ने परीक्षाओं में भाग लिया, तब परीक्षा के लिए छात्र का स्कोर द्वारा दिया गया है। कारक विश्लेषण का उद्देश्य चर के मध्य सहसंबंधों को चिह्नित करना है, जिनमें से विशेष उदाहरण, या अवलोकनों का समुच्चय है। वेरिएबलों को समान स्तर पर रखने के लिए, उन्हें मानक स्कोर में सामान्यीकरण (सांख्यिकी किया जाता है |
जहां प्रतिरूप माध्य है:
और प्रतिरूप विचरण इस प्रकार दिया गया है:
इस विशेष प्रतिरूप के लिए कारक विश्लेषण मॉडल तब है:
या, अधिक संक्षेप में:
जहाँ
- ,वें छात्र की मौखिक बुद्धि है,
- ,वें छात्र की गणितीय बुद्धि हैं,
- ,वें विषय, के लिए के लिए कारक लोडिंग हैं।
आव्युह (गणित) नोटेशन में, हमारे समीप है
उस मापदंड को दोगुना करके देखें जिस पर मौखिक बुद्धिमत्ता - प्रत्येक कॉलम में पहला घटक है मापा जाता है, और साथ ही मौखिक बुद्धिमत्ता के लिए कारक लोडिंग को आधा करने से मॉडल पर कोई भिन्नता नहीं दिखाई पड़ती है। इस प्रकार, यह मानने से कोई व्यापकता नहीं खोती है कि मौखिक बुद्धि के लिए कारकों का मानक विचलन है | इसी प्रकार गणितीय बुद्धि के लिए भी हैं इसके अतिरिक्त, समान कारणों से, यह मानने से कोई व्यापकता विलुप्त नहीं है कि दोनों कारक एक-दूसरे से असंबद्ध होते हैं। दूसरे शब्दों में:
जहाँ क्रोनकर डेल्टा है और ( जब और जब ).त्रुटियों को कारकों से स्वतंत्र माना जाता है:
ध्यान दें, चूँकि किसी समाधान का कोई आवर्तन भी समाधान है, इससे कारकों की व्याख्या करना कठिन हो जाता है। नीचे हानि देखें. इस विशेष उदाहरण में, यदि हम पूर्व से नहीं जानते हैं कि दो प्रकार की बुद्धि असंबद्ध हैं,तब हम दो कारकों की दो भिन्न-भिन्न प्रकार की बुद्धि के रूप में व्याख्या नहीं कर सकते हैं। तथापि वह इससे असंबंधित होते हैं, हम बिना किसी बाहरी तर्क के यह नहीं बता सकते कि कौन सा कारक मौखिक बुद्धि से मेल खाता है और कौन सा गणितीय बुद्धि से मेल खाता है।
लोडिंग का मान , औसत , और त्रुटियों की भिन्नताएँ प्रेक्षित डेटा को देखते हुए अनुमान लगाया जाना चाहिए कि और (कारकों के स्तर के बारे में धारणा किसी दिए गए के लिए प्रयुक्त की गई है | मौलिक प्रमेय उपरोक्त शर्तों से प्राप्त किया जा सकता है |
बाईं ओर का शब्द सहसंबंध आव्युह का -अवलोकन है (ए आव्युह जो देखे गए डेटा के मानकीकृत अवलोकनों के आव्युह के उत्पाद के रूप में प्राप्त होता है) और इसका विकर्ण तत्व s होंगे। दाईं ओर दूसरा पद विकर्ण आव्युह होता हैं जिसमें इकाई से कम पद होते हैं। दाईं ओर पहला पद "कम सहसंबंध आव्युह" है और इसके विकर्ण मानों को छोड़कर सहसंबंध आव्युह के सामान्य होगा जो एकता से कम होगा। कम सहसंबंध आव्युह के इन विकर्ण अवयवो को "सामुदायिकताएं" कहा जाता है (जो कारकों द्वारा देखे गए वेरिएबल में भिन्नता के अंश का प्रतिनिधित्व करते हैं):
प्रतिरूप डेटा प्रतिरूपकरण त्रुटियों, मॉडल की अपर्याप्तता आदि के कारण ऊपर दिए गए मौलिक समीकरण का सम्पूर्ण रूप में पालन नहीं किया जाएगा। उपरोक्त मॉडल के किसी भी विश्लेषण का लक्ष्य कारकों का पता लगाना है | इसमें और लोडिंग जो डेटा को सर्वोत्तम रूप से फिट करता है। और इस कारक विश्लेषण में, सर्वोत्तम फिट को सहसंबंध आव्युह के ऑफ-विकर्ण अवशेषों में न्यूनतम माध्य वर्ग त्रुटि के रूप में परिभाषित किया गया है:[3]
यह त्रुटि सहप्रसरण के ऑफ-विकर्ण घटकों को कम करने के सामान्य है, जिसमें मॉडल समीकरणों में शून्य के अपेक्षित मान होते हैं। इसकी तुलना प्रमुख घटक विश्लेषण से की जानी चाहिए जो सभी अवशेषों की माध्य वर्ग त्रुटि को कम करने का प्रयास करता है। [3] इसमें हाई-स्पीड कंप्यूटर के आगमन से पूर्व, समस्या के अनुमानित समाधान खोजने के लिए अधिक प्रयास किए गए थे, विशेष रूप से अन्य विधियों से सांप्रदायिकताओं का अनुमान लगाने में होता हैं, जो तब ज्ञात कम सहसंबंध आव्युह उत्पन्न करके समस्या को अधिक सरल बनाता है। इसके पश्चात कारकों और लोडिंग का अनुमान लगाने के लिए इसका उपयोग किया गया हैं। हाई-स्पीड कंप्यूटर के आगमन के साथ, न्यूनतमकरण की समस्या को पर्याप्त गति के साथ पुनरावृत्त रूप से समाधान किया जा सकता है, और सामुदायिकताओं की गणना पूर्व से आवश्यक होने के अतिरिक्त प्रक्रिया में की जाती है। सामान्यीकृत न्यूनतम अवशिष्ट विधि एल्गोरिथ्म इस समस्या के लिए विशेष रूप से उपयुक्त है, किन्तु समाधान खोजने का संभवतः यह एकमात्र पुनरावृत्त साधन है।
यदि समाधान कारकों को सहसंबंधित करने की अनुमति दी जाती है | इस प्रकार (उदाहरण के लिए 'ओब्लिमिन' रोटेशन में) होता हैं,तब यह संबंधित गणितीय मॉडल ऑर्थोगोनल निर्देशांक के अतिरिक्त स्कू निर्देशांक का उपयोग करता है।
ज्यामितीय व्याख्या
कारक विश्लेषण के मापदंडों और चर को ज्यामितीय व्याख्या दी जा सकती है। इसमें डेटा (), कारक () और त्रुटियों () को -आयामी यूक्लिडियन स्पेस (प्रतिरूप स्थान) में सदिश के रूप में देखा जा सकता है, जिसे क्रमशः , और के रूप में दर्शाया जाता है। चूंकि डेटा मानकीकृत है, इसमें डेटा सदिश इकाई लंबाई के सामान्य हैं। कारक सदिश इस स्थान में -आयामी रैखिक उप-स्थान (अथार्त यह हाइपरप्लेन) को परिभाषित करते हैं, जिस पर डेटा सदिश ऑर्थोगोनल रूप से प्रक्षेपित होते हैं। यह मॉडल समीकरण से निम्नानुसार है
और कारकों और त्रुटियों की स्वतंत्रता: होता हैं. उपरोक्त उदाहरण में, हाइपरप्लेन केवल दो कारक सदिश द्वारा परिभाषित 2-आयामी प्लेन है। हाइपरप्लेन पर डेटा सदिश का प्रक्षेपण इसके द्वारा दिया गया है
और त्रुटियाँ उस अनुमानित बिंदु से डेटा बिंदु सीमा तक सदिश हैं और यह हाइपरप्लेन के लंबवत होता हैं। कारक विश्लेषण का लक्ष्य हाइपरप्लेन ढूंढना है जो कुछ अर्थों में डेटा के लिए सबसे उपयुक्त होता है, इसलिए इसमें कोई भिन्नता दिखाई नहीं पड़ती हैं कि इस हाइपरप्लेन को परिभाषित करने वाले कारक सदिश को कैसे चुना जाता है, जब तक कि वह स्वतंत्र हैं और हाइपरप्लेन में स्थित हैं। इसमें हाइपरप्लेन व्यापकता की हानि के बिना उन्हें ऑर्थोगोनल और सामान्य () दोनों के रूप में निर्दिष्ट करने के लिए स्वतंत्र हैं। इसमें कारकों का उपयुक्त समुच्चय पाए जाने के पश्चात, उन्हें हाइपरप्लेन के अंदर अनेैतिक रूप से परिवर्तित किया जा सकता है, जिससे कि कारक सदिश का कोई भी परिवर्तन उसी हाइपरप्लेन को परिभाषित करेगा, और उसका समाधान भी होगा।इसके परिणामस्वरूप, उपरोक्त उदाहरण में, जिसमें फिटिंग हाइपरप्लेन दो आयामी है, यदि हम पूर्व से नहीं जानते हैं कि दो प्रकार की बुद्धि असंबंधित होती हैं,तब हम दो कारकों की दो भिन्न-भिन्न प्रकार की बुद्धि के रूप में व्याख्या नहीं कर सकते हैं। यदि वह असंबंधित हों, हम बिना किसी बाहरी तर्क को यह नहीं बता सकते कि कौन सा कारक मौखिक बुद्धि से मेल खाता है और कौन सा गणितीय बुद्धि से मेल खाता है, या यह कारक दोनों का रैखिक संयोजन हैं।
डेटा सदिश इकाई लंबाई है. डेटा के लिए सहसंबंध आव्युह की प्रविष्टियाँ द्वारा दी गई हैं | सहसंबंध आव्युह को ज्यामितीय रूप से दो डेटा सदिश और के मध्य के कोण के कोसाइन के रूप में व्याख्या किया जा सकता है विकर्ण अवयव स्पष्ट रूप से s होंगे और ऑफ विकर्ण अवयवों का निरपेक्ष मान एकता से कम या उसके सामान्य होगा। "कम सहसंबंध आव्युह" को इस प्रकार परिभाषित किया गया है
- .
कारक विश्लेषण का लक्ष्य फिटिंग हाइपरप्लेन का चयन करना है, जिससे कि सहसंबंध आव्युह के विकर्ण अवयवों को छोड़कर, कम सहसंबंध आव्युह सहसंबंध आव्युह को यथासंभव पुन: उत्पन्न कर सके, जिन्हें इकाई मान के रूप में जाना जाता है। दूसरे शब्दों में, लक्ष्य डेटा में क्रॉस-सहसंबंधों को यथासंभव स्पष्ट रूप से पुन: प्रस्तुत करना है। विशेष रूप से, फिटिंग हाइपरप्लेन के लिए, ऑफ-विकर्ण घटकों में माध्य वर्ग त्रुटि होती हैं
इसे न्यूनतम किया जाना है, और इसे ऑर्थोनॉर्मल कारक सदिश के समुच्चय के संबंध में इसे कम करके पूर्ण किया जाता है। यह देखा जा सकता है
दाईं ओर का शब्द केवल त्रुटियों का सहप्रसरण है। इस मॉडल में, त्रुटि सहप्रसरण को विकर्ण आव्युह कहा गया है और इसलिए उपरोक्त न्यूनतमकरण समस्या वास्तव में मॉडल के लिए सबसे उपयुक्त होती हैं यह त्रुटि सहप्रसरण का प्रतिरूप अनुमान प्राप्त करती हैं जिसके ऑफ-विकर्ण घटकों को औसत वर्ग अर्थ में न्यूनतम किया गया है। यह देखा जा सकता है कि जब से डेटा सदिश के ऑर्थोगोनल प्रक्षेपण हैं, उनकी लंबाई अनुमानित डेटा सदिश की लंबाई से कम या उसके सामान्य होगी, जो कि एकता है। इन लंबाइयों का वर्ग कम सहसंबंध आव्युह के विकर्ण अवयव मात्र होता हैं। इस कम सहसंबंध आव्युह के इन विकर्ण अवयवों को सांप्रदायिकता के रूप में जाना जाता है:
समुदायों के बड़े मान यह संकेत देंगे कि फिटिंग हाइपरप्लेन सहसंबंध आव्युह को स्पष्ट रूप से पुन: प्रस्तुत कर रहा है। इसमें कारकों के माध्य मानों को भी शून्य होने के लिए बाध्य किया जाना चाहिए, जिससे यह निष्कर्ष निकलता है कि त्रुटियों का माध्य मान भी शून्य होता हैं।
व्यावहारिक कार्यान्वयन
कारक विश्लेषण के प्रकार
खोजपूर्ण कारक विश्लेषण
खोजपूर्ण कारक विश्लेषण (ईएफए) का उपयोग उन वस्तुओं और समूह वस्तुओं के मध्य सम्मिश्र अंतर्संबंधों की पहचान करने के लिए किया जाता है जो एकीकृत अवधारणाओं का भाग होता हैं। [4] शोधकर्ता कारकों के मध्य संबंधों के बारे में कोई पूर्व धारणा नहीं बनाता है। [4]
पुष्टि कारक विश्लेषण
पुष्टिकरण कारक विश्लेषण (सीएफए) अधिक सम्मिश्र दृष्टिकोण है जो इस परिकल्पना का परीक्षण करता है कि आइटम विशिष्ट कारकों से जुड़े हैं। [4] सीएफए माप मॉडल का परीक्षण करने के लिए संरचनात्मक समीकरण मॉडलिंग का उपयोग करता है जिससे कारकों पर लोड करने से देखे गए वेरिएबल और न देखे गए वेरिएबल के मध्य संबंधों के मानांकन की अनुमति मिलती है। [4] संरचनात्मक समीकरण मॉडलिंग दृष्टिकोण माप त्रुटि को समायोजित कर सकते हैं और यह न्यूनतम-वर्ग अनुमान की तुलना में कम प्रतिबंधात्मक होते हैं। [4] परिकल्पित मॉडल का परीक्षण वास्तविक डेटा के विरुद्ध किया जाता है, और इसमें विश्लेषण अव्यक्त वेरिएबल (कारकों) पर देखे गए वेरिएबल के लोडिंग के साथ-साथ अव्यक्त वेरिएबल के मध्य सहसंबंध को भी प्रदर्शित करता हैं। [4]
कारक निष्कर्षण के प्रकार
प्रमुख घटक विश्लेषण (पीसीए) कारक निष्कर्षण के लिए व्यापक रूप से उपयोग की जाने वाली विधि है, जो ईएफए का प्रथम चरण है। [4] इसमें अधिकतम संभावित विचरण निकालने के लिए कारक भार की गणना की जाती है, क्रमिक कारकिंग तब तक जारी रहती है जब तक कि इसमें कोई और सार्थक विचरण नहीं बचा होता हैं।[4] इसके पश्चात् फिर विश्लेषण के लिए कारक मॉडल को परिवर्तित किया जाना चाहिए। [4]
कैनोनिकल कारक विश्लेषण, जिसे राव की कैनोनिकल कारकिंग भी कहा जाता है, यह पीसीए के समान मॉडल की गणना करने की भिन्न विधि है, जो प्रमुख अक्ष विधि का उपयोग करती है। विहित कारक विश्लेषण उन कारकों की खोज करता है जिनका प्रेक्षित वेरिएबल के साथ उच्चतम विहित सहसंबंध होता है। यह विहित कारक विश्लेषण डेटा के इच्छानुसार पुनर्स्केलिंग से अप्रभावित रहता है।
सामान्य कारक विश्लेषण, जिसे प्रमुख कारक विश्लेषण (पीएफए) या प्रमुख अक्ष कारकिंग (पीएएफ) भी कहा जाता है, यह सबसे कम कारकों की खोज करता है जो वेरिएबल के समुच्चय के सामान्य विचरण (सहसंबंध) के लिए उत्तरदायी हो सकते हैं।
छवि कारकिंग वास्तविक वेरिएबल के अतिरिक्त अनुमानित वेरिएबल के सहसंबंध आव्युह पर आधारित होते है, जहां प्रत्येक वेरिएबल का पूर्वानुमान अनेक प्रतिगमन का उपयोग करके दूसरों से किया जाता है।
अल्फा कारकिंग कारकों की विश्वसनीयता को अधिकतम करने पर आधारित होता है, यह मानते हुए कि वेरिएबल को वेरिएबल के यूनिवर्स से यादृच्छिक रूप से प्रतिरूप लिया जाता है। तथा अन्य सभी विधियाँ यह मानती हैं कि स्तिथियों को प्रतिरूपकृत किया गया है और वेरिएबलों को निश्चित किया गया है।
कारक प्रतिगमन मॉडल कारक मॉडल और प्रतिगमन मॉडल का संयोजन मॉडल है | तथा वैकल्पिक रूप से, इसे हाइब्रिड कारक मॉडल के रूप में देखा जा सकता है,[5] जिनके कारक आंशिक रूप से ज्ञात हैं।
शब्दावली
- कारक लोडिंग
- सामुदायिकता किसी वस्तु की मानकीकृत बाहरी लोडिंग का वर्ग होता है। पियर्सन का आर-वर्ग के अनुरूप, वर्ग कारक लोडिंग कारक द्वारा समझाए गए उस संकेतक वेरिएबल में भिन्नता का प्रतिशत होता है। इसमें प्रत्येक कारक के अनुरूप सभी वेरिएबल में भिन्नता का प्रतिशत प्राप्त करने के लिए होता हैं, उस कारक (स्तंभ) के लिए वर्ग कारक लोडिंग का योग जोड़ें और वेरिएबल की संख्या से विभाजित करें। (ध्यान दें कि वेरिएबलों की संख्या उनके प्रसरणों के योग के सामान्य होती है क्योंकि यह मानकीकृत वेरिएबल का प्रसरण 1 होता है।) यह कारक के आइजेनवैल्यू को वेरिएबलों की संख्या से विभाजित करने के समान है। व्याख्या करते समय, पुष्टिकारक कारक विश्लेषण में थम्ब के नियम के अनुसार, कारक लोडिंग .7 या उच्चतर होनी चाहिए जिससे यह पुष्टि की जा सके कि प्राथमिकता से पहचाने गए स्वतंत्र वेरिएबल विशेष कारक द्वारा दर्शाए जाते हैं, इस तर्क पर कि .7 स्तर सामान्य है संकेतक में लगभग आधे विचरण को कारक द्वारा समझाया जा रहा है। चूँकि, .7 मानक उच्च होता है और वास्तविक जीवन का डेटा इस मानदंड को पूर्ण नहीं कर सकता है, यही कारण है कि कुछ शोधकर्ता, विशेष रूप से खोजपूर्ण उद्देश्यों के लिए, निचले स्तर का उपयोग करेंगे जैसे कि केंद्रीय कारक के लिए .4 और .25 के लिए होते हैं। और अन्य कारक किसी भी घटना में, कारक लोडिंग की व्याख्या सिद्धांत के आलोक में की जानी चाहिए, न कि यह इच्छानुसार कटऑफ स्तरों के आधार पर होती हैं। स्कू रोटेशन में, कोई पैटर्न आव्यूह और संरचना पैटर्न दोनों की जांच कर सकता है। संरचना आव्यूह केवल ऑर्थोगोनल रोटेशन के रूप में कारक लोडिंग आव्यूह होता है, जो अद्वितीय और सामान्य योगदान के आधार पर कारक द्वारा समझाए गए माप वेरिएबल में भिन्नता का प्रतिनिधित्व करता है। इसके विपरीत, पैटर्न आव्यूह में गुणांक होते हैं जो अद्वितीय योगदान का प्रतिनिधित्व करते हैं। जितने अधिक कारक होंगे, एक नियम के रूप में पैटर्न गुणांक उतना ही कम होता हैं चूंकि विचरण में अधिक सामान्य योगदान समझाया जाएगा। स्कू परिवर्तन के लिए, शोधकर्ता किसी कारक को लेबल देते समय संरचना और पैटर्न गुणांक दोनों को देखता है। स्कू घूर्णन के सिद्धांतों को क्रॉस एन्ट्रॉपी और इसकी सामान्य एन्ट्रॉपी दोनों से प्राप्त किया जा सकता है.[6]
- समुदाय
- किसी दिए गए वेरिएबल (पंक्ति) के लिए सभी कारकों के वर्गांकित कारक लोडिंग का योग उस वेरिएबल में सभी कारकों के कारण होने वाला विचरण है। सामुदायिकता सभी कारकों द्वारा संयुक्त रूप से समझाए गए किसी दिए गए वेरिएबल में भिन्नता के प्रतिशत को मापती है और इसे प्रस्तुत किए गए कारकों के संदर्भ में संकेतक की विश्वसनीयता के रूप में व्याख्या किया जा सकता है।
- प्रतिरूपता समाधान
- यदि सामुदायिकता 1.0 से अधिक है, तब इसमें प्रतिरूपता समाधान होता है, जो बहुत लघु प्रतिरूप या बहुत अधिक प्रतिरूप होते हैं यह बहुत कम कारकों को निकालने के विकल्प को प्रतिबिंबित कर सकता है।
- वेरिएबल की विशिष्टता
- किसी वेरिएबल की परिवर्तनशीलता में से उसकी सामुदायिकता को कम कर दिया जाता है।
- आइजनवैल्यू/विशेषता मूल्य
- आइगेनवैल्यू प्रत्येक कारक के अनुसार से कुल प्रतिरूप में भिन्नता की मात्रा को मापते हैं। आइगेनवैल्यू का अनुपात वेरिएबल के संबंध में कारकों के व्याख्यात्मक महत्व का अनुपात होता है। यदि किसी कारक का आइगेनवैल्यू कम है, तब यह वेरिएबल इन भिन्नताओं की व्याख्या में बहुत कम योगदान दे रहा है और इसे उच्च आइगेनवैल्यू वाले कारकों की तुलना में कम महत्वपूर्ण मानकर अनदेखा किया जा सकता है।
- वर्गांकित लोडिंग का निष्कर्षण योग
- प्रारंभिक आइगेनवैल्यू और निष्कर्षण के पश्चात् आइगेनवैल्यू (एसपीएसएस द्वारा "श्रेणीबद्ध लोडिंग के निष्कर्षण योग" के रूप में सूचीबद्ध) पीसीए निष्कर्षण के लिए समान हैं, किंतु अन्य निष्कर्षण विधियों के लिए, निष्कर्षण के पश्चात् आइगेनवैल्यू उनके प्रारंभिक समकक्षों की तुलना में कम होते है। यह एसपीएसएस "स्क्वायर लोडिंग के रोटेशन योग" को भी प्रिंट करता है और यहां तक कि पीसीए के लिए भी इसकी आवश्यकता होती हैं, यह आइगेनवैल्यू प्रारंभिक और निष्कर्षण आइगेनवैल्यू से भिन्न होते हैं, चूंकि इसमें उनका कुल योग समान होता हैं।
- कारक स्कोर
- घटक स्कोर (पीसीए में)
- Template:घाट प्रत्येक कारक (स्तंभ) पर प्रत्येक स्तिथियों में (पंक्ति) के स्कोर होते हैं। किसी दिए गए कारक के लिए दी गई स्तिथियों के कारक स्कोर की गणना करने के लिए होते हैं, इसमें प्रत्येक वेरिएबल पर स्तिथियों का मानकीकृत स्कोर लिया जाता है, और इसमें दिए गए कारक के लिए वेरिएबल के संबंधित लोडिंग से गुणा किया जाता है, और इन उत्पादों का योग किया जाता है। इन कारक स्कोर की गणना करने से व्यक्ति को कारक आउटलेर्स को देखने की अनुमति मिलती है। इसके अतिरिक्त, कारक स्कोर का उपयोग इसके पश्चात् के मॉडलिंग में वेरिएबल के रूप में किया जा सकता है।
कारकों की संख्या निर्धारित करने के लिए मानदंड
शोधकर्ता कारक प्रतिधारण के लिए ऐसे व्यक्तिपरक या इच्छानुसार मानदंडों से बचना चाहते हैं क्योंकि यह मेरे लिए समझ में आता है। इस समस्या को समाधान करने के लिए अनेक वस्तुनिष्ठ विधियों को विकसित किया गया हैं, जो उपयोगकर्ताओं को जांच के लिए समाधानों की उचित श्रृंखला निर्धारित करने की अनुमति देते हैं।[7] चूँकि यह भिन्न-भिन्न विधियाँ प्रायः एक-दूसरे से असहमत होती हैं कि कितने कारकों को निरंतर रखा जाना चाहिए। उदाहरण के लिए, समानांतर विश्लेषण 5 कारकों का सुझाव दे सकता है जबकि वेलिसर का एमएपी 6 का सुझाव देता है, इसलिए शोधकर्ता 5 और 6-कारक समाधान दोनों का अनुरोध कर सकता है और यह बाहरी डेटा और सिद्धांत के संबंध में प्रत्येक पर चर्चा कर सकता है।
आधुनिक मानदंड
हॉर्न का समानांतर विश्लेषण (पीए):[8] मोंटे-कार्लो आधारित सिमुलेशन विधि हैं जो देखे गए स्वदेशी मानों की तुलना असंबद्ध सामान्य वेरिएबल से प्राप्त मानों से करती है। इसमें कारक या घटक को निरंतर रखा जाता है यदि संबंधित आइगेनवैल्यू यादृच्छिक डेटा से प्राप्त आइजेनवैल्यू के वितरण के 95वें प्रति शतक से बड़ा है। इसको बनाए रखने के लिए घटकों की संख्या निर्धारित करने के लिए पीए अधिक सामान्यतः अनुशंसित नियमों में से है,[7][9] किन्तु अनेक प्रोग्राम इस विकल्प को सम्मिलित करने में विफल रहते हैं | (एक उल्लेखनीय अपवाद आर (प्रोग्रामिंग भाषा) है)। [10] चूंकि, एंटोन फॉर्मैन ने सैद्धांतिक और अनुभवजन्य दोनों साक्ष्य प्रदान किए कि इसका अनुप्रयोग अनेक स्तिथियों में उचित नहीं हो सकता है क्योंकि इसका प्रदर्शन प्रतिरूप आकार, आइटम प्रतिक्रिया सिद्धांत याआइटम प्रतिक्रिया फलन और सहसंबंध गुणांक के प्रकार से अधिक प्रभावित होता है।[11] वेलिसर (1976) एमएपी परीक्षण[12] जैसा कि कर्टनी द्वारा वर्णित है (2013)[13] "इसमें पूर्ण प्रमुख घटक विश्लेषण सम्मिलित है जिसके पश्चात आंशिक सहसंबंधों के आव्युह की श्रृंखला की जांच की जाती है" (पृष्ठ 397 (हालांकि ध्यान दें कि यह उद्धरण वेलिसर (1976) में नहीं होता है और उद्धृत पृष्ठ संख्या उद्धरण के पृष्ठों के बाहर है)। चरण "0" के लिए वर्ग सहसंबंध (चित्र 4 देखें) अपूर्ण सहसंबंध आव्युह के लिए औसत वर्ग-विकर्ण सहसंबंध है। चरण 1 पर, पूर्व प्रमुख घटक और उससे संबंधित वस्तुओं को आंशिक रूप से हटा दिया जाता है। इसके पश्चात, पश्चात के सहसंबंध आव्युह के लिए औसत वर्ग-विकर्ण सहसंबंध की गणना चरण 1 के लिए की जाती है। चरण 2 पर, पूर्व दो प्रमुख घटकों को आंशिक रूप से हटा दिया जाता है और इसमें परिणामी औसत वर्ग-विकर्ण सहसंबंध की फिर से गणना की जाती है। गणना k शून्य से चरण के लिए की जाती है | और यह (k आव्युह में वेरिएबल की कुल संख्या का प्रतिनिधित्व करता है)। इसके पश्चात, प्रत्येक चरण के लिए सभी औसत वर्ग सहसंबंधों को पंक्तिबद्ध किया जाता है और विश्लेषण में चरण संख्या जिसके परिणामस्वरूप सबसे कम औसत वर्ग आंशिक सहसंबंध होता है, यह घटकों की संख्या निर्धारित करता है इसको बनाए रखने के लिए कारक की आवश्यकता होती हैं। [12] इस विधि द्वारा, घटकों को तब तक बनाए रखा जाता है जब तक सहसंबंध आव्युह में भिन्नता अवशिष्ट या त्रुटि भिन्नता के विपरीत व्यवस्थित भिन्नता का प्रतिनिधित्व करती है। यद्यपि पद्धतिगत रूप से प्रमुख घटक विश्लेषण के समान होते हैं, यह एमएपी तकनीक को अनेक सिमुलेशन अध्ययनों में बनाए रखने के लिए कारकों की संख्या निर्धारित करने में अधिक अच्छा प्रदर्शन करते दिखाया गया है। [7][14][15][16] यह प्रक्रिया एसपीएसएस के उपयोगकर्ता इंटरफ़ेस के माध्यम से उपलब्ध कराई गई है | [13] और इसके साथ ही आर (प्रोग्रामिंग भाषा) के लिए यह मनोवैज्ञानिक पैकेज होता हैं। [17] [18]
पुराने विधियां
कैसर मानदंड: कैसर नियम 1.0 के अनुसार आइजेनवैल्यू के साथ सभी घटकों को छोड़ने के लिए होते है | यह औसत एकल आइटम द्वारा दर्ज की गई सूचना के सामान्य आइजेनवैल्यू है। [19] यह एसपीएसएस और अधिकांश सांख्यिकीय सॉफ़्टवेयर में कैसर मानदंड डिफ़ॉल्ट होते है, किन्तु कारकों की संख्या का अनुमान लगाने के लिए एकमात्र कट-ऑफ मानदंड के रूप में उपयोग किए जाने पर इसकी अनुशंसा नहीं की जाती है क्योंकि यह कारकों को अधिक निकालने की प्रवृत्ति रखता है। [20] इस पद्धति का रूपांतर तैयार किया गया है जहां शोधकर्ता प्रत्येक आइगेनवैल्यू के लिए आत्मविश्वास अंतराल की गणना करता है और यह केवल उन कारकों को निरंतर रखता है जिनका संपूर्ण आत्मविश्वास अंतराल 1.0 से अधिक है। [14][21]
स्क्री प्लॉट:[22] कैटेल स्क्री परीक्षण घटकों को X-अक्ष के रूप में और संबंधित आइजेनवैल्यू को वाई-अक्ष के रूप में प्लॉट करता है। जैसे-जैसे कोई दाईं ओर बढ़ता है, इसके पश्चात इसके घटकों की ओर, स्वदेशी मान कम हो जाते हैं। जब गिरावट बंद हो जाती है और वक्र कम तेज गिरावट की ओर एल्बो बनाता है,तब कैटेल का स्क्री परीक्षण एल्बो से प्रारंभ होने वाले सभी घटकों को छोड़ने के लिए कहता है। शोधकर्ता-नियंत्रित विक्षनरी:फज कारक के प्रति उत्तरदायी होने के कारण इसमें कभी-कभी इस नियम की आलोचना की जाती है। अथार्त, चूंकि एल्बो चुनना व्यक्तिपरक हो सकता है क्योंकि वक्र में अनेक एल्बो होती हैं यह स्मूथ वक्र होती है, शोधकर्ता को अपने शोध एजेंडे द्वारा वांछित कारकों की संख्या पर कट-ऑफ निर्धारित करने का प्रलोभन दिया जा सकता है।
वेरिएंस ने मानदंड समझाया: कि कुछ शोधकर्ता भिन्नता के 90% (कभी-कभी 80%) को ध्यान में रखने के लिए पर्याप्त कारकों को रखने के नियम का उपयोग करते हैं। जहां शोधकर्ता का लक्ष्य ओकाम के रेजर पर जोर देता है (यथासंभव कुछ कारकों के साथ भिन्नता की व्याख्या करना) हैं, इसका मानदंड 50% तक कम हो सकता है।
बायेसियन विधि
भारतीय बुफ़े प्रक्रिया पर आधारित बायेसियन दृष्टिकोण अव्यक्त कारकों की प्रशंसनीय संख्या पर संभाव्यता वितरण देता है। [23]
रोटेशन विधियाँ
अनरोटेटेड आउटपुट पूर्व कारक, फिर दूसरे कारक आदि के कारण होने वाले विचरण को अधिकतम करता है। अनरोटेटेड समाधान ओर्थोगोनल होते है। इसका अर्थ है कि कारकों के मध्य सहसंबंध शून्य है। अनरोटेटेड समाधान का उपयोग करने की हानि यह है कि सामान्यतः अधिकांश आइटम प्रारम्भिक कारकों पर लोड होते हैं और अनेक आइटम से अधिक कारकों पर अधिक सीमा तक लोड होते हैं।
रोटेशन, लोडिंग का पैटर्न बनाने के लिए समन्वय प्रणाली के अक्षों को रोटेशन (गणित) द्वारा व्याख्या करना सरल बनाता है, जहां प्रत्येक आइटम केवल कारक पर दृढ़ता से लोड होता है और अन्य कारकों पर अधिक कमजोर रूप से लोड होता है। यह परिवर्तन ऑर्थोगोनल या स्कू हो सकता है। यह स्कू परिवर्तन कारकों को सहसंबंधित करने की अनुमति देता है। [24] वेरिमैक्स रोटेशन सबसे अधिक प्रयोग की जाने वाली रोटेशन विधि है। वेरिमैक्स कारक अक्षों का ऑर्थोगोनल रोटेशन है जो कारक लोडिंग आव्युह में सभी वेरिएबल (पंक्तियों) पर कारक (स्तंभ) के वर्ग लोडिंग के विचरण को अधिकतम करता है। प्रत्येक कारक में कारक द्वारा बड़े लोडिंग के साथ केवल कुछ वेरिएबल होते हैं। वेरिमैक्स लोडिंग आव्युह के कॉलम को सरल बनाता है। इससे प्रत्येक वेरिएबल को ही कारक से पहचानना यथासंभव सरल हो जाता है।
क्वार्टिमैक्स रोटेशन ऑर्थोगोनल रोटेशन होते है जो वेरिएबल को समझाने के लिए आवश्यक कारकों की संख्या को कम करता है। यह कॉलम के अतिरिक्त लोडिंग आव्युह की पंक्तियों को सरल बनाता है। क्वार्टिमैक्स प्रायः सामान्य कारक उत्पन्न करता है जिसमें अनेक वेरिएबल के लिए लोडिंग होती है। यह अघुलनशील समाधान के समीप होते है। यदि अनेक वेरिएबल सहसंबद्ध हैं | तब क्वार्टिमैक्स उपयोगी होते है जिससे कि प्रमुख कारक की अपेक्षा की जा सकती हैं। [25] इक्विमैक्स रोटेशन वेरिमैक्स और क्वार्टिमैक्स के मध्य समझौता होता है।
अनेक व्यावहारिक अनुप्रयोगों में, यह मान लेना अवास्तविक है कि इसमें कारक असंबंधित होते हैं। इस स्थिति में तिरछे परिवर्तन को प्राथमिकता दी जाती है। इसमें एक-दूसरे से सहसंबद्ध कारकों को अनुमति देना विशेष रूप से साइकोमेट्रिक अनुसंधान में प्रयुक्त होता है, क्योंकि दृष्टिकोण, राय और बौद्धिक क्षमताएं सहसंबद्ध होती हैं और अन्यथा इसे मान लेना अवास्तविक होता हैं। [26] जब कोई व्यक्ति स्कू (गैर-ऑर्थोगोनल) समाधान चाहता है तब ओब्लिमिन रोटेशन मानक विधि है।
प्रोमैक्स रोटेशन वैकल्पिक स्कू रोटेशन विधि होती है जो ओब्लिमिन विधि की तुलना में कम्प्यूटेशनल रूप से तीव्र होती है और इसलिए कभी-कभी बहुत बड़े डाटासमुच्चय के लिए इसका उपयोग किया जाता है।
कारक घूर्णन के साथ समस्याएँ
जब प्रत्येक वेरिएबल अनेक कारकों पर लोड हो रहा हो तब कारक संरचना की व्याख्या करना कठिन हो सकता है। डेटा में लघु परिवर्तन कभी-कभी कारक रोटेशन मानदंड में संतुलन बना सकते हैं जिससे कि पूर्ण प्रकार से भिन्न कारक रोटेशन उत्पन्न हो सकते हैं। इससे विभिन्न प्रयोगों के परिणामों की तुलना करना कठिन हो सकता है। इस समस्या को विश्वव्यापी सांस्कृतिक भिन्नताओं के विभिन्न अध्ययनों की तुलना से स्पष्ट किया गया है। प्रत्येक अध्ययन ने सांस्कृतिक वेरिएबल के विभिन्न मापों का उपयोग किया है और इसमें भिन्न-भिन्न परिवर्तित किए गए कारक विश्लेषण के परिणाम का उत्पादन किया है। प्रत्येक अध्ययन के लेखकों का मानना था कि उन्होंने कुछ नया खोजा है, और उन्होंने जो कारक पाए उनके लिए नए नाम के अविष्कार किए गए हैं। इसमें अध्ययनों की पश्चात की तुलना में पाया गया कि जब अनियंत्रित परिणामों की तुलना की गई थी तब इसमें परिणाम समान होते थे। कारक रोटेशन के सामान्य अभ्यास ने विभिन्न अध्ययनों के परिणामों के मध्य समानता को अस्पष्ट कर दिया है। [27]
उच्च क्रम कारक विश्लेषण
उच्च-क्रम कारक विश्लेषण सांख्यिकीय पद्धति है जिसमें दोहराए जाने वाले चरण कारक विश्लेषण हैं इसमें स्कू रोटेशन परिवर्तित गए कारकों का कारक विश्लेषण सम्मिलित होता है। इसकी योग्यता शोधकर्ता की अध्ययन की गई घटनाओं की पदानुक्रमित संरचना को देखने में सक्षम बनाता है। परिणामों की व्याख्या करने के लिए, कोई यह तब आव्युह गुणन द्वारा आगे बढ़ता है | प्राथमिक कारक पैटर्न आव्युह को उच्च-क्रम कारक पैटर्न आव्युह (गोर्सच, 1983) द्वारा गुणा करने और संभवतः परिणाम के लिए वेरिमैक्स रोटेशन प्रयुक्त करने (थॉम्पसन, 1990) या श्मिड-लीमन समाधान (एसएलएस, श्मिड और लीमन, 1957 हैं, जिसे श्मिड-लीमन परिवर्तन के रूप में भी जाना जाता है) इसका उपयोग करके इसको आगे बढ़ता है जो सांख्यिकीय विस्तार का गुण बताता है। यह प्राथमिक कारकों से दूसरे क्रम के कारकों तक होता हैं।
खोजपूर्ण कारक विश्लेषण (ईएफए) बनाम प्रमुख घटक विश्लेषण (पीसीए)
कारक विश्लेषण प्रमुख घटक विश्लेषण (पीसीए) से संबंधित है, किन्तु दोनों समान नहीं हैं। [28] दोनों तकनीकों के मध्य अंतर को लेकर क्षेत्र में महत्वपूर्ण विवाद रहा है। पीसीए को खोजपूर्ण कारक विश्लेषण (ईएफए) का अधिक मूलभूत संस्करण माना जा सकता है जिसे हाई-स्पीड कंप्यूटर के आगमन से पूर्व प्रारम्भिक दिनों में विकसित किया गया था। पीसीए और कारक विश्लेषण दोनों का लक्ष्य डेटा के समुच्चय की आयामीता को कम करना है, किन्तु ऐसा करने के लिए अपनाए गए दृष्टिकोण दोनों तकनीकों के लिए भिन्न-भिन्न हैं। कारक विश्लेषण स्पष्ट रूप से देखे गए वेरिएबल से कुछ अप्राप्य कारकों की पहचान करने के उद्देश्य से डिज़ाइन किया गया है, जबकि पीसीए सीधे इस उद्देश्य को संबोधित नहीं करता है | यह सर्वोत्तम रूप से, पीसीए आवश्यक कारकों का अनुमान प्रदान करता है। [29] खोजपूर्ण विश्लेषण के दृष्टिकोण से, पीसीए के आइजेनवैल्यू फुलाए गए घटक लोडिंग हैं, अथार्त इसमें, त्रुटि भिन्नता से दूषित होती हैं। [30][31][32][33][34][35]
जबकि खोजपूर्ण कारक विश्लेषण और प्रमुख घटक विश्लेषण को सांख्यिकी के कुछ क्षेत्रों में पर्यायवाची तकनीकों के रूप में माना जाता है, इसकी आलोचना की गई है। [36][37] कारक विश्लेषण अंतर्निहित कारण संरचना की धारणा से संबंधित है | यह मानता है कि देखे गए वेरिएबल में सहसंयोजन या अधिक अव्यक्त वेरिएबल (कारकों) की उपस्थिति के कारण होता है जो इन देखे गए वेरिएबल कारण पर प्रभाव डालते हैं। [38] इसके विपरीत, पीसीए ऐसे अंतर्निहित कारण संबंध को न तब मानता है और न ही उस पर निर्भर करता है। शोधकर्ताओं ने तर्क दिया है कि दो तकनीकों के मध्य अंतर का अर्थ यह हो सकता है कि विश्लेषणात्मक लक्ष्य के आधार पर इसके दूसरे पर प्राथमिकता देने के उद्देश्यपूर्ण लाभ होते हैं। यदि कारक मॉडल गलत विधियों से तैयार किया गया है या इसमें मान्यताओं को पूर्ण नहीं किया गया है, तब कारक विश्लेषण गलत परिणाम देता हैं। कारक विश्लेषण का सफलतापूर्वक उपयोग किया गया है जहां सिस्टम की पर्याप्त समझ अच्छे प्रारंभिक मॉडल फॉर्मूलेशन की अनुमति देती है। पीसीए मूल डेटा में गणितीय परिवर्तन को नियोजित करता है, जिसमें सहप्रसरण आव्युह के रूप के बारे में कोई धारणा नहीं होती है। पीसीए का उद्देश्य मूल वेरिएबल के रैखिक संयोजनों को निर्धारित करना और कुछ का चयन करना है जिनका उपयोग अधिक सूचना खोए बिना डेटा समुच्चय को सारांशित करने के लिए किया जा सकता है। [39]
पीसीए और ईएफए के विपरीत तर्क
फैब्रिगर एट अल. (1999)[36]ऐसे अनेक कारणों का पता लगाएं जिनका उपयोग यह सुझाव देने के लिए किया जाता है कि पीसीए कारक विश्लेषण के सामान्य नहीं है:
- कभी-कभी यह सुझाव दिया जाता है कि पीसीए कम्प्यूटेशनल रूप से तीव्र है और कारक विश्लेषण की तुलना में कम संसाधनों की आवश्यकता होती है। फैब्रिगर एट अल. सुझाव है कि यह सरलता से उपलब्ध कंप्यूटर संसाधनों ने इस व्यावहारिक चिंता को अप्रासंगिक बना दिया है।
- पीसीए और कारक विश्लेषण समान परिणाम उत्पन्न कर सकते हैं। इस बिंदु को फैब्रिगर एट अल द्वारा भी संबोधित किया गया है | कुछ स्तिथियों में, जहाँ सामुदायिकताएँ कम हैं (जैसे 0.4), दोनों तकनीकें भिन्न-भिन्न परिणाम उत्पन्न करती हैं। वास्तव में, फैब्रिगर एट अल का तर्क है कि ऐसे स्तिथियों में जहां डेटा सामान्य कारक मॉडल की मान्यताओं के अनुरूप है, इसमें पीसीए के परिणाम गलत परिणाम होते हैं।
- ऐसे कुछ स्तिथियां होती हैं जहां कारक विश्लेषण से 'हेवुड स्तिथियां' सामने आते हैं। इनमें वह स्थितियाँ सम्मिलित हैं जिनमें मापे गए वेरिएबल में 100% या अधिक भिन्नता का अनुमान मॉडल द्वारा लगाया जाता है। फैब्रिगर एट अल. सुझाव दें कि यह स्तिथियां वास्तव में शोधकर्ता के लिए सूचना पूर्ण हैं, जो गलत विधियों से निर्दिष्ट मॉडल या सामान्य कारक मॉडल के उल्लंघन का संकेत देते हैं। पीसीए दृष्टिकोण में हेवुड स्तिथियों की कमी का अर्थ यह हो सकता है कि इसमें ऐसे विवादों पर ध्यान नहीं दिया जाता है।
- शोधकर्ता पीसीए दृष्टिकोण से अतिरिक्त सूचना प्राप्त करते हैं, जैसे किसी निश्चित घटक पर किसी व्यक्ति का स्कोर होता हैं | ऐसी सूचना कारक विश्लेषण से नहीं मिलती है। चूंकि, फैब्रिगर एट अल के रूप में होती हैं यह तर्क दें, कारक विश्लेषण का विशिष्ट उद्देश्य - अथार्त मापे गए वेरिएबल के मध्य सहसंबंध और निर्भरता की संरचना के लिए लेखांकन कारकों को निर्धारित करना हैं | इसमें कारक स्कोर के ज्ञान की आवश्यकता नहीं होती है और इस प्रकार यह लाभ अस्वीकार कर दिया गया है। कारक विश्लेषण से कारक स्कोर की गणना करना भी संभव है।
प्रसरण बनाम सहप्रसरण
कारक विश्लेषण माप में निहित यादृच्छिक त्रुटि को ध्यान में रखता है, जबकि पीसीए ऐसा करने में विफल रहता है। इस बिंदु का उदाहरण ब्राउन (2009) द्वारा दिया गया है,[40] किसने संकेत दिया कि, गणना में सम्मिलित सहसंबंध आव्युह के संबंध में:
"पीसीए में, 1.00 को विकर्ण में रखा जाता है जिसका अर्थ है कि आव्यूह में सभी भिन्नताओं को ध्यान में रखा जाना है (प्रत्येक वेरिएबल के लिए अद्वितीय भिन्नता, वेरिएबल के मध्य समान भिन्नता, और त्रुटि भिन्नता) होती हैं। इसलिए, परिभाषा के अनुसार ऐसा होगा ,कि वह वेरिएबल में सभी भिन्नताओं को सम्मिलित करता हैं। इसके विपरीत, ईएफए में, सांप्रदायिकताओं को विकर्ण में रखा जाता है जिसका अर्थ है कि इसमें केवल अन्य वेरिएबल के साथ साझा किए गए भिन्नता को ध्यान में रखा जाना है (प्रत्येक वेरिएबल और त्रुटि भिन्नता के लिए अद्वितीय भिन्नता को छोड़कर) होता हैं। इसलिए, परिभाषा के अनुसार, केवल वही भिन्नता सम्मिलित होगी जो वेरिएबलों के मध्य सामान्य होता है।"
— ब्राउन (2009), प्रमुख घटक विश्लेषण और खोजपूर्ण कारक विश्लेषण - परिभाषाएँ, अंतर और विकल्प होते हैं
इस कारण से, ब्राउन (2009) कारक विश्लेषण का उपयोग करने की सलाह देते हैं जब वेरिएबल के मध्य संबंधों के बारे में सैद्धांतिक विचार मौजूद होते हैं, जबकि पीसीए का उपयोग किया जाना चाहिए यदि शोधकर्ता का लक्ष्य अपने डेटा में पैटर्न का पता लगाना है।
प्रक्रिया और परिणाम में अंतर
पीसीए और कारक विश्लेषण (एफए) के मध्य अंतर को सुहर (2009) द्वारा और अधिक स्पष्ट किया गया है | [37]* पीसीए के परिणामस्वरूप प्रमुख घटक बनते हैं जो प्रेक्षित वेरिएबलों के लिए अधिकतम मात्रा में विचरण का कारण बनते हैं | यह एफए डेटा में सामान्य भिन्नता का लेखांकन रखता है।
- पीसीए सहसंबंध आव्युह के विकर्णों पर सम्मिलित करता है | एफए अद्वितीय कारकों के साथ सहसंबंध आव्युह के विकर्णों को समायोजित करता है।
- पीसीए घटक अक्ष पर वर्गाकार लंबवत दूरी के योग को कम करता है | यह एफए उन कारकों का अनुमान लगाता है जो देखे गए वेरिएबल पर प्रतिक्रियाओं को प्रभावित करते हैं।
- पीसीए में घटक स्कोर आइगेनवैल्यूज़ एवं आइगेनसदिश्स द्वारा भारित देखे गए वेरिएबल के रैखिक संयोजन का प्रतिनिधित्व करते हैं | और यह एफए में देखे गए वेरिएबल अंतर्निहित और अद्वितीय कारकों के रैखिक संयोजन होते हैं।
- पीसीए में, प्राप्त घटक व्याख्या योग्य नहीं हैं, अथार्त वह अंतर्निहित 'निर्माण' का प्रतिनिधित्व नहीं करते हैं | यह एफए में, स्पष्ट मॉडल विनिर्देश दिए जाने पर, अंतर्निहित निर्माणों को लेबल किया जा सकता है और इसमें सरलता से व्याख्या की जा सकती है।
साइकोमेट्रिक्स में
इतिहास
चार्ल्स स्पीयरमैन सामान्य कारक विश्लेषण पर चर्चा करने वाले पूर्व मनोवैज्ञानिक थे [41] और आपने 1904 के पेपर में ऐसा किया था। [42] इसने उनके विधियों के बारे में कुछ विवरण प्रदान किए और एकल-कारक मॉडल से संबंधित था। [43] उन्होंने पाया कि विभिन्न प्रकार के असंबंधित विषयों पर स्कूली बच्चों के स्कोर धनात्मक रूप से सहसंबद्ध थे, जिससे उन्हें यह मानने में सहायता मिली कि सामान्य मानसिक क्षमता, या g, कारक (साइकोमेट्रिक्स), मानव संज्ञानात्मक प्रदर्शन को रेखांकित करता और इसे आकार देता है।
अनेक कारकों के साथ सामान्य कारक विश्लेषण का प्रारंभिक विकास 1930 के दशक की प्रारंभ में लुई लियोन थर्स्टन द्वारा दो पत्रों में दिया गया था, [44][45] उनकी 1935 की पुस्तक, मन के सदिश में इसका सारांश दिया गया है। [46] थर्स्टन ने सामुदायिकता, विशिष्टता और रोटेशन सहित अनेक महत्वपूर्ण कारक विश्लेषण अवधारणाएँ प्रस्तुत कीं हैं। [47] उन्होंने सरल संरचना को एडवोकेट किया हैं, और रोटेशन के विधियों का विकास किया हैं जिसका उपयोग ऐसी संरचना को प्राप्त करने के विधियों के रूप में किया जा सकता है।[41]
Q पद्धति में, स्पीयरमैन के छात्र, विलियम स्टीफेंसन (मनोवैज्ञानिक), अंतर-व्यक्तिगत मतभेदों के अध्ययन की ओर उन्मुख आर कारक विश्लेषण और व्यक्तिपरक अंतर-व्यक्तिगत मतभेदों की ओर उन्मुख Q कारक विश्लेषण के मध्य अंतर करते हैं।[48][49]
रेमंड कैटेल कारक विश्लेषण और साइकोमेट्रिक्स के प्रबल समर्थक थे और उन्होंने बुद्धि को समझाने के लिए थर्स्टन के बहु-कारक सिद्धांत का प्रयोग किया हैं। कैटेल ने स्क्री प्लॉट और समानता गुणांक भी विकसित किया हैं।
मनोविज्ञान में अनुप्रयोग
कारक विश्लेषण का उपयोग उन कारकों की पहचान करने के लिए किया जाता है जो विभिन्न परीक्षणों पर विभिन्न प्रकार के परिणामों की व्याख्या करते हैं। उदाहरण के लिए, गुप्तचर शोध में पाया गया कि जो लोग मौखिक क्षमता के परीक्षण में उच्च अंक प्राप्त करते हैं वह अन्य परीक्षणों में भी अच्छे होते हैं जिनके लिए मौखिक क्षमताओं की आवश्यकता होती है। शोधकर्ताओं ने कारक को भिन्न करने के लिए कारक विश्लेषण का उपयोग करके इसे समझाया हैं, जिसे प्रायः मौखिक बुद्धिमत्ता कहा जाता है, जो उस डिग्री का प्रतिनिधित्व करता है जिस तक कोई व्यक्ति मौखिक कौशल से जुड़ी समस्याओं का समाधान करने में सक्षम है।
मनोविज्ञान में कारक विश्लेषण प्रायः गुप्तचर अनुसंधान से जुड़ा होता है। चूंकि, इसका उपयोग व्यक्तित्व, दृष्टिकोण, विश्वास आदि जैसे डोमेन की विस्तृत श्रृंखला में कारकों को खोजने के लिए भी किया गया है। यह साइकोमेट्रिक्स से जुड़ा हुआ है, क्योंकि यह किसी उपकरण की वैधता का आकलन करके यह पता लगा सकता है कि क्या उपकरण वास्तव में अनुमानित कारकों को मापता है।
- दो या दो से अधिक वेरिएबलों को ही कारक में संयोजित करके वेरिएबलों की संख्या में कमी करना होता हैं। उदाहरण के लिए, दौड़ने, गेंद फेंकने, बल्लेबाजी, कूदने और वजन उठाने में प्रदर्शन को सामान्य एथलेटिक क्षमता जैसे कारक में जोड़ा जा सकता है। सामान्यतः, किसी आइटम द्वारा लोगों के आव्युह में, संबंधित आइटमों को समूहीकृत करके कारकों का चयन किया जाता है। क्यू कारक विश्लेषण तकनीक में, आव्युह को स्थानांतरित किया जाता है और यह संबंधित लोगों को समूहीकृत करके कारक बनाए जाते हैं। उदाहरण के लिए, यह उदारवादी, स्वतंत्रतावादी, रूढ़िवादी और समाजवादी भिन्न-भिन्न समूहों में बन सकते हैं।
- अंतर-संबंधित वेरिएबलों के समूहों की पहचान करना होता हैं,इसमें यह देखना होता हैं कि वह एक-दूसरे से कैसे संबंधित हैं। उदाहरण के लिए, कैरोल ने अपने थ्री स्ट्रेटम थ्योरी के निर्माण के लिए कारक विश्लेषण का उपयोग किया हैं। इसमें उन्होंने पाया कि व्यापक दृश्य धारणा नामक कारक इस बात से संबंधित है कि कोई व्यक्ति दृश्य कार्यों में कितना अच्छा होता है। उन्होंने श्रवण कार्य क्षमता से संबंधित व्यापक श्रवण धारणा कारक भी पाया जाता हैं। इसके अतिरिक्त, उन्होंने वैश्विक कारक भी पाया हैं, जिसे "g" या सामान्य बुद्धि कहा जाता है, जो व्यापक दृश्य धारणा और व्यापक श्रवण धारणा दोनों से संबंधित होता है। इसका अर्थ यह है कि उच्च "g" वाले व्यक्ति में उच्च दृश्य धारणा क्षमता और उच्च श्रवण धारणा क्षमता दोनों होने की संभावना होती है, और यह "g" इस बात का अच्छा भाग बताता है कि कोई व्यक्ति उन दोनों डोमेन में अच्छा या बुरा क्यों होता है।
हानि
- "...प्रत्येक अभिविन्यास गणितीय रूप से समान रूप से स्वीकार्य है। किन्तु भिन्न-भिन्न कारकों सिद्धांत किसी दिए गए समाधान के लिए कारकों अक्षों के झुकाव के संदर्भ में उतने ही भिन्न प्रमाणित हुए हैं | जितने कि किसी अन्य वस्तु के संदर्भ में होते हैं, इसलिए मॉडल फिटिंग सिद्धांतों के मध्य अंतर करने में उपयोगी प्रमाणित नहीं हुई हैं। (स्टर्नबर्ग, 1977[50]). इसका अर्थ है कि सभी परिवर्तन भिन्न-भिन्न अंतर्निहित प्रक्रियाओं का प्रतिनिधित्व करते हैं, किन्तु सभी परिवर्तन मानक कारक विश्लेषण अनुकूलन के समान रूप से मान्य परिणाम हैं। इसलिए, अकेले कारक विश्लेषण का उपयोग करके उचित रोटेशन चुनना असंभव होता है।
- कारक विश्लेषण केवल उतना ही अच्छा हो सकता है जितना डेटा अनुमति देता है। मनोविज्ञान में, जहां शोधकर्ताओं को प्रायः स्व-रिपोर्ट जैसे कम वैध और विश्वसनीय उपायों पर निर्भर रहना पड़ता है, यह समस्याग्रस्त हो सकता है।
- कारक विश्लेषण की व्याख्या अनुमान का उपयोग करने पर आधारित है, यह ऐसा समाधान है जो सुविधाजनक है यदि यह पूर्ण प्रकार सत्य नही होता हैं। [51] इस प्रकार से ही तथ्यांकित किए गए डेटा की अधिक से अधिक व्याख्याएं की जा सकती हैं, और इसमें कारक विश्लेषण कार्य-कारण की पहचान नहीं कर सकता है।
पार-सांस्कृतिक अनुसंधान में
अंतर-सांस्कृतिक अनुसंधान में कारक विश्लेषण प्रायः उपयोग की जाने वाली तकनीक है। यह हॉफस्टेड के सांस्कृतिक आयाम सिद्धांत को निकालने के उद्देश्य को पूर्ण करता है। सबसे प्रसिद्ध सांस्कृतिक आयाम मॉडल गीर्ट हॉफस्टेड, रोनाल्ड इंगलहार्ट, क्रिश्चियन वेलज़ेल, शालोम एच. श्वार्ट्ज और माइकल मिनकोव द्वारा विस्तृत हैं। लोकप्रिय दृश्य विश्व का इंगलहार्ट-वेल्ज़ेल सांस्कृतिक मानचित्र है | जिनको इंगलहार्ट और वेल्ज़ेल का विश्व का सांस्कृतिक मानचित्र माना जाता हैं। [27]
राजनीति विज्ञान में
1965 के प्रारम्भिक अध्ययन में, संबंधित सैद्धांतिक मॉडल और अनुसंधान के निर्माण, राजनीतिक प्रणालियों की तुलना करने और टाइपोलॉजिकल श्रेणियां बनाने के लिए कारक विश्लेषण के माध्यम से विश्व भर की राजनीतिक प्रणालियों की जांच की जाती है। [52] इन उद्देश्यों के लिए, इस अध्ययन में सात मूलभूत राजनीतिक आयामों की पहचान की गई है, जो विभिन्न प्रकार के राजनीतिक व्यवहार से संबंधित होती हैं | यह आयाम पहुंच, भेदभाव, सामान्य सहमति, अनुभागवाद, वैधीकरण, रुचि और नेतृत्व सिद्धांत और अनुसंधान हैं।
अन्य राजनीतिक वैज्ञानिक 1988 के राष्ट्रीय चुनाव अध्ययन में जोड़े गए चार नए प्रश्नों का उपयोग करके आंतरिक राजनीतिक प्रभावकारिता के माप का पता लगाते हैं। यहां कारक विश्लेषण का उपयोग यह पता लगाने के लिए किया जाता है कि यह आइटम बाहरी प्रभावकारिता और राजनीतिक विश्वास से भिन्न एकल अवधारणा को मापते हैं, और यह चार प्रश्न उस समय तक आंतरिक राजनीतिक प्रभावकारिता का सबसे अच्छा उपाय प्रदान करते हैं। [53] संयुक्त राज्य अमेरिका के राष्ट्रपति पद की वाद-विवाद, रैलियों और हिलेरी क्लिंटन ईमेल विवाद जैसे महत्वपूर्ण अभियान कार्यक्रमों के प्रभाव का अध्ययन करने के लिए| हिलेरी क्लिंटन के ईमेल विवाद, कारक विश्लेषण का उपयोग 2016 में डोनाल्ड ट्रम्प और 2012 में ओबामा जैसे अमेरिकी राष्ट्रपति पद के प्रत्याशियों के लिए लोकप्रियता के उपाय बनाने के लिए किया जाता है। लोकप्रियता कारकों को ट्विटर, फेसबुक, यूट्यूब, इंस्टाग्राम, फाइवथर्टीएट और पूर्वानुमान मार्केटों से एकत्र किए गए डेटा से संश्लेषित किया जाता है। [54]
विपणन में
मूलभूत कदम हैं |
- इस श्रेणी में उत्पाद (व्यवसाय) का मानांकन करने के लिए उपभोक्ताओं द्वारा उपयोग की जाने वाली मुख्य विशेषताओं की पहचान करते हैं।
- सभी उत्पाद विशेषताओं की रेटिंग के संबंध में संभावित ग्राहक के प्रतिरूप से डेटा एकत्र करने के लिए मात्रात्मक विपणन अनुसंधान तकनीकों (जैसे सांख्यिकीय सर्वेक्षण) का उपयोग करें।
- डेटा को सांख्यिकीय कार्यक्रम में इनपुट करें और कारक विश्लेषण प्रक्रिया चलाएँ। जिसमे कंप्यूटर अंतर्निहित विशेषताओं (या कारकों) का समुच्चय उत्पन्न करेगा।
- अवधारणात्मक मानचित्रण और अन्य पोजिशनिंग (विपणन) उपकरणों के निर्माण के लिए इन कारकों का उपयोग करें।
सूचना संग्रह
डेटा संग्रह चरण सामान्यतः विपणन अनुसंधान कुशल द्वारा किया जाता है। सर्वेक्षण प्रश्न उत्तरदाता से किसी उत्पाद के प्रतिरूप या उत्पाद अवधारणाओं के विवरण को विभिन्न विशेषताओं के आधार पर रेटिंग देने के लिए कहते हैं। कहीं भी पाँच से बीस विशेषताएँ चुनी जाती हैं। उनमें यह चीजें सम्मिलित हो सकती हैं | इसके उपयोग में सरली, वजन, स्पष्टता, स्थायित्व, रंगीनता, कीमत या आकार हैं। चुनी गई विशेषताएँ अध्ययन किए जा रहे उत्पाद के आधार पर भिन्न-भिन्न होती हैं। अध्ययन में सभी उत्पादों के बारे में ही प्रश्न पूछा गया है। अनेक उत्पादों के डेटा को कोडित किया जाता है और आर (प्रोग्रामिंग भाषा), एसपीएसएस, एसएएस प्रणाली, स्टेटा, आंकड़े, जेएमपी और सिस्टैट जैसे सांख्यिकीय कार्यक्रम में इनपुट किया जाता है।
विश्लेषण
विश्लेषण उन अंतर्निहित कारकों को भिन्न करेगा जो एसोसिएशन के आव्युह का उपयोग करके डेटा की व्याख्या करते हैं।[55] कारक विश्लेषण अन्योन्याश्रय तकनीक होते है। इसमें अन्योन्याश्रित संबंधों के संपूर्ण समुच्चय की जांच की जाती है। और आश्रित वेरिएबल , स्वतंत्र वेरिएबल , या कार्य-कारण का कोई विनिर्देश नहीं होता है। कारक विश्लेषण मानता है कि विभिन्न विशेषताओं पर सभी रेटिंग डेटा को कुछ महत्वपूर्ण आयामों तक कम किया जा सकता है। यह इसलिए संभव है क्योंकि कुछ विशेषताएँ एक-दूसरे से संबंधित हो सकती हैं। किसी विशेषता को दी गई रेटिंग आंशिक रूप से अन्य विशेषताओं के प्रभाव का परिणाम होती है। सांख्यिकीय एल्गोरिदम रेटिंग को उसके विभिन्न घटकों में विभाजित करता है (जिसे रॉ स्कोर कहा जाता है) और आंशिक स्कोर को अंतर्निहित कारक स्कोर में पुनर्निर्मित करता है। प्रारंभिक रॉ स्कोर और अंतिम कारक स्कोर के मध्य सहसंबंध की डिग्री को कारक लोडिंग कहा जाता है।
लाभ
- वस्तुनिष्ठ और व्यक्तिपरक दोनों विशेषताओं का उपयोग किया जा सकता है, किंतु व्यक्तिपरक विशेषताओं को अंकों में परिवर्तित किया जा सकता हैं।
- कारक विश्लेषण अव्यक्त आयामों या निर्माणों की पहचान कर सकता है जो प्रत्यक्ष विश्लेषण नहीं कर सकता है।
- यह सरल और अल्पमूल्य होता है |
हानि
- उपयोगिता उत्पाद विशेषताओं का पर्याप्त समुच्चय एकत्र करने की शोधकर्ताओं की क्षमता पर निर्भर करती है। यदि महत्वपूर्ण विशेषताओं को बाहर रखा जाता है या उपेक्षित किया जाता है,तब प्रक्रिया का मान कम हो जाता है।
- यदि देखे गए वेरिएबल के समुच्चय एक-दूसरे के समान हैं और अन्य वस्तुओं से भिन्न हैं,तब कारक विश्लेषण उन्हें ही कारक प्रदान करता हैं। यह उन कारकों को अस्पष्ट कर सकता है जो अधिक आकर्षक सम्बन्ध का प्रतिनिधित्व करते हैं।
- नामकरण कारकों के लिए सिद्धांत के ज्ञान की आवश्यकता हो सकती है क्योंकि इससे प्रतीत होता है कि भिन्न गुण अज्ञात कारणों से दृढ़ता से सहसंबद्ध हो सकते हैं।
भौतिक और जैविक विज्ञान में
भू-रसायन विज्ञान, जल रसायन विज्ञान जैसे भौतिक विज्ञानों में भी कारक विश्लेषण का व्यापक रूप से उपयोग किया गया है। [56] खगोल भौतिकी और यूनिवर्स विज्ञान, साथ ही जैविक विज्ञान, जैसे पारिस्थितिकी, आणविक जीव विज्ञान, तंत्रिका विज्ञान और जैव रसायन होते हैं।
भूमिगत जल गुणवत्ता प्रबंधन में, विभिन्न रसायनों के स्थानिक वितरण को जोड़ना महत्वपूर्ण होता है | इसमें विभिन्न संभावित स्रोतों के मापदंड होते हैं, जिनके भिन्न-भिन्न रासायनिक हस्ताक्षर हैं। इस प्रकार उदाहरण के लिए, इसमें सल्फाइड खदान उच्च स्तर की अम्लता, घुले हुए सल्फेट्स और संक्रमण धातुओं से जुड़ी होने की संभावना है। इन हस्ताक्षरों को आर-मोड कारक विश्लेषण के माध्यम से कारकों के रूप में पहचाना जा सकता है, और कारक स्कोर को समोच्च करके संभावित स्रोतों के स्थान सुझाया जा सकता है। [57] भू-रसायन विज्ञान में, विभिन्न कारक विभिन्न खनिज संघों और इस प्रकार खनिजकरण के अनुरूप हो सकते हैं। [58]
माइक्रोएरे विश्लेषण में
एफिमेट्रिक्स जीनचिप के लिए जांच स्तर पर उच्च-घनत्व ऑलिगोन्यूक्लियोटाइड डीएनए माइक्रोएरे डेटा को सारांशित करने के लिए इसमें कारक विश्लेषण का उपयोग किया जा सकता है। इस स्तिथियों में, अव्यक्त वेरिएबल प्रतिरूप में आरएनए एकाग्रता से मेल खाता है। [59]
कार्यान्वयन
1980 के दशक से अनेक सांख्यिकीय विश्लेषण कार्यक्रमों में कारक विश्लेषण प्रयुक्त किया गया है |
- बीएमडीपी
- जेएमपी (सांख्यिकीय सॉफ्टवेयर)
- एमप्लस (सांख्यिकीय सॉफ्टवेयर)]
- पायथन (प्रोग्रामिंग भाषा): मॉड्यूल स्किकिट-लर्न [60]
- आर (प्रोग्रामिंग भाषा) (पैकेज 'साइक' में बेस फलन फैक्टनल या एफए फलन के साथ) होता हैं। जीपीएरोटेशन R पैकेज में रोटेशन प्रयुक्त किए जाते हैं।
- एसएएस (सॉफ्टवेयर) (प्रोक कारक या प्रोक कैलिस का उपयोग करके)
- एसपीएसएस[61]
- स्टाटा
स्टैंडअलोन
- कारक [1] - रोविरा और वर्जिली विश्वविद्यालय द्वारा विकसित मुफ्त कारक विश्लेषण सॉफ्टवेयर होता हैं |
यह भी देखें
- पुष्टि कारक विश्लेषण
- खोजपूर्ण कारक विश्लेषण
- प्रयोगों की रूप रेखा
- औपचारिक अवधारणा विश्लेषण
- स्वतंत्र घटक विश्लेषण
- गैर-नकारात्मक मैट्रिक्स गुणनखंडन
- क्यू पद्धति
- सिफ़ारिश प्रणाली
- मूल कारण विश्लेषण
- फेसेट सिद्धांत
टिप्पणियाँ
संदर्भ
- ↑ Jöreskog, Karl G. (1983). "Factor Analysis as an Errors-in-Variables Model". आधुनिक मनोवैज्ञानिक मापन के सिद्धांत. Hillsdale: Erlbaum. pp. 185–196. ISBN 0-89859-277-1.
- ↑ Bandalos, Deborah L. (2017). सामाजिक विज्ञान के लिए मापन सिद्धांत और अनुप्रयोग. The Guilford Press.
- ↑ 3.0 3.1 3.2 Harman, Harry H. (1976). आधुनिक कारक विश्लेषण. University of Chicago Press. pp. 175, 176. ISBN 978-0-226-31652-9.
- ↑ 4.0 4.1 4.2 4.3 4.4 4.5 4.6 4.7 4.8 Polit DF Beck CT (2012). Nursing Research: Generating and Assessing Evidence for Nursing Practice, 9th ed. Philadelphia, USA: Wolters Klower Health, Lippincott Williams & Wilkins.
- ↑ Meng, J. (2011). "एक गैर-नकारात्मक हाइब्रिड कारक मॉडल का उपयोग करके ग्लियोब्लास्टोमा में माइक्रोआरएनए और प्रतिलेखन कारकों द्वारा सहकारी जीन नियमों को उजागर करें". International Conference on Acoustics, Speech and Signal Processing. Archived from the original on 2011-11-23.
- ↑ Liou, C.-Y.; Musicus, B.R. (2008). "Cross Entropy Approximation of Structured Gaussian Covariance Matrices" (PDF). IEEE Transactions on Signal Processing. 56 (7): 3362–3367. Bibcode:2008ITSP...56.3362L. doi:10.1109/TSP.2008.917878. S2CID 15255630.
- ↑ 7.0 7.1 7.2 Zwick, William R.; Velicer, Wayne F. (1986). "बनाए रखने के लिए घटकों की संख्या निर्धारित करने के लिए पांच नियमों की तुलना।". Psychological Bulletin. 99 (3): 432–442. doi:10.1037/0033-2909.99.3.432.
- ↑ Horn, John L. (June 1965). "कारक विश्लेषण में कारकों की संख्या के लिए एक तर्क और परीक्षण". Psychometrika. 30 (2): 179–185. doi:10.1007/BF02289447. PMID 14306381. S2CID 19663974.
- ↑ Dobriban, Edgar (2017-10-02). "कारक विश्लेषण और पीसीए के लिए क्रमपरिवर्तन विधियाँ" (in English). arXiv:1710.00479v2 [math.ST].
- ↑ * Ledesma, R.D.; Valero-Mora, P. (2007). "Determining the Number of Factors to Retain in EFA: An easy-to-use computer program for carrying out Parallel Analysis". Practical Assessment Research & Evaluation. 12 (2): 1–11.
- ↑ Tran, U. S., & Formann, A. K. (2009). Performance of parallel analysis in retrieving unidimensionality in the presence of binary data. Educational and Psychological Measurement, 69, 50-61.
- ↑ 12.0 12.1 Velicer, W.F. (1976). "आंशिक सहसंबंधों के मैट्रिक्स से घटकों की संख्या निर्धारित करना". Psychometrika. 41 (3): 321–327. doi:10.1007/bf02293557. S2CID 122907389.
- ↑ 13.0 13.1 Courtney, M. G. R. (2013). Determining the number of factors to retain in EFA: Using the SPSS R-Menu v2.0 to make more judicious estimations. Practical Assessment, Research and Evaluation, 18(8). Available online: http://pareonline.net/getvn.asp?v=18&n=8
- ↑ 14.0 14.1 Warne, R. T.; Larsen, R. (2014). "खोजपूर्ण कारक विश्लेषण में कारकों की संख्या निर्धारित करने के लिए गुटमैन नियम के प्रस्तावित संशोधन का मूल्यांकन करना". Psychological Test and Assessment Modeling. 56: 104–123.
- ↑ Ruscio, John; Roche, B. (2012). "ज्ञात तथ्यात्मक संरचना के तुलनात्मक डेटा का उपयोग करके खोजपूर्ण कारक विश्लेषण में बनाए रखने के लिए कारकों की संख्या निर्धारित करना". Psychological Assessment. 24 (2): 282–292. doi:10.1037/a0025697. PMID 21966933.
- ↑ Garrido, L. E., & Abad, F. J., & Ponsoda, V. (2012). A new look at Horn's parallel analysis with ordinal variables. Psychological Methods. Advance online publication. doi:10.1037/a0030005
- ↑ Revelle, William (2007). "Determining the number of factors: the example of the NEO-PI-R" (PDF).
{{cite journal}}
: Cite journal requires|journal=
(help) - ↑ Revelle, William (8 January 2020). "psych: Procedures for Psychological, Psychometric, and PersonalityResearch".
- ↑ Kaiser, Henry F. (April 1960). "कारक विश्लेषण के लिए इलेक्ट्रॉनिक कंप्यूटर का अनुप्रयोग". Educational and Psychological Measurement. 20 (1): 141–151. doi:10.1177/001316446002000116. S2CID 146138712.
- ↑ Bandalos, D.L.; Boehm-Kaufman, M.R. (2008). "Four common misconceptions in exploratory factor analysis". In Lance, Charles E.; Vandenberg, Robert J. (eds.). Statistical and Methodological Myths and Urban Legends: Doctrine, Verity and Fable in the Organizational and Social Sciences. Taylor & Francis. pp. 61–87. ISBN 978-0-8058-6237-9.
- ↑ Larsen, R.; Warne, R. T. (2010). "खोजपूर्ण कारक विश्लेषण में eigenvalues के लिए आत्मविश्वास अंतराल का अनुमान लगाना". Behavior Research Methods. 42 (3): 871–876. doi:10.3758/BRM.42.3.871. PMID 20805609.
{{cite journal}}
: zero width space character in|title=
at position 40 (help) - ↑ Cattell, Raymond (1966). "गुणनखंडों की संख्या के लिए रोड़ी परीक्षण". Multivariate Behavioral Research. 1 (2): 245–76. doi:10.1207/s15327906mbr0102_10. PMID 26828106.
- ↑ Alpaydin (2020). मशीन लर्निंग का परिचय (5th ed.). pp. 528–9.
- ↑ "कारक रोटेशन के तरीके". Stack Exchange. Retrieved 7 November 2022.
- ↑ Neuhaus, Jack O; Wrigley, C. (1954). "क्वार्टिमैक्स विधि". British Journal of Statistical Psychology. 7 (2): 81–91. doi:10.1111/j.2044-8317.1954.tb00147.x.
- ↑ Russell, D.W. (December 2002). "In search of underlying dimensions: The use (and abuse) of factor analysis in Personality and Social Psychology Bulletin". Personality and Social Psychology Bulletin. 28 (12): 1629–46. doi:10.1177/014616702237645. S2CID 143687603.
- ↑ 27.0 27.1 Fog, A (2022). "Two-Dimensional Models of Cultural Differences: Statistical and Theoretical Analysis" (PDF). Cross-Cultural Research. 57 (2–3): 115–165. doi:10.1177/10693971221135703. S2CID 253153619.
- ↑ Bartholomew, D.J.; Steele, F.; Galbraith, J.; Moustaki, I. (2008). बहुभिन्नरूपी सामाजिक विज्ञान डेटा का विश्लेषण. Statistics in the Social and Behavioral Sciences Series (2nd ed.). Taylor & Francis. ISBN 978-1584889601.
- ↑ Jolliffe I.T. Principal Component Analysis, Series: Springer Series in Statistics, 2nd ed., Springer, NY, 2002, XXIX, 487 p. 28 illus. ISBN 978-0-387-95442-4
- ↑ Cattell, R. B. (1952). Factor analysis. New York: Harper.
- ↑ Fruchter, B. (1954). Introduction to Factor Analysis. Van Nostrand.
- ↑ Cattell, R. B. (1978). Use of Factor Analysis in Behavioral and Life Sciences. New York: Plenum.
- ↑ Child, D. (2006). The Essentials of Factor Analysis, 3rd edition. Bloomsbury Academic Press.
- ↑ Gorsuch, R. L. (1983). Factor Analysis, 2nd edition. Hillsdale, NJ: Erlbaum.
- ↑ McDonald, R. P. (1985). Factor Analysis and Related Methods. Hillsdale, NJ: Erlbaum.
- ↑ 36.0 36.1 Fabrigar; et al. (1999). "मनोवैज्ञानिक अनुसंधान में खोजपूर्ण कारक विश्लेषण के उपयोग का मूल्यांकन करना।" (PDF). Psychological Methods.
- ↑ 37.0 37.1 Suhr, Diane (2009). "प्रमुख घटक विश्लेषण बनाम खोजपूर्ण कारक विश्लेषण" (PDF). SUGI 30 Proceedings. Retrieved 5 April 2012.
- ↑ SAS Statistics. "प्रमुख घटक विश्लेषण" (PDF). SAS Support Textbook.
- ↑ Meglen, R.R. (1991). "Examining Large Databases: A Chemometric Approach Using Principal Component Analysis". Journal of Chemometrics. 5 (3): 163–179. doi:10.1002/cem.1180050305. S2CID 120886184.
- ↑ Brown, J. D. (January 2009). "Principal components analysis and exploratory factor analysis – Definitions, differences and choices" (PDF). Shiken: JALT Testing & Evaluation SIG Newsletter. Retrieved 16 April 2012.
- ↑ 41.0 41.1 Mulaik, Stanley A (2010). कारक विश्लेषण की नींव. दूसरा संस्करण. Boca Raton, Florida: CRC Press. p. 6. ISBN 978-1-4200-9961-4.
- ↑ Spearman, Charles (1904). "सामान्य बुद्धि वस्तुनिष्ठ रूप से निर्धारित और मापी जाती है". American Journal of Psychology. 15 (2): 201–293. doi:10.2307/1412107. JSTOR 1412107.
- ↑ Bartholomew, D. J. (1995). "स्पीयरमैन और कारक विश्लेषण की उत्पत्ति और विकास". British Journal of Mathematical and Statistical Psychology. 48 (2): 211–220. doi:10.1111/j.2044-8317.1995.tb01060.x.
- ↑ Thurstone, Louis (1931). "एकाधिक कारक विश्लेषण". Psychological Review. 38 (5): 406–427. doi:10.1037/h0069792.
- ↑ Thurstone, Louis (1934). "मन के सदिश". The Psychological Review. 41: 1–32. doi:10.1037/h0075959.
- ↑ Thurstone, L. L. (1935). मन के सदिश. प्राथमिक लक्षणों के अलगाव के लिए बहु-कारक विश्लेषण।. Chicago, Illinois: University of Chicago Press.
- ↑ Bock, Robert (2007). "Rethinking Thurstone". In Cudeck, Robert; MacCallum, Robert C. (eds.). 100 पर कारक विश्लेषण. Mahwah, New Jersey: Lawrence Erlbaum Associates. p. 37. ISBN 978-0-8058-6212-6.
- ↑ Mckeown, Bruce (2013-06-21). क्यू पद्धति. ISBN 9781452242194. OCLC 841672556.
- ↑ Stephenson, W. (August 1935). "कारक विश्लेषण की तकनीक". Nature. 136 (3434): 297. Bibcode:1935Natur.136..297S. doi:10.1038/136297b0. ISSN 0028-0836. S2CID 26952603.
- ↑ Sternberg, R. J. (1977). Metaphors of Mind: Conceptions of the Nature of Intelligence. New York: Cambridge University Press. pp. 85–111.[verification needed]
- ↑ "कारक विश्लेषण". Archived from the original on August 18, 2004. Retrieved July 22, 2004.
- ↑ Gregg, Phillip M.; Banks, Arthur S. (1965). "Dimensions of political systems: Factor analysis of a cross-polity survey". American Political Science Review (in English). 59 (3): 602–614. doi:10.2307/1953171.
- ↑ Niemi, Richard G.; Craig, Stephen C.; Mattei, Franco (December 1991). "Measuring Internal Political Efficacy in the 1988 National Election Study". American Political Science Review (in English). 85 (4): 1407–1413. doi:10.2307/1963953. ISSN 0003-0554.
- ↑ Franch, Fabio (May 2021). "Political preferences nowcasting with factor analysis and internet data: The 2012 and 2016 US presidential elections". Technological Forecasting and Social Change (in English). 166: 120667. doi:10.1016/j.techfore.2021.120667. ISSN 0040-1625.
- ↑ Ritter, N. (2012). A comparison of distribution-free and non-distribution free methods in factor analysis. Paper presented at Southwestern Educational Research Association (SERA) Conference 2012, New Orleans, LA (ED529153).
- ↑ Subbarao, C.; Subbarao, N.V.; Chandu, S.N. (December 1996). "कारक विश्लेषण का उपयोग करके भूजल संदूषण का लक्षण वर्णन". Environmental Geology. 28 (4): 175–180. Bibcode:1996EnGeo..28..175S. doi:10.1007/s002540050091. S2CID 129655232.
- ↑ Love, D.; Hallbauer, D.K.; Amos, A.; Hranova, R.K. (2004). "Factor analysis as a tool in groundwater quality management: two southern African case studies". Physics and Chemistry of the Earth. 29 (15–18): 1135–43. Bibcode:2004PCE....29.1135L. doi:10.1016/j.pce.2004.09.027.
- ↑ Barton, E.S.; Hallbauer, D.K. (1996). "Trace-element and U—Pb isotope compositions of pyrite types in the Proterozoic Black Reef, Transvaal Sequence, South Africa: Implications on genesis and age". Chemical Geology. 133 (1–4): 173–199. doi:10.1016/S0009-2541(96)00075-7.
- ↑ Hochreiter, Sepp; Clevert, Djork-Arné; Obermayer, Klaus (2006). "एफिमेट्रिक्स जांच स्तर डेटा के लिए एक नई सारांशीकरण विधि". Bioinformatics. 22 (8): 943–9. doi:10.1093/bioinformatics/btl033. PMID 16473874.
- ↑ "sklearn.decomposition.FactorAnalysis — scikit-learn 0.23.2 documentation". scikit-learn.org.
- ↑ MacCallum, Robert (June 1983). "A comparison of factor analysis programs in SPSS, BMDP, and SAS". Psychometrika. 48 (2): 223–231. doi:10.1007/BF02294017. S2CID 120770421.
अग्रिम पठन
- Child, Dennis (2006), The Essentials of Factor Analysis (3rd ed.), Continuum International, ISBN 978-0-8264-8000-2.
- Fabrigar, L.R.; Wegener, D.T.; MacCallum, R.C.; Strahan, E.J. (September 1999). "Evaluating the use of exploratory factor analysis in psychological research". Psychological Methods. 4 (3): 272–299. doi:10.1037/1082-989X.4.3.272.
- B.T. Gray (1997) Higher-Order Factor Analysis (Conference paper)
- Jennrich, Robert I., "Rotation to Simple Loadings Using Component Loss Function: The Oblique Case," Psychometrika, Vol. 71, No. 1, pp. 173–191, March 2006.
- Katz, Jeffrey Owen, and Rohlf, F. James. Primary product functionplane: An oblique rotation to simple structure. Multivariate Behavioral Research, April 1975, Vol. 10, pp. 219–232.
- Katz, Jeffrey Owen, and Rohlf, F. James. Functionplane: A new approach to simple structure rotation. Psychometrika, March 1974, Vol. 39, No. 1, pp. 37–51.
- Katz, Jeffrey Owen, and Rohlf, F. James. Function-point cluster analysis. Systematic Zoology, September 1973, Vol. 22, No. 3, pp. 295–301.
- Mulaik, S. A. (2010), Foundations of Factor Analysis, Chapman & Hall.
- Preacher, K.J.; MacCallum, R.C. (2003). "Repairing Tom Swift's Electric Factor Analysis Machine" (PDF). Understanding Statistics. 2 (1): 13–43. doi:10.1207/S15328031US0201_02. hdl:1808/1492.
- J.Schmid and J. M. Leiman (1957). The development of hierarchical factor solutions. Psychometrika, 22(1), 53–61.
- Thompson, B. (2004), Exploratory and Confirmatory Factor Analysis: Understanding concepts and applications, Washington DC: American Psychological Association, ISBN 978-1591470939.
- Hans-Georg Wolff, Katja Preising (2005)Exploring item and higher order factor structure with the schmid-leiman solution : Syntax codes for एसपीएसएस and SASBehavior research methods, instruments & computers, 37 (1), 48-58
बाहरी संबंध
- A Beginner's Guide to Factor Analysis
- Exploratory Factor Analysis. A Book Manuscript by Tucker, L. & MacCallum R. (1993). Retrieved June 8, 2006, from: [2] Archived 2013-05-23 at the Wayback Machine
- Garson, G. David, "Factor Analysis," from Statnotes: Topics in Multivariate Analysis. Retrieved on April 13, 2009 from StatNotes: Topics in Multivariate Analysis, from G. David Garson at North Carolina State University, Public Administration Program
- Factor Analysis at 100 — conference material
- FARMS — Factor Analysis for Robust Microarray Summarization, an R package