फिशर संसूचना: Difference between revisions
No edit summary |
No edit summary |
||
Line 1: | Line 1: | ||
{{Short description|Notion in statistics}} | {{Short description|Notion in statistics}} | ||
गणितीय आँकड़ों में, फ़िशर | गणितीय आँकड़ों में, '''फ़िशर जानकारी''' (कभी-कभी केवल सूचना कहलाती है<ref>Lehmann & Casella, p. 115</ref>) [[जानकारी]] की मात्रा को मापने का प्रकार है जो प्रेक्षण योग्य यादृच्छिक चर X वितरण के अज्ञात पैरामीटर θ के मॉडल X के विषय में होता है। औपचारिक रूप से, यह [[स्कोर (सांख्यिकी)|स्कोर]] की भिन्नता है, या देखी गई जानकारी का [[अपेक्षित मूल्य]] होता है। | ||
सांख्यिकीविद् [[रोनाल्ड फिशर]] ([[फ्रांसिस यसिड्रो एडगेवर्थ]] द्वारा कुछ प्रारंभिक परिणामों के | सांख्यिकीविद् [[रोनाल्ड फिशर]] ([[फ्रांसिस यसिड्रो एडगेवर्थ]] द्वारा कुछ प्रारंभिक परिणामों के पश्चात) द्वारा [[अधिकतम-संभावना अनुमान]] के स्पर्शोन्मुख सिद्धांत में '''फिशर जानकारी''' की भूमिका पर जोर दिया गया था। फिशर जानकारी आव्यूह का उपयोग अधिकतम-संभावना अनुमानों से जुड़े [[सहप्रसरण मैट्रिक्स|सहप्रसरण]] आव्यूह की गणना करने के लिए किया जाता है। इसका उपयोग परीक्षण आँकड़ों के निर्माण में जैसे [[वाल्ड परीक्षण]] किया जा सकता है। | ||
[[बायेसियन सांख्यिकी]] में, फिशर की जानकारी | [[बायेसियन सांख्यिकी]] में, फिशर की जानकारी जेफ़रीज़ के नियम के अनुसार गैर-सूचनात्मक [[पूर्व वितरण|पूर्व वितरणों]] की व्युत्पत्ति में भूमिका निभाती है।<ref>{{cite book |first=Christian |last=Robert |title=द बायेसियन चॉइस|location= |publisher=Springer |edition=2nd |year=2007 |isbn=978-0-387-71598-8 |chapter=Noninformative prior distributions |pages=127–141 }}</ref> यह [[पश्च वितरण]] के बड़े-प्रारूप सहप्रसरण के रूप में भी प्रकट होता है, नियम यह है कि पूर्व पर्याप्त रूप से सुचारू हो (परिणाम जिसे बर्नस्टीन-वॉन मिज़ प्रमेय के रूप में जाना जाता है, जिसे [[घातीय परिवार|घातीय परिवारों]] के लिए [[लाप्लास]] द्वारा प्रत्याशित किया गया था)।<ref>{{cite book |first=Lucien |last=Le Cam |authorlink=Lucien Le Cam |year=1986 |title=सांख्यिकीय निर्णय सिद्धांत में स्पर्शोन्मुख तरीके|location=New York |publisher=Springer |pages=618–621 |isbn=0-387-96307-3 }}</ref> लाप्लास के सन्निकटन के साथ पोस्टीरियर का अनुमान लगाते समय उसी परिणाम का उपयोग किया जाता है, जहां फिशर की जानकारी फिटेड गॉसियन के सहप्रसरण के रूप में दिखाई देती है।<ref>{{cite book |first1=Robert E. |last1=Kass |first2=Luke |last2=Tierney |first3=Joseph B. |last3=Kadane |chapter=The Validity of Posterior Expansions Based on Laplace's Method |pages=473–488 |editor-first=S. |editor-last=Geisser |editor2-first=J. S. |editor2-last=Hodges |editor3-first=S. J. |editor3-last=Press |editor4-first=A. |editor4-last=Zellner |title=सांख्यिकी और अर्थमिति में बायेसियन और संभावना के तरीके|location= |publisher=Elsevier |year=1990 |isbn=0-444-88376-2 }}</ref> | ||
वैज्ञानिक प्रकृति (भौतिक, जैविक, आदि) की सांख्यिकीय प्रणालियाँ जिनके संभावित कार्य [[शिफ्ट-इनवेरिएंट सिस्टम|शिफ्ट-इनवेरिएंट]] का पालन करते हैं, उन्हें अधिकतम '''फिशर जानकारी''' का पालन करने के लिए दिखाया गया है।<ref>Frieden & Gatenby (2013)</ref> अधिकतम का स्तर प्रणाली बाधाओं की प्रकृति पर निर्भर करता है। | |||
== परिभाषा == | == परिभाषा == | ||
Line 106: | Line 107: | ||
यह एन बर्नौली परीक्षणों में सफलताओं की औसत संख्या के विचरण का पारस्परिक है, इसलिए इस मामले में, क्रैमर-राव बाउंड समानता है। | यह एन बर्नौली परीक्षणों में सफलताओं की औसत संख्या के विचरण का पारस्परिक है, इसलिए इस मामले में, क्रैमर-राव बाउंड समानता है। | ||
== | == आव्यूह फॉर्म == | ||
जब एन पैरामीटर हैं, तो θ है {{nowrap|''N'' × 1}} [[कॉलम वेक्टर]] <math>\theta = \begin{bmatrix}\theta_1 & \theta_2 & \dots & \theta_N\end{bmatrix}^\textsf{T},</math> तब फिशर जानकारी रूप लेती है {{nowrap|''N'' × ''N''}} [[मैट्रिक्स (गणित)]]। इस | जब एन पैरामीटर हैं, तो θ है {{nowrap|''N'' × 1}} [[कॉलम वेक्टर]] <math>\theta = \begin{bmatrix}\theta_1 & \theta_2 & \dots & \theta_N\end{bmatrix}^\textsf{T},</math> तब फिशर जानकारी रूप लेती है {{nowrap|''N'' × ''N''}} [[मैट्रिक्स (गणित)|आव्यूह (गणित)]]। इस आव्यूह को फिशर इंफॉर्मेशन आव्यूह (FIM) कहा जाता है और इसमें विशिष्ट तत्व होता है | ||
:<math> | :<math> | ||
Line 118: | Line 119: | ||
एफआईएम है {{nowrap|''N'' × ''N''}} [[सकारात्मक अर्ध निश्चित मैट्रिक्स]]। यदि यह सकारात्मक निश्चित है, तो यह एन-डायमेंशनल [[ पैरामीटर स्थान ]] पर [[रिमेंनियन मीट्रिक]] को परिभाषित करता है। विषय [[सूचना ज्यामिति]] इसका उपयोग फिशर जानकारी को [[अंतर ज्यामिति]] से जोड़ने के लिए करती है, और उस संदर्भ में, इस मीट्रिक को [[फिशर सूचना मीट्रिक]] के रूप में जाना जाता है। | एफआईएम है {{nowrap|''N'' × ''N''}} [[सकारात्मक अर्ध निश्चित मैट्रिक्स]]। यदि यह सकारात्मक निश्चित है, तो यह एन-डायमेंशनल [[ पैरामीटर स्थान ]] पर [[रिमेंनियन मीट्रिक]] को परिभाषित करता है। विषय [[सूचना ज्यामिति]] इसका उपयोग फिशर जानकारी को [[अंतर ज्यामिति]] से जोड़ने के लिए करती है, और उस संदर्भ में, इस मीट्रिक को [[फिशर सूचना मीट्रिक]] के रूप में जाना जाता है। | ||
कुछ निश्चित नियमितता शर्तों के तहत, फिशर सूचना | कुछ निश्चित नियमितता शर्तों के तहत, फिशर सूचना आव्यूह को इस रूप में भी लिखा जा सकता है | ||
:<math> | :<math> | ||
Line 127: | Line 128: | ||
</math> | </math> | ||
परिणाम कई मायनों में दिलचस्प है: | परिणाम कई मायनों में दिलचस्प है: | ||
* इसे सापेक्ष एंट्रॉपी के [[हेसियन मैट्रिक्स]] के रूप में प्राप्त किया जा सकता है। | * इसे सापेक्ष एंट्रॉपी के [[हेसियन मैट्रिक्स|हेसियन]] आव्यूह के रूप में प्राप्त किया जा सकता है। | ||
*इसे सकारात्मक-निश्चित होने पर फिशर-राव ज्यामिति को परिभाषित करने के लिए रिमेंनियन मीट्रिक के रूप में उपयोग किया जा सकता है।<ref>{{cite journal | last1 = Nielsen | first1 = Frank | year = 2010 | | *इसे सकारात्मक-निश्चित होने पर फिशर-राव ज्यामिति को परिभाषित करने के लिए रिमेंनियन मीट्रिक के रूप में उपयोग किया जा सकता है।<ref>{{cite journal | last1 = Nielsen | first1 = Frank | year = 2010 | | ||
title = Cramer-Rao lower bound and information geometry | title = Cramer-Rao lower bound and information geometry | ||
Line 134: | Line 135: | ||
*अपने जटिल-मूल्यवान रूप में, यह फ़ुबिनी-अध्ययन मीट्रिक है। | *अपने जटिल-मूल्यवान रूप में, यह फ़ुबिनी-अध्ययन मीट्रिक है। | ||
*यह विल्क्स प्रमेय के प्रमाण का प्रमुख हिस्सा है, जो [[संभावना सिद्धांत]] की आवश्यकता के बिना आत्मविश्वास क्षेत्र अनुमानों को [[अधिकतम संभावना अनुमान]] (उन स्थितियों के लिए जिनके लिए यह लागू होता है) की अनुमति देता है। | *यह विल्क्स प्रमेय के प्रमाण का प्रमुख हिस्सा है, जो [[संभावना सिद्धांत]] की आवश्यकता के बिना आत्मविश्वास क्षेत्र अनुमानों को [[अधिकतम संभावना अनुमान]] (उन स्थितियों के लिए जिनके लिए यह लागू होता है) की अनुमति देता है। | ||
*ऐसे मामलों में जहां उपरोक्त एफआईएम की विश्लेषणात्मक गणना मुश्किल है, एफआईएम के अनुमान के रूप में नकारात्मक लॉग-लाइबिलिटी फ़ंक्शन के हेसियन | *ऐसे मामलों में जहां उपरोक्त एफआईएम की विश्लेषणात्मक गणना मुश्किल है, एफआईएम के अनुमान के रूप में नकारात्मक लॉग-लाइबिलिटी फ़ंक्शन के हेसियन आव्यूह के आसान मोंटे कार्लो अनुमानों का औसत बनाना संभव है।<ref>{{cite journal | last1 = Spall | first1 = J. C. | year = 2005 | title = गैर-मानक सेटिंग्स में फिशर सूचना मैट्रिक्स की मोंटे कार्लो संगणना| journal = Journal of Computational and Graphical Statistics | volume = 14 | issue = 4| pages = 889–909 | doi=10.1198/106186005X78800| s2cid = 16090098 }}</ref><ref>Spall, J. C. (2008), "Improved Methods for Monte Carlo Estimation of the Fisher Information Matrix," ''Proceedings of the American Control Conference'', Seattle, WA, 11–13 June 2008, pp. 2395–2400. https://doi.org/10.1109/ACC.2008.4586850</ref><ref>{{cite journal | last1 = Das | first1 = S. | last2 = Spall | first2 = J. C. | last3 = Ghanem | first3 = R. | year = 2010 | title = पूर्व सूचना का उपयोग करते हुए फिशर सूचना मैट्रिक्स की कुशल मोंटे कार्लो संगणना| journal = Computational Statistics and Data Analysis | volume = 54 | issue = 2| pages = 272–289 | doi=10.1016/j.csda.2009.09.018}}</ref> अनुमान नकारात्मक लॉग-संभावना फ़ंक्शन के मान या नकारात्मक लॉग-संभावना फ़ंक्शन के ग्रेडिएंट पर आधारित हो सकते हैं; नकारात्मक लॉग-संभावना फ़ंक्शन के हेस्सियन की कोई विश्लेषणात्मक गणना आवश्यक नहीं है। | ||
=== सूचना ऑर्थोगोनल पैरामीटर === | === सूचना ऑर्थोगोनल पैरामीटर === | ||
हम कहते हैं कि दो पैरामीटर घटक वैक्टर θ<sub>1</sub>और θ<sub>2</sub>सूचना ऑर्थोगोनल हैं यदि फिशर सूचना | हम कहते हैं कि दो पैरामीटर घटक वैक्टर θ<sub>1</sub>और θ<sub>2</sub>सूचना ऑर्थोगोनल हैं यदि फिशर सूचना आव्यूह अलग-अलग ब्लॉकों में इन घटकों के साथ ब्लॉक विकर्ण है।<ref>{{cite book |last1=Barndorff-Nielsen |first1=O. E. |last2=Cox |first2=D. R. |title=निष्कर्ष और स्पर्शोन्मुख|date=1994 |publisher=Chapman & Hall |isbn=9780412494406}}</ref> ऑर्थोगोनल मापदंडों को इस अर्थ में निपटाना आसान है कि उनकी अधिकतम संभावना स्पर्शोन्मुख रूप से असंबद्ध है। सांख्यिकीय मॉडल का विश्लेषण करने के बारे में विचार करते समय, मॉडेलर को सलाह दी जाती है कि वह मॉडल के ऑर्थोगोनल पैरामीट्रिजेशन की खोज में कुछ समय निवेश करे, विशेष रूप से जब ब्याज का पैरामीटर एक-आयामी है, लेकिन उपद्रव पैरामीटर का कोई आयाम हो सकता है।<ref>{{cite journal |last1=Cox |first1=D. R. |last2=Reid |first2=N. |title=पैरामीटर ऑर्थोगोनलिटी और अनुमानित सशर्त अनुमान (चर्चा के साथ)|journal=J. Royal Statistical Soc. B |date=1987 |volume=49 |pages=1-39}}</ref> | ||
=== एकवचन सांख्यिकीय मॉडल === | === एकवचन सांख्यिकीय मॉडल === | ||
{{see also| | {{see also|नियमित पैरामीट्रिक मॉडल}} | ||
यदि फिशर सूचना | यदि फिशर सूचना आव्यूह सभी के लिए सकारात्मक निश्चित है {{mvar|θ}}, तो संबंधित [[सांख्यिकीय मॉडल]] को नियमित कहा जाता है; अन्यथा, सांख्यिकीय मॉडल को एकवचन कहा जाता है।<ref>{{Citation|first=S. | last= Watanabe | title= Algebraic geometrical method in singular statistical estimation | journal= Quantum Bio-Informatics | editor1-first= L. | editor2-first= W. | editor3-first= M. | editor1-last= Accardi | editor2-last= Freudenberg | editor3-last=Ohya | pages= 325–336 | year= 2008 | publisher= [[World Scientific]]| bibcode= 2008qbi..conf..325W | doi= 10.1142/9789812793171_0024 | isbn= 978-981-279-316-4 }}.</ref> एकवचन सांख्यिकीय मॉडल के उदाहरणों में निम्नलिखित शामिल हैं: सामान्य मिश्रण, द्विपद मिश्रण, बहुपद मिश्रण, बायेसियन नेटवर्क, तंत्रिका नेटवर्क, रेडियल आधार कार्य, छिपे हुए मार्कोव मॉडल, स्टोचैस्टिक संदर्भ-मुक्त व्याकरण, कम रैंक प्रतिगमन, बोल्ट्जमैन मशीन। | ||
[[ यंत्र अधिगम ]] में, यदि सांख्यिकीय मॉडल तैयार किया जाता है ताकि यह यादृच्छिक घटना से छिपी हुई संरचना को निकाल सके, तो यह स्वाभाविक रूप से एकवचन बन जाता है।<ref>{{cite journal | last1 = Watanabe | first1 = S | year = 2013 | title = एक व्यापक रूप से लागू बायेसियन सूचना मानदंड| journal = [[Journal of Machine Learning Research]] | volume = 14 | pages = 867–897 }}</ref> | [[ यंत्र अधिगम ]] में, यदि सांख्यिकीय मॉडल तैयार किया जाता है ताकि यह यादृच्छिक घटना से छिपी हुई संरचना को निकाल सके, तो यह स्वाभाविक रूप से एकवचन बन जाता है।<ref>{{cite journal | last1 = Watanabe | first1 = S | year = 2013 | title = एक व्यापक रूप से लागू बायेसियन सूचना मानदंड| journal = [[Journal of Machine Learning Research]] | volume = 14 | pages = 867–897 }}</ref> | ||
=== [[बहुभिन्नरूपी सामान्य वितरण]] === | === [[बहुभिन्नरूपी सामान्य वितरण]] === | ||
एन-वैरिएट बहुभिन्नरूपी सामान्य वितरण के लिए एफआईएम, <math>\,X \sim N\left(\mu(\theta),\, \Sigma(\theta)\right)</math> विशेष रूप होता है। पैरामीटर के के-आयामी वेक्टर होने दें <math>\theta = \begin{bmatrix} \theta_1 & \dots & \theta_K \end{bmatrix}^\textsf{T}</math> और यादृच्छिक सामान्य चर के वेक्टर हो <math>X = \begin{bmatrix} X_1 & \dots & X_N \end{bmatrix}^\textsf{T}</math>. मान लें कि इन यादृच्छिक चरों के माध्य मान हैं <math>\,\mu(\theta) = \begin{bmatrix} \mu_1(\theta) & \dots & \mu_N(\theta) \end{bmatrix}^\textsf{T}</math>, और जाने <math>\,\Sigma(\theta)</math> सहप्रसरण | एन-वैरिएट बहुभिन्नरूपी सामान्य वितरण के लिए एफआईएम, <math>\,X \sim N\left(\mu(\theta),\, \Sigma(\theta)\right)</math> विशेष रूप होता है। पैरामीटर के के-आयामी वेक्टर होने दें <math>\theta = \begin{bmatrix} \theta_1 & \dots & \theta_K \end{bmatrix}^\textsf{T}</math> और यादृच्छिक सामान्य चर के वेक्टर हो <math>X = \begin{bmatrix} X_1 & \dots & X_N \end{bmatrix}^\textsf{T}</math>. मान लें कि इन यादृच्छिक चरों के माध्य मान हैं <math>\,\mu(\theta) = \begin{bmatrix} \mu_1(\theta) & \dots & \mu_N(\theta) \end{bmatrix}^\textsf{T}</math>, और जाने <math>\,\Sigma(\theta)</math> सहप्रसरण आव्यूह हो। फिर, के लिए <math>1 \le m,\, n \le K</math>, (एम, एन) एफआईएम की प्रविष्टि है:<ref>{{cite book |title=स्टोचैस्टिक अनुकूलन के मद्देनजर गॉसियन वितरण की सूचना ज्यामिति|first1=Luigi |last1=Malagò |first2=Giovanni |last2=Pistone |journal=[[Proceedings of the 2015 ACM Conference on Foundations of Genetic Algorithms XIII]] |year=2015 |pages=150–162 |doi=10.1145/2725494.2725510 |isbn=9781450334341 |s2cid=693896 }}</ref> | ||
:<math> | :<math> | ||
\mathcal{I}_{m,n} = | \mathcal{I}_{m,n} = | ||
Line 155: | Line 156: | ||
\right), | \right), | ||
</math> | </math> | ||
कहाँ <math>(\cdot)^\textsf{T}</math> सदिश के स्थानान्तरण को दर्शाता है, <math>\operatorname{tr}(\cdot)</math> [[स्क्वायर मैट्रिक्स]] के [[ट्रेस (मैट्रिक्स)]] को दर्शाता है, और: | कहाँ <math>(\cdot)^\textsf{T}</math> सदिश के स्थानान्तरण को दर्शाता है, <math>\operatorname{tr}(\cdot)</math> [[स्क्वायर मैट्रिक्स|स्क्वायर]] आव्यूह के [[ट्रेस (मैट्रिक्स)]] को दर्शाता है, और: | ||
: <math>\begin{align} | : <math>\begin{align} | ||
Line 189: | Line 190: | ||
\frac{\partial\mu}{\partial\theta_n}.\ | \frac{\partial\mu}{\partial\theta_n}.\ | ||
</math> | </math> | ||
इस मामले में फिशर सूचना | इस मामले में फिशर सूचना आव्यूह को [[कम से कम वर्गों]] के आकलन सिद्धांत के [[सामान्य समीकरण]]ों के गुणांक आव्यूह के साथ पहचाना जा सकता है। | ||
एक और विशेष मामला तब होता है जब माध्य और सहप्रसरण दो अलग-अलग वेक्टर मापदंडों पर निर्भर करते हैं, कहते हैं, β और θ। यह विशेष रूप से स्थानिक डेटा के विश्लेषण में लोकप्रिय है, जो अक्सर सहसंबद्ध अवशेषों के साथ रैखिक मॉडल का उपयोग करता है। इस मामले में,<ref>{{cite journal |title=स्थानिक प्रतिगमन में अवशिष्ट सहप्रसरण के लिए मॉडलों का अधिकतम संभावना अनुमान|first1=K. V. |last1=Mardia |first2=R. J. |last2=Marshall |journal=[[Biometrika]] |year=1984 |volume=71 |issue=1 |pages=135–46 |doi=10.1093/biomet/71.1.135 }}</ref> | एक और विशेष मामला तब होता है जब माध्य और सहप्रसरण दो अलग-अलग वेक्टर मापदंडों पर निर्भर करते हैं, कहते हैं, β और θ। यह विशेष रूप से स्थानिक डेटा के विश्लेषण में लोकप्रिय है, जो अक्सर सहसंबद्ध अवशेषों के साथ रैखिक मॉडल का उपयोग करता है। इस मामले में,<ref>{{cite journal |title=स्थानिक प्रतिगमन में अवशिष्ट सहप्रसरण के लिए मॉडलों का अधिकतम संभावना अनुमान|first1=K. V. |last1=Mardia |first2=R. J. |last2=Marshall |journal=[[Biometrika]] |year=1984 |volume=71 |issue=1 |pages=135–46 |doi=10.1093/biomet/71.1.135 }}</ref> | ||
Line 209: | Line 210: | ||
=== [[एफ-विचलन]] === | === [[एफ-विचलन]] === | ||
एक उत्तल समारोह दिया <math>f: [0, \infty)\to(-\infty, \infty]</math> वह <math>f(x)</math> सभी के लिए परिमित है <math>x > 0</math>, <math>f(1)=0</math>, और <math>f(0)=\lim_{t\to 0^+} f(t) </math>, (जो अनंत हो सकता है), यह f-विचलन को परिभाषित करता है <math>D_f</math>. तो अगर <math>f</math> सख्ती से उत्तल है <math>1</math>, फिर स्थानीय रूप से <math>\theta\in\Theta</math>, फिशर सूचना | एक उत्तल समारोह दिया <math>f: [0, \infty)\to(-\infty, \infty]</math> वह <math>f(x)</math> सभी के लिए परिमित है <math>x > 0</math>, <math>f(1)=0</math>, और <math>f(0)=\lim_{t\to 0^+} f(t) </math>, (जो अनंत हो सकता है), यह f-विचलन को परिभाषित करता है <math>D_f</math>. तो अगर <math>f</math> सख्ती से उत्तल है <math>1</math>, फिर स्थानीय रूप से <math>\theta\in\Theta</math>, फिशर सूचना आव्यूह मीट्रिक है, इस अर्थ में कि<ref name=":02">{{Cite web |last=Polyanskiy |first=Yury |date=2017 |title=Lecture notes on information theory, chapter 29, ECE563 (UIUC) |url=https://people.lids.mit.edu/yp/homepage/data/LN_stats.pdf |url-status=live |archive-url=https://web.archive.org/web/20220524014051/https://people.lids.mit.edu/yp/homepage/data/LN_stats.pdf |archive-date=2022-05-24 |access-date=2022-05-24 |website=Lecture notes on information theory}}</ref><math display="block">(\delta\theta)^T I(\theta) (\delta\theta) = \frac{1}{f''(1)}D_f(P_{\theta+\delta\theta} \| P_{\theta})</math>कहाँ <math>P_\theta</math> द्वारा पैरामीट्रिज्ड वितरण है <math>\theta</math>. यानी यह पीडीएफ के साथ वितरण है <math>f(x; \theta)</math>. | ||
इस रूप में, यह स्पष्ट है कि फिशर सूचना | इस रूप में, यह स्पष्ट है कि फिशर सूचना आव्यूह रीमैनियन मीट्रिक है, और चर के परिवर्तन के तहत सही ढंग से भिन्न होता है। (रिपैरामेट्रिजेशन पर अनुभाग देखें) | ||
=== पर्याप्त आंकड़े === | === पर्याप्त आंकड़े === | ||
Line 229: | Line 230: | ||
:<math>{\mathcal I}_{\boldsymbol \eta}({\boldsymbol \eta}) = {\boldsymbol J}^\textsf{T} {\mathcal I}_{\boldsymbol \theta} ({\boldsymbol \theta}({\boldsymbol \eta})) {\boldsymbol J} | :<math>{\mathcal I}_{\boldsymbol \eta}({\boldsymbol \eta}) = {\boldsymbol J}^\textsf{T} {\mathcal I}_{\boldsymbol \theta} ({\boldsymbol \theta}({\boldsymbol \eta})) {\boldsymbol J} | ||
</math> | </math> | ||
जहां (i, j) k × k [[जैकबियन मैट्रिक्स]] का वां तत्व <math>\boldsymbol J</math> द्वारा परिभाषित किया गया है | जहां (i, j) k × k [[जैकबियन मैट्रिक्स|जैकबियन]] आव्यूह का वां तत्व <math>\boldsymbol J</math> द्वारा परिभाषित किया गया है | ||
: <math>J_{ij} = \frac{\partial \theta_i}{\partial \eta_j},</math> | : <math>J_{ij} = \frac{\partial \theta_i}{\partial \eta_j},</math> | ||
और कहाँ <math>{\boldsymbol J}^\textsf{T}</math> का | और कहाँ <math>{\boldsymbol J}^\textsf{T}</math> का आव्यूह स्थानान्तरण है <math>{\boldsymbol J}.</math> | ||
सूचना ज्यामिति में, इसे [[रीमैनियन कई गुना]] पर निर्देशांक के परिवर्तन के रूप में देखा जाता है, और वक्रता के आंतरिक गुण विभिन्न पैरामीट्रिजेशन के तहत अपरिवर्तित होते हैं। सामान्य तौर पर, फिशर सूचना | सूचना ज्यामिति में, इसे [[रीमैनियन कई गुना]] पर निर्देशांक के परिवर्तन के रूप में देखा जाता है, और वक्रता के आंतरिक गुण विभिन्न पैरामीट्रिजेशन के तहत अपरिवर्तित होते हैं। सामान्य तौर पर, फिशर सूचना आव्यूह थर्मोडायनामिक राज्यों के कई गुना के लिए रिमेंनियन मीट्रिक (अधिक सटीक, फिशर-राव मीट्रिक) प्रदान करता है, और [[चरण संक्रमण]]ों के वर्गीकरण के लिए सूचना-ज्यामितीय जटिलता माप के रूप में उपयोग किया जा सकता है, उदाहरण के लिए, स्केलर थर्मोडायनामिक मीट्रिक टेन्सर की वक्रता चरण संक्रमण बिंदु पर (और केवल) विचलन करती है।<ref>{{cite journal |first1=W. |last1=Janke |first2=D. A. |last2=Johnston |first3=R. |last3=Kenna |title=सूचना ज्यामिति और चरण संक्रमण|journal=Physica A |volume=336 |issue=1–2 |pages=181 |year=2004 |doi=10.1016/j.physa.2004.01.023 |arxiv=cond-mat/0401092 |bibcode=2004PhyA..336..181J |s2cid=119085942 }}</ref> | ||
थर्मोडायनामिक संदर्भ में, फिशर सूचना | थर्मोडायनामिक संदर्भ में, फिशर सूचना आव्यूह सीधे संबंधित ऑर्डर पैरामीटर # ऑर्डर पैरामीटर में परिवर्तन की दर से संबंधित है।<ref>{{cite journal |first1=M. |last1=Prokopenko |first3=J. T. |last3=Lizier |first4=O. |last4=Obst |first5=X. R. |last5=Wang |title=ऑर्डर पैरामीटर्स के लिए फिशर की जानकारी से संबंधित|journal=Physical Review E |volume=84 |issue= 4|pages=041116 |year=2011 |doi=10.1103/PhysRevE.84.041116 |last2=Lizier |first2=Joseph T. |pmid=22181096 |s2cid=18366894 |bibcode=2011PhRvE..84d1116P }}</ref> विशेष रूप से, ऐसे संबंध फिशर सूचना आव्यूह के अलग-अलग तत्वों के विचलन के माध्यम से दूसरे क्रम के चरण संक्रमणों की पहचान करते हैं। | ||
=== [[आइसोपेरिमेट्रिक असमानता]] === | === [[आइसोपेरिमेट्रिक असमानता]] === | ||
फिशर सूचना | फिशर सूचना आव्यूह आइसोपेरिमेट्रिक असमानता जैसी असमानता में भूमिका निभाता है।<ref>{{Cite journal|last1=Costa|first1=M.|last2=Cover|first2=T.|date=Nov 1984|title=एंट्रॉपी पावर असमानता और ब्रून-मिन्कोव्स्की असमानता की समानता पर|url=https://ieeexplore.ieee.org/document/1056983|journal=IEEE Transactions on Information Theory|volume=30|issue=6|pages=837–839|doi=10.1109/TIT.1984.1056983|issn=1557-9654}}</ref> किसी दिए गए एन्ट्रापी के साथ सभी प्रायिकता वितरणों में, जिसकी फिशर सूचना आव्यूह में सबसे छोटा ट्रेस है, वह गॉसियन वितरण है। यह इस तरह है कि कैसे, दिए गए आयतन वाले सभी परिबद्ध सेटों में, गोले का पृष्ठीय क्षेत्रफल सबसे छोटा होता है। | ||
प्रमाण में बहुभिन्नरूपी यादृच्छिक चर लेना शामिल है <math>X</math> घनत्व समारोह के साथ <math>f</math> और घनत्व का परिवार बनाने के लिए स्थान पैरामीटर जोड़ना <math>\{f(x-\theta) \mid \theta \in \mathbb{R}^n\}</math>. फिर, मिन्कोव्स्की-स्टेनर सूत्र के अनुरूप, सतह क्षेत्र <math>X</math> होना परिभाषित किया गया है | प्रमाण में बहुभिन्नरूपी यादृच्छिक चर लेना शामिल है <math>X</math> घनत्व समारोह के साथ <math>f</math> और घनत्व का परिवार बनाने के लिए स्थान पैरामीटर जोड़ना <math>\{f(x-\theta) \mid \theta \in \mathbb{R}^n\}</math>. फिर, मिन्कोव्स्की-स्टेनर सूत्र के अनुरूप, सतह क्षेत्र <math>X</math> होना परिभाषित किया गया है | ||
:<math>S(X) = \lim_{\varepsilon \to 0} \frac{e^{H(X+Z_\varepsilon)} - e^{H(X)}}{\varepsilon}</math> | :<math>S(X) = \lim_{\varepsilon \to 0} \frac{e^{H(X+Z_\varepsilon)} - e^{H(X)}}{\varepsilon}</math> | ||
कहाँ <math>Z_\varepsilon</math> सहप्रसरण | कहाँ <math>Z_\varepsilon</math> सहप्रसरण आव्यूह वाला गॉसियन चर है <math>\varepsilon I</math>. सतह क्षेत्र नाम उपयुक्त है क्योंकि एंट्रॉपी शक्ति <math>e^{H(X)}</math> प्रभावी समर्थन सेट की मात्रा है,<ref>{{Cite book|last=Cover|first=Thomas M.|url=https://www.worldcat.org/oclc/59879802|title=सूचना सिद्धांत के तत्व|date=2006|publisher=Wiley-Interscience|others=Joy A. Thomas|isbn=0-471-24195-4|edition=2nd|location=Hoboken, N.J.|pages=256|oclc=59879802}}</ref> इसलिए <math>S(X)</math> प्रभावी समर्थन सेट की मात्रा का व्युत्पन्न है, बहुत कुछ मिन्कोव्स्की-स्टेनर सूत्र की तरह। प्रमाण का शेष भाग एंट्रॉपी शक्ति असमानता का उपयोग करता है, जो ब्रून-मिन्कोव्स्की प्रमेय की तरह है|ब्रून-मिन्कोव्स्की असमानता। फिशर इंफॉर्मेशन आव्यूह का ट्रेस कारक के रूप में पाया जाता है <math>S(X)</math>. | ||
== अनुप्रयोग == | == अनुप्रयोग == | ||
Line 247: | Line 248: | ||
इष्टतम डिजाइन में फिशर जानकारी का व्यापक रूप से उपयोग किया जाता है। अनुमानक-भिन्नता और फिशर जानकारी की पारस्परिकता के कारण, भिन्नता को कम करना सूचना को अधिकतम करने से मेल खाता है। | इष्टतम डिजाइन में फिशर जानकारी का व्यापक रूप से उपयोग किया जाता है। अनुमानक-भिन्नता और फिशर जानकारी की पारस्परिकता के कारण, भिन्नता को कम करना सूचना को अधिकतम करने से मेल खाता है। | ||
जब [[रैखिक मॉडल]] (या अरैखिक प्रतिगमन) सांख्यिकीय मॉडल में कई पैरामीटर होते हैं, तो पैरामीटर अनुमानक का अपेक्षित मान कॉलम वेक्टर होता है और इसका सहप्रसरण | जब [[रैखिक मॉडल]] (या अरैखिक प्रतिगमन) सांख्यिकीय मॉडल में कई पैरामीटर होते हैं, तो पैरामीटर अनुमानक का अपेक्षित मान कॉलम वेक्टर होता है और इसका सहप्रसरण आव्यूह आव्यूह (गणित) होता है। विचरण आव्यूह के व्युत्क्रम को सूचना आव्यूह कहा जाता है। चूंकि पैरामीटर वेक्टर के अनुमानक का भिन्नता आव्यूह है, भिन्नता को कम करने की समस्या जटिल है। सांख्यिकीय [[सिद्ध]]ांत का उपयोग करते हुए, सांख्यिकीविद् वास्तविक-मूल्यवान सारांश आँकड़ों का उपयोग करके सूचना-आव्यूह को संकुचित करते हैं; वास्तविक-मूल्यवान कार्य होने के कारण, इन सूचना मानदंडों को अधिकतम किया जा सकता है। | ||
परंपरागत रूप से, सांख्यिकीविदों ने सहप्रसरण | परंपरागत रूप से, सांख्यिकीविदों ने सहप्रसरण आव्यूह (एक निष्पक्ष अनुमानक के) के कुछ सारांश आंकड़ों पर विचार करके अनुमानकों और डिजाइनों का मूल्यांकन किया है, आमतौर पर सकारात्मक वास्तविक मूल्यों (जैसे निर्धारक या [[मैट्रिक्स ट्रेस|आव्यूह ट्रेस]]) के साथ। सकारात्मक वास्तविक संख्याओं के साथ काम करने से कई फायदे मिलते हैं: यदि एकल पैरामीटर के अनुमानक में सकारात्मक भिन्नता है, तो भिन्नता और फिशर जानकारी दोनों सकारात्मक वास्तविक संख्याएं हैं; इसलिए वे गैर-ऋणात्मक वास्तविक संख्याओं के उत्तल शंकु के सदस्य हैं (जिनके शून्येतर सदस्य इसी शंकु में व्युत्क्रम हैं)। | ||
कई मापदंडों के लिए, सहप्रसरण मैट्रिसेस और सूचना मैट्रिसेस, [[चार्ल्स लोवेनर]] (लोवनर) के आदेश के तहत आंशिक क्रम में सदिश स्थान के आदेश में गैर-नकारात्मक-निश्चित सममित मैट्रिसेस के उत्तल शंकु के तत्व हैं। यह शंकु | कई मापदंडों के लिए, सहप्रसरण मैट्रिसेस और सूचना मैट्रिसेस, [[चार्ल्स लोवेनर]] (लोवनर) के आदेश के तहत आंशिक क्रम में सदिश स्थान के आदेश में गैर-नकारात्मक-निश्चित सममित मैट्रिसेस के उत्तल शंकु के तत्व हैं। यह शंकु आव्यूह जोड़ और व्युत्क्रम के साथ-साथ सकारात्मक वास्तविक संख्याओं और आव्यूहों के गुणन के तहत बंद है। आव्यूह थ्योरी और लोवेनर ऑर्डर की प्रदर्शनी पुकेलशेम में दिखाई देती है।<ref>{{cite book |first=Friedrick |last=Pukelsheim |title=प्रयोगों का इष्टतम डिजाइन|location=New York |publisher=Wiley |year=1993 |isbn=978-0-471-61971-0 }}</ref> | ||
[[अपरिवर्तनीय सिद्धांत]] के अर्थ में पारंपरिक इष्टतमता मानदंड सूचना | [[अपरिवर्तनीय सिद्धांत]] के अर्थ में पारंपरिक इष्टतमता मानदंड सूचना आव्यूह के अपरिवर्तनीय हैं; बीजगणितीय रूप से, पारंपरिक इष्टतमता मानदंड (फिशर) सूचना आव्यूह (इष्टतम डिजाइन देखें) के [[eigenvalue]]s के [[कार्यात्मक (गणित)]] हैं। | ||
=== बायेसियन सांख्यिकी में पूर्व जेफरीस === | === बायेसियन सांख्यिकी में पूर्व जेफरीस === | ||
Line 265: | Line 266: | ||
दूसरे क्रम के ग्रेडिएंट डिसेंट नेटवर्क प्रशिक्षण में फिशर की जानकारी को हानि समारोह के हेस्सियन के विकल्प के रूप में इस्तेमाल किया जा सकता है।<ref name="Martens2020">{{cite journal|last=Martens|first=James|title=प्राकृतिक ढाल पद्धति पर नई अंतर्दृष्टि और दृष्टिकोण|journal=Journal of Machine Learning Research|issue=21|date=August 2020|arxiv=1412.1193}}</ref> | दूसरे क्रम के ग्रेडिएंट डिसेंट नेटवर्क प्रशिक्षण में फिशर की जानकारी को हानि समारोह के हेस्सियन के विकल्प के रूप में इस्तेमाल किया जा सकता है।<ref name="Martens2020">{{cite journal|last=Martens|first=James|title=प्राकृतिक ढाल पद्धति पर नई अंतर्दृष्टि और दृष्टिकोण|journal=Journal of Machine Learning Research|issue=21|date=August 2020|arxiv=1412.1193}}</ref> | ||
== सापेक्ष एन्ट्रापी से संबंध == | == सापेक्ष एन्ट्रापी से संबंध == | ||
{{See also| | {{See also|फिशर जानकारी मीट्रिक}} | ||
फिशर की जानकारी सापेक्ष एन्ट्रॉपी से संबंधित है।<ref>[https://books.google.com/books?id=gqI-pAP2JZ8C&pg=PA87 Gourieroux & Montfort (1995), page 87]</ref> दो वितरणों के बीच सापेक्ष एन्ट्रॉपी, या कुल्बैक-लीब्लर विचलन <math>p</math> और <math>q</math> रूप में लिखा जा सकता है | फिशर की जानकारी सापेक्ष एन्ट्रॉपी से संबंधित है।<ref>[https://books.google.com/books?id=gqI-pAP2JZ8C&pg=PA87 Gourieroux & Montfort (1995), page 87]</ref> दो वितरणों के बीच सापेक्ष एन्ट्रॉपी, या कुल्बैक-लीब्लर विचलन <math>p</math> और <math>q</math> रूप में लिखा जा सकता है | ||
:<math>KL(p:q) = \int p(x)\log\frac{p(x)}{q(x)} \, dx.</math> | :<math>KL(p:q) = \int p(x)\log\frac{p(x)}{q(x)} \, dx.</math> |
Revision as of 18:38, 19 June 2023
गणितीय आँकड़ों में, फ़िशर जानकारी (कभी-कभी केवल सूचना कहलाती है[1]) जानकारी की मात्रा को मापने का प्रकार है जो प्रेक्षण योग्य यादृच्छिक चर X वितरण के अज्ञात पैरामीटर θ के मॉडल X के विषय में होता है। औपचारिक रूप से, यह स्कोर की भिन्नता है, या देखी गई जानकारी का अपेक्षित मूल्य होता है।
सांख्यिकीविद् रोनाल्ड फिशर (फ्रांसिस यसिड्रो एडगेवर्थ द्वारा कुछ प्रारंभिक परिणामों के पश्चात) द्वारा अधिकतम-संभावना अनुमान के स्पर्शोन्मुख सिद्धांत में फिशर जानकारी की भूमिका पर जोर दिया गया था। फिशर जानकारी आव्यूह का उपयोग अधिकतम-संभावना अनुमानों से जुड़े सहप्रसरण आव्यूह की गणना करने के लिए किया जाता है। इसका उपयोग परीक्षण आँकड़ों के निर्माण में जैसे वाल्ड परीक्षण किया जा सकता है।
बायेसियन सांख्यिकी में, फिशर की जानकारी जेफ़रीज़ के नियम के अनुसार गैर-सूचनात्मक पूर्व वितरणों की व्युत्पत्ति में भूमिका निभाती है।[2] यह पश्च वितरण के बड़े-प्रारूप सहप्रसरण के रूप में भी प्रकट होता है, नियम यह है कि पूर्व पर्याप्त रूप से सुचारू हो (परिणाम जिसे बर्नस्टीन-वॉन मिज़ प्रमेय के रूप में जाना जाता है, जिसे घातीय परिवारों के लिए लाप्लास द्वारा प्रत्याशित किया गया था)।[3] लाप्लास के सन्निकटन के साथ पोस्टीरियर का अनुमान लगाते समय उसी परिणाम का उपयोग किया जाता है, जहां फिशर की जानकारी फिटेड गॉसियन के सहप्रसरण के रूप में दिखाई देती है।[4]
वैज्ञानिक प्रकृति (भौतिक, जैविक, आदि) की सांख्यिकीय प्रणालियाँ जिनके संभावित कार्य शिफ्ट-इनवेरिएंट का पालन करते हैं, उन्हें अधिकतम फिशर जानकारी का पालन करने के लिए दिखाया गया है।[5] अधिकतम का स्तर प्रणाली बाधाओं की प्रकृति पर निर्भर करता है।
परिभाषा
फ़िशर सूचना सूचना की मात्रा को मापने का तरीका है जो अवलोकन योग्य यादृच्छिक चर है अज्ञात पैरामीटर के बारे में वहन करता है जिस पर की संभावना है निर्भर करता है। होने देना के लिए प्रायिकता घनत्व फलन (या प्रायिकता द्रव्यमान फलन) हो के मूल्य पर वातानुकूलित . यह संभावना का वर्णन करता है कि हम दिए गए परिणाम का निरीक्षण करते हैं , का ज्ञात मान दिया गया है . अगर में परिवर्तनों के संबंध में तेजी से चरम पर है , के सही मान को इंगित करना आसान है डेटा से, या समकक्ष, कि डेटा पैरामीटर के बारे में बहुत सारी जानकारी प्रदान करता है . अगर समतल और फैला हुआ है, तो यह कई नमूने लेगा के वास्तविक वास्तविक मूल्य का अनुमान लगाने के लिए जो पूरी आबादी के नमूने का उपयोग करके प्राप्त किया जाएगा। यह किसी प्रकार के विचरण के संबंध में अध्ययन करने का सुझाव देता है .
औपचारिक रूप से, के संबंध में आंशिक व्युत्पन्न प्रायिकता फलन के प्राकृतिक लघुगणक को स्कोर (सांख्यिकी) कहा जाता है। कुछ नियमितता शर्तों के तहत, यदि सही पैरामीटर है (यानी वास्तव में के रूप में वितरित किया जाता है ), यह दिखाया जा सकता है कि स्कोर का अपेक्षित मूल्य (पहला क्षण (गणित)), सही पैरामीटर मान पर मूल्यांकन किया गया , 0 है:[6] : फिशर जानकारी को स्कोर के विचरण के रूप में परिभाषित किया गया है:[7]
ध्यान दें कि . उच्च फिशर जानकारी वाले यादृच्छिक चर का अर्थ है कि स्कोर का निरपेक्ष मान अक्सर उच्च होता है। फिशर की जानकारी किसी विशेष अवलोकन का कार्य नहीं है, क्योंकि यादृच्छिक चर X को औसत कर दिया गया है।
अगर log f(x; θ) θ के संबंध में दो बार अवकलनीय है, और कुछ नियमितता शर्तों के तहत, फ़िशर जानकारी को इस रूप में भी लिखा जा सकता है[8]
तब से
और
इस प्रकार, फिशर की जानकारी को समर्थन वक्र (लॉग-संभावना का ग्राफ) की वक्रता के रूप में देखा जा सकता है। अधिकतम संभावना अनुमान के पास, कम फिशर जानकारी इसलिए इंगित करती है कि अधिकतम कुंद दिखाई देता है, अर्थात, अधिकतम उथला है और समान लॉग-संभावना वाले पास के कई मूल्य हैं। इसके विपरीत, उच्च फिशर जानकारी इंगित करती है कि अधिकतम तेज है।
नियमितता की स्थिति
नियमितता की शर्तें इस प्रकार हैं:[9]
- θ के संबंध में f(X; θ) का आंशिक व्युत्पन्न लगभग हर जगह मौजूद है। (यह शून्य सेट पर अस्तित्व में विफल हो सकता है, जब तक कि यह सेट θ पर निर्भर न हो।)
- एफ (एक्स; θ) का अभिन्न अंग θ के संबंध में अभिन्न चिह्न के तहत विभेदित किया जा सकता है।
- f(X; θ) का समर्थन (गणित) θ पर निर्भर नहीं करता है।
यदि θ सदिश राशि है तो θ के प्रत्येक घटक के लिए नियमितता की शर्तें होनी चाहिए। घनत्व का उदाहरण खोजना आसान है जो नियमितता की शर्तों को पूरा नहीं करता है: समान (0, θ) चर का घनत्व 1 और 3 की शर्तों को पूरा करने में विफल रहता है। इस मामले में, भले ही फिशर की जानकारी से गणना की जा सकती है परिभाषा, इसमें वे गुण नहीं होंगे जो इसे आमतौर पर माना जाता है।
संभावना के संदर्भ में
चूँकि दिए गए X के θ की संभावना हमेशा प्रायिकता f(X; θ) के समानुपाती होती है, उनके लघुगणक आवश्यक रूप से स्थिरांक से भिन्न होते हैं जो θ से स्वतंत्र होता है, और θ के संबंध में इन लघुगणकों के डेरिवेटिव आवश्यक रूप से बराबर होते हैं। इस प्रकार लॉग-लाइबिलिटी एल (θ; एक्स) के बजाय स्थानापन्न कर सकता है log f(X; θ) फिशर सूचना की परिभाषा में।
किसी भी आकार के नमूने
मान X एकल वितरण से निकाले गए एकल नमूने का प्रतिनिधित्व कर सकता है या वितरण के संग्रह से निकाले गए नमूनों के संग्रह का प्रतिनिधित्व कर सकता है। यदि n नमूने हैं और संबंधित n वितरण सांख्यिकीय रूप से स्वतंत्र हैं, तो फ़िशर जानकारी आवश्यक रूप से एकल-नमूना फ़िशर सूचना मानों का योग होगी, इसके वितरण से प्रत्येक एकल नमूने के लिए एक। विशेष रूप से, यदि n बंटन i.i.d. तो फ़िशर जानकारी आवश्यक रूप से सामान्य वितरण से एकल नमूने की फ़िशर जानकारी का n गुना होगी।
===क्रैमर-राव बाउंड === की अनौपचारिक व्युत्पत्ति द क्रैमर-राव बाउंड[10][11] बताता है कि फिशर जानकारी का व्युत्क्रम θ के किसी भी निष्पक्ष अनुमानक के विचरण पर निचली सीमा है। एच.एल. वैन ट्रीज़ (1968) और बी. रॉय फ्रीडेन (2004) क्रैमर-राव बाउंड प्राप्त करने की निम्नलिखित विधि प्रदान करते हैं, जिसके परिणामस्वरूप फिशर जानकारी के उपयोग का वर्णन होता है।
अनौपचारिक रूप से, हम निष्पक्ष अनुमानक पर विचार करके प्रारंभ करते हैं . गणितीय रूप से, निष्पक्ष का अर्थ है कि
यह अभिव्यक्ति θ से स्वतंत्र शून्य है, इसलिए θ के संबंध में इसका आंशिक व्युत्पन्न भी शून्य होना चाहिए। उत्पाद नियम के अनुसार, यह आंशिक अवकलज भी बराबर है
प्रत्येक θ के लिए, प्रायिकता फलन प्रायिकता घनत्व फलन है, और इसलिए . के आंशिक व्युत्पन्न पर श्रृंखला नियम का उपयोग करके और फिर से विभाजित और गुणा करना , कोई इसे सत्यापित कर सकता है
उपर्युक्त में इन दो तथ्यों का प्रयोग करने पर हमें प्राप्त होता है
इंटीग्रैंड देता है फैक्टरिंग
समाकलन में व्यंजक का वर्ग करने पर कॉशी-श्वार्ज़ असमानता प्राप्त होती है
दूसरा ब्रैकेटेड कारक फिशर सूचना के रूप में परिभाषित किया गया है, जबकि पहला ब्रैकेटेड कारक अनुमानक की अपेक्षित माध्य-वर्ग त्रुटि है . पुनर्व्यवस्थित करके, असमानता हमें बताती है कि
दूसरे शब्दों में, जिस सटीकता का हम अनुमान लगा सकते हैं, वह मौलिक रूप से संभावित कार्य की फिशर जानकारी द्वारा सीमित है।
वैकल्पिक रूप से, यादृच्छिक चर के लिए कॉची-श्वार्ज़ असमानता | कॉची-श्वार्ज़ असमानता से सीधे ही निष्कर्ष प्राप्त किया जा सकता है, , यादृच्छिक चर पर लागू होता है और , और यह देखते हुए कि हमारे पास निष्पक्ष अनुमानक हैं
एकल-पैरामीटर बरनौली प्रयोग
एक बरनौली परीक्षण दो संभावित परिणामों, सफलता और असफलता के साथ यादृच्छिक चर है, जिसमें सफलता की संभावना θ है। परिणाम के बारे में सोचा जा सकता है कि सिक्का टॉस द्वारा निर्धारित किया जा सकता है, जिसमें हेड होने की संभावना θ और पूंछ होने की संभावना है 1 − θ.
बता दें कि एक्स बर्नौली परीक्षण है। X में निहित फिशर जानकारी की गणना की जा सकती है
क्योंकि फिशर की जानकारी योगात्मक है, फिशर की जानकारी n स्वतंत्र बर्नौली परीक्षणों में निहित है
यह एन बर्नौली परीक्षणों में सफलताओं की औसत संख्या के विचरण का पारस्परिक है, इसलिए इस मामले में, क्रैमर-राव बाउंड समानता है।
आव्यूह फॉर्म
जब एन पैरामीटर हैं, तो θ है N × 1 कॉलम वेक्टर तब फिशर जानकारी रूप लेती है N × N आव्यूह (गणित)। इस आव्यूह को फिशर इंफॉर्मेशन आव्यूह (FIM) कहा जाता है और इसमें विशिष्ट तत्व होता है
एफआईएम है N × N सकारात्मक अर्ध निश्चित मैट्रिक्स। यदि यह सकारात्मक निश्चित है, तो यह एन-डायमेंशनल पैरामीटर स्थान पर रिमेंनियन मीट्रिक को परिभाषित करता है। विषय सूचना ज्यामिति इसका उपयोग फिशर जानकारी को अंतर ज्यामिति से जोड़ने के लिए करती है, और उस संदर्भ में, इस मीट्रिक को फिशर सूचना मीट्रिक के रूप में जाना जाता है।
कुछ निश्चित नियमितता शर्तों के तहत, फिशर सूचना आव्यूह को इस रूप में भी लिखा जा सकता है
परिणाम कई मायनों में दिलचस्प है:
- इसे सापेक्ष एंट्रॉपी के हेसियन आव्यूह के रूप में प्राप्त किया जा सकता है।
- इसे सकारात्मक-निश्चित होने पर फिशर-राव ज्यामिति को परिभाषित करने के लिए रिमेंनियन मीट्रिक के रूप में उपयोग किया जा सकता है।[12]
- चर के उपयुक्त परिवर्तन के बाद, इसे यूक्लिडियन मीट्रिक से प्रेरित मीट्रिक के रूप में समझा जा सकता है।
- अपने जटिल-मूल्यवान रूप में, यह फ़ुबिनी-अध्ययन मीट्रिक है।
- यह विल्क्स प्रमेय के प्रमाण का प्रमुख हिस्सा है, जो संभावना सिद्धांत की आवश्यकता के बिना आत्मविश्वास क्षेत्र अनुमानों को अधिकतम संभावना अनुमान (उन स्थितियों के लिए जिनके लिए यह लागू होता है) की अनुमति देता है।
- ऐसे मामलों में जहां उपरोक्त एफआईएम की विश्लेषणात्मक गणना मुश्किल है, एफआईएम के अनुमान के रूप में नकारात्मक लॉग-लाइबिलिटी फ़ंक्शन के हेसियन आव्यूह के आसान मोंटे कार्लो अनुमानों का औसत बनाना संभव है।[13][14][15] अनुमान नकारात्मक लॉग-संभावना फ़ंक्शन के मान या नकारात्मक लॉग-संभावना फ़ंक्शन के ग्रेडिएंट पर आधारित हो सकते हैं; नकारात्मक लॉग-संभावना फ़ंक्शन के हेस्सियन की कोई विश्लेषणात्मक गणना आवश्यक नहीं है।
सूचना ऑर्थोगोनल पैरामीटर
हम कहते हैं कि दो पैरामीटर घटक वैक्टर θ1और θ2सूचना ऑर्थोगोनल हैं यदि फिशर सूचना आव्यूह अलग-अलग ब्लॉकों में इन घटकों के साथ ब्लॉक विकर्ण है।[16] ऑर्थोगोनल मापदंडों को इस अर्थ में निपटाना आसान है कि उनकी अधिकतम संभावना स्पर्शोन्मुख रूप से असंबद्ध है। सांख्यिकीय मॉडल का विश्लेषण करने के बारे में विचार करते समय, मॉडेलर को सलाह दी जाती है कि वह मॉडल के ऑर्थोगोनल पैरामीट्रिजेशन की खोज में कुछ समय निवेश करे, विशेष रूप से जब ब्याज का पैरामीटर एक-आयामी है, लेकिन उपद्रव पैरामीटर का कोई आयाम हो सकता है।[17]
एकवचन सांख्यिकीय मॉडल
यदि फिशर सूचना आव्यूह सभी के लिए सकारात्मक निश्चित है θ, तो संबंधित सांख्यिकीय मॉडल को नियमित कहा जाता है; अन्यथा, सांख्यिकीय मॉडल को एकवचन कहा जाता है।[18] एकवचन सांख्यिकीय मॉडल के उदाहरणों में निम्नलिखित शामिल हैं: सामान्य मिश्रण, द्विपद मिश्रण, बहुपद मिश्रण, बायेसियन नेटवर्क, तंत्रिका नेटवर्क, रेडियल आधार कार्य, छिपे हुए मार्कोव मॉडल, स्टोचैस्टिक संदर्भ-मुक्त व्याकरण, कम रैंक प्रतिगमन, बोल्ट्जमैन मशीन।
यंत्र अधिगम में, यदि सांख्यिकीय मॉडल तैयार किया जाता है ताकि यह यादृच्छिक घटना से छिपी हुई संरचना को निकाल सके, तो यह स्वाभाविक रूप से एकवचन बन जाता है।[19]
बहुभिन्नरूपी सामान्य वितरण
एन-वैरिएट बहुभिन्नरूपी सामान्य वितरण के लिए एफआईएम, विशेष रूप होता है। पैरामीटर के के-आयामी वेक्टर होने दें और यादृच्छिक सामान्य चर के वेक्टर हो . मान लें कि इन यादृच्छिक चरों के माध्य मान हैं , और जाने सहप्रसरण आव्यूह हो। फिर, के लिए , (एम, एन) एफआईएम की प्रविष्टि है:[20]
कहाँ सदिश के स्थानान्तरण को दर्शाता है, स्क्वायर आव्यूह के ट्रेस (मैट्रिक्स) को दर्शाता है, और:
ध्यान दें कि विशेष, लेकिन बहुत सामान्य मामला वह है जहां , निरंतर। तब
इस मामले में फिशर सूचना आव्यूह को कम से कम वर्गों के आकलन सिद्धांत के सामान्य समीकरणों के गुणांक आव्यूह के साथ पहचाना जा सकता है।
एक और विशेष मामला तब होता है जब माध्य और सहप्रसरण दो अलग-अलग वेक्टर मापदंडों पर निर्भर करते हैं, कहते हैं, β और θ। यह विशेष रूप से स्थानिक डेटा के विश्लेषण में लोकप्रिय है, जो अक्सर सहसंबद्ध अवशेषों के साथ रैखिक मॉडल का उपयोग करता है। इस मामले में,[21]
कहाँ
गुण
श्रृंखला नियम
एंट्रॉपी (सूचना सिद्धांत) के समान # अन्य गुण या पारस्परिक जानकारी # सशर्त पारस्परिक जानकारी, फिशर की जानकारी में श्रृंखला नियम अपघटन भी होता है। विशेष रूप से, यदि X और Y संयुक्त रूप से यादृच्छिक चर वितरित किए जाते हैं, तो यह इस प्रकार है:[22] : कहाँ और Y के सापेक्ष फिशर जानकारी है विशिष्ट मान X = x दिए जाने पर Y के सशर्त घनत्व के संबंध में गणना की जाती है।
एक विशेष मामले के रूप में, यदि दो यादृच्छिक चर सांख्यिकीय स्वतंत्रता हैं, तो दो यादृच्छिक चर द्वारा प्राप्त जानकारी प्रत्येक यादृच्छिक चर से अलग-अलग जानकारी का योग है:
नतीजतन, n स्वतंत्र और समान रूप से वितरित यादृच्छिक चर अवलोकनों के यादृच्छिक नमूने में जानकारी आकार 1 के नमूने में जानकारी का n गुना है।
एफ-विचलन
एक उत्तल समारोह दिया वह सभी के लिए परिमित है , , और , (जो अनंत हो सकता है), यह f-विचलन को परिभाषित करता है . तो अगर सख्ती से उत्तल है , फिर स्थानीय रूप से , फिशर सूचना आव्यूह मीट्रिक है, इस अर्थ में कि[23]
इस रूप में, यह स्पष्ट है कि फिशर सूचना आव्यूह रीमैनियन मीट्रिक है, और चर के परिवर्तन के तहत सही ढंग से भिन्न होता है। (रिपैरामेट्रिजेशन पर अनुभाग देखें)
पर्याप्त आंकड़े
एक पर्याप्तता (सांख्यिकी) द्वारा प्रदान की गई जानकारी नमूना एक्स के समान है। इसे पर्याप्त आंकड़े # फिशर-नेमैन गुणन प्रमेय का उपयोग करके देखा जा सकता है। पर्याप्त आंकड़े के लिए नेमैन का कारककरण मानदंड। यदि T(X) θ के लिए पर्याप्त है, तब
कुछ कार्यों के लिए जी और एच। θ से h(X) की स्वतंत्रता का तात्पर्य है
और सूचना की समानता फ़िशर सूचना की परिभाषा से अनुसरण करती है। अधिक सामान्यतः, यदि T = t(X) तब आँकड़ा है
समानता के साथ अगर और केवल अगर टी पर्याप्त आंकड़ा है।[24]
रिपैरामेट्रिजेशन
फिशर की जानकारी समस्या के पैरामीट्रिजेशन पर निर्भर करती है। यदि θ और η अनुमान समस्या के दो स्केलर पैरामीट्रिजेशन हैं, और θ η का निरंतर अलग-अलग कार्य है, तो
कहाँ और क्रमशः η और θ के फिशर सूचना उपाय हैं।[25] वेक्टर मामले में, मान लीजिए और k-वेक्टर हैं जो अनुमान समस्या को पैरामीट्रिज करते हैं, और मान लीजिए कि का सतत अवकलनीय फलन है , तब,[26]
जहां (i, j) k × k जैकबियन आव्यूह का वां तत्व द्वारा परिभाषित किया गया है
और कहाँ का आव्यूह स्थानान्तरण है सूचना ज्यामिति में, इसे रीमैनियन कई गुना पर निर्देशांक के परिवर्तन के रूप में देखा जाता है, और वक्रता के आंतरिक गुण विभिन्न पैरामीट्रिजेशन के तहत अपरिवर्तित होते हैं। सामान्य तौर पर, फिशर सूचना आव्यूह थर्मोडायनामिक राज्यों के कई गुना के लिए रिमेंनियन मीट्रिक (अधिक सटीक, फिशर-राव मीट्रिक) प्रदान करता है, और चरण संक्रमणों के वर्गीकरण के लिए सूचना-ज्यामितीय जटिलता माप के रूप में उपयोग किया जा सकता है, उदाहरण के लिए, स्केलर थर्मोडायनामिक मीट्रिक टेन्सर की वक्रता चरण संक्रमण बिंदु पर (और केवल) विचलन करती है।[27] थर्मोडायनामिक संदर्भ में, फिशर सूचना आव्यूह सीधे संबंधित ऑर्डर पैरामीटर # ऑर्डर पैरामीटर में परिवर्तन की दर से संबंधित है।[28] विशेष रूप से, ऐसे संबंध फिशर सूचना आव्यूह के अलग-अलग तत्वों के विचलन के माध्यम से दूसरे क्रम के चरण संक्रमणों की पहचान करते हैं।
आइसोपेरिमेट्रिक असमानता
फिशर सूचना आव्यूह आइसोपेरिमेट्रिक असमानता जैसी असमानता में भूमिका निभाता है।[29] किसी दिए गए एन्ट्रापी के साथ सभी प्रायिकता वितरणों में, जिसकी फिशर सूचना आव्यूह में सबसे छोटा ट्रेस है, वह गॉसियन वितरण है। यह इस तरह है कि कैसे, दिए गए आयतन वाले सभी परिबद्ध सेटों में, गोले का पृष्ठीय क्षेत्रफल सबसे छोटा होता है।
प्रमाण में बहुभिन्नरूपी यादृच्छिक चर लेना शामिल है घनत्व समारोह के साथ और घनत्व का परिवार बनाने के लिए स्थान पैरामीटर जोड़ना . फिर, मिन्कोव्स्की-स्टेनर सूत्र के अनुरूप, सतह क्षेत्र होना परिभाषित किया गया है
कहाँ सहप्रसरण आव्यूह वाला गॉसियन चर है . सतह क्षेत्र नाम उपयुक्त है क्योंकि एंट्रॉपी शक्ति प्रभावी समर्थन सेट की मात्रा है,[30] इसलिए प्रभावी समर्थन सेट की मात्रा का व्युत्पन्न है, बहुत कुछ मिन्कोव्स्की-स्टेनर सूत्र की तरह। प्रमाण का शेष भाग एंट्रॉपी शक्ति असमानता का उपयोग करता है, जो ब्रून-मिन्कोव्स्की प्रमेय की तरह है|ब्रून-मिन्कोव्स्की असमानता। फिशर इंफॉर्मेशन आव्यूह का ट्रेस कारक के रूप में पाया जाता है .
अनुप्रयोग
प्रयोगों का इष्टतम डिजाइन
इष्टतम डिजाइन में फिशर जानकारी का व्यापक रूप से उपयोग किया जाता है। अनुमानक-भिन्नता और फिशर जानकारी की पारस्परिकता के कारण, भिन्नता को कम करना सूचना को अधिकतम करने से मेल खाता है।
जब रैखिक मॉडल (या अरैखिक प्रतिगमन) सांख्यिकीय मॉडल में कई पैरामीटर होते हैं, तो पैरामीटर अनुमानक का अपेक्षित मान कॉलम वेक्टर होता है और इसका सहप्रसरण आव्यूह आव्यूह (गणित) होता है। विचरण आव्यूह के व्युत्क्रम को सूचना आव्यूह कहा जाता है। चूंकि पैरामीटर वेक्टर के अनुमानक का भिन्नता आव्यूह है, भिन्नता को कम करने की समस्या जटिल है। सांख्यिकीय सिद्धांत का उपयोग करते हुए, सांख्यिकीविद् वास्तविक-मूल्यवान सारांश आँकड़ों का उपयोग करके सूचना-आव्यूह को संकुचित करते हैं; वास्तविक-मूल्यवान कार्य होने के कारण, इन सूचना मानदंडों को अधिकतम किया जा सकता है।
परंपरागत रूप से, सांख्यिकीविदों ने सहप्रसरण आव्यूह (एक निष्पक्ष अनुमानक के) के कुछ सारांश आंकड़ों पर विचार करके अनुमानकों और डिजाइनों का मूल्यांकन किया है, आमतौर पर सकारात्मक वास्तविक मूल्यों (जैसे निर्धारक या आव्यूह ट्रेस) के साथ। सकारात्मक वास्तविक संख्याओं के साथ काम करने से कई फायदे मिलते हैं: यदि एकल पैरामीटर के अनुमानक में सकारात्मक भिन्नता है, तो भिन्नता और फिशर जानकारी दोनों सकारात्मक वास्तविक संख्याएं हैं; इसलिए वे गैर-ऋणात्मक वास्तविक संख्याओं के उत्तल शंकु के सदस्य हैं (जिनके शून्येतर सदस्य इसी शंकु में व्युत्क्रम हैं)।
कई मापदंडों के लिए, सहप्रसरण मैट्रिसेस और सूचना मैट्रिसेस, चार्ल्स लोवेनर (लोवनर) के आदेश के तहत आंशिक क्रम में सदिश स्थान के आदेश में गैर-नकारात्मक-निश्चित सममित मैट्रिसेस के उत्तल शंकु के तत्व हैं। यह शंकु आव्यूह जोड़ और व्युत्क्रम के साथ-साथ सकारात्मक वास्तविक संख्याओं और आव्यूहों के गुणन के तहत बंद है। आव्यूह थ्योरी और लोवेनर ऑर्डर की प्रदर्शनी पुकेलशेम में दिखाई देती है।[31] अपरिवर्तनीय सिद्धांत के अर्थ में पारंपरिक इष्टतमता मानदंड सूचना आव्यूह के अपरिवर्तनीय हैं; बीजगणितीय रूप से, पारंपरिक इष्टतमता मानदंड (फिशर) सूचना आव्यूह (इष्टतम डिजाइन देखें) के eigenvalues के कार्यात्मक (गणित) हैं।
बायेसियन सांख्यिकी में पूर्व जेफरीस
बायेसियन सांख्यिकी में, फिशर की जानकारी का उपयोग जेफ़रीज़ पूर्व की गणना करने के लिए किया जाता है, जो कि निरंतर वितरण मापदंडों के लिए मानक, गैर-सूचनात्मक पूर्व है।[32]
कम्प्यूटेशनल न्यूरोसाइंस
फिशर की जानकारी का उपयोग न्यूरल कोड की सटीकता पर सीमाएं खोजने के लिए किया गया है। उस मामले में, एक्स आमतौर पर कम आयामी चर θ (जैसे उत्तेजना पैरामीटर) का प्रतिनिधित्व करने वाले कई न्यूरॉन्स की संयुक्त प्रतिक्रिया होती है। विशेष रूप से तंत्रिका प्रतिक्रियाओं के शोर में सहसंबंधों की भूमिका का अध्ययन किया गया है।[33]
भौतिक नियमों की व्युत्पत्ति
भौतिक कानूनों के आधार के रूप में बी. रॉय फ्रीडेन द्वारा प्रस्तुत विवादास्पद सिद्धांत में फिशर की जानकारी केंद्रीय भूमिका निभाती है, ऐसा दावा जो विवादित रहा है।[34]
मशीन लर्निंग
फिशर की जानकारी का उपयोग मशीन सीखने की तकनीकों में किया जाता है जैसे कि विपत्तिपूर्ण हस्तक्षेप#लोचदार वजन समेकन,[35] जो कृत्रिम तंत्रिका नेटवर्क में भयावह हस्तक्षेप को कम करता है।
दूसरे क्रम के ग्रेडिएंट डिसेंट नेटवर्क प्रशिक्षण में फिशर की जानकारी को हानि समारोह के हेस्सियन के विकल्प के रूप में इस्तेमाल किया जा सकता है।[36]
सापेक्ष एन्ट्रापी से संबंध
फिशर की जानकारी सापेक्ष एन्ट्रॉपी से संबंधित है।[37] दो वितरणों के बीच सापेक्ष एन्ट्रॉपी, या कुल्बैक-लीब्लर विचलन और रूप में लिखा जा सकता है
अब संभाव्यता वितरण के परिवार पर विचार करें द्वारा पैरामीट्रिज्ड . फिर परिवार में दो वितरणों के बीच कुल्बैक-लीब्लर विचलन को इस रूप में लिखा जा सकता है
अगर तय है, तो ही परिवार के दो वितरणों के बीच सापेक्ष एन्ट्रापी कम से कम हो जाती है . के लिए के करीब , कोई किसी श्रृंखला में पिछले व्यंजक को दूसरे क्रम तक विस्तारित कर सकता है:
लेकिन दूसरे क्रम के व्युत्पन्न को इस रूप में लिखा जा सकता है
इस प्रकार फिशर जानकारी अपने मापदंडों के संबंध में सशर्त वितरण के सापेक्ष एन्ट्रापी की वक्रता का प्रतिनिधित्व करती है।
इतिहास
फिशर जानकारी पर कई प्रारंभिक सांख्यिकीविदों द्वारा चर्चा की गई थी, विशेष रूप से फ्रांसिस य्सिड्रो एडगेवर्थ | एफ। वाई एडगेवर्थ।[38] उदाहरण के लिए, सैवेज[39] कहते हैं: इसमें [फिशर जानकारी], वह [फिशर] कुछ हद तक प्रत्याशित था (एडगेवर्थ 1908–9 esp। 502, 507–8, 662, 677–8, 82–5 और संदर्भ वह [एडगेवर्थ] पियर्सन सहित उद्धृत करता है और फाइलन 1898 [...])। कई प्रारंभिक ऐतिहासिक स्रोत हैं[40] और इस प्रारंभिक कार्य की कई समीक्षाएँ।[41][42][43]
यह भी देखें
- दक्षता (सांख्यिकी)
- देखी गई जानकारी
- फिशर सूचना मीट्रिक
- गठन मैट्रिक्स
- सूचना ज्यामिति
- जेफरीस पूर्व
- क्रैमर-राव बाउंड
- न्यूनतम फिशर जानकारी
- क्वांटम फिशर जानकारी
सूचना सिद्धांत में नियोजित अन्य उपाय:
- एंट्रॉपी (सूचना सिद्धांत)
- कुलबैक-लीब्लर डाइवर्जेंस
- स्वयं सूचना
टिप्पणियाँ
- ↑ Lehmann & Casella, p. 115
- ↑ Robert, Christian (2007). "Noninformative prior distributions". द बायेसियन चॉइस (2nd ed.). Springer. pp. 127–141. ISBN 978-0-387-71598-8.
- ↑ Le Cam, Lucien (1986). सांख्यिकीय निर्णय सिद्धांत में स्पर्शोन्मुख तरीके. New York: Springer. pp. 618–621. ISBN 0-387-96307-3.
- ↑ Kass, Robert E.; Tierney, Luke; Kadane, Joseph B. (1990). "The Validity of Posterior Expansions Based on Laplace's Method". In Geisser, S.; Hodges, J. S.; Press, S. J.; Zellner, A. (eds.). सांख्यिकी और अर्थमिति में बायेसियन और संभावना के तरीके. Elsevier. pp. 473–488. ISBN 0-444-88376-2.
- ↑ Frieden & Gatenby (2013)
- ↑ Suba Rao. "सांख्यिकीय अनुमान पर व्याख्यान" (PDF).
- ↑ Fisher (1922)
- ↑ Lehmann & Casella, eq. (2.5.16), Lemma 5.3, p.116.
- ↑ Schervish, Mark J. (1995). सांख्यिकी का सिद्धांत. New York, NY: Springer New York. p. 111. ISBN 978-1-4612-4250-5. OCLC 852790658.
- ↑ Cramer (1946)
- ↑ Rao (1945)
- ↑ Nielsen, Frank (2010). "Cramer-Rao lower bound and information geometry". Connected at Infinity II: 18–37. arXiv:1301.3578.
- ↑ Spall, J. C. (2005). "गैर-मानक सेटिंग्स में फिशर सूचना मैट्रिक्स की मोंटे कार्लो संगणना". Journal of Computational and Graphical Statistics. 14 (4): 889–909. doi:10.1198/106186005X78800. S2CID 16090098.
- ↑ Spall, J. C. (2008), "Improved Methods for Monte Carlo Estimation of the Fisher Information Matrix," Proceedings of the American Control Conference, Seattle, WA, 11–13 June 2008, pp. 2395–2400. https://doi.org/10.1109/ACC.2008.4586850
- ↑ Das, S.; Spall, J. C.; Ghanem, R. (2010). "पूर्व सूचना का उपयोग करते हुए फिशर सूचना मैट्रिक्स की कुशल मोंटे कार्लो संगणना". Computational Statistics and Data Analysis. 54 (2): 272–289. doi:10.1016/j.csda.2009.09.018.
- ↑ Barndorff-Nielsen, O. E.; Cox, D. R. (1994). निष्कर्ष और स्पर्शोन्मुख. Chapman & Hall. ISBN 9780412494406.
- ↑ Cox, D. R.; Reid, N. (1987). "पैरामीटर ऑर्थोगोनलिटी और अनुमानित सशर्त अनुमान (चर्चा के साथ)". J. Royal Statistical Soc. B. 49: 1–39.
- ↑ Watanabe, S. (2008), Accardi, L.; Freudenberg, W.; Ohya, M. (eds.), "Algebraic geometrical method in singular statistical estimation", Quantum Bio-Informatics, World Scientific: 325–336, Bibcode:2008qbi..conf..325W, doi:10.1142/9789812793171_0024, ISBN 978-981-279-316-4.
- ↑ Watanabe, S (2013). "एक व्यापक रूप से लागू बायेसियन सूचना मानदंड". Journal of Machine Learning Research. 14: 867–897.
- ↑ Malagò, Luigi; Pistone, Giovanni (2015). स्टोचैस्टिक अनुकूलन के मद्देनजर गॉसियन वितरण की सूचना ज्यामिति. pp. 150–162. doi:10.1145/2725494.2725510. ISBN 9781450334341. S2CID 693896.
{{cite book}}
:|journal=
ignored (help) - ↑ Mardia, K. V.; Marshall, R. J. (1984). "स्थानिक प्रतिगमन में अवशिष्ट सहप्रसरण के लिए मॉडलों का अधिकतम संभावना अनुमान". Biometrika. 71 (1): 135–46. doi:10.1093/biomet/71.1.135.
- ↑ Zamir, R. (1998). "डेटा प्रोसेसिंग तर्क के माध्यम से फिशर सूचना असमानता का प्रमाण". IEEE Transactions on Information Theory. 44 (3): 1246–1250. CiteSeerX 10.1.1.49.6628. doi:10.1109/18.669301.
- ↑ Polyanskiy, Yury (2017). "Lecture notes on information theory, chapter 29, ECE563 (UIUC)" (PDF). Lecture notes on information theory. Archived (PDF) from the original on 2022-05-24. Retrieved 2022-05-24.
- ↑ Schervish, Mark J. (1995). सिद्धांत सांख्यिकी. Springer-Verlag. p. 113.
- ↑ Lehmann & Casella, eq. (2.5.11).
- ↑ Lehmann & Casella, eq. (2.6.16)
- ↑ Janke, W.; Johnston, D. A.; Kenna, R. (2004). "सूचना ज्यामिति और चरण संक्रमण". Physica A. 336 (1–2): 181. arXiv:cond-mat/0401092. Bibcode:2004PhyA..336..181J. doi:10.1016/j.physa.2004.01.023. S2CID 119085942.
- ↑ Prokopenko, M.; Lizier, Joseph T.; Lizier, J. T.; Obst, O.; Wang, X. R. (2011). "ऑर्डर पैरामीटर्स के लिए फिशर की जानकारी से संबंधित". Physical Review E. 84 (4): 041116. Bibcode:2011PhRvE..84d1116P. doi:10.1103/PhysRevE.84.041116. PMID 22181096. S2CID 18366894.
- ↑ Costa, M.; Cover, T. (Nov 1984). "एंट्रॉपी पावर असमानता और ब्रून-मिन्कोव्स्की असमानता की समानता पर". IEEE Transactions on Information Theory. 30 (6): 837–839. doi:10.1109/TIT.1984.1056983. ISSN 1557-9654.
- ↑ Cover, Thomas M. (2006). सूचना सिद्धांत के तत्व. Joy A. Thomas (2nd ed.). Hoboken, N.J.: Wiley-Interscience. p. 256. ISBN 0-471-24195-4. OCLC 59879802.
- ↑ Pukelsheim, Friedrick (1993). प्रयोगों का इष्टतम डिजाइन. New York: Wiley. ISBN 978-0-471-61971-0.
- ↑ Bernardo, Jose M.; Smith, Adrian F. M. (1994). बायेसियन थ्योरी. New York: John Wiley & Sons. ISBN 978-0-471-92416-6.
- ↑ Abbott, Larry F.; Dayan, Peter (1999). "जनसंख्या कोड की सटीकता पर सहसंबद्ध परिवर्तनशीलता का प्रभाव". Neural Computation. 11 (1): 91–101. doi:10.1162/089976699300016827. PMID 9950724. S2CID 2958438.
- ↑ Streater, R. F. (2007). भौतिकी में और उससे परे खोए हुए कारण. Springer. p. 69. ISBN 978-3-540-36581-5.
- ↑ Kirkpatrick, James; Pascanu, Razvan; Rabinowitz, Neil; Veness, Joel; Desjardins, Guillaume; Rusu, Andrei A.; Milan, Kieran; Quan, John; Ramalho, Tiago (2017-03-28). "तंत्रिका नेटवर्क में विपत्तिपूर्ण विस्मृति पर काबू पाना". Proceedings of the National Academy of Sciences (in English). 114 (13): 3521–3526. doi:10.1073/pnas.1611835114. ISSN 0027-8424. PMC 5380101. PMID 28292907.
- ↑ Martens, James (August 2020). "प्राकृतिक ढाल पद्धति पर नई अंतर्दृष्टि और दृष्टिकोण". Journal of Machine Learning Research (21). arXiv:1412.1193.
- ↑ Gourieroux & Montfort (1995), page 87
- ↑ Savage (1976)
- ↑ Savage(1976), page 156
- ↑ Edgeworth (September 1908, December 1908)
- ↑ Pratt (1976)
- ↑ Stigler (1978, 1986, 1999)
- ↑ Hald (1998, 1999)
संदर्भ
- Cramér, Harald (1946). Mathematical methods of statistics. Princeton mathematical series. Princeton: Princeton University Press. ISBN 0691080046.
- Edgeworth, F. Y. (Jun 1908). "On the Probable Errors of Frequency-Constants". Journal of the Royal Statistical Society. 71 (2): 381–397. doi:10.2307/2339461. JSTOR 2339461.
- Edgeworth, F. Y. (Sep 1908). "On the Probable Errors of Frequency-Constants (Contd.)". Journal of the Royal Statistical Society. 71 (3): 499–512. doi:10.2307/2339293. JSTOR 2339293.
- Edgeworth, F. Y. (Dec 1908). "On the Probable Errors of Frequency-Constants (Contd.)". Journal of the Royal Statistical Society. 71 (4): 651–678. doi:10.2307/2339378. JSTOR 2339378.
- Fisher, R. A. (1922-01-01). "On the mathematical foundations of theoretical statistics". Philosophical Transactions of the Royal Society of London, Series A. 222 (594–604): 309–368. Bibcode:1922RSPTA.222..309F. doi:10.1098/rsta.1922.0009.
- Frieden, B. R. (2004) Science from Fisher Information: A Unification. Cambridge Univ. Press. ISBN 0-521-00911-1.
- Frieden, B. Roy; Gatenby, Robert A. (2013). "Principle of maximum Fisher information from Hardy's axioms applied to statistical systems". Physical Review E. 88 (4): 042144. arXiv:1405.0007. Bibcode:2013PhRvE..88d2144F. doi:10.1103/PhysRevE.88.042144. PMC 4010149. PMID 24229152.
- Hald, A. (May 1999). "On the History of Maximum Likelihood in Relation to Inverse Probability and Least Squares". Statistical Science. 14 (2): 214–222. doi:10.1214/ss/1009212248. JSTOR 2676741.
- Hald, A. (1998). A History of Mathematical Statistics from 1750 to 1930. New York: Wiley. ISBN 978-0-471-17912-2.
- Lehmann, E. L.; Casella, G. (1998). Theory of Point Estimation (2nd ed.). Springer. ISBN 978-0-387-98502-2.
- Le Cam, Lucien (1986). Asymptotic Methods in Statistical Decision Theory. Springer-Verlag. ISBN 978-0-387-96307-5.
- Pratt, John W. (May 1976). "F. Y. Edgeworth and R. A. Fisher on the Efficiency of Maximum Likelihood Estimation". Annals of Statistics. 4 (3): 501–514. doi:10.1214/aos/1176343457. JSTOR 2958222.
- Rao, C. Radhakrishna (1945). "Information and accuracy attainable in the estimation of statistical parameters". Bulletin of the Calcutta Mathematical Society. Springer Series in Statistics. 37: 81–91. doi:10.1007/978-1-4612-0919-5_16. ISBN 978-0-387-94037-3. S2CID 117034671.
- Savage, L. J. (May 1976). "On Rereading R. A. Fisher". Annals of Statistics. 4 (3): 441–500. doi:10.1214/aos/1176343456. JSTOR 2958221.
- Schervish, Mark J. (1995). Theory of Statistics. New York: Springer. ISBN 978-0-387-94546-0.
- Stigler, S. M. (1986). The History of Statistics: The Measurement of Uncertainty before 1900. Harvard University Press. ISBN 978-0-674-40340-6.[page needed]
- Stigler, S. M. (1978). "Francis Ysidro Edgeworth, Statistician". Journal of the Royal Statistical Society, Series A. 141 (3): 287–322. doi:10.2307/2344804. JSTOR 2344804.
- Stigler, S. M. (1999). Statistics on the Table: The History of Statistical Concepts and Methods. Harvard University Press. ISBN 978-0-674-83601-3.[page needed]
- Van Trees, H. L. (1968). Detection, Estimation, and Modulation Theory, Part I. New York: Wiley. ISBN 978-0-471-09517-0.