मिन-एन्ट्रॉपी: Difference between revisions

From Vigyanwiki
(Created page with "सूचना सिद्धांत में मिन-एन्ट्रॉपी, रेनी एन्ट्रॉपी|एंट्रॉपी के रे...")
 
No edit summary
Line 1: Line 1:
[[सूचना सिद्धांत]] में मिन-एन्ट्रॉपी, रेनी एन्ट्रॉपी|एंट्रॉपी के रेनी परिवार में सबसे छोटी है, जो परिणामों के एक सेट की अप्रत्याशितता को मापने के रेनी एन्ट्रॉपी#मिन-एन्ट्रॉपी तरीके के अनुरूप है, जो कि संभाव्यता के नकारात्मक लघुगणक के रूप में है। ''सबसे संभावित'' परिणाम। एक समान वितरण के लिए विभिन्न रेनी एन्ट्रॉपी सभी समान हैं, लेकिन विभिन्न तरीकों से एक गैर-समान वितरण की अप्रत्याशितता को मापते हैं। न्यूनतम-एंट्रॉपी कभी भी सामान्य या [[शैनन एन्ट्रापी]] (जो परिणामों की औसत अप्रत्याशितता को मापती है) से अधिक नहीं होती है और बदले में यह कभी भी हार्टले या रेनी एन्ट्रॉपी#हार्टले या मैक्स-एंट्रॉपी|मैक्स-एंट्रॉपी से अधिक नहीं होती है, जिसे इस रूप में परिभाषित किया गया है शून्येतर संभावना वाले परिणामों की ''संख्या'' का लघुगणक।
[[सूचना सिद्धांत]] में '''मिन-एन्ट्रॉपी''', रेनी एन्ट्रॉपी, एंट्रॉपी के रेनी समूह में सबसे छोटी है, जो परिणामों के एक सेट की अप्रत्याशितता को मापने के रेनी एन्ट्रॉपी, मिन-एन्ट्रॉपी तरीके के अनुरूप है, जो कि संभाव्यता के ऋणात्मक लघुगणक के रूप में ''सबसे संभावित'' परिणाम है। एक समान वितरण के लिए विभिन्न रेनी एन्ट्रॉपी सभी समान हैं, लेकिन विभिन्न तरीकों से एक गैर-समान वितरण की अप्रत्याशितता को मापते हैं। मिन-एन्ट्रॉपी कभी भी सामान्य या [[शैनन एन्ट्रापी]] (जो परिणामों की औसत अप्रत्याशितता को मापती है) से अधिक नहीं होती है और बदले में यह कभी भी हार्टले या रेनी एन्ट्रॉपी, हार्टले या मैक्स-एंट्रॉपी|मैक्स-एंट्रॉपी से अधिक नहीं होती है, जिसे इस रूप में परिभाषित किया गया है शून्येतर संभावना वाले परिणामों की ''संख्या'' का लघुगणक।


शास्त्रीय शैनन एन्ट्रॉपी और इसके क्वांटम सामान्यीकरण, [[वॉन न्यूमैन एन्ट्रापी]] के साथ, कोई भी मिन-एन्ट्रॉपी के एक सशर्त संस्करण को परिभाषित कर सकता है। सशर्त क्वांटम मिन-एन्ट्रॉपी एक-शॉट, या रूढ़िवादी, सशर्त क्वांटम एन्ट्रॉपी का एनालॉग है।
चिरसम्मत शैनन एन्ट्रॉपी और इसके क्वांटम सामान्यीकरण, [[वॉन न्यूमैन एन्ट्रापी]] के साथ, कोई भी मिन-एन्ट्रॉपी के एक सशर्त संस्करण को परिभाषित कर सकता है। सशर्त क्वांटम मिन-एन्ट्रॉपी एक-शॉट, या रूढ़िवादी, सशर्त क्वांटम एन्ट्रॉपी का एनालॉग है।


एक सशर्त सूचना माप की व्याख्या करने के लिए, मान लीजिए कि ऐलिस और बॉब को एक द्विदलीय क्वांटम स्थिति साझा करनी थी <math>\rho_{AB}</math>. ऐलिस के पास सिस्टम तक पहुंच है <math>A</math> और बॉब सिस्टम के लिए <math>B</math>. सशर्त एन्ट्रापी बॉब द्वारा अपने सिस्टम से नमूना लेने पर ऐलिस की स्थिति के बारे में औसत अनिश्चितता को मापती है। मिन-एंट्रॉपी की व्याख्या किसी राज्य की अधिकतम उलझी हुई स्थिति से दूरी के रूप में की जा सकती है।
एक सशर्त सूचना माप की व्याख्या करने के लिए, मान लीजिए कि ऐलिस और बॉब को एक द्विदलीय क्वांटम स्थिति साझा करनी थी <math>\rho_{AB}</math>. ऐलिस के पास सिस्टम तक पहुंच है <math>A</math> और बॉब सिस्टम के लिए <math>B</math>. सशर्त एन्ट्रापी बॉब द्वारा अपने सिस्टम से नमूना लेने पर ऐलिस की स्थिति के बारे में औसत अनिश्चितता को मापती है। मिन-एंट्रॉपी की व्याख्या किसी अवस्था की अधिकतम उलझी हुई स्थिति से दूरी के रूप में की जा सकती है।


यह अवधारणा गोपनीयता प्रवर्धन के संदर्भ में क्वांटम क्रिप्टोग्राफी में उपयोगी है (उदाहरण के लिए देखें)। <ref>{{cite journal | last1=Vazirani | first1=Umesh | last2=Vidick | first2=Thomas | title=पूरी तरह से डिवाइस-स्वतंत्र क्वांटम कुंजी वितरण| journal=Physical Review Letters | volume=113 | issue=14 | date=29 September 2014 | issn=0031-9007 | doi=10.1103/physrevlett.113.140501 | page=140501|arxiv=1210.1810 | pmid=25325625| bibcode=2014PhRvL.113n0501V | s2cid=119299119 }}</ref>).
यह अवधारणा गोपनीयता प्रवर्धन के संदर्भ में क्वांटम क्रिप्टोग्राफी में उपयोगी है (उदाहरण के लिए देखें)। <ref>{{cite journal | last1=Vazirani | first1=Umesh | last2=Vidick | first2=Thomas | title=पूरी तरह से डिवाइस-स्वतंत्र क्वांटम कुंजी वितरण| journal=Physical Review Letters | volume=113 | issue=14 | date=29 September 2014 | issn=0031-9007 | doi=10.1103/physrevlett.113.140501 | page=140501|arxiv=1210.1810 | pmid=25325625| bibcode=2014PhRvL.113n0501V | s2cid=119299119 }}</ref>).


== शास्त्रीय वितरण के लिए परिभाषा ==
== चिरसम्मत वितरण के लिए परिभाषा ==
अगर <math>P=(p_1,...,p_n)</math> एक शास्त्रीय परिमित संभाव्यता वितरण है, इसकी न्यूनतम-एन्ट्रापी को इस प्रकार परिभाषित किया जा सकता है<ref>{{cite journal|last1=König|first1=Robert|last2=Renner|first2=Renato|author-link2=Renato Renner|last3=Schaffner|first3=Christian|year=2009|title=न्यूनतम और अधिकतम-एन्ट्रॉपी का परिचालनात्मक अर्थ|journal=IEEE Transactions on Information Theory|publisher=Institute of Electrical and Electronics Engineers (IEEE)|volume=55|issue=9|pages=4337–4347|arxiv=0807.1338|doi=10.1109/tit.2009.2025545|issn=0018-9448|s2cid=17160454}}</ref> <math display="block">H_{\rm min}(\boldsymbol P) = \log\frac{1}{P_{\rm max}},
अगर <math>P=(p_1,...,p_n)</math> एक चिरसम्मत परिमित संभाव्यता वितरण है, इसकी न्यूनतम-एन्ट्रापी को इस प्रकार परिभाषित किया जा सकता है<ref>{{cite journal|last1=König|first1=Robert|last2=Renner|first2=Renato|author-link2=Renato Renner|last3=Schaffner|first3=Christian|year=2009|title=न्यूनतम और अधिकतम-एन्ट्रॉपी का परिचालनात्मक अर्थ|journal=IEEE Transactions on Information Theory|publisher=Institute of Electrical and Electronics Engineers (IEEE)|volume=55|issue=9|pages=4337–4347|arxiv=0807.1338|doi=10.1109/tit.2009.2025545|issn=0018-9448|s2cid=17160454}}</ref> <math display="block">H_{\rm min}(\boldsymbol P) = \log\frac{1}{P_{\rm max}},
\qquad P_{\rm max}\equiv \max_i p_i.</math>मात्रा के नाम को उचित ठहराने का एक तरीका यह है कि इसकी तुलना एन्ट्रापी की अधिक मानक परिभाषा से की जाए, जिसमें लिखा है <math>H(\boldsymbol P)=\sum_i p_i\log(1/p_i)</math>, और इस प्रकार इसे अपेक्षित मूल्य के रूप में संक्षिप्त रूप से लिखा जा सकता है <math>\log (1/p_i)</math> वितरण पर. यदि इस मात्रा का अपेक्षित मूल्य लेने के बजाय हम इसका न्यूनतम मूल्य लेते हैं, तो हमें ठीक उपरोक्त परिभाषा मिलती है <math>H_{\rm min}(\boldsymbol P)</math>.
\qquad P_{\rm max}\equiv \max_i p_i.</math>मात्रा के नाम को उचित ठहराने का एक तरीका यह है कि इसकी तुलना एन्ट्रापी की अधिक मानक परिभाषा से की जाए, जिसमें लिखा है <math>H(\boldsymbol P)=\sum_i p_i\log(1/p_i)</math>, और इस प्रकार इसे अपेक्षित मूल्य के रूप में संक्षिप्त रूप से लिखा जा सकता है <math>\log (1/p_i)</math> वितरण पर, यदि इस मात्रा का अपेक्षित मूल्य लेने के बजाय हम इसका न्यूनतम मूल्य लेते हैं, तो हमें ठीक उपरोक्त परिभाषा मिलती है <math>H_{\rm min}(\boldsymbol P)</math>.


== क्वांटम अवस्थाओं की परिभाषा ==
== क्वांटम अवस्थाओं की परिभाषा ==


क्वांटम राज्यों के लिए न्यूनतम-एन्ट्रापी को परिभाषित करने का एक प्राकृतिक तरीका सरल अवलोकन का लाभ उठाना है कि क्वांटम राज्यों को कुछ आधारों पर मापा जाने पर संभाव्यता वितरण में परिणाम मिलता है। हालाँकि इसमें अतिरिक्त कठिनाई यह है कि एक एकल क्वांटम स्थिति के परिणामस्वरूप अनंत रूप से कई संभावित संभाव्यता वितरण हो सकते हैं, यह इस बात पर निर्भर करता है कि इसे कैसे मापा जाता है। फिर एक प्राकृतिक पथ को क्वांटम अवस्था दी जाती है <math>\rho</math>, अभी भी परिभाषित करने के लिए <math>H_{\rm min}(\rho)</math> जैसा <math>\log(1/P_{\rm max}) </math>, लेकिन इस बार परिभाषित <math>P_{\rm max} </math> अधिकतम संभव संभावना के रूप में जिसे मापकर प्राप्त किया जा सकता है <math>\rho </math>, सभी संभावित प्रक्षेप्य मापों को अधिकतम करना।
क्वांटम अवस्थाओं के लिए न्यूनतम-एन्ट्रापी को परिभाषित करने का एक प्राकृतिक तरीका सरल अवलोकन का लाभ उठाना है कि क्वांटम अवस्थाओं को कुछ आधारों पर मापा जाने पर संभाव्यता वितरण में परिणाम मिलता है। हालाँकि इसमें अतिरिक्त कठिनाई यह है कि एक एकल क्वांटम स्थिति के परिणामस्वरूप अनंत रूप से कई संभावित संभाव्यता वितरण हो सकते हैं, यह इस बात पर निर्भर करता है कि इसे कैसे मापा जाता है। फिर एक प्राकृतिक पथ को क्वांटम अवस्था दी जाती है <math>\rho</math>, अभी भी परिभाषित करने के लिए <math>H_{\rm min}(\rho)</math> जैसा <math>\log(1/P_{\rm max}) </math>, लेकिन इस बार परिभाषित <math>P_{\rm max} </math> अधिकतम संभव संभावना के रूप में जिसे मापकर प्राप्त किया जा सकता है <math>\rho </math>, सभी संभावित प्रक्षेप्य मापों को अधिकतम करना।


औपचारिक रूप से, यह परिभाषा प्रदान करेगा <math display="block">H_{\rm min}(\rho) = \max_\Pi \log \frac{1}{\max_i \operatorname{tr}(\Pi_i \rho)}
औपचारिक रूप से, यह परिभाषा प्रदान करेगा <math display="block">H_{\rm min}(\rho) = \max_\Pi \log \frac{1}{\max_i \operatorname{tr}(\Pi_i \rho)}
= - \max_\Pi \log \max_i \operatorname{tr}(\Pi_i \rho), </math>जहां हम सभी प्रक्षेप्य मापों के सेट को अधिकतम कर रहे हैं <math>\Pi=(\Pi_i)_i</math>, <math>\Pi_i</math> [[ POVM ]] औपचारिकता में माप परिणामों का प्रतिनिधित्व करें, और <math>\operatorname{tr}(\Pi_i \rho)</math> इसलिए अवलोकन की संभावना है <math>i</math>-वाँ परिणाम जब माप है <math>\Pi</math>.
= - \max_\Pi \log \max_i \operatorname{tr}(\Pi_i \rho), </math>जहां हम सभी प्रक्षेप्य मापों के सेट को अधिकतम कर रहे हैं <math>\Pi=(\Pi_i)_i</math>, <math>\Pi_i</math> [[ POVM | पीओवीएम]] औपचारिकता में माप परिणामों का प्रतिनिधित्व करें, और <math>\operatorname{tr}(\Pi_i \rho)</math> इसलिए अवलोकन की संभावना है <math>i</math>-वाँ परिणाम जब माप है <math>\Pi</math>.


दोहरे अधिकतमकरण को लिखने के लिए एक अधिक संक्षिप्त विधि यह देखना है कि किसी भी POVM का कोई भी तत्व एक हर्मिटियन ऑपरेटर है जैसे कि <math>0\le \Pi\le I</math>, और इस प्रकार हम इन्हें प्राप्त करने के लिए समान रूप से सीधे अधिकतम कर सकते हैं <math display="block">H_{\rm min}(\rho) = -
दोहरे अधिकतमकरण को लिखने के लिए एक अधिक संक्षिप्त विधि यह देखना है कि किसी भी पीओवीएम का कोई भी तत्व एक हर्मिटियन ऑपरेटर है जैसे कि <math>0\le \Pi\le I</math>, और इस प्रकार हम इन्हें प्राप्त करने के लिए समान रूप से सीधे अधिकतम कर सकते हैं <math display="block">H_{\rm min}(\rho) = -
\max_{0\le \Pi\le I} \log \operatorname{tr}(\Pi \rho).</math>वास्तव में, यह अधिकतमीकरण स्पष्ट रूप से किया जा सकता है और अधिकतम तब प्राप्त होता है जब <math>\Pi</math> (किसी भी) के सबसे बड़े eigenvalue(ओं) पर प्रक्षेपण है <math>\rho</math>. इस प्रकार हमें न्यूनतम-एन्ट्रॉपी के लिए एक और अभिव्यक्ति मिलती है: <math display="block">H_{\rm min}(\rho) = -\log \|\rho\|_{\rm op},</math>यह याद रखना कि हर्मिटियन सकारात्मक अर्धनिश्चित ऑपरेटर का ऑपरेटर मानदंड उसके सबसे बड़े आइगेनवेल के बराबर होता है।
\max_{0\le \Pi\le I} \log \operatorname{tr}(\Pi \rho).</math>वास्तव में, यह अधिकतमीकरण स्पष्ट रूप से किया जा सकता है और अधिकतम तब प्राप्त होता है जब <math>\Pi</math> (किसी भी) के सबसे बड़े आइजेनवैल्यू(ओं) पर प्रक्षेपण है <math>\rho</math>. इस प्रकार हमें मिन-एन्ट्रॉपी के लिए एक और अभिव्यक्ति मिलती है: <math display="block">H_{\rm min}(\rho) = -\log \|\rho\|_{\rm op},</math>यह याद रखना कि हर्मिटियन घनात्मक अर्धनिश्चित ऑपरेटर का ऑपरेटर मानदंड उसके सबसे बड़े आइगेनवेल के बराबर होता है।


== सशर्त एन्ट्रॉपी ==
== सशर्त एन्ट्रॉपी ==
होने देना <math>\rho_{AB}</math> अंतरिक्ष पर एक द्विपक्षीय घनत्व ऑपरेटर बनें <math>\mathcal{H}_A \otimes \mathcal{H}_B</math>. की न्यूनतम एन्ट्रापी <math>A</math> पर वातानुकूलित <math>B</math> होने के लिए परिभाषित किया गया है
मान लीजिये <math>\rho_{AB}</math> अंतरिक्ष पर एक द्विपक्षीय घनत्व ऑपरेटर बनें <math>\mathcal{H}_A \otimes \mathcal{H}_B</math>. की मिन-एन्ट्रॉपी <math>A</math> पर वातानुकूलित <math>B</math> होने के लिए परिभाषित किया गया है


:::<math>H_{\min}(A|B)_{\rho} \equiv -\inf_{\sigma_B}D_{\max}(\rho_{AB}\|I_A \otimes \sigma_B)</math>
:::<math>H_{\min}(A|B)_{\rho} \equiv -\inf_{\sigma_B}D_{\max}(\rho_{AB}\|I_A \otimes \sigma_B)</math>
Line 28: Line 28:


:::<math>D_{\max}(\rho\|\sigma) = \inf_{\lambda}\{\lambda:\rho \leq 2^{\lambda}\sigma\}</math>
:::<math>D_{\max}(\rho\|\sigma) = \inf_{\lambda}\{\lambda:\rho \leq 2^{\lambda}\sigma\}</math>
चिकनी न्यूनतम-एन्ट्रॉपी को न्यूनतम-एन्ट्रॉपी के संदर्भ में परिभाषित किया गया है।
स्मूथ मिन-एन्ट्रॉपी को मिन-एन्ट्रॉपी के संदर्भ में परिभाषित किया गया है।


:::<math>H_{\min}^{\epsilon}(A|B)_{\rho} = \sup_{\rho'} H_{\min}(A|B)_{\rho'}</math>
:::<math>H_{\min}^{\epsilon}(A|B)_{\rho} = \sup_{\rho'} H_{\min}(A|B)_{\rho'}</math>
जहां घनत्व ऑपरेटरों पर सुपर और इन्फ रेंज होती है <math>\rho'_{AB}</math> जो हैं <math>\epsilon</math>-के करीब <math>\rho_{AB}
जहां घनत्व ऑपरेटरों पर सुपर और इन्फ रेंज होती है <math>\rho'_{AB}</math> जो हैं <math>\epsilon</math>-के निकट <math>\rho_{AB}
</math>. यह उपाय <math>\epsilon</math>-बंद को शुद्ध दूरी के संदर्भ में परिभाषित किया गया है
</math>. यह उपाय <math>\epsilon</math>-बंद को शुद्ध दूरी के संदर्भ में परिभाषित किया गया है


:::<math>P(\rho,\sigma) = \sqrt{1 - F(\rho,\sigma)^2}</math>
:::<math>P(\rho,\sigma) = \sqrt{1 - F(\rho,\sigma)^2}</math>
कहाँ <math> F(\rho,\sigma)</math> क्वांटम राज्यों की निष्ठा माप है।
जहाँ <math> F(\rho,\sigma)</math> क्वांटम अवस्थाओंकी निष्ठा माप है।


इन मात्राओं को वॉन न्यूमैन एन्ट्रापी के सामान्यीकरण के रूप में देखा जा सकता है। दरअसल, वॉन न्यूमैन एन्ट्रॉपी को इस प्रकार व्यक्त किया जा सकता है
इन परिस्थितियों को वॉन न्यूमैन एन्ट्रापी के सामान्यीकरण के रूप में देखा जा सकता है। दरअसल, वॉन न्यूमैन एन्ट्रॉपी को इस प्रकार व्यक्त किया जा सकता है


:::<math>S(A|B)_{\rho} = \lim_{\epsilon\rightarrow 0}\lim_{n\rightarrow\infty}\frac{1}{n}H_{\min}^{\epsilon}(A^n|B^n)_{\rho^{\otimes n}}~.</math>
:::<math>S(A|B)_{\rho} = \lim_{\epsilon\rightarrow 0}\lim_{n\rightarrow\infty}\frac{1}{n}H_{\min}^{\epsilon}(A^n|B^n)_{\rho^{\otimes n}}~.</math>
इसे पूर्णतः क्वांटम एसिम्प्टोटिक समविभाजन प्रमेय कहा जाता है।<ref>{{cite journal | last1=Tomamichel | first1=Marco | last2=Colbeck | first2=Roger | last3=Renner | first3=Renato | title=एक पूरी तरह से क्वांटम स्पर्शोन्मुख समविभाजन संपत्ति| journal=IEEE Transactions on Information Theory | publisher=Institute of Electrical and Electronics Engineers (IEEE) | volume=55 | issue=12 | year=2009 | issn=0018-9448 | doi=10.1109/tit.2009.2032797 | pages=5840–5847| arxiv=0811.1221 | s2cid=12062282 }}</ref>
इसे पूर्णतः क्वांटम एसिम्प्टोटिक समविभाजन प्रमेय कहा जाता है।<ref>{{cite journal | last1=Tomamichel | first1=Marco | last2=Colbeck | first2=Roger | last3=Renner | first3=Renato | title=एक पूरी तरह से क्वांटम स्पर्शोन्मुख समविभाजन संपत्ति| journal=IEEE Transactions on Information Theory | publisher=Institute of Electrical and Electronics Engineers (IEEE) | volume=55 | issue=12 | year=2009 | issn=0018-9448 | doi=10.1109/tit.2009.2032797 | pages=5840–5847| arxiv=0811.1221 | s2cid=12062282 }}</ref>
चिकनी एन्ट्रॉपी वॉन न्यूमैन एन्ट्रॉपी के साथ कई दिलचस्प गुण साझा करती हैं। उदाहरण के लिए, सुचारु न्यूनतम-एन्ट्रॉपी डेटा-प्रोसेसिंग असमानता को संतुष्ट करती है:<ref>Renato Renner, "Security of Quantum Key Distribution", Ph.D. Thesis, Diss. ETH No. 16242 {{arxiv| quant-ph/0512258}}</ref>
स्मूथ एन्ट्रॉपी वॉन न्यूमैन एन्ट्रॉपी के साथ कई दिलचस्प गुण साझा करती हैं। उदाहरण के लिए, सुचारु मिन-एन्ट्रॉपी डेटा-प्रोसेसिंग असमानता को संतुष्ट करती है:<ref>Renato Renner, "Security of Quantum Key Distribution", Ph.D. Thesis, Diss. ETH No. 16242 {{arxiv| quant-ph/0512258}}</ref>
:::<math>H_{\min}^{\epsilon}(A|B)_{\rho} \geq H_{\min}^{\epsilon}(A|BC)_{\rho}~.</math>
:::<math>H_{\min}^{\epsilon}(A|B)_{\rho} \geq H_{\min}^{\epsilon}(A|BC)_{\rho}~.</math>


Line 49: Line 49:
अब से, हम सबस्क्रिप्ट छोड़ देंगे <math>\rho</math> मिन-एंट्रॉपी से जब यह संदर्भ से स्पष्ट होता है कि इसका मूल्यांकन किस स्थिति में किया जाता है।
अब से, हम सबस्क्रिप्ट छोड़ देंगे <math>\rho</math> मिन-एंट्रॉपी से जब यह संदर्भ से स्पष्ट होता है कि इसका मूल्यांकन किस स्थिति में किया जाता है।


=== शास्त्रीय जानकारी के बारे में अनिश्चितता के रूप में न्यूनतम-एन्ट्रापी ===
=== चिरसम्मत जानकारी के बारे में अनिश्चितता के रूप में न्यूनतम-एन्ट्रापी ===
मान लीजिए कि एक एजेंट के पास क्वांटम सिस्टम तक पहुंच थी <math>B</math> किसका राज्य <math>\rho_{B}^x</math> कुछ शास्त्रीय चर पर निर्भर करता है <math>X</math>. इसके अलावा, मान लीजिए कि इसका प्रत्येक तत्व <math>x</math> कुछ वितरण के अनुसार वितरित किया जाता है <math>P_X(x)</math>. इसे सिस्टम पर निम्नलिखित स्थिति द्वारा वर्णित किया जा सकता है <math>XB</math>.
मान लीजिए कि एक एजेंट के पास क्वांटम सिस्टम तक पहुंच थी <math>B</math> किसका अवस्था <math>\rho_{B}^x</math> कुछ चिरसम्मत चर पर निर्भर करता है <math>X</math>. इसके अलावा, मान लीजिए कि इसका प्रत्येक तत्व <math>x</math> कुछ वितरण के अनुसार वितरित किया जाता है <math>P_X(x)</math>. इसे सिस्टम पर निम्नलिखित स्थिति द्वारा वर्णित किया जा सकता है <math>XB</math>.


:::<math>\rho_{XB} = \sum_x P_X (x) |x\rangle\langle x| \otimes \rho_{B}^x ,</math>
:::<math>\rho_{XB} = \sum_x P_X (x) |x\rangle\langle x| \otimes \rho_{B}^x ,</math>
कहाँ <math>\{|x\rangle\}</math> एक लंबात्मक आधार बनाएं। हम जानना चाहेंगे कि एजेंट क्लासिकल वेरिएबल के बारे में क्या सीख सकता है <math>x</math>. होने देना <math>p_g(X|B)</math> वह प्रायिकता हो जिसका एजेंट अनुमान लगाता है <math>X</math> इष्टतम माप रणनीति का उपयोग करते समय
जहाँ <math>\{|x\rangle\}</math> एक लंबात्मक आधार बनाएं। हम जानना चाहेंगे कि एजेंट क्लासिकल वेरिएबल के बारे में क्या सीख सकता है <math>x</math>. मान लीजिये <math>p_g(X|B)</math> वह प्रायिकता हो जिसका एजेंट अनुमान लगाता है <math>X</math> इष्टतम माप रणनीति का उपयोग करते समय


:::<math>p_g(X|B) = \sum_x P_X(x)tr(E_x \rho_B^x) ,</math>
:::<math>p_g(X|B) = \sum_x P_X(x)tr(E_x \rho_B^x) ,</math>
कहाँ <math>E_x</math> वह POVM है जो इस अभिव्यक्ति को अधिकतम करता है। इसे दिखाया जा सकता है{{Citation needed|date=June 2022}} कि इस इष्टतम को न्यूनतम-एन्ट्रापी के रूप में व्यक्त किया जा सकता है
जहाँ <math>E_x</math> वह पीओवीएम है जो इस अभिव्यक्ति को अधिकतम करता है। इसे दिखाया जा सकता है कि इस इष्टतम को न्यूनतम-एन्ट्रापी के रूप में व्यक्त किया जा सकता है


:::<math>p_g(X|B) = 2^{-H_{\min}(X|B)}~.</math>
:::<math>p_g(X|B) = 2^{-H_{\min}(X|B)}~.</math>
यदि राज्य <math>\rho_{XB}</math> एक उत्पाद अवस्था है अर्थात <math>\rho_{XB} = \sigma_X \otimes \tau_B</math> कुछ घनत्व ऑपरेटरों के लिए <math>\sigma_X</math> और <math>\tau_B</math>, तो सिस्टम के बीच कोई संबंध नहीं है <math>X</math> और <math>B</math>. इस मामले में, यह पता चला है <math>2^{-H_{\min}(X|B)} = \max_x P_X(x)~.</math>
यदि अवस्था <math>\rho_{XB}</math> एक उत्पाद अवस्था है अर्थात <math>\rho_{XB} = \sigma_X \otimes \tau_B</math> कुछ घनत्व ऑपरेटरों के लिए <math>\sigma_X</math> और <math>\tau_B</math>, तो सिस्टम के बीच कोई संबंध नहीं है <math>X</math> और <math>B</math>. इस मामले में, यह पता चला है <math>2^{-H_{\min}(X|B)} = \max_x P_X(x)~.</math>




==== अधिकतम उलझी हुई अवस्था के साथ ओवरलैप के रूप में न्यूनतम-एन्ट्रॉपी ====
==== अधिकतम उलझी हुई अवस्था के साथ ओवरलैप के रूप में मिन-एन्ट्रॉपी ====


अधिकतम उलझी हुई अवस्था <math>|\phi^+\rangle</math> द्विदलीय व्यवस्था पर <math>\mathcal{H}_A \otimes \mathcal{H}_B</math> परिभाषित किया जाता है
अधिकतम उलझी हुई अवस्था <math>|\phi^+\rangle</math> द्विदलीय व्यवस्था पर <math>\mathcal{H}_A \otimes \mathcal{H}_B</math> परिभाषित किया जाता है


:::<math>|\phi^+\rangle_{AB} = \frac{1}{\sqrt{d}} \sum_{x_A,x_B} |x_A\rangle |x_B\rangle</math>
:::<math>|\phi^+\rangle_{AB} = \frac{1}{\sqrt{d}} \sum_{x_A,x_B} |x_A\rangle |x_B\rangle</math>
कहाँ <math>\{|x_A\rangle\}</math> और <math>\{|x_B\rangle\}</math> रिक्त स्थान के लिए एक लंबात्मक आधार बनाएं <math>A</math> और <math>B</math> क्रमश।
जहाँ <math>\{|x_A\rangle\}</math> और <math>\{|x_B\rangle\}</math> रिक्त स्थान के लिए एक लंबात्मक आधार बनाएं <math>A</math> और <math>B</math> क्रमश।
द्विदलीय क्वांटम अवस्था के लिए <math>\rho_{AB}</math>, हम अधिकतम उलझी हुई अवस्था के साथ अधिकतम ओवरलैप को इस प्रकार परिभाषित करते हैं
द्विदलीय क्वांटम अवस्था के लिए <math>\rho_{AB}</math>, हम अधिकतम उलझी हुई अवस्था के साथ अधिकतम ओवरलैप को इस प्रकार परिभाषित करते हैं


:::<math>q_{c}(A|B) = d_A \max_{\mathcal{E}} F\left((I_A \otimes \mathcal{E}) \rho_{AB}, |\phi^+\rangle\langle \phi^{+}|\right)^2</math>
:::<math>q_{c}(A|B) = d_A \max_{\mathcal{E}} F\left((I_A \otimes \mathcal{E}) \rho_{AB}, |\phi^+\rangle\langle \phi^{+}|\right)^2</math>
जहां सभी सीपीटीपी परिचालनों में अधिकतम है <math>\mathcal{E}</math> और <math>d_A</math> उपप्रणाली का आयाम है <math>A</math>. यह इस बात का माप है कि राज्य कितना सहसंबद्ध है <math>\rho_{AB}</math> है। ऐसा दिखाया जा सकता है <math>q_c(A|B) = 2^{-H_{\min}(A|B)}</math>. यदि जानकारी इसमें निहित है <math>A</math> शास्त्रीय है, यह अनुमान लगाने की संभावना के लिए उपरोक्त अभिव्यक्ति को कम कर देता है।
जहां सभी सीपीटीपी परिचालनों में अधिकतम है <math>\mathcal{E}</math> और <math>d_A</math> उपप्रणाली का आयाम है <math>A</math>. यह इस बात का माप है कि अवस्था कितना सहसंबद्ध है <math>\rho_{AB}</math> है। ऐसा दिखाया जा सकता है <math>q_c(A|B) = 2^{-H_{\min}(A|B)}</math>. यदि जानकारी इसमें निहित है <math>A</math> चिरसम्मत है, यह अनुमान लगाने की संभावना के लिए उपरोक्त अभिव्यक्ति को कम कर देता है।


=== मिन-एन्ट्रॉपी के परिचालन लक्षण वर्णन का प्रमाण ===
=== मिन-एन्ट्रॉपी के परिचालन लक्षण वर्णन का प्रमाण ===


इसका प्रमाण 2008 में कोनिग, शेफ़नर, रेनर के एक पेपर से है।<ref>{{cite journal|last1=König|first1=Robert|last2=Renner|first2=Renato|author-link2=Renato Renner|last3=Schaffner|first3=Christian|year=2009|title=न्यूनतम और अधिकतम-एन्ट्रॉपी का परिचालनात्मक अर्थ|journal=IEEE Transactions on Information Theory|publisher=Institute of Electrical and Electronics Engineers (IEEE)|volume=55|issue=9|pages=4337–4347|arxiv=0807.1338|doi=10.1109/tit.2009.2025545|issn=0018-9448|s2cid=17160454}}</ref> इसमें [[अर्धनिश्चित प्रोग्रामिंग]] की मशीनरी शामिल है।<ref>John Watrous, Theory of quantum information, Fall 2011, course notes, https://cs.uwaterloo.ca/~watrous/CS766/LectureNotes/07.pdf</ref> मान लीजिए हमें कुछ द्विपक्षीय घनत्व ऑपरेटर दिया गया है <math>\rho_{AB}</math>. मिन-एन्ट्रॉपी की परिभाषा से, हमारे पास है
इसका प्रमाण 2008 में कोनिग, शेफ़नर, रेनर के एक पेपर से है।<ref>{{cite journal|last1=König|first1=Robert|last2=Renner|first2=Renato|author-link2=Renato Renner|last3=Schaffner|first3=Christian|year=2009|title=न्यूनतम और अधिकतम-एन्ट्रॉपी का परिचालनात्मक अर्थ|journal=IEEE Transactions on Information Theory|publisher=Institute of Electrical and Electronics Engineers (IEEE)|volume=55|issue=9|pages=4337–4347|arxiv=0807.1338|doi=10.1109/tit.2009.2025545|issn=0018-9448|s2cid=17160454}}</ref> इसमें [[अर्धनिश्चित प्रोग्रामिंग]] की मशीनरी सम्मिलित है।<ref>John Watrous, Theory of quantum information, Fall 2011, course notes, https://cs.uwaterloo.ca/~watrous/CS766/LectureNotes/07.pdf</ref> मान लीजिए हमें कुछ द्विपक्षीय घनत्व ऑपरेटर दिया गया है <math>\rho_{AB}</math>. मिन-एन्ट्रॉपी की परिभाषा से, हमारे पास है


:::<math>H_{\min}(A|B) = - \inf_{\sigma_B} \inf_{\lambda} \{ \lambda | \rho_{AB} \leq 2^{\lambda}(I_A \otimes \sigma_B)\}~.</math>
:::<math>H_{\min}(A|B) = - \inf_{\sigma_B} \inf_{\lambda} \{ \lambda | \rho_{AB} \leq 2^{\lambda}(I_A \otimes \sigma_B)\}~.</math>
Line 90: Line 90:
:::<math>\text{subject to: } I_A \otimes \sigma_B \geq \rho_{AB}</math>
:::<math>\text{subject to: } I_A \otimes \sigma_B \geq \rho_{AB}</math>
::::::::<math>\sigma_B \geq 0~.</math>
::::::::<math>\sigma_B \geq 0~.</math>
इस मौलिक समस्या को मैट्रिक्स द्वारा भी पूरी तरह से निर्दिष्ट किया जा सकता है <math>(\rho_{AB},I_B,\operatorname{Tr}^*)</math> कहाँ <math>\operatorname{Tr}^*</math> आंशिक ट्रेस ओवर का जोड़ है <math>A</math>. की कार्रवाई <math>\operatorname{Tr}^*</math> ऑपरेटरों पर <math>B</math> के रूप में लिखा जा सकता है
इस मौलिक समस्या को मैट्रिक्स द्वारा भी पूरी तरह से निर्दिष्ट किया जा सकता है <math>(\rho_{AB},I_B,\operatorname{Tr}^*)</math> जहाँ <math>\operatorname{Tr}^*</math> आंशिक ट्रेस ओवर का जोड़ है <math>A</math>. की कार्रवाई <math>\operatorname{Tr}^*</math> ऑपरेटरों पर <math>B</math> के रूप में लिखा जा सकता है


:::<math>\operatorname{Tr}^*(X) = I_A \otimes X~.</math>
:::<math>\operatorname{Tr}^*(X) = I_A \otimes X~.</math>
Line 106: Line 106:
जैसी इच्छा थी।
जैसी इच्छा थी।


ध्यान दें कि ऐसी स्थिति में system <math>A</math> जैसा कि ऊपर बताया गया है, आंशिक रूप से शास्त्रीय अवस्था है, तो हम जिस मात्रा के पीछे हैं वह कम हो जाती है
ध्यान दें कि ऐसी स्थिति में system <math>A</math> जैसा कि ऊपर बताया गया है, आंशिक रूप से चिरसम्मत अवस्था है, तो हम जिस मात्रा के पीछे हैं वह कम हो जाती है
:::<math>\max P_X(x) \langle x | \mathcal{E}(\rho_B^x)|x \rangle~.</math>
:::<math>\max P_X(x) \langle x | \mathcal{E}(\rho_B^x)|x \rangle~.</math>
हम व्याख्या कर सकते हैं <math>\mathcal{E}</math> एक अनुमान लगाने की रणनीति के रूप में और फिर यह ऊपर दी गई व्याख्या तक सीमित हो जाता है जहां एक प्रतिद्वंद्वी स्ट्रिंग ढूंढना चाहता है <math>x</math> सिस्टम के माध्यम से क्वांटम जानकारी तक पहुंच प्रदान की गई <math>B</math>.
हम व्याख्या कर सकते हैं <math>\mathcal{E}</math> एक अनुमान लगाने की रणनीति के रूप में और फिर यह ऊपर दी गई व्याख्या तक सीमित हो जाता है जहां एक प्रतिद्वंद्वी स्ट्रिंग ढूंढना चाहता है <math>x</math> सिस्टम के माध्यम से क्वांटम जानकारी तक पहुंच प्रदान की गई <math>B</math>.

Revision as of 12:07, 7 December 2023

सूचना सिद्धांत में मिन-एन्ट्रॉपी, रेनी एन्ट्रॉपी, एंट्रॉपी के रेनी समूह में सबसे छोटी है, जो परिणामों के एक सेट की अप्रत्याशितता को मापने के रेनी एन्ट्रॉपी, मिन-एन्ट्रॉपी तरीके के अनुरूप है, जो कि संभाव्यता के ऋणात्मक लघुगणक के रूप में सबसे संभावित परिणाम है। एक समान वितरण के लिए विभिन्न रेनी एन्ट्रॉपी सभी समान हैं, लेकिन विभिन्न तरीकों से एक गैर-समान वितरण की अप्रत्याशितता को मापते हैं। मिन-एन्ट्रॉपी कभी भी सामान्य या शैनन एन्ट्रापी (जो परिणामों की औसत अप्रत्याशितता को मापती है) से अधिक नहीं होती है और बदले में यह कभी भी हार्टले या रेनी एन्ट्रॉपी, हार्टले या मैक्स-एंट्रॉपी|मैक्स-एंट्रॉपी से अधिक नहीं होती है, जिसे इस रूप में परिभाषित किया गया है शून्येतर संभावना वाले परिणामों की संख्या का लघुगणक।

चिरसम्मत शैनन एन्ट्रॉपी और इसके क्वांटम सामान्यीकरण, वॉन न्यूमैन एन्ट्रापी के साथ, कोई भी मिन-एन्ट्रॉपी के एक सशर्त संस्करण को परिभाषित कर सकता है। सशर्त क्वांटम मिन-एन्ट्रॉपी एक-शॉट, या रूढ़िवादी, सशर्त क्वांटम एन्ट्रॉपी का एनालॉग है।

एक सशर्त सूचना माप की व्याख्या करने के लिए, मान लीजिए कि ऐलिस और बॉब को एक द्विदलीय क्वांटम स्थिति साझा करनी थी . ऐलिस के पास सिस्टम तक पहुंच है और बॉब सिस्टम के लिए . सशर्त एन्ट्रापी बॉब द्वारा अपने सिस्टम से नमूना लेने पर ऐलिस की स्थिति के बारे में औसत अनिश्चितता को मापती है। मिन-एंट्रॉपी की व्याख्या किसी अवस्था की अधिकतम उलझी हुई स्थिति से दूरी के रूप में की जा सकती है।

यह अवधारणा गोपनीयता प्रवर्धन के संदर्भ में क्वांटम क्रिप्टोग्राफी में उपयोगी है (उदाहरण के लिए देखें)। [1]).

चिरसम्मत वितरण के लिए परिभाषा

अगर एक चिरसम्मत परिमित संभाव्यता वितरण है, इसकी न्यूनतम-एन्ट्रापी को इस प्रकार परिभाषित किया जा सकता है[2]

मात्रा के नाम को उचित ठहराने का एक तरीका यह है कि इसकी तुलना एन्ट्रापी की अधिक मानक परिभाषा से की जाए, जिसमें लिखा है , और इस प्रकार इसे अपेक्षित मूल्य के रूप में संक्षिप्त रूप से लिखा जा सकता है वितरण पर, यदि इस मात्रा का अपेक्षित मूल्य लेने के बजाय हम इसका न्यूनतम मूल्य लेते हैं, तो हमें ठीक उपरोक्त परिभाषा मिलती है .

क्वांटम अवस्थाओं की परिभाषा

क्वांटम अवस्थाओं के लिए न्यूनतम-एन्ट्रापी को परिभाषित करने का एक प्राकृतिक तरीका सरल अवलोकन का लाभ उठाना है कि क्वांटम अवस्थाओं को कुछ आधारों पर मापा जाने पर संभाव्यता वितरण में परिणाम मिलता है। हालाँकि इसमें अतिरिक्त कठिनाई यह है कि एक एकल क्वांटम स्थिति के परिणामस्वरूप अनंत रूप से कई संभावित संभाव्यता वितरण हो सकते हैं, यह इस बात पर निर्भर करता है कि इसे कैसे मापा जाता है। फिर एक प्राकृतिक पथ को क्वांटम अवस्था दी जाती है , अभी भी परिभाषित करने के लिए जैसा , लेकिन इस बार परिभाषित अधिकतम संभव संभावना के रूप में जिसे मापकर प्राप्त किया जा सकता है , सभी संभावित प्रक्षेप्य मापों को अधिकतम करना।

औपचारिक रूप से, यह परिभाषा प्रदान करेगा

जहां हम सभी प्रक्षेप्य मापों के सेट को अधिकतम कर रहे हैं , पीओवीएम औपचारिकता में माप परिणामों का प्रतिनिधित्व करें, और इसलिए अवलोकन की संभावना है -वाँ परिणाम जब माप है .

दोहरे अधिकतमकरण को लिखने के लिए एक अधिक संक्षिप्त विधि यह देखना है कि किसी भी पीओवीएम का कोई भी तत्व एक हर्मिटियन ऑपरेटर है जैसे कि , और इस प्रकार हम इन्हें प्राप्त करने के लिए समान रूप से सीधे अधिकतम कर सकते हैं

वास्तव में, यह अधिकतमीकरण स्पष्ट रूप से किया जा सकता है और अधिकतम तब प्राप्त होता है जब (किसी भी) के सबसे बड़े आइजेनवैल्यू(ओं) पर प्रक्षेपण है . इस प्रकार हमें मिन-एन्ट्रॉपी के लिए एक और अभिव्यक्ति मिलती है:
यह याद रखना कि हर्मिटियन घनात्मक अर्धनिश्चित ऑपरेटर का ऑपरेटर मानदंड उसके सबसे बड़े आइगेनवेल के बराबर होता है।

सशर्त एन्ट्रॉपी

मान लीजिये अंतरिक्ष पर एक द्विपक्षीय घनत्व ऑपरेटर बनें . की मिन-एन्ट्रॉपी पर वातानुकूलित होने के लिए परिभाषित किया गया है

जहां सभी घनत्व ऑपरेटरों पर न्यूनतम सीमा होती है अंतरिक्ष पर . पैमाना अधिकतम सापेक्ष एन्ट्रापी के रूप में परिभाषित किया गया है

स्मूथ मिन-एन्ट्रॉपी को मिन-एन्ट्रॉपी के संदर्भ में परिभाषित किया गया है।

जहां घनत्व ऑपरेटरों पर सुपर और इन्फ रेंज होती है जो हैं -के निकट . यह उपाय -बंद को शुद्ध दूरी के संदर्भ में परिभाषित किया गया है

जहाँ क्वांटम अवस्थाओंकी निष्ठा माप है।

इन परिस्थितियों को वॉन न्यूमैन एन्ट्रापी के सामान्यीकरण के रूप में देखा जा सकता है। दरअसल, वॉन न्यूमैन एन्ट्रॉपी को इस प्रकार व्यक्त किया जा सकता है

इसे पूर्णतः क्वांटम एसिम्प्टोटिक समविभाजन प्रमेय कहा जाता है।[3] स्मूथ एन्ट्रॉपी वॉन न्यूमैन एन्ट्रॉपी के साथ कई दिलचस्प गुण साझा करती हैं। उदाहरण के लिए, सुचारु मिन-एन्ट्रॉपी डेटा-प्रोसेसिंग असमानता को संतुष्ट करती है:[4]


स्मूथ मिन-एन्ट्रॉपी की परिचालन व्याख्या

अब से, हम सबस्क्रिप्ट छोड़ देंगे मिन-एंट्रॉपी से जब यह संदर्भ से स्पष्ट होता है कि इसका मूल्यांकन किस स्थिति में किया जाता है।

चिरसम्मत जानकारी के बारे में अनिश्चितता के रूप में न्यूनतम-एन्ट्रापी

मान लीजिए कि एक एजेंट के पास क्वांटम सिस्टम तक पहुंच थी किसका अवस्था कुछ चिरसम्मत चर पर निर्भर करता है . इसके अलावा, मान लीजिए कि इसका प्रत्येक तत्व कुछ वितरण के अनुसार वितरित किया जाता है . इसे सिस्टम पर निम्नलिखित स्थिति द्वारा वर्णित किया जा सकता है .

जहाँ एक लंबात्मक आधार बनाएं। हम जानना चाहेंगे कि एजेंट क्लासिकल वेरिएबल के बारे में क्या सीख सकता है . मान लीजिये वह प्रायिकता हो जिसका एजेंट अनुमान लगाता है इष्टतम माप रणनीति का उपयोग करते समय

जहाँ वह पीओवीएम है जो इस अभिव्यक्ति को अधिकतम करता है। इसे दिखाया जा सकता है कि इस इष्टतम को न्यूनतम-एन्ट्रापी के रूप में व्यक्त किया जा सकता है

यदि अवस्था एक उत्पाद अवस्था है अर्थात कुछ घनत्व ऑपरेटरों के लिए और , तो सिस्टम के बीच कोई संबंध नहीं है और . इस मामले में, यह पता चला है


अधिकतम उलझी हुई अवस्था के साथ ओवरलैप के रूप में मिन-एन्ट्रॉपी

अधिकतम उलझी हुई अवस्था द्विदलीय व्यवस्था पर परिभाषित किया जाता है

जहाँ और रिक्त स्थान के लिए एक लंबात्मक आधार बनाएं और क्रमश। द्विदलीय क्वांटम अवस्था के लिए , हम अधिकतम उलझी हुई अवस्था के साथ अधिकतम ओवरलैप को इस प्रकार परिभाषित करते हैं

जहां सभी सीपीटीपी परिचालनों में अधिकतम है और उपप्रणाली का आयाम है . यह इस बात का माप है कि अवस्था कितना सहसंबद्ध है है। ऐसा दिखाया जा सकता है . यदि जानकारी इसमें निहित है चिरसम्मत है, यह अनुमान लगाने की संभावना के लिए उपरोक्त अभिव्यक्ति को कम कर देता है।

मिन-एन्ट्रॉपी के परिचालन लक्षण वर्णन का प्रमाण

इसका प्रमाण 2008 में कोनिग, शेफ़नर, रेनर के एक पेपर से है।[5] इसमें अर्धनिश्चित प्रोग्रामिंग की मशीनरी सम्मिलित है।[6] मान लीजिए हमें कुछ द्विपक्षीय घनत्व ऑपरेटर दिया गया है . मिन-एन्ट्रॉपी की परिभाषा से, हमारे पास है

इसे इस प्रकार पुनः लिखा जा सकता है

शर्तों के अधीन

हमने देखा कि इन्फ़िमम को कॉम्पैक्ट सेट पर लिया गया है और इसलिए इसे न्यूनतम से बदला जा सकता है। इसे फिर एक अर्धनिश्चित कार्यक्रम के रूप में संक्षेप में व्यक्त किया जा सकता है। मूल समस्या पर विचार करें

इस मौलिक समस्या को मैट्रिक्स द्वारा भी पूरी तरह से निर्दिष्ट किया जा सकता है जहाँ आंशिक ट्रेस ओवर का जोड़ है . की कार्रवाई ऑपरेटरों पर के रूप में लिखा जा सकता है

हम दोहरी समस्या को ऑपरेटरों पर अधिकतमकरण के रूप में व्यक्त कर सकते हैं अंतरिक्ष पर जैसा

चोई-जामियोल्कोव्स्की समरूपता का उपयोग करके, हम चैनल को परिभाषित कर सकते हैं ऐसा है कि

जहां अंतरिक्ष में घंटी की स्थिति को परिभाषित किया गया है . इसका मतलब यह है कि हम दोहरी समस्या के वस्तुनिष्ठ कार्य को इस प्रकार व्यक्त कर सकते हैं

जैसी इच्छा थी।

ध्यान दें कि ऐसी स्थिति में system जैसा कि ऊपर बताया गया है, आंशिक रूप से चिरसम्मत अवस्था है, तो हम जिस मात्रा के पीछे हैं वह कम हो जाती है

हम व्याख्या कर सकते हैं एक अनुमान लगाने की रणनीति के रूप में और फिर यह ऊपर दी गई व्याख्या तक सीमित हो जाता है जहां एक प्रतिद्वंद्वी स्ट्रिंग ढूंढना चाहता है सिस्टम के माध्यम से क्वांटम जानकारी तक पहुंच प्रदान की गई .

यह भी देखें

संदर्भ

  1. Vazirani, Umesh; Vidick, Thomas (29 September 2014). "पूरी तरह से डिवाइस-स्वतंत्र क्वांटम कुंजी वितरण". Physical Review Letters. 113 (14): 140501. arXiv:1210.1810. Bibcode:2014PhRvL.113n0501V. doi:10.1103/physrevlett.113.140501. ISSN 0031-9007. PMID 25325625. S2CID 119299119.
  2. König, Robert; Renner, Renato; Schaffner, Christian (2009). "न्यूनतम और अधिकतम-एन्ट्रॉपी का परिचालनात्मक अर्थ". IEEE Transactions on Information Theory. Institute of Electrical and Electronics Engineers (IEEE). 55 (9): 4337–4347. arXiv:0807.1338. doi:10.1109/tit.2009.2025545. ISSN 0018-9448. S2CID 17160454.
  3. Tomamichel, Marco; Colbeck, Roger; Renner, Renato (2009). "एक पूरी तरह से क्वांटम स्पर्शोन्मुख समविभाजन संपत्ति". IEEE Transactions on Information Theory. Institute of Electrical and Electronics Engineers (IEEE). 55 (12): 5840–5847. arXiv:0811.1221. doi:10.1109/tit.2009.2032797. ISSN 0018-9448. S2CID 12062282.
  4. Renato Renner, "Security of Quantum Key Distribution", Ph.D. Thesis, Diss. ETH No. 16242 arXiv:quant-ph/0512258
  5. König, Robert; Renner, Renato; Schaffner, Christian (2009). "न्यूनतम और अधिकतम-एन्ट्रॉपी का परिचालनात्मक अर्थ". IEEE Transactions on Information Theory. Institute of Electrical and Electronics Engineers (IEEE). 55 (9): 4337–4347. arXiv:0807.1338. doi:10.1109/tit.2009.2025545. ISSN 0018-9448. S2CID 17160454.
  6. John Watrous, Theory of quantum information, Fall 2011, course notes, https://cs.uwaterloo.ca/~watrous/CS766/LectureNotes/07.pdf