मिन-एन्ट्रॉपी: Difference between revisions

From Vigyanwiki
(Created page with "सूचना सिद्धांत में मिन-एन्ट्रॉपी, रेनी एन्ट्रॉपी|एंट्रॉपी के रे...")
 
m (5 revisions imported from alpha:मिन-एन्ट्रॉपी)
 
(4 intermediate revisions by 2 users not shown)
Line 1: Line 1:
[[सूचना सिद्धांत]] में मिन-एन्ट्रॉपी, रेनी एन्ट्रॉपी|एंट्रॉपी के रेनी परिवार में सबसे छोटी है, जो परिणामों के एक सेट की अप्रत्याशितता को मापने के रेनी एन्ट्रॉपी#मिन-एन्ट्रॉपी तरीके के अनुरूप है, जो कि संभाव्यता के नकारात्मक लघुगणक के रूप में है। ''सबसे संभावित'' परिणाम। एक समान वितरण के लिए विभिन्न रेनी एन्ट्रॉपी सभी समान हैं, लेकिन विभिन्न तरीकों से एक गैर-समान वितरण की अप्रत्याशितता को मापते हैं। न्यूनतम-एंट्रॉपी कभी भी सामान्य या [[शैनन एन्ट्रापी]] (जो परिणामों की औसत अप्रत्याशितता को मापती है) से अधिक नहीं होती है और बदले में यह कभी भी हार्टले या रेनी एन्ट्रॉपी#हार्टले या मैक्स-एंट्रॉपी|मैक्स-एंट्रॉपी से अधिक नहीं होती है, जिसे इस रूप में परिभाषित किया गया है शून्येतर संभावना वाले परिणामों की ''संख्या'' का लघुगणक।
[[सूचना सिद्धांत]] में '''मिन-एन्ट्रॉपी''', रेनी एन्ट्रॉपी, एंट्रॉपी के रेनी समूह में सबसे छोटी है, जो परिणामों के एक सेट की अप्रत्याशितता को मापने के रेनी एन्ट्रॉपी, मिन-एन्ट्रॉपी तरीके के अनुरूप है, जो कि संभाव्यता के ऋणात्मक लघुगणक के रूप में ''सबसे संभावित'' परिणाम है। एक समान वितरण के लिए विभिन्न रेनी एन्ट्रॉपी सभी समान हैं, लेकिन विभिन्न तरीकों से एक गैर-समान वितरण की अप्रत्याशितता को मापते हैं। मिन-एन्ट्रॉपी कभी भी सामान्य या [[शैनन एन्ट्रापी]] (जो परिणामों की औसत अप्रत्याशितता को मापती है) से अधिक नहीं होती है और बदले में यह कभी भी हार्टले या रेनी एन्ट्रॉपी, हार्टले या मैक्स-एंट्रॉपी से अधिक नहीं होती है, जिसे इस रूप में परिभाषित किया गया है शून्येतर संभावना वाले परिणामों की ''संख्या'' का लघुगणक।


शास्त्रीय शैनन एन्ट्रॉपी और इसके क्वांटम सामान्यीकरण, [[वॉन न्यूमैन एन्ट्रापी]] के साथ, कोई भी मिन-एन्ट्रॉपी के एक सशर्त संस्करण को परिभाषित कर सकता है। सशर्त क्वांटम मिन-एन्ट्रॉपी एक-शॉट, या रूढ़िवादी, सशर्त क्वांटम एन्ट्रॉपी का एनालॉग है।
चिरसम्मत शैनन एन्ट्रॉपी और इसके क्वांटम सामान्यीकरण, [[वॉन न्यूमैन एन्ट्रापी]] के साथ, कोई भी मिन-एन्ट्रॉपी के एक सशर्त संस्करण को परिभाषित कर सकता है। सशर्त क्वांटम मिन-एन्ट्रॉपी एक-शॉट, या अपरिवर्तनवादी, सशर्त क्वांटम एन्ट्रॉपी का एनालॉग है।


एक सशर्त सूचना माप की व्याख्या करने के लिए, मान लीजिए कि ऐलिस और बॉब को एक द्विदलीय क्वांटम स्थिति साझा करनी थी <math>\rho_{AB}</math>. ऐलिस के पास सिस्टम तक पहुंच है <math>A</math> और बॉब सिस्टम के लिए <math>B</math>. सशर्त एन्ट्रापी बॉब द्वारा अपने सिस्टम से नमूना लेने पर ऐलिस की स्थिति के बारे में औसत अनिश्चितता को मापती है। मिन-एंट्रॉपी की व्याख्या किसी राज्य की अधिकतम उलझी हुई स्थिति से दूरी के रूप में की जा सकती है।
एक सशर्त सूचना माप की व्याख्या करने के लिए, मान लीजिए कि ऐलिस और बॉब को एक द्विदलीय क्वांटम स्थिति साझा करनी थी <math>\rho_{AB}</math>. ऐलिस के पास सिस्टम तक पहुंच है <math>A</math> और बॉब सिस्टम के लिए <math>B</math>. सशर्त एन्ट्रापी बॉब द्वारा अपने सिस्टम से नमूना लेने पर ऐलिस की स्थिति के बारे में औसत अनिश्चितता को मापती है। मिन-एंट्रॉपी की व्याख्या किसी अवस्था की अधिकतम उलझी हुई स्थिति से दूरी के रूप में की जा सकती है।


यह अवधारणा गोपनीयता प्रवर्धन के संदर्भ में क्वांटम क्रिप्टोग्राफी में उपयोगी है (उदाहरण के लिए देखें)। <ref>{{cite journal | last1=Vazirani | first1=Umesh | last2=Vidick | first2=Thomas | title=पूरी तरह से डिवाइस-स्वतंत्र क्वांटम कुंजी वितरण| journal=Physical Review Letters | volume=113 | issue=14 | date=29 September 2014 | issn=0031-9007 | doi=10.1103/physrevlett.113.140501 | page=140501|arxiv=1210.1810 | pmid=25325625| bibcode=2014PhRvL.113n0501V | s2cid=119299119 }}</ref>).
यह अवधारणा गोपनीयता प्रवर्धन के संदर्भ में क्वांटम क्रिप्टोग्राफी में उपयोगी है (उदाहरण के लिए देखें)। <ref>{{cite journal | last1=Vazirani | first1=Umesh | last2=Vidick | first2=Thomas | title=पूरी तरह से डिवाइस-स्वतंत्र क्वांटम कुंजी वितरण| journal=Physical Review Letters | volume=113 | issue=14 | date=29 September 2014 | issn=0031-9007 | doi=10.1103/physrevlett.113.140501 | page=140501|arxiv=1210.1810 | pmid=25325625| bibcode=2014PhRvL.113n0501V | s2cid=119299119 }}</ref>).


== शास्त्रीय वितरण के लिए परिभाषा ==
== चिरसम्मत वितरण के लिए परिभाषा ==
अगर <math>P=(p_1,...,p_n)</math> एक शास्त्रीय परिमित संभाव्यता वितरण है, इसकी न्यूनतम-एन्ट्रापी को इस प्रकार परिभाषित किया जा सकता है<ref>{{cite journal|last1=König|first1=Robert|last2=Renner|first2=Renato|author-link2=Renato Renner|last3=Schaffner|first3=Christian|year=2009|title=न्यूनतम और अधिकतम-एन्ट्रॉपी का परिचालनात्मक अर्थ|journal=IEEE Transactions on Information Theory|publisher=Institute of Electrical and Electronics Engineers (IEEE)|volume=55|issue=9|pages=4337–4347|arxiv=0807.1338|doi=10.1109/tit.2009.2025545|issn=0018-9448|s2cid=17160454}}</ref> <math display="block">H_{\rm min}(\boldsymbol P) = \log\frac{1}{P_{\rm max}},
अगर <math>P=(p_1,...,p_n)</math> एक चिरसम्मत परिमित संभाव्यता वितरण है, इसकी मिन-एन्ट्रापी को इस प्रकार परिभाषित किया जा सकता है<ref>{{cite journal|last1=König|first1=Robert|last2=Renner|first2=Renato|author-link2=Renato Renner|last3=Schaffner|first3=Christian|year=2009|title=न्यूनतम और अधिकतम-एन्ट्रॉपी का परिचालनात्मक अर्थ|journal=IEEE Transactions on Information Theory|publisher=Institute of Electrical and Electronics Engineers (IEEE)|volume=55|issue=9|pages=4337–4347|arxiv=0807.1338|doi=10.1109/tit.2009.2025545|issn=0018-9448|s2cid=17160454}}</ref> <math display="block">H_{\rm min}(\boldsymbol P) = \log\frac{1}{P_{\rm max}},
\qquad P_{\rm max}\equiv \max_i p_i.</math>मात्रा के नाम को उचित ठहराने का एक तरीका यह है कि इसकी तुलना एन्ट्रापी की अधिक मानक परिभाषा से की जाए, जिसमें लिखा है <math>H(\boldsymbol P)=\sum_i p_i\log(1/p_i)</math>, और इस प्रकार इसे अपेक्षित मूल्य के रूप में संक्षिप्त रूप से लिखा जा सकता है <math>\log (1/p_i)</math> वितरण पर. यदि इस मात्रा का अपेक्षित मूल्य लेने के बजाय हम इसका न्यूनतम मूल्य लेते हैं, तो हमें ठीक उपरोक्त परिभाषा मिलती है <math>H_{\rm min}(\boldsymbol P)</math>.
\qquad P_{\rm max}\equiv \max_i p_i.</math>मात्रा (क्वांटिटी) के नाम को उचित ठहराने का एक तरीका यह है कि इसकी तुलना एन्ट्रापी की अधिक मानक परिभाषा से की जाए, जिसमें लिखा है <math>H(\boldsymbol P)=\sum_i p_i\log(1/p_i)</math>, और इस प्रकार इसे अपेक्षित मूल्य के रूप में संक्षिप्त रूप से लिखा जा सकता है <math>\log (1/p_i)</math> वितरण पर, यदि इस मात्रा का अपेक्षित मूल्य लेने के अतिरिक्त हम इसका न्यूनतम मूल्य लेते हैं, तो हमें ठीक उपरोक्त परिभाषा मिलती है <math>H_{\rm min}(\boldsymbol P)</math>.


== क्वांटम अवस्थाओं की परिभाषा ==
== क्वांटम अवस्थाओं की परिभाषा ==


क्वांटम राज्यों के लिए न्यूनतम-एन्ट्रापी को परिभाषित करने का एक प्राकृतिक तरीका सरल अवलोकन का लाभ उठाना है कि क्वांटम राज्यों को कुछ आधारों पर मापा जाने पर संभाव्यता वितरण में परिणाम मिलता है। हालाँकि इसमें अतिरिक्त कठिनाई यह है कि एक एकल क्वांटम स्थिति के परिणामस्वरूप अनंत रूप से कई संभावित संभाव्यता वितरण हो सकते हैं, यह इस बात पर निर्भर करता है कि इसे कैसे मापा जाता है। फिर एक प्राकृतिक पथ को क्वांटम अवस्था दी जाती है <math>\rho</math>, अभी भी परिभाषित करने के लिए <math>H_{\rm min}(\rho)</math> जैसा <math>\log(1/P_{\rm max}) </math>, लेकिन इस बार परिभाषित <math>P_{\rm max} </math> अधिकतम संभव संभावना के रूप में जिसे मापकर प्राप्त किया जा सकता है <math>\rho </math>, सभी संभावित प्रक्षेप्य मापों को अधिकतम करना।
क्वांटम अवस्थाओं के लिए न्यूनतम-एन्ट्रापी को परिभाषित करने का एक प्राकृतिक तरीका सरल अवलोकन का लाभ उठाना है कि क्वांटम अवस्थाओं को कुछ आधारों पर मापा जाने पर संभाव्यता वितरण में परिणाम मिलता है। हालाँकि इसमें अतिरिक्त कठिनाई यह है कि एक एकल क्वांटम स्थिति के परिणामस्वरूप अनंत रूप से कई संभावित संभाव्यता वितरण हो सकते हैं, यह इस बात पर निर्भर करता है कि इसे कैसे मापा जाता है। फिर एक प्राकृतिक पथ को क्वांटम अवस्था दी जाती है <math>\rho</math>, अभी भी परिभाषित करने के लिए <math>H_{\rm min}(\rho)</math> जैसा <math>\log(1/P_{\rm max}) </math>, लेकिन इस बार परिभाषित <math>P_{\rm max} </math> अधिकतम संभव संभावना के रूप में जिसे मापकर प्राप्त किया जा सकता है <math>\rho </math>, सभी संभावित प्रक्षेप्य मापों को अधिकतम करना।


औपचारिक रूप से, यह परिभाषा प्रदान करेगा <math display="block">H_{\rm min}(\rho) = \max_\Pi \log \frac{1}{\max_i \operatorname{tr}(\Pi_i \rho)}
औपचारिक रूप से, यह परिभाषा प्रदान करेगा <math display="block">H_{\rm min}(\rho) = \max_\Pi \log \frac{1}{\max_i \operatorname{tr}(\Pi_i \rho)}
= - \max_\Pi \log \max_i \operatorname{tr}(\Pi_i \rho), </math>जहां हम सभी प्रक्षेप्य मापों के सेट को अधिकतम कर रहे हैं <math>\Pi=(\Pi_i)_i</math>, <math>\Pi_i</math> [[ POVM ]] औपचारिकता में माप परिणामों का प्रतिनिधित्व करें, और <math>\operatorname{tr}(\Pi_i \rho)</math> इसलिए अवलोकन की संभावना है <math>i</math>-वाँ परिणाम जब माप है <math>\Pi</math>.
= - \max_\Pi \log \max_i \operatorname{tr}(\Pi_i \rho), </math>जहां हम सभी प्रक्षेप्य मापों के सेट को अधिकतम कर रहे हैं <math>\Pi=(\Pi_i)_i</math>, <math>\Pi_i</math> [[ POVM | पीओवीएम]] औपचारिकता में माप परिणामों का प्रतिनिधित्व करें, और <math>\operatorname{tr}(\Pi_i \rho)</math> इसलिए अवलोकन की संभावना है <math>i</math>-वाँ परिणाम जब माप है <math>\Pi</math>.


दोहरे अधिकतमकरण को लिखने के लिए एक अधिक संक्षिप्त विधि यह देखना है कि किसी भी POVM का कोई भी तत्व एक हर्मिटियन ऑपरेटर है जैसे कि <math>0\le \Pi\le I</math>, और इस प्रकार हम इन्हें प्राप्त करने के लिए समान रूप से सीधे अधिकतम कर सकते हैं <math display="block">H_{\rm min}(\rho) = -
दोहरे अधिकतमकरण को लिखने के लिए एक अधिक संक्षिप्त विधि यह देखना है कि किसी भी पीओवीएम का कोई भी तत्व एक हर्मिटियन ऑपरेटर है जैसे कि <math>0\le \Pi\le I</math>, और इस प्रकार हम इन्हें प्राप्त करने के लिए समान रूप से सीधे अधिकतम कर सकते हैं <math display="block">H_{\rm min}(\rho) = -
\max_{0\le \Pi\le I} \log \operatorname{tr}(\Pi \rho).</math>वास्तव में, यह अधिकतमीकरण स्पष्ट रूप से किया जा सकता है और अधिकतम तब प्राप्त होता है जब <math>\Pi</math> (किसी भी) के सबसे बड़े eigenvalue(ओं) पर प्रक्षेपण है <math>\rho</math>. इस प्रकार हमें न्यूनतम-एन्ट्रॉपी के लिए एक और अभिव्यक्ति मिलती है: <math display="block">H_{\rm min}(\rho) = -\log \|\rho\|_{\rm op},</math>यह याद रखना कि हर्मिटियन सकारात्मक अर्धनिश्चित ऑपरेटर का ऑपरेटर मानदंड उसके सबसे बड़े आइगेनवेल के बराबर होता है।
\max_{0\le \Pi\le I} \log \operatorname{tr}(\Pi \rho).</math>वास्तव में, यह अधिकतमीकरण स्पष्ट रूप से किया जा सकता है और अधिकतम तब प्राप्त होता है जब <math>\Pi</math> (किसी भी) के सबसे बड़े आइजेनवैल्यू(ओं) पर प्रक्षेपण है <math>\rho</math>. इस प्रकार हमें मिन-एन्ट्रॉपी के लिए एक और अभिव्यक्ति मिलती है: <math display="block">H_{\rm min}(\rho) = -\log \|\rho\|_{\rm op},</math>यह ध्यान रखना है कि हर्मिटियन घनात्मक अर्धनिश्चित ऑपरेटर का ऑपरेटर मानदंड उसके सबसे बड़े आइगेनवेल के बराबर होता है।


== सशर्त एन्ट्रॉपी ==
== सशर्त एन्ट्रॉपी ==
होने देना <math>\rho_{AB}</math> अंतरिक्ष पर एक द्विपक्षीय घनत्व ऑपरेटर बनें <math>\mathcal{H}_A \otimes \mathcal{H}_B</math>. की न्यूनतम एन्ट्रापी <math>A</math> पर वातानुकूलित <math>B</math> होने के लिए परिभाषित किया गया है
मान लीजिये <math>\rho_{AB}</math> समष्टि पर एक द्विपक्षीय घनत्व ऑपरेटर बनें <math>\mathcal{H}_A \otimes \mathcal{H}_B</math>. की मिन-एन्ट्रॉपी <math>A</math> पर वातानुकूलित <math>B</math> होने के लिए परिभाषित किया गया है


:::<math>H_{\min}(A|B)_{\rho} \equiv -\inf_{\sigma_B}D_{\max}(\rho_{AB}\|I_A \otimes \sigma_B)</math>
:::<math>H_{\min}(A|B)_{\rho} \equiv -\inf_{\sigma_B}D_{\max}(\rho_{AB}\|I_A \otimes \sigma_B)</math>
जहां सभी घनत्व ऑपरेटरों पर न्यूनतम सीमा होती है <math>\sigma_B</math> अंतरिक्ष पर <math>\mathcal{H}_B</math>. पैमाना <math>D_{\max}</math> अधिकतम सापेक्ष एन्ट्रापी के रूप में परिभाषित किया गया है
जहां सभी घनत्व ऑपरेटरों पर न्यूनतम सीमा होती है <math>\sigma_B</math> समष्टि पर <math>\mathcal{H}_B</math>. पैमाना <math>D_{\max}</math> अधिकतम सापेक्ष एन्ट्रापी के रूप में परिभाषित किया गया है


:::<math>D_{\max}(\rho\|\sigma) = \inf_{\lambda}\{\lambda:\rho \leq 2^{\lambda}\sigma\}</math>
:::<math>D_{\max}(\rho\|\sigma) = \inf_{\lambda}\{\lambda:\rho \leq 2^{\lambda}\sigma\}</math>
चिकनी न्यूनतम-एन्ट्रॉपी को न्यूनतम-एन्ट्रॉपी के संदर्भ में परिभाषित किया गया है।
स्मूथ मिन-एन्ट्रॉपी को मिन-एन्ट्रॉपी के संदर्भ में परिभाषित किया गया है।


:::<math>H_{\min}^{\epsilon}(A|B)_{\rho} = \sup_{\rho'} H_{\min}(A|B)_{\rho'}</math>
:::<math>H_{\min}^{\epsilon}(A|B)_{\rho} = \sup_{\rho'} H_{\min}(A|B)_{\rho'}</math>
जहां घनत्व ऑपरेटरों पर सुपर और इन्फ रेंज होती है <math>\rho'_{AB}</math> जो हैं <math>\epsilon</math>-के करीब <math>\rho_{AB}
जहां घनत्व ऑपरेटरों पर सुपर और इन्फ रेंज होती है <math>\rho'_{AB}</math> जो हैं <math>\epsilon</math>-के निकट <math>\rho_{AB}
</math>. यह उपाय <math>\epsilon</math>-बंद को शुद्ध दूरी के संदर्भ में परिभाषित किया गया है
</math>. यह उपाय <math>\epsilon</math>-बंद को शुद्ध दूरी के संदर्भ में परिभाषित किया गया है


:::<math>P(\rho,\sigma) = \sqrt{1 - F(\rho,\sigma)^2}</math>
:::<math>P(\rho,\sigma) = \sqrt{1 - F(\rho,\sigma)^2}</math>
कहाँ <math> F(\rho,\sigma)</math> क्वांटम राज्यों की निष्ठा माप है।
जहाँ <math> F(\rho,\sigma)</math> क्वांटम अवस्थाओं की निष्ठा माप है।


इन मात्राओं को वॉन न्यूमैन एन्ट्रापी के सामान्यीकरण के रूप में देखा जा सकता है। दरअसल, वॉन न्यूमैन एन्ट्रॉपी को इस प्रकार व्यक्त किया जा सकता है
इन परिस्थितियों को वॉन न्यूमैन एन्ट्रापी के सामान्यीकरण के रूप में देखा जा सकता है। दरअसल, [[वॉन न्यूमैन एन्ट्रॉपी]] को इस प्रकार व्यक्त किया जा सकता है


:::<math>S(A|B)_{\rho} = \lim_{\epsilon\rightarrow 0}\lim_{n\rightarrow\infty}\frac{1}{n}H_{\min}^{\epsilon}(A^n|B^n)_{\rho^{\otimes n}}~.</math>
:::<math>S(A|B)_{\rho} = \lim_{\epsilon\rightarrow 0}\lim_{n\rightarrow\infty}\frac{1}{n}H_{\min}^{\epsilon}(A^n|B^n)_{\rho^{\otimes n}}~.</math>
इसे पूर्णतः क्वांटम एसिम्प्टोटिक समविभाजन प्रमेय कहा जाता है।<ref>{{cite journal | last1=Tomamichel | first1=Marco | last2=Colbeck | first2=Roger | last3=Renner | first3=Renato | title=एक पूरी तरह से क्वांटम स्पर्शोन्मुख समविभाजन संपत्ति| journal=IEEE Transactions on Information Theory | publisher=Institute of Electrical and Electronics Engineers (IEEE) | volume=55 | issue=12 | year=2009 | issn=0018-9448 | doi=10.1109/tit.2009.2032797 | pages=5840–5847| arxiv=0811.1221 | s2cid=12062282 }}</ref>
इसे पूर्णतः क्वांटम एसिम्प्टोटिक समविभाजन प्रमेय कहा जाता है।<ref>{{cite journal | last1=Tomamichel | first1=Marco | last2=Colbeck | first2=Roger | last3=Renner | first3=Renato | title=एक पूरी तरह से क्वांटम स्पर्शोन्मुख समविभाजन संपत्ति| journal=IEEE Transactions on Information Theory | publisher=Institute of Electrical and Electronics Engineers (IEEE) | volume=55 | issue=12 | year=2009 | issn=0018-9448 | doi=10.1109/tit.2009.2032797 | pages=5840–5847| arxiv=0811.1221 | s2cid=12062282 }}</ref>
चिकनी एन्ट्रॉपी वॉन न्यूमैन एन्ट्रॉपी के साथ कई दिलचस्प गुण साझा करती हैं। उदाहरण के लिए, सुचारु न्यूनतम-एन्ट्रॉपी डेटा-प्रोसेसिंग असमानता को संतुष्ट करती है:<ref>Renato Renner, "Security of Quantum Key Distribution", Ph.D. Thesis, Diss. ETH No. 16242 {{arxiv| quant-ph/0512258}}</ref>
स्मूथ एन्ट्रॉपी वॉन न्यूमैन एन्ट्रॉपी के साथ कई दिलचस्प गुण साझा करती हैं। उदाहरण के लिए, सुचारु मिन-एन्ट्रॉपी डेटा-प्रोसेसिंग असमानता को संतुष्ट करती है:<ref>Renato Renner, "Security of Quantum Key Distribution", Ph.D. Thesis, Diss. ETH No. 16242 {{arxiv| quant-ph/0512258}}</ref>
:::<math>H_{\min}^{\epsilon}(A|B)_{\rho} \geq H_{\min}^{\epsilon}(A|BC)_{\rho}~.</math>
:::<math>H_{\min}^{\epsilon}(A|B)_{\rho} \geq H_{\min}^{\epsilon}(A|BC)_{\rho}~.</math>


Line 49: Line 49:
अब से, हम सबस्क्रिप्ट छोड़ देंगे <math>\rho</math> मिन-एंट्रॉपी से जब यह संदर्भ से स्पष्ट होता है कि इसका मूल्यांकन किस स्थिति में किया जाता है।
अब से, हम सबस्क्रिप्ट छोड़ देंगे <math>\rho</math> मिन-एंट्रॉपी से जब यह संदर्भ से स्पष्ट होता है कि इसका मूल्यांकन किस स्थिति में किया जाता है।


=== शास्त्रीय जानकारी के बारे में अनिश्चितता के रूप में न्यूनतम-एन्ट्रापी ===
=== चिरसम्मत जानकारी के बारे में अनिश्चितता के रूप में न्यूनतम-एन्ट्रापी ===
मान लीजिए कि एक एजेंट के पास क्वांटम सिस्टम तक पहुंच थी <math>B</math> किसका राज्य <math>\rho_{B}^x</math> कुछ शास्त्रीय चर पर निर्भर करता है <math>X</math>. इसके अलावा, मान लीजिए कि इसका प्रत्येक तत्व <math>x</math> कुछ वितरण के अनुसार वितरित किया जाता है <math>P_X(x)</math>. इसे सिस्टम पर निम्नलिखित स्थिति द्वारा वर्णित किया जा सकता है <math>XB</math>.
मान लीजिए कि एक एजेंट के पास क्वांटम सिस्टम तक पहुंच थी <math>B</math> किसका अवस्था <math>\rho_{B}^x</math> कुछ चिरसम्मत चर पर निर्भर करता है <math>X</math>. इसके अलावा, मान लीजिए कि इसका प्रत्येक तत्व <math>x</math> कुछ वितरण के अनुसार वितरित किया जाता है <math>P_X(x)</math>. इसे सिस्टम पर निम्नलिखित स्थिति द्वारा वर्णित किया जा सकता है <math>XB</math>.


:::<math>\rho_{XB} = \sum_x P_X (x) |x\rangle\langle x| \otimes \rho_{B}^x ,</math>
:::<math>\rho_{XB} = \sum_x P_X (x) |x\rangle\langle x| \otimes \rho_{B}^x ,</math>
कहाँ <math>\{|x\rangle\}</math> एक लंबात्मक आधार बनाएं। हम जानना चाहेंगे कि एजेंट क्लासिकल वेरिएबल के बारे में क्या सीख सकता है <math>x</math>. होने देना <math>p_g(X|B)</math> वह प्रायिकता हो जिसका एजेंट अनुमान लगाता है <math>X</math> इष्टतम माप रणनीति का उपयोग करते समय
जहाँ <math>\{|x\rangle\}</math> एक लंबात्मक आधार बनाएं। हम जानना चाहेंगे कि एजेंट चिरसम्मत चर के बारे में क्या सीख सकता है <math>x</math>. मान लीजिये <math>p_g(X|B)</math> वह प्रायिकता हो जिसका एजेंट अनुमान लगाता है <math>X</math> इष्टतम माप उपाय का उपयोग करते समय


:::<math>p_g(X|B) = \sum_x P_X(x)tr(E_x \rho_B^x) ,</math>
:::<math>p_g(X|B) = \sum_x P_X(x)tr(E_x \rho_B^x) ,</math>
कहाँ <math>E_x</math> वह POVM है जो इस अभिव्यक्ति को अधिकतम करता है। इसे दिखाया जा सकता है{{Citation needed|date=June 2022}} कि इस इष्टतम को न्यूनतम-एन्ट्रापी के रूप में व्यक्त किया जा सकता है
जहाँ <math>E_x</math> वह पीओवीएम है जो इस अभिव्यक्ति को अधिकतम करता है। इसे दिखाया जा सकता है कि इस इष्टतम को मिन-एन्ट्रॉपी के रूप में व्यक्त किया जा सकता है


:::<math>p_g(X|B) = 2^{-H_{\min}(X|B)}~.</math>
:::<math>p_g(X|B) = 2^{-H_{\min}(X|B)}~.</math>
यदि राज्य <math>\rho_{XB}</math> एक उत्पाद अवस्था है अर्थात <math>\rho_{XB} = \sigma_X \otimes \tau_B</math> कुछ घनत्व ऑपरेटरों के लिए <math>\sigma_X</math> और <math>\tau_B</math>, तो सिस्टम के बीच कोई संबंध नहीं है <math>X</math> और <math>B</math>. इस मामले में, यह पता चला है <math>2^{-H_{\min}(X|B)} = \max_x P_X(x)~.</math>
यदि अवस्था <math>\rho_{XB}</math> एक उत्पाद अवस्था है अर्थात <math>\rho_{XB} = \sigma_X \otimes \tau_B</math> कुछ घनत्व ऑपरेटरों के लिए <math>\sigma_X</math> और <math>\tau_B</math>, तो सिस्टम के बीच कोई संबंध नहीं है <math>X</math> और <math>B</math>. इस स्थिति में, यह पता चला है <math>2^{-H_{\min}(X|B)} = \max_x P_X(x)~.</math>




==== अधिकतम उलझी हुई अवस्था के साथ ओवरलैप के रूप में न्यूनतम-एन्ट्रॉपी ====
==== अधिकतम उलझी हुई (इनटंगलेड) अवस्था के साथ ओवरलैप के रूप में मिन-एन्ट्रॉपी ====


अधिकतम उलझी हुई अवस्था <math>|\phi^+\rangle</math> द्विदलीय व्यवस्था पर <math>\mathcal{H}_A \otimes \mathcal{H}_B</math> परिभाषित किया जाता है
अधिकतम उलझी हुई अवस्था <math>|\phi^+\rangle</math> द्विदलीय व्यवस्था पर <math>\mathcal{H}_A \otimes \mathcal{H}_B</math> परिभाषित किया जाता है


:::<math>|\phi^+\rangle_{AB} = \frac{1}{\sqrt{d}} \sum_{x_A,x_B} |x_A\rangle |x_B\rangle</math>
:::<math>|\phi^+\rangle_{AB} = \frac{1}{\sqrt{d}} \sum_{x_A,x_B} |x_A\rangle |x_B\rangle</math>
कहाँ <math>\{|x_A\rangle\}</math> और <math>\{|x_B\rangle\}</math> रिक्त स्थान के लिए एक लंबात्मक आधार बनाएं <math>A</math> और <math>B</math> क्रमश।
जहाँ <math>\{|x_A\rangle\}</math> और <math>\{|x_B\rangle\}</math> रिक्त स्थान के लिए एक लंबात्मक आधार बनाएं <math>A</math> और <math>B</math> क्रमश।
द्विदलीय क्वांटम अवस्था के लिए <math>\rho_{AB}</math>, हम अधिकतम उलझी हुई अवस्था के साथ अधिकतम ओवरलैप को इस प्रकार परिभाषित करते हैं
द्विदलीय क्वांटम अवस्था के लिए <math>\rho_{AB}</math>, हम अधिकतम उलझी हुई अवस्था के साथ अधिकतम ओवरलैप को इस प्रकार परिभाषित करते हैं


:::<math>q_{c}(A|B) = d_A \max_{\mathcal{E}} F\left((I_A \otimes \mathcal{E}) \rho_{AB}, |\phi^+\rangle\langle \phi^{+}|\right)^2</math>
:::<math>q_{c}(A|B) = d_A \max_{\mathcal{E}} F\left((I_A \otimes \mathcal{E}) \rho_{AB}, |\phi^+\rangle\langle \phi^{+}|\right)^2</math>
जहां सभी सीपीटीपी परिचालनों में अधिकतम है <math>\mathcal{E}</math> और <math>d_A</math> उपप्रणाली का आयाम है <math>A</math>. यह इस बात का माप है कि राज्य कितना सहसंबद्ध है <math>\rho_{AB}</math> है। ऐसा दिखाया जा सकता है <math>q_c(A|B) = 2^{-H_{\min}(A|B)}</math>. यदि जानकारी इसमें निहित है <math>A</math> शास्त्रीय है, यह अनुमान लगाने की संभावना के लिए उपरोक्त अभिव्यक्ति को कम कर देता है।
जहां सभी सीपीटीपी परिचालनों में अधिकतम है <math>\mathcal{E}</math> और <math>d_A</math> उपप्रणाली का आयाम है <math>A</math>. यह इस बात का माप है कि अवस्था कितना सहसंबद्ध है <math>\rho_{AB}</math> है। ऐसा दिखाया जा सकता है <math>q_c(A|B) = 2^{-H_{\min}(A|B)}</math>. यदि जानकारी इसमें निहित है <math>A</math> चिरसम्मत है, यह अनुमान लगाने की संभावना के लिए उपरोक्त अभिव्यक्ति को कम कर देता है।


=== मिन-एन्ट्रॉपी के परिचालन लक्षण वर्णन का प्रमाण ===
=== मिन-एन्ट्रॉपी के परिचालन लक्षण वर्णन का प्रमाण ===


इसका प्रमाण 2008 में कोनिग, शेफ़नर, रेनर के एक पेपर से है।<ref>{{cite journal|last1=König|first1=Robert|last2=Renner|first2=Renato|author-link2=Renato Renner|last3=Schaffner|first3=Christian|year=2009|title=न्यूनतम और अधिकतम-एन्ट्रॉपी का परिचालनात्मक अर्थ|journal=IEEE Transactions on Information Theory|publisher=Institute of Electrical and Electronics Engineers (IEEE)|volume=55|issue=9|pages=4337–4347|arxiv=0807.1338|doi=10.1109/tit.2009.2025545|issn=0018-9448|s2cid=17160454}}</ref> इसमें [[अर्धनिश्चित प्रोग्रामिंग]] की मशीनरी शामिल है।<ref>John Watrous, Theory of quantum information, Fall 2011, course notes, https://cs.uwaterloo.ca/~watrous/CS766/LectureNotes/07.pdf</ref> मान लीजिए हमें कुछ द्विपक्षीय घनत्व ऑपरेटर दिया गया है <math>\rho_{AB}</math>. मिन-एन्ट्रॉपी की परिभाषा से, हमारे पास है
इसका प्रमाण 2008 में कोनिग, शेफ़नर, रेनर के एक पेपर से है।<ref>{{cite journal|last1=König|first1=Robert|last2=Renner|first2=Renato|author-link2=Renato Renner|last3=Schaffner|first3=Christian|year=2009|title=न्यूनतम और अधिकतम-एन्ट्रॉपी का परिचालनात्मक अर्थ|journal=IEEE Transactions on Information Theory|publisher=Institute of Electrical and Electronics Engineers (IEEE)|volume=55|issue=9|pages=4337–4347|arxiv=0807.1338|doi=10.1109/tit.2009.2025545|issn=0018-9448|s2cid=17160454}}</ref> इसमें [[अर्धनिश्चित प्रोग्रामिंग]] की मशीनरी सम्मिलित है।<ref>John Watrous, Theory of quantum information, Fall 2011, course notes, https://cs.uwaterloo.ca/~watrous/CS766/LectureNotes/07.pdf</ref> मान लीजिए हमें कुछ द्विपक्षीय घनत्व ऑपरेटर दिया गया है <math>\rho_{AB}</math>. मिन-एन्ट्रॉपी की परिभाषा से, हमारे पास है


:::<math>H_{\min}(A|B) = - \inf_{\sigma_B} \inf_{\lambda} \{ \lambda | \rho_{AB} \leq 2^{\lambda}(I_A \otimes \sigma_B)\}~.</math>
:::<math>H_{\min}(A|B) = - \inf_{\sigma_B} \inf_{\lambda} \{ \lambda | \rho_{AB} \leq 2^{\lambda}(I_A \otimes \sigma_B)\}~.</math>
Line 90: Line 90:
:::<math>\text{subject to: } I_A \otimes \sigma_B \geq \rho_{AB}</math>
:::<math>\text{subject to: } I_A \otimes \sigma_B \geq \rho_{AB}</math>
::::::::<math>\sigma_B \geq 0~.</math>
::::::::<math>\sigma_B \geq 0~.</math>
इस मौलिक समस्या को मैट्रिक्स द्वारा भी पूरी तरह से निर्दिष्ट किया जा सकता है <math>(\rho_{AB},I_B,\operatorname{Tr}^*)</math> कहाँ <math>\operatorname{Tr}^*</math> आंशिक ट्रेस ओवर का जोड़ है <math>A</math>. की कार्रवाई <math>\operatorname{Tr}^*</math> ऑपरेटरों पर <math>B</math> के रूप में लिखा जा सकता है
इस मौलिक समस्या को मैट्रिक्स द्वारा भी पूरी तरह से निर्दिष्ट किया जा सकता है <math>(\rho_{AB},I_B,\operatorname{Tr}^*)</math> जहाँ <math>\operatorname{Tr}^*</math> आंशिक ट्रेस ओवर का जोड़ है <math>A</math>. की कार्रवाई <math>\operatorname{Tr}^*</math> ऑपरेटरों पर <math>B</math> के रूप में लिखा जा सकता है


:::<math>\operatorname{Tr}^*(X) = I_A \otimes X~.</math>
:::<math>\operatorname{Tr}^*(X) = I_A \otimes X~.</math>
हम दोहरी समस्या को ऑपरेटरों पर अधिकतमकरण के रूप में व्यक्त कर सकते हैं <math>E_{AB}</math> अंतरिक्ष पर <math>AB</math> जैसा
हम दोहरी समस्या को ऑपरेटरों पर अधिकतमकरण के रूप में व्यक्त कर सकते हैं <math>E_{AB}</math> समष्टि पर <math>AB</math> जैसा


:::<math>\text{max:}\operatorname{Tr}(\rho_{AB}E_{AB})</math>
:::<math>\text{max:}\operatorname{Tr}(\rho_{AB}E_{AB})</math>
Line 100: Line 100:
चोई-जामियोल्कोव्स्की समरूपता का उपयोग करके, हम चैनल को परिभाषित कर सकते हैं <math>\mathcal{E}</math> ऐसा है कि
चोई-जामियोल्कोव्स्की समरूपता का उपयोग करके, हम चैनल को परिभाषित कर सकते हैं <math>\mathcal{E}</math> ऐसा है कि
:::<math>d_A I_A \otimes \mathcal{E}^{\dagger}(|\phi^{+}\rangle\langle\phi^{+}|) = E_{AB}</math>
:::<math>d_A I_A \otimes \mathcal{E}^{\dagger}(|\phi^{+}\rangle\langle\phi^{+}|) = E_{AB}</math>
जहां अंतरिक्ष में घंटी की स्थिति को परिभाषित किया गया है <math>AA'</math>. इसका मतलब यह है कि हम दोहरी समस्या के वस्तुनिष्ठ कार्य को इस प्रकार व्यक्त कर सकते हैं
जहां समष्टि में बेल्ल स्टेट को परिभाषित किया गया है <math>AA'</math>. इसका मतलब यह है कि हम दोहरी समस्या के उदेश्य फलन को इस प्रकार व्यक्त कर सकते हैं


:::<math>\langle \rho_{AB}, E_{AB} \rangle = d_A \langle \rho_{AB}, I_A \otimes \mathcal{E}^{\dagger} (|\phi^+\rangle\langle \phi^+|) \rangle</math>
:::<math>\langle \rho_{AB}, E_{AB} \rangle = d_A \langle \rho_{AB}, I_A \otimes \mathcal{E}^{\dagger} (|\phi^+\rangle\langle \phi^+|) \rangle</math>
::::::::<math>= d_A \langle I_A \otimes \mathcal{E}(\rho_{AB}), |\phi^+\rangle\langle \phi^+|) \rangle</math>
::::::::<math>= d_A \langle I_A \otimes \mathcal{E}(\rho_{AB}), |\phi^+\rangle\langle \phi^+|) \rangle</math>
जैसी इच्छा थी।
के रूप में वांछित।


ध्यान दें कि ऐसी स्थिति में system <math>A</math> जैसा कि ऊपर बताया गया है, आंशिक रूप से शास्त्रीय अवस्था है, तो हम जिस मात्रा के पीछे हैं वह कम हो जाती है
ध्यान दें कि ऐसी स्थिति में सिस्टम <math>A</math> जैसा कि ऊपर बताया गया है, आंशिक रूप से चिरसम्मत अवस्था है, तो हम जिस मात्रा के पीछे हैं वह कम हो जाती है
:::<math>\max P_X(x) \langle x | \mathcal{E}(\rho_B^x)|x \rangle~.</math>
:::<math>\max P_X(x) \langle x | \mathcal{E}(\rho_B^x)|x \rangle~.</math>
हम व्याख्या कर सकते हैं <math>\mathcal{E}</math> एक अनुमान लगाने की रणनीति के रूप में और फिर यह ऊपर दी गई व्याख्या तक सीमित हो जाता है जहां एक प्रतिद्वंद्वी स्ट्रिंग ढूंढना चाहता है <math>x</math> सिस्टम के माध्यम से क्वांटम जानकारी तक पहुंच प्रदान की गई <math>B</math>.
हम व्याख्या कर सकते हैं <math>\mathcal{E}</math> एक अनुमान लगाने की उपाय के रूप में और फिर यह ऊपर दी गई व्याख्या तक सीमित हो जाता है जहां एक प्रतिद्वंद्वी स्ट्रिंग ढूंढना चाहता है <math>x</math> सिस्टम के माध्यम से क्वांटम जानकारी तक पहुंच प्रदान की गई <math>B</math>.


==यह भी देखें==
==यह भी देखें==
* वॉन न्यूमैन एन्ट्रॉपी
* वॉन न्यूमैन एन्ट्रॉपी
* [[सामान्यीकृत सापेक्ष एन्ट्रापी]]
* [[सामान्यीकृत सापेक्ष एन्ट्रापी]]
* अधिकतम-एन्ट्रापी
* मैक्स-एन्ट्रापी


==संदर्भ==
==संदर्भ==
Line 123: Line 123:
[[Category: Machine Translated Page]]
[[Category: Machine Translated Page]]
[[Category:Created On 04/12/2023]]
[[Category:Created On 04/12/2023]]
[[Category:Vigyan Ready]]

Latest revision as of 09:18, 12 December 2023

सूचना सिद्धांत में मिन-एन्ट्रॉपी, रेनी एन्ट्रॉपी, एंट्रॉपी के रेनी समूह में सबसे छोटी है, जो परिणामों के एक सेट की अप्रत्याशितता को मापने के रेनी एन्ट्रॉपी, मिन-एन्ट्रॉपी तरीके के अनुरूप है, जो कि संभाव्यता के ऋणात्मक लघुगणक के रूप में सबसे संभावित परिणाम है। एक समान वितरण के लिए विभिन्न रेनी एन्ट्रॉपी सभी समान हैं, लेकिन विभिन्न तरीकों से एक गैर-समान वितरण की अप्रत्याशितता को मापते हैं। मिन-एन्ट्रॉपी कभी भी सामान्य या शैनन एन्ट्रापी (जो परिणामों की औसत अप्रत्याशितता को मापती है) से अधिक नहीं होती है और बदले में यह कभी भी हार्टले या रेनी एन्ट्रॉपी, हार्टले या मैक्स-एंट्रॉपी से अधिक नहीं होती है, जिसे इस रूप में परिभाषित किया गया है शून्येतर संभावना वाले परिणामों की संख्या का लघुगणक।

चिरसम्मत शैनन एन्ट्रॉपी और इसके क्वांटम सामान्यीकरण, वॉन न्यूमैन एन्ट्रापी के साथ, कोई भी मिन-एन्ट्रॉपी के एक सशर्त संस्करण को परिभाषित कर सकता है। सशर्त क्वांटम मिन-एन्ट्रॉपी एक-शॉट, या अपरिवर्तनवादी, सशर्त क्वांटम एन्ट्रॉपी का एनालॉग है।

एक सशर्त सूचना माप की व्याख्या करने के लिए, मान लीजिए कि ऐलिस और बॉब को एक द्विदलीय क्वांटम स्थिति साझा करनी थी . ऐलिस के पास सिस्टम तक पहुंच है और बॉब सिस्टम के लिए . सशर्त एन्ट्रापी बॉब द्वारा अपने सिस्टम से नमूना लेने पर ऐलिस की स्थिति के बारे में औसत अनिश्चितता को मापती है। मिन-एंट्रॉपी की व्याख्या किसी अवस्था की अधिकतम उलझी हुई स्थिति से दूरी के रूप में की जा सकती है।

यह अवधारणा गोपनीयता प्रवर्धन के संदर्भ में क्वांटम क्रिप्टोग्राफी में उपयोगी है (उदाहरण के लिए देखें)। [1]).

चिरसम्मत वितरण के लिए परिभाषा

अगर एक चिरसम्मत परिमित संभाव्यता वितरण है, इसकी मिन-एन्ट्रापी को इस प्रकार परिभाषित किया जा सकता है[2]

मात्रा (क्वांटिटी) के नाम को उचित ठहराने का एक तरीका यह है कि इसकी तुलना एन्ट्रापी की अधिक मानक परिभाषा से की जाए, जिसमें लिखा है , और इस प्रकार इसे अपेक्षित मूल्य के रूप में संक्षिप्त रूप से लिखा जा सकता है वितरण पर, यदि इस मात्रा का अपेक्षित मूल्य लेने के अतिरिक्त हम इसका न्यूनतम मूल्य लेते हैं, तो हमें ठीक उपरोक्त परिभाषा मिलती है .

क्वांटम अवस्थाओं की परिभाषा

क्वांटम अवस्थाओं के लिए न्यूनतम-एन्ट्रापी को परिभाषित करने का एक प्राकृतिक तरीका सरल अवलोकन का लाभ उठाना है कि क्वांटम अवस्थाओं को कुछ आधारों पर मापा जाने पर संभाव्यता वितरण में परिणाम मिलता है। हालाँकि इसमें अतिरिक्त कठिनाई यह है कि एक एकल क्वांटम स्थिति के परिणामस्वरूप अनंत रूप से कई संभावित संभाव्यता वितरण हो सकते हैं, यह इस बात पर निर्भर करता है कि इसे कैसे मापा जाता है। फिर एक प्राकृतिक पथ को क्वांटम अवस्था दी जाती है , अभी भी परिभाषित करने के लिए जैसा , लेकिन इस बार परिभाषित अधिकतम संभव संभावना के रूप में जिसे मापकर प्राप्त किया जा सकता है , सभी संभावित प्रक्षेप्य मापों को अधिकतम करना।

औपचारिक रूप से, यह परिभाषा प्रदान करेगा

जहां हम सभी प्रक्षेप्य मापों के सेट को अधिकतम कर रहे हैं , पीओवीएम औपचारिकता में माप परिणामों का प्रतिनिधित्व करें, और इसलिए अवलोकन की संभावना है -वाँ परिणाम जब माप है .

दोहरे अधिकतमकरण को लिखने के लिए एक अधिक संक्षिप्त विधि यह देखना है कि किसी भी पीओवीएम का कोई भी तत्व एक हर्मिटियन ऑपरेटर है जैसे कि , और इस प्रकार हम इन्हें प्राप्त करने के लिए समान रूप से सीधे अधिकतम कर सकते हैं

वास्तव में, यह अधिकतमीकरण स्पष्ट रूप से किया जा सकता है और अधिकतम तब प्राप्त होता है जब (किसी भी) के सबसे बड़े आइजेनवैल्यू(ओं) पर प्रक्षेपण है . इस प्रकार हमें मिन-एन्ट्रॉपी के लिए एक और अभिव्यक्ति मिलती है:
यह ध्यान रखना है कि हर्मिटियन घनात्मक अर्धनिश्चित ऑपरेटर का ऑपरेटर मानदंड उसके सबसे बड़े आइगेनवेल के बराबर होता है।

सशर्त एन्ट्रॉपी

मान लीजिये समष्टि पर एक द्विपक्षीय घनत्व ऑपरेटर बनें . की मिन-एन्ट्रॉपी पर वातानुकूलित होने के लिए परिभाषित किया गया है

जहां सभी घनत्व ऑपरेटरों पर न्यूनतम सीमा होती है समष्टि पर . पैमाना अधिकतम सापेक्ष एन्ट्रापी के रूप में परिभाषित किया गया है

स्मूथ मिन-एन्ट्रॉपी को मिन-एन्ट्रॉपी के संदर्भ में परिभाषित किया गया है।

जहां घनत्व ऑपरेटरों पर सुपर और इन्फ रेंज होती है जो हैं -के निकट . यह उपाय -बंद को शुद्ध दूरी के संदर्भ में परिभाषित किया गया है

जहाँ क्वांटम अवस्थाओं की निष्ठा माप है।

इन परिस्थितियों को वॉन न्यूमैन एन्ट्रापी के सामान्यीकरण के रूप में देखा जा सकता है। दरअसल, वॉन न्यूमैन एन्ट्रॉपी को इस प्रकार व्यक्त किया जा सकता है

इसे पूर्णतः क्वांटम एसिम्प्टोटिक समविभाजन प्रमेय कहा जाता है।[3] स्मूथ एन्ट्रॉपी वॉन न्यूमैन एन्ट्रॉपी के साथ कई दिलचस्प गुण साझा करती हैं। उदाहरण के लिए, सुचारु मिन-एन्ट्रॉपी डेटा-प्रोसेसिंग असमानता को संतुष्ट करती है:[4]


स्मूथ मिन-एन्ट्रॉपी की परिचालन व्याख्या

अब से, हम सबस्क्रिप्ट छोड़ देंगे मिन-एंट्रॉपी से जब यह संदर्भ से स्पष्ट होता है कि इसका मूल्यांकन किस स्थिति में किया जाता है।

चिरसम्मत जानकारी के बारे में अनिश्चितता के रूप में न्यूनतम-एन्ट्रापी

मान लीजिए कि एक एजेंट के पास क्वांटम सिस्टम तक पहुंच थी किसका अवस्था कुछ चिरसम्मत चर पर निर्भर करता है . इसके अलावा, मान लीजिए कि इसका प्रत्येक तत्व कुछ वितरण के अनुसार वितरित किया जाता है . इसे सिस्टम पर निम्नलिखित स्थिति द्वारा वर्णित किया जा सकता है .

जहाँ एक लंबात्मक आधार बनाएं। हम जानना चाहेंगे कि एजेंट चिरसम्मत चर के बारे में क्या सीख सकता है . मान लीजिये वह प्रायिकता हो जिसका एजेंट अनुमान लगाता है इष्टतम माप उपाय का उपयोग करते समय

जहाँ वह पीओवीएम है जो इस अभिव्यक्ति को अधिकतम करता है। इसे दिखाया जा सकता है कि इस इष्टतम को मिन-एन्ट्रॉपी के रूप में व्यक्त किया जा सकता है

यदि अवस्था एक उत्पाद अवस्था है अर्थात कुछ घनत्व ऑपरेटरों के लिए और , तो सिस्टम के बीच कोई संबंध नहीं है और . इस स्थिति में, यह पता चला है


अधिकतम उलझी हुई (इनटंगलेड) अवस्था के साथ ओवरलैप के रूप में मिन-एन्ट्रॉपी

अधिकतम उलझी हुई अवस्था द्विदलीय व्यवस्था पर परिभाषित किया जाता है

जहाँ और रिक्त स्थान के लिए एक लंबात्मक आधार बनाएं और क्रमश। द्विदलीय क्वांटम अवस्था के लिए , हम अधिकतम उलझी हुई अवस्था के साथ अधिकतम ओवरलैप को इस प्रकार परिभाषित करते हैं

जहां सभी सीपीटीपी परिचालनों में अधिकतम है और उपप्रणाली का आयाम है . यह इस बात का माप है कि अवस्था कितना सहसंबद्ध है है। ऐसा दिखाया जा सकता है . यदि जानकारी इसमें निहित है चिरसम्मत है, यह अनुमान लगाने की संभावना के लिए उपरोक्त अभिव्यक्ति को कम कर देता है।

मिन-एन्ट्रॉपी के परिचालन लक्षण वर्णन का प्रमाण

इसका प्रमाण 2008 में कोनिग, शेफ़नर, रेनर के एक पेपर से है।[5] इसमें अर्धनिश्चित प्रोग्रामिंग की मशीनरी सम्मिलित है।[6] मान लीजिए हमें कुछ द्विपक्षीय घनत्व ऑपरेटर दिया गया है . मिन-एन्ट्रॉपी की परिभाषा से, हमारे पास है

इसे इस प्रकार पुनः लिखा जा सकता है

शर्तों के अधीन

हमने देखा कि इन्फ़िमम को कॉम्पैक्ट सेट पर लिया गया है और इसलिए इसे न्यूनतम से बदला जा सकता है। इसे फिर एक अर्धनिश्चित कार्यक्रम के रूप में संक्षेप में व्यक्त किया जा सकता है। मूल समस्या पर विचार करें

इस मौलिक समस्या को मैट्रिक्स द्वारा भी पूरी तरह से निर्दिष्ट किया जा सकता है जहाँ आंशिक ट्रेस ओवर का जोड़ है . की कार्रवाई ऑपरेटरों पर के रूप में लिखा जा सकता है

हम दोहरी समस्या को ऑपरेटरों पर अधिकतमकरण के रूप में व्यक्त कर सकते हैं समष्टि पर जैसा

चोई-जामियोल्कोव्स्की समरूपता का उपयोग करके, हम चैनल को परिभाषित कर सकते हैं ऐसा है कि

जहां समष्टि में बेल्ल स्टेट को परिभाषित किया गया है . इसका मतलब यह है कि हम दोहरी समस्या के उदेश्य फलन को इस प्रकार व्यक्त कर सकते हैं

के रूप में वांछित।

ध्यान दें कि ऐसी स्थिति में सिस्टम जैसा कि ऊपर बताया गया है, आंशिक रूप से चिरसम्मत अवस्था है, तो हम जिस मात्रा के पीछे हैं वह कम हो जाती है

हम व्याख्या कर सकते हैं एक अनुमान लगाने की उपाय के रूप में और फिर यह ऊपर दी गई व्याख्या तक सीमित हो जाता है जहां एक प्रतिद्वंद्वी स्ट्रिंग ढूंढना चाहता है सिस्टम के माध्यम से क्वांटम जानकारी तक पहुंच प्रदान की गई .

यह भी देखें

संदर्भ

  1. Vazirani, Umesh; Vidick, Thomas (29 September 2014). "पूरी तरह से डिवाइस-स्वतंत्र क्वांटम कुंजी वितरण". Physical Review Letters. 113 (14): 140501. arXiv:1210.1810. Bibcode:2014PhRvL.113n0501V. doi:10.1103/physrevlett.113.140501. ISSN 0031-9007. PMID 25325625. S2CID 119299119.
  2. König, Robert; Renner, Renato; Schaffner, Christian (2009). "न्यूनतम और अधिकतम-एन्ट्रॉपी का परिचालनात्मक अर्थ". IEEE Transactions on Information Theory. Institute of Electrical and Electronics Engineers (IEEE). 55 (9): 4337–4347. arXiv:0807.1338. doi:10.1109/tit.2009.2025545. ISSN 0018-9448. S2CID 17160454.
  3. Tomamichel, Marco; Colbeck, Roger; Renner, Renato (2009). "एक पूरी तरह से क्वांटम स्पर्शोन्मुख समविभाजन संपत्ति". IEEE Transactions on Information Theory. Institute of Electrical and Electronics Engineers (IEEE). 55 (12): 5840–5847. arXiv:0811.1221. doi:10.1109/tit.2009.2032797. ISSN 0018-9448. S2CID 12062282.
  4. Renato Renner, "Security of Quantum Key Distribution", Ph.D. Thesis, Diss. ETH No. 16242 arXiv:quant-ph/0512258
  5. König, Robert; Renner, Renato; Schaffner, Christian (2009). "न्यूनतम और अधिकतम-एन्ट्रॉपी का परिचालनात्मक अर्थ". IEEE Transactions on Information Theory. Institute of Electrical and Electronics Engineers (IEEE). 55 (9): 4337–4347. arXiv:0807.1338. doi:10.1109/tit.2009.2025545. ISSN 0018-9448. S2CID 17160454.
  6. John Watrous, Theory of quantum information, Fall 2011, course notes, https://cs.uwaterloo.ca/~watrous/CS766/LectureNotes/07.pdf