मिन-एन्ट्रॉपी: Difference between revisions
No edit summary |
m (5 revisions imported from alpha:मिन-एन्ट्रॉपी) |
||
(3 intermediate revisions by 2 users not shown) | |||
Line 1: | Line 1: | ||
[[सूचना सिद्धांत]] में '''मिन-एन्ट्रॉपी''', रेनी एन्ट्रॉपी, एंट्रॉपी के रेनी समूह में सबसे छोटी है, जो परिणामों के एक सेट की अप्रत्याशितता को मापने के रेनी एन्ट्रॉपी, मिन-एन्ट्रॉपी तरीके के अनुरूप है, जो कि संभाव्यता के ऋणात्मक लघुगणक के रूप में ''सबसे संभावित'' परिणाम है। एक समान वितरण के लिए विभिन्न रेनी एन्ट्रॉपी सभी समान हैं, लेकिन विभिन्न तरीकों से एक गैर-समान वितरण की अप्रत्याशितता को मापते हैं। मिन-एन्ट्रॉपी कभी भी सामान्य या [[शैनन एन्ट्रापी]] (जो परिणामों की औसत अप्रत्याशितता को मापती है) से अधिक नहीं होती है और बदले में यह कभी भी हार्टले या रेनी एन्ट्रॉपी, हार्टले या | [[सूचना सिद्धांत]] में '''मिन-एन्ट्रॉपी''', रेनी एन्ट्रॉपी, एंट्रॉपी के रेनी समूह में सबसे छोटी है, जो परिणामों के एक सेट की अप्रत्याशितता को मापने के रेनी एन्ट्रॉपी, मिन-एन्ट्रॉपी तरीके के अनुरूप है, जो कि संभाव्यता के ऋणात्मक लघुगणक के रूप में ''सबसे संभावित'' परिणाम है। एक समान वितरण के लिए विभिन्न रेनी एन्ट्रॉपी सभी समान हैं, लेकिन विभिन्न तरीकों से एक गैर-समान वितरण की अप्रत्याशितता को मापते हैं। मिन-एन्ट्रॉपी कभी भी सामान्य या [[शैनन एन्ट्रापी]] (जो परिणामों की औसत अप्रत्याशितता को मापती है) से अधिक नहीं होती है और बदले में यह कभी भी हार्टले या रेनी एन्ट्रॉपी, हार्टले या मैक्स-एंट्रॉपी से अधिक नहीं होती है, जिसे इस रूप में परिभाषित किया गया है शून्येतर संभावना वाले परिणामों की ''संख्या'' का लघुगणक। | ||
चिरसम्मत शैनन एन्ट्रॉपी और इसके क्वांटम सामान्यीकरण, [[वॉन न्यूमैन एन्ट्रापी]] के साथ, कोई भी मिन-एन्ट्रॉपी के एक सशर्त संस्करण को परिभाषित कर सकता है। सशर्त क्वांटम मिन-एन्ट्रॉपी एक-शॉट, या | चिरसम्मत शैनन एन्ट्रॉपी और इसके क्वांटम सामान्यीकरण, [[वॉन न्यूमैन एन्ट्रापी]] के साथ, कोई भी मिन-एन्ट्रॉपी के एक सशर्त संस्करण को परिभाषित कर सकता है। सशर्त क्वांटम मिन-एन्ट्रॉपी एक-शॉट, या अपरिवर्तनवादी, सशर्त क्वांटम एन्ट्रॉपी का एनालॉग है। | ||
एक सशर्त सूचना माप की व्याख्या करने के लिए, मान लीजिए कि ऐलिस और बॉब को एक द्विदलीय क्वांटम स्थिति साझा करनी थी <math>\rho_{AB}</math>. ऐलिस के पास सिस्टम तक पहुंच है <math>A</math> और बॉब सिस्टम के लिए <math>B</math>. सशर्त एन्ट्रापी बॉब द्वारा अपने सिस्टम से नमूना लेने पर ऐलिस की स्थिति के बारे में औसत अनिश्चितता को मापती है। मिन-एंट्रॉपी की व्याख्या किसी अवस्था की अधिकतम उलझी हुई स्थिति से दूरी के रूप में की जा सकती है। | एक सशर्त सूचना माप की व्याख्या करने के लिए, मान लीजिए कि ऐलिस और बॉब को एक द्विदलीय क्वांटम स्थिति साझा करनी थी <math>\rho_{AB}</math>. ऐलिस के पास सिस्टम तक पहुंच है <math>A</math> और बॉब सिस्टम के लिए <math>B</math>. सशर्त एन्ट्रापी बॉब द्वारा अपने सिस्टम से नमूना लेने पर ऐलिस की स्थिति के बारे में औसत अनिश्चितता को मापती है। मिन-एंट्रॉपी की व्याख्या किसी अवस्था की अधिकतम उलझी हुई स्थिति से दूरी के रूप में की जा सकती है। | ||
Line 8: | Line 8: | ||
== चिरसम्मत वितरण के लिए परिभाषा == | == चिरसम्मत वितरण के लिए परिभाषा == | ||
अगर <math>P=(p_1,...,p_n)</math> एक चिरसम्मत परिमित संभाव्यता वितरण है, इसकी | अगर <math>P=(p_1,...,p_n)</math> एक चिरसम्मत परिमित संभाव्यता वितरण है, इसकी मिन-एन्ट्रापी को इस प्रकार परिभाषित किया जा सकता है<ref>{{cite journal|last1=König|first1=Robert|last2=Renner|first2=Renato|author-link2=Renato Renner|last3=Schaffner|first3=Christian|year=2009|title=न्यूनतम और अधिकतम-एन्ट्रॉपी का परिचालनात्मक अर्थ|journal=IEEE Transactions on Information Theory|publisher=Institute of Electrical and Electronics Engineers (IEEE)|volume=55|issue=9|pages=4337–4347|arxiv=0807.1338|doi=10.1109/tit.2009.2025545|issn=0018-9448|s2cid=17160454}}</ref> <math display="block">H_{\rm min}(\boldsymbol P) = \log\frac{1}{P_{\rm max}}, | ||
\qquad P_{\rm max}\equiv \max_i p_i.</math>मात्रा के नाम को उचित ठहराने का एक तरीका यह है कि इसकी तुलना एन्ट्रापी की अधिक मानक परिभाषा से की जाए, जिसमें लिखा है <math>H(\boldsymbol P)=\sum_i p_i\log(1/p_i)</math>, और इस प्रकार इसे अपेक्षित मूल्य के रूप में संक्षिप्त रूप से लिखा जा सकता है <math>\log (1/p_i)</math> वितरण पर, यदि इस मात्रा का अपेक्षित मूल्य लेने के | \qquad P_{\rm max}\equiv \max_i p_i.</math>मात्रा (क्वांटिटी) के नाम को उचित ठहराने का एक तरीका यह है कि इसकी तुलना एन्ट्रापी की अधिक मानक परिभाषा से की जाए, जिसमें लिखा है <math>H(\boldsymbol P)=\sum_i p_i\log(1/p_i)</math>, और इस प्रकार इसे अपेक्षित मूल्य के रूप में संक्षिप्त रूप से लिखा जा सकता है <math>\log (1/p_i)</math> वितरण पर, यदि इस मात्रा का अपेक्षित मूल्य लेने के अतिरिक्त हम इसका न्यूनतम मूल्य लेते हैं, तो हमें ठीक उपरोक्त परिभाषा मिलती है <math>H_{\rm min}(\boldsymbol P)</math>. | ||
== क्वांटम अवस्थाओं की परिभाषा == | == क्वांटम अवस्थाओं की परिभाषा == | ||
Line 19: | Line 19: | ||
दोहरे अधिकतमकरण को लिखने के लिए एक अधिक संक्षिप्त विधि यह देखना है कि किसी भी पीओवीएम का कोई भी तत्व एक हर्मिटियन ऑपरेटर है जैसे कि <math>0\le \Pi\le I</math>, और इस प्रकार हम इन्हें प्राप्त करने के लिए समान रूप से सीधे अधिकतम कर सकते हैं <math display="block">H_{\rm min}(\rho) = - | दोहरे अधिकतमकरण को लिखने के लिए एक अधिक संक्षिप्त विधि यह देखना है कि किसी भी पीओवीएम का कोई भी तत्व एक हर्मिटियन ऑपरेटर है जैसे कि <math>0\le \Pi\le I</math>, और इस प्रकार हम इन्हें प्राप्त करने के लिए समान रूप से सीधे अधिकतम कर सकते हैं <math display="block">H_{\rm min}(\rho) = - | ||
\max_{0\le \Pi\le I} \log \operatorname{tr}(\Pi \rho).</math>वास्तव में, यह अधिकतमीकरण स्पष्ट रूप से किया जा सकता है और अधिकतम तब प्राप्त होता है जब <math>\Pi</math> (किसी भी) के सबसे बड़े आइजेनवैल्यू(ओं) पर प्रक्षेपण है <math>\rho</math>. इस प्रकार हमें मिन-एन्ट्रॉपी के लिए एक और अभिव्यक्ति मिलती है: <math display="block">H_{\rm min}(\rho) = -\log \|\rho\|_{\rm op},</math>यह | \max_{0\le \Pi\le I} \log \operatorname{tr}(\Pi \rho).</math>वास्तव में, यह अधिकतमीकरण स्पष्ट रूप से किया जा सकता है और अधिकतम तब प्राप्त होता है जब <math>\Pi</math> (किसी भी) के सबसे बड़े आइजेनवैल्यू(ओं) पर प्रक्षेपण है <math>\rho</math>. इस प्रकार हमें मिन-एन्ट्रॉपी के लिए एक और अभिव्यक्ति मिलती है: <math display="block">H_{\rm min}(\rho) = -\log \|\rho\|_{\rm op},</math>यह ध्यान रखना है कि हर्मिटियन घनात्मक अर्धनिश्चित ऑपरेटर का ऑपरेटर मानदंड उसके सबसे बड़े आइगेनवेल के बराबर होता है। | ||
== सशर्त एन्ट्रॉपी == | == सशर्त एन्ट्रॉपी == | ||
मान लीजिये <math>\rho_{AB}</math> | मान लीजिये <math>\rho_{AB}</math> समष्टि पर एक द्विपक्षीय घनत्व ऑपरेटर बनें <math>\mathcal{H}_A \otimes \mathcal{H}_B</math>. की मिन-एन्ट्रॉपी <math>A</math> पर वातानुकूलित <math>B</math> होने के लिए परिभाषित किया गया है | ||
:::<math>H_{\min}(A|B)_{\rho} \equiv -\inf_{\sigma_B}D_{\max}(\rho_{AB}\|I_A \otimes \sigma_B)</math> | :::<math>H_{\min}(A|B)_{\rho} \equiv -\inf_{\sigma_B}D_{\max}(\rho_{AB}\|I_A \otimes \sigma_B)</math> | ||
जहां सभी घनत्व ऑपरेटरों पर न्यूनतम सीमा होती है <math>\sigma_B</math> | जहां सभी घनत्व ऑपरेटरों पर न्यूनतम सीमा होती है <math>\sigma_B</math> समष्टि पर <math>\mathcal{H}_B</math>. पैमाना <math>D_{\max}</math> अधिकतम सापेक्ष एन्ट्रापी के रूप में परिभाषित किया गया है | ||
:::<math>D_{\max}(\rho\|\sigma) = \inf_{\lambda}\{\lambda:\rho \leq 2^{\lambda}\sigma\}</math> | :::<math>D_{\max}(\rho\|\sigma) = \inf_{\lambda}\{\lambda:\rho \leq 2^{\lambda}\sigma\}</math> | ||
Line 35: | Line 35: | ||
:::<math>P(\rho,\sigma) = \sqrt{1 - F(\rho,\sigma)^2}</math> | :::<math>P(\rho,\sigma) = \sqrt{1 - F(\rho,\sigma)^2}</math> | ||
जहाँ <math> F(\rho,\sigma)</math> क्वांटम | जहाँ <math> F(\rho,\sigma)</math> क्वांटम अवस्थाओं की निष्ठा माप है। | ||
इन परिस्थितियों को वॉन न्यूमैन एन्ट्रापी के सामान्यीकरण के रूप में देखा जा सकता है। दरअसल, वॉन न्यूमैन एन्ट्रॉपी को इस प्रकार व्यक्त किया जा सकता है | इन परिस्थितियों को वॉन न्यूमैन एन्ट्रापी के सामान्यीकरण के रूप में देखा जा सकता है। दरअसल, [[वॉन न्यूमैन एन्ट्रॉपी]] को इस प्रकार व्यक्त किया जा सकता है | ||
:::<math>S(A|B)_{\rho} = \lim_{\epsilon\rightarrow 0}\lim_{n\rightarrow\infty}\frac{1}{n}H_{\min}^{\epsilon}(A^n|B^n)_{\rho^{\otimes n}}~.</math> | :::<math>S(A|B)_{\rho} = \lim_{\epsilon\rightarrow 0}\lim_{n\rightarrow\infty}\frac{1}{n}H_{\min}^{\epsilon}(A^n|B^n)_{\rho^{\otimes n}}~.</math> | ||
Line 53: | Line 53: | ||
:::<math>\rho_{XB} = \sum_x P_X (x) |x\rangle\langle x| \otimes \rho_{B}^x ,</math> | :::<math>\rho_{XB} = \sum_x P_X (x) |x\rangle\langle x| \otimes \rho_{B}^x ,</math> | ||
जहाँ <math>\{|x\rangle\}</math> एक लंबात्मक आधार बनाएं। हम जानना चाहेंगे कि एजेंट | जहाँ <math>\{|x\rangle\}</math> एक लंबात्मक आधार बनाएं। हम जानना चाहेंगे कि एजेंट चिरसम्मत चर के बारे में क्या सीख सकता है <math>x</math>. मान लीजिये <math>p_g(X|B)</math> वह प्रायिकता हो जिसका एजेंट अनुमान लगाता है <math>X</math> इष्टतम माप उपाय का उपयोग करते समय | ||
:::<math>p_g(X|B) = \sum_x P_X(x)tr(E_x \rho_B^x) ,</math> | :::<math>p_g(X|B) = \sum_x P_X(x)tr(E_x \rho_B^x) ,</math> | ||
जहाँ <math>E_x</math> वह पीओवीएम है जो इस अभिव्यक्ति को अधिकतम करता है। इसे दिखाया जा सकता है कि इस इष्टतम को | जहाँ <math>E_x</math> वह पीओवीएम है जो इस अभिव्यक्ति को अधिकतम करता है। इसे दिखाया जा सकता है कि इस इष्टतम को मिन-एन्ट्रॉपी के रूप में व्यक्त किया जा सकता है | ||
:::<math>p_g(X|B) = 2^{-H_{\min}(X|B)}~.</math> | :::<math>p_g(X|B) = 2^{-H_{\min}(X|B)}~.</math> | ||
यदि अवस्था <math>\rho_{XB}</math> एक उत्पाद अवस्था है अर्थात <math>\rho_{XB} = \sigma_X \otimes \tau_B</math> कुछ घनत्व ऑपरेटरों के लिए <math>\sigma_X</math> और <math>\tau_B</math>, तो सिस्टम के बीच कोई संबंध नहीं है <math>X</math> और <math>B</math>. इस | यदि अवस्था <math>\rho_{XB}</math> एक उत्पाद अवस्था है अर्थात <math>\rho_{XB} = \sigma_X \otimes \tau_B</math> कुछ घनत्व ऑपरेटरों के लिए <math>\sigma_X</math> और <math>\tau_B</math>, तो सिस्टम के बीच कोई संबंध नहीं है <math>X</math> और <math>B</math>. इस स्थिति में, यह पता चला है <math>2^{-H_{\min}(X|B)} = \max_x P_X(x)~.</math> | ||
==== अधिकतम उलझी हुई अवस्था के साथ ओवरलैप के रूप में मिन-एन्ट्रॉपी ==== | ==== अधिकतम उलझी हुई (इनटंगलेड) अवस्था के साथ ओवरलैप के रूप में मिन-एन्ट्रॉपी ==== | ||
अधिकतम उलझी हुई अवस्था <math>|\phi^+\rangle</math> द्विदलीय व्यवस्था पर <math>\mathcal{H}_A \otimes \mathcal{H}_B</math> परिभाषित किया जाता है | अधिकतम उलझी हुई अवस्था <math>|\phi^+\rangle</math> द्विदलीय व्यवस्था पर <math>\mathcal{H}_A \otimes \mathcal{H}_B</math> परिभाषित किया जाता है | ||
Line 93: | Line 93: | ||
:::<math>\operatorname{Tr}^*(X) = I_A \otimes X~.</math> | :::<math>\operatorname{Tr}^*(X) = I_A \otimes X~.</math> | ||
हम दोहरी समस्या को ऑपरेटरों पर अधिकतमकरण के रूप में व्यक्त कर सकते हैं <math>E_{AB}</math> | हम दोहरी समस्या को ऑपरेटरों पर अधिकतमकरण के रूप में व्यक्त कर सकते हैं <math>E_{AB}</math> समष्टि पर <math>AB</math> जैसा | ||
:::<math>\text{max:}\operatorname{Tr}(\rho_{AB}E_{AB})</math> | :::<math>\text{max:}\operatorname{Tr}(\rho_{AB}E_{AB})</math> | ||
Line 100: | Line 100: | ||
चोई-जामियोल्कोव्स्की समरूपता का उपयोग करके, हम चैनल को परिभाषित कर सकते हैं <math>\mathcal{E}</math> ऐसा है कि | चोई-जामियोल्कोव्स्की समरूपता का उपयोग करके, हम चैनल को परिभाषित कर सकते हैं <math>\mathcal{E}</math> ऐसा है कि | ||
:::<math>d_A I_A \otimes \mathcal{E}^{\dagger}(|\phi^{+}\rangle\langle\phi^{+}|) = E_{AB}</math> | :::<math>d_A I_A \otimes \mathcal{E}^{\dagger}(|\phi^{+}\rangle\langle\phi^{+}|) = E_{AB}</math> | ||
जहां | जहां समष्टि में बेल्ल स्टेट को परिभाषित किया गया है <math>AA'</math>. इसका मतलब यह है कि हम दोहरी समस्या के उदेश्य फलन को इस प्रकार व्यक्त कर सकते हैं | ||
:::<math>\langle \rho_{AB}, E_{AB} \rangle = d_A \langle \rho_{AB}, I_A \otimes \mathcal{E}^{\dagger} (|\phi^+\rangle\langle \phi^+|) \rangle</math> | :::<math>\langle \rho_{AB}, E_{AB} \rangle = d_A \langle \rho_{AB}, I_A \otimes \mathcal{E}^{\dagger} (|\phi^+\rangle\langle \phi^+|) \rangle</math> | ||
::::::::<math>= d_A \langle I_A \otimes \mathcal{E}(\rho_{AB}), |\phi^+\rangle\langle \phi^+|) \rangle</math> | ::::::::<math>= d_A \langle I_A \otimes \mathcal{E}(\rho_{AB}), |\phi^+\rangle\langle \phi^+|) \rangle</math> | ||
के रूप में वांछित। | |||
ध्यान दें कि ऐसी स्थिति में | ध्यान दें कि ऐसी स्थिति में सिस्टम <math>A</math> जैसा कि ऊपर बताया गया है, आंशिक रूप से चिरसम्मत अवस्था है, तो हम जिस मात्रा के पीछे हैं वह कम हो जाती है | ||
:::<math>\max P_X(x) \langle x | \mathcal{E}(\rho_B^x)|x \rangle~.</math> | :::<math>\max P_X(x) \langle x | \mathcal{E}(\rho_B^x)|x \rangle~.</math> | ||
हम व्याख्या कर सकते हैं <math>\mathcal{E}</math> एक अनुमान लगाने की | हम व्याख्या कर सकते हैं <math>\mathcal{E}</math> एक अनुमान लगाने की उपाय के रूप में और फिर यह ऊपर दी गई व्याख्या तक सीमित हो जाता है जहां एक प्रतिद्वंद्वी स्ट्रिंग ढूंढना चाहता है <math>x</math> सिस्टम के माध्यम से क्वांटम जानकारी तक पहुंच प्रदान की गई <math>B</math>. | ||
==यह भी देखें== | ==यह भी देखें== | ||
* वॉन न्यूमैन एन्ट्रॉपी | * वॉन न्यूमैन एन्ट्रॉपी | ||
* [[सामान्यीकृत सापेक्ष एन्ट्रापी]] | * [[सामान्यीकृत सापेक्ष एन्ट्रापी]] | ||
* | * मैक्स-एन्ट्रापी | ||
==संदर्भ== | ==संदर्भ== | ||
Line 123: | Line 123: | ||
[[Category: Machine Translated Page]] | [[Category: Machine Translated Page]] | ||
[[Category:Created On 04/12/2023]] | [[Category:Created On 04/12/2023]] | ||
[[Category:Vigyan Ready]] |
Latest revision as of 09:18, 12 December 2023
सूचना सिद्धांत में मिन-एन्ट्रॉपी, रेनी एन्ट्रॉपी, एंट्रॉपी के रेनी समूह में सबसे छोटी है, जो परिणामों के एक सेट की अप्रत्याशितता को मापने के रेनी एन्ट्रॉपी, मिन-एन्ट्रॉपी तरीके के अनुरूप है, जो कि संभाव्यता के ऋणात्मक लघुगणक के रूप में सबसे संभावित परिणाम है। एक समान वितरण के लिए विभिन्न रेनी एन्ट्रॉपी सभी समान हैं, लेकिन विभिन्न तरीकों से एक गैर-समान वितरण की अप्रत्याशितता को मापते हैं। मिन-एन्ट्रॉपी कभी भी सामान्य या शैनन एन्ट्रापी (जो परिणामों की औसत अप्रत्याशितता को मापती है) से अधिक नहीं होती है और बदले में यह कभी भी हार्टले या रेनी एन्ट्रॉपी, हार्टले या मैक्स-एंट्रॉपी से अधिक नहीं होती है, जिसे इस रूप में परिभाषित किया गया है शून्येतर संभावना वाले परिणामों की संख्या का लघुगणक।
चिरसम्मत शैनन एन्ट्रॉपी और इसके क्वांटम सामान्यीकरण, वॉन न्यूमैन एन्ट्रापी के साथ, कोई भी मिन-एन्ट्रॉपी के एक सशर्त संस्करण को परिभाषित कर सकता है। सशर्त क्वांटम मिन-एन्ट्रॉपी एक-शॉट, या अपरिवर्तनवादी, सशर्त क्वांटम एन्ट्रॉपी का एनालॉग है।
एक सशर्त सूचना माप की व्याख्या करने के लिए, मान लीजिए कि ऐलिस और बॉब को एक द्विदलीय क्वांटम स्थिति साझा करनी थी . ऐलिस के पास सिस्टम तक पहुंच है और बॉब सिस्टम के लिए . सशर्त एन्ट्रापी बॉब द्वारा अपने सिस्टम से नमूना लेने पर ऐलिस की स्थिति के बारे में औसत अनिश्चितता को मापती है। मिन-एंट्रॉपी की व्याख्या किसी अवस्था की अधिकतम उलझी हुई स्थिति से दूरी के रूप में की जा सकती है।
यह अवधारणा गोपनीयता प्रवर्धन के संदर्भ में क्वांटम क्रिप्टोग्राफी में उपयोगी है (उदाहरण के लिए देखें)। [1]).
चिरसम्मत वितरण के लिए परिभाषा
अगर एक चिरसम्मत परिमित संभाव्यता वितरण है, इसकी मिन-एन्ट्रापी को इस प्रकार परिभाषित किया जा सकता है[2]
क्वांटम अवस्थाओं की परिभाषा
क्वांटम अवस्थाओं के लिए न्यूनतम-एन्ट्रापी को परिभाषित करने का एक प्राकृतिक तरीका सरल अवलोकन का लाभ उठाना है कि क्वांटम अवस्थाओं को कुछ आधारों पर मापा जाने पर संभाव्यता वितरण में परिणाम मिलता है। हालाँकि इसमें अतिरिक्त कठिनाई यह है कि एक एकल क्वांटम स्थिति के परिणामस्वरूप अनंत रूप से कई संभावित संभाव्यता वितरण हो सकते हैं, यह इस बात पर निर्भर करता है कि इसे कैसे मापा जाता है। फिर एक प्राकृतिक पथ को क्वांटम अवस्था दी जाती है , अभी भी परिभाषित करने के लिए जैसा , लेकिन इस बार परिभाषित अधिकतम संभव संभावना के रूप में जिसे मापकर प्राप्त किया जा सकता है , सभी संभावित प्रक्षेप्य मापों को अधिकतम करना।
औपचारिक रूप से, यह परिभाषा प्रदान करेगा
दोहरे अधिकतमकरण को लिखने के लिए एक अधिक संक्षिप्त विधि यह देखना है कि किसी भी पीओवीएम का कोई भी तत्व एक हर्मिटियन ऑपरेटर है जैसे कि , और इस प्रकार हम इन्हें प्राप्त करने के लिए समान रूप से सीधे अधिकतम कर सकते हैं
सशर्त एन्ट्रॉपी
मान लीजिये समष्टि पर एक द्विपक्षीय घनत्व ऑपरेटर बनें . की मिन-एन्ट्रॉपी पर वातानुकूलित होने के लिए परिभाषित किया गया है
जहां सभी घनत्व ऑपरेटरों पर न्यूनतम सीमा होती है समष्टि पर . पैमाना अधिकतम सापेक्ष एन्ट्रापी के रूप में परिभाषित किया गया है
स्मूथ मिन-एन्ट्रॉपी को मिन-एन्ट्रॉपी के संदर्भ में परिभाषित किया गया है।
जहां घनत्व ऑपरेटरों पर सुपर और इन्फ रेंज होती है जो हैं -के निकट . यह उपाय -बंद को शुद्ध दूरी के संदर्भ में परिभाषित किया गया है
जहाँ क्वांटम अवस्थाओं की निष्ठा माप है।
इन परिस्थितियों को वॉन न्यूमैन एन्ट्रापी के सामान्यीकरण के रूप में देखा जा सकता है। दरअसल, वॉन न्यूमैन एन्ट्रॉपी को इस प्रकार व्यक्त किया जा सकता है
इसे पूर्णतः क्वांटम एसिम्प्टोटिक समविभाजन प्रमेय कहा जाता है।[3] स्मूथ एन्ट्रॉपी वॉन न्यूमैन एन्ट्रॉपी के साथ कई दिलचस्प गुण साझा करती हैं। उदाहरण के लिए, सुचारु मिन-एन्ट्रॉपी डेटा-प्रोसेसिंग असमानता को संतुष्ट करती है:[4]
स्मूथ मिन-एन्ट्रॉपी की परिचालन व्याख्या
अब से, हम सबस्क्रिप्ट छोड़ देंगे मिन-एंट्रॉपी से जब यह संदर्भ से स्पष्ट होता है कि इसका मूल्यांकन किस स्थिति में किया जाता है।
चिरसम्मत जानकारी के बारे में अनिश्चितता के रूप में न्यूनतम-एन्ट्रापी
मान लीजिए कि एक एजेंट के पास क्वांटम सिस्टम तक पहुंच थी किसका अवस्था कुछ चिरसम्मत चर पर निर्भर करता है . इसके अलावा, मान लीजिए कि इसका प्रत्येक तत्व कुछ वितरण के अनुसार वितरित किया जाता है . इसे सिस्टम पर निम्नलिखित स्थिति द्वारा वर्णित किया जा सकता है .
जहाँ एक लंबात्मक आधार बनाएं। हम जानना चाहेंगे कि एजेंट चिरसम्मत चर के बारे में क्या सीख सकता है . मान लीजिये वह प्रायिकता हो जिसका एजेंट अनुमान लगाता है इष्टतम माप उपाय का उपयोग करते समय
जहाँ वह पीओवीएम है जो इस अभिव्यक्ति को अधिकतम करता है। इसे दिखाया जा सकता है कि इस इष्टतम को मिन-एन्ट्रॉपी के रूप में व्यक्त किया जा सकता है
यदि अवस्था एक उत्पाद अवस्था है अर्थात कुछ घनत्व ऑपरेटरों के लिए और , तो सिस्टम के बीच कोई संबंध नहीं है और . इस स्थिति में, यह पता चला है
अधिकतम उलझी हुई (इनटंगलेड) अवस्था के साथ ओवरलैप के रूप में मिन-एन्ट्रॉपी
अधिकतम उलझी हुई अवस्था द्विदलीय व्यवस्था पर परिभाषित किया जाता है
जहाँ और रिक्त स्थान के लिए एक लंबात्मक आधार बनाएं और क्रमश। द्विदलीय क्वांटम अवस्था के लिए , हम अधिकतम उलझी हुई अवस्था के साथ अधिकतम ओवरलैप को इस प्रकार परिभाषित करते हैं
जहां सभी सीपीटीपी परिचालनों में अधिकतम है और उपप्रणाली का आयाम है . यह इस बात का माप है कि अवस्था कितना सहसंबद्ध है है। ऐसा दिखाया जा सकता है . यदि जानकारी इसमें निहित है चिरसम्मत है, यह अनुमान लगाने की संभावना के लिए उपरोक्त अभिव्यक्ति को कम कर देता है।
मिन-एन्ट्रॉपी के परिचालन लक्षण वर्णन का प्रमाण
इसका प्रमाण 2008 में कोनिग, शेफ़नर, रेनर के एक पेपर से है।[5] इसमें अर्धनिश्चित प्रोग्रामिंग की मशीनरी सम्मिलित है।[6] मान लीजिए हमें कुछ द्विपक्षीय घनत्व ऑपरेटर दिया गया है . मिन-एन्ट्रॉपी की परिभाषा से, हमारे पास है
इसे इस प्रकार पुनः लिखा जा सकता है
शर्तों के अधीन
हमने देखा कि इन्फ़िमम को कॉम्पैक्ट सेट पर लिया गया है और इसलिए इसे न्यूनतम से बदला जा सकता है। इसे फिर एक अर्धनिश्चित कार्यक्रम के रूप में संक्षेप में व्यक्त किया जा सकता है। मूल समस्या पर विचार करें
इस मौलिक समस्या को मैट्रिक्स द्वारा भी पूरी तरह से निर्दिष्ट किया जा सकता है जहाँ आंशिक ट्रेस ओवर का जोड़ है . की कार्रवाई ऑपरेटरों पर के रूप में लिखा जा सकता है
हम दोहरी समस्या को ऑपरेटरों पर अधिकतमकरण के रूप में व्यक्त कर सकते हैं समष्टि पर जैसा
चोई-जामियोल्कोव्स्की समरूपता का उपयोग करके, हम चैनल को परिभाषित कर सकते हैं ऐसा है कि
जहां समष्टि में बेल्ल स्टेट को परिभाषित किया गया है . इसका मतलब यह है कि हम दोहरी समस्या के उदेश्य फलन को इस प्रकार व्यक्त कर सकते हैं
के रूप में वांछित।
ध्यान दें कि ऐसी स्थिति में सिस्टम जैसा कि ऊपर बताया गया है, आंशिक रूप से चिरसम्मत अवस्था है, तो हम जिस मात्रा के पीछे हैं वह कम हो जाती है
हम व्याख्या कर सकते हैं एक अनुमान लगाने की उपाय के रूप में और फिर यह ऊपर दी गई व्याख्या तक सीमित हो जाता है जहां एक प्रतिद्वंद्वी स्ट्रिंग ढूंढना चाहता है सिस्टम के माध्यम से क्वांटम जानकारी तक पहुंच प्रदान की गई .
यह भी देखें
- वॉन न्यूमैन एन्ट्रॉपी
- सामान्यीकृत सापेक्ष एन्ट्रापी
- मैक्स-एन्ट्रापी
संदर्भ
- ↑ Vazirani, Umesh; Vidick, Thomas (29 September 2014). "पूरी तरह से डिवाइस-स्वतंत्र क्वांटम कुंजी वितरण". Physical Review Letters. 113 (14): 140501. arXiv:1210.1810. Bibcode:2014PhRvL.113n0501V. doi:10.1103/physrevlett.113.140501. ISSN 0031-9007. PMID 25325625. S2CID 119299119.
- ↑ König, Robert; Renner, Renato; Schaffner, Christian (2009). "न्यूनतम और अधिकतम-एन्ट्रॉपी का परिचालनात्मक अर्थ". IEEE Transactions on Information Theory. Institute of Electrical and Electronics Engineers (IEEE). 55 (9): 4337–4347. arXiv:0807.1338. doi:10.1109/tit.2009.2025545. ISSN 0018-9448. S2CID 17160454.
- ↑ Tomamichel, Marco; Colbeck, Roger; Renner, Renato (2009). "एक पूरी तरह से क्वांटम स्पर्शोन्मुख समविभाजन संपत्ति". IEEE Transactions on Information Theory. Institute of Electrical and Electronics Engineers (IEEE). 55 (12): 5840–5847. arXiv:0811.1221. doi:10.1109/tit.2009.2032797. ISSN 0018-9448. S2CID 12062282.
- ↑ Renato Renner, "Security of Quantum Key Distribution", Ph.D. Thesis, Diss. ETH No. 16242 arXiv:quant-ph/0512258
- ↑ König, Robert; Renner, Renato; Schaffner, Christian (2009). "न्यूनतम और अधिकतम-एन्ट्रॉपी का परिचालनात्मक अर्थ". IEEE Transactions on Information Theory. Institute of Electrical and Electronics Engineers (IEEE). 55 (9): 4337–4347. arXiv:0807.1338. doi:10.1109/tit.2009.2025545. ISSN 0018-9448. S2CID 17160454.
- ↑ John Watrous, Theory of quantum information, Fall 2011, course notes, https://cs.uwaterloo.ca/~watrous/CS766/LectureNotes/07.pdf