उष्मागतिकी और सूचना सिद्धांत में एन्ट्रॉपी
1870 के दशक में लुडविग बोल्ट्ज़मान और जे विलार्ड गिब्स द्वारा स्थापित सांख्यिकीय ऊष्मप्रवैगिकी फॉर्मूलेशन में थर्मोडायनामिक एन्ट्रॉपी के लिए गणितीय अभिव्यक्तियां 1940 के दशक में विकसित क्लाउड एलवुड शैनन और राल्फ हार्टले द्वारा सूचना एन्ट्रॉपी के समान हैं।
परिभाषित भावों के रूप की समतुल्यता
1870 के दशक में लुडविग बोल्ट्ज़मैन और जे. विलार्ड गिब्स द्वारा स्थापित सांख्यिकीय यांत्रिकी के सिद्धांत में एन्ट्रापी के लिए परिभाषित अभिव्यक्ति इस प्रकार है:
कहाँ माइक्रोस्टेट (सांख्यिकीय यांत्रिकी) की संभावना है जिसे मैंने एक एन्सेम्बल (गणितीय भौतिकी) से लिया है, और बोल्ट्ज़मान स्थिरांक है।
1948 में क्लाउड ई. शैनन द्वारा स्थापित सूचना सिद्धांत के सिद्धांत में सूचना एन्ट्रापी के लिए परिभाषित अभिव्यक्ति इस प्रकार है:
कहाँ संदेश की संभावना है संदेश स्थान M से लिया गया है, और b प्रयुक्त लघुगणक का आधार (घातांक) है। बी के सामान्य मान 2, ई (गणितीय स्थिरांक)|यूलर की संख्या हैं e, और 10, और एन्ट्रापी की इकाई b = 2 के लिए शैनन (इकाई) (या अंश ) है, b = के लिए नेट (इकाई) हैe, और b = 10 के लिए हार्टले (इकाई)।[1] गणितीय रूप से एच को संदेश स्थान पर ली गई औसत जानकारी के रूप में भी देखा जा सकता है, क्योंकि जब एक निश्चित संदेश संभाव्यता पी के साथ होता हैi, सूचना मात्रा −लॉग(पीi) (सूचना सामग्री या स्व-सूचना कहा जाता है) प्राप्त किया जाएगा।
यदि सभी माइक्रोस्टेट समसंभाव्य (एक माइक्रोकैनोनिकल पहनावा) हैं, तो सांख्यिकीय थर्मोडायनामिक एन्ट्रॉपी बोल्ट्ज़मैन द्वारा दिए गए रूप में कम हो जाती है,
जहां W सूक्ष्म अवस्थाओं की संख्या है जो 'मैक्रोस्कोपिक' थर्मोडायनामिक अवस्था से मेल खाती है। इसलिए S तापमान पर निर्भर करता है।
यदि सभी संदेश समसंभाव्य हैं, तो सूचना एन्ट्रापी हार्टले एन्ट्रापी तक कम हो जाती है
कहाँ संदेश स्थान एम की प्रमुखता है।
थर्मोडायनामिक परिभाषा में लघुगणक प्राकृतिक लघुगणक है। यह दिखाया जा सकता है कि एन्ट्रॉपी (सांख्यिकीय थर्मोडायनामिक्स) सूत्र, प्राकृतिक लघुगणक के साथ, रुडोल्फ क्लॉसियस के मैक्रोस्कोपिक शास्त्रीय थर्मोडायनामिक्स के सभी गुणों को पुन: उत्पन्न करता है। (लेख देखें: एन्ट्रॉपी (सांख्यिकीय दृश्य))।
सूचना एन्ट्रापी के मामले में लघुगणक को प्राकृतिक आधार पर भी ले जाया जा सकता है। यह सामान्य बिट्स (या अधिक औपचारिक रूप से, शैनन) के बजाय नेट्स में जानकारी को मापने का चयन करने के बराबर है। व्यवहार में, सूचना एन्ट्रापी की गणना लगभग हमेशा आधार-2 लघुगणक का उपयोग करके की जाती है, लेकिन यह अंतर इकाइयों में बदलाव के अलावा और कुछ नहीं है। एक नेट लगभग 1.44 शैनन के बराबर होता है।
एक सरल संपीड़ित प्रणाली के लिए जो केवल आयतन कार्य कर सकती हैशास्त्रीय ऊष्मप्रवैगिकी का पहला नियम बन जाता है
लेकिन कोई भी इस समीकरण को समान रूप से अच्छी तरह से लिख सकता है जिसे भौतिक विज्ञानी और रसायनज्ञ कभी-कभी 'कम' या आयामहीन एन्ट्रॉपी कहते हैं, σ = S/k, ताकि
जिस प्रकार S, T से संयुग्मित है, उसी प्रकार σ, k से संयुग्मित हैBटी (वह ऊर्जा जो आणविक पैमाने पर टी की विशेषता है)। इस प्रकार सांख्यिकीय यांत्रिकी में एन्ट्रॉपी की परिभाषा (एंट्रॉपी (सांख्यिकीय थर्मोडायनामिक्स)#गिब्स_एन्ट्रॉपी_फॉर्मूला ) और शास्त्रीय थर्मोडायनामिक्स में (, और मौलिक थर्मोडायनामिक संबंध) माइक्रोकैनोनिकल पहनावा के लिए समतुल्य हैं, और सांख्यिकीय पहनावा एक जलाशय के साथ संतुलन में थर्मोडायनामिक प्रणाली का वर्णन करता है, जैसे कि कैनोनिकल पहनावा, भव्य कैनोनिकल पहनावा, इज़ोटेर्मल-आइसोबैरिक पहनावा। यह समानता आमतौर पर पाठ्यपुस्तकों में दिखाई जाती है। हालाँकि, एन्ट्रॉपी की थर्मोडायनामिक परिभाषा और एन्ट्रॉपी_(सांख्यिकीय_थर्मोडायनामिक्स)#गिब्स_एंट्रॉपी_फॉर्मूला के बीच समानता सामान्य नहीं है, बल्कि बोल्ट्ज़मैन वितरण#सामान्यीकृत बोल्ट्ज़मैन वितरण की एक विशेष संपत्ति है।[2] इसके अलावा, यह दिखाया गया है कि सांख्यिकीय यांत्रिकी में एन्ट्रापी की परिभाषा एकमात्र एन्ट्रापी है जो निम्नलिखित अभिधारणाओं के तहत शास्त्रीय थर्मोडायनामिक्स एन्ट्रापी के बराबर है:[3]
- The probability density function is proportional to some function of the ensemble parameters and random variables.
- Thermodynamic state functions are described by ensemble averages of random variables.
- At infinite temperature, all the microstates have the same probability.
सैद्धांतिक संबंध
उपरोक्त के बावजूद, दोनों मात्राओं के बीच अंतर है। सूचना एन्ट्रापी Η की गणना किसी भी संभाव्यता वितरण के लिए की जा सकती है (यदि संदेश को यह माना जाए कि घटना i जिसकी संभाव्यता p थी)iघटित, संभव घटनाओं के स्थान से बाहर), जबकि एन्ट्रापी एस थर्मोडायनामिक संभावनाओं पी को संदर्भित करता हैiविशेष रूप से. हालाँकि, अंतर वास्तविक से अधिक सैद्धांतिक है, क्योंकि किसी भी संभाव्यता वितरण को कुछ थर्मोडायनामिक प्रणाली द्वारा मनमाने ढंग से बारीकी से अनुमानित किया जा सकता है।[citation needed]
इसके अलावा, दोनों के बीच सीधा संबंध बनाया जा सकता है। यदि प्रश्न में संभावनाएँ थर्मोडायनामिक संभावनाएँ p हैंi: (कम) गिब्स एन्ट्रॉपी σ को इसके स्थूल विवरण को देखते हुए, सिस्टम की विस्तृत सूक्ष्म स्थिति को परिभाषित करने के लिए आवश्यक शैनन जानकारी की मात्रा के रूप में देखा जा सकता है। या, 1930 में रासायनिक एन्ट्रापी के बारे में लिखने वाले जी.एन. लुईस के शब्दों में, एन्ट्रापी में लाभ का मतलब हमेशा जानकारी का नुकसान होता है, और कुछ नहीं। अधिक ठोस होने के लिए, आधार दो लघुगणक का उपयोग करते हुए असतत मामले में, कम गिब्स एन्ट्रॉपी माइक्रोस्टेट (सांख्यिकीय यांत्रिकी) को पूरी तरह से निर्दिष्ट करने के लिए उत्तर देने के लिए आवश्यक हां-नहीं प्रश्नों की न्यूनतम संख्या के औसत के बराबर है, यह देखते हुए हम मैक्रोस्टेट को जानते हैं।
इसके अलावा, उचित बाधाओं (गिब्स एल्गोरिथ्म) के अधीन गिब्स एन्ट्रापी को अधिकतम करके सांख्यिकीय यांत्रिकी के संतुलन वितरण को खोजने के नुस्खे - जैसे कि बोल्ट्जमैन वितरण - को थर्मोडायनामिक्स के लिए अद्वितीय नहीं, बल्कि सामान्य प्रासंगिकता के सिद्धांत के रूप में देखा जा सकता है। सांख्यिकीय अनुमान में, यदि इसके औसत पर कुछ बाधाओं के अधीन, अधिकतम एन्ट्रापी का सिद्धांत खोजना वांछित है। (इन परिप्रेक्ष्यों को अधिकतम एन्ट्रापी थर्मोडायनामिक्स लेख में आगे खोजा गया है।)
सूचना सिद्धांत में शैनन एन्ट्रापी को कभी-कभी प्रति प्रतीक बिट्स की इकाइयों में व्यक्त किया जाता है। भौतिक एन्ट्रापी प्रति मात्रा के आधार पर हो सकती है (एच) जिसे सामान्य कुल एन्ट्रापी के बजाय गहन और व्यापक गुण एन्ट्रापी कहा जाता है जिसे व्यापक एन्ट्रापी कहा जाता है। एक संदेश के शैनन (Η) इसकी कुल व्यापक सूचना एन्ट्रापी हैं और संदेश में बिट्स की संख्या का h गुना है।
एच और एस के बीच एक सीधा और शारीरिक रूप से वास्तविक संबंध प्रत्येक माइक्रोस्टेट के लिए एक प्रतीक निर्दिष्ट करके पाया जा सकता है जो एक सजातीय पदार्थ के प्रति मोल, किलोग्राम, आयतन या कण में होता है, फिर इन प्रतीकों के 'एच' की गणना करता है। सिद्धांत या अवलोकन से, प्रतीक (माइक्रोस्टेट्स) अलग-अलग संभावनाओं के साथ घटित होंगे और यह एच निर्धारित करेगा। यदि इकाई पदार्थ के एन मोल, किलोग्राम, आयतन या कण हैं, तो एच (प्रति इकाई पदार्थ बिट्स में) और नेट में भौतिक व्यापक एन्ट्रापी के बीच संबंध है:
जहां ln(2) शैनन एन्ट्रापी के आधार 2 से भौतिक एन्ट्रापी के प्राकृतिक आधार ई में रूपांतरण कारक है। एन एच एन्ट्रापी एस के साथ एक भौतिक प्रणाली की स्थिति का वर्णन करने के लिए आवश्यक बिट्स में जानकारी की मात्रा है। लैंडौएर का सिद्धांत एक आदर्श रूप से कुशल मेमोरी परिवर्तन द्वारा आवश्यक न्यूनतम ऊर्जा ई (और इसलिए गर्मी क्यू उत्पन्न) बताकर इसकी वास्तविकता को प्रदर्शित करता है। सूचना के एनएच बिट्स को अपरिवर्तनीय रूप से मिटाने या विलय करने से तर्क संचालन तापमान का एस गुना होगा
जहां h सूचनात्मक बिट्स में है और E और Q भौतिक जूल में हैं। इसकी प्रयोगात्मक पुष्टि हो चुकी है।[4] तापमान एक आदर्श गैस (केल्विन =) में प्रति कण औसत गतिज ऊर्जा का माप है 2/3 जूल/केB) तो k की J/K इकाइयाँB आयामहीन (जूल/जूल) है। कb ऊर्जा से रूपांतरण कारक है 3/2 एक आदर्श गैस के लिए केल्विन से जूल तक। यदि किसी आदर्श गैस के प्रति कण की गतिज ऊर्जा माप को केल्विन के बजाय जूल के रूप में व्यक्त किया जाता है, तो kb उपरोक्त समीकरणों में 3/2 द्वारा प्रतिस्थापित किया जाएगा। इससे पता चलता है कि एस माइक्रोस्टेट्स का एक सच्चा सांख्यिकीय माप है जिसमें सूचना की इकाइयों के अलावा कोई मौलिक भौतिक इकाई नहीं है, इस मामले में नेट्स, जो कि केवल एक बयान है कि सम्मेलन द्वारा किस लघुगणक आधार को चुना गया था।
जानकारी भौतिक है
स्ज़ीलार्ड का इंजन
एक भौतिक विचार प्रयोग यह प्रदर्शित करता है कि सैद्धांतिक रूप से जानकारी रखने से थर्मोडायनामिक परिणाम कैसे हो सकते हैं, यह प्रसिद्ध मैक्सवेल के दानव परिदृश्य के परिशोधन में, 1929 में लेओ स्ज़ीलार्ड द्वारा स्थापित किया गया था।[5]
मैक्सवेल के सेट-अप पर विचार करें, लेकिन एक बॉक्स में केवल एक गैस कण के साथ। यदि अलौकिक दानव को पता है कि कण बॉक्स के किस आधे हिस्से में है (सूचना के एक बिट के बराबर), तो वह बॉक्स के दो हिस्सों के बीच एक शटर बंद कर सकता है, बॉक्स के खाली आधे हिस्से में एक पिस्टन को निर्विरोध बंद कर सकता है, और फिर निकालें यदि शटर दोबारा खोला जाए तो जूल उपयोगी कार्य। फिर कण को समतापीय रूप से अपने मूल संतुलन व्याप्त आयतन में वापस विस्तारित होने के लिए छोड़ा जा सकता है। इसलिए बिल्कुल सही परिस्थितियों में, शैनन जानकारी के एक बिट (ब्रिलॉइन के शब्द में नकारात्मकता का एक बिट) का कब्ज़ा वास्तव में भौतिक प्रणाली की एन्ट्रापी में कमी के अनुरूप है। वैश्विक एन्ट्रॉपी कम नहीं हुई है, लेकिन मुक्त ऊर्जा रूपांतरण की जानकारी संभव है।
इस विचार प्रयोग को एक चरण-विपरीत माइक्रोस्कोपी | चरण-कंट्रास्ट माइक्रोस्कोप का उपयोग करके भौतिक रूप से प्रदर्शित किया गया है, जो एक कंप्यूटर से जुड़े उच्च गति वाले कैमरे से सुसज्जित है, जो दानव के रूप में कार्य करता है।[6] इस प्रयोग में, ऊर्जा रूपांतरण की जानकारी फीडबैक नियंत्रण के माध्यम से एक प्रकार कि गति कण पर की जाती है; अर्थात्, कण को दिए गए कार्य को उसकी स्थिति पर प्राप्त जानकारी के साथ सिंक्रनाइज़ करना। विभिन्न फीडबैक प्रोटोकॉल के लिए ऊर्जा संतुलन की गणना ने पुष्टि की है कि जर्ज़िनस्की समानता के लिए एक सामान्यीकरण की आवश्यकता होती है जो फीडबैक में शामिल जानकारी की मात्रा का हिसाब रखती है।
लैंडौएर का सिद्धांत
वास्तव में कोई भी सामान्यीकरण कर सकता है: कोई भी जानकारी जिसका भौतिक प्रतिनिधित्व है, उसे किसी न किसी तरह भौतिक प्रणाली की स्वतंत्रता की सांख्यिकीय यांत्रिक डिग्री में एम्बेड किया जाना चाहिए।
इस प्रकार, रॉल्फ लैंडौएर ने 1961 में तर्क दिया, यदि कोई थर्मलाइज्ड अवस्था में स्वतंत्रता की उन डिग्री के साथ शुरुआत करने की कल्पना करता है, तो थर्मोडायनामिक एन्ट्रापी में वास्तविक कमी होगी यदि उन्हें फिर से ज्ञात अवस्था में सेट किया जाए। यह केवल सूचना-संरक्षण सूक्ष्म रूप से नियतात्मक गतिशीलता के तहत प्राप्त किया जा सकता है यदि अनिश्चितता को किसी तरह कहीं और डंप किया जाता है - यानी यदि पर्यावरण की एन्ट्रापी (या स्वतंत्रता की गैर-सूचना-असर वाली डिग्री) कम से कम एक समतुल्य मात्रा में बढ़ जाती है, जैसा कि आवश्यक है दूसरे नियम के अनुसार, उचित मात्रा में ऊष्मा प्राप्त करके: विशेष रूप से प्रत्येक 1 बिट यादृच्छिकता के लिए kT ln 2 ऊष्मा मिटा दी जाती है।
दूसरी ओर, लैंडॉउर ने तर्क दिया, सिस्टम में भौतिक रूप से प्रतिवर्ती तरीके से संभावित रूप से प्राप्त किए जाने वाले तार्किक रूप से प्रतिवर्ती ऑपरेशन पर कोई थर्मोडायनामिक आपत्ति नहीं है। यह केवल तार्किक रूप से अपरिवर्तनीय संचालन है - उदाहरण के लिए, किसी ज्ञात स्थिति में बिट को मिटाना, या दो गणना पथों का विलय - जो संबंधित एन्ट्रापी वृद्धि के साथ होना चाहिए। जब सूचना भौतिक होती है, तो इसके अभ्यावेदन की सभी प्रसंस्करण, यानी पीढ़ी, एन्कोडिंग, ट्रांसमिशन, डिकोडिंग और व्याख्या, प्राकृतिक प्रक्रियाएं होती हैं जहां मुक्त ऊर्जा की खपत से एन्ट्रापी बढ़ती है।[7] मैक्सवेल के दानव/स्ज़ीलार्ड इंजन परिदृश्य पर लागू होने पर, यह पता चलता है कि एन्ट्रापी लागत के बिना एक कंप्यूटिंग उपकरण में कण की स्थिति को पढ़ना संभव हो सकता है; लेकिन केवल तभी जब उपकरण पहले से ही मौजूद हो SET अनिश्चितता की थर्मल स्थिति में होने के बजाय, एक ज्ञात स्थिति में। को SET (या RESET) इस अवस्था में उपकरण को सारी एन्ट्रापी खर्च करनी पड़ेगी जिसे स्ज़ीलार्ड के कण की स्थिति जानकर बचाया जा सकता है।
नेगेंट्रॉपी
शैनन एन्ट्रॉपी को भौतिक विज्ञानी लियोन ब्रिलोइन ने एक अवधारणा से जोड़ा है जिसे कभी-कभी नेगेंट्रॉपी कहा जाता है। 1953 में ब्रिलोइन ने एक सामान्य समीकरण निकाला[8] यह बताते हुए कि सूचना बिट मान को बदलने के लिए कम से कम kT ln(2) ऊर्जा की आवश्यकता होती है। यह वही ऊर्जा है जो आदर्शवादी मामले में लियो स्ज़ीलार्ड का इंजन पैदा करता है, जो बदले में रॉल्फ लैंडौएर द्वारा पाई गई समान मात्रा के बराबर होती है। उनकी किताब में,[9] उन्होंने आगे इस समस्या का पता लगाया और निष्कर्ष निकाला कि बिट मान परिवर्तन (माप, हां/नहीं प्रश्न के बारे में निर्णय, मिटाना, प्रदर्शन इत्यादि) के किसी भी कारण के लिए समान मात्रा, केटी एलएन (2) ऊर्जा की आवश्यकता होगी। नतीजतन, किसी सिस्टम के माइक्रोस्टेट्स के बारे में जानकारी प्राप्त करना एन्ट्रापी उत्पादन से जुड़ा होता है, जबकि मिटाने से एन्ट्रापी उत्पादन तभी होता है जब बिट मान बदल रहा हो। मूल रूप से थर्मल संतुलन में एक उप-प्रणाली में थोड़ी सी जानकारी स्थापित करने से स्थानीय एन्ट्रापी में कमी आती है। हालाँकि, ब्रिलोइन के अनुसार, थर्मोडायनामिक्स के दूसरे नियम का कोई उल्लंघन नहीं है, क्योंकि किसी भी स्थानीय प्रणाली की थर्मोडायनामिक एन्ट्रॉपी में कमी के परिणामस्वरूप अन्यत्र थर्मोडायनामिक एन्ट्रॉपी में वृद्धि होती है। इस प्रकार, ब्रिलोइन ने नेगेंट्रॉपी के अर्थ को स्पष्ट किया जिसे विवादास्पद माना गया क्योंकि इसकी पहले की समझ से कार्नोट की दक्षता एक से अधिक हो सकती है। इसके अतिरिक्त, ब्रिलोइन द्वारा तैयार की गई ऊर्जा और सूचना के बीच संबंध को मस्तिष्क द्वारा संसाधित की जाने वाली बिट्स की मात्रा और उसके द्वारा उपभोग की जाने वाली ऊर्जा के बीच एक संबंध के रूप में प्रस्तावित किया गया है: कोलेल और फॉक्वेट [10] तर्क दिया कि डी कास्त्रो [11] विश्लेषणात्मक रूप से लैंडॉउर सीमा को मस्तिष्क गणना के लिए थर्मोडायनामिक निचली सीमा के रूप में पाया गया। हालाँकि, भले ही विकास ने सबसे ऊर्जावान रूप से कुशल प्रक्रियाओं का चयन किया हो, लेकिन मस्तिष्क में भौतिक निचली सीमाएं यथार्थवादी मात्रा नहीं हैं। सबसे पहले, क्योंकि भौतिकी में मानी जाने वाली न्यूनतम प्रसंस्करण इकाई परमाणु/अणु है, जो मस्तिष्क के संचालन के वास्तविक तरीके से बहुत दूर है; और, दूसरी बात, क्योंकि तंत्रिका नेटवर्क में महत्वपूर्ण अतिरेक और शोर कारक शामिल होते हैं जो उनकी दक्षता को काफी कम कर देते हैं।[12] लाफलिन एट अल. [13] संवेदी जानकारी के प्रसंस्करण की ऊर्जावान लागत के लिए स्पष्ट मात्रा प्रदान करने वाला पहला था। ब्लोफ्लाइज़ में उनके निष्कर्षों से पता चला कि दृश्य संवेदी डेटा के लिए, सूचना के एक बिट को प्रसारित करने की लागत लगभग 5 × 10 है−14जूल, या समकक्ष 104एटीपी अणु। इस प्रकार, तंत्रिका प्रसंस्करण दक्षता अभी भी लैंडॉउर की kTln(2) J की सीमा से बहुत दूर है, लेकिन एक जिज्ञासु तथ्य के रूप में, यह अभी भी आधुनिक कंप्यूटरों की तुलना में बहुत अधिक कुशल है।
2009 में, माहुलिकर और हेरविग ने थर्मोडायनामिक नेगेंट्रॉपी को उसके परिवेश के सापेक्ष गतिशील रूप से आदेशित उप-प्रणाली के विशिष्ट एन्ट्रापी घाटे के रूप में फिर से परिभाषित किया।[14] इस परिभाषा ने नेगेंट्रॉपी सिद्धांत के निर्माण को सक्षम किया, जिसे गणितीय रूप से ऑर्डर अस्तित्व के दौरान थर्मोडायनामिक्स के दूसरे कानून से पालन करने के लिए दिखाया गया है।
क्वांटम सिद्धांत
हिर्शमैन ने दिखाया,[15] सी एफ हिर्शमैन की अनिश्चितता, कि हाइजेनबर्ग के अनिश्चितता सिद्धांत को क्वांटम यांत्रिक स्थिति के क्वांटम अवलोकन योग्य संभाव्यता वितरण के शास्त्रीय वितरण एन्ट्रॉपियों के योग पर एक विशेष निचली सीमा के रूप में व्यक्त किया जा सकता है, तरंग-फ़ंक्शन का वर्ग, समन्वय में, और गति स्थान भी , जब प्लैंक इकाइयों में व्यक्त किया जाता है। परिणामी असमानताएं हाइजेनबर्ग के अनिश्चितता संबंधों पर एक मजबूत बंधन प्रदान करती हैं।
संयुक्त एन्ट्रॉपी निर्दिष्ट करना सार्थक है, क्योंकि स्थिति और संवेग क्वांटम संयुग्म चर हैं और इसलिए संयुक्त रूप से देखने योग्य नहीं हैं। गणितीय रूप से, उन्हें संयुक्त वितरण के रूप में माना जाना चाहिए। ध्यान दें कि यह संयुक्त एन्ट्रॉपी वॉन न्यूमैन एन्ट्रापी के बराबर नहीं है, −Tr ρ lnρ = −⟨lnρ⟩। कहा जाता है कि हिर्शमैन की एन्ट्रॉपी क्वांटम अवस्थाओं के मिश्रण की संपूर्ण सूचना सामग्री के लिए जिम्मेदार होती है।[16] (क्वांटम जानकारी के दृष्टिकोण से वॉन न्यूमैन एन्ट्रापी के प्रति असंतोष स्टॉटलैंड, पोमेरांस्की, बैचमैट और कोहेन द्वारा व्यक्त किया गया है, जिन्होंने एन्ट्रापी की एक अलग परिभाषा पेश की है जो क्वांटम यांत्रिक राज्यों की अंतर्निहित अनिश्चितता को दर्शाती है। यह परिभाषा बीच अंतर की अनुमति देती है। शुद्ध अवस्थाओं की न्यूनतम अनिश्चितता एन्ट्रापी, और मिश्रण की अतिरिक्त सांख्यिकीय एन्ट्रापी।[17])
यह भी देखें
- Thermodynamic entropy
- Information entropy
- Thermodynamics
- Statistical mechanics
- Information theory
- Quantum entanglement
- Quantum decoherence
- Fluctuation theorem
- Black hole entropy
- Black hole information paradox
- Entropy (information theory)
- Entropy (statistical thermodynamics)
- Entropy (order and disorder)
- Orders of magnitude (entropy)
संदर्भ
- ↑ Schneider, T.D, Information theory primer with an appendix on logarithms, National Cancer Institute, 14 April 2007.
- ↑ Gao, Xiang; Gallicchio, Emilio; Roitberg, Adrian (2019). "सामान्यीकृत बोल्ट्ज़मान वितरण एकमात्र वितरण है जिसमें गिब्स-शैनन एन्ट्रॉपी थर्मोडायनामिक एन्ट्रॉपी के बराबर होती है". The Journal of Chemical Physics. 151 (3): 034113. arXiv:1903.02121. Bibcode:2019JChPh.151c4113G. doi:10.1063/1.5111333. PMID 31325924. S2CID 118981017.
- ↑ Gao, Xiang (March 2022). "एन्सेम्बल थ्योरी का गणित". Results in Physics. 34: 105230. Bibcode:2022ResPh..3405230G. doi:10.1016/j.rinp.2022.105230. S2CID 221978379.
- ↑ Antoine Bérut; Artak Arakelyan; Artyom Petrosyan; Sergio Ciliberto; Raoul Dillenschneider; Eric Lutz (8 March 2012), "Experimental verification of Landauer's principle linking information and thermodynamics" (PDF), Nature, 483 (7388): 187–190, Bibcode:2012Natur.483..187B, doi:10.1038/nature10872, PMID 22398556, S2CID 9415026
- ↑ Szilard, Leo (1929). "Über die Entropieverminderung in einem thermodynamischen System bei Eingriffen intelligenter Wesen". Zeitschrift für Physik (in Deutsch). 53 (11–12): 840–856. Bibcode:1929ZPhy...53..840S. doi:10.1007/BF01341281. ISSN 0044-3328. S2CID 122038206. Available on-line in English at Aurellen.org.
- ↑ Shoichi Toyabe; Takahiro Sagawa; Masahito Ueda; Eiro Muneyuki; Masaki Sano (2010-09-29). "Information heat engine: converting information to energy by feedback control". Nature Physics. 6 (12): 988–992. arXiv:1009.5287. Bibcode:2010NatPh...6..988T. doi:10.1038/nphys1821. S2CID 118444713.
We demonstrated that free energy is obtained by a feedback control using the information about the system; information is converted to free energy, as the first realization of Szilard-type Maxwell's demon.
- ↑ Karnani, M.; Pääkkönen, K.; Annila, A. (2009). "The physical character of information". Proc. R. Soc. A. 465 (2107): 2155–75. Bibcode:2009RSPSA.465.2155K. doi:10.1098/rspa.2009.0063.
- ↑ Brillouin, Leon (1953). "सूचना का नकारात्मक सिद्धांत". Journal of Applied Physics. 24 (9): 1152–1163. Bibcode:1953JAP....24.1152B. doi:10.1063/1.1721463.
- ↑ Leon Brillouin, Science and Information theory, Dover, 1956
- ↑ Collell, G; Fauquet, J. (June 2015). "Brain activity and cognition: a connection from thermodynamics and information theory". Frontiers in Psychology. 6 (4): 818. doi:10.3389/fpsyg.2015.00818. PMC 4468356. PMID 26136709.
- ↑ De Castro, A. (November 2013). "फास्ट थॉट की थर्मोडायनामिक लागत". Minds and Machines. 23 (4): 473–487. arXiv:1201.5841. doi:10.1007/s11023-013-9302-x. S2CID 11180644.
- ↑ Narayanan, N. S. at al. (2005). "मोटर कॉर्टेक्स में न्यूरोनल एन्सेम्बल की अतिरेक और तालमेल". J. Neurosci. 25 (17): 4207–4216. doi:10.1523/JNEUROSCI.4697-04.2005. PMC 6725112. PMID 15858046.
- ↑ Laughlin, S. B at al. (November 2013). "तंत्रिका संबंधी जानकारी की चयापचय लागत". Nat. Neurosci. 1 (1): 36–41. doi:10.1038/236. PMID 10195106. S2CID 204995437.
- ↑ Mahulikar, S.P.; Herwig, H. (August 2009). "अराजकता में गतिशील क्रम अस्तित्व और विकास के लिए सटीक थर्मोडायनामिक सिद्धांत". Chaos, Solitons & Fractals. 41 (4): 1939–48. Bibcode:2009CSF....41.1939M. doi:10.1016/j.chaos.2008.07.051.
- ↑ Hirschman, I.I. Jr. (January 1957). "एन्ट्रापी पर एक नोट". American Journal of Mathematics. 79 (1): 152–6. doi:10.2307/2372390. JSTOR 2372390.
- ↑ Zachos, C. K. (2007). "क्वांटम एन्ट्रापी पर एक शास्त्रीय बंधन". Journal of Physics A: Mathematical and Theoretical. 40 (21): F407–F412. arXiv:hep-th/0609148. Bibcode:2007JPhA...40..407Z. doi:10.1088/1751-8113/40/21/F02. S2CID 1619604.
- ↑ Alexander Stotland; Pomeransky; Eitan Bachmat; Doron Cohen (2004). "क्वांटम यांत्रिक अवस्थाओं की सूचना एन्ट्रापी". Europhysics Letters. 67 (5): 700–6. arXiv:quant-ph/0401021. Bibcode:2004EL.....67..700S. CiteSeerX 10.1.1.252.8715. doi:10.1209/epl/i2004-10110-1. S2CID 51730529.
अग्रिम पठन
- Bennett, C.H. (1973). "Logical reversibility of computation". IBM J. Res. Dev. 17 (6): 525–532. doi:10.1147/rd.176.0525.
- Brillouin, Léon (2004), Science And Information Theory (second ed.), Dover, ISBN 978-0-486-43918-1. [Republication of 1962 original.]
- Frank, Michael P. (May–June 2002). "Physical Limits of Computing". Computing in Science and Engineering. 4 (3): 16–25. Bibcode:2002CSE.....4c..16F. CiteSeerX 10.1.1.429.1618. doi:10.1109/5992.998637. OSTI 1373456. S2CID 499628.
- Greven, Andreas; Keller, Gerhard; Warnecke, Gerald, eds. (2003). Entropy. Princeton University Press. ISBN 978-0-691-11338-8. (A highly technical collection of writings giving an overview of the concept of entropy as it appears in various disciplines.)
- Kalinin, M.I.; Kononogov, S.A. (2005), "Boltzmann's constant, the energy meaning of temperature, and thermodynamic irreversibility", Measurement Techniques, 48 (7): 632–636, doi:10.1007/s11018-005-0195-9, S2CID 118726162.
- Koutsoyiannis, D. (2011), "Hurst–Kolmogorov dynamics as a result of extremal entropy production", Physica A, 390 (8): 1424–1432, Bibcode:2011PhyA..390.1424K, doi:10.1016/j.physa.2010.12.035.
- Landauer, R. (1993). "Information is Physical". Proc. Workshop on Physics and Computation PhysComp'92. Los Alamitos: IEEE Comp. Sci.Press. pp. 1–4. doi:10.1109/PHYCMP.1992.615478. ISBN 978-0-8186-3420-8. S2CID 60640035.
- Landauer, R. (1961). "Irreversibility and Heat Generation in the Computing Process". IBM J. Res. Dev. 5 (3): 183–191. doi:10.1147/rd.53.0183.
- Leff, H.S.; Rex, A.F., eds. (1990). Maxwell's Demon: Entropy, Information, Computing. Princeton NJ: Princeton University Press. ISBN 978-0-691-08727-6.
- Middleton, D. (1960). An Introduction to Statistical Communication Theory. McGraw-Hill.
- Shannon, Claude E. (July–October 1948). "A Mathematical Theory of Communication". Bell System Technical Journal. 27 (3): 379–423. doi:10.1002/j.1538-7305.1948.tb01338.x. hdl:10338.dmlcz/101429. (as PDF)
बाहरी संबंध
- Information Processing and Thermodynamic Entropy Stanford Encyclopedia of Philosophy.
- An Intuitive Guide to the Concept of Entropy Arising in Various Sectors of Science — a wikibook on the interpretation of the concept of entropy.