एंट्रॉपी (सूचना सिद्धांत)
Information theory |
---|
सूचना सिद्धांत में यादृच्छिक चर की एन्ट्रापी सूचना का औसत स्तर, आश्चर्य या चर के संभावित परिणामों में विद्यमान अनिश्चितता है। असतत यादृच्छिक चर दिया गया है। जो वर्णमाला में मान दर्शाता है और के अनुसार वितरित किया जाता है:
क्लाउड शैनन ने अपने 1948 के पेपर संचार का एक गणितीय सिद्धांत में सूचना एन्ट्रॉपी की अवधारणा को प्रस्तुत किया [2][3] और इसे एक अन्य नाम शैनन एंट्रॉपी से भी जाना जाता है। शैनन का सिद्धांत डेटा संचार प्रणाली को तीन तत्वों से बना हुआ है: डेटा का स्रोत, संचार चैनल और एक रिसीवर। संचार की मौलिक कठिनता, जैसा कि शैनन द्वारा प्रदर्शित किया गया है, रिसीवर के लिए यह पहचानने में सक्षम होना है कि चैनल के माध्यम से प्राप्त सिग्नल के आधार पर स्रोत द्वारा कौन सा डेटा उत्पन्न किया गया था।[2][3] शैनन ने डेटा स्रोत से संदेशों को इनकोड, कंप्रेस और ट्रांसमिट करने के विभिन्न प्रकारों पर विचार किया और अपने प्रसिद्ध शैनन के स्रोत कोडिंग प्रमेय में प्रमाणित किया कि एन्ट्रापी एक पूर्ण गणितीय सीमा का प्रतिनिधित्व करती है कि स्रोत से डेटा को शोर-चैनल पर दोषरहित रूप से कैसे संकुचित किया जा सकता है। शैनन ने अपने शोर-चैनल कोडिंग प्रमेय में शोर चैनलों के लिए इस परिणाम को अधिक शक्तिशाली बनाया है।
सूचना सिद्धांत में एन्ट्रॉपी सीधे सांख्यिकीय ऊष्मप्रवैगिकी में एंट्रॉपी (सांख्यिकीय ऊष्मप्रवैगिकी) के अनुरूप है। सादृश्य का परिणाम तब होता है जब यादृच्छिक चर के मान माइक्रोस्टेट्स की ऊर्जा को नामित करते हैं, इसलिए एन्ट्रापी के लिए गिब्स सूत्र औपचारिक रूप से शैनन के सूत्र के समान है। एंट्रॉपी का गणित के अन्य क्षेत्रों जैसे कि साहचर्य और यंत्र अधिगम से प्रासंगिकता है। परिभाषा को स्वयंसिद्धों के एक सेट से प्राप्त किया जा सकता है जो यह स्थापित करता है कि एन्ट्रापी इस बात का माप होना चाहिए कि एक चर का औसत परिणाम कितना सूचनात्मक है। निरंतर यादृच्छिक चर के लिए, अंतर एन्ट्रॉपी एंट्रॉपी के अनुरूप होता है।
परिचय
सूचना सिद्धांत का मूल विचार यह है कि संप्रेषित संदेश का सूचनात्मक मूल्य उस डिग्री पर निर्भर करता है जिस पर संदेश की सामग्री आश्चर्यजनक है। यदि अत्यधिक संभावित घटना घटित होती है, तो संदेश में बहुत कम जानकारी होती है। दूसरी ओर, यदि कोई अत्यधिक असंभावित घटना घटित होती है, तो संदेश बहुत अधिक जानकारीपूर्ण होता है। उदाहरण के लिए, यह ज्ञान कि कोई विशेष संख्या किसी लॉटरी की विजेता संख्या नहीं होगी, बहुत कम जानकारी प्रदान करती है, क्योंकि कोई विशेष चुनी गई संख्या लगभग निश्चित रूप से नहीं जीतेगी। हालाँकि, यह ज्ञान कि एक विशेष संख्या लॉटरी जीतेगी, उच्च सूचनात्मक मूल्य है क्योंकि यह बहुत कम संभावना वाली घटना के परिणाम का संचार करता है।
सूचना सामग्री, जिसे किसी घटना की आश्चर्यजनक या आत्म-सूचना भी कहा जाता है एक ऐसा कार्य है जो संभावना के रूप में बढ़ता है घटना घट जाती है। कब 1 के करीब है, घटना का आश्चर्य कम है, लेकिन अगर 0 के करीब है, घटना का आश्चर्य अधिक है। इस संबंध को फ़ंक्शन द्वारा वर्णित किया गया है
इसलिए, हम किसी घटना की जानकारी या आश्चर्य को परिभाषित कर सकते हैं द्वारा
संभाव्यता के साथ एक पक्षपाती सिक्के पर विचार करें p सिर और संभावना पर उतरने की 1 − p पूंछ पर उतरने का। अधिकतम आश्चर्य तब होता है जब p = 1/2, जिसके लिए एक परिणाम दूसरे पर अपेक्षित नहीं है। इस मामले में एक सिक्का फ्लिप में एक बिट का एंट्रॉपी होता है। (इसी प्रकार, परिवर्तनीय मूल्यों के साथ एक टर्नरी अंक प्रणाली में शामिल है (लगभग 1.58496) जानकारी के बिट्स क्योंकि इसमें तीन मानों में से एक हो सकता है।) न्यूनतम आश्चर्य तब होता है जब p = 0 या p = 1, जब घटना का परिणाम समय से पहले जाना जाता है, और एंट्रॉपी शून्य बिट्स है। जब एन्ट्रॉपी शून्य बिट्स होती है, तो इसे कभी-कभी एकता के रूप में संदर्भित किया जाता है, जहां बिल्कुल भी अनिश्चितता नहीं होती है - पसंद की कोई स्वतंत्रता नहीं - कोई सूचना सामग्री नहीं। पी के अन्य मान शून्य और एक बिट के बीच एंट्रॉपी देते हैं।
सूचना सिद्धांत डेटा संपीड़न के रूप में संदेश को संप्रेषित करने के लिए आवश्यक छोटी से छोटी जानकारी की गणना करने के लिए उपयोगी है। उदाहरण के लिए, एक बाइनरी चैनल पर 4 अक्षर 'ए', 'बी', 'सी' और 'डी' वाले अनुक्रमों के प्रसारण पर विचार करें। यदि सभी 4 अक्षर समान रूप से (25%) होने की संभावना है, तो प्रत्येक अक्षर को एन्कोड करने के लिए दो बिट्स का उपयोग करने से बेहतर नहीं हो सकता है। 'A' को '00', 'B' को '01', 'C' को '10' और 'D' को '11' लिखा जा सकता है। हालांकि, यदि प्रत्येक अक्षर की संभावनाएं असमान हैं, तो 'ए' 70% संभावना के साथ होता है, 'बी' 26% के साथ होता है, और 'सी' और 'डी' प्रत्येक 2% के साथ होता है, कोई चर लंबाई कोड असाइन कर सकता है। इस मामले में, 'A' को '0', 'B' को '10', 'C' को '110', और D को '111' के रूप में कोडित किया जाएगा। इस प्रतिनिधित्व के साथ, 70% समय केवल एक बिट भेजने की जरूरत है, 26% समय दो बिट्स, और केवल 4% समय 3 बिट्स। एंट्रॉपी कम होने के कारण औसतन 2 बिट्स से कम की आवश्यकता होती है ('ए' के उच्च प्रसार के बाद 'बी' - एक साथ 96% अक्षर)। संभाव्यता-भारित लॉग संभावनाओं के योग की गणना इस प्रभाव को मापती है और कैप्चर करती है। अंग्रेजी पाठ, वर्णों की एक स्ट्रिंग के रूप में माना जाता है, इसमें काफी कम एन्ट्रापी है, अर्थात, काफी अनुमानित है। हम काफी निश्चित हो सकते हैं कि, उदाहरण के लिए, 'e' 'z' की तुलना में कहीं अधिक सामान्य होगा, कि संयोजन 'qu' किसी भी अन्य संयोजन की तुलना में 'q' के साथ कहीं अधिक सामान्य होगा, और यह कि संयोजन 'थ' 'z', 'q', या 'qu' से अधिक सामान्य होगा। पहले कुछ अक्षरों के बाद अक्सर शेष शब्द का अनुमान लगाया जा सकता है। अंग्रेजी पाठ में संदेश के प्रति वर्ण 0.6 और 1.3 बिट एंट्रॉपी के बीच है।[6]: 234
परिभाषा
बोल्ट्ज़मैन के Η-प्रमेय के नाम पर रखा गया, शैनन ने एन्ट्रापी को परिभाषित किया Η (ग्रीक कैपिटल लेटर ईटीए) असतत यादृच्छिक चर का , जो वर्णमाला में मान लेता है और के अनुसार वितरित किया जाता है ऐसा है कि :
एन्ट्रापी को स्पष्ट रूप से इस प्रकार लिखा जा सकता है:
माप सिद्धांत
माप सिद्धांत की भाषा में एंट्रॉपी को औपचारिक रूप से निम्नानुसार परिभाषित किया जा सकता है:[11] होने देना एक संभाव्यता स्थान बनें। होने देना एक घटना (संभाव्यता सिद्धांत) हो। का आश्चर्य है
एलरमैन की परिभाषा
डेविड एलरमैन व्याख्या करना चाहते थे कि क्यों सशर्त एन्ट्रॉपी और अन्य कार्यों में संभाव्यता सिद्धांत में कार्यों के समान गुण होते हैं। उनका दावा है कि माप सिद्धांत पर आधारित पिछली परिभाषाएँ केवल 2 की शक्तियों के साथ काम करती हैं।[12] एलरमैन ने विभाजन का एक तर्क बनाया जो एक सार्वभौमिक सेट के सबसेट का द्वैत (गणित) है। सूचना को डिट (भेद) के रूप में परिमाणित किया जाता है, जो विभाजन पर एक माप है। डिट्स को शैनन (यूनिट) में परिवर्तित किया जा सकता है | शैनन के बिट्स, सशर्त एन्ट्रापी, आदि के लिए सूत्र प्राप्त करने के लिए।
उदाहरण
ज्ञात के साथ एक सिक्का उछालने पर विचार करें, जरूरी नहीं कि उचित हो, हेड या टेल आने की संभावनाएं; इसे बर्नौली प्रक्रिया के रूप में तैयार किया जा सकता है।
सिक्के के अगले टॉस के अज्ञात परिणाम की एन्ट्रापी अधिकतम हो जाती है यदि सिक्का उचित है (अर्थात, यदि हेड और टेल दोनों की समान संभावना 1/2 है)। यह अधिकतम अनिश्चितता की स्थिति है क्योंकि अगले टॉस के परिणाम की भविष्यवाणी करना सबसे कठिन है; सिक्के के प्रत्येक टॉस का परिणाम एक पूरी जानकारी देता है। यह है क्योंकि
सूचना की लंबाई से विभाजित करके एन्ट्रापी को सामान्य किया जा सकता है। इस अनुपात को मीट्रिक एन्ट्रापी कहा जाता है और यह सूचना की यादृच्छिकता का एक उपाय है।
लक्षण वर्णन
अर्थ समझने के लिए −Σ pi log(pi), पहले एक सूचना समारोह को परिभाषित करें I घटना के संदर्भ में i संभाव्यता के साथ pi. घटना के अवलोकन के कारण प्राप्त जानकारी की मात्रा i सूचना सामग्री के मूलभूत गुणों के शैनन के समाधान से अनुसरण करता है:[13]
- I(p) नीरस रूप से घट रहा है p: किसी घटना की संभावना में वृद्धि किसी प्रेक्षित घटना से सूचना को कम करती है, और इसके विपरीत।
- I(1) = 0: हमेशा घटित होने वाली घटनाएँ सूचनाओं का संचार नहीं करती हैं।
- I(p1·p2) = I(p1) + I(p2): स्वतंत्र घटनाओं से सीखी गई जानकारी प्रत्येक घटना से सीखी गई जानकारी का योग है।
दो स्वतंत्र घटनाओं को देखते हुए, यदि पहली घटना से एक प्राप्त हो सकता है n परिवर्तनीय परिणाम और दूसरे में से एक है m परिवर्तनीय परिणाम तो वहाँ हैं mn संयुक्त घटना के परिवर्तनीय परिणाम। इसका मतलब है कि अगर log2(n) बिट्स को पहले मान को एनकोड करने की आवश्यकता होती है और log2(m) दूसरे को सांकेतिक शब्दों में बदलने के लिए, एक की जरूरत है log2(mn) = log2(m) + log2(n) दोनों को एनकोड करने के लिए।
शैनन ने पाया कि एक उपयुक्त विकल्प द्वारा दिया गया है:[14]
Proof Let be the information function which one assumes to be twice continuously differentiable, one has: This differential equation leads to the solution for some . Property 2 gives . Property 1 and 2 give that for all , so that .
सूचना की विभिन्न इकाइयां (द्विआधारी लघुगणक के लिए बिट्स log2, नेट (यूनिट) प्राकृतिक लघुगणक के लिए ln, दशमलव लघुगणक के लिए प्रतिबंध (इकाई)। log10 और इसी तरह) एक दूसरे के आनुपातिकता (गणित) हैं। उदाहरण के लिए, एक निष्पक्ष सिक्के के टॉस के मामले में, हेड प्रदान करता है log2(2) = 1 बिट जानकारी, जो लगभग 0.693 nats या 0.301 दशमलव अंक है। योगात्मकता के कारण, n टॉस प्रदान करते हैं n बिट्स की जानकारी, जो लगभग है 0.693n नट या 0.301n दशमलव अंक।
देखी गई घटनाओं का अर्थ (संदेशों का अर्थ) एंट्रॉपी की परिभाषा में कोई फर्क नहीं पड़ता। एन्ट्रॉपी केवल एक विशिष्ट घटना को देखने की संभावना को ध्यान में रखता है, इसलिए यह जो जानकारी समाहित करता है वह अंतर्निहित संभाव्यता वितरण के बारे में जानकारी है, न कि स्वयं घटनाओं का अर्थ।
वैकल्पिक लक्षण वर्णन
एंट्रॉपी का एक और लक्षण वर्णन निम्नलिखित गुणों का उपयोग करता है। हम निरूपित करते हैं pi = Pr(X = xi) और Ηn(p1, ..., pn) = Η(X).
- निरंतरता: H निरंतर कार्य होना चाहिए, ताकि बहुत कम मात्रा में संभावनाओं के मूल्यों को बदलने से एन्ट्रॉपी को केवल थोड़ी मात्रा में बदलना चाहिए।
- समरूपता: H परिणाम अपरिवर्तित होना चाहिए xi को फिर से आदेश दिया जाता है। वह है, किसी क्रमपरिवर्तन के लिए का .
- अधिकतम: अधिकतम होना चाहिए यदि सभी परिणाम समान रूप से होने की संभावना है अर्थात .
- परिणामों की बढ़ती संख्या: परिवर्तनीय घटनाओं के लिए, एंट्रॉपी को परिणामों की संख्या के साथ बढ़ाना चाहिए यानी
- Additivity: का एक पहनावा दिया n समान रूप से वितरित तत्व जिन्हें विभाजित किया गया है k बॉक्स (सब-सिस्टम) के साथ b1, ..., bk तत्वों में से प्रत्येक, पूरे पहनावे की एन्ट्रापी बॉक्स की प्रणाली की एन्ट्रापी और बॉक्स की अलग-अलग एन्ट्रापी के योग के बराबर होनी चाहिए, प्रत्येक को उस विशेष बॉक्स में होने की संभावना के साथ भारित किया जाना चाहिए।
योगात्मकता के नियम के निम्नलिखित परिणाम होते हैं: धनात्मक पूर्णांकों के लिए bi कहाँ b1 + ... + bk = n,
का चयन k = n, b1 = ... = bn = 1 इसका तात्पर्य है कि एक निश्चित परिणाम की एंट्रॉपी शून्य है: Η1(1) = 0. इसका तात्पर्य है कि स्रोत वर्णमाला की दक्षता n प्रतीकों को इसके बराबर होने के रूप में परिभाषित किया जा सकता है n-एरी एन्ट्रॉपी। अतिरेक (सूचना सिद्धांत) भी देखें।
=== एडिटिविटी और सबअडिटिविटी === के माध्यम से वैकल्पिक लक्षण वर्णन
शैनन एन्ट्रॉपी का एक और संक्षिप्त स्वयंसिद्ध लक्षण वर्णन जानोस_एक्ज़ेल_(गणितज्ञ)|एक्ज़ेल, फोर्ट और एनजी द्वारा दिया गया था।[15] निम्नलिखित गुणों के माध्यम से:
- उप-विषमता: संयुक्त रूप से वितरित यादृच्छिक चर के लिए .
- एडिटिविटी: जब यादृच्छिक चर स्वतंत्र हैं।
- विस्तारशीलता: , यानी प्रायिकता शून्य के साथ एक परिणाम जोड़ने से एंट्रॉपी नहीं बदलती है।
- समरूपता: के क्रमपरिवर्तन के तहत अपरिवर्तनीय है .
- छोटी संभावनाओं के लिए छोटा: .
यह दिखाया गया था कि कोई भी समारोह उपर्युक्त गुणों को संतुष्ट करना एक गैर-ऋणात्मक स्थिरांक के साथ शैनन एंट्रॉपी का निरंतर गुणक होना चाहिए।[15]एंट्रॉपी के पहले वर्णित लक्षणों की तुलना में, यह लक्षण वर्णन संभावना वेक्टर के एक समारोह के रूप में एंट्रॉपी के गुणों के बजाय यादृच्छिक चर (उप-विषमता और योगात्मकता) के एक समारोह के रूप में एंट्रॉपी के गुणों पर केंद्रित है। .
यह ध्यान देने योग्य है कि यदि हम छोटी संभावनाओं के लिए छोटी संपत्ति को छोड़ देते हैं, तो शैनन एंट्रॉपी और हार्टले एंट्रॉपी का एक गैर-नकारात्मक रैखिक संयोजन होना चाहिए।[15]
और गुण
शैनन एन्ट्रापी निम्नलिखित गुणों को संतुष्ट करती है, जिनमें से कुछ के लिए एन्ट्रापी की व्याख्या करना उपयोगी होता है क्योंकि एक यादृच्छिक चर के मान को प्रकट करके सीखी गई जानकारी की अपेक्षित मात्रा (या अनिश्चितता समाप्त हो जाती है) X:
- प्रायिकता शून्य के साथ किसी घटना को जोड़ना या हटाना एन्ट्रॉपी में योगदान नहीं देता है:
- .
- जेन्सेन असमानता और फिर सेड्राक्यान की असमानता का उपयोग करके इसकी पुष्टि की जा सकती है
- .[10]: 29
- की यह अधिकतम एन्ट्रॉपी logb(n) एक समान संभाव्यता वितरण वाले स्रोत वर्णमाला द्वारा प्रभावी ढंग से प्राप्त किया जाता है: अनिश्चितता अधिकतम होती है जब सभी संभावित घटनाएं परिवर्तनीय होती हैं।
- एन्ट्रापी या मूल्यांकन द्वारा प्रकट की गई जानकारी की मात्रा (X,Y) (अर्थात् मूल्यांकन करना X और Y एक साथ) लगातार दो प्रयोग करके प्रकट की गई जानकारी के बराबर है: पहले के मूल्य का मूल्यांकन करना Y, फिर के मूल्य का खुलासा करना X दिया गया है कि आप का मूल्य जानते हैं Y. इसे इस प्रकार लिखा जा सकता है:[10]: 16
- अगर कहाँ एक समारोह है, तो . पिछले सूत्र को लागू करना पैदावार
- :इसलिए , एक चर की एन्ट्रॉपी केवल तभी घट सकती है जब बाद वाले को एक फ़ंक्शन के माध्यम से पारित किया जाता है।
- अगर X और Y दो स्वतंत्र यादृच्छिक चर हैं, फिर का मान जानना Y के मूल्य के बारे में हमारे ज्ञान को प्रभावित नहीं करता है X (चूंकि दोनों स्वतंत्रता से एक दूसरे को प्रभावित नहीं करते हैं):
- अधिक आम तौर पर, किसी भी यादृच्छिक चर के लिए X और Y, अपने पास
- .[10]: 29
- दो एक साथ होने वाली घटनाओं की एन्ट्रापी प्रत्येक व्यक्तिगत घटना की एन्ट्रापी के योग से अधिक नहीं है, अर्थात, , समानता के साथ अगर और केवल अगर दो घटनाएँ स्वतंत्र हैं।[10]: 28
- एंट्रॉपी प्रायिकता द्रव्यमान फलन में अवतल फलन है , अर्थात।[10]: 30
- सभी संभाव्यता जन कार्यों के लिए और .[10]: 32
- * तदनुसार, ऋणात्मक एन्ट्रॉपी (नेगेंट्रॉपी) फ़ंक्शन उत्तल है, और इसका उत्तल संयुग्म LogSumExp है।
पहलू
थर्मोडायनामिक एंट्रॉपी से संबंध
सूचना सिद्धांत में एन्ट्रापी शब्द को अपनाने की प्रेरणा शैनन के फार्मूले और सांख्यिकीय यांत्रिकी से बहुत समान ज्ञात सूत्रों के बीच घनिष्ठ समानता से आई है।
सांख्यिकीय ऊष्मप्रवैगिकी में ऊष्मप्रवैगिकी एन्ट्रापी के लिए सबसे सामान्य सूत्र {{math|S}थर्मोडायनामिक प्रणाली का } गिब्स एंट्रॉपी है,
कहाँ kB बोल्ट्जमैन स्थिरांक है, और pi एक माइक्रोस्टेट (सांख्यिकीय यांत्रिकी) की संभावना है। एंट्रॉपी (सांख्यिकीय ऊष्मप्रवैगिकी) को जे. विलार्ड गिब्स द्वारा 1878 में लुडविग बोल्ट्जमैन (1872) द्वारा पहले के काम के बाद परिभाषित किया गया था।[16] 1927 में जॉन वॉन न्यूमैन द्वारा शुरू की गई वॉन न्यूमैन एन्ट्रॉपी देने के लिए गिब्स एंट्रॉपी क्वांटम भौतिकी की दुनिया में लगभग अपरिवर्तित अनुवाद करती है।
जहां ρ क्वांटम मैकेनिकल सिस्टम का घनत्व मैट्रिक्स है और Tr ट्रेस (रैखिक बीजगणित) है।[17] रोजमर्रा के व्यावहारिक स्तर पर, सूचना एंट्रॉपी और थर्मोडायनामिक एंट्रॉपी के बीच संबंध स्पष्ट नहीं हैं। भौतिक विज्ञानी और रसायनशास्त्री एन्ट्रापी में परिवर्तनों में अधिक रुचि रखते हैं क्योंकि एक अपरिवर्तनीय संभाव्यता वितरण के बजाय ऊष्मप्रवैगिकी के दूसरे नियम के अनुसार एक प्रणाली सहज रूप से अपनी प्रारंभिक स्थितियों से दूर विकसित होती है। बोल्ट्जमैन स्थिरांक की सूक्ष्मता के रूप में kB इंगित करता है, में परिवर्तन S / kB रासायनिक और भौतिक प्रक्रियाओं में पदार्थों की छोटी मात्रा भी एंट्रॉपी की मात्रा का प्रतिनिधित्व करती है जो डेटा संपीड़न या संकेत आगे बढ़ाना में किसी भी चीज़ की तुलना में बहुत बड़ी है। शास्त्रीय ऊष्मप्रवैगिकी में, एन्ट्रापी को मैक्रोस्कोपिक माप के संदर्भ में परिभाषित किया गया है और किसी भी संभाव्यता वितरण का कोई संदर्भ नहीं देता है, जो कि सूचना एन्ट्रापी की परिभाषा के लिए केंद्रीय है।
ऊष्मप्रवैगिकी और जिसे अब सूचना सिद्धांत के रूप में जाना जाता है, के बीच संबंध सबसे पहले लुडविग बोल्ट्जमैन द्वारा बनाया गया था और उनके बोल्ट्जमैन के एंट्रोपी सूत्र द्वारा व्यक्त किया गया था:
कहाँ एक विशेष मैक्रोस्टेट का थर्मोडायनामिक एन्ट्रापी है (तापमान, आयतन, ऊर्जा, आदि जैसे थर्मोडायनामिक मापदंडों द्वारा परिभाषित), W माइक्रोस्टेट्स की संख्या है (विभिन्न ऊर्जा राज्यों में कणों के विभिन्न संयोजन) जो दिए गए मैक्रोस्टेट को उत्पन्न कर सकते हैं, और kB बोल्ट्जमैन स्थिरांक है।[18] यह माना जाता है कि प्रत्येक माइक्रोस्टेट समान रूप से संभावित है, ताकि किसी दिए गए माइक्रोस्टेट की संभावना हो pi = 1/W. जब गिब्स एन्ट्रापी (या समकक्ष) के लिए उपरोक्त अभिव्यक्ति में इन संभावनाओं को प्रतिस्थापित किया जाता है kB शैनन एन्ट्रापी से गुणा), बोल्ट्जमैन के समीकरण के परिणाम। सूचना सिद्धांत के संदर्भ में, एक प्रणाली की सूचना एन्ट्रापी एक माइक्रोस्टेट को निर्धारित करने के लिए आवश्यक गुम सूचना की मात्रा है, जिसे मैक्रोस्टेट दिया गया है।
एडविन थॉम्पसन जेनेस (1957) के विचार में,[19] थर्मोडायनामिक एन्ट्रापी, जैसा कि सांख्यिकीय यांत्रिकी द्वारा समझाया गया है, को शैनन के सूचना सिद्धांत के एक अनुप्रयोग के रूप में देखा जाना चाहिए: थर्मोडायनामिक एन्ट्रापी की व्याख्या सिस्टम की विस्तृत सूक्ष्म स्थिति को परिभाषित करने के लिए आवश्यक शैनन जानकारी की मात्रा के आनुपातिक होने के रूप में की जाती है, जो इसके द्वारा असंबद्ध रहती है। क्लासिकल ऊष्मप्रवैगिकी के मैक्रोस्कोपिक चर के संदर्भ में केवल एक विवरण, आनुपातिकता के स्थिरांक के साथ सिर्फ बोल्ट्जमैन स्थिरांक। सिस्टम में गर्मी जोड़ने से इसकी थर्मोडायनेमिक एंट्रॉपी बढ़ जाती है क्योंकि यह सिस्टम के संभावित सूक्ष्म राज्यों की संख्या को बढ़ाता है जो इसके मैक्रोस्कोपिक चर के औसत दर्जे के मूल्यों के अनुरूप होते हैं, जिससे कोई भी पूर्ण राज्य विवरण लंबा हो जाता है। (लेख देखें: अधिकतम एन्ट्रापी ऊष्मप्रवैगिकी)। मैक्सवेल का दानव व्यक्तिगत अणुओं की अवस्थाओं के बारे में जानकारी का उपयोग करके (काल्पनिक रूप से) एक प्रणाली के थर्मोडायनामिक एन्ट्रॉपी को कम कर सकता है; लेकिन, रॉल्फ लैंडौएर (1961 से) और सहकर्मियों के रूप में[20] दिखाया गया है, कार्य करने के लिए दानव को स्वयं प्रक्रिया में थर्मोडायनामिक एन्ट्रॉपी को बढ़ाना होगा, कम से कम शैनन की जानकारी की मात्रा जो वह पहले प्राप्त करने और संग्रहीत करने का प्रस्ताव करता है; और इसलिए कुल थर्मोडायनामिक एन्ट्रॉपी कम नहीं होती है (जो विरोधाभास को हल करती है)। लैंडौअर का सिद्धांत एक निश्चित मात्रा में सूचना को संसाधित करने के लिए एक कंप्यूटर को उत्पन्न होने वाली गर्मी की मात्रा पर एक निचली सीमा लगाता है, हालांकि आधुनिक कंप्यूटर बहुत कम कुशल हैं।
डेटा संपीड़न
एन्ट्रॉपी की शैनन की परिभाषा, जब एक सूचना स्रोत पर लागू होती है, स्रोत को एन्कोडेड बाइनरी अंकों के रूप में विश्वसनीय रूप से प्रसारित करने के लिए आवश्यक न्यूनतम चैनल क्षमता निर्धारित कर सकती है। शैनन की एन्ट्रॉपी संदेश में निहित जानकारी को मापती है, जो संदेश के उस हिस्से के विपरीत है जो निर्धारित (या अनुमानित) है। उत्तरार्द्ध के उदाहरणों में भाषा संरचना में अतिरेक या अक्षर या शब्द जोड़े, ट्रिपल आदि की घटना आवृत्तियों से संबंधित सांख्यिकीय गुण शामिल हैं। न्यूनतम चैनल क्षमता को विशिष्ट सेट का उपयोग करके या हफ़मैन कोडिंग, LZW|Lempel का उपयोग करके व्यवहार में महसूस किया जा सकता है। -ज़िव या अंकगणितीय कोडिंग। (कोलमोगोरोव जटिलता भी देखें।) व्यवहार में, संपीड़न एल्गोरिदम जानबूझकर त्रुटियों से बचाने के लिए अंततः, के रूप में कुछ विवेकपूर्ण अतिरेक शामिल करते हैं। किसी डेटा स्रोत की एन्ट्रापी दर उसे एन्कोड करने के लिए आवश्यक प्रति प्रतीक बिट्स की औसत संख्या है। मानव भविष्यवक्ताओं के साथ शैनन के प्रयोग अंग्रेजी में प्रति वर्ण 0.6 और 1.3 बिट्स के बीच एक सूचना दर दिखाते हैं;[21] पीपीएम संपीड़न एल्गोरिदम अंग्रेजी पाठ में प्रति वर्ण 1.5 बिट के संपीड़न अनुपात को प्राप्त कर सकता है।
यदि कोई डेटा कम्प्रेशन योजना दोषरहित है - एक जिसमें आप हमेशा डीकंप्रेसन द्वारा संपूर्ण मूल संदेश को पुनर्प्राप्त कर सकते हैं - तो एक कंप्रेस्ड संदेश में मूल के समान जानकारी होती है लेकिन कम वर्णों में संप्रेषित होती है। इसमें प्रति वर्ण अधिक जानकारी (उच्च एन्ट्रापी) है। एक संपीड़ित संदेश में अतिरेक (सूचना सिद्धांत) कम होता है। शैनन के स्रोत कोडिंग प्रमेय में कहा गया है कि एक दोषरहित संपीड़न योजना संदेशों को औसत रूप से प्रति बिट संदेश के एक बिट से अधिक जानकारी प्राप्त करने के लिए संपीड़ित नहीं कर सकती है, लेकिन यह कि संदेश के प्रति बिट सूचना के एक बिट से कम किसी भी मूल्य को उपयुक्त नियोजित करके प्राप्त किया जा सकता है। कोडिंग योजना। संदेश की लंबाई से प्रति बिट गुणा किए गए संदेश की एन्ट्रॉपी इस बात का एक उपाय है कि संदेश में कुल कितनी जानकारी है। शैनन के प्रमेय का अर्थ यह भी है कि कोई दोषरहित संपीड़न योजना सभी संदेशों को छोटा नहीं कर सकती। यदि कुछ संदेश छोटे आकार में आते हैं, तो कबूतरखाने के सिद्धांत के कारण कम से कम एक संदेश अधिक लंबा होना चाहिए। व्यावहारिक उपयोग में, यह आम तौर पर कोई समस्या नहीं है, क्योंकि आम तौर पर केवल कुछ प्रकार के संदेशों को संपीड़ित करने में रुचि होती है, जैसे कि अंग्रेजी में एक दस्तावेज़, जो अस्पष्ट पाठ के विपरीत है, या शोर के बजाय डिजिटल फोटोग्राफ, और यह महत्वहीन है अगर एक संपीड़न एल्गोरिथ्म कुछ असंभावित या अरुचिकर अनुक्रमों को बड़ा बनाता है।
विज्ञान (पत्रिका) में 2011 के एक अध्ययन में अनुमान लगाया गया है कि वर्ष 2007 में उपलब्ध सबसे प्रभावी संपीड़न एल्गोरिदम पर सामान्य रूप से संकुचित सूचना को संग्रहीत और संप्रेषित करने के लिए दुनिया की तकनीकी क्षमता है, इसलिए तकनीकी रूप से उपलब्ध स्रोतों की एंट्रोपी का अनुमान लगाया गया है।[22]: 60–65
Type of Information | 1986 | 2007 |
---|---|---|
Storage | 2.6 | 295 |
Broadcast | 432 | 1900 |
Telecommunications | 0.281 | 65 |
लेखक 1986 में और फिर 2007 में सूचना (पूरी तरह से संकुचित) को संग्रहीत करने के लिए मानव जाति की तकनीकी क्षमता का अनुमान लगाते हैं। वे सूचना को तीन श्रेणियों में विभाजित करते हैं - एक माध्यम पर सूचना संग्रहीत करने के लिए, एक तरफ़ा प्रसारण नेटवर्क के माध्यम से सूचना प्राप्त करने के लिए, या सूचना का आदान-प्रदान करने के लिए। दो तरफा दूरसंचार नेटवर्क के माध्यम से।[22]
विविधता के एक उपाय के रूप में एंट्रॉपी
एन्ट्रापी जैव विविधता को मापने के कई तरीकों में से एक है, और इसे विविधता सूचकांक के रूप में लागू किया जाता है।[23] एक विविधता सूचकांक एक मात्रात्मक सांख्यिकीय माप है कि एक डेटासेट में कितने अलग-अलग प्रकार मौजूद हैं, जैसे कि एक समुदाय में प्रजातियां, पारिस्थितिक प्रजातियों की समृद्धि, प्रजातियों की समरूपता और प्रभुत्व (पारिस्थितिकी) के लिए लेखांकन। विशेष रूप से, शैनन एन्ट्रापी का लघुगणक है 1D, 1 के बराबर पैरामीटर के साथ वास्तविक विविधता सूचकांक। शैनन इंडेक्स प्रकार के आनुपातिक बहुतायत से संबंधित है।
एन्ट्रॉपी की सीमाएं
एंट्रॉपी से संबंधित कई अवधारणाएं हैं जो गणितीय रूप से सूचना सामग्री को किसी तरह से परिमाणित करती हैं:
- किसी दिए गए संभाव्यता वितरण से लिए गए एक व्यक्तिगत संदेश या प्रतीक की स्व-सूचना,
- संदेशों या प्रतीकों के दिए गए संभाव्यता वितरण की एंट्रॉपी, और
- एक स्टोकेस्टिक प्रक्रिया की एन्ट्रापी दर।
(स्वयं-सूचना की दर को किसी दिए गए स्टोकास्टिक प्रक्रिया द्वारा उत्पन्न संदेशों या प्रतीकों के किसी विशेष अनुक्रम के लिए भी परिभाषित किया जा सकता है: यह स्थिर प्रक्रिया के मामले में हमेशा एंट्रॉपी दर के बराबर होगा।) जानकारी की अन्य मात्राएं भी हैं सूचना के विभिन्न स्रोतों की तुलना या संबंधित करने के लिए उपयोग किया जाता है।
उपरोक्त अवधारणाओं को भ्रमित नहीं करना महत्वपूर्ण है। अक्सर यह संदर्भ से ही स्पष्ट होता है कि कौन सा मतलब है। उदाहरण के लिए, जब कोई कहता है कि अंग्रेजी भाषा की एन्ट्रॉपी लगभग 1 बिट प्रति वर्ण है, तो वे वास्तव में अंग्रेजी भाषा को एक अनेक संभावनाओं में से चुनी हूई प्रक्रिया के रूप में मॉडलिंग कर रहे हैं और इसकी एन्ट्रापी दर के बारे में बात कर रहे हैं। शैनन ने स्वयं इस शब्द का प्रयोग इस प्रकार किया है।
यदि बहुत बड़े ब्लॉकों का उपयोग किया जाता है, तो प्रति-चरित्र एन्ट्रॉपी दर का अनुमान कृत्रिम रूप से कम हो सकता है क्योंकि अनुक्रम की संभाव्यता वितरण सटीक रूप से ज्ञात नहीं है; यह केवल एक अनुमान है। यदि कोई प्रत्येक पुस्तक के पाठ को एक अनुक्रम के रूप में प्रकाशित करता है, जिसमें प्रत्येक प्रतीक एक पूर्ण पुस्तक का पाठ है, और यदि कोई है N प्रकाशित पुस्तकें, और प्रत्येक पुस्तक केवल एक बार प्रकाशित होती है, प्रत्येक पुस्तक की संभावना का अनुमान है 1/N, और एंट्रॉपी (बिट्स में) है −log2(1/N) = log2(N). एक व्यावहारिक कोड के रूप में, यह प्रत्येक पुस्तक को एक आईएसबीएन निर्दिष्ट करने और पुस्तक के पाठ के स्थान पर इसका उपयोग करने के अनुरूप है, जब भी कोई पुस्तक को संदर्भित करना चाहता है। यह पुस्तकों के बारे में बात करने के लिए अत्यधिक उपयोगी है, लेकिन यह किसी एक पुस्तक की सूचना सामग्री, या सामान्य रूप से भाषा की विशेषता के लिए इतना उपयोगी नहीं है: संभाव्यता वितरण को जाने बिना पुस्तक को उसके पहचानकर्ता से पुनर्निर्माण करना संभव नहीं है, अर्थात , सभी पुस्तकों का पूरा पाठ। मुख्य विचार यह है कि संभाव्य मॉडल की जटिलता पर विचार किया जाना चाहिए। कोल्मोगोरोव जटिलता इस विचार का एक सैद्धांतिक सामान्यीकरण है जो किसी विशेष संभाव्यता मॉडल से स्वतंत्र अनुक्रम की सूचना सामग्री पर विचार करने की अनुमति देता है; यह अनुक्रम को आउटपुट करने वाले सार्वभौमिक कंप्यूटर के लिए सबसे छोटा कंप्यूटर प्रोग्राम मानता है। एक कोड जो किसी दिए गए मॉडल के लिए अनुक्रम की एंट्रॉपी दर प्राप्त करता है, साथ ही कोडबुक (यानी संभाव्य मॉडल), एक ऐसा प्रोग्राम है, लेकिन यह सबसे छोटा नहीं हो सकता है।
फाइबोनैचि अनुक्रम 1, 1, 2, 3, 5, 8, 13, .... अनुक्रम को एक संदेश और प्रत्येक संख्या को एक प्रतीक के रूप में मानते हुए, लगभग उतने ही प्रतीक हैं जितने संदेश में वर्ण हैं, दे रहे हैं लगभग एक एन्ट्रापी log2(n). फाइबोनैचि अनुक्रम के पहले 128 प्रतीकों में लगभग 7 बिट/प्रतीक की एन्ट्रापी है, लेकिन अनुक्रम को एक सूत्र का उपयोग करके व्यक्त किया जा सकता है [F(n) = F(n−1) + F(n−2) के लिए n = 3, 4, 5, ..., F(1) =1, F(2) = 1] और इस सूत्र में बहुत कम एन्ट्रॉपी है और फिबोनैचि अनुक्रम की किसी भी लंबाई पर लागू होता है।
क्रिप्टोग्राफी में एन्ट्रापी की सीमाएं
क्रिप्ट विश्लेषण में, एन्ट्रापी का उपयोग अक्सर मोटे तौर पर एक क्रिप्टोग्राफ़िक कुंजी की अप्रत्याशितता के माप के रूप में किया जाता है, हालांकि इसका वास्तविक अनिश्चितता सिद्धांत अमाप्य है। उदाहरण के लिए, एक 128-बिट कुंजी जो समान रूप से और बेतरतीब ढंग से उत्पन्न होती है, में 128 बिट एन्ट्रापी होती है। यह भी लेता है (औसत पर) क्रूर बल द्वारा तोड़ने का अनुमान। एंट्रॉपी आवश्यक अनुमानों की संख्या को कैप्चर करने में विफल रहता है यदि संभावित कुंजियों को समान रूप से नहीं चुना जाता है।[24][25] इसके बजाय, ब्रूट फ़ोर्स अटैक के लिए आवश्यक प्रयास को मापने के लिए गेसवर्क नामक एक उपाय का उपयोग किया जा सकता है।[26] क्रिप्टोग्राफी में प्रयुक्त गैर-समान वितरण से अन्य समस्याएं उत्पन्न हो सकती हैं। उदाहरण के लिए, एक 1,000,000-अंकों वाला बाइनरी वन-टाइम पैड जिसमें एक्सक्लूसिव या. यदि पैड में 1,000,000 बिट्स एन्ट्रापी है, तो यह एकदम सही है। यदि पैड में 999,999 बिट्स एंट्रॉपी है, समान रूप से वितरित (पैड के प्रत्येक बिट में 0.999999 बिट्स एंट्रॉपी है) तो यह अच्छी सुरक्षा प्रदान कर सकता है। लेकिन अगर पैड में 999,999 बिट्स एंट्रॉपी है, जहां पहला बिट फिक्स है और शेष 999,999 बिट्स पूरी तरह यादृच्छिक हैं, तो सिफरटेक्स्ट का पहला बिट एन्क्रिप्ट नहीं किया जाएगा।
मार्कोव प्रक्रिया के रूप में डेटा
टेक्स्ट के लिए एन्ट्रापी को परिभाषित करने का एक सामान्य तरीका टेक्स्ट के मार्कोव मॉडल पर आधारित है। ऑर्डर -0 स्रोत के लिए (प्रत्येक वर्ण को अंतिम वर्णों से स्वतंत्र चुना गया है), बाइनरी एन्ट्रॉपी है:
कहाँ pi की संभावना है i. पहले क्रम के मार्कोव स्रोत के लिए (जिसमें एक चरित्र का चयन करने की संभावना केवल तुरंत पूर्ववर्ती चरित्र पर निर्भर है), एंट्रॉपी दर है:
कहाँ i एक अवस्था है (कुछ पूर्ववर्ती वर्ण) और की सम्भावना है j दिया गया i पिछले चरित्र के रूप में।
दूसरे क्रम के मार्कोव स्रोत के लिए, एन्ट्रापी दर है
दक्षता (सामान्यीकृत एन्ट्रॉपी)
गैर-समान वितरण के साथ एक स्रोत वर्णमाला में उन प्रतीकों की तुलना में कम एन्ट्रॉपी होगी जो समान वितरण (यानी अनुकूलित वर्णमाला) थे। एन्ट्रापी में इस कमी को दक्षता नामक अनुपात के रूप में व्यक्त किया जा सकता है[This quote needs a citation]:
लघुगणक के मूल गुणों को लागू करते हुए, इस मात्रा को इस रूप में भी व्यक्त किया जा सकता है:
संचार चैनल के प्रभावी उपयोग की मात्रा निर्धारित करने में दक्षता की उपयोगिता है। इस फॉर्मूलेशन को सामान्यीकृत एंट्रॉपी के रूप में भी जाना जाता है, क्योंकि एंट्रॉपी को अधिकतम एंट्रॉपी से विभाजित किया जाता है . इसके अलावा, दक्षता (सकारात्मक) आधार की पसंद के प्रति उदासीन है b, जैसा कि इसके ऊपर अंतिम लघुगणक के भीतर असंवेदनशीलता द्वारा इंगित किया गया है।
निरंतर यादृच्छिक चर के लिए एंट्रॉपी
विभेदक एन्ट्रॉपी
शैनन एन्ट्रापी असतत मान लेने वाले यादृच्छिक चरों तक सीमित है। संभाव्यता घनत्व समारोह के साथ एक सतत यादृच्छिक चर के लिए संबंधित सूत्र f(x) परिमित या अनंत समर्थन के साथ एक अपेक्षा के रूप में एन्ट्रापी के उपरोक्त रूप का उपयोग करते हुए, वास्तविक रेखा पर सादृश्य द्वारा परिभाषित किया गया है:[10]: 224
यह अंतर एंट्रॉपी (या निरंतर एन्ट्रॉपी) है। निरंतर एन्ट्रॉपी का अग्रदूत h[f] कार्यात्मक के लिए अभिव्यक्ति है Η बोल्ट्जमान के एच-प्रमेय में।
यद्यपि दोनों कार्यों के बीच सादृश्य सांकेतिक है, निम्नलिखित प्रश्न निर्धारित किया जाना चाहिए: क्या अंतर एन्ट्रापी शैनन असतत एन्ट्रापी का एक वैध विस्तार है? डिफरेंशियल एंट्रॉपी में कई गुणों का अभाव है जो शैनन असतत एन्ट्रापी में है - यह नकारात्मक भी हो सकता है - और सुधारों का सुझाव दिया गया है, विशेष रूप से असतत बिंदुओं के घनत्व को सीमित करना।
इस प्रश्न का उत्तर देने के लिए, दो कार्यों के बीच एक संबंध स्थापित किया जाना चाहिए:
आम तौर पर परिमित माप प्राप्त करने के लिए बिन आकार शून्य हो जाता है। असतत मामले में, बिन आकार प्रत्येक की (अंतर्निहित) चौड़ाई है n (परिमित या अनंत) डिब्बे जिनकी संभावनाओं को निरूपित किया जाता है pn. जैसा कि निरंतर डोमेन सामान्यीकृत है, चौड़ाई स्पष्ट होनी चाहिए।
ऐसा करने के लिए, एक सतत कार्य के साथ प्रारंभ करें f आकार के डिब्बे में विभाजित . माध्य-मूल्य प्रमेय के अनुसार एक मूल्य मौजूद है xi प्रत्येक बिन में ऐसा है कि
हम निरूपित करेंगे
टिप्पणी; log(Δ) → −∞ जैसा Δ → 0, अंतर या निरंतर एन्ट्रॉपी की एक विशेष परिभाषा की आवश्यकता होती है:
जैसा कि पहले कहा गया है, जिसे डिफरेंशियल एंट्रॉपी कहा जाता है। इसका मतलब यह है कि अंतर एंट्रॉपी शैनन एंट्रॉपी की सीमा नहीं है n → ∞. इसके बजाय, यह शैनन एंट्रोपी की सीमा से एक अनंत ऑफसेट द्वारा भिन्न होता है (सूचना आयाम पर लेख भी देखें)।
असतत बिंदुओं का घनत्व सीमित करना
इसका परिणाम यह निकलता है कि, शैनन एंट्रॉपी के विपरीत, डिफरेंशियल एन्ट्रापी सामान्य रूप से अनिश्चितता या सूचना का एक अच्छा उपाय नहीं है। उदाहरण के लिए, विभेदक एंट्रोपी ऋणात्मक हो सकती है; साथ ही यह निरंतर समन्वय परिवर्तनों के तहत अपरिवर्तनीय नहीं है। इस समस्या को इकाइयों के परिवर्तन से स्पष्ट किया जा सकता है x एक आयामी चर है। f(x) की इकाइयाँ होंगी 1/x. लघुगणक का तर्क विमाहीन होना चाहिए, अन्यथा यह अनुचित है, जिससे कि ऊपर दिए गए अंतर एंट्रॉपी अनुचित होंगे। अगर Δ का कुछ मानक मान है x (यानी बिन आकार) और इसलिए एक ही इकाइयां हैं, तो एक संशोधित अंतर एन्ट्रापी को उचित रूप में लिखा जा सकता है:
और परिणाम इकाइयों के किसी भी विकल्प के लिए समान होगा x. वास्तव में, असतत एन्ट्रापी की सीमा के रूप में की अवधि भी शामिल होगी , जो सामान्य रूप से अनंत होगा। यह अपेक्षित है: विखंडित होने पर निरंतर चर में आमतौर पर अनंत एन्ट्रापी होती है। असतत बिंदुओं का सीमित घनत्व वास्तव में इस बात का माप है कि वितरण की तुलना में वितरण कितना आसान है, जो इसकी परिमाणीकरण योजना पर एक समान है।
सापेक्ष एन्ट्रॉपी
एन्ट्रापी का एक और उपयोगी माप जो असतत और निरंतर मामले में समान रूप से अच्छी तरह से काम करता है, वह वितरण की सापेक्ष एन्ट्रापी है। इसे कुल्बैक-लीब्लर विचलन के रूप में वितरण से एक संदर्भ माप के रूप में परिभाषित किया गया है m निम्नलिखित नुसार। मान लें कि एक संभाव्यता वितरण p किसी माप के संबंध में बिल्कुल सतत है m, अर्थात् रूप का है p(dx) = f(x)m(dx) कुछ गैर-नकारात्मक के लिए m-अभिन्न कार्य f साथ m-इंटीग्रल 1, तो सापेक्ष एन्ट्रापी को इस रूप में परिभाषित किया जा सकता है
इस रूप में सापेक्ष एन्ट्रॉपी सामान्यीकरण (संकेत में परिवर्तन तक) असतत एन्ट्रॉपी दोनों को करता है, जहां माप m मतगणना माप है, और अंतर एन्ट्रापी, जहाँ माप है m लेबेस्ग उपाय है। यदि माप m अपने आप में एक संभाव्यता वितरण है, सापेक्ष एन्ट्रापी गैर-ऋणात्मक है, और यदि शून्य है p = m उपायों के रूप में। यह किसी भी माप स्थान के लिए परिभाषित किया गया है, इसलिए समन्वय पुनर्मूल्यांकन के तहत स्वतंत्र और अपरिवर्तनीय समन्वय करें यदि कोई माप के परिवर्तन को ठीक से ध्यान में रखता है m. सापेक्ष एन्ट्रॉपी, और (निहित रूप से) एंट्रॉपी और अंतर एंट्रॉपी, संदर्भ माप पर निर्भर करते हैं m.
कॉम्बिनेटरिक्स में प्रयोग करें
कॉम्बिनेटरिक्स में एंट्रॉपी एक उपयोगी मात्रा बन गई है।
लूमिस–व्हिटनी असमानता
इसका एक सरल उदाहरण लूमिस-व्हिटनी असमानता का एक वैकल्पिक प्रमाण है: प्रत्येक उपसमुच्चय के लिए A ⊆ Zd, अपने पास
कहाँ Pi में ऑर्थोगोनल प्रक्षेपण है iवां निर्देशांक:
प्रमाण शियर्र की असमानता के सरल परिणाम के रूप में अनुसरण करता है: यदि X1, ..., Xd यादृच्छिक चर हैं और S1, ..., Sn के उपसमुच्चय हैं {1, ..., d} जैसे कि प्रत्येक पूर्णांक 1 और के बीच d बिल्कुल निहित है {{math|r}इन उपसमुच्चयों में से }, तब
कहाँ यादृच्छिक चर का कार्टेशियन उत्पाद है Xj अनुक्रमणिका के साथ j में Si (इसलिए इस सदिश का आयाम के आकार के बराबर है Si).
हम स्केच करते हैं कि लूमिस-व्हिटनी इससे कैसे अनुसरण करता है: वास्तव में, चलो X मूल्यों के साथ एक समान रूप से वितरित यादृच्छिक चर हो A और ताकि प्रत्येक बिंदु में A समान संभावना के साथ होता है। तब (उपर्युक्त एंट्रॉपी के और गुणों द्वारा) Η(X) = log|A|, कहाँ |A| की प्रमुखता को दर्शाता है A. होने देना Si = {1, 2, ..., i−1, i+1, ..., d}. की सीमा में निहित है Pi(A) और इसलिए . अब इसका उपयोग शियरर की असमानता के दाहिने पक्ष को बाध्य करने के लिए करें और परिणामी असमानता के विपरीत पक्षों को प्रतिपादित करें।
द्विपद गुणांक का सन्निकटन
पूर्णांकों के लिए 0 < k < n होने देना q = k/n. तब
कहाँ
- [27]: 43
Proof (sketch) Note that is one term of the expression Rearranging gives the upper bound. For the lower bound one first shows, using some algebra, that it is the largest term in the summation. But then,
since there are n + 1 terms in the summation. Rearranging gives the lower bound.
इसकी एक अच्छी व्याख्या यह है कि लंबाई के बाइनरी स्ट्रिंग्स की संख्या n के साथ बिल्कुल k अनेक 1 लगभग है .[28]
मशीन लर्निंग में प्रयोग
मशीन लर्निंग तकनीक काफी हद तक सांख्यिकी और सूचना सिद्धांत से भी उत्पन्न होती है। सामान्य तौर पर, एन्ट्रॉपी अनिश्चितता का एक उपाय है और मशीन लर्निंग का उद्देश्य अनिश्चितता को कम करना है।
निर्णय ट्री लर्निंग एल्गोरिदम प्रत्येक नोड पर डेटा को नियंत्रित करने वाले निर्णय नियमों को निर्धारित करने के लिए सापेक्ष एन्ट्रापी का उपयोग करते हैं।[29] निर्णय पेड़ों में सूचना लाभ , जो की एन्ट्रापी के बीच के अंतर के बराबर है और की सशर्त एन्ट्रॉपी दिया गया , किसी विशेषता के अतिरिक्त मूल्य को जानने से, अपेक्षित जानकारी, या एन्ट्रापी में कमी की मात्रा निर्धारित करता है . सूचना लाभ का उपयोग यह पहचानने के लिए किया जाता है कि डेटासेट की कौन सी विशेषताएँ सबसे अधिक जानकारी प्रदान करती हैं और इसका उपयोग पेड़ के नोड्स को बेहतर ढंग से विभाजित करने के लिए किया जाना चाहिए।
बायेसियन अनुमान मॉडल अक्सर प्रायिक संभाव्यता वितरण प्राप्त करने के लिए अधिकतम एन्ट्रॉपी के सिद्धांत को लागू करते हैं।[30] विचार यह है कि वितरण जो एक प्रणाली के ज्ञान की वर्तमान स्थिति का सबसे अच्छा प्रतिनिधित्व करता है वह सबसे बड़ी एन्ट्रापी वाला है, और इसलिए पूर्व होने के लिए उपयुक्त है।
संभार तन्त्र परावर्तन या कृत्रिम तंत्रिका नेटवर्क द्वारा किए गए मशीन लर्निंग में वर्गीकरण अक्सर एक मानक हानि फ़ंक्शन को नियोजित करता है, जिसे क्रॉस एन्ट्रापी लॉस कहा जाता है, जो जमीनी सच्चाई और अनुमानित वितरण के बीच औसत क्रॉस एन्ट्रापी को कम करता है।[31] सामान्य तौर पर, क्रॉस एंट्रॉपी केएल डाइवर्जेंस (जिसे सापेक्ष एंट्रॉपी भी कहा जाता है) के समान दो डेटासेट के बीच अंतर का एक उपाय है।
यह भी देखें
- अनुमानित एन्ट्रापी (ApEn)
- एंट्रॉपी (थर्मोडायनामिक्स)
- क्रॉस एन्ट्रापी - दो संभाव्यता वितरणों के बीच संभावनाओं के एक सेट से एक घटना की पहचान करने के लिए आवश्यक बिट्स की औसत संख्या का एक उपाय है
- एंट्रॉपी (समय का तीर)
- एंट्रॉपी एन्कोडिंग - एक कोडिंग योजना जो प्रतीकों को कोड प्रदान करती है ताकि प्रतीकों की संभावनाओं के साथ कोड की लंबाई का मिलान किया जा सके।
- एंट्रॉपी अनुमान
- एन्ट्रापी शक्ति असमानता
- मछुआरे की जानकारी
- ग्राफ एन्ट्रापी
- हैमिंग दूरी
- एन्ट्रापी का इतिहास
- सूचना सिद्धांत का इतिहास
- सूचना में उतार-चढ़ाव की जटिलता
- सूचना ज्यामिति
- कोल्मोगोरोव-सिनाई एंट्रॉपी गतिशील प्रणाली में
- लेवेनशेटिन दूरी
- आपसी जानकारी
- घबराहट
- गुणात्मक भिन्नता - सांकेतिक वितरण के लिए सांख्यिकीय फैलाव के अन्य उपाय
- क्वांटम सापेक्ष एन्ट्रॉपी - दो क्वांटम अवस्थाओं के बीच विभेदन क्षमता का माप।
- रेनी एंट्रॉपी - शैनन एंट्रॉपी का एक सामान्यीकरण; यह एक प्रणाली की विविधता, अनिश्चितता या यादृच्छिकता को मापने के लिए कार्यात्मकताओं के परिवार में से एक है।
- यादृच्छिकता
- नमूना एन्ट्रापी (SampEn)
- शैनन इंडेक्स
- भाग सूचकांक
- टाइपोग्लाइसीमिया
संदर्भ
- ↑ Pathria, R. K.; Beale, Paul (2011). सांख्यिकीय यांत्रिकी (Third ed.). Academic Press. p. 51. ISBN 978-0123821881.
- ↑ 2.0 2.1 Shannon, Claude E. (July 1948). "संचार का एक गणितीय सिद्धांत". Bell System Technical Journal. 27 (3): 379–423. doi:10.1002/j.1538-7305.1948.tb01338.x. hdl:10338.dmlcz/101429. (PDF, archived from here)
- ↑ 3.0 3.1 Shannon, Claude E. (October 1948). "संचार का एक गणितीय सिद्धांत". Bell System Technical Journal. 27 (4): 623–656. doi:10.1002/j.1538-7305.1948.tb00917.x. hdl:11858/00-001M-0000-002C-4317-B. (PDF, archived from here)
- ↑ "एंट्रॉपी (डेटा साइंस के लिए) स्पष्ट रूप से समझाया गया !!!". YouTube.
- ↑ MacKay, David J.C. (2003). सूचना सिद्धांत, अनुमान और लर्निंग एल्गोरिदम. Cambridge University Press. ISBN 0-521-64298-1.
- ↑ Schneier, B: Applied Cryptography, Second edition, John Wiley and Sons.
- ↑ Borda, Monica (2011). सूचना सिद्धांत और कोडिंग में बुनियादी बातों. Springer. ISBN 978-3-642-20346-6.
- ↑ Han, Te Sun & Kobayashi, Kingo (2002). सूचना और कोडिंग का गणित. American Mathematical Society. ISBN 978-0-8218-4256-0.
{{cite book}}
: CS1 maint: uses authors parameter (link) - ↑ Schneider, T.D, Information theory primer with an appendix on logarithms, National Cancer Institute, 14 April 2007.
- ↑ 10.00 10.01 10.02 10.03 10.04 10.05 10.06 10.07 10.08 10.09 10.10 Thomas M. Cover; Joy A. Thomas (1991). सूचना सिद्धांत के तत्व. Hoboken, New Jersey: Wiley. ISBN 978-0-471-24195-9.
- ↑ Entropy at the nLab
- ↑ Ellerman, David (October 2017). "Logical Information Theory: New Logical Foundations for Information Theory" (PDF). Logic Journal of the IGPL. 25 (5): 806–835. doi:10.1093/jigpal/jzx022. Retrieved 2 November 2022.
- ↑ Carter, Tom (March 2014). सूचना सिद्धांत और एन्ट्रॉपी का परिचय (PDF). Santa Fe. Retrieved 4 August 2017.
{{cite book}}
: CS1 maint: location missing publisher (link) - ↑ Chakrabarti, C. G., and Indranil Chakrabarty. "Shannon entropy: axiomatic characterization and application." International Journal of Mathematics and Mathematical Sciences 2005.17 (2005): 2847-2854 url
- ↑ 15.0 15.1 15.2 Aczél, J.; Forte, B.; Ng, C. T. (1974). "क्यों शैनन और हार्टले एन्ट्रापी 'प्राकृतिक' हैं". Advances in Applied Probability. 6 (1): 131-146. doi:10.2307/1426210. JSTOR 1426210. S2CID 204177762.
- ↑ Compare: Boltzmann, Ludwig (1896, 1898). Vorlesungen über Gastheorie : 2 Volumes – Leipzig 1895/98 UB: O 5262-6. English version: Lectures on gas theory. Translated by Stephen G. Brush (1964) Berkeley: University of California Press; (1995) New York: Dover ISBN 0-486-68455-5
- ↑ Życzkowski, Karol (2006). Geometry of Quantum States: An Introduction to Quantum Entanglement. Cambridge University Press. p. 301.
- ↑ Sharp, Kim; Matschinsky, Franz (2015). "लुडविग बोल्ट्जमैन के पेपर का अनुवाद "ऊष्मा के यांत्रिक सिद्धांत के दूसरे मौलिक प्रमेय के बीच संबंध और थर्मल संतुलन के लिए शर्तों के संबंध में संभाव्यता गणना"". Entropy. 17: 1971–2009. doi:10.3390/e17041971.
- ↑ Jaynes, E. T. (1957-05-15). "सूचना सिद्धांत और सांख्यिकीय यांत्रिकी". Physical Review. 106 (4): 620–630. Bibcode:1957PhRv..106..620J. doi:10.1103/PhysRev.106.620.
- ↑ Landauer, R. (July 1961). "कम्प्यूटिंग प्रक्रिया में अपरिवर्तनीयता और ऊष्मा उत्पादन". IBM Journal of Research and Development. 5 (3): 183–191. doi:10.1147/rd.53.0183. ISSN 0018-8646.
- ↑ Mark Nelson (24 August 2006). "द हटर प्राइज". Retrieved 2008-11-27.
- ↑ 22.0 22.1 "The World's Technological Capacity to Store, Communicate, and Compute Information", Martin Hilbert and Priscila López (2011), Science, 332(6025); free access to the article through here: martinhilbert.net/WorldInfoCapacity.html
- ↑ Spellerberg, Ian F.; Fedor, Peter J. (2003). "A tribute to Claude Shannon (1916–2001) and a plea for more rigorous use of species richness, species diversity and the 'Shannon–Wiener' Index". Global Ecology and Biogeography (in English). 12 (3): 177–179. doi:10.1046/j.1466-822X.2003.00015.x. ISSN 1466-8238.
- ↑ Massey, James (1994). "अनुमान और एंट्रॉपी" (PDF). Proc. IEEE International Symposium on Information Theory. Retrieved 31 December 2013.
- ↑ Malone, David; Sullivan, Wayne (2005). "गेसवर्क एंट्रॉपी का विकल्प नहीं है" (PDF). Proceedings of the Information Technology & Telecommunications Conference. Retrieved 31 December 2013.
- ↑ Pliam, John (1999). "क्रिप्टोग्राफी में चयनित क्षेत्र". International Workshop on क्रिप्टोग्राफी में चयनित क्षेत्र. Lecture Notes in Computer Science. Vol. 1758. pp. 62–77. doi:10.1007/3-540-46513-8_5. ISBN 978-3-540-67185-5.
- ↑ Aoki, New Approaches to Macroeconomic Modeling.
- ↑ Probability and Computing, M. Mitzenmacher and E. Upfal, Cambridge University Press
- ↑ Batra, Mridula; Agrawal, Rashmi (2018). Panigrahi, Bijaya Ketan; Hoda, M. N.; Sharma, Vinod; Goel, Shivendra (eds.). "डिसीजन ट्री एल्गोरिदम का तुलनात्मक विश्लेषण". Nature Inspired Computing. Advances in Intelligent Systems and Computing (in English). Singapore: Springer. 652: 31–36. doi:10.1007/978-981-10-6747-1_4. ISBN 978-981-10-6747-1.
- ↑ Jaynes, Edwin T. (September 1968). "पूर्व संभावनाएं". IEEE Transactions on Systems Science and Cybernetics. 4 (3): 227–241. doi:10.1109/TSSC.1968.300117. ISSN 2168-2887.
- ↑ Rubinstein, Reuven Y.; Kroese, Dirk P. (2013-03-09). The Cross-Entropy Method: A Unified Approach to Combinatorial Optimization, Monte-Carlo Simulation and Machine Learning (in English). Springer Science & Business Media. ISBN 978-1-4757-4321-0.
This article incorporates material from Shannon's entropy on PlanetMath, which is licensed under the Creative Commons Attribution/Share-Alike License.
अग्रिम पठन
सूचना सिद्धांत पर पाठ्यपुस्तकें
- थॉमस एम. कवर|कवर, टी.एम., जॉय ए. थॉमस|थॉमस, जे.ए. (2006), सूचना सिद्धांत के तत्व - दूसरा संस्करण, विली-इन्टरसाइंस, ISBN 978-0-471-24195-9
- डेविड जे.सी. मैके|मैके, डी.जे.सी. (2003), इंफॉर्मेशन थ्योरी, इनफेरेंस एंड लर्निंग एल्गोरिदम, कैम्ब्रिज यूनिवर्सिटी प्रेस, ISBN 978-0-521-64298-9
- अरंड्ट, सी. (2004), इंफॉर्मेशन मेज़र्स: इंफॉर्मेशन एंड इट्स डिस्क्रिप्शन इन साइंस एंड इंजीनियरिंग, स्प्रिंगर, ISBN 978-3-540-40855-0
- ग्रे, आर. एम. (2011), एंट्रॉपी एंड इंफॉर्मेशन थ्योरी, स्प्रिंगर।
- Martin, Nathaniel F.G. & England, James W. (2011). एंट्रॉपी का गणितीय सिद्धांत. Cambridge University Press. ISBN 978-0-521-17738-2.
{{cite book}}
: CS1 maint: uses authors parameter (link) - क्लॉड शैनन | शैनन, सी.ई., वॉरेन वीवर | वीवर, डब्ल्यू। (1949) द मैथमैटिकल थ्योरी ऑफ कम्युनिकेशन, यूनिवर्सिटी ऑफ इलिनोइस प्रेस। ISBN 0-252-72548-4
- स्टोन, जे.वी. (2014), अध्याय 1 सूचना सिद्धांत: एक ट्यूटोरियल परिचय, शेफ़ील्ड विश्वविद्यालय, इंग्लैंड। ISBN 978-0956372857.
बाहरी संबंध
Library resources about एंट्रॉपी (सूचना सिद्धांत) |
- "Entropy", Encyclopedia of Mathematics, EMS Press, 2001 [1994]
- "Entropy" at Rosetta Code—repository of implementations of Shannon entropy in different programming languages.
- Entropy an interdisciplinary journal on all aspects of the entropy concept. Open access.