تاريخ الفيزياء
علماء الفيزياء
الفيزياء الكلاسيكية
الميكانيك
الديناميكا الحرارية
الكهربائية والمغناطيسية
الكهربائية
المغناطيسية
الكهرومغناطيسية
علم البصريات
تاريخ علم البصريات
الضوء
مواضيع عامة في علم البصريات
الصوت
الفيزياء الحديثة
النظرية النسبية
النظرية النسبية الخاصة
النظرية النسبية العامة
مواضيع عامة في النظرية النسبية
ميكانيكا الكم
الفيزياء الذرية
الفيزياء الجزيئية
الفيزياء النووية
مواضيع عامة في الفيزياء النووية
النشاط الاشعاعي
فيزياء الحالة الصلبة
الموصلات
أشباه الموصلات
العوازل
مواضيع عامة في الفيزياء الصلبة
فيزياء الجوامد
الليزر
أنواع الليزر
بعض تطبيقات الليزر
مواضيع عامة في الليزر
علم الفلك
تاريخ وعلماء علم الفلك
الثقوب السوداء
المجموعة الشمسية
الشمس
كوكب عطارد
كوكب الزهرة
كوكب الأرض
كوكب المريخ
كوكب المشتري
كوكب زحل
كوكب أورانوس
كوكب نبتون
كوكب بلوتو
القمر
كواكب ومواضيع اخرى
مواضيع عامة في علم الفلك
النجوم
البلازما
الألكترونيات
خواص المادة
الطاقة البديلة
الطاقة الشمسية
مواضيع عامة في الطاقة البديلة
المد والجزر
فيزياء الجسيمات
الفيزياء والعلوم الأخرى
الفيزياء الكيميائية
الفيزياء الرياضية
الفيزياء الحيوية
الفيزياء العامة
مواضيع عامة في الفيزياء
تجارب فيزيائية
مصطلحات وتعاريف فيزيائية
وحدات القياس الفيزيائية
طرائف الفيزياء
مواضيع اخرى
Mutual Information
المؤلف:
Garnett P. Williams
المصدر:
Chaos Theory Tamed
الجزء والصفحة:
337
16-3-2021
1814
Mutual Information
Two systems that have no mutual relation have no information about one another. Conversely, if they do have some connection, each contains information about the other. For instance, a measurement of x helps estimate y (or provides information about y, or reduces the uncertainty in y). Suppose now that we want to determine the amount (if any) by which a measurement of x reduces our uncertainty about a value of y. Two ''uncertainties of y" contribute. First, y by itself has an uncertainty, as measured by the self-entropy HY. Secondly, there's an uncertainty of y given a measurement of x, as measured by the conditional entropy HY|X.
Conditional entropy HY|X is a number that represents an amount of information about y. In particular, the basic uncertainty HY is lessened or partially relieved by an amount equal to HY|X. In symbols, that statement says that the overall decrease in uncertainty is HY-HY|X. The name for that difference or reduced uncertainty is mutual information, IY;X:
IY;X = HY-HY|X. .......(1)
Using a semicolon in the subscript Y;X characterizes our symbol for mutual information. For joint probabilities or entropies, we used a comma, as in joint entropy HX,Y. For conditional probabilities or entropies, we used a vertical slash, as in HY|X
Alternate definitions
The technical literature and chaos theory also express mutual information in two other ways. As before, one is in terms of probabilities, the other in terms of entropies. This time we'll take the easy one (the entropy form) first.
الاكثر قراءة في مواضيع اخرى
اخر الاخبار
اخبار العتبة العباسية المقدسة

الآخبار الصحية
