1

المرجع الالكتروني للمعلوماتية

تاريخ الرياضيات

الاعداد و نظريتها

تاريخ التحليل

تار يخ الجبر

الهندسة و التبلوجي

الرياضيات في الحضارات المختلفة

العربية

اليونانية

البابلية

الصينية

المايا

المصرية

الهندية

الرياضيات المتقطعة

المنطق

اسس الرياضيات

فلسفة الرياضيات

مواضيع عامة في المنطق

الجبر

الجبر الخطي

الجبر المجرد

الجبر البولياني

مواضيع عامة في الجبر

الضبابية

نظرية المجموعات

نظرية الزمر

نظرية الحلقات والحقول

نظرية الاعداد

نظرية الفئات

حساب المتجهات

المتتاليات-المتسلسلات

المصفوفات و نظريتها

المثلثات

الهندسة

الهندسة المستوية

الهندسة غير المستوية

مواضيع عامة في الهندسة

التفاضل و التكامل

المعادلات التفاضلية و التكاملية

معادلات تفاضلية

معادلات تكاملية

مواضيع عامة في المعادلات

التحليل

التحليل العددي

التحليل العقدي

التحليل الدالي

مواضيع عامة في التحليل

التحليل الحقيقي

التبلوجيا

نظرية الالعاب

الاحتمالات و الاحصاء

نظرية التحكم

بحوث العمليات

نظرية الكم

الشفرات

الرياضيات التطبيقية

نظريات ومبرهنات

علماء الرياضيات

500AD

500-1499

1000to1499

1500to1599

1600to1649

1650to1699

1700to1749

1750to1779

1780to1799

1800to1819

1820to1829

1830to1839

1840to1849

1850to1859

1860to1864

1865to1869

1870to1874

1875to1879

1880to1884

1885to1889

1890to1894

1895to1899

1900to1904

1905to1909

1910to1914

1915to1919

1920to1924

1925to1929

1930to1939

1940to the present

علماء الرياضيات

الرياضيات في العلوم الاخرى

بحوث و اطاريح جامعية

هل تعلم

طرائق التدريس

الرياضيات العامة

نظرية البيان

الرياضيات : الرياضيات التطبيقية :

Differential Entropy

المؤلف:  Cover, T. M. and Thomas, J. A

المصدر:  Elements of Information Theory. New York: Wiley, 1991.

الجزء والصفحة:  ...

12-11-2021

1256

Differential Entropy

Differential entropy differs from normal or absolute entropy in that the random variable need not be discrete. Given a continuous random variable X with a probability density function f_X(x), the differential entropy h(X) is defined as

 -int_(-infty)^inftyf_X(x)lnf_X(x)dx=-<lnf_X(x)>.

(1)

When we have a continuous random vector X that consists of n random variables X_1X_2, ..., X_n, the differential entropy of X is defined as the n-fold integral

h(X) = -int_(-infty)^inftyf_(X)(x)lnf_(X)(x)dx

(2)

= -<lnf_(X)(x)>,

(3)

where f_(X)(x) is the joint probability density function of X.

Thus, for example, the differential entropy of a multivariate Gaussian random variate X with covariance matrix P is

h(X) = 1/2ln[(2pie)^n|det(P)|]

(4)

= 1/2n[1+ln(2pi)]+1/2ln|det(P)|.

(5)

Additional properties of differential entropy include

 h(X+c)=h(X),

(6)

where c is a constant and

 h(aX)=h(X)+ln|a|,

(7)

where a is a scaling factor and X is a scalar random variable. The above property can be generalized to the case of a random vector X premultiplied by a matrix A,

 h(AX)=h(X)+ln|det(A)|,

(8)

where det(A) is the determinant of matrix A.


REFERENCES:

Cover, T. M. and Thomas, J. A. Elements of Information Theory. New York: Wiley, 1991.

EN

تصفح الموقع بالشكل العمودي