Статистика - Статей: 909699, Изданий: 1065

Искать в "Математическая энциклопедия..."

ИНФОРМАЦИИ КОЛИЧЕСТВО





- теоретико-информационная мера величины информации, содержащейся в одной случайной величине относительно другой. Пусть x и h.- случайные величины, определенные на нек-ром вероятностном пространстве и принимающие значения в измеримых пространствах и соответственно, а - их совместное и маргинальные распределения вероятностей. Если распределение Pxh (Х). абсолютно непрерывно относительно прямого произведения мер - плотность (по Радону - Никодиму) меры Pxh( Х) относительно меры и - информационная плотность (логарифмы обычно берутся по основанию 2 или е), то, по определению, И. к. дается формулой

Если же мера не является абсолютно непрерывной относительно произведения мер то, по определению,

В случае, когда величины x и h принимают конечное число значений, выражение для И. к. I(x, h) приобретает следующий вид:

где

{pij, i=1, ...,n; j=1, ...,m) - распределения вероятностей x,h и пары (x, h) соответственно (в частности,

является энтропией случайной величины x), а если x,h - случайные векторы и существуют плотности Px(x), рh (у), Рxh( х, у )случайных векторов x, h и пары (x, h) соответственно, то

В общем случае

где верхняя грань берется по всем измеримой функциям и с конечным числом значений. Понятие И. к. используется главным образом в теории передачи информации.

Лит. см. [1], [2], [4] при ст. "Информации передача".

Р. Л. Добрушин, В. В Прелов.



Еще в энциклопедиях


В интернет-магазине DirectMedia