Математическая энциклопедия - информации количество
Связанные словари
Информации количество
теоретико-информационная мера величины информации, содержащейся в одной случайной величине относительно другой. Пусть x и h.случайные величины, определенные на нек-ром вероятностном пространстве и принимающие значения в измеримых пространствах и соответственно, а их совместное и маргинальные распределения вероятностей. Если распределение Pxh (Х). абсолютно непрерывно относительно прямого произведения мер плотность (по Радону Никодиму) меры Pxh( Х) относительно меры и информационная плотность (логарифмы обычно берутся по основанию 2 или е), то, по определению, И. к. дается формулой
Если же мера не является абсолютно непрерывной относительно произведения мер то, по определению,
В случае, когда величины x и h принимают конечное число значений, выражение для И. к. I(x, h) приобретает следующий вид:
где
{pij, i=1, ...,n; j=1, ...,m) - распределения вероятностей x,h и пары (x, h) соответственно (в частности,
является энтропией случайной величины x), а если x,h случайные векторы и существуют плотности Px(x), рh (у), Рxh( х, у )случайных векторов x, h и пары (x, h) соответственно, то
В общем случае
где верхняя грань берется по всем измеримой функциям и с конечным числом значений. Понятие И. к. используется главным образом в теории передачи информации.
Лит. см. [1], [2], [4] при ст. Информации передача.
Р. Л. Добрушин, В. В Прелов.
Математическая энциклопедия. — М.: Советская энциклопедия
И. М. Виноградов
1977—1985