Математическая энциклопедия - информация
Связанные словари
Информация
основное понятие кибернетики. Кибернетика изучает машины и живые организмы исключительно с точки зрения их способности воспринимать определенную П., сохранять эту И. в "памяти", передавать ее по каналам связи и перерабатывать ее в "сигналы", направляющие их деятельность в соответствующую сторону. Интуитивное представление об И. относительно каких-либо величин или явлений, содержащейся в нек-рых данных, в кибернетике ограничивается и уточняется.
В нек-рых случаях возможность сравнения различных групп данных по содержащейся в них И. столь же естественна, как возможность сравнения плоских фигур по их "площади": независимо от способа измерения площадей можно сказать, что фигура Аимеет не большую площадь, чем В, если .4 может быть целиком помещена в B. (ср. примеры 1-3 ниже). Более глубокий факт возможность выразить площадь числом и на этой основе сравнивать между собой фигуры произвольной формы является результатом развитой математич. теории. Подобно этому фундаментальным результатом теории И. является утверждение о том, что в определенных, весьма широких, условиях можно пренебречь качественными особенностями И. и выразить ее количество числом. Только этим числом определяются возможности передачи И. по каналам связи и ее хранения в запоминающих устройствах.
Пример 1. Знание положения и скорости частицы, движущейся в силовом поле, дает И. о ее положении в любой будущий момент времени, притом полную, т. к. это положение может быть предсказано точно. Знание энергии частицы также дает И., но, очевидно, неполную.
Пример 2. Равенство
а=b (1)
дает И. относительно переменных аи b. Равенство
а 2=b2 (2)
дает меньшую И. [т. к. из (1) следует (2), но эти равенства не равносильны]. Наконец, равенство
а 3=b3(3)
равносильное (1), дает ту же И., то есть (1) и (3) это различные формы задания одной и той же И.
Пример 3. Результаты произведенных с ошибками независимых измерений к.-л. физич. величины дают И. о ее точном значении. Увеличение числа наблюдений увеличивает эту И. Пример 3 а. Среднее арифметическое результатов наблюдений также содержит нек-рую И. относительно рассматриваемой величины. Как показывает математич. статистика, в случае нормального распределения вероятностей ошибок с известной дисперсией среднее арифметическое содержит всю И.
Пример 4. Пусть результатом нек-рого измерения является случайная величина x. При передаче по нек-рому каналу связи x искажается, в результате чего на приемном конце получают величину
где 8 не зависит от x (в смысле теории вероятностей). "Выход" hдает И. о "входе" x, причем естественно ожидать, что эта И. тем меньше, чем больше "рассеяние" значений q.
В каждом из приведенных примеров данные сравнивались по большей или меньшей полноте содержащейся в них И. В примерах 1-3 смысл такого сравнения ясен и сводится к анализу равносильности или неравносильности нек-рых соотношений. В примерах За и 4 этот смысл требует уточнения. Это уточнение дается, соответственно, математич. статистикой и теорией И. (для к-рых эти примеры являются типичными).
В основе информации теории лежит предложенный в 1948 К. Шенноном (С. Shannon) способ измерения количества И., содержащейся в одном случайном объекте (событии, величине, функции и т. п.) относительно другого случайного объекта. Этот способ приводит к выражению количества И. числом. Положение можно всего лучше объяснить в простейшей обстановке, когда рассматриваемые случайные объекты являются случайными величинами, принимающими лишь конечное число значений. Пусть x случайная величина, принимающая значения х 1, х 2, ..., х п с вероятностями р 1, р 2, . .., р п, а h случайная величина, принимающая значения у 1, у 2, ..., у т с вероятностями q1, q2 ,..., qm. Тогда И. I(x, h) относительно h, содержащаяся в x, определяется формулой
где р ijвероятность совмещения событий x=xi и h=yj и логарифмы берутся по основанию 2. И. I(x,h)обладает рядом свойств, к-рые естественно требовать от меры количества И. Так, всегда I(x,h)>0 и равенство I(x,h)= 0 возможно тогда и только тогда, когда р ij=piqj при всех iи j, т. е. когда случайные величины x и h независимы. Далее, всегда и равенство возможно только в случае, когда т] есть функция от x (напр., h = x2 и т. д.). Неожиданным может казаться лишь равенство I(x, h)= I(h, x).
Величина носит название энтропии случайной величины x. Понятие энтропии относится к числу основных понятий теории И. Количество И. и энтропия связаны соотношением
где H(x, h) энтропия пары (x, h), т. е.
Величина энтропии указывает среднее число двоичных знаков, необходимое для различения (или записи) возможных значений случайной величины. Это обстоятельство позволяет понять роль количества И. (4) при "хранении" И. в запоминающих устройствах. Если случайные величины x и hнезависимы, то для записи значения x требуется в среднем Н(x)двоичных знаков, для значения hтребуется Н(h)двоичных знаков, а для пары (x, h) требуется H(x)+H(h) двоичных знаков. Если же случайные величины x и h зависимы, то среднее число двоичных знаков, необходимое для записи пары (x, h), оказывается меньшим суммы Н(x)+ +H(h), так как Н(x,h) = Н(x)+Н(h)-I(x, h).
С помощью значительно более глубоких теорем выясняется роль количества И. (4) в вопросах передачи И. по каналам связи. Основная информационная характеристика каналов, так наз. емкость, определяется через понятие "П.".
Если x и h могут принимать бесконечное число значений, то предельным переходом из (4) получается формула
где буквами ри qобозначены соответствующие плотности вероятности. При этом энтропии Н(x) и H(h) не существуют, но имеет место формула, аналогичная (5)
где
дифференциальная энтропияx[h(h)и h(x,h) определяются подобным же образом].