Условная энтропия
Этот онлайн калькулятор рассчитывает средние (полные) условные энтропии H(Y|X) и H(X|Y) случайных величин Y и X по таблице вероятности состояний (X,Y)~p
Этот материал распространяется на условиях лицензии Creative Commons Attribution/Share-Alike License 3.0 (Unported). Это означает, что вы можете размещать этот контент на своем сайте или создавать на его основе собственный (в том числе и в коммерческих целях), при условии сохранения оригинального лицензионного соглашения. Кроме того, Вы должны отметить автора этой работы, путем размещения HTML ссылки на оригинал работы https://planetcalc.ru/8414/. Пожалуйста оставьте без изменения все ссылки на других авторов данной работы или работы, на основе которой создана данная работа (если таковые имеются в спроводительном тексте).
Пусть имеются две случайные величины X и Y. Если они зависимые, то значения, принимаемые одной из них, могут оказывать влияние на значения, принимаемые другой. Приведем простейший пример: пусть у нас есть урна с двумя шарами - белым и черным. Случайная величина X - цвет шара, вытащенного первым, случайная величина Y - цвет шара, вытащенного вторым. Понятно, что если мы ЗНАЕМ значение какой-либо одной из этих случайных величин, мы также точно знаем значение и второй. Для описания подобной зависимости и используется условная энтропия.
Для расчета условной энтропии нам нужны вероятности появления всех пар значений случайных величин X и Y. В поле ввода ниже нужно ввести матрицу, элемент которой на пересечении i-ой строки и j-ого столбца равен - вероятности того, что X и Y примут значения , соответственно. Строки соответствуют значениям случайной величины X - а столбцы - случайной величины Y - .
Нажав кнопку "Детали расчета" вы сможете увидеть расчет средних условных энтропий. Формулы расчета в общем виде приведены под калькулятором.
Формула условной энтропии
Частная условная энтропия - это количество информации, или энтропия, которая характеризует степень неопределенности значений случайной величины Y, остающуюся после того, как стало известно, что случайная величина X приняла значение .
Средняя или полная условная энтропия H(Y|X) - это количество информации, или энтропия, которая характеризует степень неопределенности значений случайной величины Y, остающуюся после того, как стало известно значение, принятое случайной величиной X.
Средняя условная энтропия Y по X определяется как
Предполагается что выражения вида и трактуются как ноль.
Значения для каждой строки вычисляются суммированием ячеек в этой строке, а - даны.
Эта формула, по факту, является взвешенным средним значением частных условных энтропий для каждого из возможных значений X.
Веса пропорциональны значению p(x), то есть
Комментарии