Энтропия
Рассмотри опыт с п равновероятных исходов. Очевидно, что неопределенность каждого из них зависит от n, т.е. мера неопределенности является функцией числа исходов f(n).
Можно указать некоторые свойства этой функции:
f(1) = 0, поскольку при п = 1 исход опыта не является случайным и, следовательно, неопределенность отсутствует;
f(n) возрастает с ростом п, поскольку чем больше число возможных исходов, тем более затруднительным становится предсказание результата опыта.
Энтропия как мера неопределенности
За меру неопределенности опыта с п равновероятными исходами можно принять число log(n).
То есть
f(n) = log (n) (1)
Следует заметить, что выбор основания логарифма в данном случае значения не имеет, поскольку в силу известной формулы преобразования логарифма от одного основания к другому (logbn=logba*logan)
Единица измерения неопределенности при двух возможных равновероятных исходах опыта называется бит.
Эта величина получила название энтропия. В дальнейшем будем обозначать ее Н.
Таким образом, неопределенность, вносимая каждым из равновероятных исходов, равна:
Энтропия является мерой неопределенности опыта, в котором проявляются случайные события, и равна средней неопределенности всех возможных его исходов.
Для практики формула (3) важна тем, что позволяет сравнить неопределенности различных опытов со случайными исходами.
(3)
(5)
В слагаемых произведено изменение порядка суммирования в соответствии со значениями индексов. Далее, по условию нормировки
(6)
(7)
При подстановке в (5) получаем:
Замечание: Количество информации численно равно числу вопросов с равновероятными бинарными вариантами ответов, которые необходимо задать, чтобы полностью снять неопределенность задачи.
Если не удалось найти и скачать доклад-презентацию, Вы можете заказать его на нашем сайте. Мы постараемся найти нужный Вам материал и отправим по электронной почте. Не стесняйтесь обращаться к нам, если у вас возникли вопросы или пожелания:
Email: Нажмите что бы посмотреть