Слайд 2Комбинаторная мера
Комбинаторная мера информации Q - это способ измерения
количества информации путем оценки количества возможных комбинаций информационных элементов.
Слайд 3Пример 1
Проведем опыт. Возьмем игральный кубик. Он имеет шесть сторон,
на каждой из которых изображены числа от одного до шести.
Подбрасывая игральный кубик сколь угодно раз, мы можем получить только шесть возможных чисел. Обозначим это как
Q = 6.
Слайд 4Пример 2
Пусть задана одна из десятичных цифр, например, цифра
8 и одна из шестнадцатиричных – к примеру, цифра 6
(можно было взять любую другую шестнадцатиричную - 8, В, F и т. д.). Теперь, в соответствии с определением комбинаторной меры, определим количество информации, заключенное в каждой из этих цифр. Поскольку цифра 8 является десятичной, а значит, представляет один символ из десяти, то Q(8)= 10 комбинаций. Аналогично, цифра 6 представляет один из шестнадцати символов, а поэтому Q(6) = 16 комбинаций. Следовательно, что шестнадцатиричная цифра содержит больше информации, чем десятичная.
Слайд 5Из рассмотренного примера можно сделать вывод, что чем меньше цифр
находится в основании системы счисления, тем меньше информации несет в
себе один ее элемент.
Слайд 6Минимальное количество цифр в основании имеет только двоичная система счисления,
состоящая из двоичных цифр 0 и 1. Нетрудно посчитать, что,
в соответствии с комбинаторной мерой, количество информации в одной цифре двоичной системы счисления Q = 2 комбинации. Такое количество информации является минимальным.
Слайд 7Известны различные формы представления информации. Однако, электронно-вычислительная машина – это
техническое устройство, основанное на работе электронных компонентов, а значит, обладающее
определенными физическими характеристиками. Поэтому, данные, предназначенные для ЭВМ, должна иметь физическое представление, причем это представление должно быть наиболее простым.
Этим требованиям отвечает, так называемое, битовое представление информации, основанное на двоичной системе счисления, при котором каждая запоминаемая частица может принимать только два значения - либо 0, либо 1.
Слайд 8В технических устройствах двоичная система счисления используется для обозначения систем
с двумя возможными состояниями. Например:
- есть отверстие - нет
отверстия;
- есть сигнал – нет сигнала;
- есть напряжение - нет напряжения.
Причем каждая двоичная цифра содержит один бит информации.
Слайд 9Логарифмическая мера
Английский инженер Р. Хартли предложил измерять количество информации двоичной
логарифмической мерой:
Если в заданном множестве H, содержащем N элементов, выделен
какой-то элемент x, о котором заранее известно, что он принадлежит множеству H, то чтобы найти x, необходимо получить количество информации, равное log2N битам.
Слайд 10
I = log2N
где N - количество различных комбинаций
информационных элементов. Единицей измерения информации при таком измерении является бит.
Слайд 11в примере с кубиком I = log26 = 2,585 бит;
в
примере с десятичной системой счисления I = log210 = 3,322
бит;
в примере с шестнадцатиричной системой счисления I = log216 = 4 бит;
в примере с двоичной системой счисления I = log22 = 1 бит.
Слайд 12Единицы измерения
Биты
I = log2N
Наты
I = lnN
Диты
I = lgN
Слайд 13Для того чтобы лучше понять формулу Хартли, рассмотрим следующую задачу.
Имеется 27 золотых монет, из которых 26 настоящих, а одна
фальшивая. Известно, что фальшивая монета легче настоящих. Для определения фальшивой монеты в нашем распоряжении имеются равноплечие весы с двумя чашками, позволяющие лишь устанавливать, одинаково ли по весу содержимое чашек или содержимое какой из чашек тяжелее. Спрашивается: сколько взвешиваний необходимо произвести, чтобы обнаружить фальшивую монету.
Слайд 14
Фальшивой монетой может оказаться любая из 27 монет, следовательно, по
формуле Хартли количество недостающей информации составляет log227 бит. Любое взвешивание
может завершиться одним из трех исходов, следовательно каждое взвешивание может дать log23 бит информации. Если мы хотим определить фальшивую монету за x взвешиваний. То должно выполняться неравенство:
x log23 >= log227.
Так как log227 = 3 log23, то x>= 3.
Это означает, что для определения фальшивой монеты необходимо произвести, по крайней мере, три взвешивания.
Слайд 15Статистическая мера информации
Энтропия группы событий – есть количественная мера его
неопределенности и следовательно информативности количественно выражаемая как средняя функция множества
вероятностей каждого из возможных исходов опыта.
Слайд 16Пусть N – количество возможных исходов
к – количество типов
n –
количество повторений i-го исхода.
Ii – количество информации типа исхода
Iср =
(n1I1+n2I2+...+nkIk)/N
Количество информации в каждом исходе связано с его вероятностью pi и выражается как
Ii=log2 (1/pi)= - log2pi.
Iср = (n1(- log2p1) +n2(- log2p2)+...+nk(- log2pk))/N
Iср = n1/N(- log2p1) +n2/N (- log2p2)+...+nk/N (- log2pk)
Iср = p1 (- log2p1) + p2 (- log2p2)+...+ pk (- log2pk)
Iср= - Σ pi log2pi = H – ЭНТРОПИЯ
Слайд 17Свойства энтропии
1.Энтропия всегда неотрицательна.
2.Энтропия равна 0 когда одно из pi
=1 а остальные равны 0.
3. Энтропия имеет наибольшее значение, когда
все вероятности равны между собой.
4.Энтропия объекта, состояния которого образуются совместной реализацией состояний двух других объектов, равна сумме энтропий исходных объектов.
Слайд 18Объемный подход
Vд – объем информации (данных)
Объем информации равен количеству символов
в сообщении.
Слайд 19Результаты контрольной по физике в классе: 6 пятерок, 4 четверки,
20 троек, 2 двойки. Чему равно количество информации в битах
в сообщении «Маша получила 4»?
Слайд 20В корзине лежат 8 синих шаров и 24 красных. Сколько
информации несет сообщение о том, что из корзины достали синий
шар?
Слайд 21Злой экзаменатор никогда не ставит пятерок по информатике. По причине
своей зловредности он заранее определил количество отметок каждого вида и
произвольно расставил их абитуриентам. Количество информации, содержащееся в сообщении "Абитуриент Иванов не провалился на экзамене", равно двум битам. Информационный объем сообщения "Абитуриент Сидоров получил тройку" равен 5 бит. 24 абитуриента получили двойку. Чему равно количество абитуриентов, получивших четверку?