Разделы презентаций


Измерение информации

Содержание

Единицы измерения1 бит (bit) – минимальная единица измерения1 байт (bytе) = 23 = 8 бит1 Кб (килобайт) = 1024 байта = 210 байта1 Мб (мегабайт) = 1024 Кб

Слайды и текст этой презентации

Слайд 1Измерение информации
Лабораторная работа №2
(ГД, Сер, Тур – 51)

Измерение информацииЛабораторная работа №2(ГД, Сер, Тур – 51)

Слайд 2Единицы измерения
1 бит (bit) – минимальная единица измерения
1 байт (bytе)

= 23 = 8 бит
1 Кб (килобайт) = 1024

байта = 210 байта
1 Мб (мегабайт) = 1024 Кб = 220 байта
1 Гб (гигабайт) = 1024 Мб = 230 байта
1 Тб (терабайт) = 1024 Гб = 240 байта
1 Пб (петабайт) = 1024 Тб = 250 байта
Единицы измерения1 бит (bit) – минимальная единица измерения1 байт (bytе) = 23  = 8 бит1 Кб

Слайд 3Перевод в другие единицы
Пример
5 Кбайт = 5 * 1024

байт = 5120 байт
15 байт = 15 * 8 бит

= 120 бит
2048 Кбайт = 2048 / 1024 Мбайт = 2 Мбайта
1024 Mбайт = 1024/1024 Гбайт = 1 Гбайт
3 Мбайта =3 * 1024 Кбайт = 3072 Кбайта

Перевод в другие единицыПример 	5 Кбайт = 5 * 1024 байт = 5120 байт	15 байт = 15

Слайд 4Задание 1
Сравните (расставьте знаки «=», «>», «

бита
1000 байт

1 Кб
220 байт 0,25 Кб
1 Мб 1500 Кб
8192 бита 1 Кб

?

?

?

?

?

Задание 1Сравните (расставьте знаки «=», «>», «

Слайд 5Впишите недостающее число:

8 байт = ? бит

1,5 Кбайт = ? байт
512 бит = ? байт
2 Мбайта = ? Кбайт
4 бита = ? байт
3072 Кбайта = ? Мбайт

Задание 2

Впишите недостающее число:		        8 байт	= ? бит

Слайд 6Задание 3
Сравните информационные объемы (расставьте знаки «=», «>», «

1024 Кбайт 220 байт
1024 Кбайт 2 Мбайт
1024 Кбайт

210 бит
1024 Кбайт 1 Гбайт

?

?

?

?

Задание 3Сравните информационные объемы (расставьте знаки «=», «>», «

Слайд 7Задание 4
В какой последовательности единицы измерения информации указаны в порядке

возрастания?
210 байт; 1 Тбайт; 1024 Мбайт
220 байт; 1 Мбайт; 1000

Кбайт
210 Кбайт; 1024 байт; 1 Гбайт
1 Кбайт; 220 байт; 1024 Мбайт
Задание 4В какой последовательности единицы измерения информации указаны в порядке возрастания?210 байт; 1 Тбайт; 1024 Мбайт220 байт;

Слайд 8Алфавитный подход к измерению информации
Информация – последовательность знаков, независимо от

содержания
Алфавит – конечное множество различных символов (7, 2, «, а,

<, Л, …)
Мощность алфавита N – количество символов в алфавите
Информационный вес одного символа i = log2N бит (N = 2i)
Информационный объём сообщения из K символов
I = K i = K log2N бит

кодировка ASCII (American Standard Code for Information Interchange)

Кодировка Unicode (включает символы различных письменностей)

Алфавитный подход к измерению информацииИнформация – последовательность знаков, независимо от содержанияАлфавит – конечное множество различных символов (7,

Слайд 9Пример. Определить приблизительный
информационный объем «Советского

энциклопедического словаря»
Будем производить приблизительный расчет информационного объема текста

содержащегося в этой книге (без учета графичес-ких изображений) для этого найдем страницу равномерно за-полненную текстом:
1. На странице три столбца.
2. В столбце 100 строк.
3. В строке (судя по средней строке) 40 символов.
4. В книге1640 страниц.
5. Т.о., в книге 3*100*40*1640=19680000 символов.
6. Будем считать, что информационный объем одного символа
= 1 Byte, т.о. информационный объем всей книге составляет
19680000 Byte.
7. Осуществим перевод в более крупные единицы измерения:
19680000 / 1024 = 19218,75 Kbyte
19218,75 / 1024 = 18,7 Mbyte

Ответ. Приблизительный информационный
объем СЭС равен 18,7 MByte.

Пример.  Определить приблизительный   информационный объем «Советского   энциклопедического словаря» Будем производить приблизительный расчет

Слайд 10Алфавитный подход к измерению информации

Алфавитный подход к измерению информации

Слайд 11Пример. Чему равно количество информации в слове «Информатика» (используется 32-значный

алфавит)?
считаем все символы K = 11
1 символ занимает i

= log232 = 5 бит
I = 11* 5 = 55 бит

Пример. Сообщение содержит 4096 символов. Объём сообщения составил 1/512 Мбайт. Чему равна мощность алфавита?

Переведём объём сообщения в биты
1/512 Мбайт = 1/512 * 1 024 * 1 024 * 8 = 16 384 бит
1 символ занимает i = 16384 / 4096 = 4 бит
Мощность алфавита равна N = 2i = 24 = 16

Алфавитный подход к измерению информации

Пример. Чему равно количество информации в слове «Информатика» (используется 32-значный алфавит)? считаем все символы K = 111

Слайд 12Алфавитный подход к измерению информации

Алфавитный подход к измерению информации

Слайд 13Алфавитный подход к измерению информации

Алфавитный подход к измерению информации

Слайд 14Алфавитный подход к измерению информации

Алфавитный подход к измерению информации

Слайд 15Вероятностный подход к измерению информации
Вероятность события равна отношению числа случаев

благоприятствующих ему (m) к общему числу всех равновозможных несовместных случаев

(n)


Пример. В лотерее разыгрывается 4 диска, 5 книг, 6 ручек Какова вероятность выиграть диск?

Вероятностный подход к измерению информацииВероятность события равна отношению числа случаев благоприятствующих ему (m) к общему числу всех

Слайд 16Пример. Определить количество информации на один символ в сообщении на

русском языке, считая вероятности символов одинаковыми
Формула Хартли
Решение. В русском языке

34 символа (33 буквы + символ пробела) Информация о символе («это буква А») – исчерпывающая
Считая вероятности символов одинаковыми по формуле Хартли
I = Н = log234 = 5,09 бит
Пример. Определить количество информации на один символ в сообщении на русском языке, считая вероятности символов одинаковымиФормула ХартлиРешение.

Слайд 17Задание 19
Считая возможные исходы равновероятными событиями, определите количество информации

в сообщениях:

На игральном кубике выпала цифра 3.

В следующем

году ремонт в школе начнётся в феврале.

Я приобрёл абонемент в бассейн на среду.

Из 30 студентов группы старостой назначили Марию Петрову.

Формула Хартли

Задание 19 Считая возможные исходы равновероятными событиями, определите количество информации в сообщениях: На игральном кубике выпала цифра

Слайд 18Формула Хартли
Пример. Определить количество информации в сообщении «это не буква

Щ» (вероятности символов считать одинаковыми)
Решение. Информация в сообщении не является

исчерпывающей
По формуле Хартли энтропия системы до получения сообщения
Н0 = log234 = 5,09 бит
После получения сообщения Н1 = log233 = 5,04 бит
Количество информации I = H0 – H1 = 0,05 бит
Формула ХартлиПример. Определить количество информации в сообщении «это не буква Щ» (вероятности символов считать одинаковыми)Решение. Информация в

Слайд 19Пример. На остановке останавливаются автобусы трех маршрутов: №1, №2 и

№5, которые ходят с одинаковой частотой. Определить количество информации в

сообщениях:
а) «Пришел автобус №1» б) «Это не автобус №2»

Формула Хартли

Решение.
Сообщения «Пришел автобус №…» равновероятны. По формуле Хартли:
а) I = Н0 = log23 = 1,58 бит б) I = Н0 – Н1 = log23 – log22 = 1,58 – 1 =0,58 бит

Пример. На остановке останавливаются автобусы трех маршрутов: №1, №2 и №5, которые ходят с одинаковой частотой. Определить

Слайд 20Формула Шеннона

Формула Шеннона

Слайд 21Пример. За год по математике ученик получил 100 оценок: 60

– «5», 25 – «4», 10 – «3», 5 –

«2». Определить количество информации в сообщениях об оценках.

Формула Шеннона

Пример. При бросании несимметричной четырёхгранной пирамидки вероятности падения на каждую из граней составляют: р1=1/2; р1=1/4; р1=1/8; р1=1/8. Определить количество информации, которое будет получено после реализации одного из случаев

Используем формулу Шеннона

Пример. За год по математике ученик получил 100 оценок: 60 – «5», 25 – «4», 10 –

Слайд 22Формула Шеннона
Пример. На остановке останавливаются автобусы трех маршрутов: №1, №2

и №5, причем №1 – вдвое чаще, чем №2 и

№5. Определить количество информации в сообщениях:
а) «Пришел автобус» б) «Пришел автобус №1» в) «Пришел автобус №2»

Решение. Сообщения «Пришел автобус №…» неравновероятны: р(№1)=0,5; р(№2)=0,25; р(№5)=0,25. По формулам Шеннона:
а) I = – (0,5 log2 0,5+0,25 log2 0,25+0,25 log2 0,25) = 1,5 бит
б) I = log2 1/р(№1) = log2 1/0,5 = log2 2 = 1 бит
в) I = log2 1/р(№2) = log2 1/0,25 = log2 4 = 2 бит

Формула ШеннонаПример. На остановке останавливаются автобусы трех маршрутов: №1, №2 и №5, причем №1 – вдвое чаще,

Слайд 23Задание 23. В коробке 5 синих, 4 красных и 3

зелёных карандаша. Берут 1 карандаш. Определить количество информации в сообщении,

что взят зелёный карандаш.



Формула Шеннона

Задание 23. В коробке 5 синих, 4 красных и 3 зелёных карандаша. Берут 1 карандаш. Определить количество

Обратная связь

Если не удалось найти и скачать доклад-презентацию, Вы можете заказать его на нашем сайте. Мы постараемся найти нужный Вам материал и отправим по электронной почте. Не стесняйтесь обращаться к нам, если у вас возникли вопросы или пожелания:

Email: Нажмите что бы посмотреть 

Что такое TheSlide.ru?

Это сайт презентации, докладов, проектов в PowerPoint. Здесь удобно  хранить и делиться своими презентациями с другими пользователями.


Для правообладателей

Яндекс.Метрика