Разделы презентаций


Энтропия и информация. Решение логических задач

Содержание

1. Случайные события. Мера их неопределенности. Формула Хартли. 2. Энтропия по Шеннону. Свойства энтропии.3. Условная энтропия. Решение задач на условную энтропию.4. Количество информации. Решение задач.5. Решение логических задач на взвешивание через

Слайды и текст этой презентации

Слайд 1«Энтропия и информация. Решение логических задач»
ЭЛЕКТИВНЫЙ
КУРС
«Кто владеет информацией,

тот владеет миром!»

Э.Талейран
«Энтропия и информация. Решение логических задач»ЭЛЕКТИВНЫЙ КУРС «Кто владеет информацией, тот владеет миром!»

Слайд 2
1. Случайные события. Мера их неопределенности. Формула Хартли.
2. Энтропия

по Шеннону. Свойства энтропии.
3. Условная энтропия. Решение задач на условную

энтропию.
4. Количество информации. Решение задач.
5. Решение логических задач на взвешивание через энтропию и количество информации.
6. Решение логических задач о лжецах через энтропию и количество информации.
7. Защита творческих проектов.
Итого: 14 часов

УЧЕБНО ТЕМАТИЧЕСКИЙ ПЛАН

1. Случайные события. Мера их неопределенности. Формула Хартли. 2. Энтропия по Шеннону. Свойства энтропии.3. Условная энтропия. Решение

Слайд 3ЦЕЛИ КУРСА
«ЭНТРОПИЯ И ИНФОРМАЦИЯ.
РЕШЕНИЕ ЛОГИЧЕСКИХ ЗАДАЧ»

Развитие

логического мышления и формирование базы математических знаний;

Практическое применение изучаемого

(изученного) программного материала средней школы;

Построение простейших вероятностных моделей реальных процессов и явлений, учитывающих влияние случая;

Создание определенного алгоритма для оценки предсказуемости случая;

Решение логических задач с применением понятия энтропии;

ЦЕЛИ КУРСА  «ЭНТРОПИЯ И ИНФОРМАЦИЯ. РЕШЕНИЕ ЛОГИЧЕСКИХ ЗАДАЧ» Развитие логического мышления и формирование базы 	математических знаний;

Слайд 4Задачи курса:
Расширить представления учащихся о дискретной математике, ее возможностях при

вполне жизненных ситуациях;

Ввести новые математические понятия энтропии и количества информации;

Установить

зависимость степени неопределенности от числа равновероятных исходов;

Показать способы использования ориентированного графа и кодового дерева для построения рассуждений и выводов;

Интегрировать алгебраический и графический методы для решения задач о лжецах, на взвешивание и др.;

Предложить комплекс логических задач, решаемых методом подсчета

Задачи курса: Расширить представления учащихся о дискретной математике, ее возможностях при вполне жизненных ситуациях;Ввести новые математические понятия

Слайд 5В результате освоения данного курса ученик должен научиться:
Различать количественные характеристики

случайного события: вероятность и степень неопределенности (энтропию);

Уметь находить степень неопределенности

через известную (найденную) вероятность случайного события;

Сравнивать два события по их неопределенности;

Находить количество информации об опыте для оптимизации его результатов;

Применять полученные умения и навыки для решения логических задач алгебраическим и графическим методами.

В результате освоения данного курса ученик должен научиться: Различать количественные характеристики случайного события: вероятность и степень неопределенности

Слайд 6Занятие №1. Случайные события. Мера их неопределенности. Формула Хартли.
Цель

занятия:
Вспомнить понятие случайных событий;
Ввести понятие энтропии, ее свойства;
Ввести

формулу Хартли, рассмотреть условия применения ее при решении задач на угадывание;

Занятие №1. Случайные события.  Мера их неопределенности. Формула Хартли.  Цель занятия: Вспомнить понятие случайных событий;

Слайд 7Занятие №1. Случайные события. Мера их неопределенности. Формула Хартли.
Задачи

занятия:
Научиться среди предложенных событий выбирать неопределенные;
Установить соответствие между вероятностью события

и его неопределенностью;
Научиться подсчитывать энтропию события по формуле Хартли;
Отработать метод половинного деления для решения задач на угадывание;
Разобрать алгоритм решения задач на угадывание с применением понятия энтропии

Занятие №1. Случайные события.  Мера их неопределенности. Формула Хартли.  Задачи занятия:Научиться среди предложенных событий выбирать

Слайд 8Степень неопределенности – есть еще одна характеристика случайного события, которую

назвали энтропией. (Н(α)).

За единицу энтропии принимается неопределенность, содержащаяся в

опыте, имеющем два равновероятностных исхода.

Единица измерения, учитывая двоичную систему исчисления, - бит.
Степень неопределенности – есть еще одна характеристика случайного события, которую назвали энтропией. (Н(α)). За единицу энтропии принимается

Слайд 9Формула Хартли
Пусть опыт α имеет k равновозможных исходов, тогда





Этой формулой удобно пользоваться, когда исходы равновероятны.

Формула ХартлиПусть опыт α имеет k равновозможных исходов, тогда Этой формулой удобно пользоваться, когда исходы равновероятны.

Слайд 10Чем больше равновероятных исходов, тем больше степень неопределенности
Чем меньше вероятность,

тем больше степень неопределенности

Что имеет большую степень неопределенности угадывание месяца

или дня недели рождения случайно встреченного человека?

Какую степень неопределенности имеет угадывание месяца рождения случайно встреченного человека?
Н(α) = log k = log12 = 2 + log 3.

Чем больше равновероятных исходов, тем больше степень неопределенностиЧем меньше вероятность, тем больше степень неопределенностиЧто имеет большую степень

Слайд 11ПРИЛОЖЕНИЕ №2.

ПРИЛОЖЕНИЕ №2.

Слайд 12Занятие №2. Энтропия по Шеннону. Свойства энтропии.
Цели занятия:
Продолжить усвоение

понятия энтропия и ее свойств через введение формулы К. Шенона
Задачи

занятия:
Создать проблемную ситуацию невозможности решить задачу с помощью формулы Хартли;
Ввести формулу Клода Шеннона;
Рассмотреть анализ условий задач табличным и графическим методами;
Ввести алгоритм решения задач на сравнение неопределенностей событий;
Свойства энтропии;
Провести тренинг сравнения степеней неопределенности событий.

Занятие №2. Энтропия по Шеннону. Свойства энтропии. Цели занятия: Продолжить усвоение понятия энтропия и ее свойств через

Слайд 13Где

вероятности равновозможных исходов.
Он же

предложил назвать эту величину энтропией


Клод Шеннон

Где                вероятности

Слайд 14Имеются 2 урны. Первая содержит 20 шаров – 10 белых,

5 черных и 5 красных; Вторая содержит 16 шаров: 4

белых, 4 черных и 8 красных во второй. Из каждой урны вытаскивают по одному шару. Исход какого из этих двух опытов следует считать более неопределенным? (Приложение №3.)

Первый опыт связан с первой корзиной:
Н (α)= -1\2 log 1\2 - 1\4 log 1\4 - 1\4 log 1\4 = 1\2 +1\2 +1\2 = 3\2 бита

Второй опыт связан со второй корзиной:
Н (β)= -1\2 log 1\2 - 1\4 log 1\4 - 1\4 log 1\4 = 1\2 +1\2 +1\2 = 3\2 бита

Имеются 2 урны.  Первая содержит 20 шаров – 10 белых, 5 черных и 5 красных;

Слайд 15Какую степень неопределенности содержит опыт угадывания цвета двух шаров, извлеченных

из урны, в которой находятся 2 белых и 3 черных

шара?

Р=2\5 Р=3\5


Р=1\4 Р=3\4 Р=2\4 Р=2\4


Р=2\5 * 1\4 Р=3\10 Р=3\10 Р=3\10
=1\10

Какую степень неопределенности содержит опыт угадывания цвета двух шаров, извлеченных из урны, в которой находятся  2

Слайд 16Занятие №3. Условная энтропия. Решение задач на условную энтропию.
Цель занятия:

введение понятия условной энтропии для решения соответствующих задач
Задачи занятия:
Ввести понятие

условной энтропии;
Обозначить тип задач, решаемых с применением условной энтропии;
Ввести алгоритм решения задач на условную энтропию;
Ввести свойства энтропии, привести доказательство;

Занятие №3. Условная энтропия. Решение задач на условную энтропию. Цель занятия: введение понятия условной энтропии для решения

Слайд 17Граф и формула нахождения условной энтропии выглядит следующим образом
Н

(β/Аi) = ∑ [Р(Вj /Аi) log (Р(Вj /Аi))-1]
P(A2)
P(A1)
P(An)
A2
An
α

Граф и формула нахождения условной энтропии выглядит следующим образом Н (β/Аi) = ∑ [Р(Вj /Аi) log (Р(Вj

Слайд 18Какую энтропию содержит опыт угадывания простой цифры при извлечении из

цифровой азбуки при условии, что одна карточка утеряна?
Опыт α =

{утеряна одна карточка} = {А1, А2 }

А1 = {утеряна карточка с простой цифрой}, n(А1) = 4, Р(А1)= 4/10 =2/5,

А2 = {утеряна карточка с непростой цифрой}, n(А2) = 6, Р(А2)= 6 /10 =3/5

β = {угадывание карточки с простой цифрой}
Какую энтропию содержит опыт угадывания простой цифры при извлечении из цифровой азбуки при условии, что одна карточка

Слайд 19 β
Ответ: 1 бит.
(Приложение №4)

βОтвет: 1 бит. (Приложение №4)

Слайд 20Занятие №4. Количество информации. Решение задач
Цель занятия: Введение понятия

количества информации для решения задач

Задачи занятия:
Ввести новые понятия и формулы:

количество информации, ориентированный граф, свойства количества информации;
Разобрать типовые задачи на количество информации;
Провести интерпретацию информации через энтропию;
Доказать ряд свойств количества информации;

Занятие №4. Количество информации. Решение задач Цель занятия: Введение понятия количества информации для решения задачЗадачи занятия:Ввести новые

Слайд 21КОЛИЧЕСТВО ИНФОРМАЦИИ

Количество информации I(α,β) показывает, насколько осуществление опыта

α уменьшает неопределенность β т.е. как много нового узнаем мы

об исходе опыта β, произведя измерение (наблюдение) α;

Информацию можно измерить числом, которое называется количеством информации об опыте β, содержащемся в опыте α

I(α,β)=H(β) – H(β/α)

КОЛИЧЕСТВО  ИНФОРМАЦИИ Количество информации I(α,β) показывает, насколько осуществление опыта α уменьшает неопределенность β т.е. как много

Слайд 22Свойства количества информации

0 ≤I(β/α) ≤ Н(β)
I(α,β) = Н(α) + Н(β)

- Н(α*β),
I(α,β) = I(β,α)
I(α,β,γ) ≥I(α,β), где α,β,γ- три произвольных опыта

(Приложение

№5)

Свойства количества информации0 ≤I(β/α) ≤ Н(β)I(α,β) = Н(α) + Н(β) - Н(α*β),I(α,β) = I(β,α)I(α,β,γ) ≥I(α,β), где α,β,γ-

Слайд 23Решение логических задач на взвешивание через энтропию и количество информации.

Решение логических задач на взвешивание через энтропию и количество информации.

Слайд 24ЗАДАЧИ НА ВЗВЕШИВАНИЕ
Задача:
Имеется 12 монет одного достоинства,

одна из которых фальшивая, отличающаяся от других по весу (причем

неизвестно, легче она или тяжелее настоящих).

Каково наименьшее число взвешиваний на чашечных весах без гирь, которое позволяет обнаружить фальшивую монету?

ЗАДАЧИ  НА  ВЗВЕШИВАНИЕЗадача: Имеется 12 монет одного достоинства, одна из которых 	фальшивая, отличающаяся от других

Слайд 25Решение:
т.е. определение фальшивой монеты связано с получением информации, измеряющейся числом

log24
или k*log3≥log24
Отсюда

и
т.к. k – целое число, то k≥3
Решение:т.е. определение фальшивой монеты связано с получением информации, измеряющейся числом log24или k*log3≥log24Отсюда

Слайд 26M1 M2 M3 M4
M5 M6 M7 M8
M9 M10 M11 M12
=
M3

M4 M6
M1 M2 M5
М1
М2
М7
М5
М8
М3
М4
М11
М10
М6
М12
М9
М10
М11
М9
М12
Аналогично
1-му
=
M1 M2
M7 M8


M3 M4

=

=

M1 M2 M3

M9 M10 M11

=

M9 M10

=

M1 M12

M9 M10

=

M1 M2 M3 M4M5 M6 M7 M8M9 M10 M11 M12=M3 M4 M6 M1 M2 M5 М1М2М7М5М8М3М4М11М10М6М12М9М10М11М9М12Аналогично 1-му=M1

Слайд 27ТВОРЧЕСКИЕ ПРОЕКТЫ:


Web-сайт:
«Теория информации»


Презентация:
«информация и логические задачи»

ТВОРЧЕСКИЕ ПРОЕКТЫ:Web-сайт: «Теория информации»Презентация: «информация и логические задачи»

Обратная связь

Если не удалось найти и скачать доклад-презентацию, Вы можете заказать его на нашем сайте. Мы постараемся найти нужный Вам материал и отправим по электронной почте. Не стесняйтесь обращаться к нам, если у вас возникли вопросы или пожелания:

Email: Нажмите что бы посмотреть 

Что такое TheSlide.ru?

Это сайт презентации, докладов, проектов в PowerPoint. Здесь удобно  хранить и делиться своими презентациями с другими пользователями.


Для правообладателей

Яндекс.Метрика