Разделы презентаций


Информационные технологии

Содержание

Меры количества информации СинтаксическаяСемантическаяПрагматическаяУчитываетСпособ представления информации Смысловое содержание информации Потребительские свойства информацииТребует наличия Только самой информацииИнформации и ее пользователяИнформации, пользователя и цели использованияМера

Слайды и текст этой презентации

Слайд 1Информационные технологии
Часть 3
Информация и энтропия

Информационные технологииЧасть 3Информация и энтропия

Слайд 2Меры количества информации
Синтаксическая
Семантическая
Прагматическая
Учитывает
Способ представления информации
Смысловое содержание информации
Потребительские

свойства информации
Требует наличия
Только самой информации
Информации и ее пользователя
Информации, пользователя и

цели использования

Мера

Меры количества информации СинтаксическаяСемантическаяПрагматическаяУчитываетСпособ представления информации Смысловое содержание информации Потребительские свойства информацииТребует наличия Только самой информацииИнформации и

Слайд 3Синтаксическая мера информации
Минимальным количеством информации является 1 бит.
Эту единицу

количественной меры информации впервые предложил Р. Хартли в 1928 году
Количество

информации по формуле Хартли:

где i – количество информации (бит); N – количество элементарных сообщений.

Сам термин произошел от слияния слов binary digit - двоичная цифра

Из формулы Хартли вытекает основное определение бита

Бит равен информации, которая передается при приеме одного из двух равновероятных сообщений.

Синтаксическая мера информации Минимальным количеством информации является 1 бит.Эту единицу количественной меры информации впервые предложил Р. Хартли

Слайд 4Синтаксическая мера информации
Группа из 8 битов информации называется байт


Производные единицы информации:
килобайт (кбайт, кб), мегабайт (Мбайт, Мб) гигабайт (Гбайт,

Гб) и т.д.
1 кб =1024 байта - 210 (1024) байтов.
1 Мб = 1024 кбайта = 220(1024 x 1024) байтов.
1 Гб = 1024 Мбайта - 230 (1024 х 1024 х 1024)байтов.

Бит - двоичная единица информации.

1 бит – это количество информации, которое можно получить при ответе на вопрос типа «да - нет»

Математически бит отображается состоянием 1 или 0 одного разряда двоичной системы счисления.

При получении информации в 1 бит неопределенность уменьшается в 2 раза

Другие свойства бита

Синтаксическая мера информации Группа из 8 битов информации называется байт Производные единицы информации:килобайт (кбайт, кб), мегабайт (Мбайт,

Слайд 5Семантическая мера информации
Если SП – тезаурус пользователя; IС – количество

семантической информации, то:
1. При SП  0 пользователь не понимает

поступающую информацию и IС  0
2. При SП   пользователю уже известна поступающая информация и IС  0

Максимальное значение IС приобретает при таком согласовании с тезаурусом пользователя SП, когда поступающая информация с одной стороны понятна пользователю, а с другой, несет ранее неизвестные ему сведения

Семантическая мера информации Если SП – тезаурус пользователя; IС  – количество семантической информации, то:1. При SП

Слайд 6Прагматическая мера информации
Прагматическое количество информации определяется приростом экономического эффекта функционирования

системы, где эта информация используется
IП() = П(/) - П()
В такой

постановке единицей измерения ценности информации являются денежные единицы.

Где IП() - ценность информационного сообщения  для системы управления ;
П() - ожидаемый экономический эффект функционирования системы управления ;
П(/) - ожидаемый экономический эффект функционирования системы управления , при условии, что для управления будет использована информация, содержащаяся в сообщении .

Прагматическая мера информацииПрагматическое количество информации определяется приростом экономического эффекта функционирования системы, где эта информация используетсяIП() = П(/)

Слайд 7Четыре основных класса случайных процессов
Дискретный случайный процесс с дискретным

временем
Случайный процесс общего типа
Случайный процесс с дискретным временем
Дискретный случайный процесс

с непрерывным временем

По признакам, связанным с пространством состояний и с параметром времени выделяют следующие классы случайных процессов

Четыре основных класса случайных процессов Дискретный случайный процесс с дискретным временемСлучайный процесс общего типаСлучайный процесс с дискретным

Слайд 8Неопределенность и количество информации
Получение какой-либо информации всегда связано с

изменением степени неосведомленности получателя
Пусть мера неосведомленности равна H().
После

получения некоторого сообщения  неосведомленность уменьшилась и стала H(/).
Тогда количество информации I() в сообщении , определится так:

I() = H() - H(/)

Количество полученной информации измеряется уменьшением неопределенности состояния системы

Неопределенность и количество информации Получение какой-либо информации всегда связано с изменением степени неосведомленности получателя Пусть мера неосведомленности

Слайд 9Основные положения теории К. Шеннона
1. Источник информации, порождающий сообщения, должен

обладать тем или иным алфавитом, который должен быть заранее известен

приемнику информации

3. В качестве меры неопределенности следует использовать величину равную логарифму вероятности, взятому с противоположным знаком

2. Синтаксическое количество информации зависит, по определению, только от статистических свойств появления элементов алфавита в сообщении

Этот показатель получил название
информационная энтропия

Основные положения теории К. Шеннона1. Источник информации, порождающий сообщения, должен обладать тем или иным алфавитом, который должен

Слайд 10Клод Элвуд Шеннон Claude Elwood Shannon (30.04.1916 - 24.02.2001)
В 1936 году выпускник

Мичиганского университета Клод Шеннон, которому было тогда 21 год, имея

два диплома бакалавра - по электротехнике и по математике, сумел ликвидировать разрыв между алгебраической теорией логики и ее практическим приложением. Свои идеи относительно связи между двоичным исчислением, булевой алгеброй и электрическими схемами Шеннон развил в докторской диссертации, опубликованной в 1938 году

В 1948 году опубликовал фундаментальную работу A Mathematical Theory of Communication, в которой сформулированы основы теории информации.

Большую ценность представляет другая работа – Communication Theory of Secrecy Systems (1949), в которой сформулированы математические основы криптографии.

C 1956 – член Национальной академии наук США и Американской академии искусств и наук.

Клод Элвуд Шеннон – один из создателей математической теории информации, в значительной мере предопределил своими результатами развитие общей теории дискретных автоматов, которые являются важными составляющими кибернетики

Клод Элвуд Шеннон Claude Elwood Shannon (30.04.1916 - 24.02.2001)В 1936 году выпускник Мичиганского университета Клод Шеннон, которому

Слайд 11Энтропия дискретного сигнала
Энтропия системы, имеющей N возможных состояний
Где p(1),

p(2),....p(i),.....p(N) – вероятности появления элементов алфавита x1,

x2,....xi,.....xN

Формула К. Шеннона

Для случая, когда вероятность появления для всех элементов алфавита одинакова p(1) = p(2) ...= p(N) = 1/N

Энтропия дискретного сигнала Энтропия системы, имеющей N возможных состоянийГде p(1), p(2),....p(i),.....p(N) – вероятности появления элементов алфавита

Слайд 12Энтропия и количество информации
Из уравнения I() = H() -

H(/) при H(/) = 0 получаем:
I() =

H()

Количество информации, приносимое в среднем одним элементом (знаком) сообщения равно энтропии источника

При использовании двоичного алфавита N = 2 и p(1) = p(2) = 0,5 это количество информации равно одному биту

Так как N = mn

Если сообщение содержит n разрядов и его алфавит состоит из m различных символов то при одинаковой вероятности их появления

I = logN = nlogm

Энтропия и количество информацииИз уравнения  I() = H() - H(/)  при  H(/) = 0

Слайд 13Энтропия зависимой последовательности
Если появление в последовательности элемента xi зависит от

того, какой элемент xj был предшествующий, а условная вероятность их

совместного появления p(i|j), то сначала вычисляется условная энтропия

Для получения безусловной энтропии источника необходимо провести усреднение по вероятностям появления элементов

Энтропия зависимой последовательностиЕсли появление в последовательности элемента xi зависит от того, какой элемент xj был предшествующий, а

Слайд 14Основные свойства энтропии
Энтропия является величиной вещественной и неотрицательной
1
2
Энтропия -

величина ограниченная
3
Энтропия равна 0,если вероятность одного из состояний источника информации

равна 1

4

Энтропия максимальна при равной вероятности всех состояний источника информации

5

Энтропия объединенных статистически независимых источников информации равна сумме их энтропий

6

Энтропия характеризует среднюю неопределенность выбора одного состояния из ансамбля состояний

Основные свойства энтропии Энтропия является величиной вещественной и неотрицательной12Энтропия - величина ограниченная3Энтропия равна 0,если вероятность одного из

Слайд 15Энтропия непрерывных сигналов
Энтропия случайной величины x, описываемой плотностью распределения вероятности px(x)
Если

возможное число реализаций случайной аналоговой величины сделать конечным и равным

N, то Каждая из реализаций C1, C2,....Ci,.....CN будет иметь определенную вероятность появления. Тогда энтропия и среднее количество информации в каждой реализации определятся известным равенством
Энтропия непрерывных сигналовЭнтропия случайной величины x, описываемой плотностью распределения вероятности px(x)Если возможное число реализаций случайной аналоговой величины

Обратная связь

Если не удалось найти и скачать доклад-презентацию, Вы можете заказать его на нашем сайте. Мы постараемся найти нужный Вам материал и отправим по электронной почте. Не стесняйтесь обращаться к нам, если у вас возникли вопросы или пожелания:

Email: Нажмите что бы посмотреть 

Что такое TheSlide.ru?

Это сайт презентации, докладов, проектов в PowerPoint. Здесь удобно  хранить и делиться своими презентациями с другими пользователями.


Для правообладателей

Яндекс.Метрика