Разделы презентаций


Меры информации

Содержание

Аспекты исследования сообщенийСинтаксический - рассматриваются внутренние свойства сообщенийСемантический - анализируется смысловое содержание сообщения, его отношение к источнику информацииПрагматический - рассматривается потребительское содержание сообщения, его отношение к получателю

Слайды и текст этой презентации

Слайд 1ИНФОРМАЦИЯ И ИНФОРМАЦИОННЫЕ ПРОЦЕССЫ. ИЗМЕРЕНИЕ И КОДИРОВАНИЕ ИНФОРМАЦИИ
6. Измерение

информации
6.1. Меры информации

ИНФОРМАЦИЯ И ИНФОРМАЦИОННЫЕ ПРОЦЕССЫ.  ИЗМЕРЕНИЕ И КОДИРОВАНИЕ ИНФОРМАЦИИ 6. Измерение информации6.1. Меры информации

Слайд 3Аспекты исследования сообщений
Синтаксический - рассматриваются внутренние свойства сообщений
Семантический - анализируется

смысловое содержание сообщения, его отношение к источнику информации
Прагматический - рассматривается

потребительское содержание сообщения, его отношение к получателю
Аспекты исследования сообщенийСинтаксический - рассматриваются внутренние свойства сообщенийСемантический - анализируется смысловое содержание сообщения, его отношение к источнику

Слайд 5Семантический
Уровни изучения передачи информации
Синтаксический
Прагматический

Семантический Уровни изучения передачи информацииСинтаксический Прагматический

Слайд 6Синтаксический уровень
Идея:
Технические проблемы совершенствования методов передачи сообщений и их сигналов
Проблемы

доставки получателю сообщений
Полностью абстрагируются от смыслового содержания сообщений и их

целевого предназначения
Учитывают:
Тип носителя
Способ представления информации
Скорость передачи и обработки
Размеры кодов представления информации и т.д.
Синтаксический уровеньИдея:Технические проблемы совершенствования методов передачи сообщений и их сигналовПроблемы доставки получателю сообщенийПолностью абстрагируются от смыслового содержания

Слайд 7Семантический уровень
Идея:
Проблемы связаны с формализацией и учетом смысла передаваемой информации.
Проблемы

этого уровня чрезвычайно сложны, так как смысловое содержание информации больше

зависит от получателя, чем от семантики сообщения, представленного на каком-либо языке.
На данном уровне:
Анализируется сведения, которые отражает информация
Выявляется смысл информации
Выявляется содержание информации
Осуществляется обобщение информации
Семантический уровеньИдея:Проблемы связаны с формализацией и учетом смысла передаваемой информации.Проблемы этого уровня чрезвычайно сложны, так как смысловое

Слайд 8Прагматический уровень
Идея:
проблемы этого уровня связаны с определением ценности и

полезности информации для потребителя
интересуют последствия от получения и использования данной

информации потребителем.
Прагматический уровеньИдея: проблемы этого уровня связаны с определением ценности и полезности информации для потребителяинтересуют последствия от получения

Слайд 9Семантический
Уровни изучения передачи информации
Синтаксический
Прагматический

Семантический Уровни изучения передачи информацииСинтаксический Прагматический

Слайд 10Меры информации
синтаксические
объем
Данных
V

Количество информации
I


семантические

прагматические

Меры информациисинтаксическиеобъемДанныхVКоличество информацииIсемантическиепрагматические

Слайд 11Меры информации
Количество информации
I
Прагматические
меры

Семантические
меры

Синтаксические
меры


Объем данных
V

Меры информацииКоличество информацииI ПрагматическиемерыСемантическиемерыСинтаксическиемерыОбъем данныхV

Слайд 12ИНФОРМАЦИЯ И ИНФОРМАЦИОННЫЕ ПРОЦЕССЫ. ИЗМЕРЕНИЕ И КОДИРОВАНИЕ ИНФОРМАЦИИ
6. Измерение

информации
6.2. Объем данных.

ИНФОРМАЦИЯ И ИНФОРМАЦИОННЫЕ ПРОЦЕССЫ.  ИЗМЕРЕНИЕ И КОДИРОВАНИЕ ИНФОРМАЦИИ 6. Измерение информации6.2. Объем данных.

Слайд 14Объем данных
Объем данных измеряется количеством символов (минимальных неделимых единиц данных)

в сообщении
Алфавит
При использовании современных компьютеров данные кодируются группами двоичных разрядов

– битов
Для кодирования символов могут быть использованы кодовые группы различной длины.
Кодовая группа минимальной длины, достаточная для кодирования одного символа, носит название байт
Байтовый алфавит
Принято считать, что длина байта – 8 символов.
Понятие байта как единицы измерения объема данных смешивается с понятием байта как минимально адресуемой области памяти компьютера
Объем данныхОбъем данных измеряется количеством символов (минимальных неделимых единиц данных) в сообщенииАлфавитПри использовании современных компьютеров данные кодируются

Слайд 15Меры информации
синтаксические
объем
Данных
V

Количество информации
I


семантические

прагматические

Меры информациисинтаксическиеобъемДанныхVКоличество информацииIсемантическиепрагматические

Слайд 16Меры информации
синтаксические
объем
Данных
V

Количество информации
I


семантические

прагматические

Меры информациисинтаксическиеобъемДанныхVКоличество информацииIсемантическиепрагматические

Слайд 17ИНФОРМАЦИЯ И ИНФОРМАЦИОННЫЕ ПРОЦЕССЫ. ИЗМЕРЕНИЕ И КОДИРОВАНИЕ ИНФОРМАЦИИ
6. Измерение

информации
6.3. Основные сведения теории информации

ИНФОРМАЦИЯ И ИНФОРМАЦИОННЫЕ ПРОЦЕССЫ.  ИЗМЕРЕНИЕ И КОДИРОВАНИЕ ИНФОРМАЦИИ 6. Измерение информации6.3. Основные сведения теории информации

Слайд 18Теория информации
наука, изучающая количественные закономерности, связанные с получением, передачей, обработкой

и хранением информации, структуру и закономерности протекания информационных процессов.

Теория информациинаука, изучающая количественные закономерности, связанные с получением, передачей, обработкой и хранением информации, структуру и закономерности протекания

Слайд 19Задачи теории информации
Отыскание наиболее экономных методов кодирования, позволяющих передать заданную

информацию с помощью минимального количества символов.
Определение пропускной способности канала, чтобы

он передавал всю поступающую информацию без помех и искажений
Определение объема запоминающих устройств, поиск способов ввода в эти устройства данных и вывода их для непосредственного использования
Задачи теории информацииОтыскание наиболее экономных методов кодирования, позволяющих передать заданную информацию с помощью минимального количества символов.Определение пропускной

Слайд 20Для решения перечисленных задач нужно, прежде всего, научиться измерять количественный

объем передаваемой или хранимой информации, пропускную способность каналов связи и

их чувствительность к помехам (искажениям)


Для решения перечисленных задач нужно, прежде всего, научиться измерять количественный объем передаваемой или хранимой информации, пропускную способность

Слайд 21Ученые, внесшие вклад в развитие теории информации
Р. Фишер
X. Найквист


Р. Хартли
К. Шеннон

Ученые, внесшие вклад в развитие теории информацииР. Фишер X. Найквист Р. Хартли К. Шеннон

Слайд 22Основные положения количественной оценки информации
Информация об объекте (источнике информации) передается

в виде сообщений, имеющих различную синтаксическую форму
Следовательно, сообщение—это форма представления

информации
Можно пренебречь содержательной стороной информации, выразить её количество числом, и, следовательно, сравнить количество информации, содержащейся в различных группах данных
Основные положения количественной оценки информацииИнформация об объекте (источнике информации) передается в виде сообщений, имеющих различную синтаксическую формуСледовательно,

Слайд 23Основные положения количественной оценки информации
в теории информации используются синтаксические

меры информации, оперирующие с обезличенной информацией и не учитывающие ее

семантического и прагматического аспектов
Основные положения количественной оценки информации в теории информации используются синтаксические меры информации, оперирующие с обезличенной информацией и

Слайд 24Основные положения количественной оценки информации
За отправную точку принимается то, что

информация, содержащаяся в сообщении, полностью или частично устраняет априорную

неопределенность объекта, процесса, явления
В качестве объекта, о котором передается информация, в теории информации рассматривают некоторую физическую систему, которая может оказаться в том или ином состоянии, т.е. систему, которой заведомо присуща некоторая степень неопределенности
Основные положения количественной оценки информацииЗа отправную точку принимается то, что информация, содержащаяся в сообщении,  полностью или

Слайд 25Основные положения количественной оценки информации
Описание любого события или объекта

формально можно рассматривать как указание на то, в каком из

возможных состояний находится описываемый объект
Тогда протекание событий во времени есть не что иное, как смена возможных состояний системы
Основные положения количественной оценки информации Описание любого события или объекта формально можно рассматривать как указание на то,

Слайд 26Основные положения количественной оценки информации
Следовательно, сообщение имеет смысл только

тогда, когда состояние объекта заранее неизвестно.

Основные положения количественной оценки информации Следовательно, сообщение имеет смысл только тогда, когда состояние объекта заранее неизвестно.

Слайд 27Основные положения количественной оценки информации
Таким образом, информацию, содержащуюся в

сообщении, можно рассматривать с точки зрения её новизны то есть,

уменьшения неопределённости наших знаний об объекте.
Основные положения количественной оценки информации Таким образом, информацию, содержащуюся в сообщении, можно рассматривать с точки зрения её

Слайд 28Основные положения количественной оценки информации
что значит большая или меньшая

степень неопределенности системы?
чем можно ее измерить?

Основные положения количественной оценки информации что значит большая или меньшая степень неопределенности системы?чем можно ее измерить?

Слайд 29ИНФОРМАЦИЯ И ИНФОРМАЦИОННЫЕ ПРОЦЕССЫ. ИЗМЕРЕНИЕ И КОДИРОВАНИЕ ИНФОРМАЦИИ
6. Измерение

информации
6.4. Математический аппарат, используемый в теории информации

ИНФОРМАЦИЯ И ИНФОРМАЦИОННЫЕ ПРОЦЕССЫ.  ИЗМЕРЕНИЕ И КОДИРОВАНИЕ ИНФОРМАЦИИ 6. Измерение информации6.4. Математический аппарат, используемый в теории

Слайд 30Основные понятия теории вероятностей
Многим явлениям присуща случайная природа, и

их надо изучать с точки зрения закономерностей, присущих им как

случайным явлениям. Опыт показывает, что если нельзя конкретно судить об исходе отдельных явлений, то наблюдая в совокупности массы однородных случайных явлений, мы обнаруживаем в них вполне определенные закономерности (устойчивости), свойственные именно массовым случайным явлениям.
Основные понятия теории вероятностей Многим явлениям присуща случайная природа, и их надо изучать с точки зрения закономерностей,

Слайд 31Основные понятия теории вероятностей
Наука, изучающая специфические закономерности случайных явлений

и процессов, получила название теории вероятностей.

Основные понятия теории вероятностей Наука, изучающая специфические закономерности случайных явлений и процессов, получила название теории вероятностей.

Слайд 32Понятие события
Под событием будем понимать всякий факт (результат какого–либо

опыта, наблюдения, эксперимента и т.п.), который в результате опыта может

произойти (наступить, осуществиться) или не произойти.
Понятие события Под событием будем понимать всякий факт (результат какого–либо опыта, наблюдения, эксперимента и т.п.), который в

Слайд 33вероятность события
Чтобы сравнивать между собой события по степени их

возможности, с каждым из событий связывают определенное число, которое называют

вероятностью события .
вероятность события Чтобы сравнивать между собой события по степени их возможности, с каждым из событий связывают определенное

Слайд 34вероятность события
В качестве единицы измерения степени возможности (вероятности) события

принята вероятность достоверного события, которому приписывают вероятность, равную единице.
Противоположным

по отношению к достоверному событию является невозможное событие, которому приписывается вероятность, равная нулю.
вероятность события В качестве единицы измерения степени возможности (вероятности) события принята вероятность достоверного события, которому приписывают вероятность,

Слайд 35вероятность события
Таким образом, вероятности возможных событий представляют собой числа

в пределах от 0 до 1

вероятность события Таким образом, вероятности возможных событий представляют собой числа в пределах от 0 до 1

Слайд 36Непосредственный подсчет вероятности
все исходы опыта образуют полную группу
все

исходы опыта попарно несовместны
все исходы опыта обладают симметрией и в

силу этого объективно одинаково возможны
Непосредственный подсчет вероятности все исходы опыта образуют полную группу все исходы опыта попарно несовместнывсе исходы опыта обладают

Слайд 37Непосредственный подсчет вероятности
Несколько событий в данном опыте образуют полную

группу событий, если в результате опыта непременно должно появиться хотя

бы одно из них
События называют несовместными, если появление одного из них исключает появление других событий в том же опыте
События называют равновозможными, если по условиям симметрии опыта есть основание считать, что ни одно из этих событий не является более объективно возможным, чем другое
Непосредственный подсчет вероятности Несколько событий в данном опыте образуют полную группу событий, если в результате опыта непременно

Слайд 38Непосредственный подсчет вероятности
Несовместные равновозможные события, образующие полную группу, называют

случаями.
Случай называют благоприятным (благоприятствующим), некоторому событию, если появление этого

случая влечет за собой появление соответствующего события
Непосредственный подсчет вероятности Несовместные равновозможные события, образующие полную группу, называют случаями. Случай называют благоприятным (благоприятствующим), некоторому событию,

Слайд 39Непосредственный подсчет вероятности





—вероятность события

—общее число случаев,
—число

случаев, благоприятных событию

Непосредственный подсчет вероятности —вероятность события —общее число случаев, —число случаев, благоприятных  событию

Слайд 40определение статистической вероятности (частоты) события
Если проведена серия из n

опытов, в каждом из которых могло появиться или не появиться

событие A, то частотой появления события A в данной серии опытов называется отношение числа опытов m в которых появилось событие A к общему числу произведенных опытов.


определение статистической вероятности (частоты) события Если проведена серия из n опытов, в каждом из которых могло появиться

Слайд 41случайная величина























случайная величина

Слайд 42многоугольник распределения

многоугольник распределения

Слайд 43характеристики положения
определяют некоторое среднее ориентировочное значение, около которого группируются

все возможные значения случайной величины. Характеристики положения характеризуют положение случайной

величины на числовой оси.
Таким образом, среднее значение случайной величины есть некоторое число, заменяющее ее при расчетах
характеристики положения определяют некоторое среднее ориентировочное значение, около которого группируются все возможные значения случайной величины. Характеристики положения

Слайд 44математическое ожидание (среднее значение)



математическое ожидание  (среднее значение)

Слайд 45математическое ожидание



математическое ожидание

Слайд 46математическое ожидание





математическое ожидание

Слайд 47Логарифм, свойства логарифма










Логарифм, свойства логарифма

Слайд 48ИНФОРМАЦИЯ И ИНФОРМАЦИОННЫЕ ПРОЦЕССЫ. ИЗМЕРЕНИЕ И КОДИРОВАНИЕ ИНФОРМАЦИИ
6. Измерение

информации
6.5. Структурный подход Хартли

ИНФОРМАЦИЯ И ИНФОРМАЦИОННЫЕ ПРОЦЕССЫ.  ИЗМЕРЕНИЕ И КОДИРОВАНИЕ ИНФОРМАЦИИ 6. Измерение информации6.5. Структурный подход Хартли

Слайд 49Структурный подход Хартли
Хартли предположил, что любая система может с одинаковой

степенью вероятности находиться в любом из своих возможных состояний, т.е.

все состояния системы являются равновозможными. Поэтому в рамках этого подхода степень неопределенности определяется числом возможных состояний системы
Структурный подход ХартлиХартли предположил, что любая система может с одинаковой степенью вероятности находиться в любом из своих

Слайд 50Структурный подход Хартли (примеры)
Пусть имеются пять различных объектов: партнер по

игре в крестики–нолики; поезд; вещество; студент; колода карт. О каждом

из них нас интересует следующая информация:
В какой из четырех углов сделает свой первый ход партнер по игре в крестики–нолики?
В какое время суток (утром, днем, вечером или ночью) прибывает поезд?
В каком состоянии (твердое, жидкое, газообразное или плазма) находится некоторое вещество?
Какой из четырех оценок (неудовлетворительно, удовлетворительно, хорошо или отлично) оценил преподаватель знания студента?
Какой из четырех возможных мастей оказалась карта, наугад вынутая из колоды?
Структурный подход Хартли (примеры)Пусть имеются пять различных объектов: партнер по игре в крестики–нолики; поезд; вещество; студент; колода

Слайд 51Структурный подход Хартли
Хартли предложил структурный подход к определению т.н. емкости

системы, передающей и накапливающей информацию, и количества информации в сообщении.

Этот подход называют структурным, т.к. он учитывает структуру источника информации, т.е. количество его возможных состояний.
Структурный подход ХартлиХартли предложил структурный подход к определению т.н. емкости системы, передающей и накапливающей информацию, и количества

Слайд 52Структурный подход Хартли
Если количество возможных сообщений в множестве возможных сообщений

равно n, то, согласно Хартли, информация I1, приходящаяся на одно

сообщение, определяется логарифмом общего числа возможных сообщений n:




Структурный подход ХартлиЕсли количество возможных сообщений в множестве возможных сообщений равно n, то, согласно Хартли, информация I1,

Слайд 53Свойства меры Хартли
При увеличении число возможных состояний источника информации возрастает

степень его неопределенности, и, следовательно, увеличивается количество информации в сообщении;
Если

источник информации может находиться только в одном состоянии (передавать только одно сообщение), то, следовательно, его состояние полностью определено, и количество информации в передаваемом сообщении равно нулю;




Свойства меры ХартлиПри увеличении число возможных состояний источника информации возрастает степень его неопределенности, и, следовательно, увеличивается количество

Слайд 54Свойства меры Хартли
Пусть сообщения исходят из двух независимых источников, которые

могут передавать n1 и n2 возможных сообщений соответственно. Каждое сообщение

от первого источника может быть объединено с сообщением от второго источника, образуя новое сложное сообщение. Общее число таких сообщений
Следовательно, количество информации , приходящееся на одно сложное сообщение, определяется формулой:






Свойства меры ХартлиПусть сообщения исходят из двух независимых источников, которые могут передавать n1 и n2 возможных сообщений

Слайд 55Свойства меры Хартли
логарифмическая мера информации обладает свойством аддитивности.

В самом

деле, количество информации на сообщение в этом случае оказывается равным

сумме количеств информации, которые были бы получены на одно сообщение из двух источников, взятых порознь






Свойства меры Хартлилогарифмическая мера информации обладает свойством аддитивности. В самом деле, количество информации на сообщение в этом

Обратная связь

Если не удалось найти и скачать доклад-презентацию, Вы можете заказать его на нашем сайте. Мы постараемся найти нужный Вам материал и отправим по электронной почте. Не стесняйтесь обращаться к нам, если у вас возникли вопросы или пожелания:

Email: Нажмите что бы посмотреть 

Что такое TheSlide.ru?

Это сайт презентации, докладов, проектов в PowerPoint. Здесь удобно  хранить и делиться своими презентациями с другими пользователями.


Для правообладателей

Яндекс.Метрика