Разделы презентаций


Информатика I семестр: 20ч. лекций, 28 ч. практ. занятий II семестр: 16ч

Содержание

Информатика – наука об общих свойствах информации, закономерностях и методах её поиска и получения, хранения, передачи, переработке и распространения, а также науку о способах её использования для решения различных прикладных задач.Наше

Слайды и текст этой презентации

Слайд 1Информатика I семестр: 20ч. лекций, 28 ч. практ. занятий II семестр: 16ч.

лекций, 28 ч. практ. занятий каф. ИТ-8 доц. Карулина Валентина Алексеевна МГУПИ,

2013
Информатика I семестр: 20ч. лекций, 28 ч. практ. занятий II семестр: 16ч. лекций, 28 ч. практ. занятий

Слайд 2Информатика – наука об общих свойствах информации, закономерностях и методах

её поиска и получения, хранения, передачи, переработке и распространения, а

также науку о способах её использования для решения различных прикладных задач.

Наше понятие информатики

Информатика – наука об общих свойствах информации, закономерностях и методах её поиска и получения, хранения, передачи, переработке

Слайд 3Информатика как наука
Предметом Информатики как науки являются общие закономерности управления

данными, принципы организации и поиска данных и т.д..
Объектом приложений Информатики

стали различные сферы деятельности.
Наиболее впечатляют реализации Информационных Технологий.
Информатика как наукаПредметом Информатики как науки являются общие закономерности управления данными, принципы организации и поиска данных и

Слайд 4Происхождение термина информатика
В СССР в 60-е годы – кибернетика.
Кибернетика -

наука об общих закономерностях в управлении и связи в различных

системах: искусственных, биологических, социальных.
1948 г. Н. Винер: "Кибернетика или управление и связь в животном и машине".
В США и англоязычных странах: computer since – компьютерная наука.
Термин информатика предложен Карлом Штейнбухом в 1957.
Фр. Ф. Дрейфус : Informatique: информатика = информация + автоматика.
Происхождение термина информатикаВ СССР в 60-е годы – кибернетика.Кибернетика - наука об общих закономерностях в управлении и

Слайд 51978г. Международный конгресс по информатике
Понятие Информатики - охватывает области, связанные

с разработкой, созданием, использованием, и материально-техническим обслуживанием систем обработки информации,

включая машины, оборудование, математическое обеспечение, организационные аспекты, а также комплекс промышленного, коммерческого, административного и социального воздействия.
1978г. Международный конгресс по информатикеПонятие Информатики - охватывает области, связанные с разработкой, созданием, использованием, и материально-техническим обслуживанием

Слайд 6Структура информатики как научной и прикладной дисциплины

Структура информатики как научной и прикладной дисциплины

Слайд 8Естественные науки - имеют дело с объективными сущностями мира, существующими

независимо от нашего сознания.
Гуманитарные науки - связаны с вкладом

в развитие социальной сферы.
Технические науки - позволяют создать машинные системы.
Общественные науки – социальные
Математические науки – изучают величины, их количественные  отношения, а также пространственные формы.
Технические науки - позволяют создать машинные системы
Естественные науки - имеют дело с объективными сущностями мира, существующими независимо от нашего сознания. Гуманитарные науки -

Слайд 9Информация – сведения и данные,
отражающие свойства объектов в природных,

социальных и технических системах и передаваемые звуковым, графическим (в т.ч.

письменным) или иным способом без применения или с
применением технических средств.

Интуитивное понятие информации

Информация – сведения и данные, отражающие свойства объектов в природных, социальных и технических системах и передаваемые звуковым,

Слайд 10Информация – сведения об объектах и явлениях, их параметрах, свойствах

и состоянии, которые уменьшают степень неопределенности о них или неполноты

знаний.

Интуитивное понятие информации

Информация – сведения об объектах и явлениях, их параметрах, свойствах и состоянии, которые уменьшают степень неопределенности о

Слайд 11Цель информатики - поиск нового знания.
Информатика - технология обработки накопленного

знания и построения нового знания. Информатика изучает методы анализа знания

о методах построения нового знания как своего собственного, так и знания других наук.

Интуитивное понятие информации

Цель информатики - поиск нового знания.Информатика - технология обработки накопленного знания и построения нового знания. Информатика изучает

Слайд 12Знание - форма существования и систематизации результатов познавательной деятельности человека.


Виды знания:
научное, обыденное (здравый смысл), интуитивное, религиозное и др.


научное и вненаучное (пара-, анти-, псевдо-,
личностные,
«народные знания»
Знание - форма существования и систематизации результатов познавательной деятельности человека. Виды знания: научное, обыденное (здравый смысл), интуитивное,

Слайд 13Физическая информация: третий компонент материального мира (наряду с веществом и

энергией), управляющий порядком и хаосом в микромире, в космосе, в

термодинамике, статистической физике, биосистемах и т. п. Не было человека на Земле, информация была, не будет его – информация будет. Физическая информация имеет два подвида: термодинамическую и статистическую. Именно на примере физической информации мы попытаемся установить связь между информацией и энтропией (информация, как отрицательная энтропия).

Информация

Физическая информация: третий компонент материального мира (наряду с веществом и энергией), управляющий порядком и хаосом в микромире,

Слайд 14Смысловая (семантическая) информация: информация, которую воспринимает человек (и которая, к

примеру, передаётся средствами массовой информации). Это то, что можно осмыслить,

оценить, купить-продать-подарить, накапливать, хранить, охранять, терять; она способна исчезать и появляться, может быть полезной и вредной, истинной и ложной, переходя в дезинформацию.

Информация

Смысловая (семантическая) информация: информация, которую воспринимает человек (и которая, к примеру, передаётся средствами массовой информации). Это то,

Слайд 15Техническая информация (она же кибернетическая или компьютерная) – информация, передаваемая

азбукой Морзе, по радио- или телеканалу, информация в компьютерах и

прочих технических машинах. К ней относятся вопросы передачи информации по линии связи, вопросы кодирования-декодирования информации, и способы переработки информации компьютерами

Информация

Техническая информация (она же кибернетическая или компьютерная) – информация, передаваемая азбукой Морзе, по радио- или телеканалу, информация

Слайд 16 Свойства смысловой информации
запоминаемость, передаваемость,


преобразуемость, воспроизводимость,
стираемость,

объективность,
достоверность, полнота,
точность, полезность,
ценность, актуальность,
понятность, доступность,
краткость и т. д.
Пример: «На улице тепло» субъективная информация
«На улице +22 оС» объективная, но с точностью погрешности измерения
Свойства смысловой информациизапоминаемость,     передаваемость, преобразуемость,    воспроизводимость, стираемость,

Слайд 17Хранение информации
Письменность — графическое изображение символов на камне, глине, папирусе, бумаге.

Огромное значение в развитии этого направления имело изобретение книгопечатания.
Хранение

информации осуществляется с помощью её переноса на некоторые материальные носители. Семантическая информация, зафиксированная на материальном носителе, называется документом.
Хранение информации в виде последовательностей двоичных символов. Для реализации этих методов используются разнообразные запоминающие устройства.
Хранение информацииПисьменность — графическое изображение символов на камне, глине, папирусе, бумаге. Огромное значение в развитии этого направления имело

Слайд 18Хранение информации

Хранение информации

Слайд 19Хранение информации

Хранение информации

Слайд 20Обработка информации
Информация, предназначенная для обработки, называется данными. Для достижения цели

обработки данных должен быть известен порядок действий над информацией, приводящий

к заданной цели - алгоритм. Кроме самого алгоритма необходимо также некоторое устройство, реализующее этот алгоритм. В научных теориях такое устройство называется автоматом.
Обработка информацииИнформация, предназначенная для обработки, называется данными. Для достижения цели обработки данных должен быть известен порядок действий

Слайд 21Передача информации
Передачей информации называется процесс её пространственного переноса от источника

к получателю. (Речь, письмо и т.д.) Для осуществления передачи информация

должна быть некоторым образом оформлена. Для представления информации используются различные знаковые системы. Представленная с их помощью семантическая информация о каком-либо объекте, явлении или процессе называется сообщением.
Передача информацииПередачей информации называется процесс её пространственного переноса от источника к получателю. (Речь, письмо и т.д.) Для

Слайд 22Передача информации

Передача информации

Слайд 23Лекция 3. Количество информации

Лекция 3. Количество информации

Слайд 24Меры информации

Меры информации

Слайд 25Меры информации семантического уровня
Тезаурус — совокупность сведений, которыми располагает пользователь

или система
Зависимость количества семантической информации, воспринимаемой потребителем, от его тазауруса Ic = f(Sp).
при Sp = 0

пользователь не воспринимает (не понимает поступающую информацию;
при Sp →∞ пользователь «все знает», и поступающая информация ему не нужна.
Меры информации семантического уровняТезаурус — совокупность сведений, которыми располагает пользователь или системаЗависимость количества семантической информации, воспринимаемой потребителем,

Слайд 26Меры информации семантического уровня
Коэффициент содержательности C - относительная мера семантической информации:


C = Ic/Vд,
Ic - количество семантической информации,
Vд – объем семантической

информации.
Конкретные показатели формируются на основе статистической обработки количества ссылок в различных выборках.
Меры информации семантического уровняКоэффициент содержательности C - относительная мера семантической информации: C = Ic/Vд,Ic - количество семантической информации,Vд

Слайд 27Компоненты обмена информацией
Сигнал - это физический процесс, несущий информа-цию о

событии или состоянии объекта наблюдения

Компоненты обмена информациейСигнал - это физический процесс, несущий информа-цию о событии или состоянии объекта наблюдения

Слайд 28Спектр электромагнитных волн

Спектр электромагнитных волн

Слайд 29Сигналы непрерывный и дискретный

Сигналы непрерывный и дискретный

Слайд 30Количество информации, воспринятой приемником, характеризуется не длиной сообщения, а разнообразием

сигнала порожденного в приемнике этим сообщением.
Память носителя информации имеет некоторую

физическую ёмкость, в которой она способна накапливать образы, и количество накопленной в памяти информации, характеризуется в итоге именно разнообразием заполнения этой ёмкости.

Количество информации, воспринятой приемником, характеризуется не длиной сообщения, а разнообразием сигнала порожденного в приемнике этим сообщением.Память носителя

Слайд 31Минимальное разнообразие обеспечивается наличием двух состояний. Информационная ёмкость одной ячейки

памяти, способной находиться в двух различных состояниях, принята за единицу

измерения количества информации - 1 бит.
Количество получаемой информации может быть и меньше, чем 1 бит. Это происходит тогда, когда варианты ответов «да» и «нет» не равновероятны.

Количество информации

Минимальное разнообразие обеспечивается наличием двух состояний. Информационная ёмкость одной ячейки памяти, способной находиться в двух различных состояниях,

Слайд 32Клод Шеннон: «Информация - снятая неопределенность».
Неопределенность возникает в ситуации выбора.

Задача снятия неопределенности – уменьшение количества рассматриваемых вариантов (уменьшение разнообразия),

выбор одного соответствующего ситуации варианта из числа возможных. Снятие неопределенности дает возможность принимать обоснованные решения и действовать. В этом управляющая роль информации.
Клод Шеннон: «Информация - снятая неопределенность».Неопределенность возникает в ситуации выбора. Задача снятия неопределенности – уменьшение количества рассматриваемых

Слайд 33Минимальное разнообразие обеспечивается наличием двух состояний.
Информационная ёмкость одной ячейки памяти,

способной находиться в двух различных состояниях, принята за единицу измерения

количества информации - 1 бит.
1 бит (bit - сокращение от англ. binary digit - двоичное число) - единица измерения информационной емкости и количества информации, а также и еще одной величины – информационной энтропии.
** Это справедливо только для равновероятно-го случая
Минимальное разнообразие обеспечивается наличием двух состояний.Информационная ёмкость одной ячейки памяти, способной находиться в двух различных состояниях, принята

Слайд 341928 г. Р. Хартли: процесс получения информации - выбор одного сообщения

из конечного наперёд заданного множества из N равновероятных сообщений.
Формула Хартли:

  I = log2N.
Примеры равновероятных сообщений: 
при бросании монеты: "выпала решка", "выпал орел"; 
на странице книги: "количество букв чётное", "количество букв нечётное". 
угадать одно число из набора чисел от единицы до ста: I = log2100  6,644.

1928 г. Р. Хартли: процесс получения информации - выбор одного сообщения из конечного наперёд заданного множества из N

Слайд 35Равновероятны ли сообщения "первой выйдет из дверей здания женщина" и "первым выйдет из

дверей здания мужчина". 
Однозначно ответить на этот вопрос нельзя. Все зависит

от того, о каком именно здании идет речь. Если это, например, станция метро, то вероятность выйти из дверей первым одинакова для мужчины и женщины, а если это военная казарма, то для мужчины эта вероятность значительно выше, чем для женщины.

Равновероятны ли сообщения 

Слайд 361948 г.  Клод Шеннон. Формула определения количества информации, учитывающую возможную неодинаковую

вероятность сообщений в наборе. 
Формула Шеннона:
 I = - ( p1log2 p1 + p2 log2 p2 +

... + pN log2 pN),
где pi — вероятность того, что именно i-е сообщение выделено в наборе из N сообщений.
Клод Шеннон определил информацию, как снятую неопределенность.
Величина, характеризующая количество неопределенности обозначается символом H и имеет название энтропия, точнее информационная энтропия.

1948 г.  Клод Шеннон. Формула определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе. Формула Шеннона: I = -

Слайд 37Энтропия (H) – мера неопределенности, или мера равномерности распределения случайной

величины.
Поведение энтропии для случая двух альтернатив

Энтропия (H) – мера неопределенности, или мера равномерности распределения случайной величины. Поведение энтропии для случая двух альтернатив

Слайд 38Связь между энтропией и количеством информации
I – это количество информации,

которое требуется для снятия неопределенности H.

Связь между энтропией и количеством информацииI – это количество информации, которое требуется для снятия неопределенности H.

Слайд 39Количество информации в сообщении
В общем случае, энтропия H и количество

получаемой в результате снятия неопреде-ленности информации зависят от исходного количества

рассматриваемых вариантов N и априорных вероятностей реализации каждого из них P: {p0, p1, …, pN-1}, т.е. H=F(N, P).
Формуле Шеннона:

Количество информации в сообщенииВ общем случае, энтропия H и количество получаемой в результате снятия неопреде-ленности информации зависят

Слайд 40Пример. Пусть в некотором учреждении состав работников распределяется так: 3/4

- женщины, 1/4 - мужчины. Тогда неопределенность относительно того, кого

вы встретите первым, зайдя в учреждение, будет рассчитана рядом действий, показанных в таблице.




Пример. Пусть в некотором учреждении состав работников распределяется так: 3/4 - женщины, 1/4 - мужчины. Тогда неопределенность

Слайд 41Количество информации в сообщении
Формула Хартли – частный случай формулы Шеннона

для равновероятных альтернатив.
Подставив в формулу Шенона вместо pi его

(в равновероятном случае не зависящее от i) значение , получим:



Формула Хартли

или
Количество информации в сообщенииФормула Хартли – частный случай формулы Шеннона для равновероятных альтернатив. Подставив в формулу Шенона

Слайд 42Количество информации в сообщении
Неопределенность может быть снята только частично, поэтому

количество информации I, получаемой из некотоого сообщения, вычисляется как уменьшение

энтропии, произошедшее в результате получения данного сообщения.
Для равновероятного случая, используя для расчета энтропии формулу Хартли, получим:





Количество информации в сообщенииНеопределенность может быть снята только частично, поэтому количество информации I, получаемой из некотоого сообщения,

Слайд 43 Некто вынимает одну карту из колоды (36 карт). Изначальная неопределенность

H=log2(36)5,17бит.
Вытянувший карту сообщает нам часть информации. Какое количество информации

мы получаем из этих сообщений?
A. “Это карта красной масти”. I=log2(36/18)=log2(2)=1бит (красных карт в колоде половина, неопределенность уменьшилась в 2 раза).
B. “Это карта пиковой масти”. I=log2(36/9)=log2(4)=2 бита (пиковые карты составляют четверть колоды, неопределенность уменьшилась в 4 раза).
С. “Это одна из старших карт: валет, дама, король или туз”.
I=log2(36)–log2(16)=5,17-4=1,17 бита (неопределенность уменьшилась больше чем в два раза, поэтому полученное количество информации больше одного бита).
D. “Это одна карта из колоды". I=log2(36/36)=log2(1)=0 бит (неопределенность не уменьшилась).
E. “Это дама пик". I=log2(36/1)=log2(36)=5,17 бит (неопределенность полностью снята).
Некто вынимает одну карту из колоды (36 карт). Изначальная неопределенность H=log2(36)5,17бит. 	Вытянувший карту сообщает нам часть информации.

Слайд 44Задача 1. Какое количество информации будет содержать зрительное сообщение о

цвете вынутого шарика, если в непрозрачном мешочке находится 50 белых,

25 красных, 25 синих шариков?
Решение.
1) всего шаров 50+25+25=100
2) вероятности шаров 50/100=1/2, 25/100=1/4, 25/100=1/4
3)I = -(1/2 log21/2 + 1/4 log21/4 + 1/4 log21/4) =
= -(1/2(0-1) +1/4(0-2) +1/4(0-2)) = 1,5 бит

Задача 2. В корзине лежит 16 шаров разного цвета. Сколько информации несет сообщение, что достали белый шар?
Решение. Т.к. N = 16 шаров,  то  I = log2 N = log2 16 = 4 бит.

Задача 1. Какое количество информации будет содержать зрительное сообщение о цвете вынутого шарика, если в непрозрачном мешочке

Слайд 45Задача 3. В корзине лежат черные и белые шары. Среди

них18 черных шаров. Сообщение о том, что достали белый шар,

несет 2 бита информации. Сколько всего шаров в корзине?
18 2) 24 3) 36 4)48












Задача 3. В корзине лежат черные и белые шары. Среди них18 черных шаров. Сообщение о том, что

Слайд 46Задача 3. В корзине лежат черные и белые шары. Среди

них18 черных шаров. Сообщение о том, что достали белый шар,

несет 2 бита информации. Сколько всего шаров в корзине?
18 2) 24 3) 36 4)48

Решение. Найдем по формуле Шеннона вероятность получения белого шара: log2N=2, N=4, следовательно, вероятность получения белого шара равна 1/4 (25%), а вероятность получения черного шара соответственно 3/4(75%). Если 75% всех шариков черные, их количество 18, тогда 25% всех шариков белые, их количество (18*25)/75=6.
Осталось найти количество всех шариков в корзине 18+6=24.
Ответ: 24 шарика.
Задача 3. В корзине лежат черные и белые шары. Среди них18 черных шаров. Сообщение о том, что

Слайд 47
Решение. Количество символов для кодирования номера составляет: 30 букв +

10 цифр = 40 символов. Количество информации несущий один символ

равен 6 бит (2I=40, но количество информации не может быть дробным числом, поэтому берем ближайшую степень двойки большую количества символов 26=64).
Мы нашли количество информации, заложенное в каждом символе, количество символов в номере равно 5, следовательно, 5*6=30 бит. Каждый номер равен 30 битам информации, но по условию задачи каждый номер кодируется одинаковым и минимально возможным количеством байт. Если разделить 30 на 8 получится дробное число, а нам необходимо найти целое количество байт на каждый номер. Находим ближайший множитель 8-ки, который превысит количество бит, это 4 (8*4=32). Каждый номер кодируется 4 байтами.
Для хранения 50 автомобильных номеров потребуется: 4*50=200 байт.

Решение. Количество символов для кодирования номера составляет: 30 букв + 10 цифр = 40 символов. Количество информации

Слайд 48
Выбор оптимальной стратегии в игре "Угадай число". 
Первый участник загадывает целое

число (например, 3) из заданного интервала (например, от 1 до

16), а второй - должен "угадать" задуманное число.
Начальная неопределенность знаний для второго участника составляет 16 возможных событий.
При оптимальной стратегии интервал чисел всегда должен делиться пополам, тогда количество возможных событий (чисел) в каждом из полученных интервалов будет одинаково и отгадывание интервалов равновероятно. В этом случае на каждом шаге ответ первого игрока ("Да" или "Нет") будет нести максимальное количество информации (1 бит).







Выбор оптимальной стратегии в игре

Слайд 49Контрольные вопросы и задания
1. Априори известно, что шарик находится в

одной из трех урн: А, В или С. Определите, сколько

бит информации содержит сообщение о том, что он находится в урне В.
Варианты: 1 бит, 1,58 бита, 2 бита, 2,25 бита.
2. Вероятность первого события составляет 0,5, а второго и третьего 0,25. Чему для такого распределения равна информационная энтропия. Варианты: 0,5 бита, 1 бит, 1,5 бита, 2 бита, 2,5 бита, 3 бита.
Контрольные вопросы и задания1. Априори известно, что шарик находится в одной из трех урн: А, В или

Слайд 50Контрольные вопросы и задания
3. Вот список сотрудников некоторой организации:






Определите количество

информации, недостающее для того, чтобы выполнить следующие просьбы:
Пожалуйста, позовите к

телефону Иванову.
Меня интересует одна ваша сотрудница, она 1970 года рождения.
Контрольные вопросы и задания3. Вот список сотрудников некоторой организации:Определите количество информации, недостающее для того, чтобы выполнить следующие

Обратная связь

Если не удалось найти и скачать доклад-презентацию, Вы можете заказать его на нашем сайте. Мы постараемся найти нужный Вам материал и отправим по электронной почте. Не стесняйтесь обращаться к нам, если у вас возникли вопросы или пожелания:

Email: Нажмите что бы посмотреть 

Что такое TheSlide.ru?

Это сайт презентации, докладов, проектов в PowerPoint. Здесь удобно  хранить и делиться своими презентациями с другими пользователями.


Для правообладателей

Яндекс.Метрика