Слайд 2Информатика и информация.
Системы счисления, меры количества и объёма информации, кодирование
Слайд 3Обобщённая формулировка
Информатика
Информатика – это научно-техническая и практическая человеческая деятельность, связанная
с процессами накопления, обработки и передачи информации с помощью компьютерной
вычислительной техники и телекоммуникационной связи.
Информатика
Слайд 4Информатика как
Фундаментальная наука;
Теоретическую наука;
Прикладная, как отрасль народного хозяйства.
Слайд 5Определение информатики
как науки.
Информатика изучает структуру и общие свойства всех
видов информации и форм представления, процессы и методы её сбора,
хранения, поиска, переработки, преобразования, использования, распространения и защиты в различных сферах научной, производственной, гуманитарной и общечеловеческой деятельности при помощи автоматизированных средств приема, обработки, передачи и уничтожения.
Слайд 6Фундаментальная информатика
Занимается разработкой методологии получения обобщённых знаний о любых закономерностях
информационных систем и содержит следующие направления:
Теория информации;
Информационное моделирование;
Методы измерения информации;
Алгебра
логики;
Теория алгоритмов и структуры данных;
Теория баз данных;
Искусственный интеллект и интеллектуальные системы;
Теория автоматов и др.
Слайд 7Теоретическая информатика
Дискретная математика;
Системный анализ;
Вычислительная математика.
Слайд 8Прикладная информатика
Основные направления прикладной информатики:
Вычислительные и информационные технологии;
Техническое и
программное обеспечение;
Поиск и восстановление информации;
Робототехника;
Компьютерная графика и визуализация;
Взаимодействие человека и
компьютера и др.
Слайд 9Информатика как отрасль народного Хозяйства
Это непосредственное промышленное производство всех комплектующих
вычислительной техники и средств защиты, а также интеллектуальная деятельность по
созданию программных продуктов.
Слайд 10Термин «информатика»
Об информатике как науке заговорили в 40-х годах прошлого
века, а отдельной наукой она стала в 70-ых годах.
Термин «информатика»
как комбинация слов «информатизация» и «автоматика» закрепился, благодаря французским ученым, которые в те годы были активистами в развитии информационных технологий и техники.
Слайд 11В США эту науку называют computer Science, в Великобритании –
Computing Science, акцентируя на научно-технической сущности этой науки.
В СССР
новая наука под термином информатика была официально утверждена и зарегистрирована в 1983 году Академии Наук СССР с трактовкой как «комплексная научная и инженерная дисциплина, изучающая все аспекты разработки, проектирования, создания, оценки, функционирования основанных на ЭВМ систем переработки информации, их применения и воздействия на различные области социальной практики».
Слайд 12Термин информация
Термин информация возник от латинского information – разъяснение, изложение.
ГОСТ Р 50922-2006 «Защита информации. Основные термины и определения» определяет
следующее толкование: информация – Сведения (сообщения, данные) независимо от формы их представления.
Информация
Слайд 13Система передачи информации
В информатике среда естественная или искусственная, содержащая информацию,
называется информационной средой. Объект среды (клетка, человек, механизм и т.д.),
хранящий или передающий информацию называется в общем случае источником, генератором или передатчиком.
Объект, принимающий информацию (клетка, человек, автомат и т.д.) в общем случае называется получателем информации, потребителем или адресатом.
Если для принятия информации, например, звуковой, требуется техническое средство, например, слуховой аппарат, такое устройство называется приёмником.
Информация идет по определенным, соответствующим, каналам связи, сам процесс между источником (передатчиком) и приёмником (получателем) называется информационным взаимодействием, а всё это в совокупности называется системой передачи информации.
Слайд 15Классификация информации
(по видам)
Слайд 16Система счисления
Это - определенный метод и способ записи чисел с
помощью набора цифр или символов, обозначающих количественное значение.
Системы счисления бывают
позиционные и непозиционные.
Слайд 17Позиционная система счисления
В такой системе одна и та же цифра
может иметь различные значения в зависимости от места расположения.
Позиционная система
основывается на том, что некоторое число q единиц первого разряда объединяется в одну единицу второго разряда, q единиц второго разряда в одну единицу третьего разряда и т.д.
Число q называется основанием системы.
Слайд 18Представление чисел в позиционной системе
Любое число в позиционной системе может
быть представлено следующим образом:
an*pn+an-1*pn-1+…+a1*p1+a0*p0
Например, в десятичной системе (т.е. основание 10)
запись числа 13 будет вычисляться так:
1*101+3*100=1310
Слайд 19К позиционным системам относятся:
Двоичная;
Восьмеричная;
Десятеричная;
Шестнадцатеричная.
Слайд 20Современные арабские цифры
Используются в позиционных системах.
Современные арабские цифры пришли в
Европу в 13 веке из Индии и получили широкое распространение
во всём мире со второй половины 15 века.
Слайд 21Непозиционные системы счисления
В непозиционной системе количественное значение символа определяется только
его изображением и не зависит от его позиции в числе.
Слайд 22Пример – Римские цифры
Европа перешла на них с 4-го века.
Главные
часы России, кремлёвские куранты, оснащены именно римскими цифрами.
Семь чисел обозначаются
буквами:
1 – I, 5 – V, 10 – X, 50 – L, 100 – C, 500 – D и 1000 – M
Например, 2016 год римскими цифрами будет выражен так: MMXVI год.
Слайд 23Представление чисел в позиционной системе
Суть преобразования цифр в число в
любой позиционной системе счисления заключается в соглашении о разрядах. Разряды
нумеруются справа на лево, начиная с 0. Цифра, стоящая в k-ом разряде, означает количество единиц этого разряда.
Например, в десятичной позиционной системе счисления из 3-х целых натуральных цифр 1, 2, 3 можно получить несколько чисел – 123, 132, 213, 231, 312 и 321, поменяв позицию каждой цифры.
В согласии с разрядом каждая цифра в этих числах может выражать единицы, десятки и сотни.
Слайд 24В вычислительной технике, для физического представления чисел, подлежащих обработке, необходимы
элементы, способные находится в одном из нескольких устойчивых состояний.
Простота
технической реализации двухпозиционных элементов обеспечила наибольшее распространение ЭВМ двоичной системы счисления, основание которой S=2. В ней используются лишь две цифры 0 и 1.
Любое действительное число в двоичной системе представляется в виде суммы целых степеней основания S=2, умноженных на соответствующие коэффициенты – 0 или 1. Числа в двоичной системе выглядят громоздко и однообразно.
Например, 625,12510=1001110001,001.
Слайд 25Восьмеричная и шестнадцатеричная
Восьмеричную систему счисления можно представить, как 8=23, шестнадцатеричную
систему, как 16=24.
Запись чисел короче, чем в двоичной системе.
Вот как выглядит одно и то же число в разных системах:
625,12510=1001110001,0012=1161,18=271,216
Слайд 26Восьмеричная и шестнадцатеричная системы счисления применяются в процессе программирования для
более компактной записи команд программы.
В восьмеричной системе счисления используется восемь
цифр от 0 до 7, а любое число представляется суммой целых степеней основания s=8, умноженных на соответствующие коэффициенты a1=0,1,…7.
В шестнадцатеричной системе счисления используются цифры от 0 до 9 и дополнительно к ним применяются буквенные символы латинского алфавита 10-A, 11-B, 12-C, 13-D, 14-E, 15-F.
Слайд 27Перевод в системах счисления. Общее правило.
Начнём рассматривать 10-ю систему счисления.
Любое число можно разложить по разрядам. Например, 213 мы воспринимаем
как 2 сотни, один десяток и три единицы.
Правило, по которому образуются разряды таково: необходимо взять основу системы счисления (в нашем случае 10) и возвести её в разные степени, начиная с 0 (любое число в степени 0 равно 1). Выходит следующее:
100=1
101=10
102=100
103=1 000
104= 10 000
После чего сначала узнаём сколько целых сотен содержится в числе 213, 213 : 100=2. Затем сколько десятков (213-200=13, 13/10=1) и сколько единиц – 3 единицы.
Вот что получается:
213=2*102+1*101+3*100=200+10+3
Слайд 28Меры и единицы количества и объёма информации
Слайд 29В информатике и вычислительной технике ячейка памяти, которая может хранить
одну двоичную цифру (0 или 1) называется битом и является
наименьшей единицей измерения количества и объёма информации.
Если в ячейке памяти есть заряд, то она содержит 1, а если нет – 0. Для практических целей этого недостаточно и биты группируют вместе, чтобы они могли хранить больше цифр, а это значит – больше информации.
Бит
Слайд 30Существует следующее правило: группа N битов может принимать 2n значений.
Например:
Если
один бит хранит однозначное двоичное число, то 2 бита могут
содержать двузначное число и таких чисел будет уже 4;
3 бита будут хранить уже 8 значений и выражать трехзначное двоичное число 000, 001, 011, 100, 101, 110, 111;
Если использовать группу из 4-х бит, то она примет 16 значений четырёхзначных двоичных чисел.
Слайд 31Байт
Наименьшая группа битов, использующаяся на практике, состоит из 8 бит
и называется байтом, т.е. байт может принимать 28=256 значений, которые
соответствуют двоичным числам от 00000000 до 11111111 или, если перевести их в десятичную систему, от 0 до 255.
Если объединить 2 байта, а это 16 бит, следовательно, они могут хранить одно из 216=65 536 чисел.
Наряду с байтами используются образованные от него единицы:
1 Килобайт – 1024 байта
1 Мегабайт – 1024 Килобайта
1 Гигабайт – 1024 Мегабайта
1 Терабайт – 1024 Гигабайта
1 Петабайт – 1024 Терабайта
1 Эксабайт – 1024 Петабайта
1 Зеттабайт – 1024 Эксабайта
1 Иоттабайт – 1024 Заттабайта
Слайд 32Количество информации
Количество информации J обычно связывают с получением оценки пока
неопределённых, но может быть вероятных свойств, процессов системы (а) или
правильных решений любых хозяйственных, управленческих или бытовых вопросов.
Американский инженер Ральф Хартли в 1928г. предложил рассматривать процесс определения количества информации как выбор вероятностного сообщения из конечно заданного множества N равноконечного сообщений, используя формулу:
J=log2N
Например: Допустим, нужно угадать одно число из 100. Можно вычислить сколько информации для этого потребуется J=log2100=6,644 бит, т.е. сообщение о верно угаданном числе будет содержать около 7 бит.
Слайд 33Энтропия – количество информации
по Шеннону
Клод Шеннон в 1948г. ввел
понятие неопределенности – энтропия H(α). Мерой количества информации Шеннон предложил
считать функцию, названную им энтропией.
Полученное сообщение β об объекте, проблеме, выборе или какой-то системе (α) может изменить энтропию, т.е. энтропия может стать Hβ(α)H(α), или H β(α)=H(α).
Разность между первоначальной энтропией и энтропией с β сообщением и есть, по мнению Шеннона, информация.
Jβ(α)=H(α)-Hβ(α)
Слайд 34Величина Jβ(α) может быть положительной, если сообщение достоверное и своевременное,
может быть отрицательной, если не изменило, а увеличило нашу неопределённость
и может быть нулевой.
Нулевой результат Jβ(α)=0 может быть в двух случаях:
Сообщение β не понятное, не своевременное и не принесло никакой информации, т.е. Hβ(α)=H(α);
Сообщение B на столько ценное, что полностью сняло неопределенность и можно принять решение, т.е. Jβ(α)=H(α).
Слайд 35В общем случае энтропия, изменяясь до K-го состояний, равна
H
(α)=
, где
P1 – вероятность того, что система находится в i-ом состоянии.
Если K=1, тогда никакой неопределенности нет.
При росте числа K возможных вариантов мера степени неопределенности является функцией K-f(K) монотонно растёт с увеличением K.
При определении конкретной оценки неопределенности обычно используют логарифм по основанию 2, т.е. f(K)=log2K
Это значит, что за единицу неопределенности берутся два равновероятных случая (как при подбрасывании монеты или как в ячейке двоичной памяти), т.е. P1=1/K, согласно формуле Шеннона
H(α)=log2K.
Слайд 36Например, энтропия нашего алфавита из 32 букв (е и ё
не будем различать):
H=Log232=5 бит
Энтропия десятичного набора цифр: H=log210= 3.32 бита.
Энтропия,
содержащая 32 буквы и 10 цифр:
H=log2(32+10)= 5 + 3,32 = 8,32 бита
Слайд 37Объём информации
Это некоторый текст, содержащий различные символы (буквы, цифры, знаки
– препинания, математические, музыкальные и т.д.).
Для одного и того
же смыслового содержания объем информации в зависимости от краткости или расширенного изложения или от языка той или иной национальности может быть различным, поэтому некоторые авторы вместо объема используют синоним – длина информации.
Слайд 38Тезаурус
Для измерения смыслового содержания информации получила распространение, т.н. тезаурусная мера,
которая связана со способностью пользователя принимать информацию.
Тезаурус – это совокупность
сведений и связей между ними, которыми располагает пользователь, т.е. – это кругозор, интеллект, накопленные знания пользователя.
Слайд 39Если информацию получает персональный компьютер, его тезаурус определяется заложенными в
него программами и устройствами, позволяющими принимать, обрабатывать и представлять текстовые
сообщения на разных языках, разными шрифтами, с помощью аудио- и видеоинформации из локальной, корпоративной или всемирной сети.
Если получателем является человек, его тезаурус может быть очень богат, глубок и многообразен, что позволяет извлекать информацию из любого сообщения.
Слайд 40Зависимость количества смысловой (семантической) информации от тезауруса получателя
При S=0 получатель
не воспринимает информацию.
При S>0 получатель воспринимает малое количество информации.
При
S -> ∞ Получатель всё знает и поступающая информация ему не нужна.
Слайд 41Коэффициент содержательности
Относительной мерой количества семантической информации служит коэффициент содержательности С,
определяемый отношением информации достаточной для понимания смысла к объёму информации,
который получил пользователь:
C=J/V – коэффициент содержательности.
Эта мера чисто индивидуальная и зависит от технических возможностей компьютера или состояния интеллекта пользователя.
Прагматическая мера информации определяет полезность (ценность) информации и называется релевантностью информации.
Слайд 42Кодирование информации
Кодирование информации — процесс преобразования сигнала из формы, удобной для
непосредственного использования информации, в форму, удобную для передачи, хранения или
автоматической переработки.
Слайд 43Кодирование числовой информации
Для кодирования чисел используются 1, 2, 4, 8,
16 байт. Один бит (крайний слева) отводится под знак числа.
В вычислительной технике применяются специальные коды:
Прямой код представляет двоичные числа, где отрицательные значения кодируются единицей, а положительные - нулем. При этом старший разряд называется знаковым. Например, числа +510 и -510 выглядят, как +510=0,1012 и -52=1,1012
Обратный код для отрицательных чисел получается путём инверсии (единицы знаковых разрядов заменяются нулями, а нули заменяются единицами) из прямого кода. Например, число -510 в обратном коде выглядит, как 1,0102
Дополнительный код для отрицательных чисел получается из обратного кода добавлением единицы к младшему разряду кода.
Слайд 44Формы предоставления чисел
В ЭВМ применяют две формы представления двоичных чисел:
Естественная
форма с фиксированной запятой (точкой);
Нормальная форма с плавающей запятой (точкой).
Слайд 45Естественная форма
Числа представляются последовательностью двоичных чисел, представляющих целые числа.
Точка
или запятая формально отделяет знаковые разряды.
С целыми числами вычисления
проводят точно, т.е. результат (при делении) с остатком округляют до целого числа.
Недостатком этой формы является ограничительный диапазон чисел.
Слайд 46Нормальная форма с плавающей точкой (запятой)
Представляет число в следующем виде:
x=m*qn
, где m – мантисса в виде набора цифр
(10
> мантисса >1);
q – основание системы счисления;
n – порядок числа.
Множитель qn называется характеристикой мантиссы.
Слайд 47Нормальная форма используется для представления дробных чисел, для чего их
преобразуют по указанной формуле.
Например, пусть дано число 12,37510, в нормальной
форме оно будет выглядеть как
12,37510 = 0,12375*102
1100,0112=0,1100011*2100
При хранении дробных чисел часть бит отводится для мантиссы, часть для порядка числа, а в крайнем левом бите хранится знак.
Мантисса выражается в прямом коде, как для положительных, так и для отрицательных чисел. Различие в знаке отражается только на значении разряда.
Слайд 48Кодирование текстовой информации
При обработке текстовой информации каждому символу соответствует определенное
число. Соответствие между набором символов и чисел называется кодировкой символов.
Существует
много различных кодировок. В большинстве из них символы кодируются однобайтовыми комбинациями. Одним байтом можно закодировать 256 целых чисел. Этого достаточно для кодирования всех букв латинского и русского алфавита, арабских цифр, знаков препинания и некоторых других необходимых знаков.
Для наглядности, существуют таблицы кодирования, где каждому символу присваивается свой номер.
Слайд 49Таблицы кодировок текста
ASCII – американский стандартный код обмена информацией –
1 байт (256 символов).
Windows-1251 - была разработана под кириллицу компанией
Microsoft – 1 байт (256 символов).
КОИ-8 - код обмена информацией, восьмизначный, разработан в 60-х годах в СССР – 1 байт (256 символов).
Unicode - разработали компании Microsoft, Borland и Adobe, в кодировке каждому символу отводилось не 1, а 2 байта (65536 символов).
Слайд 50Кодирование графической информации
Кодирование такой информации заключается в кодировке цвета. Изображение
так же, как и символы, можно закодировать, оцифровав цвета.
Графическую
информацию можно представить в виде таблицы, состоящей из квадратиков, т.е. реальное изображение покрывается ячеистой сеткой, где каждой ячейке соответствует свой цвет.
Минимальный размер ячейки приводит к максимальному качественному представлению изображения, т.е. увеличению частоты дискретизации приводит к чёткости, яркости, и большой цветовой гамме.
Сканер превращает аналоговое изображение в цифровое, а видеосистема, напротив, из цифровой последовательности создаёт для человеческого глаза аналоговое изображение.
Слайд 51Режимы кодировки цветов
Режим Bitmap. Используется 1 бит, поэтому можно закодировать
только два варианта цвета, например, чёрный и белый, красный и
зелёный;
Режим Grayscale. Используется 1 байт, дающий каждой ячейки (точке) 256 градаций серого цвета;
Режим индекса. Использует 1 байт. Каждый из 256 градаций соответствует свой цвет с определенным названием;
Режим True Color. Используется 3 байта, которые содержат 16 777 216 цветов и оттенков на основе 3-х базовых цветов – красного (Red), зелёного (Green) и синего (Blue). Такой режим также называется по первым буквам базовых цветов RGB- моделью.
Слайд 52CMYK
Для печатных изображений применяется другая цветовая модель на базе голубого
(Cyan), пурпурного (Magenta), желтого (Yellow) и чёрного (Black) – CMYK-модель.
(буква K от окончания Black).
При печати увеличение количества краски не приводит к увеличению яркости, а к её уменьшению. Поэтому метод печати с помощью CMYK-модели является не аддитивным, а субтрактивным (вычитающим).
Цветовыми компонентами этой модели являются не основные цвета, а те которые получаются в результате вычитания основных цветов из белого.
Слайд 53Типы графических изображений
Векторные изображения, состоят из схематических контуров и заливок,
всегда условно передают смысловую реальность. Основным элементом отображения является сегмент
– отрезок линии или контур – несколько таких отрезков;
Растровые изображения качественно отображают исходную графику. Главным элементом кодирования является пиксель – квадратная ячейка или точка, внутри которой все свойства изображения остаются неизменными. Термин пиксель образовался от английского picture – картина, изображение и element – элемент, элемент изображения.
Слайд 54Кодирование звуковой информации
Звук представляет собой типичный аналоговый сигнал, в котором
по оси t откладывается время, а оси A(t) колебание воздуха.
Слайд 55Оцифровка звукового сигнала происходит в три этапа:
Дискретизация - заключается в
определении временных промежутков для снятия показаний, т.е. определяем частоту измерений
амплитуды сигнала в секунду.
Квантование – заключаются в разбитии сигнала на отдельные дискретные участки, в результате чего получается ступенчатая кривая.
Кодирование – заключаются в непосредственном процессе оцифровки в соответствии с принятыми правилами дискретизации и квантования.