Разделы презентаций


Тема 1. Понятие информации и общая характеристика процессов ее сбора, передачи,

Содержание

Байт = 8 бит – наименьшая единица информации, которая может иметь адрес;1 килобайт = 2 10 байта = 1024 байта;1 Мегабайт = 220 байта = 1 048 576 байтов;1 Гигабайт =

Слайды и текст этой презентации

Слайд 1Тема 1. Понятие информации и общая характеристика процессов ее сбора,

передачи, обработка и накопления.

Тема 1. Понятие информации и общая характеристика процессов ее сбора, передачи, обработка и накопления.

Слайд 3Байт = 8 бит – наименьшая единица информации, которая может

иметь адрес;
1 килобайт = 2 10 байта = 1024 байта;
1

Мегабайт = 220 байта = 1 048 576 байтов;
1 Гигабайт = 230 байта = 1 073 741 824 байта;
1 Терабайт = 240 байта = 1 099 511 627 776 байтов;
1 петабайт = 250 байта = 1 125 899 906 842 624 байта;
1 экзабайт (exabyte) = 260 байта = 1 152 921 505 606 846 976 байтов;
1 зеттабайт (zettabyte) = 270 байта = 1 180 591 620 717 411 303 424 байта;
1 йоттабайт (yottabyte) = 280 байта = 1 208 92 81 614 629 174 706 176 байтов.

Производные единицы измерения информации

Байт = 8 бит – наименьшая единица информации, которая может иметь адрес;1 килобайт = 2 10 байта

Слайд 4 В теории информации определяют синтаксическое количество информации на основе

энтропии системы.
Энтропия системы α, имеющая N возможных

состояний, согласно формуле Шеннона, равна:




где pi — вероятность того, что система находится в i-ом состоянии.
В теории информации определяют синтаксическое количество информации на основе энтропии системы.   Энтропия системы α,

Слайд 5Для случая, когда все состояния системы равновероятны, т.е. их вероятности

равны Pi =

ее энтропия определяется соотношением

Для случая, когда все состояния системы равновероятны, т.е. их вероятности равны  Pi = ее энтропия определяется

Слайд 6Формула Хартли выводится из формулы Шеннона при равновероятных состояниях системы:




I = H(α) = logN – формула Хартли,

где N = mn - число всевозможных отображаемых состояний,
m – основание системы счисления,
n – число символов в сообщении,
например, 256 = 28 - число символов, которые можно закодировать 8-разрядным кодом в двоичной системе счисления, N = 256, m = 2, n = 8.
Формула Хартли выводится из формулы Шеннона при равновероятных состояниях системы:   I = H(α) = logN

Слайд 7Пример:
По каналу связи передается n-разрядное сообщение, использующее т различных символов.

Так как количество всевозможных кодовых комбинаций будет N=mn, то при

равновероятности появления любой из них количество информации, приобретенной абонентом в результате получения сообщения, будет I = log N = n log т. Если в качестве основания логарифма принять т, то I = n logm m = n. В данном случае количество информации (при условии полного априорного незнания абонентом содержания сообщения) будет равно объему данных I = VД, полученных по каналу связи. Для неравновероятных состояний системы всегда I < VД = n. Наиболее часто m = 2 или 10. Единицами измерения в этих случаях будут соответственно бит и дит.

Пример:По каналу связи передается n-разрядное сообщение, использующее т различных символов. Так как количество всевозможных кодовых комбинаций будет

Слайд 8



При Sp → 0 пользователь не воспринимает, не понимает поступающую

информацию;
при Sp →∞ пользователь все знает, и поступающая информация ему

не нужна;
при согласовании смыслового содержания сообщения S с тезаурусом пользователя Sp = Sp opt, получаем максимальное количество семантической информации Ic.

При Sp → 0 пользователь не воспринимает, не понимает поступающую информацию;при Sp →∞ пользователь все знает, и

Слайд 9 Sp = Spopt означает, что поступающая информация понятна пользователю

и несет ему ранее не известные (отсутствующие в его тезаурусе)

сведения.
Следовательно, количество семантической информации в сообщении, количество новых знаний, получаемых пользователем, является величиной относительной.
Одно и то же сообщение может иметь смысловое содержание для компетентного пользователя и быть бессмысленным (семантический шум) для пользователя некомпетентного.
При оценке семантического (содержательного) аспекта информации необходимо стремиться к согласованию величин S и Sp.
Sp = Spopt означает, что поступающая информация понятна пользователю и несет ему ранее не известные (отсутствующие

Слайд 10Представление (кодирование) данных
Представление данных – это подготовка данных для обработки

на компьютере.
Двоичное кодирование – универсальная форма представления данных для дальнейшей

обработки их средствами вычислительной техники.
Данные располагаются в ячейках, представляющих упорядоченную совокупность из двоичных разрядов (каждый разряд может временно содержать одно из двух состояний - 0 или 1). Тогда группой из 8 двоичных разрядов можно закодировать 28 = 256 различных комбинаций кода.

Sp = Spopt означает, что поступающая информация понятна пользователю и несет ему ранее не известные (отсутствующие в его тезаурусе) сведения.

Представление (кодирование) данныхПредставление данных – это подготовка данных для обработки на компьютере.Двоичное кодирование – универсальная форма представления

Слайд 11Система счисления – совокупность приемов записи и наименования чисел.
Системы счисления

подразделяются на позиционные и непозиционные.
В позиционных системах счисления величина, обозначаемая

цифрой в записи числа, зависит от её положения в числе (позиции).
Количество используемых цифр называется основанием системы счисления
В непозиционных системах счисления величина, которую обозначает цифра, не зависит от положения в числе.


Система счисления – совокупность приемов записи и наименования чисел.Системы счисления подразделяются на позиционные и непозиционные.В позиционных системах

Слайд 12Самым простым примером непозиционной системы счисления является римская.
В настоящее

время наиболее распространены десятичная, двоичная, восьмеричная и шестнадцатеричная позиционные системы

счисления.
Двоичная, восьмеричная (в настоящее время вытесняется шестнадцатеричной) и шестнадцатеричная система используется в областях, связанных с цифровыми устройствами, программировании и вообще компьютерной документации.
Современные компьютерные системы оперируют информацией представленной в цифровой форме. Числовые данные преобразуются в двоичную систему счисления.
Самым простым примером непозиционной системы счисления является римская. В настоящее время наиболее распространены десятичная, двоичная, восьмеричная и

Слайд 13





Двоичная система используется в цифровых устройствах, поскольку является наиболее простой

и удовлетворяет требованиям: 1. Чем меньше значений существует в системе, тем

проще изготовить отдельные элементы. 2. Чем меньше количество состояний у элемента, тем выше помехоустойчивость и тем быстрее он может работать. 3. Простота создания таблиц сложения и умножения — основных действий над числами.
Двоичная система используется в цифровых устройствах, поскольку является наиболее простой и удовлетворяет требованиям: 1. Чем меньше значений

Слайд 14В ВТ, с целью упрощения реализации арифметических операций, для целых

чисел в интервале от - 128 до + 127 при

8-ричном кодировании и для целых чисел в интервале от -32768 до +32767 при 16-ричном кодировании применяют специальные коды (прямой, обратный и дополнительный).
За счет этого облегчается определение знака результата операции, а операция вычитания чисел сводится к арифметическому сложению.


В ВТ, с целью упрощения реализации арифметических операций, для целых чисел в интервале от - 128 до

Слайд 15Обратный код для положительных чисел совпадает с прямым кодом.
Чтобы

представить отрицательное двоичное число в обратном коде, нужно оставить в

знаковом разряде 1, а во всех значащих разрядах заменить 1 на 0 и 0 на 1.
Такая операция называется инвертированием.
Например, + 5(10) = 0000 0101(2) - прямой код для +5,
- 3(10) = 1111 1100(2) - обратный код для -3.

Обратный код для положительных чисел совпадает с прямым кодом. Чтобы представить отрицательное двоичное число в обратном коде,

Слайд 16 Дополнительный код положительного числа совпадает с прямым кодом.
Дополнительный

код отрицательного числа может быть получен из обратного кода путем

прибавления 1 к младшему разряду обратного кода.
Например, + 5(10) = 0000 0101(2) - прямой для +5,
- 3(10) = 1111 1100(2) - обратный код для -3,
+ 1
1111 1101(2) - дополнительный код для -3.
Дополнительный код положительного числа совпадает с прямым кодом. Дополнительный код отрицательного числа может быть получен из

Слайд 17Кодирование текстовой информации
Базовая таблица закрепляет значения кодов от 0 до

127, а расширенная относится к символам с номерами от 128

до 255.
Первые 32 кода базовой таблицы, начиная с нулевого, отданы производителям аппаратных средств(компьютеров, печатающих устройств). С 32 по 127 размещены коды символов латинского алфавита, знаков препинания, цифр, арифметических действий и специальных символов.
Национальные системы кодирования используют расширенную часть ASCII (коды 128  255).

Кодирование текстовой информацииБазовая таблица закрепляет значения кодов от 0 до 127, а расширенная относится к символам с

Слайд 18Необходимо помнить, что в настоящее время для кодировки русских букв

используют пять различных кодовых таблиц (КОИ - 8, СР1251, СР866,

Мас, ISO), причем тексты, закодированные при помощи одной таблицы не будут правильно отображаться в другой кодировке.
В большинстве случаев о перекодировке текстовых документов заботится не пользователь, а специальные программы - конверторы, которые встроены в приложения.

Необходимо помнить, что в настоящее время для кодировки русских букв используют пять различных кодовых таблиц (КОИ -

Обратная связь

Если не удалось найти и скачать доклад-презентацию, Вы можете заказать его на нашем сайте. Мы постараемся найти нужный Вам материал и отправим по электронной почте. Не стесняйтесь обращаться к нам, если у вас возникли вопросы или пожелания:

Email: Нажмите что бы посмотреть 

Что такое TheSlide.ru?

Это сайт презентации, докладов, проектов в PowerPoint. Здесь удобно  хранить и делиться своими презентациями с другими пользователями.


Для правообладателей

Яндекс.Метрика