Разделы презентаций


Эффективное кодирование

Содержание

Эффективное кодирование решает задачу более компактной записи сообщений, вырабатываемых источником за счет их перекодировки. Применяется практически во всех архиваторах типа Rar, Zip и др. Позволяют сжать информацию в в 2-3, max

Слайды и текст этой презентации

Слайд 1Эффективное кодирование

Эффективное кодирование

Слайд 2Эффективное кодирование решает задачу более компактной записи сообщений, вырабатываемых источником

за счет их перекодировки.

Применяется практически во всех архиваторах типа

Rar, Zip и др.

Позволяют сжать информацию в в 2-3, max в 4 раза, но при этом происходит полное восстановление сжатой информации «бит в бит»

Эффективное кодирование

Эффективное кодирование решает задачу более компактной записи сообщений, вырабатываемых источником за счет их перекодировки. Применяется практически во

Слайд 3Сжатие в большее число раз
Применяется, если же не требуется

восстановление информации «бит в бит»

Например, при передаче речи можно допускать

искажения, которые получатель голосового сообщения не заметит из-за нечувствительности слухового аппарата человека к этим изменениям.

Сжатие в большее число раз Применяется, если же не требуется восстановление информации «бит в бит»Например, при передаче

Слайд 4Кодирование – в широком смысле слова – это представление сообщений в

форме, удобной для передачи по данному каналу.

Операция, обратная кодированию, называется декодирование.

Общее

определение кодирования и кода
Кодирование – в широком смысле слова – это представление сообщений в форме, удобной для передачи по данному каналу.Операция,

Слайд 5ИИ – источник информации
КИ – кодер источника
КК –кодер канала
М –

модулятор
ЛС –линия связи
ДМ - демодулятор
ДК- декодер канала
ДИ – декодер источника
П

- приемник

Схема системы передачи информации

ИИ – источник информацииКИ – кодер источникаКК –кодер каналаМ – модуляторЛС –линия связиДМ - демодуляторДК- декодер каналаДИ

Слайд 6Сообщению X на выходе источника информации (ИИ) необходимо поставить в соответствие определенный

сигнал.

Дискретные сообщения складываются из букв,
а непрерывные сообщения можно

представить последовательностью цифр в каждый момент отсчета,
то можно использовать конечное число образцовых сигналов, соответствующих отдельным буквам алфавита источника.

При большом объеме алфавита прибегают к представлению букв в другом алфавите с меньшим числом букв, которые будем называть символами. Т. е. выполняется КОДИРОВАНИЕ


Поскольку алфавит символов меньше алфавита букв, то каждой букве соответствует некоторая последовательность символов, называемая кодовой комбинацией.

Число символов в кодовой комбинации называется ее значностью.

Сообщению X на выходе источника информации (ИИ) необходимо поставить в соответствие определенный сигнал. Дискретные сообщения складываются из букв, а

Слайд 71. Преобразовать информацию в такую систему символов (код), чтобы он

обеспечивал.:
простоту аппаратуры различения отдельных символов;
минимальное время передачи;
минимальный объем запоминающего устройства

при хранении;
простоту выполнения в принятой системе арифметических и логических действий.

Статистические свойства источника сообщений и помех в канале связи при этом не принимаются во внимание.

Техническая реализация процесса кодирования в таком простейшем виде при непрерывном входном сигнале осуществляется аналого-кодовыми (цифровыми) преобразователями.

В процессе преобразования букв в символы нужно:

1. Преобразовать информацию в такую систему символов (код), чтобы он обеспечивал.:простоту аппаратуры различения отдельных символов;минимальное время передачи;минимальный

Слайд 82. Второй целью кодирования является на основании теорем Шеннона –

согласование свойств источника сообщений со свойствами канала связи.

При отсутствии помех

это непосредственно дает выигрыш во времени передачи или в объеме запоминающего устройства.
Такое кодирование получило название эффективное кодирование.

В процессе преобразования букв в символы нужно:

2. Второй целью кодирования является на основании теорем Шеннона – согласование свойств источника сообщений со свойствами канала

Слайд 9в канале эффективное кодирование позволяет преобразовать входную информацию в последовательность

символов, наилучшим образом подготовленную для дальнейшего преобразования (максимально сжатую)

При наличии

помех
в канале эффективное кодирование позволяет преобразовать входную информацию в последовательность символов, наилучшим образом подготовленную для дальнейшего преобразования

Слайд 10имеет целью обеспечить заданную достоверность при передаче или хранении информации

путем дополнительного внесения избыточности, но уже по простым алгоритмам и

с учетом статистических закономерностей помехи в канале связи.

Такое кодирование получило название помехоустойчивого.

КК - кодер канала

имеет целью обеспечить заданную достоверность при передаче или хранении информации путем дополнительного внесения избыточности, но уже по

Слайд 11Если избыточность источника сообщений (ИС) и помехи в канале связи

практически отсутствуют, то введение как КИ, так и КК нецелесообразно.

Если

избыточность ИС высока, а помехи малы, целесообразно введение только КИ.
Когда избыточность источника мала, а помехи велики, целесообразно введение КК.

При большой избыточности и высоком уровне помех целесообразно введение обоих дополнительных кодирующих и декодирующих устройств.

Выбор кодирующих и декодирующих устройств зависит от статистических свойств источника, а так же уровня и характера помех в канале связи

Если избыточность источника сообщений (ИС) и помехи в канале связи практически отсутствуют, то введение как КИ, так

Слайд 12кодированный сигнал поступает в устройство кодирования символов сигналами – модулятор

М.

Получаемый на выходе модулятора сигнал Y подготовлен к передаче по конкретной

линии связи ЛС.

В устройство декодирования сигналов в символы (демодулятор ДМ) из линии связи приходит сигнал, искаженный шумом, который обозначен на схеме – Z.

После кодера канала КК

кодированный сигнал поступает в устройство кодирования символов сигналами – модулятор М. Получаемый на выходе модулятора сигнал Y подготовлен к

Слайд 13Устройство декодирования помехоустойчивого кода декодер канала ДК и
устройство декодирования

сообщений (декодер источника ДИ)
выдают декодированное сообщение W получателю П (человеку или

машине).

Устройства декодирования

Устройство декодирования помехоустойчивого кода декодер канала ДК и устройство декодирования сообщений (декодер источника ДИ) выдают декодированное сообщение W получателю

Слайд 14При кодировании каждая буква исходного алфавита представляется различными последовательностями, состоящими

из кодовых букв (цифр).

Если исходный алфавит содержит m букв,

то для построения равномерного кода с
использованием k кодовых букв необходимо удовлетворить соотношение
m ≤ kq ,
где q - количество элементов в кодовой последовательности.


Итак

При кодировании каждая буква исходного алфавита представляется различными последовательностями, состоящими из кодовых букв (цифр). Если исходный алфавит

Слайд 15достаточно пронумеровать буквы исходного алфавита и записать их коды как

q - разрядные числа в k-ичной системе счисления

Например,
при

двоичном кодировании 32 букв русского алфавита используется
q = log232 = 5 разрядов,
на чем и основывается телетайпный код.

Для построения равномерного кода

достаточно пронумеровать буквы исходного алфавита и записать их коды как q - разрядные числа в k-ичной системе

Слайд 16Кроме двоичных кодов, наибольшее распространение получили восьмеричные коды.

Например, необходимо

закодировать алфавит, состоящий из 64 букв.
Для этого потребуется q

= log264 = 6 двоичных разрядов или q = log864 = 2 восьмеричных
разрядов.
При этом буква с номером 13 при двоичном кодировании получает код 001101, а при
восьмеричном кодировании 15.


Кроме двоичных кодов, наибольшее распространение получили восьмеричные коды. Например, необходимо закодировать алфавит, состоящий из 64 букв. Для

Слайд 17
В любом реальном сигнале всегда присутствуют помехи.

Однако, если их

уровень настолько мал, что вероятность искажения практически равна нулю, можно

условно считать, что все сигналы передаются неискаженными.

Основная теорема Шеннона о эффективном кодировании

В любом реальном сигнале всегда присутствуют помехи. Однако, если их уровень настолько мал, что вероятность искажения практически

Слайд 18В этом случае среднее количество информации, переносимое одним символом, можно

считать:
J(Z; Y) = Hапр(Z) – Hапост(Z) = Hапр(Y),

так как H(Y) = H(Z) и H(Y/Z) = 0, а

max{J(Z; Y)} = Hmax(Y) – max энтропия источника сигнала, получающаяся при равномерном распределении вероятностей символов алфавита Y.
p( y1) = p( y2) = ... = p( ym) = 1/My,
т.е. Hmax(Y) = logaMy


теорема Шеннона

В этом случае среднее количество информации, переносимое одним символом, можно считать:J(Z; Y) = Hапр(Z) – Hапост(Z) = Hапр(Y),так как H(Y) = H(Z) и H(Y/Z)

Слайд 19следовательно, пропускная способность дискретного канала без помех в единицах информации

за единицу времени равна:

Cy = Vy · max{J(Z; Y)} = Vy · Hmax(Y) = Vy · logaMy
или Ck = Vk · logaMy,
Vk – скорость

передачи определяется частотными переключательными способностями канала:


Теорема Шеннона

следовательно, пропускная способность дискретного канала без помех в единицах информации за единицу времени равна:Cy = Vy · max{J(Z; Y)} = Vy · Hmax(Y) = Vy ·

Слайд 20Если источник информации создает поток информации
,



Такой что, производительность источника информации

равна пропускной способности канала , т.е. равна энтропии источника, приходящаяся

на единицу времени(бит,сек=бод)

а канал связи обладает пропускной способностью С ед. информации в единицу времени, то при H(x) ≤ C :
Сообщения, вырабатываемые источником, всегда можно закодировать так, чтобы скорость их передачи была сколь угодно близкой к 



Не существует способа кодирования, позволяющего сделать эту скорость большей, чем Vx max.

Теорема Шеннона

Если источник информации создает поток информации,Такой что, производительность источника информации равна пропускной способности канала , т.е. равна

Слайд 21Согласно сформулированной теореме существует метод кодирования, позволяющий при:
H(x) ≤ C – передавать

всю информацию, вырабатываемую источником при ограниченном объеме буфера;
H(x) > C – такого

метода кодирования не существует, так как требуется буфер, объем которого определяется превышением производительности источника над пропускной способностью канала, умноженной на время передачи.

Теорема Шеннона

Согласно сформулированной теореме существует метод кодирования, позволяющий при:H(x) ≤ C – передавать всю информацию, вырабатываемую источником при ограниченном объеме

Слайд 22если источник информации имеет энтропию H(X),
то сообщения можно закодировать так,

чтобы средняя длина кода lср (количество символов сигнала на одну букву сообщения)

была сколь угодно близкой к величине:

Следствия из теоремы Шеннона

если источник информации имеет энтропию H(X), то сообщения можно закодировать так, чтобы средняя длина кода lср (количество символов сигнала на

Слайд 23

то есть при а = 2 (бит) и My = 2 {0; 1} имеем:



где pi –

вероятность встречи данного элемента алфавита;
li – количество символов в i-ой кодовой комбинации;
ε

– бесконечно малая величина ≥ 0, т.е. lim lср = H(x).

Следствия из теоремы Шеннона

то есть при а = 2 (бит) и My = 2 {0; 1} имеем:где pi – вероятность встречи данного элемента алфавита;li – количество символов

Слайд 24Это следует из равенства:
.
Таким образом, lср выступает критерием эффективности кодирования. Чем ближе lср к H(x),

тем лучше мы закодировали. В инженерной практике это различие можно

считать допустимым 3÷5% (до 10%).


Это следует из равенства:.Таким образом, lср выступает критерием эффективности кодирования. Чем ближе lср к H(x), тем лучше мы закодировали. В инженерной практике

Слайд 25Это следует из равенства:


(Производительность ист.=попускн.сп .к=макс.ск. Канала без помех=произ макс.

скорости передачи сообщения на ср длину)
Таким образом, lср выступает критерием эффективности кодирования.

Чем ближе lср к H(x), тем лучше мы закодировали.

В инженерной практике это различие можно считать допустимым 3÷5% (до 10%).

Следствия из теоремы Шеннона

Это следует из равенства:(Производительность ист.=попускн.сп .к=макс.ск. Канала без помех=произ макс. скорости передачи сообщения на ср длину)Таким образом, lср выступает

Слайд 26Из этого же критерия следует, что если буквы имеют равномерное

распределение вероятностей их употребления, то
H(x) = log2 M,
а lср = log2 M.
Пределы эффективного кодирования:
H(x) ≤ lср ≤

log2 M.

Следствия из теоремы Шеннона

Из этого же критерия следует, что если буквы имеют равномерное распределение вероятностей их употребления, тоH(x) = log2 M,а lср = log2 M. Пределы

Слайд 27В большинстве случаев буквы сообщений преобразуются в последовательности двоичных символов.
Учитывая

статистические свойства источника сообщений, можно минимизировать среднее число двоичных символов,

требующихся для выражения одной буквы сообщения, что при отсутствии шума позволяет уменьшить время передачи или объем запоминающего устройства.

Методики эффективного кодирования

В большинстве случаев буквы сообщений преобразуются в последовательности двоичных символов.Учитывая статистические свойства источника сообщений, можно минимизировать среднее

Слайд 28Шеннон доказал, что сообщения, составленные из букв некоторого алфавита, можно

закодировать так, что среднее число двоичных символов на букву будет

сколь угодно близко к энтропии источника этих сообщений, но не меньше этой величины
Из этого следует, что при выборе каждого символа кодовой комбинации необходимо стараться, чтобы он нес максимальную информацию.
Каждый символ должен принимать значения 0 и 1 по возможности с равными вероятностями и каждый выбор должен быть независим от значений предыдущих символов.

Методики эффективного кодирования

Шеннон доказал, что сообщения, составленные из букв некоторого алфавита, можно закодировать так, что среднее число двоичных символов

Слайд 29Алгоритм использует коды переменной длины: часто встречающийся символ кодируется кодом

меньшей длины, редко встречающийся — кодом большей длины.
Коды Шеннона — Фано префиксные,

то есть никакое кодовое слово не является префиксом любого другого.
Это свойство позволяет однозначно декодировать любую последовательность кодовых слов.

Методика Шеннона-Фэно

Алгоритм использует коды переменной длины: часто встречающийся символ кодируется кодом меньшей длины, редко встречающийся — кодом большей длины.Коды

Слайд 30Символы первичного алфавита m1 выписывают по убыванию вероятностей.
Символы полученного алфавита делят

на две части, суммарные вероятности символов которых максимально близки друг

другу.
В префиксном коде для первой части алфавита присваивается двоичная цифра «0», второй части — «1».
Полученные части рекурсивно делятся и их частям назначаются соответствующие двоичные цифры в префиксном коде.

Методика Шеннона-Фэно

Символы первичного алфавита m1 выписывают по убыванию вероятностей.Символы полученного алфавита делят на две части, суммарные вероятности символов которых

Слайд 31Наибольший эффект сжатия получается в случае, когда вероятности букв представляют

собой целочисленные отрицательные степени двойки. Среднее число символов на букву

в этом случае точно равно энтропии источника.

На шаге деления алфавита существует неоднозначность, так как разность суммарных вероятностей  может быть одинакова для двух вариантов разделения (учитывая, что все символы первичного алфавита имеют вероятность больше нуля).


Методика Шеннона-Фэно

Наибольший эффект сжатия получается в случае, когда вероятности букв представляют собой целочисленные отрицательные степени двойки. Среднее число

Слайд 32Методика Шеннона-Фэно Пример:
В равномерном коде длина сообщения n=3

Среднее число двоичных символов

кода Шеннона-Фано, приходящихся на один символ алфавита источника, равно:
nср=

∑ Li*P(ai) =1*0,4+ 2*0,2+3*0,2+4*0,1+5(0,05+0,05)=2,3 бит
Методика Шеннона-Фэно Пример:В равномерном коде длина сообщения n=3Среднее число двоичных символов кода Шеннона-Фано, приходящихся на один символ

Слайд 33Методика Шеннона-Фэно
В равномерном коде длина сообщения n=3
22

кода Шеннона-Фано, приходящихся на один символ алфавита источника, равно:
nср=

∑ Li*P(ai) =1*0,4+ 2*0,2+3*0,2+4*0,1+5(0,05+0,05)=2,3 бит
Энтропия источника равна:

Методика Шеннона-ФэноВ равномерном коде длина сообщения n=322

Слайд 34Условие эффективного кодирования:
max H(Z): log2 m ≥ lср ≥ H(Z) + ε,
но H(Z)

в последовательностях символов осталась.

Из теоремы Шеннона следует, что эту избыточность

можно устранить, если перейти к кодированию достаточно большими блоками.


Методика Шеннона-Фэно

Условие эффективного кодирования:max H(Z): log2 m ≥ lср ≥ H(Z) + ε, но H(Z)

Слайд 35Рассмотрим сообщения, образованные с помощью алфавита, состоящего из 2-х букв Z1 и Z2 
с

вероятностями появления
P(Z1) = 0.7 и P(Z2) = 0.3.
Поскольку P(Z1) не равно P(Z2),

то последовательность из таких букв будет обладать избыточностью. Однако при буквенном кодировании мы никакого эффекта не получим.
Действительно, на передачу каждой буквы требуется либо 1, либо 0, то есть
lср = 1 · 0.9 + 1 · 0.1 = 1,
в то время как
H(Z) = –0.7log2 0.7 – 0.3log2 0.3 = 0.88бит.
Избыточность составляет R(A)=0,12 бит/символ.

Методика Шеннона-Фэно кодирование блоками

Рассмотрим сообщения, образованные с помощью алфавита, состоящего из 2-х букв Z1 и Z2 с вероятностями появления 	P(Z1) = 0.7 и P(Z2) =

Слайд 36В этом случае средняя длина кодового слова составляет:
с =1,81

бит.
На один символ алфавита источника приходится в среднем

1,81/2=0,905
бит/символ.
Избыточность составляет R(A)=0,905 – 0,88=0,025 бит/символ.

Методика Шеннона-Фэно кодирование блоками

В этом случае средняя длина кодового слова составляет: с =1,81 бит. На один символ алфавита источника приходится

Слайд 37От указанного недостатка свободна методика Хаффмена.

МХ гарантирует однозначное построение

кода с наименьшей для данного распределения вероятностей средним числом символов

на букву.

Метод широко применяется в факсимильных устройствах.

Построение кода Хаффмана основывается на преобразовании, которое называется сжатием алфавита.

Методика Хаффмена

От указанного недостатка свободна методика Хаффмена. МХ гарантирует однозначное построение кода с наименьшей для данного распределения вероятностей

Слайд 38 Расположить символы исходного алфавита А в порядке убывания вероятности.


Два наименее вероятных символа алфавита А будем считать одним символом

нового сжатого алфавита А1.
Располагаем символы алфавита А1 в порядке убывания вероятности. И снова подвергаем его сжатию.
Повторяем процедуру, пока не придем к алфавиту, содержащему всего два символа.

Методика Хаффмена Алгоритм:

Расположить символы исходного алфавита А в порядке убывания вероятности. Два наименее вероятных символа алфавита А будем

Слайд 39Припишем символам последнего алфавита кодовые обозначения 0 (например - верхнему)

и 1 (в нашем примере – нижнему). Это старшие символы

будущих кодовых слов.
В предпоследнем алфавите кодовые обозначения получаются следующим образом:
• Символ, который сохранился в последнем алфавите, имеет то же кодовое обозначение.
• Символам, которые слились в последнем алфавите, приписывают справа 0 (в нашем примере – верхнему символу) и 1 (нижнему символу).
Повторяем процедуру, последовательно возвращаясь к исходному алфавиту.

Методика Хаффмена

Припишем символам последнего алфавита кодовые обозначения 0 (например - верхнему) и 1 (в нашем примере – нижнему).

Слайд 40Методика Хаффмена пример 1

Методика Хаффмена пример 1

Слайд 41Методика Хаффмена пример2

Методика Хаффмена пример2

Слайд 42Методика Хаффмена пример 2

Методика Хаффмена пример 2

Слайд 43Доказано, что код Хаффмана является самым экономным в том смысле,

что никакой другой метод кодирования алфавита не позволяет получить среднее

число
двоичных символов на один символ алфавита меньше, чем в случае кода Хаффмана.

Методика Хаффмена

Доказано, что код Хаффмана является самым экономным в том смысле, что никакой другой метод кодирования алфавита не

Обратная связь

Если не удалось найти и скачать доклад-презентацию, Вы можете заказать его на нашем сайте. Мы постараемся найти нужный Вам материал и отправим по электронной почте. Не стесняйтесь обращаться к нам, если у вас возникли вопросы или пожелания:

Email: Нажмите что бы посмотреть 

Что такое TheSlide.ru?

Это сайт презентации, докладов, проектов в PowerPoint. Здесь удобно  хранить и делиться своими презентациями с другими пользователями.


Для правообладателей

Яндекс.Метрика