Разделы презентаций


1 Теория информации Теорема кодирования Лекция 7. Теорема кодирования

Содержание

Теория информацииЗадача − представление сообщений из заданного дискретного множества последовательностью символов, принадлежащих заданному алфавиту.Цель − конструирование последовательностей символов, минимизирующих среднее число символов, приходящихся на одно сообщение по ансамблю статистически независимых сообщений.Лекция

Слайды и текст этой презентации

Слайд 1Теория информации
Теорема кодирования
Лекция 7. Теорема кодирования

Теория информацииТеорема кодированияЛекция 7. Теорема кодирования

Слайд 2Теория информации
Задача − представление сообщений из заданного дискретного множества последовательностью

символов, принадлежащих заданному алфавиту.
Цель − конструирование последовательностей символов, минимизирующих среднее

число символов, приходящихся на одно сообщение по ансамблю статистически независимых сообщений.

Лекция 7. Теорема кодирования

Теория информацииЗадача − представление сообщений из заданного дискретного множества последовательностью символов, принадлежащих заданному алфавиту.Цель − конструирование последовательностей

Слайд 3Теория информации
Нижняя граница для средней длины кодового слова

ансамбль из сообщений , ,...,

,..., с соответствующими вероятностями .
− число символов в алфавите.
– число символов в кодовом слове, соответствующем сообщению .
Среднее число символов на одно сообщение:
 

Найдем нижнюю границу для .

Лекция 7. Теорема кодирования

Теория информацииНижняя граница для средней длины кодового слова  − ансамбль из   сообщений  ,

Слайд 4Теория информации
Нижняя граница для средней длины кодового слова


при


− пропускная способность кодового алфавита

Лекция 7. Теорема кодирования

Теория информацииНижняя граница для средней длины кодового слова

Слайд 5Теория информации
Общие правила конструирования кодовых слов со средней длиной, достаточно

близкой к нижней границе по Шеннону
В каждой из позиций

кодового слова различные символы алфавита должны использоваться с равными вероятностями, с тем чтобы максимизировать среднее количество информации, доставляемое ими.
Вероятности появления символов в каждой позиции кодового слова должны не зависеть от всех предыдущих символов.

Лекция 7. Теорема кодирования

Теория информацииОбщие правила конструирования кодовых слов со средней длиной, достаточно близкой к нижней границе по Шеннону В

Слайд 6Теория информации
Оптимальное множество кодовых слов
для равновероятных сообщений
Лекция 7. Теорема кодирования

Теория информацииОптимальное множество кодовых словдля равновероятных сообщенийЛекция 7. Теорема кодирования

Слайд 7Теория информации
Оптимальное множество кодовых слов
2*2*0,25+2*3*0,125+4*4*0,0625=1+0,75+1=2,75
Лекция 7. Теорема кодирования

Теория информацииОптимальное множество кодовых слов2*2*0,25+2*3*0,125+4*4*0,0625=1+0,75+1=2,75Лекция 7. Теорема кодирования

Слайд 8Теория информации
Кодовое дерево для множества кодовых слов







Лекция 7. Теорема кодирования

Теория информацииКодовое дерево для множества кодовых словЛекция 7. Теорема кодирования

Слайд 9Теория информации
Кодовое дерево для множества кодовых слов
Сообщения могут быть сопоставлены

только концевым узлам, иначе алфавит становится троичным (0, 1, остановка).

Кодовое слово - совокупность указаний для достижения узла, соответствующего сообщению. Ни одно из кодовых слов не совпало с началом (префиксом) какого-либо более длинного кодового слова. Иначе при непрерывной передаче сообщений невозможно однозначно разбить последовательность символов на последовательные сообщения.

Лекция 7. Теорема кодирования

Теория информацииКодовое дерево для множества кодовых словСообщения могут быть сопоставлены только концевым узлам, иначе алфавит становится троичным

Слайд 10Теория информации
Неравенство Крафта

Теорема. Неравенство
является необходимым и достаточным условием существования кодовых

слов, соответствующих концевым узлам дерева с длинами, равными

.
Доказательство. Покажем сначала, что это соотношение необходимо.
Из каждого узла дерева исходит не более ветвей. Отсюда следует, что может быть не более узлов порядка .

Лекция 7. Теорема кодирования

Теория информацииНеравенство КрафтаТеорема. Неравенствоявляется необходимым и достаточным условием существования кодовых слов, соответствующих концевым узлам дерева с длинами,

Слайд 11Теория информации
Неравенство Крафта
Наличие концевого узла порядка (не большего,

чем ) исключает возможных

узлов порядка


 


Необходимость условия теоремы доказана.

Лекция 7. Теорема кодирования

Теория информацииНеравенство КрафтаНаличие концевого узла порядка   (не большего, чем  ) исключает

Слайд 12Теория информации
Неравенство Крафта
Для доказательства достаточности условия необходимо показать, что дерево

с концевыми узлами, т. е. множество кодовых слов с заданными

длинами, может быть фактически построено.
Пусть .
Предположим, что удалось построить дерево, содержащее все заданные концевые узлы порядка, меньшего , и что дерево должно содержать концевых узлов порядка . Согласно условию

Лекция 7. Теорема кодирования

Теория информацииНеравенство КрафтаДля доказательства достаточности условия необходимо показать, что дерево с концевыми узлами, т. е. множество кодовых

Слайд 13Теория информации
Неравенство Крафта



– число концевых узлов порядка, меньшего чем
Лекция 7.

Теорема кодирования

Теория информацииНеравенство Крафта– число концевых узлов порядка, меньшего чемЛекция 7. Теорема кодирования

Слайд 14Теория информации
Неравенство Крафта



– число концевых узлов порядка, меньшего чем

Число доступных

узлов порядка :
Отсюда следует, что число доступных узлов

порядка не меньше заданного числа концевых узлов того же порядка, а потому все они могут быть включены в дерево. Что и требовалось доказать.

Лекция 7. Теорема кодирования

Теория информацииНеравенство Крафта– число концевых узлов порядка, меньшего чемЧисло доступных узлов порядка   :Отсюда следует, что

Слайд 15Теория информации
Дерево, содержащее концевых узлов порядка
, ,..., может

иметь или не иметь еще добавочные концевые узлы. Заданное множество

концевых узлов называется полным, если существует дерево, имеющее эти концевые узлы и не имеющее никаких других концевых узлов (т.е. если соответствующее дерево не может быть дополнено никакими узлами), т. е., другими словами, если заданное множество узлов целиком заполняет дерево.

Лекция 7. Теорема кодирования

Теория информацииДерево, содержащее   концевых узлов порядка, ,..., может иметь или не иметь еще добавочные концевые

Слайд 16Теория информации
Теорема. Равенство
 

является необходимым и достаточным условием того, чтобы заданное множество концевых узлов было полным.
Теорема. Равенство ,  
где – целое положительное число, является необходимым и достаточным условием существования дерева с полным множеством из
концевых узлов.

Лекция 7. Теорема кодирования

Теория информацииТеорема. Равенство 

Слайд 17Теория информации
Доказательство.
– число имеющихся в дереве свободных узлов, когда

дерево построено вплоть до порядка
– число промежуточных узлов порядка

, когда дерево построено до узлов порядка более высокого, чем .




Необходимость условия доказана.


Лекция 7. Теорема кодирования

Теория информацииДоказательство. – число имеющихся в дереве свободных узлов, когда дерево построено вплоть до порядка – число

Слайд 18Теория информации
Основная теорема кодирования
Теорема. При заданном ансамбле из


сообщений с энтропией и алфавитом, состоящим из символов,

возможно так закодировать сообщения ансамбля посредством последовательностей символов, принадлежащих заданному алфавиту, что среднее число символов на сообщение удовлетворяет неравенству
  . (1)
 
Число не может быть сделано меньше, чем нижняя граница в выражении (1).

Лекция 7. Теорема кодирования

Теория информацииОсновная теорема кодированияТеорема. При заданном ансамбле   из сообщений с энтропией   и алфавитом,

Слайд 19Теория информации
Основная теорема кодирования
Вывод нижней границы

Пусть
Лекция 7. Теорема кодирования

Теория информацииОсновная теорема кодированияВывод нижней границыПустьЛекция 7. Теорема кодирования

Слайд 20Теория информации
Вывод верхней границы.
Лемма. Для существования множества кодовых слов со

средней длиной
 


 необходимо и достаточно, чтобы для каждого сообщения выполнялось условие
 
, где - целое число.  
Когда это условие выполнено,
 

Лекция 7. Теорема кодирования

Теория информацииВывод верхней границы.Лемма. Для существования множества кодовых слов со средней длиной  

Слайд 21Теория информации
Вывод верхней границы.

Лекция 7. Теорема кодирования

Теория информацииВывод верхней границы.Лекция 7. Теорема кодирования

Слайд 22Теория информации
Источники статистически независимых сообщений
Теорема. При любом заданном как

угодно малом положительном числе можно найти натуральное число

и соответствующее множество кодовых слов, такое, что среднее число символов на сообщение удовлетворяет неравенству
 
.
 Обратно, невозможно найти натуральное число и соответствующее множество кодовых слов, такое, что
 
.

Лекция 7. Теорема кодирования

Теория информацииИсточники статистически независимых сообщений Теорема. При любом заданном как угодно малом положительном числе  можно найти

Слайд 23Теория информации
Источники статистически независимых сообщений
Доказательство.
 

; ;

Когда каждое сообщение статистически независимо от всех предыдущих сообщений, то кодирование последовательности сообщений вместо отдельных сообщений может уменьшить среднее число символов на сообщение не более чем на один символ.

Лекция 7. Теорема кодирования

Теория информацииИсточники статистически независимых сообщенийДоказательство.  

Слайд 24Теория информации
Метод оптимального кодирования Хафмана
Этот метод всегда приводит к

получению оптимального множества кодовых слов в том смысле, что никакое

другое множество не имеет меньшего среднего числа символов на сообщение.
1-й шаг. сообщений располагаются в порядке убывания вероятностей.
2-й шаг. Пусть – целое число, удовлетворяющее двум требованиям
, , где - целое положительное число.

Лекция 7. Теорема кодирования

Теория информацииМетод оптимального кодирования Хафмана Этот метод всегда приводит к получению оптимального множества кодовых слов в том

Слайд 25Теория информации
Метод оптимального кодирования Хафмана
Группируем вместе сообщений, имеющих наименьшие

вероятности, и вычисляем общую вероятность такого подмножества сообщений.
3-й шаг. Из

первоначального ансамбля образуем вспомогательный ансамбль сообщений, рассматривая подмножество из сообщений, образованных на 2-м шаге, как отдельное сообщение с вероятностью, равной вероятности всего подмножества. Вновь располагаем сообщения этого вспомогательного ансамбля в порядке убывания вероятностей.

Лекция 7. Теорема кодирования

Теория информацииМетод оптимального кодирования Хафмана Группируем вместе сообщений, имеющих наименьшие вероятности, и вычисляем общую вероятность такого подмножества

Слайд 26Теория информации
Метод оптимального кодирования Хафмана
4-й шаг. Образуем подмножество из

D сообщений вспомогательного ансамбля, имеющих наименьшие вероятности, и вычисляем их

общую вероятность.
5-й шаг. Из первого вспомогательного ансамбля образуем второй вспомогательный ансамбль, рассматривая подмножество из сообщений, образованное на четвертом шаге, как отдельное сообщение с вероятностью, равной общей вероятности всего подмножества. Располагаем сообщения этого второго вспомо­гательного ансамбля в порядке убывания вероятностей.

Лекция 7. Теорема кодирования

Теория информацииМетод оптимального кодирования Хафмана 4-й шаг. Образуем подмножество из D сообщений вспомогательного ансамбля, имеющих наименьшие вероятности,

Слайд 27Теория информации
Метод оптимального кодирования Хафмана
6-й шаг. Образуем последовательные вспомогательные ансамбли

путем повторения 4-го и 5-го шагов, пока в ансамбле не

останется единственное сообщение с вероятностью единица.
7-й шаг. Проводя линии, соединяющие сообщения, образующие последовательные подмножества, получаем дерево, в котором отдельные сообщения являются концевыми узлами. Соответствующие им кодовые слова можно построить, приписывая различные символы из заданного алфавита ветвям, исходящим из каждого промежуточного узла. Только один из промежуточных узлов может иметь меньше чем
ветвей, а именно узел, образованный на 2-м шаге.

Лекция 7. Теорема кодирования

Теория информацииМетод оптимального кодирования Хафмана6-й шаг. Образуем последовательные вспомогательные ансамбли путем повторения 4-го и 5-го шагов, пока

Слайд 28Теория информации
Оптимальное множество двоичных кодовых слов
Лекция 7. Теорема кодирования

Теория информацииОптимальное множество двоичных кодовых словЛекция 7. Теорема кодирования

Слайд 29Теория информации
Оптимальное множество троичных кодовых слов
Лекция 7. Теорема кодирования

Теория информацииОптимальное множество троичных кодовых словЛекция 7. Теорема кодирования

Слайд 30Теория информации
Метод оптимального кодирования Хафмана
Условие 1. Сообщениям меньшей вероятности должны

быть сопоставлены слова большей длины.
Условие 2. Два наименее вероятных сообщения

должны соответствовать кодовым словам одной и той же длины (максимальная длина), т. е. узлам одного и того же порядка.
Условие 3. Число концевых узлов порядка , сопоставленных сообщениям, и число
– промежуточных узлов порядка
должны удовлетворять неравенству
 
.

Лекция 7. Теорема кодирования

Теория информацииМетод оптимального кодирования ХафманаУсловие 1. Сообщениям меньшей вероятности должны быть сопоставлены слова большей длины.Условие 2. Два

Слайд 31Теория информации
Метод оптимального кодирования Хафмана
Условие 4. Из каждого промежуточного узла

порядка меньшего, чем , должно

исходить
ветвей.
Условие 5. Предположим, что некоторый промежуточный узел преобразован в концевой, т. е. исключены все порождаемые им ветви и узлы. Сопоставим этому узлу составное сообщение, имеющее вероятность, равную сумме вероятностей сообщений, сопоставленных исключенным концевым узлам. Тогда, если первоначальное дерево было оптимальным для исходного ансамбля сообщений, новое дерево должно быть оптимальным для нового ансамбля сообщений.

Лекция 7. Теорема кодирования

Теория информацииМетод оптимального кодирования ХафманаУсловие 4. Из каждого промежуточного узла порядка меньшего, чем

Слайд 32Теория информации
Метод оптимального кодирования Хафмана
Вспомогательное условие 6. Каждый промежуточный узел

порядка, меньшего , должен порождать ветвей.
Лекция

7. Теорема кодирования
Теория информацииМетод оптимального кодирования ХафманаВспомогательное условие 6. Каждый промежуточный узел порядка, меньшего  , должен порождать

Слайд 33Теория информации
Построение оптимального кода для русского алфавита
При кодировании двоичных номеров

букв:

Лекция 7. Теорема кодирования

Теория информацииПостроение оптимального кода для русского алфавитаПри кодировании двоичных номеров букв: Лекция 7. Теорема кодирования

Слайд 34Теория информации
Построение оптимального кода для русского алфавита
Лекция 7. Теорема кодирования

Теория информацииПостроение оптимального кода для русского алфавитаЛекция 7. Теорема кодирования

Слайд 35Теория информации
Построение оптимального кода для русского алфавита (

)

Лекция 7. Теорема кодирования

Теория информацииПостроение оптимального кода для русского алфавита (

Обратная связь

Если не удалось найти и скачать доклад-презентацию, Вы можете заказать его на нашем сайте. Мы постараемся найти нужный Вам материал и отправим по электронной почте. Не стесняйтесь обращаться к нам, если у вас возникли вопросы или пожелания:

Email: Нажмите что бы посмотреть 

Что такое TheSlide.ru?

Это сайт презентации, докладов, проектов в PowerPoint. Здесь удобно  хранить и делиться своими презентациями с другими пользователями.


Для правообладателей

Яндекс.Метрика