Метод Шенно-Фано — презентация
logo
Метод Шенно-Фано
  • Метод Шенно-Фано
  • 1 На любой из позиций двоичного кода может быть с равной вероятностью переданы «0» (отсутствие импульса) и «1» (импульс). Помехи преобразуют «1» в «0» с
  • 2 Чему равно количество информации, если получили сообщение о выходе из строя одного из восьми станков в данном цехе?
  • 3 В коробке находятся 16 игрушек, среди них 4 зайца, 2 медведя. Сколько битов информации содержится в сообщении о том, что из коробки достали игрушку зайца, а
  • Метод Шенно-Фано
  • 4 По каналу связи передается сообщение из ансамбля:   U = ( )   Средняя длительность передачи одного элемента сообщения в канале τ = 0,2мс. Шум в канале
  • Метод Шенно-Фано
  • Метод Шенно-Фано
  • 5 Пусть алфавит источника содержит шесть элементов {А, Б, В, Г, Д, Е}, появляющихся с вероятностями Р(А)=0,15, Р(Б)=0,25, Р(В)=0,1, Р(Г)=0,13, Р(Д)=0,25,
  • Метод Шенно-Фано
  • Метод Шенно-Фано
  • Метод Шенно-Фано
  • 6 Построить код Хаффмана для ансамбля сообщений { x i }, ι= 1 … 8 c вероятностями P ( X ) = { }. Определить характеристики кода.
  • 7 Сколько информационных символов содержится в коде, исправляющем одиночную ошибку при числе информационных комбинации N=32.
1/14

Первый слайд презентации: Метод Шенно-Фано

Выполнил студент группы 6011 мочалин роман игоревич

Изображение слайда

A).Рассчитаем вероятность появления игрушки зайца: Р1=4/16=1/4. B) Выразим количество информации в битах в сообщении о том, что из мешка достали игрушку зайца через “х1”. C) Применяя формулу Хартли рассчитаем это количество: log2(1/p)=x1, log2(4)=x1. Отсюда 2^x1=4. Следовательно, x1=2. D) Рассчитаем вероятность появления игрушки медведя: Р2=2/16=1/8.

Изображение слайда

Слайд 5

E) Выразим количество информации в битах в сообщении о том, что из мешка достали игрушку медведя через “х2”. F) Применяя формулу Хартли рассчитаем это количество: log2(1/p)=х2, log2(8)=х2. Отсюда 2^х2=8. Следовательно, х2=3. G) В сообщение о том, что из мешка достали игрушку зайца содержится 2 бита информации, а в сообщение о том, что из мешка достали игрушку медведя – 3 бита информации.

Изображение слайда

Слайд 6: 4 По каналу связи передается сообщение из ансамбля:   U = ( )   Средняя длительность передачи одного элемента сообщения в канале τ = 0,2мс. Шум в канале отсутствует. Определить пропускную способность канала и скорость передачи информации

Пропускная способность дискретного канала без шума определяется:

Изображение слайда

Слайд 7

где М=4, Скорость передачи информации определяется по формуле:, где т.к. шум отсутствует. Энтропию найдем по формуле Шеннона :

Изображение слайда

Слайд 8

Подставляя исходные значения в формулу, получаем: H(U) = 0,34 + 0,04 = = 1,5 бит

Изображение слайда

Слайд 9: 5 Пусть алфавит источника содержит шесть элементов {А, Б, В, Г, Д, Е}, появляющихся с вероятностями Р(А)=0,15, Р(Б)=0,25, Р(В)=0,1, Р(Г)=0,13, Р(Д)=0,25, Р(Е)=0,12. Найти энтропию такого источника, среднее число символов на одну букву при кодировании методом Ш-Ф

Найдем энтропию: Алгоритм построения сжимающего кода Шеннона – Фано заключается в следующем.

Изображение слайда

Слайд 10

A) Все m символов дискретного источника располагаются в порядке убывания вероятностей их появления (табл. 4.2 ). Таблица 4.2. Построение  кода  Шеннона- Фано

Изображение слайда

Слайд 11

B) Образованный столбец символов делится на две группы таким образом, чтобы суммарные  вероятности  каждой группы мало отличались друг от друга. C) Верхняя группа кодируется символом «1», а нижняя – «0 ». D) Каждая группа делится на две подгруппы с близкими суммарными вероятностями; верхняя подгруппа кодируется символом «1», а нижняя – «0 ». E) Процесс деления и кодирования продолжается до тех пор, пока в каждой подгруппе не окажется по одному символу сообщения источника. F) Записывается код для каждого символа источника; считывание кода осуществляется слева направо.

Изображение слайда

Слайд 12

При использовании простейшего равномерного кода для кодирования шести элементов алфавита источника потребуется по три двоичных символа на каждую букву сообщения. Если же используется код Шеннона – Фано, то среднее число символов на одну букву, что меньше, чем при простейшем равномерном коде и незначительно отличается от  энтропии  источника.

Изображение слайда

Слайд 13: 6 Построить код Хаффмана для ансамбля сообщений { x i }, ι= 1 … 8 c вероятностями P ( X ) = { }. Определить характеристики кода

Сообщения Х 1 Х 2 Х 3 Х 4 Х 5 Х 6 Х 7 Х 8 Код 01 10 000 001 1100 1101 1110 1111 Таблица кодирования Средняя длина кодового слова в битах N cp. = 2.75* bit. Минимально возможная средняя длина кодового слова N cp.min = 2.75 * bit. Избыточность кода R=0.

Изображение слайда

Последний слайд презентации: Метод Шенно-Фано: 7 Сколько информационных символов содержится в коде, исправляющем одиночную ошибку при числе информационных комбинации N=32

Для вычисления основных параметров кода Хэмминга задается количество информационных комбинаций Из этого следует, что n ­ и = 5

Изображение слайда

Похожие презентации