Обчислення коефіцієнтів відносної ефективності і статичного стискання

Відповідно до формули (22) середня довжина кодового слова становить:

де K - число букв первинного алфавіту;

nk - довжина k-го кодового слова;

p (ak) - ймовірність появи k-го кодового слова.

= Log2 4 1,79 = 2 1,79 = 3,58.

Розподіл ймовірностей букв первинного алфавіту в розділах 8 і 9 однакові, тому при обчисленні значення коефіцієнта відносної ефективності скористаємося значенням ентропії первинного алфавіту, обчисленого в стовпці 6 таблиці 2:

Обчислимо коефіцієнт статистичного стиснення для побудованого недвійковий коду Хаффмена:

Порівняємо показники якості недвійковий (m = 4) коду методом Хаффмена і двійкового коду методом Шеннона-Фано:

В даній контрольній роботі були побудовані два оптимальних нерівномірних коду за методом Шеннона-Фано і Хаффмена - це дві універсальні методики побудови ОНК. Неоднозначність методики Шеннона-Фано тим помітніше, чим вище підставу коду m2 і чим менше m1.

До недоліку методик побудови ОНК методом Хаффмена слід віднести громіздкість побудови з ростом m1, тому треба використовувати метод Шеннона-Фано. Перевага методу Хаффмена позначається зі зростанням підстави коду m2. Більш коротка довжина кодових слів у вторинному алфавіті виходить за рахунок оптимального вибору кількості вершин на найнижчому рівні кодового дерева. Недотримання цих умов призводить до кодів з великою середньою довжиною кодових слів. З розрахунку коефіцієнтів статистичного стиснення для методу Шеннона-Фано видно, що ентропія кодованого первинного алфавіту max = 3,3670 біт / символ близька

до середньої довжині кодового слова = 3,41.

Якщо H =. то код є оптимальним для даного ансамблю.

Коефіцієнт відносної ефективності показує наскільки використовується статистична надмірність переданого повідомлення.

Коефіцієнт статистичного стиснення = 1,0513 - характеризує зменшення кількості двійкових знаків на символ повідомлення при застосуванні ОНК в порівнянні з застосуванням методів нестатистичні кодування.

Можна зробити висновок, що для даного випадку метод кодування Шеннона-Фано є більш ефективним, ніж метод Хаффмана (= 1,0513> і).

Однією з причин такого висновку є те обставина, що на першому етапі (метод Хаффмана) об'єднуються три букви замість потенційно можливих чотирьох (наприклад, при K = 7, К = 10 або K = 13). Друга причина - в методі Хаффмана використовується інша система числення.

Таким чином, перевага оптимальних кодів полягає в тому, що вони дозволяють вести передачу інформації з оптимальною швидкістю. Недолік полягає в тому, що оптимальні коди найбільш беззахисні від впливу перешкод, тобто мають найменшої помехоустойчивостью.

Контрольне завдання 3

Схожі статті