Ім'я файлу: Герасимов.docx
Розширення: docx
Розмір: 26кб.
Дата: 25.10.2020

УДК 621.369

Д.О. Герасимов, магістрант,

Г.В. Сокол,к.т.н., доцент

Національний університет «Полтавська політехніка імені Юрія Кондратюка»

АНАЛІЗ ПОШИРЕНИХ АЛГОРИТМІВ СТИСКУ ДЛЯ ПЕРЕДАЧІ ДАНИХ



В наш час для більш ефективного використання пристроїв зберігання і передачі інформації, дані необхідно стиснути. Для цього застосовують спеціальні алгоритми, які допомагають значно пришвидшити процес обміну даними.

В основі стиснення полягає принцип усуненні надлишковості, що міститься в даних. Типовим прикладом є повторювання однакових фрагментів в тексті. Надлишковість, в даному випадку, зникає при заміні послідовності що повторюється, посиланням на закодований фрагмент із зазначенням його довжини.

Основним критерієм, за яким поділяють алгоритми стиску на 2 типи, є відсутність або наявність втрат. Вибір між ними залежить від поставленої задачі. Стискання без втрат дозволяє відновлювати дані без спотворень після стиску, в той час як стиск з втратами в результаті дещо спотворює їх, однак дозволяє зменшити інформаційний об’єм в декілька разів краще.

Найбільш поширеними серед алгоритмів стиску даних є:

  • алгоритми групи KWE,

  • групове кодування (RLE),

  • кодування CCITT (Хафмена).

Алгоритми групи KWE. Його також називають «алгоритм стиску по ключовим словам». В його основі полягає принцип кодування лексичних одиниць групами байт фіксованої довжини. Лексичними одиницями є повторювана послідовність символів, що кодується рядками меншої довжини. Результат оброки подається у вигляді таблиці, яку ще називають словником. Алгоритми стискання даної групи є найефективнішим для текстової інформації що має значний об’єм, і малоефективний для файлів з невеликими розмірами.

Алгоритм RLE. Основою даного алгоритму є ідея виявлення послідовностей повторюваних даних, та заміни даних послідовностей на більш просту структурою. В цій структурі вказується код даних та коефіцієнт повторення. Алгоритм RLE має кращий ефект при стисненні файлів з більшою довжиною послідовності повторюваних даних. Найбільша ефективність алгоритму RLE досягається при обробці графічних даних.

Алгоритм Хафмана. Основою алгоритму Хафмана є ідея кодування бітовими групами. Для початку алгоритм проводить частотний аналіз вхідної послідовності даних, та за результатами встановлюється як часто зустрічається кожний символ в файлі. Після цього проводиться сортування символів по спаданню частоти входження. В результаті символи що зустрічаються найчастіше, кодуються найменшою кількістю біт. В кінці створюється словник, який потім використовується для декодування.

На практиці програмні засоби стискання даних зазвичай використовують синтез цих трьох "чистих" алгоритмів, так як їх ефективність значною мірою залежить від типу та обсягу даних що аналізуються.

На основі проведеного аналізу можна зробити висновок що сучасні алгоритми стиску даних є досить ефективними, і при цьому все ж мають недоліки. Враховуючи постійне збільшення інформаційного об’єму даних, що передаються в інфокомунікаційних мережах зв’язку дана галузь має перспективи подальшого розвитку

ЛІТЕРАТУРА:

  1. СЖАТИЕ ПРИ ПЕРЕДАЧЕ ИНФОРМАЦИИ [Електронний ресурс] / В. В. Семенюк. – 2000. – Режим доступу до ресурсу: https://www.compression.ru/download/articles/rev_univ/semenyuk_1999_transcom.htm.

  2. Алгоритмы сжатия данных без потерь. – 2014. – Режим доступу до ресурсу: https://habr.com/ru/post/231177/.

  3. Алгоритмы сжатия: описание, основные приемы, характеристики – Режим доступу до ресурсу: https://fb.ru/article/457728/algoritmyi-sjatiya-opisanie-osnovnyie-priemyi-harakteristiki.

ANALYSIS OF ADVANCED COMPRESSION ALGORITHMS FOR DATA TRANSMISSION

D. Herasymov, master’s student;

G. Sokol, PhD (TechnicalSciences), Associate professor;

Poltava National Technical Yuri Kondratyuk University
скачати

© Усі права захищені
написати до нас