ЗМІСТ
Введення
1. Інформаційні процеси
1.1. Пошук інформації.
2. Вимірювання інформації
2.1. Вимірювання інформації в побуті (інформація як новизна)
2.2. Вимірювання інформації в техніці
2.3. Вимірювання інформації в теорії інформації (інформація як знята невизначеність)
3. Кодування інформації
3.1. Кодування інформації в комп'ютері
3.2. Кодування текстової інформації
3.3. Кодування графічної інформації
3.4. Кодування звуку
3.5. Кодування чисел
3.6. Поняття про системи числення
3.6.1. Що таке система числення
3.6.2. Двійкова система числення
3.6.3. Вісімкова система числення
3.6.4. Шістнадцяткова система числення
3.6.5. Переклади чисел, найпростіша арифметика в системах числення
3.6.6. Як представляються в комп'ютері цілі числа
3.6.7. Змішані системи числення
4. Інформатизація суспільства
4.1. Роль засобів масової інформації
4.2. Інформаційна культура
4.3. Наукова картина світу та інформатика
Введення
Інформаційні процеси (збір, обробка та передача інформації) завжди відігравали важливу роль у науці, техніці та житті суспільства. У ході еволюції людства проглядається стійка тенденція до автоматизації цих процесів, хоча їх внутрішній зміст по суті залишилося незмінним.
Інформація не існує сама по собі, вона проявляється в інформаційних процесах. Людина живе у світі інформації і протягом усього життя бере участь у всіляких інформаційних процесах.
Основними інформаційними процесами є: пошук, збір, зберігання, передача, обробка, використання і захист інформації.
Дії, що виконуються з інформацією, називаються інформаційними процесами.
Процеси, пов'язані з отриманням, зберіганням, обробкою і передачею інформації, називаються інформаційними.
Інформаційний процес - сукупність послідовних дій (операцій), вироблених над інформацією (у вигляді даних, відомостей, фактів, ідей, гіпотез, теорій тощо), для отримання будь-якого результату (досягнення мети) [3].
Інформація проявляється саме в інформаційних процесах, які завжди протікають в будь-яких системах (соціальних, соціотехнічних, біологічних і пр).
Інформаційні процеси, які здійснюються за певних інформаційних технологій, складає основу інформаційної діяльності людини. Комп'ютер є універсальним пристроєм для автоматизованого виконання інформаційних процесів.
1. Інформаційні процеси
1.1. Пошук інформації
Пошук інформації - витяг, що зберігається.
Існують ручний і автоматизований методи пошуку інформації в сховищах. Основними методами пошуку інформації є:
безпосереднє спостереження;
спілкування з фахівцями з питання, що цікавить;
читання відповідної літератури;
перегляд теле-, відеопрограм,
прослуховування радіопередач і аудіокасет;
робота в бібліотеках, архівах, інформаційних систем та інші методи.
Для того щоб зібрати найбільш повну інформацію і підвищити ймовірність прийняття правильного рішення, необхідно використовувати різноманітні методи пошуку інформації.
Пошук інформації може бути ефективним і неефективним. Успіх буде у великій мірі буде залежати від того, як ви організували пошук інформації.
У процесі пошуку інформації може зустрітися сама різна інформація, як корисна, так і даремна, як достовірна, так і помилкова, актуальна і застаріла, об'єктивна та суб'єктивна. Для прискорення процесу отримання повної інформації з питання, що цікавить стали складати каталоги (алфавітний, предметний і ін.)
Наступним кроком у прискоренні пошуку інформації стало створення спеціальних наукових журналів. Справжній переворот в службі зберігання, відбору інформації виробили автоматизовані інформаційно-пошукові системи (ІПС). Використання ІПС дозволяє заощадити час і зусилля, витрачені на перегляд ящиків, заповнених картками. Крім того, бібліотеки отримують можливість істотно скоротити простір, який надається на зберігання каталогів.
2. Збір інформації - це діяльність суб'єкта, в ході якої він отримує відомості про цікавить його об'єкті. Збір інформації може здійснюватися або людиною, або за допомогою технічних засобів і систем - апаратно.
Наприклад, користувач може отримати інформацію про рух поїздів або літаків сам, вивчивши розклад, або ж від іншої людини безпосередньо, або через якісь документи, складені цією людиною, або за допомогою технічних засобів (автоматичної довідки, телефону і т.д.) . Завдання збору інформації не може бути вирішена у відриві з інших завдань, - завдання обміну інформацією (передачі).
Зберігання інформації - процес підтримки вихідної інформації у вигляді, що забезпечує видачу даних за запитами кінцевих користувачів у встановлені терміни [8].
Зберігання інформації - процес такий же древній, як життя людської цивілізації. Вже в давнину людина зіткнувся з необхідністю зберігання інформації: карби на деревах, щоб не заблукати під час полювання; рахунок предметів за допомогою камінчиків, вузликів; зображення тварин і епізодів полювання на стінах печер.
З народженням писемності і виникло спеціальний засіб фіксування і поширення думки в просторі і в часі. Народилася документована інформація - рукописи та рукописні книги, з'явилися своєрідні інформаційно-накопичувальні центри - стародавні бібліотеки і архіви. Поступово письмовий документ став і знаряддям управління (укази, закони, накази).
Другим інформаційним стрибком стало книгодрукування. З його виникненням найбільший обсяг інформації став зберігатися в різних друкованих виданнях, і для її отримання особа звертається до місця їх зберігання.
Зберігання інформації відбувається або в пам'яті людини, або на зовнішніх носіях. У пам'яті людини інформація може зберігатися як в образній формі (я пам'ятаю, як пахне троянда), так і в знаковій (словесної, формульної). Інформацію, що зберігається в пам'яті, називають оперативною. Інформацію, що зберігається на зовнішніх носіях (аркуші паперу, диску, платівці тощо), називають зовнішньою. Вона може бути переведена в розряд оперативної, якщо буде "прочитана" людиною. Зовнішні носії виконують роль "додаткової" пам'яті людини. На них можуть зберігатися звук, тексти, зображення.
Пристрої, на яких зберігається інформація, називаються інформаційними носіями.
Інформацію потрібно зберігати так, щоб її легко було знайти. Для цього люди придумали різні способи організації зберігання інформації.
Різна інформація вимагає різного часу зберігання: проїзний квиток треба зберігати тільки протягом поїздки; програму телебачення - поточний тиждень; шкільний щоденник - навчальний рік; атестат зрілості - до кінця життя; історичні документи - кілька століть.
ЕОМ призначена для компактного зберігання інформації з можливістю швидкого доступу до неї.
Основні сховища інформації | ||
Для людини | Для суспільства | Комп'ютерні сховища |
Пам'ять | Бібліотеки, відіотекі, фонотеки, архіви, патентні бюро, музеї, картинні галереї | Бази і банки даних, інформаційно-пошукові системи, електронні енциклопедії, медіатеки |
Передача інформації може здійснюватися в письмовій, усній формах або за допомогою жестів. Людина отримує інформацію за допомогою органів чуття (зір - 90%; слух - 9%; нюх, дотик, смак - 1%). Людське мислення можна розглядати, як процес обробки інформації. Отримана інформація зберігається на носіях інформації різного виду: книги, фотографії відеокасети, лазерні диски т.д.
Встановлено спільність інформаційних процесів у живій природі, суспільстві і техніці. Розглянемо приклади:
Рослинний світ. Навесні виростають листя, які восени опадают.д.ліна світлового дня, температура повітря та грунту, - це сигнали, які сприймаються клітинами живих організмів, як інформація, яка обробляється і впливає на обмінні фізико-хімічні процеси, що протікають в живій клітині, - управляють ними. Передача йде в межах власних живих клітин (від кореня до листків і назад).
Тваринний світ. Тварини мають нервову систему, що управляє всіма стадіями інформаційного процесу: сприйняття, передачі, обробки та використання інформації. На відміну від рослинного світу, тварини можу передавати інформацію один одному.
У неживій природі інформаційні процеси, існують лише в техніці. Така техніка повторює (моделює) деякі дії людини і здатна в цих випадках замінити його. Наприклад, роботи-маніпулятори і т.д.
Діяльність людини завжди була пов'язана з передачею інформації. Стародавній спосіб передачі - лист, відправлений з гінцем. Розмовляючи, ми передаємо один одному інформацію. Людство придумало багато пристроїв для швидкої передачі інформації: телеграф, радіо, телефон, телевізор. До числа пристроїв, що передають інформацію з великою швидкістю, відносяться електронні обчислювальні машини, хоча правильніше було б сказати телекомунікаційні мережі.
У передачі беруть участь дві сторони:
джерело - той, хто передає інформацію,
приймач - той, хто її отримує.
Наприклад, вчитель передає інформацію учням. Учитель - джерело. Учень - приймач. В африканських джунглях, у старовину, важливі новини передавали від одного племені до іншого барабанним боєм. Моряки іноді користуються прапорцевим абеткою. Розмовляючи, ми передаємо один одному інформацію. Інформація ЕОМ виводиться на екран монітора - це теж передача інформації.
Дуже часто при передачі інформації виникають перешкоди. І тоді інформація від джерела до приймача надходить у спотвореному вигляді.
Помилки, що виникають при передачі інформації, бувають 3-х видів:
частина правильної інформації замінюється на неправильну;
до переданої інформації додаються зайві, сторонні повідомлення;
частину інформації при передачі пропадає.
Інформація передається у вигляді повідомлень від деякого джерела інформації до її приймача за допомогою каналу зв'язку між ними. Джерело посилає передане повідомлення, яке кодується в передаваний сигнал. Цей сигнал посилається по каналу зв'язку. У результаті в приймачі з'являється сигнал, що приймається, який декодується і стає прийнятою повідомленням.
Канал зв'язку - сукупність технічних пристроїв, що забезпечують передачу сигналу від джерела до одержувача.
Кодуючий пристрій - пристрій, призначений для кодування (перетворення початкового повідомлення джерела інформації до вигляду, зручного для передачі інформації) інформації.
Декодер - пристрій для перетворення отриманого повідомлення у вихідне.
Приклади:
повідомлення, що містить інформацію про прогноз погоди, передається приймачу (телеглядачеві) від джерела - фахівця-метеоролога за допомогою каналу зв'язку - телевізійної передавальної апаратури і телевізора.
телефонна розмова:
Джерело повідомлення - людина говорить;
Кодуючий пристрій - мікрофон - перетворить звуки в електричні імпульси;
Канал зв'язку - телефонна мережа (провід);
Декодер - та частина трубки, яку ми підносимо до вуха, тут електричний сигнал перетвориться в звук;
Приймач інформації - людина слухає.
Загальна схема передачі інформації може бути такою як представлено на рис.2:
Рис.2. Схема передачі інформації
У процесі передачі інформація може втрачатися, спотворюватися: спотворення звуку в телефоні, атмосферні перешкоди по радіо, спотворення або затемнення зображення в телебаченні, помилки при передачі в телеграфі. Ці перешкоди (шуми) спотворюють інформацію. На щастя, існує наука, що розробляє способи захисту інформації, - кріптологія.
5. Обробка інформації.
Обробка інформації - отримання одних інформаційних об'єктів з інших інформаційних об'єктів шляхом виконання деяких алгоритмів.
Обробка є однією з основних операцій, виконуваних над інформацією, і головним засобом збільшення обсягу і різноманітності інформації. Засоби обробки інформації - це всілякі пристрої та системи, створені людством, і в першу чергу, комп'ютер - універсальна машина для обробки інформації. Комп'ютери обробляють інформацію шляхом виконання деяких алгоритмів. Живі організми і рослини обробляють інформацію за допомогою своїх органів і систем.
Після рішення задачі обробки інформації результат повинен бути виданий кінцевим користувачам в необхідному вигляді. Ця операція реалізується в ході вирішення завдань видачі інформації. Видача інформації, як правило, проводиться за допомогою зовнішніх пристроїв ЕОМ у вигляді текстів, таблиць, графіків і ін
Обробка інформації здійснюється людиною або в умі, або за допомогою будь-яких допоміжних засобів (рахунки, калькулятор, комп'ютер та ін.) У результаті обробки виходить нова інформація, яка якимось чином зберігається (записується). Обробка інформації здійснюється з якихось певних правил (алгоритмах). Самі ці правила можуть також підлягати обробці (доповнюватися, виправлятися, уточнюватися).
Людина переробляє інформацію мінімум на трьох рівнях: фізіологічному (з допомогу органів почуттів), на рівні раціонального мислення, на рівні підсвідомості.
Процес обробки дуже складний.
Приклад: Шум двигуна автобуса змінився. Для водія це може служити інформацією про якісь неполадки в двигуні.
По радіо повідомили, що тенісний турнір виграв Агассі. Якщо ви не цікавитеся тенісом, то обсяг інформації для Вас дорівнює нулю. Якщо цікавитеся, обсяг залежить від конкретного прізвища переможця.
У прикладі № 1 шум двигуна - непрямий джерело інформації. Людина звертається до бази знань, яка зберігається в пам'яті. Якщо база знань неповна (людина малоосвічений), достовірну інформацію отримати неможливо.
Інформацію, яку обробляють, називають вихідної. Після обробки вихідної інформації виходить нова інформація.
Учень отримав умову задачі (вихідна інформація), думає (обробляє) і повідомляє відповідь (нова інформація).
Службова собака по запаху знаходить людину (запах - вихідна інформація, куди пішов чоловік - нова).
Комп'ютер, спеціальний прилад, створений людиною для обробки інформації. Можливість автоматизованої обробки інформації заснована на тому, що обробка інформації не передбачає її осмислення.
6. Обмін інформацією.
Обмін інформацією - це процес, в ході якого джерело інформації її передає, а одержувач - приймає. Якщо в повідомленнях виявлені помилки, то організовується повторна передача цієї інформації. У результаті обміну інформацією між джерелом і одержувачем встановлюється своєрідний «інформаційний баланс», при якому в ідеальному випадку одержувач матиме в своєму розпорядженні тієї я інформацією, що і джерело.
Обмін інформацією може відбуватися в образній і знаковою формах. Мови бувають розмовними (російська, німецька, тощо), причому в усній формі (фонетика) і в письмовій (граматика) і формальні (в математиці - мову формул, в музиці - мова нот, в медицині - латинь).
Обмін інформацією здійснюється з допомогою сигналів, що є її матеріальним носієм. Джерелами інформації можуть бути будь-які об'єкти реального світу, що володіють певними властивостями і здібностями. Якщо об'єкт належить до неживої природи, то він виробляє сигнали, безпосередньо відбивають його властивості. Якщо об'єктом-джерелом є людина, то виробляються їм сигнали можуть не тільки безпосередньо відображати його властивостей, але і відповідати тим знакам, які людина виробляє з метою обмін інформацією.
Прийняту інформацію одержувач може використовувати неодноразово. З цією метою він повинен зафіксувати її на матеріальному носії (магнітному, фото, кіно тощо). Процес формування вихідного, несистематизованих масиву інформації називається накопиченням інформації. Серед записаних сигналів можуть бути такі, які відображають цінну або часто вживану інформацію. Частина інформації даний момент часу особливої цінності може не представляти, хоча, можливо, не потрібно надалі.
7. Захист інформації.
Людині властиво помилятися. Помилка може відбутися при виконанні будь-якого інформаційного процесу: при кодуванні інформації, при її обробці і передачі. Чим більше інформації обробляється, тим важче уникнути помилок.
Ви правильно вибрали метод розв'язання задачі на контрольній роботі, але помилилися в обчисленнях. Отримали невірний результат. Ви невірно висловили свою думку і мимоволі образили співрозмовника. Виголосили не те слово, яке хотіли і ваші слухачі вас не зрозуміли.
Комп'ютери - це технічні пристрої для обробки великих обсягів інформації. Незважаючи на постійне підвищення надійності їх роботи, вони можуть виходити з ладу, ламатися, як будь-які інші пристрої, створені людиною.
Комп'ютерна система ППО північноамериканського континенту одного разу оголосила неправдиву ядерну тривогу, привівши в бойову готовність збройні сили. А причиною послужив несправний ЧІП вартістю 46 центів - маленький, розміром з монету, кремнієвий елемент.
Конструктори і розробники програмного і апаратного забезпечення докладають чимало зусиль, щоб забезпечити захист:
від збоїв обладнання;
від випадкової втрати або зміни інформації, що зберігається в комп'ютері;
від навмисного викривлення (комп'ютерні віруси);
від нелегального доступу до інформації: її використання, зміни, розповсюдження.
До численних, далеко не безневинним помилок комп'ютера додалася і комп'ютерна злочинність, що загрожує перерости у проблему, економічні, політичні і військові наслідки якої можуть стати катастрофічними.
8. Якість інформації
Можливість і ефективність використання інформації обумовлюються такими основними її споживчими показниками якості, як репрезентативність, змістовність, достатність, доступність, актуальність, своєчасність, точність, достовірність, стійкість. Репрезентативність інформації пов'язано з правильністю її відбору і формування з метою адекватного відображення властивостей об'єкта. Найважливіше значення мають: правильність концепції, на базі якої сформульовано вихідне поняття і обгрунтованість відбору істотних ознак і зв'язків відображуваного явища.
2. Вимірювання інформації
Потужність інформаційного сигналу, також як і вага носія інформації не можуть служити оцінкою кількості інформації, яку переносять сигналом.
Пошарпані книжка, якщо в ній немає вирваних сторінок, несе для вас рівно стільки ж інформації, скільки така ж нова.
2.1. Вимірювання інформації в побуті (інформація як новизна)
Ви отримали якесь повідомлення. У цьому повідомленні міститься якась кількість інформації. Як оцінити, скільки інформації ви отримали? Іншими словами, як виміряти інформацію? Чи можна сказати, що чим більше стаття, тим більше інформації вона містить?
Різні люди, отримали одне і теж повідомлення, по-різному оцінюють кількість інформації, що міститься в ньому. Це відбувається тому, що знання людей про ці події, явища до отримання повідомлення були різними. Тому ті, хто знав про це мало, вважатимуть, що отримали багато інформації, ті ж, хто знав більше, ніж написано в статті, скажуть, що інформації не отримали зовсім. Кількість інформації в повідомленні залежить від того, наскільки важливо повідомлення для одержувача. При такому підході незрозуміло, за якими критеріями можна ввести одиницю виміру інформації. З точки зору інформації як новизни можна оцінити кількість інформації, що міститься в науковому відкритті, музичному стилі, нової теорії суспільного розвитку.
2.2. Вимірювання інформації в техніці
У техніці інформацією вважається будь-яка зберігається, обробляється або передається послідовність знаків, символів. У техніці під кількістю інформації розуміють кількість кодованих, переданих або збережених символів.
Визначити поняття «кількість інформації» складно. У вирішенні цієї проблеми існують два основні підходи. Історично вони виникли майже одночасно. В кінці 40-х років XX століття Клод Шеннон розвинув імовірнісний підхід до вимірювання кількості інформації, роботи зі створення ЕОМ привели до «об'ємному» підходу. У техніці використовують простий спосіб визначення кількості інформації, названий об'ємним, заснований на підрахунку числа символів в повідомленні, не пов'язаний з його довжиною і не враховує змісту.
Приклад: собака - 6 символів, dog - 3 символи.
Людині звично працювати з символами, а комп'ютера - з кодами. Кожен символ кодується двійковим кодом, довжиною у 8 знаків (восьмібітних код).
Перш ніж виміряти інформацію в бітах, ви визначаєте кількість символів в цьому повідомленні. Кожен символ не випадково кодується 8-бітним кодом. Для зручності запроваджено більш "велика" одиниця інформації в техніці - байт, з допомогою якої легше підрахувати кількість інформації в технічному сполученні - воно збігається з кількістю символів в ньому.
У обчислювальній техніці: біт (binary digit) - двійковий знак двійкового алфавіту {0, 1}, мінімальна одиниця виміру інформації.
Байт (byte) - одиниця кількості інформації в системі СІ. Байт - восьмирозрядний двійковий код, за допомогою якого можна представити один символ.
Одиниці виміру інформації в обчислювальній техніці:
Біт | Елементарна одиниця інформації |
Байт (б) | 8 біт |
Кілобайт (Кбайт) | 210 байт = 1024 байт |
Мегабайт (Мбайт) | 210 Кбайт = 220 байт |
Гігабайт (Гбайт) | 210 Мбайт = 230 байт |
Терабайт (Тбайт) | 1024 Гбайт = 240 байт |
Петабайт (Пбайт) | 1024 Тбайт = 250 байт |
Ексабайт (Ебайт) | 1024 Пбайт = 260 байт |
Інформаційний обсяг повідомлення (інформаційна ємність повідомлення) - кількість інформації в повідомленні, виміряний в бітах, байтах, похідних одиницях (Кб, Мб і т.д.) [2].
Довжина повідомлення залежить від числа різних символів, що вживаються для запису повідомлення. Наприклад, слово "мир" у російській алфавіті записується трьома знаками, в англійському - п'ятьма (peace), а в КОІ-8 - двадцятьма чотирма бітами (111011011110100111110010).
2.3. Вимірювання інформації в теорії інформації (інформація як знята невизначеність)
У теорії інформації кількістю інформації називають числову характеристику сигналу, не залежну від його форми і змісту та характеризує невизначеність, яка зникає після отримання повідомлення у вигляді даного сигналу - в цьому випадку кількість інформації залежить від імовірності одержання повідомлення про ту чи іншу подію.
Для абсолютно достовірної події (подія обов'язково відбудеться, тому його ймовірність дорівнює 1) кількість ймовірності в повідомленні про нього дорівнює 0. Чим найімовірніше подія, тим більше інформації про нього несе повідомлення.
Лише за рівноймовірно відповідях відповідь "так" чи "ні" несе 1 біт інформації. Оцінка кількості інформації грунтується на законах теорії інформації. Повідомлення має цінність, несе інформацію, коли ми дізнаємося і розуміємо зміст даного повідомлення.
Яка кількість інформації міститься, наприклад, у тексті роману "Війна і мир", в фресках Рафаеля або в генетичному коді людини? Відповіді на ці питання наука не дає і, цілком ймовірно, дасть не скоро.
А чи можливо об'єктивно виміряти кількість інформації? Найважливішим результатом теорії інформації є висновок: в певних, досить широких умовах можна знехтувати якісними особливостями інформації, висловити її кількість числом, а також порівняти кількість інформації, що міститься в різних групах даних.
Теорія інформації як самостійна наукова дисципліна була заснована Клодом Шенноном у кінці 40-х років 20 століття. Запропонована ним теорія грунтувалася на фундаментальному понятті кількісної міри невизначеності - ентропії і пов'язаного з нею поняття кількості інформації.
Сигнал - це матеріальний носій інформації (предмет, явище, процес) у просторі і в часі. Будь-який сигнал нерозривно пов'язаний з певною системою, яка є системою зв'язку або системою передачі інформації і складається з наступних модулів: джерело, передавач, канал зв'язку, приймач і адресат. Джерело інформації задає деякий безліч повідомлень. Генерація певного повідомлення полягає у виборі його з безлічі всіх можливих. Повідомлення бувають дискретними та неперервними. Світлофор або передача повідомлення за допомогою азбуки Морзе - приклади дискретного сигналу.
Особливим видом сигналів є знаки, які на відміну від сигналів природного походження створюються самоорганизующимися системами і призначаються для передачі та зберігання інформації. Є знаки, що входять в чітко організовану систему, і позасистемні знаки. Наприклад: знаки дорожнього руху, система кольорів світлофора, музика, мова та мови, як природні, так і штучні. Позасистемні знаки - це чи залишки колись існували знакових систем, або знаки, створені тимчасово, звичайно в невеликих колективах людей. Наприклад, мови жестів і поз.
У теорії інформації та кодування прийнятий ентропійний підхід до вимірювання інформації, що заснований на тому, що факт отримання інформації завжди пов'язаний зі зменшенням різноманітності або невизначеності (ентропії) системи. Невизначеність може бути інтерпретована в сенсі того, наскільки мало відомо спостерігачеві про дану систему, ентропія системи знизилася, тому що для спостерігача система стала більш впорядкованим.
При Ентропійно підході під інформацією розуміється кількісна величина зникла під час будь-якого процесу (випробування, вимірювання і т.д.) невизначеності. При цьому в якості міри невизначеності вводиться ентропія [1].
Ентропія - міра внутрішньої невпорядкованості інформаційної системи.
Ентропія збільшується при хаотичному розподіл інформаційних ресурсів і зменшується при їх упорядкування.
На основі понять ентропії і кількості інформації в теорії інформації введені важливі характеристики сигналів і інформаційних систем:
швидкість створення інформації;
швидкість передачі інформації;
надмірність;
пропускна здатність каналів зв'язку.
Одним з найбільш чудових результатів теорії інформації є доказ, що за будь-яких перешкодах і шумах можна забезпечити передачу інформації без втрат.
Перша теорема Шеннона свідчить, що при швидкості створення інформації меншої пропускної здатності каналу можна передавати інформацію з як завгодно малою ймовірністю помилок, незважаючи на шуми.
Шеннон сформулював ентропію як міру хаосу на противагу кількості інформації як міри впорядкованості структур.
Розглянемо деяку складну систему і простежимо її еволюцію. Нехай ця система являє собою що знаходиться в посудині газ, що складається з величезної кількості безладно рухаються молекул. Ми не знаємо точного положення та швидкості в кожен момент часу кожної частки газу, але нам відомі макропараметри: тиск, об'єм, температура і склад газу. Фактично ми повинні розрахувати число способів, якими можна здійснити внутрішні перебудови в системі, щоб спостерігач не помітив змін макросостоянія системи. При цьому передбачається неотличимо атомів один від одного.
Якщо в системі, що складається з одного атома, відбулося його енергетичне збудження, нам це може стати відомо за значенням температури. При цьому можливе тільки одне розподіл порушення у системі рівному одиниці. Ентропія пов'язана з розподілом наступним чином: . У нашому випадку , А отже, система має нульовий ентропією.
У системі зі ста атомів, розподіл збудження може бути здійснено ста способами, тобто , . Ентропія системи виросла і стала хаотичною, оскільки ми не знаємо, де знаходиться в кожен момент збуджений атом.
Прийнято вважати, що будь-яка система прагне до стану рівноваги, тобто зростає ентропія системи. Проте другий початок термодинаміки (закон збереження ентропії та інформації) вимагає компенсувати зростання ентропії. Інформація і є засобом компенсації.
В даний час набули поширення підходи до визначення поняття "кількість інформації", засновані на тому, що інформацію, що міститься у повідомленні, можна нестрого трактувати в сенсі її новизни або, інакше, зменшення невизначеності наших знань про об'єкт.
Р. Хартлі запропонував в якості міри невизначеності логарифм від числа можливостей, тобто процес отримання інформації розглядає як вибір одного повідомлення з кінцевого наперед заданої множини з N рівноймовірно повідомлень, а кількість інформації I, що міститься в обраному повідомленні, визначає як двійковий логарифм N: - Формула Хартлі.
Зазвичай кількість інформації представляється у вигляді: , Де m - число можливих виборів. Тоді стандартною одиницею кількості інформації буде вибір з двох можливостей. Така одиниця одержала найменування біт і представляється одним символом двійкового алфавіту: 0 або 1.
Приклад: потрібно вгадати одне число з набору чисел від одиниці до ста. За формулою Хартлі можна обчислити, яку кількість інформації для цього потрібно: . Т. тобто повідомлення про вірно вгадати число містить кількість інформації, приблизно рівне 6,644 одиниць інформації.
Інші приклади рівноймовірно повідомлень: при киданні монети: "випала решка", "випав орел"; на сторінці книги: "кількість літер парне", "кількість букв непарне".
У деяких випадках, коли однозначно не можна відповісти на питання розподілу ймовірності, для визначення кількості інформації вже не можна використовувати формулу Хартлі.
Приклад: чи є рівноімовірними повідомлення "першою вийде з дверей будівлі жінка" і "першим вийде з дверей будівлі чоловік". Однозначно відповісти на це запитання не можна. Все залежить від того, про який саме будівлі йде мова.
Для завдань такого роду американський вчений Клод Шеннон запропонував у 1948 р. іншу формулу визначення кількості інформації, що враховує можливу неоднакову вірогідність повідомлень в наборі.
Формула Шеннона:
,
де рi - імовірність того, що саме i-е повідомлення виділено в наборі з N повідомлень.
Якщо ймовірності рівні, то кожна з них дорівнює 1 / N, і формула Шеннона перетворюється на формулу Хартлі.
3. Кодування інформації
Кодування інформації - це процес формування певного уявлення інформації [3].
У більш вузькому сенсі під терміном кодування часто розуміють перехід від однієї форми подання інформації до іншої, більш зручною для зберігання, передачі або обробки.
Комп'ютер може обробляти тільки інформацію, представлену в числовій формі. Вся інша інформація (звуки, зображення, показання приладів тощо) для обробки на комп'ютері повинна бути перетворена в числову форму. Щоб перевести в числову форму музичний звук, можна через невеликі проміжки часу вимірювати інтенсивність звуку на певних частотах, представляючи результати кожного вимірювання в числовій формі. Аналогічним чином можна обробляти текстову інформацію. При введенні в комп'ютер кожна буква кодується певним числом, при виведенні на зовнішні пристрої для сприйняття людиною за цими числах будуються зображення букв. Відповідність між набором літер і числами називається кодуванням символів.
Одну й ту ж інформацію можна виразити різними способами. Наприклад, яким чином ви можете повідомити про небезпеку?
Якщо на вас напали, ви просто можете крикнути: «Караул! »
Якщо прилад знаходиться під високою напругою, то потрібно залишити застережливий знак;
На жвавому перехресті регулювальник допомагає уникнути аварії за допомогою жестів.
У театрі пантоміми вся інформація передається тільки з допомогою міміки і жестів.
Якщо ваш корабель тоне, то ви передаєте сигнал «SOS».
На флоті використовують семафорна і прапорцевим сигналізацію.
У кожному з цих прикладів ми повинні знати правила, за якими можна відобразити інформацію про небезпеку тим чи іншим способом.
Правила, за якими можна відобразити інформацію тим чи іншим способом, називаються кодом.
Зазвичай кожен образ при кодуванні представлений окремим знаком.
Знак - це елемент кінцевого безлічі, відмінних один від одного елементів. Знак разом його змістом називається символом. Набір знаків, в якому визначено їх порядок, називається алфавітом. Потужність алфавіту - кількість використовуваних в ньому символів.
Існує безліч алфавітів: алфавіт кириличних літер (А, Б, В, Г, Д, ...); алфавіт латинських букв (A, B, C, D, ...); алфавіт десяткових цифр (1, 2, 3, 4, ..., 9, 0); алфавіт знаків зодіаку і ін
Є, однак, набори знаків, для яких немає якогось загальноприйнятого порядку: набір знаків абетки Брайля (для сліпих); набір китайських ієрогліфів; набір знаків планет; набір знаків генетичного коду.
Особливо важливе значення мають набори, що складаються всього з двох знаків: пара знаків (+, -); пара знаків «точка», «тире»; пара цифр (0, 1); пара відповідей (так, ні).
Набори знаків, що складаються з 2 символів, називають двійковими - двійковий алфавіт (0, 1), двійковий знак отримав назву БІТ. З появою електричного телеграфу виникли найважливіші технічні коди: абетка МОРЗЕ; набір знаків другого міжнародного телеграфного коду (телекс).
Код використовується для представлення інформації у вигляді, зручному для зберігання і передачі.
Наприклад, для того щоб закодувати ряд чисел від 0 до 100, по-перше, потрібно вибрати якийсь алфавіт. Якщо для кожного числа придумати символ, який буде його позначати, то буде потрібно 101 символ. А якщо чисел буде більше, то даний підхід нераціональний. Якщо кожне число представити (закодувати) не одним, а кількома знаками з нашого алфавіту, то в нашому правилі з'явиться поняття довжина коду.
Довжиною коду - це така кількість знаків, що використовується при кодуванні для подання символу. Кількість символів в алфавіті і довжина коду - абсолютно різні речі. Наприклад, у російській алфавіті 33 літери, а слова можуть бути довжиною в 1, 2, 3 і т.д. літери.
Коди бувають постійної і змінної довжини. Коди змінної довжини застосовуються в техніці досить рідко. Винятком лише є код МОРЗЕ. Азбука МОРЗЕ - це трійчастий код з набором знаків: крапка, тире, пауза. Паузу потрібно використати як роздільник між літерами і словами, так як довжина коду непостійна. Якби довжина коду була постійною, то розташування символів можна було встановлювати за допомогою відліку. У цьому випадку пауза не потрібна. Повідомлення буде розкодувати однозначно.
Застосування кодів з постійною довжиною дозволяє використовувати для кодування всього лише два знаки (двійковий код). Чим менше букв в алфавіті, тим повинно бути простіше пристрій для розкодування (розшифровки) інформаційного повідомлення. Чим менше букв в алфавіті, тим більше повинна бути довжина коду.
У процесі розвитку людського суспільства люди виробили велику кількість мов кодування: розмовні мови (російська, англійська, гінді та ін); мову міміки і жестів, язик малюнків і креслень; мова науки (математичні, хімічні та інші символи); мову мистецтва (музики , живопису, скульптури та ін); спеціальні мови (есперанто, морський семафор, азбука Морзе, азбука Брайля для сліпих і ін); мови програмування (Бейсік, Паскаль, Фортран, Сі та ін.)
Програмування - це кодування інформації мовою, «зрозумілою» комп'ютеру.
У комп'ютерах використовується двійкова форма представлення даних. Троїчну кодування, незважаючи на низку технічних спроб, успіху не мало. Четверичная кодування в криптографічних цілях (криптографія - тайнопис) використовувалося ще в XV столітті. Передача повідомлення завжди здійснюється в часі. Кодування вимагає певної кількості часу, яким часто не можна нехтувати. При кодуванні можуть ставитися певні цілі і застосовуватися різні методи.
Найбільш поширені мети кодування:
економність (зменшення надмірності повідомлення, підвищення швидкості передачі або обробки інформації);
надійність (захист від випадкових спотворень);
схоронність (захист від небажаного доступу до інформації);
зручність фізичної реалізації (подвійне кодування інформації в комп'ютері);
зручність сприйняття (схеми, таблиці).
3.1. Кодування інформації в комп'ютері
У сучасних комп'ютерах використовується двійкова форма представлення даних, що містить усього дві цифри - 0 і 1. Така форма дозволяє створити досить прості технічні пристрої для подання (кодування) і розпізнавання (дешифрування) інформації. Двійкове кодування вибрали тому, щоб максимально спростити конструкцію декодуючої машини, адже дешифратор повинен вміти розрізняти всього два стани - 0 і 1. Наприклад, 1 - є струм в ланцюзі, 0 - немає струму в ланцюзі. З цієї причини двійкова система і знайшла таке широке поширення.
Сучасний комп'ютер може обробляти числову, текстову, графічну, звукову та відео інформацію. Всі ці види інформації в комп'ютері представлені в двійковому коді, тобто використовується алфавіт потужністю два (всього два символи 0 і 1). Таке кодування прийнято називати двійковим, а самі логічні послідовності нулів та одиниць - машинним мовою.
Вид інформації | Двійковий код |
Числова | 10110011 |
Текстова | |
Графічна | |
Звукова | |
Відео |
Кожна цифра машинного двійкового коду несе кількість інформації рівне одному біту. Даний висновок можна зробити, розглядаючи цифри машинного алфавіту, як рівноімовірні події. Під час запису двійкової цифри можна реалізувати вибір тільки одного з двох можливих станів, а, значить, вона несе кількість інформації дорівнює 1 біт. Отже, дві цифри несуть інформацію 2 біта, чотири розряду - 4 біти і т.д. Щоб визначити кількість інформації в бітах, досить визначити кількість цифр у двійковому машинному коді.
3.2. Кодування текстової інформації
Велика частина користувачів за допомогою комп'ютера обробляє текстову інформацію, яка складається з символів: літер, цифр, знаків пунктуації та ін
Для того щоб закодувати 1 символ використовують кількість інформації дорівнює 1 байту, тобто I = 1 байт = 8 біт. За допомогою формули , Яка пов'язує між собою кількість можливих подій N і кількість інформації I, можна обчислити, скільки різних символів можна закодувати: , Тобто для представлення текстової інформації можна використовувати алфавіт потужністю 256 символів. Суть кодування: кожному символу ставлять у відповідність двійковий код від 00000000 до 11111111 або відповідний йому десятковий код від 0 до 255.
Для різних типів ЕОМ і операційних систем використовуються різні таблиці кодування, що відрізняються порядком розміщення символів алфавіту в кодової таблиці. Міжнародним стандартом на персональних комп'ютерах є вже згадувана таблиця кодування ASCII.
Принцип послідовного кодування алфавіту полягає в тому, що в кодової таблиці ASCII латинські літери (прописні і рядкові) розташовуються в алфавітному порядку. Розташування цифр також упорядковано за зростанням значень. Стандартними в цій таблиці є лише перші 128 символів, тобто символи з номерами від нуля (двійковий код 00000000) до 127 (01111111). Сюди входять букви латинського алфавіту, цифри, знаки пунктуації, дужки і деякі інші символи. Решта 128 кодів, починаючи зі 128 (двійковий код 10000000) і кінчаючи 255 (11111111), використовуються для кодування букв національних алфавітів, символів псевдографіки і наукових символів.
В даний час для кодування російських букв використовують п'ять різних кодових таблиць (КОІ-8, СР1251, ср866, Мас, ISO), причому тексти, закодовані за допомогою однієї таблиці, не будуть правильно відображатися в іншій кодуванні.
У більшості випадків про перекодуванні текстових документів піклується не користувач, а спеціальні програми - конвертори, які вбудовані в додатки.
Починаючи з 1997 р. останні версії Microsoft Windows і Office підтримують нову кодування Unicode, яка на кожен символ відводить по 2 байти, а, тому, можна закодувати не 256 символів, а 65536 різних символів.
3.3. Кодування графічної інформації
У відеопам'яті знаходиться двійкова інформація про зображення, що виводиться на екран. Майже всі створені, в опрацюванні чи переглядаються за допомогою комп'ютера зображення можна розділити на дві великі частини - растрову і векторну графіку.
Растрові зображення є одношаровою сітку точок, які називаються пікселями (pixel від англ. Picture element), які можуть приймати тільки два значення: білий і чорний (світиться - не світиться). Так як інформація про колір пікселя називається кодом піксела, то для його кодування досить одного біта пам'яті: 1 - білий, 0 - чорний.
Якщо розглядати ілюстрацію у вигляді комбінації точок з 256 градаціями кольору, то досить восьмирозрядного двійкового числа, щоб закодувати яскравість будь-якої точки. Колір в комп'ютерній графіці виступає засобом посилення зорового враження та підвищення інформаційної насиченості зображення. Сприйняття кольору відбувається в результаті аналізу світлового потоку, падаючого на сітківку ока від відбивають або випромінюючих об'єктів. Колірні рецептори людини - колбочки і поділяються на 3 групи, кожна з яких може сприймати лише один колір (червоний, зелений або синій).
Піксел на кольоровому дисплеї може мати різне забарвлення, тому одного біта на піксель недостатньо. Для кодування 4-кольорового зображення потрібні два біти на піксель, оскільки два біта можуть приймати 4 різних стану. Може використовуватися, наприклад, такий варіант кодування кольорів: 00 - чорний, 10 - зелений, 01 - червоний, 11 - коричневий.
На RGB-моніторах все розмаїття кольорів виходить поєднанням базових кольорів - червоного (Red), зеленого (Green), синього (Blue), з яких можна отримати 8 основних комбінацій.
Зрозуміло, якщо мати можливість керувати інтенсивністю (яскравістю) свічення базових квітів, то кількість різних варіантів їх поєднань, що породжують різноманітні відтінки, збільшується. Кількість різних кольорів - К і кількість бітів для їх кодування - N пов'язані між собою простою формулою: .
На противагу растровій графіці векторне зображення багатошаровий. Кожен елемент векторного зображення - лінія, прямокутник, коло або фрагмент тексту - розташований у своєму власному шарі, пікселі якого встановлюються незалежно від інших верств. Кожен елемент векторного зображення є об'єктом, який описується за допомогою спеціальної мови (математичних рівняння ліній, дуг, кіл і т.д.). Складні об'єкти (ламані лінії, різні геометричні фігури) представляються у вигляді сукупності елементарних графічних об'єктів.
Об'єкти векторного зображення, на відміну від растрової графіки, можуть змінювати свої розміри без втрати якості (при збільшенні растрового зображення збільшується зернистість).
3.4. Кодування звуку
З курсу фізики вам відомо, що звук - це коливання повітря. Якщо перетворити звук в електричний сигнал (наприклад, за допомогою мікрофона), ми побачимо плавно змінюється з плином часу напруга. Для комп'ютерної обробки такий - аналоговий - сигнал потрібно якимось чином перетворити в послідовність двійкових чисел.
Будемо вимірювати напругу через рівні проміжки часу і записувати отримані значення в пам'ять комп'ютера. Цей процес називається дискретизацією (або оцифруванням), а пристрій, що виконує його - аналого-цифровим перетворювачем (АЦП).
Для того щоб відтворити закодований таким чином звук, потрібно виконати зворотне перетворення (для нього служить цифро-аналоговий перетворювач - ЦАП), а потім згладити вийшов ступінчастий сигнал.
Чим вище частота дискретизації (тобто кількість відліків за секунду) і чим більше розрядів відводиться для кожного відліку, тим точніше буде представлений звук. При цьому збільшується і розмір звукового файлу. Залежно від характеру звуку, вимог, що пред'являються до його якості і об'єму займаної пам'яті, вибирають деякі компромісні значення.
Описаний спосіб кодування звукової інформації досить універсальний, він дозволяє представити будь-який звук і перетворювати його самими різними способами. Але бувають випадки, коли вигідніше діяти по-іншому.
Людина здавна використовує досить компактний спосіб представлення музики - нотний запис. У ній спеціальними символами вказується, якої висоти звук, на якому інструменті і як зіграти. Фактично, її можна вважати алгоритмом для музиканта, записаним на особливому формальному мовою. У 1983 р. провідні виробники комп'ютерів і музичних синтезаторів розробили стандарт, який визначив таку систему кодів. Він отримав назву MIDI. Така система кодування дозволяє записати далеко не всякий звук, годиться тільки для інструментальної музики. Є незаперечні переваги: надзвичайно компактна запис, природність для музиканта, легкість заміни інструментів, зміни темпу і тональності мелодії [3].
Існують і інші, чисто комп'ютерні, формати запису музики, наприклад, формат MP3, що дозволяє з дуже великим якістю і ступенем стиснення кодувати музику.
3.5. Кодування чисел
Існують два основні формати представлення чисел у пам'яті комп'ютера. Один з них використовується для кодування цілих чисел, другий (так зване представлення числа у форматі з плаваючою точкою) використовується для завдання деякого підмножини дійсних чисел.
Безліч цілих чисел, які представлені у пам'яті ЕОМ, обмежена. Діапазон значень залежить від розміру області пам'яті, використовуваної для розміщення чисел. У k-розрядної осередку може зберігатися 2k різних значень цілих чисел.
Щоб отримати внутрішнє представлення цілого додатного числа N, що зберігається в k-розрядному машинному слові, необхідно:
1) перевести число N в двійкову систему числення;
2) отриманий результат доповнити зліва незначущими нулями до k розрядів.
Формат з плаваючою точкою використовує уявлення дійсного числа R у вигляді твору мантиси m на основу системи числення n в деякій цілій степені p, яку називають порядком: . Подання числа у формі з плаваючою точкою неоднозначно. Наприклад, справедливі такі рівняння:
12.345 = 0.0012345 x 104 = 1234.5. x 10-2 = 0.12345 x 102
Найчастіше в ЕОМ використовують нормалізоване подання числа у формі з плаваючою крапкою. Мантиса в такому поданні повинна задовольняти умові: . Інакше кажучи, мантиса менше 1 і перша значуща цифра - не нуль (p - основа системи числення).
У пам'яті комп'ютера мантиса представляється як ціле число, що містить тільки значущі цифри (0 цілих і кома не зберігаються), так для числа 12.345 в комірці пам'яті, відведеної для зберігання мантиси, буде збережено число 12345. Для однозначного відновлення вихідного числа залишається зберегти тільки його порядок, в даному прикладі - це 2.
3.6. Поняття про системи числення
3.6.1. Що таке система числення
Системою числення називається сукупність прийомів найменування та запису чисел [7].
Система числення - це спосіб представлення будь-якого числа з допомогою деякого алфавіту символів, званих цифрами.
У будь-якій системі числення для подання чисел вибираються деякі символи (слова або знаки), звані базисними числами, а всі інші числа виходять в результаті будь-яких операцій з базисних чисел даної системи числення. Символи, використовувані для запису чисел, можуть бути будь-якими, тільки вони повинні бути різними і значення кожного з них повинно бути відомо.
У сучасному світі найбільш поширеним є представлення чисел за допомогою арабських цифр 0, 1,2, 3, 4, 5, 6, 7, 8, 9 - спеціальних знаків, що використовуються для запису чисел. Системи числення розрізняються вибором базисних чисел і правилами освіти з них інших чисел.
Системи числення, в яких будь-яке число виходить шляхом додавання або віднімання базисних чисел, називаються адитивними. При такому поданні чисел правила складання для невеликих чисел очевидні і прості, однак якщо виникає необхідність виконувати операції додавання над великими числами або операції множення і ділення, то «римська» система числення виявляється незручною.
У цій ситуації переважно виявляються позиційні системи числення.
Існують позиційні і непозиційної системи числення.
У позиційних системах числення вага кожної цифри змінюється в залежності від її положення (позиції) в послідовності цифр, що зображують число. У позиційній системі числення подання чисел далеко не такі прості й очевидні, як у «римської» системі числення, систематичність подання, заснована на «позиційному вазі» цифр, забезпечує простоту виконання операцій множення і ділення.
У непозиційних системах вага цифри (тобто той внесок, який вона вносить у значення числа) не залежить від її позиції у запису числа. У «римської» системі числення кожен числовий знак у запису будь-якого числа має одне і те ж значення, тобто значення числового знака не залежить від його розташування в записі числа. У римській системі числення в числі ХХХII (тридцять два) вага цифри Х в будь-якій позиції дорівнює просто десяти, а I - це одиниця.
Для зображення чисел у даний час використовуються в основному позиційні системи числення. Звичною для всіх є десяткова система числення. У цій системі для запису будь-яких чисел використовується тільки десять різних знаків (цифр): 0, 1, 2, 3, 4, 5, 6, 7, 8, 9. Ці цифри введені для позначення перших десяти послідовних чисел, а наступне число 10 і т.д. позначається вже без використання нових цифр. Однак введенням цього позначення зроблено важливий крок у побудові системи числення: значення кожної цифри поставлено в залежність від того місця, де вона стоїть у зображенні числа.
Десяткова запис будь-якого числа X у вигляді послідовності цифр: , Заснована на представленні цього числа у вигляді полінома:
,
де кожен коефіцієнт аi, може бути одним з чисел, для позначення яких введені спеціальні знаки. Запис числа X у формулі являє собою просто перерахування всіх коефіцієнтів цього полінома. Точка, що відокремлює цілу частину числа від дробової, служить для фіксації конкретних значень кожної позиції в цій послідовності цифр і є початком відліку.
Кількість До різних цифр, що вживаються в позиційній системі числення, називається її основою системи числення, а сама система числення називається К-ічной. Наприклад, підставою десяткової системи числення є число 10; двійковій - число 2; трійкової - число 3 і т.д. Для запису довільного числа в K-ічной системі числення достатньо мати К різних цифр . Ці цифри служать для позначення деяких різних цілих чисел, які називаються базисними.
Запис довільного числа X в K-ічной позиційній системі числення грунтується на представленні цього числа у вигляді полінома:
,
де кожен коефіцієнт а, може бути одним з базисних чисел і зображується однією цифрою. В якості базисних чисел беруться послідовні цілі числа від 0 до К-1 включно.
Позиції цифри, відраховані від коми (крапки), яка відділяє цілу частину від дробової, називаються розрядами. У позиційній системі числення вага кожного розряду більше сусіднього в число разів, рівне основи системи К.
Приклад: Для десяткової системи числення (підстава К = 10) маємо число 6321.564. Ваги розряду і коефіцієнти а для цього числа будуть наступними:
Всі відомі позиційні системи числення є адитивно-мультиплікативними. Особливо виразно адитивно-мультиплікативний спосіб утворення чисел з базисних виражений в числівників російської мови, наприклад п'ятсот шістьдесят-вісім (т.е.5 сотень + 6 десятків + 8).
Арифметичні дії над числами в будь-якій позиційній системі числення здійснюються за тими ж правилами, що і в десятковій системі, так як всі вони грунтуються на правилах виконання дій над відповідними поліномами. Потрібно тільки користуватися тими таблицями додавання і множення, які мають місце при даній підставі До системи числення. У всіх позиційних системах числення з будь-якою підставою До множення на числа виду Кm, де m - ціле число, зводиться просто до перенесення коми у множимо на m розрядів вправо або вліво (у залежності від знака m), так само як і в десятковій системі.
Для вказівки того, в якій системі числення записано число, домовимося за його зображенні основу системи числення вказувати у вигляді нижнього індексу при ньому, наприклад, 35,648 або підрядковим індексом, укладеним в круглі дужки, наприклад: 1101 (2).
У кожній системі числення цифри упорядковані у відповідності з їх значеннями: 1 більше 0, 2 більше 1 і т.д.
Просуванням цифри називають заміну її наступній за величиною. Просунути цифру 1 означає замінити її на 2, просунути цифру 2, то замінити її на 3 і т.д. Просування старшої цифри (наприклад, цифри 9 в десятковій системі) означає заміну її на 0. У двійковій системі, що використовує тільки дві цифри - 0 і 1, просування 0 означає заміну його на 1, а просування 1 - заміну її на 0.
Цілі числа в будь-якій системі числення породжуються за допомогою Правила рахунку:
Для утворення цілого числа, наступного за будь-якими даними цілим числом, потрібно просунути саму праву цифру числа; якщо яка-небудь цифра після просування стала нулем, то потрібно просунути цифру, що стоїть ліворуч від неї.
В даний час в ЕОМ застосовують двійкову, вісімкову і шістнадцяткову системи числення.
3.6.2. Двійкова система числення
У сучасній обчислювальній техніці, в пристроях автоматики, зв'язку використовується двійкова система числення - система числення з найменшим можливим підставою, де для зображення числа використовуються дві цифри: 0 і 1.
Двійкова система числення має ряд переваг перед іншими системами:
для її реалізації потрібні технічні пристрої з двома стійкими станами (є струм - немає струму, намагнічений - не намагнічений і т.п.);
подання інформації за допомогою лише двох станів надійності та завадостійкості;
можливе застосування апарату булевої алгебри для виконання логічних перетворень інформації;
двійкова арифметика набагато простіше десяткової.
Недолік двійкової системи - швидке зростання числа розрядів, необхідних для запису чисел, тобто в громіздкості запису чисел, але це не має істотного значення для ЕОМ. Якщо виникає необхідність кодувати інформацію «вручну», наприклад, при складанні програми на машинній мові, переважніше виявляється користуватися вісімковій, або шістнадцятковій системою числення.
Довільне число X в двійковій системі представляється у вигляді полінома:
,
де кожен коефіцієнт аi може бути або 0, або 1.
Приклад: Двійкове число - 1011012
,
тобто .
Для відділення цілої частини від дробової використовується крапка (кома). Значення ваги розрядів праворуч від точки (коми) дорівнює основи двійкової системи (2), зведеному в негативну ступінь. Такі ваги - це дробу виду: 1 / 2, 1 / 22, 1 / 23, 1 / 24, 1 / 25 або 1 / 2, 1 / 4, 1 / 8, 1 / 16.
Кожна позиція, зайнята двійковій цифрою, називається біт. Біт є найменшою одиницею інформації в ЕОМ. Найменшим значущим бітом (МЗР) називають наймолодший двійковий розряд, а найстаршим двійковим розрядом - найбільший значущий біт (ЗЗР). У двійковому числі ці біти мають, відповідно, найменший і найбільшу вагу. Зазвичай двійкове число записують так, що старший значущий біт є крайнім зліва.
3.6.3. Вісімкова система числення
У вісімковій системі числення базисними числами є 0, 1, 2, 3, 4, 5, 6, 7. Запис будь-якого числа в цій системі грунтується на його розкладанні за ступенями числа вісім з коефіцієнтами, які є зазначеними вище базисними числами.
Довільне число X в вісімковій системі представляється у вигляді полінома:
,
де кожен коефіцієнт аi може бути 0, 1, 2, 3, 4, 5, 6, 7.
Наприклад, десяткове число 83,5 у вісімковій системі буде зображуватися у вигляді 123,48 і у вигляді полінома:
Вісімкова система числення не потрібна ЕОМ на відміну від двійкової системи. Вона зручна як компактна форма запису чисел і використовується програмістами (наприклад, у текстах програм для більш короткої і зручного запису двійкових кодів команд, адрес і операндів).
У вісімковій системі числення вага кожного розряду кратний восьми (1 / 8), тому восьмирозрядному двійкове число дозволяє висловити десяткові величини в межах 0-255, а вісімкове охоплює діапазон 0 - 99999999.Т. к.8 = 23, то кожен восьмеричний символ можна уявити трехбітовим двійковим числом.
Для переведення числа з двійкової системи числення у вісімкову необхідно розбити це число вліво (для цілої частини) і вправо (для дробової) від точки (коми) на групи по три розряди (тріади) і представити кожну групу цифрою в вісімковій системі числення. Крайні неповні тріади доповнюються необхідною кількістю незначущих нулів.
Переклад з вісімковій системи числення в двійкову систему здійснюється шляхом подання кожної цифри вісімковим трехразрядного двійковим числом.
3.6.4. Шістнадцяткова система числення
У шістнадцятковій системі числення базисними є числа від нуля до п'ятнадцяти. Ця система відрізняється від розглянутих раніше тим, що в ній загальноприйнятих (арабських) цифр не вистачає для позначення всіх базисних чисел, тому доводиться вводити у вживання нові символи. Зазвичай для позначення перших десяти цілих чисел від нуля до дев'яти використовують арабські цифри, а для наступних цілих чисел від десяти до п'ятнадцяти використовуються літерні позначення A, B, C, D, E, F.
Довільне число X в вісімковій системі представляється у вигляді полінома:
,
де кожен коефіцієнт аi може бути 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, A, B, C, D, E, F:
Шістнадцяткова система числення дозволяє ще коротше записувати багаторозрядних двійкових числа і, крім того, скорочувати запис 4-розрядного двійкового числа, тобто полубайта, оскільки 16 = 24. Шістнадцяткова система так само застосовується в текстах програм для більш короткої і зручного запису двійкових чисел.
Для переведення числа з двійкової системи числення в шістнадцяткову, необхідно розбити це число вліво і вправо від точки на тетради і представити кожну тетраду цифрою в шістнадцятковій системі числення.
Для переведення числа з шістнадцятковій системи числення в двійкову, необхідно навпаки кожну цифру цього числа замінити тетрадою.
3.6.5. Переклади чисел, найпростіша арифметика в системах числення
При перекладі цілого десяткового числа в систему з основою q його необхідно послідовно ділити на q до тих пір, поки не залишиться залишок, менший або рівний q-1. Число в системі з основою q записується як послідовність залишків від ділення, записаних у зворотному порядку, починаючи з останнього.
Приклад: Перевести число 75 з десяткової системи в двійкову, вісімкову і шістнадцяткову:
2-а с. с. | 8-а с. с. | 16-а с. с. |
|
|
Відповідь: 7510 = 1 001 0112 = 1138 = 4B16
При перекладі числа з двійкової (8-чної, 16-річної) системи в десяткову треба це число представити у вигляді суми ступенів підстави його системи числення.
Приклад:
Розряди 3 2 1 0 - 1
Число 1011,12 = 1 * 23 +1 * 21 +1 * 20 +1 * 2-1 = 11,510.
Розряди 2 1 0 - 1
Число 276,58 = 2 * 82 +7 * 81 +6 * 80 +5 * 8-1 = 190,62510.
Розряди 2 1 0
Число 1 F 316 = 1 * 162 +15 * 161 +3 * 160 = 49910.
Переклад вісімкових і шістнадцяткових чисел в двійкову систему простий: досить кожну цифру замінити еквівалентною їй двійковій тріадою або тетрадою.
Приклад:
;
Щоб перевести число з двійкової системи в вісімкову (шістнадцяткову), його потрібно розбити вліво і вправо від коми на тріади (для вісімковій) або тетради (для шістнадцятковій), кожну групу замінити відповідною вісімковій (шістнадцятковій) цифрою.
Приклад:
При перекладі правильної десяткового дробу в систему числення з основою q потрібно саму дріб, потім дробові частини всіх наступних творів послідовно множити на q, відокремлюючи після кожного множення цілу частину твору. Число в новій системі числення записується як послідовність отриманих цілих частин твору. Множення здійснюється до тих пір, поки дробова частина твору не стане рівною нулю. Це означає, що зроблено точний переклад. В іншому випадку переклад здійснюється до заданої точності.
Приклад: Перевести число 0,35 з десяткової системи в двійкову, вісімкову і шістнадцяткову:
Двійкова с. с. | Вісімкова с. с. | Шістнадцяткова с. с. |
|
|
|
Відповідь: 0,3510 = 0,010112 = 0,2638 = 0,5916.
Арифметичні операції в позиційних системах числення.
Розглянемо основні арифметичні операції: додавання, віднімання, множення і ділення. Правила виконання цих операцій у десятковій системі добре відомі - це складання, віднімання, множення стовпчиком і поділ кутом. Ці правила застосовні і до всіх інших позиційним систем числення, але потрібно користуватися відповідними таблицями додавання і множення.
Додавання
Таблиці додавання складаються за допомогою Правила Рахунки:
2-а с. с. |