Представлення інформації в ЕОМ

[ виправити ] текст може містити помилки, будь ласка перевіряйте перш ніж використовувати.

скачати

Зміст

Введення

1. Представлення інформації в ЕОМ

1.1 Безперервна і дискретна інформація

1.2 Кодування інформації

1.3. Представлення інформації у двійковому коді

Висновок

Список використаної літератури

Введення

Теоретичною основою інформатики є група фундаментальних наук таких як: теорія інформації, теорія алгоритмів, математична логіка, теорія формальних мов та граматик, комбінаторний аналіз і т.д. Крім них інформатика включає такі розділи, як архітектура ЕОМ, операційні системи, теорія баз даних, технологія програмування та багато інших. Важливим у визначенні інформатики як науки є те, що з одного боку, вона займається вивченням пристроїв і принципів дії засобів обчислювальної техніки, а з іншого - систематизацією прийомів і методів роботи з програмами, які керують цією технікою.

Інформаційна технологія - це сукупність конкретних технічних і програмних засобів, за допомогою яких виконуються різноманітні операції з обробки інформації в усіх сферах нашого життя і діяльності. Іноді інформаційну технологію називають комп'ютерною технологією або прикладної інформатикою.

Інформація аналогова і цифрова. Термін «інформація» походить від латинського informatio, - роз'яснення, виклад, обізнаність.

Інформацію можна класифікувати різними способами, і різні науки це роблять по-різному. Наприклад, у філософії розрізняють інформацію об'єктивну і суб'єктивну. Об'єктивна інформація відображає явища природи і людського суспільства. Суб'єктивна інформація створюється людьми і відображає їх погляд на об'єктивні явища.

В інформатиці окремо розглядається аналогова інформація і цифрова. Це важливо, оскільки людина завдяки своїм органам почуттів, звик мати справу з аналоговою інформацією, а обчислювальна техніка, навпаки, в основному, працює з цифровою інформацією.

1. Представлення інформації в ЕОМ

1.1 Безперервна і дискретна інформація

Людина сприймає інформацію за допомогою органів почуттів. Світло, звук, тепло - це енергетичні сигнали, а смак і запах - це результат впливу хімічних сполук, в основі якого теж енергетична природа. Людина відчуває енергетичні впливу безперервно і може ніколи не зустрітися з однією і тією ж їх комбінацією двічі. Немає двох однакових зелених листків на одному дереві і двох абсолютно однакових звуків - це інформація аналогова. Якщо ж різним кольорам дати номери, а різним звукам - ноти, то аналогову інформацію можна перетворити у цифрову.

Щоб повідомлення було передано від джерела до одержувача, необхідна деяка матеріальна субстанція - носій інформації. Повідомлення, що передається за допомогою носія, назвемо сигналом. У загальному випадку сигнал - це змінюється в часі фізичний процес. Такий процес може містити різні характеристики (наприклад, при передачі електричних сигналів можуть змінюватися напруга і сила струму). Та з характеристик, яка використовується для подання повідомлень, називається параметром сигналу.

У разі коли параметр сигналу приймає послідовне в часі кінцеве число значень (при цьому всі вони можуть бути пронумеровані), сигнал називається дискретним, а повідомлення, що передається за допомогою таких сигналів-дискретним повідомленням. Інформація, передана джерелом, в цьому випадку також називається дискретною. Якщо ж джерело виробляє безперервне повідомлення (відповідно параметр сигналу - безперервна функція від часу), відповідна інформація називається неперервною. Приклад дискретного повідомлення - процес читання книги, інформація в якій представлена ​​текстом, тобто дискретної послідовністю окремих значків (букв). Прикладом безперервного повідомлення служить людська мова, передана модульованої звуковою хвилею; параметром сигналу в цьому випадку є тиск, що створюється цією хвилею в точці знаходження приймача - людського вуха.

Безперервне повідомлення може бути представлено безперервною функцією, заданої на деякому відрізку [а, Ь] (див. рис. 2). Безперервне повідомлення можна перетворити в дискретне (така процедура називається дискретизацією). Для цього з нескінченної кількості значень цієї функції (параметра сигналу) вибирається їх певне число, яке приблизно може характеризувати інші значення. Один із способів такого вибору полягає в наступному. Область визначення функції розбивається точками x 1, x 2, ... х n, на відрізки рівної довжини і на кожному з цих відрізків значення функції приймається постійним і рівним, наприклад, середнього значення на цьому відрізку; отримана на цьому етапі функція називається в математиці ступінчастою. Наступний крок - проектування значень "сходинок" на вісь значень функції (вісь ординат). Отримана таким чином послідовність значень функції у 1, у 2, ... у n. є дискретним поданням неперервної функції, точність якого можна необмежено піднімати шляхом зменшення довжин відрізків розбиття області значень аргументу.

Рис. 1. Процедура дискретизації безперервного повідомлення

Вісь значень функції можна розбити на відрізки з заданим кроком і відобразити кожний з виділених відрізків з області визначення функції у відповідний відрізок з безлічі значень (рис. 2). У результаті отримаємо кінцеве безліч чисел, що визначаються, наприклад, по середині або однієї з меж таких відрізків.

Таким чином, будь-яке повідомлення може бути представлено як дискретне, інакше кажучи послідовністю знаків деякого алфавіту.

Можливість дискретизації безперервного сигналу з будь-якою бажаною точністю (для зростання точності достатньо зменшити крок) принципово важлива з точки зору інформатики. Комп'ютер - цифрова машина, тобто внутрішнє представлення інформації в ньому дискретно. Дискретизація вхідної інформації (якщо вона неперервна) дозволяє зробити її придатною для комп'ютерної обробки. Існують і інші обчислювальні машини - аналогові ЕОМ. Вони використовуються зазвичай для вирішення завдань спеціального характеру й широкій публіці практично не відомі. Ці ЕОМ в принципі не потребують дискретизації вхідної інформації, так як її внутрішнє уявлення в них безперервно. У цьому випадку все навпаки - якщо зовнішня інформація дискретна, то її "перед вживанням" необхідно перетворити на безперервну.

Одиниці кількості інформації: імовірнісний і об'ємний підходи

Визначити поняття "кількість інформації" досить складно. У вирішенні цієї проблеми існують два основні підходи. Історично вони виникли майже одночасно. В кінці 40-х років XX століття один з основоположників кібернетики американський математик Клод Шеннон розвинув імовірнісний підхід до вимірювання кількості інформації, а роботи зі створення ЕОМ призвели до "об'ємному" підходу.

Імовірнісний підхід

Розглянемо як приклад досвід, пов'язаний з киданням правильної гральної. Кістки, що має N граней (найбільш поширеним є випадок шестигранною кістки: N = 6). Результати даного досвіду можуть бути наступні: випадання межі з одним з наступних знаків: 1,2, ... N.

Введемо в розгляд чисельну величина, що визначає невизначеність-ентропію (позначимо її Н). Величини N і Н пов'язані між собою деякою функціональною залежністю:

H = f (N), (1.1)

а сама функція f є зростаючою, неотрицательной і певної (у розглянутому нами прикладі) для N = 1, 2, ... 6.

Розглянемо процедуру кидання кістки більш докладно:

1) готуємося кинути кістку; результат досвіду невідомий, тобто є деяка невизначеність; позначимо її H 1;

2) кістка кинута; інформація про результат даного досвіду отримана; позначимо кількість цієї інформації через I;

3) позначимо невизначеність даного досвіду після його здійснення через H 2. За кількість інформації, яке отримано в ході здійснення досвіду, приймемо різниця невизначеностей "до" і "після" досвіду:

I = H 1 - H 2 (1.2)

Очевидно, що у випадку, коли отримано конкретний результат, имевшаяся невизначеність знята 2 = 0), і, таким чином, кількість отриманої інформації співпадає з початковою ентропією. Інакше кажучи, невизначеність, укладена в досвіді, збігається з інформацією про результат цього досвіду. Зауважимо, що значення Н 2 могло бути і не рівним нулю, наприклад, у випадку, коли в ході досвіду наступної випала грань зі значенням, більшим "З".

Наступним важливим моментом є визначення виду функції f у формулі (1.1). Якщо варіювати число граней N і число кидання кістки (позначимо цю величину через М), загальне число фіналів (векторів довжини М, що складаються із знаків 1,2 ,.... N) буде дорівнює N в ступені М:

X = N M. (1.3)

Так, у випадку двох кидання кістки з шістьма гранями маємо: Х = 6 2 = 36. Фактично кожен результат Х є деяка пара (X 1, X 2), де X 1 і X 2 - відповідно результати першого і другого кидання (загальне число таких пар - X).

Ситуацію з киданням М раз кістки можна розглядати як якусь складну систему, що складається з незалежних один від одного підсистем - "одноразових кидання кістки". Ентропія такої системи в М разів більше, ніж ентропія однієї системи (так званий "принцип адитивності ентропії"):

f (6 M) = M ∙ f (6)

Цю формулу можна поширити і на випадок будь-якого N:

F (NM) = M ∙ f (N) (1.4)

Прологаріфміруем ліву і праву частини формули (1.3):

ln X = M ∙ ln N, М = ln X / 1n M.

Підставляємо отримане для M значення у формулу (1.4):

Позначивши через До позитивну константу, отримаємо: f (X) = К ∙ lnХ, або, з урахуванням (1.1), H = K ∙ ln N. Звичайно приймають К = 1 / ln 2. Таким чином

H = log 2 N. (1.5)

Це - формула Хартлі.

Важливим при введення будь-якої величини є питання про те, що приймати за одиницю її виміру. Очевидно, Н буде дорівнює одиниці при N = 2. Інакше кажучи, в якості одиниці приймається кількість інформації, пов'язане з проведенням досвіду, що складається в отриманні одного з двох рівноймовірно результатів (прикладом такого досвіду може служити кидання монети при якому можливі два результати: "орел "," решка "). Така одиниця кількості інформації називається "біт".

Всі N фіналів розглянутого вище досвіду є рівноімовірними і тому можна вважати, що на "частку" кожного результату припадає одна N-а частина загальної невизначеності досвіду: (log 2 N) 1 N. При цьому ймовірність i-го результату Р i дорівнює, очевидно, 1 / N.

Таким чином,

(1.6)

Та ж формула (1.6) приймається за міру ентропії в разі, коли можливості різноманітних результатів досвіду нерівно вірогідні (тобто Р i можуть бути різні). Формула (1.6) називається формулою Шеннона.

В якості прикладу визначимо кількість інформації, пов'язане з появою кожного символу в повідомленнях, записаних російською мовою. Будемо вважати, що російський алфавіт складається з 33 літер і знака "пробіл" для поділу слів. За формулою (1.5)

Н = log лютого 1934 ≈ 5 біт.

Однак, за тими словами російської мови (так само як і в словах інших мов) різні літери зустрічаються неоднаково часто. Нижче наведена табл. 1 ймовірностей частоти вживання різних знаків російського алфавіту, отримана на основі аналізу дуже великих за обсягом текстів.

У двійковій системі числення знаки 0 і 1 будемо називати бітами (від англійського виразу Binary digiTs - двійкові цифри). Зазначимо, що творці комп'ютерів віддають перевагу саме двійковій системі числення тому, що в технічному пристрої найбільш просто реалізувати два протилежних фізичних стану: певний фізичний елемент, що має два різних стани: намагніченість у двох протилежних напрямках; прилад, що пропускає чи ні електричний струм; конденсатор, заряджений або незаряджений і т.п. У комп'ютері біт є найменшій можливій одиницею інформації. Обсяг інформації, записаної двійковими знаками в пам'яті комп'ютера або на зовнішньому носії інформації підраховується просто за кількістю необхідних для такого запису двійкових символів. При цьому, зокрема, неможливо неціле число бітів (на відміну від імовірнісного підходу).

Для зручності використання введені і більші, ніж біт, одиниці кількості інформації. Так, двійкове слово з восьми знаків містить один, байт інформації, 1024 байти утворюють кілобайт (Kб), 1024 кілобайт - мегабайт (Мбайт), а 1024 мегабайта - гігабайт (Гбайт).

Між імовірнісним і об'ємним кількістю інформації співвідношення неоднозначне. Далеко не кожен текст, записаний двійковими символами, допускає вимірювання об'єму інформації в кібернетичному сенсі, але свідомо допускає його в об'ємному. Далі, якщо деяке повідомлення допускає вимірність кількості інформації в обох сенсах, то вони не обов'язково збігаються, при цьому кібернетичне кількість інформації не може бути більше об'ємного.

Надалі практично завжди кількість інформації розуміється в об'ємному сенсі.

4. Інформація: більш широкий погляд

Детальніше>>

5. Властивості інформації

Властивості інформації:

запам'ятовуваність;

передання;

перетворюваної;

відтворюваність;

стираемость.

Властивість запоминаемости - одне з найважливіших. Запам'ятовує інформацію будемо називати макроскопічної (маючи на увазі просторові масштаби пам'ятною осередки і час запам'ятовування). Саме з макроскопічної інформацією ми маємо справу в реальній практиці.

Передання інформації за допомогою каналів зв'язку (у тому числі з перешкодами) добре досліджена в рамках теорії інформації К. Шеннона. У даному випадку мається на увазі дещо інший аспект - здатність інформації до копіювання, тобто до того, що вона може бути "запам'ятати" інший макроскопічної системою і при цьому залишиться тотожною самій собі. Очевидно, що кількість інформації не повинно зростати при копіюванні.

Відтворюваність інформації тісно пов'язана з її передаванням і не є її незалежною базовим властивістю. Якщо передання означає, що не слід вважати істотними просторові відносини між частинами системи, між якими передається інформація, то відтворюваність характеризує невичерпність і невичерпного інформації, тобто що при копіюванні інформація залишається тотожною самій собі.

Фундаментальне властивість інформації - перетворюваної. Воно означає, що інформація може міняти спосіб і форму свого існування. Копируемого є різновид перетворення інформації, при якому її кількість не змінюється. У загальному випадку кількість інформації в процесах перетворення змінюється, але зростати не може. Властивість стираемости інформації також не є незалежним. Воно пов'язане з таким перетворенням інформації (передачею), при якому її кількість зменшується і стає рівним нулю.

Підводячи підсумок сказаному, відзначимо, що робляться (але аж ніяк не завершені) спроби учених, які представляють різні галузі знання, побудувати єдину теорію, яка покликана формалізувати поняття інформації та інформаційного процесу, описати перетворення інформації в процесах самої різної природи. Рух інформації є сутність процесів управління, які суть прояв іманентної активності матерії, її здатності до саморуху. З моменту виникнення кібернетики управління розглядається стосовно до всіх форм руху матерії, а не тільки до вищих (біологічної і соціальної). Багато проявів руху в неживих - штучних (технічних) і природних (природних) - системах також володіють загальними ознаками управління, хоча їх досліджують в хімії, фізиці, механіці в енергетичній, а не в інформаційній системі уявлень. Інформаційні аспекти в таких системах становлять предмет нової міждисциплінарної науки - синергетики.

Вищою формою інформації, що виявляється в управлінні у соціальних системах, є знання. Це наддісціплінарное поняття, широко використовується в педагогіці і дослідженнях зі штучного інтелекту, також претендує на роль найважливішої філософської категорії. У філософському плані пізнання слід розглядати як один з функціональних аспектів управління. Такий підхід відкриває шлях до системного розуміння генезису процесів пізнання, його засади і перспективи.

1.2 Кодування інформації

Подання інформації відбувається у різних формах у процесі сприйняття навколишнього середовища живими організмами і людиною, у процесах обміну інформацією між людиною і людиною, людиною і комп'ютером, комп'ютером і комп'ютером і так далі. Перетворення інформації з однієї форми подання (знакової системи) в іншу називається кодуванням.

Засобом кодування служить таблиця відповідності знакових систем, яка встановлює взаємно однозначну відповідність між знаками або групами знаків двох різних знакових систем.

У процесі обміну інформацією часто доводиться здійснювати операції кодування та декодування інформації. При введенні знака алфавіту в комп'ютер шляхом натискання відповідної клавіші на клавіатурі відбувається кодування знака, тобто перетворення комп'ютерний код. При виведенні знака на екран монітора або принтер відбувається зворотний процес - декодування, коли з комп'ютерного коду знак перетворюється на його графічне зображення.

З появою мови, а потім і знакових систем розширилися можливості спілкування між людьми. Це дозволило зберігати ідеї, отримані знання і будь-які дані, передавати їх різними способами на відстань і в інші часи - не тільки своїм сучасникам, а й майбутнім поколінням. До наших днів дійшли творіння предків, які за допомогою різних символів увічнили себе і свої діяння в пам'ятниках і написах. Наскельна малюнки (петрогліфи) до цих пір служать загадкою для вчених. Можливо, таким способом стародавні люди хотіли вступити в контакт з нами, майбутніми мешканцями планети і повідомити про події їхнього життя.

Кожен народ має свою мову, що складається з набору символів (букв): російська, англійська, японська та багато інших. Ви вже познайомилися з мовою математики, фізики, хімії.

Представлення інформації за допомогою будь-якої мови часто називають кодуванням.

Код - набір символів (умовних позначень) дли подання інформації. Кодування - процес подання інформації у вигляді коду.

Водій передає сигнал за допомогою гудка або миготінням фар. Кодом є наявність або відсутність гудка, а в разі світлової сигналізації - мигання фар або його відсутність.

Ви зустрічаєтеся з кодуванням інформації при переході дороги за сигналами світлофора. Код визначають кольору світлофора - червоний, жовтий, зелений.

В основу природної мови, якою спілкуються люди, теж покладено код. Тільки в цьому випадку він називається алфавітом. При розмові цей код передається звуками, при листі - літерами. Одну й ту ж інформацію можна представити за допомогою різних кодів. Наприклад, запис розмови можна зафіксувати за допомогою російських букв або спеціальних стенографічних значків.

У міру розвитку техніки з'являлися різні способи кодування інформації. У другій половині XIX століття американський винахідник Семюель Морзе винайшов дивний код, який служить людству до сих пір. Інформація кодується трьома «літерами»: довгий сигнал (тире), короткий сигнал (точка) і відсутність сигналу (пауза) для розділення букв. Таким чином, кодування зводиться до використання набору символів, розташованих у суворо визначеному порядку.

1.3 Представлення інформації у двійковому коді

Люди завжди шукали способи швидкого обміну повідомленнями. Для цього посилали гінців, використовували поштових голубів. У народів існували різні способи оповіщення про небезпеку, що насувається: барабанний бій, дим вогнищ, прапори і т. д. Однак використання такого подання інформації вимагає попередньої домовленості про розуміння прийнятого повідомлення.

Знаменитий німецький учений Готфрід Вільгельм Лейбніц запропонував ще в XVII столітті унікальну і просту систему представлення чисел. «Обчислення за допомогою двійок ... є для науки основним і породжує нові відкриття ... при зведенні чисел до найпростіших початків, які 0 і 1, скрізь з'являється чудовий порядок ».

Сьогодні такий спосіб подання інформації за допомогою мови, що містить всього два символи алфавіту - 0 і 1, широко використовується в технічних пристроях, у тому числі і в комп'ютері. Ці два символи 0 і 1 прийнято називати двійковими цифрами або бітами (від англ. Bit - BinaryDigit - двійковий знак).

Вся інформація, яку обробляє комп'ютер повинна бути представлена ​​двійковим кодом за допомогою двох цифр 0 і 1. Ці два символи прийнято називати двійковими цифрами або бітами. За допомогою двох цифр 0 і 1 можна закодувати будь-яке повідомлення. Це стало причиною того, що в комп'ютері обов'язково має бути організовано два важливі процеси: кодування і декодування.

Кодування перетворення вхідної інформації у форму, яка сприймається комп'ютером, тобто двійковий код.

Декодування - перетворення даних із двійкового коду у форму, зрозумілу людині.

З точки зору технічної реалізації використання двійкової системи числення для кодування інформації виявилося набагато простішим, ніж застосування інших способів. Дійсно, зручно кодувати інформацію у вигляді послідовності нулів та одиниць, якщо уявити ці значення як два можливих стійких стану електронного елемента:

-Відсутність електричного сигналу;

- Наявність електричного сигналу.

Ці стани легко розрізняти. Недолік двійкового кодування - довгі коди. Але в техніці легше мати справу з великою кількістю простих елементів, ніж з невеликим числом складних.

Вам доводиться постійно стикатися з пристроєм, який може знаходиться тільки у двох стійких станах: включено / вимкнено. Звичайно ж, це добре знайомий всім вимикач. А ось придумати вимикач, який міг би стійко і швидко переключатися в будь-яке з 10 станів, виявилося неможливим. У результаті після низки невдалих спроб розробники прийшли до висновку про неможливість побудови комп'ютера на основі десяткової системи числення. І в основу подання чисел в комп'ютері була покладена саме двійкова система числення.

Способи кодування і декодування інформації в комп'ютері, в першу чергу, залежить від вигляд;, інформації, а саме, що повинно кодуватися: числа, текст, графічні зображення чи звук.

Представлення (кодування) чисел

Для запису інформації про кількість об'єктів використовуються числа. Числа записуються за допомогою набору спеціальних символів.

Система числення - спосіб запису чисел за допомогою набору спеціальних знаків, званих цифрами.

Системи числення поділяються на позиційні і непозиційної.

У позиційних системах числення величина, що позначається цифрою у записі числа, залежить від її положення у числі (позиції).

Кольорові зображення формуються відповідно до двійковим кодом кольору кожної точки, що зберігається у відеопам'яті. Кольорові зображення можуть мати різну глибину кольору, яка задається кількістю бітів, використовуваних для кодування кольору точки. Найбільш поширеними значеннями глибини кольору є 8,16, 24 або 32 біта.

Кольорове зображення на екрані монітора формується за рахунок змішування трьох базових кольорів: червоного, зеленого і синього. Така колірна модель називається RGB-моделлю за першими літерами англійських назв квітів (Red, Green, Blue).

Висновок

Інформацію можна класифікувати різними способами, і різні науки це роблять по-різному. Наприклад, у філософії розрізняють інформацію об'єктивну і суб'єктивну. Об'єктивна інформація відображає явища природи і людського суспільства. Суб'єктивна інформація створюється людьми і відображає їх погляд на об'єктивні явища.

В інформатиці окремо розглядається аналогова інформація і цифрова. Це важливо, оскільки людина завдяки своїм органам почуттів, звик мати справу з аналоговою інформацією, а обчислювальна техніка, навпаки, в основному, працює з цифровою інформацією.

Людина сприймає інформацію за допомогою органів почуттів. Світло, звук, тепло - це енергетичні сигнали, а смак і запах - це результат впливу хімічних сполук, в основі якого теж енергетична природа. Людина відчуває енергетичні впливу безперервно і може ніколи не зустрітися з однією і тією ж їх комбінацією двічі. Немає двох однакових зелених листків на одному дереві і двох абсолютно однакових звуків - це інформація аналогова. Якщо ж різним кольорам дати номери, а різним звукам - ноти, то аналогову інформацію можна перетворити у цифрову.

Кодування інформації. Кодування інформації - це процес формування певного уявлення інформації.

У більш вузькому сенсі під терміном «кодування» часто розуміють перехід від однієї форми подання інформації до іншої, більш зручною для зберігання, передачі або обробки.

Комп'ютер може обробляти тільки інформацію, представлену в числовій формі. Вся інша інформація (звуки, зображення, показання приладів і т. д.) для обробки на комп'ютері повинна бути перетворена в числову форму. Наприклад, щоб перевести в числову форму музичний звук, можна через невеликі проміжки часу вимірювати інтенсивність звуку на певних частотах, представляючи результати кожного вимірювання в числовій формі. За допомогою комп'ютерних програм можна перетворювати отриману інформацію, наприклад «накласти» один на одного звуки від різних джерел.

Аналогічно на комп'ютері можна обробляти текстову інформацію. При введенні в комп'ютер кожна буква кодується певною кількістю, а при виведенні на зовнішні пристрої (екран або друк) для сприйняття людиною за цими числах будуються зображення букв. Відповідність між набором літер і числами називається кодуванням символів.

Як правило, всі числа в комп'ютері представлені за допомогою нулів і одиниць (а не десяти цифр, як це звично для людей). Іншими словами, комп'ютери зазвичай працюють у двійковій системі числення, оскільки при цьому пристрої для їх обробки виходять значно простішими.

Список використаної літератури

1. Агальцов В.П., Титов В.М. Інформатика для економістів: Підручник. - М.: ІД «ФОРУМ»: ИНФРА-М, 2006. - 448 с.

2. Інформатика для економістів: Підручник / За заг. ред. В.М. Матюшко. - М.: ИНФРА-М, 2007. - 880с.

3. Інформатика. Загальний курс: Підручник / За ред. В.І. Колесникова. - М.: Видавничо-торгова корпорація «Дашков і К ◦»; Ростов н / Д: Наука-Прес, 2008. - 400 с.

4. Інформатика: Практикум з технології роботи на комп'ютері / Под ред. Н.В. Макарової. - М.: Фінанси і статистика, 2005. - 256 с.

5. Інформатика: Підручник / За заг. ред. О.М. Данчула. - М.: Изд-во РАГС, 2004. - 528 с.

6. Соболь Б.В. Інформатика: Підручник / Соболь Б.В., Галин А.Б., Панов Ю.В., Рашидова Є.В., Садовій М.М. - М.: Ростов н / Д: Фенікс, 2005. - 448 с.

Додати в блог або на сайт

Цей текст може містити помилки.

Програмування, комп'ютери, інформатика і кібернетика | Реферат
72.2кб. | скачати


Схожі роботи:
Представлення інформації в ЕОМ Поняття і
Представлення та кодування інформації
Представлення інформації в мікропроцесорних засобах Системи числення
Представлення і уяву в психології
Представлення як психологічне явище
Представлення даних судової статистики
Рівень представлення його специфіка
Графічне представлення даних в Excel
Представлення До Роджерса про самоактуалізації
© Усі права захищені
написати до нас
Рейтинг@Mail.ru