Поняття і властивості інформації її види

[ виправити ] текст може містити помилки, будь ласка перевіряйте перш ніж використовувати.

скачати

Поняття і властивості інформації, її види
Термін інформація походить від латинського слова informatio, що означає «відомості, роз'яснення, виклад». Інформація - це настільки загальне та глибоке поняття, що його не можна пояснити однією фразою. У це слово вкладається різний зміст у техніці, науці і в життєвих ситуаціях. У побуті інформацією називають будь-які дані або відомості, які будь-кого цікавлять, наприклад повідомлення про які-небудь події, про чию-якої діяльності і т. п. «Інформувати» в цьому сенсі означає «повідомити щось, невідоме раніше».

Інформація - відомості про об'єкти та явища навколишнього середовища, їх параметри, властивості і стан, які сприймають інформаційні системи (живі організми, керуючі машини та ін) в процесі життєдіяльності та роботи.
Одне і те ж інформаційне повідомлення (стаття в газеті, оголошення, лист, телеграма, довідка, розповідь, креслення, радіопередача і т. п.) може містити різну кількість інформації для різних людей залежно від їх накопичених знань, від рівня розуміння цього повідомлення та інтересу до нього. Так, повідомлення, складене на японській мові, не несе ніякої нової інформації людині, яка не знає цієї мови, але може бути високоінформативним для людини, що володіє японським. Ніякої нової інформації не містить і повідомлення, викладене на знайомою мовою, якщо його зміст незрозуміло або вже відомо.
Інформація є характеристика не повідомлення, а співвідношення між повідомленням і його споживачем. Без наявності споживача, хоча б потенційного, говорити про інформацію безглуздо. У випадках, коли говорять про автоматизовану роботі з інформацією за допомогою будь-яких технічних пристроїв, зазвичай в першу чергу цікавляться не змістом повідомлення, а тим, скільки символів це повідомлення містить. Стосовно до комп'ютерній обробці даних під інформацією розуміють деяку послідовність символічних позначень (літер, цифр, закодованих графічних образів і звуків і т. п.), що несе смислове навантаження і подану в зрозумілому комп'ютера вигляді. Кожен новий символ в такій послідовності символів збільшує інформаційний обсяг повідомлення.
Інформація може існувати у вигляді:
· Текстів, малюнків, креслень, фотографій;
· Світлових або звукових сигналів;
· Радіохвиль;
· Електричних та нервових імпульсів;
· Магнітних записів;
· Жестів і міміки;
· Запахів і смакових відчуттів;
· Хромосом, за допомогою яких передаються в спадщину ознаки і властивості організмів, і т. д.
Предмети, процеси, явища матеріального чи нематеріального властивості, розглянуті з точки зору їх інформаційних властивостей, називаються інформаційними об'єктами.

Що можна робити з інформацією

створювати
приймати
комбінувати
зберігати
передавати
копіювати
обробляти
шукати
сприймати
формалізувати
ділити на частини
вимірювати
використовувати
поширювати
спрощувати
руйнувати
запам'ятовувати
перетворювати
збирати
і т. д.
Всі ці процеси, пов'язані з певними операціями над інформацією, називаються інформаційними процесами.

Властивості інформації

Інформація має такі властивості:
· Достовірність
· Повнота
· Точність
· Цінність
· Своєчасність
· Зрозумілість
· Доступність
· Стислість і т. д.
Інформація достовірна, якщо вона відображає істинне положення справ. Недостовірна інформація може призвести до неправильного розуміння або прийняття неправильних рішень. Достовірна інформація з часом може стати недостовірної, так як вона має властивість застарівати, т. е. перестає відображати справжній стан справ. Інформація повна, якщо її достатньо для розуміння і прийняття рішень. Як неповна, так і надмірна інформація стримує прийняття рішень чи може спричинити помилки. Точність інформації визначається ступенем її близькості до реального стану об'єкта, процесу, явища і т. п. Цінність інформації залежить від того, наскільки вона важлива для вирішення завдання, а також від того, наскільки надалі вона знайде застосування в будь-яких видах діяльності людини. Тільки своєчасно отримана інформація може принести очікувану користь. Однаково небажані як передчасна подача інформації (коли вона ще не може бути засвоєна), так і її затримка. Якщо цінний і своєчасна інформація виражена незрозумілим чином, вона може стати марною. Інформація стає зрозумілою, якщо вона виражена мовою, на якому говорять ті, кому призначена ця інформація. Інформація повинна подаватись у доступній (за рівнем сприйняття) формі. Тому одні й ті ж питання по-різному викладаються в шкільних підручниках і наукових виданнях. Інформацію з одного й того ж питання можна викласти коротко (стисло, без несуттєвих деталей) або докладно (детально, багатослівно). Стислість інформації необхідна в довідниках, енциклопедіях, всіляких інструкціях. Поняття «інформація» використовується в різних науках, при цьому в кожній науці поняття «інформація» пов'язане з різними системами понять. Інформація в біології: Біологія вивчає живу природу і поняття «інформація» зв'язується з доцільним поведінкою живих організмів. У живих організмах інформація передається і зберігатися за допомогою об'єктів різної фізичної природи (стан ДНК), які розглядаються як знаки біологічних алфавітів. Генетична інформація передається у спадок і зберігається у всіх клітинах живих організмів. Філософський підхід: Інформація - це взаємодія, відображення, пізнання. Кібернетичний підхід: Інформація - Це характеристики керуючого сигналу, переданого по лінії зв'язку.
Можна виділити наступні підходи до визначення інформації:
* Традиційний (буденний) - використовується в інформатиці: Інформація - це відомості, знання, повідомлення про стан справ, які людина сприймає з навколишнього світу за допомогою органів чуття (зору, слуху, смаку, нюху, дотику).
* Імовірнісний - використовується в теорії про інформацію: Інформація - це відомості про об'єкти та явища навколишнього середовища, їх параметри, властивості і стан, які зменшують наявну про них ступінь невизначеності та неповноти знань.
Для людини: Інформація - це знання, які він отримує з різних джерел за допомогою органів почуттів
Знання ділять на дві групи:
1. Декларативні - від слова декларація (затвердження, повідомлення) починаються зі слів «Я знаю, що ...»;
2. Процедурні - визначають дії для досягнення будь-якої мети, починаються зі слів «Я знаю, як ...»
Класифікація інформації
За способами сприйняття - Візуальна, Аудіальна, Тактильна, Нюхова, смакова;
За формами подання-Текстова, Числова, Графічна, Музична, Комбінована і тд.
За громадського призначення: Масова - буденна, суспільно-політична, естетична
Спеціальна - наукова, технічна, управлінська, виробнича
Особиста - наші знання, вміння, інтуїція
Основні властивості інформації:
Об'єктивність - не залежить від чого-небудь думки
Достовірність - відбиває справжній стан справ
Повнота - Достатня для розуміння і прийняття рішення
Актуальність - важлива і істотна для теперішнього часу
Цінність (корисність, значущість) - забезпечує вирішення поставленого завдання, потрібна для того, щоб приймати правильні рішення
Зрозумілість (ясність) - виражена мовою, доступному одержувачу
Крім цього інформація має ще наступними властивостями:
1) Атрибутивні властивості (атрибут - невід'ємна частина чого-небудь). Найважливішими серед них є: - дискретність (інформація складається з окремих частин, знаків) і безперервність (можливість накопичувати інформацію)
2) Динамічні властивості пов'язані зі зміною інформації у часі:
- Копіювання - розмноження інформації
- Передача від джерела до споживача
- Переклад з однієї мови на іншу
- Перенесення на інший носій
- Старіння (фізична - носія, моральне - ціннісне)
3) Практичні властивості - інформаційний обсяг і щільність
Інформація зберігатися, передається і обробляється в символьній (знакової) формі. Одна і та ж інформація може бути представлена ​​в різній формі: 1) Знаковою письмовій, що складається з різних знаків серед яких виділяють символьну у вигляді тексту, чисел, спец. символів; графічну; табличну і тд.; 2) У вигляді жестів або сигналів; 3) В усній словесній формі (розмова). Представлення інформації здійснюється за допомогою мов, як знакових систем, які будуються на основі певного алфавіту і мають правила для виконання операцій над знаками.
Мова - певна знакова система подання інформації. Існують:
Природні мови - розмовні мови в усній і письмовій формі. У деяких випадках розмовну мову можуть замінити мову міміки і жестів, мова спеціальних знаків (наприклад, дорожніх);
Формальні мови - спеціальні мови для різних галузей людської діяльності, які характеризуються жорстко зафіксованим алфавітом, більш строгими правилами граматики та синтаксису. Це мова музики (ноти), мова математики (цифри, математичні знаки), системи числення, мови програмування і т.д.
В основі будь-якої мови лежить алфавіт - Набір символів / знаків. Повне число символів алфавіту прийнято називати потужністю алфавіту.
Носії інформації - середовище або фізичне тіло для передачі, зберігання і відтворення інформації. (Це електричні, світлові, теплові, звукові, радіо сигнали, магнітні й лазерні диски, друковані видання, фотографії і тд.)
Інформаційні процеси - це процеси, пов'язані з отриманням, зберіганням, обробкою і передачею інформації (тобто дії, що виконуються з інформацією). Тобто це процеси, в ході яких змінюється зміст інформації або форма її подання.

Для забезпечення інформаційного процесу необхідне джерело інформації, канал зв'язку і споживач інформації. Джерело передає (надсилає) інформацію, а приймач її отримує (сприймає). Передана інформація домагається від джерела до приймача за допомогою сигналу (коду). Зміна сигналу дозволяє отримати інформацію. Поняття інформація є одним з фундаментальних у сучасній науці взагалі і базовим для інформатики. Інформацію поряд з речовиною і енергією розглядають в якості найважливішої сутності світу, в якому ми живемо. Однак, якщо задатися метою формально визначити поняття «інформація», то зробити це буде надзвичайно складно. У найпростішому побутовому розумінні з терміном «інформація» зазвичай асоціюються деякі відомості, дані, знання і т.п. Інформація передається у вигляді повідомлень, що визначають форму та подання інформації, що передається. Прикладами повідомлень є музичний твір; телепередача; команди регулювальника на перехресті; текст, роздрукований на принтері; дані, отримані в результаті роботи складеної вами програми і т.д. При цьому передбачається, що є «джерело інформації» та «отримувач інформації».
Повідомлення від джерела до одержувача передається за допомогою якої-небудь середовища, що є в такому разі «каналом зв'язку». Так, при передачі повідомлення в якості такого каналу зв'язку можна розглядати повітря, в якому поширюються звукові хвилі, а в разі передачі письмового повідомлення (наприклад, тексту, роздрукованого на принтері) каналом повідомлення можна вважати аркуш паперу, на якому надрукований текст. Людині властиво суб'єктивне сприйняття інформації через деякий набір її властивостей: важливість, достовірність, своєчасність, доступність, «більше-менше» і т.д. Використання термінів «більше інформації» або «менше інформації» має на увазі якусь можливість її вимірювання (або хоча б кількісного співвіднесення). При суб'єктивному сприйнятті вимір інформації можливо лише у вигляді встановлення деякої суб'єктивної порядкової шкали для оцінки «більше-менше». При об'єктивному вимірі кількості інформації слід свідомо відмовитися від сприйняття її з точки зору суб'єктивних властивостей, приклади яких перераховані вище. Більш того, не виключено, що не всяка інформація буде мати об'єктивно вимірюваний кількість. Щоб повідомлення було передано від джерела до одержувача необхідна деяка матеріальна субстанція - носій інформації. Повідомлення, що передається за допомогою носія - сигнал. У загальному випадку сигнал - це змінюється в часі фізичний процес. Та з характеристик процесу, яка використовується для подання повідомлень, називається параметром сигналу. У випадку, коли параметр сигналу приймає послідовне в часі кінцеве число значень (при цьому всі вони можуть бути пронумеровані), сигнал називається дискретним, а повідомлення, що передається за допомогою таких сигналів - дискретним повідомленням. Якщо ж джерело виробляє безперервне повідомлення (відповідно параметр сигналу - безперервна функція від часу), то відповідна інформація називається безперервною. Приклади дискретного повідомлення - текст книги, безперервного повідомлення - людська мова, передана модульованої звуковою хвилею; параметром сигналу в цьому випадку є тиск, що створюється цією хвилею в точці знаходження приймача - людського вуха.
Безперервне повідомлення може бути представлено безперервною функцією, заданої на деякому інтервалі. Безперервне повідомлення можна перетворити в дискретне (така процедура називається дискретизацією). З нескінченної кількості значень параметра сигналу вибирається їх певне число, яке приблизно може характеризувати інші значення. Для цього область визначення функції розбивається на відрізки рівної довжини і на кожному з цих відрізків значення функції приймається постійним і рівним, наприклад, середнього значення на цьому відрізку. У результаті отримаємо кінцеве безліч чисел. Таким чином, будь-яке безперервне повідомлення може бути представлено як дискретне, інакше кажучи, послідовністю знаків деякого алфавіту.
Можливість дискретизації безперервного сигналу з будь-якою бажаною точністю (для зростання точності достатньо зменшити крок) принципово важлива з точки зору інформатики. Комп'ютер - цифрова машина, тобто внутрішнє представлення інформації в ньому дискретно. Дискретизація вхідної інформації (якщо вона неперервна) дозволяє зробити її придатною для комп'ютерної обробки.
Одиниці кількості інформації: імовірнісний і об'ємний підходи
Визначити поняття «кількість інформації» досить складно. У вирішенні цієї проблеми існують два основні підходи. Історично вони виникли майже одночасно. В кінці 40-х років XX століття один з основоположників кібернетики американський математик Клод Шеннон розвинув імовірнісний підхід до вимірювання кількості інформації, а роботи зі створення ЕОМ привели до «об'ємному» підходу.
Імовірнісний підхід
Розглянемо як приклад досвід, пов'язаний з киданням правильної гральної кістки, що має N граней. Результати даного досвіду можуть бути наступні: випадання межі з одним з наступних знаків: 1, 2,. . . N.
Введемо в розгляд чисельну величина, що визначає невизначеність - ентропію (позначимо її H). Згідно розвиненої теорії, у разі равновероятного випадання кожної з граней величини N і H пов'язані між собою формулою Хартлі
H = log 2 N.
Важливим при введенні будь-якої величини є питання про те, що приймати за одиницю її виміру. Очевидно, H буде дорівнює одиниці при N = 2. Інакше кажучи, в якості одиниці приймається кількість інформації, пов'язане з проведенням досвіду, що складається в отриманні одного з двох рівноймовірно результатів (прикладом такого досвіду може служити кидання монети при якому можливі два результати: «орел», «решка»). Така одиниця кількості інформації називається «біт».
У випадку, коли ймовірності P i результатів досвіду (у прикладі, наведеному вище - кидання гральної кістки) неоднакові, має місце формула Шеннона
.
У разі равновероятности подій , І формула Шеннона переходить у формулу Хартлі.
В якості прикладу визначимо кількість інформації, пов'язане з появою кожного символу в повідомленнях, записаних російською мовою. Будемо вважати, що російський алфавіт складається з 33 літер і знака «пропуск» для поділу слів. За формулою Хартлі H = log лютого 1934 ~ 5.09 біт.
Однак, за тими словами російської мови (так само як і в словах інших мов) різні літери зустрічаються неоднаково часто. Нижче наведена табл. 3 ймовірностей частоти вживання різних знаків російського алфавіту, отримана на основі аналізу дуже великих за обсягом текстів.
Скористаємося для підрахунку H формулою Шеннона: H ~ 4.72 біт. Отримане значення H, як і можна було припустити, менше обчисленого раніше. Величина H, яка обчислюється за формулою Хартлі, є максимальною кількістю інформації, яка могла б припадати на один знак. Аналогічні підрахунки H можна провести і для інших мов, наприклад, використовують латинський алфавіт - англійської, німецької, французької та ін (26 різних букв і «пропуск»). За формулою Хартлі отримаємо H = log 27 лютого ~ 4.76 біт.
Таблиця 1. Частотність літер російської мови
i
Символ
P (i)
I
Символ
P (i)
I
Символ
P (i)
1
_
0.175
12
Л
0.035
23
Б
0.014
2
Про
0.090
13
До
0.028
24
Г
0.012
3
Е
0.072
14
М
0.026
25
Ч
0.012
4
Е
0.072
15
Д
0.025
26
Й
0.010
5
А
0.062
16
П
0.023
27
Х
0.009
6
І
0.062
17
У
0.021
28
Ж
0.007
7
T
0.053
18
Я
0.018
29
Ю
0.006
8
H
0.053
19
И
0.016
30
Ш
0.006
9
C
0.045
20
З
0.016
31
Ц
0.004
10
P
0.040
21
Ь
0.014
32
Щ
0.003
11
B
0.038
22
'
0.014
33
Е
0.003
34
Ф
0.002
Розглянемо алфавіт, що складається з двох знаків 0 і 1. Якщо вважати, що зі знаками 0 і 1 в двійковому алфавіті пов'язані однакові ймовірності їхньої появи (P (0) = P (1) = 0.5), то кількість інформації на один знак при двійковому кодуванні дорівнюватиме

H = log 2 лютого = 1 біт.
Таким чином, кількість інформації (у бітах), укладену в двійковому слові, дорівнює кількості двійкових знаків у ньому.
Об'ємний підхід
У двійковій системі числення знаки 0 і 1 називають бітами (Від англійського виразу Binary digiTs - двійкові цифри). У комп'ютері біт є найменшій можливій одиницею інформації. Обсяг інформації, записаної двійковими знаками в пам'яті комп'ютера або на зовнішньому носії інформації, підраховується просто за кількістю необхідних для такого запису двійкових символів. При цьому, зокрема, неможливо неціле число бітів (на відміну від імовірнісного підходу).
Для зручності використання введені і більші, ніж біт, одиниці кількості інформації. Так, двійкове слово з восьми знаків містить один байт інформації. 1024 байти утворюють кілобайт (Кбайт), 1024 кілобайт - мегабайт (Мбайт), а 1024 мегабайта - гігабайт (Гбайт).
Між імовірнісним і об'ємним кількістю інформації співвідношення неоднозначне. Далеко не кожен текст, записаний двійковими символами, допускає вимірювання об'єму інформації в ймовірносно (кібернетичному) сенсі, але свідомо допускає його в об'ємному. Далі, якщо деяке повідомлення допускають вимірність кількості інформації в обох сенсах, то ця кількість не обов'язково збігається, при цьому кібернетичне кількість інформації не може бути більше об'ємного. У прикладній інформатиці практично завжди кількість інформації розуміється в об'ємному сенсі. Як не важливо вимір інформації, не можна зводити до нього всі пов'язані з цим поняттям проблеми. При аналізі інформації соціального (у широкому сенсі) походження на перший план можуть виступити такі її властивості як істинність, своєчасність, цінність, повнота і т.д. Їх неможливо оцінити в термінах «зменшення невизначеності» (імовірнісний підхід) або числа символів (об'ємний підхід). Звернення до якісної стороні інформації породило інші підходи до її оцінки. При аксіологічному підході прагнуть виходити з цінності, практичної значущості інформації, тобто якісних характеристик, значущих у соціальній системі. При семантичному підході інформація розглядається як з точки зору форми, так і змісту. При цьому інформацію пов'язують з тезаурусом, тобто повнотою систематизованого набору даних про предмет інформації. Відзначимо, що ці підходи не виключають кількісного аналізу, але він стає істотно складніше і має базуватись на сучасних методах математичної статистики.
Поняття інформації не можна вважати лише технічним, міждисциплінарним і навіть наддісціплінарним терміном. Інформація - це фундаментальна філософська категорія. Дискусії вчених про філософські аспекти інформації надійно показали незвідність інформації ні до однієї з цих категорій. Концепції та тлумачення, що виникають на шляху догматичних підходів, виявляються занадто приватними, односторонніми, не охоплюють всього обсягу цього поняття.
Спроби розглянути категорію інформації з позицій основного питання філософії призвели до виникнення двох протиборчих концепцій - так званих, функціональної та атрибутивної. «Атрібутісти» кваліфікують інформацію як властивість всіх матеріальних об'єктів, тобто як атрибут матерії. «Функціоналістів» пов'язують інформацію лише з функціонуванням складних, самоорганізованих систем. Можна спробувати дати філософське визначення інформації за допомогою вказівки на зв'язок визначається поняття з категоріями відображення та активності. Інформація є зміст образу, що формується в процесі відображення. Активність входить в це визначення у вигляді подання про формування якогось образу в процесі відображення деякого суб'єкт-об'єктного відношення. При цьому не потрібно вказівки на зв'язок інформації з матерією, оскільки як суб'єкт, так і об'єкт процесу відображення можуть належати як до матеріальної, так і до духовної сфери соціального життя. Проте істотно підкреслити, що матеріалістичне рішення основного питання філософії вимагає визнання необхідності існування матеріального середовища - носія інформації в процесі такого відображення. Отже, інформацію слід трактувати як іманентний (невід'ємно притаманний) атрибут матерії, необхідний момент її саморуху і саморозвитку. Ця категорія набуває особливого значення стосовно до вищих форм руху матерії - біологічної та соціальної. Відомо велика кількість робіт, присвячених фізичної трактуванні інформації. Ці роботи значною мірою побудовано на основі аналогії формули Больцмана, яка описує ентропію статистичної системи матеріальних часток, і формули Хартлі. Відповідні матеріали можна знайти в літературі, відображеної у наведеному нижче переліку. Інформацію слід вважати особливим видом ресурсу, при цьому мається на увазі тлумачення «ресурсу» як запасу якихось знань матеріальних предметів або енергетичних, структурних чи будь-яких інших характеристик предмета. На відміну від ресурсів, пов'язаних з матеріальними предметами, інформаційні ресурси є невичерпними і припускають істотно інші методи відтворення й оновлення, ніж матеріальні ресурси. У зв'язку з таким поглядом центральними стають такі властивості інформації: запам'ятовування, передання, перетворюється, відтворюваність, стираемость. Підводячи підсумок сказаному, відзначимо, що робляться (але аж ніяк не завершені) зусилля вчених, що представляють різні галузі знання, побудувати єдину теорію, яка покликана формалізувати поняття інформації та інформаційного процесу, описати перетворення інформації в процесах самої різної природи. Рух інформації є сутність процесів управління, які суть прояв іманентної активності матерії, її здатності до саморуху. З моменту виникнення кібернетики управління розглядається стосовно до всіх форм руху матерії, а не тільки до вищих (біологічної і соціальної). Багато проявів руху в неживих - штучних (технічних) і природних (природних) - системах також володіють загальними ознаками управління, хоча їх досліджують в хімії, фізиці, механіці в енергетичній, а не в інформаційній системі уявлень. Інформаційні аспекти в таких системах становлять предмет нової міждисциплінарної науки - синергетики. Вищою формою інформації, що виявляється в управлінні у соціальних системах, є знання. Це наддісціплінарное поняття, широко використовується в педагогіці і дослідженнях зі штучного інтелекту, також претендує на роль найважливішої філософської категорії. У філософському плані пізнання слід розглядати як один з функціональних аспектів управління. Такий підхід відкриває шлях до системного розуміння генезису процесів пізнання, його засади і перспективи.
Додати в блог або на сайт

Цей текст може містити помилки.

Програмування, комп'ютери, інформатика і кібернетика | Реферат
97.3кб. | скачати


Схожі роботи:
Види і властивості інформації
Види і властивості інформації 2
Поняття інформації та її основні властивості
Поняття фінансово кредитної інформації її властивості і особливості
Поняття і види засобів масової інформації
Властивості інформації Одиниці виміру кількості інформації
Спілкування як передача інформації Види інформації
Види іонізуючих елементів і їх властивості
Криптографія Шифри їх види і властивості
© Усі права захищені
написати до нас