Інформація

[ виправити ] текст може містити помилки, будь ласка перевіряйте перш ніж використовувати.

скачати

Інформація - відомості про навколишній світ, про що протікають в ньому процесах, які сприймають живі організми, керуючі машини та інші інформаційні системи.

НЕ РЕЧОВИНА І НЕ ЕНЕРГІЯ ...

Слово "інформація" латинське. За довге життя його значення зазнавало еволюції, то розширюючи, то гранично звужуючи свої кордони. Спочатку під словом "інформація" мали на увазі: "подання", "поняття", потім-"відомості", "передача повідомлень".

В останні роки вчені вирішили, що звичайне (всіма прийняте) значення слова "інформація" занадто еластично, розпливчасто, і дали йому таке значення: "міра визначеності в повідомленні".

Теорію інформації викликали до життя потреби практики. Її виникнення пов'язують з роботою Клода Шеннона "Математична теорія зв'язку", виданої в 1946р. Основи теорії інформації спираються на результати, отримані багатьма вченими. До другої половини XX століття земну кулю гудів від передається інформації, що біжить по телефонних і телеграфним кабелів і радіоканалах. Пізніше з'явилися електронні обчислювальні машини - переробники інформації. А для того часу основним завданням теорії інформації було, насамперед, підвищення ефективності функціонування систем зв'язку. Складність при проектуванні та експлуатації засобів, систем і каналів зв'язку в тому, що конструктору і інженеру недостатньо вирішити завдання з фізичних та енергетичних позицій. З цих точок зору система може бути найдосконалішою і економічною. Але важливо ще при створенні передавальних систем звернути увагу на те, яка кількість інформації пройде через цю передавальну систему. Адже інформацію можна виміряти кількісно, ​​підрахувати. І надходять при подібних обчисленнях самим звичайним шляхом: абстрагуються від змісту повідомлення, як відмовляються від конкретності у звичних всім нам арифметичних діях (як від додавання двох яблук і трьох яблук переходять до складання чисел взагалі: 2 +3).

Вчені заявили, що вони "повністю ігнорували людську оцінку інформації". Послідовному ряду з 100 літер, наприклад, вони приписують певне значення інформації, не звертаючи уваги, чи має ця інформація сенс і чи має, в свою чергу, сенс практичне застосування. Кількісний підхід - найбільш розроблена гілку теорії інформації. Відповідно з цим визначенням сукупність 100 літер - фраза з 100 літер з газети, п'єси Шекспіра чи теореми Ейнштейна - має в точності однакову кількість інформації.

Таке визначення кількості інформації є надзвичайно корисним і практичним. Воно в точності відповідає завданню інженера зв'язку, який повинен передати всю інформацію, що міститься у поданій телеграмі, незалежно від цінності цієї інформації для адресата. Канал зв'язку бездушність. Передавальної системі важливо одне: передати потрібну кількість інформації за певний час. Як же обчислити кількість інформації в конкретному повідомленні?

Оцінка кількості інформації грунтується на законах теорії ймовірностей, точніше, визначається через імовірність подій. Це і зрозуміло. Повідомлення має цінність, несе інформацію тільки тоді, коли ми дізнаємося з нього про результат події, що має випадковий характер, коли воно в якійсь мірі несподівано. Адже повідомлення про вже відомий ніякої інформації не містить. Тобто якщо вам, припустимо, хтось зателефонує і скаже: "Вдень буває ясно, а вночі темно", то таке повідомлення вас здивує лише безглуздістю висловлювання очевидного й усім відомого, а не новиною, яку воно містить.

Інша річ, наприклад, результат забігу на скачках. Хто прийде першим? Вихід тут важко передбачити.

Чим більше цікавить нас має випадкових результатів, тим цінніше повідомлення про його результат, тим більше інформації.

Повідомлення про подію, яка має лише дві однаково можливих наслідки, містить одну одиницю інформації, звану бітом. Вибір одиниці інформації не випадковий. Він пов'язаний з найбільш поширеним двійковим способом її кодування при передачі і обробці.

Спробуємо хоча б у самому спрощеному вигляді уявити собі той загальний принцип кількісної оцінки інформації, який є наріжним каменем всієї теорії інформації.

Ми вже знаємо, що кількість інформації залежить від вірогідності тих чи інших результатів події. Якщо подія, як кажуть вчені, має два рівноймовірно результату, це означає, що ймовірність кожного результату дорівнює 1 / 2. Така ймовірність випадання "орла" або "решки" при киданні монети. Якщо подія має три рівноймовірно результату, то ймовірність кожного дорівнює 1 / 3. Зауважте, сума ймовірностей всіх результатів завжди дорівнює одиниці: адже який-небудь з усіх можливих результатів обов'язково настане.

Подія, як ви самі розумієте, може мати і неравновероятние наслідки. Так, при футбольному матчі між сильною і слабкою командами ймовірність перемоги сильної команди велика - наприклад, 4 / 5. Вірогідність нічиєї набагато менше, наприклад 3 / 20. Вірогідність ж поразки зовсім мала.

Виходить, що кількість інформації - це міра зменшення невизначеності деякої ситуації. Різні кількості інформації передаються по каналах зв'язку, і кількість проходить через канал інформації не може бути більше його пропускної здатності. А її визначають по тому, яка кількість інформації проходить тут за одиницю часу.

Один з героїв роману Жуля Верна "Таємничий острів", журналіст Гедеон Спіллет, передавав по телефону розділ з Біблії, щоб його конкуренти не могли скористатися телефонним зв'язком. У цьому випадку канал був завантажений повністю, а кількість інформації було дорівнює нулю, бо абоненту передавалися відомі для нього відомості. Значить, канал працював вхолосту, пропустивши строго певна кількість імпульсів, нічим їх не навантаживши.

А між тим, чим більше інформації несе кожен з певного числа імпульсів, тим повніше використовується пропускна здатність каналу. Тому потрібно розумно кодувати інформацію, знайти економний, скупий мова для передачі повідомлень.

Інформацію "просівають" самим ретельним чином. У телеграфі часто зустрічаються букви, поєднання букв, навіть цілі фрази зображують більш коротким набором нулів і одиниць, а ті, що зустрічаються рідше, - більш довгим. У випадку, коли зменшують довжину кодового слова для часто зустрічаються символів і збільшують для рідко зустрічаються, говорять про ефективне кодування інформації.

Але на практиці досить часто трапляється, що код, що виник в результаті самого ретельного "просіювання", код зручний і економний, може спотворити повідомлення через перешкоди, які завжди, на жаль, бувають в каналах зв'язку: спотворення звуку в телефоні, атмосферні перешкоди в радіо, спотворення або затемнення зображення в телебаченні, помилки при передачі в телеграфі. Ці перешкоди, або, як їх називають фахівці, шуми, обрушуються на інформацію. А від цього бувають найнеймовірніші і, природно, неприємні несподіванки.

Тому для підвищення надійності у передачі та обробці інформації доводиться вводити зайві символи - своєрідний захист від спотворень. Вони - ці зайві символи - не несуть дійсного змісту в повідомленні, вони надлишкові. З точки зору теорії інформації все те, що робить мову барвистим, гнучким, багатим відтінками, багатоплановим, багатозначним, - надмірність. Як надлишково з таких позицій листа Тетяни до Онєгіна! Скільки в ньому інформаційних надмірностей для короткого і всім зрозумілого повідомлення "Я вас люблю"! І як інформаційно точні мальовані позначення, зрозумілі всім і кожному, хто входить сьогодні в метро, ​​де замість слів і фраз оголошень висять лаконічні символьні знаки, які вказують: "Вхід", "Вихід".

У зв'язку з цим корисно згадати анекдот, розказаний у свій час знаменитим американським вченим Бенджаменом Франкліном, про шляпочніке, запросіть своїх друзів для обговорення проекту вивіски.

Передбачалося намалювати на вивісці капелюх і написати: "Джон Томпсон, шляпочнік, робить і продає капелюхи за готівку".

Один з друзів зауважив, що слова "за готівку" є зайвими - таке нагадування буде образливим для покупця. Інший знайшов також зайвим слово "продає", так як саме собою зрозуміло, що шляпочнік продає капелюхи, а не роздає їх задарма. Третьому здалося, що слова "шляпочнік" і "робить капелюхи" представляють собою непотрібну тавтологію, і останні слова були викинуті. Четвертий запропонував викинути і слово "шляпочнік" - намальована капелюх ясно говорить, хто такий Джон Томпсон. Нарешті, п'ятий запевняв, що для покупця абсолютно байдуже, чи буде шляпочнік називатися Джоном Томпсоном чи інакше, і запропонував обійтися без цього зазначення.

Таким чином, в кінці кінців на вивісці не залишилося нічого, крім капелюхи.

Звичайно, якби люди користувалися тільки такого роду кодами, без надмірності в повідомленнях, то все "інформаційні форми" - книги, доповіді, статті - були гранично короткими. Але програли б у дохідливості і красі.

СХЕМА ПЕРЕДАЧІ ІНФОРМАЦІЇ

Будь-яке подія, всяке явище служить джерелом інформації.

Будь-яке подія, всяке явище може бути виражене по-різному, різним способом, різним алфавітом. Щоб інформацію більш точно і економно передати по каналах зв'язку, її треба відповідно закодувати.

Інформація не може існувати без матеріального носія, без передачі енергії. Закодоване повідомлення набуває вигляду сигналів-носіїв інформації. Вони-то і йдуть на каналі. Вийшовши на приймач, сигнали повинні знайти знову загальнозрозумілою вигляд.

З цією метою сигнали пробігають декодер, набуваючи форму, зручну для абонента. Система зв'язку спрацювала, мета досягнута. Коли говорять про канали зв'язку, про системи зв'язку, частіше за все для прикладу беруть телеграф. Але канали зв'язку - поняття дуже широке, що включає безліч всяких систем, найрізноманітніших.

Щоб ясний був багатоликий характер поняття "канал зв'язку", досить навести декілька прикладів.

При телефонної передачі джерело повідомлення - говорить. Кодуючий пристрій, змінює звуки слів в електричні імпульси, - це мікрофон. Канал, по якому передається інформація - телефонний дріт. Та частина трубки, яку ми підносимо до вуха, виконує роль декодуючого пристрою. Тут електричні сигнали знову перетворюються на звуки. І нарешті, інформація надходить в "приймаючий пристрій"-вухо людини на іншому кінці дроту. А ось каналсвязі зовсім іншої природи - живий нерв. Тут всі повідомлення передаються нервовим імпульсом. Але в технічних каналах зв'язку напрям передачі інформації може змінюватися, а по нервовій системі передача йде в одному напрямку.

Ще один приклад - обчислювальна машина. І тут ті ж характерні риси. Окремі системи обчислювальної машини передають одна одній інформацію за допомогою сигналів. Адже обчислювальна машина-автоматичний пристрій для обробки інформації, як верстат - пристрій для обробки металу. Машина не створює з "нічого" інформацію, вона перетворює тільки те, що в неї введено.

ЦІННІСТЬ ІНФОРМАЦІЇ

Ми вже знаємо, що кількісний метод - один із напрямків у теорії інформації - найбільш поширений і найбільш розроблений. Існують і інші методи. Вони, на противагу кількісному, намагаються вхопити зміст інформації, її цінність, її якість.

Кількість інформації з двох повідомлень може бути абсолютно однаковим, а сенс абсолютно різним. Два слова, наприклад "Мир" і "Рим", містять однакову кількість інформації, складаються з одних і тих же букв, але зміст слів різний.

У повсякденному житті ми, як правило, оцінюємо отримані відомості зі смислового боку: нові відомості сприймаємо не як певну кількість інформації, а як новий зміст. Чи можна обчислити зміст інформації, підрахувати їх у повідомленнях? Так, це пробує робити семантична теорія інформації. Ось ще один приклад і ще один напрямок (прагматичне - ділове) в цій науці.

Пасажири їдуть в автобусі. Водій оголошує зупинку. Дехто виходить, інші не звертають уваги на слова водія - передану їм інформацію. Чому? Тому що інформація тут має різну цінність для одержувачів, у ролі яких в цьому прикладі виступають пасажири. Вийшов той, для кого інформація була цінна. Значить, цінність можна визначити як властивість інформації, що впливає на поведінку її одержувача.

ВИСНОВОК

У теорії інформації в наш час розробляють багато систем, методів, підходів, ідей. Проте вчені вважають, що до сучасних напрямків у теорії інформації додадуться нові, з'являться нові ідеї. Як доказ правильності своїх припущень вони призводять "живий", розвивається характер науки, вказують на те, що теорія інформації дивно швидко і міцно впроваджується в самі різні області людського знання. Теорія інформації проникла в фізику, хімію, біологію, медицину, філософію, лінгвістику, педагогіку, економіку, логіку, технічні науки, естетику. За визнанням самих фахівців, вчення про інформацію, що виникло в силу потреб теорії зв'язку і кібернетики, переступило їх рамки. І тепер, мабуть, ми маємо право говорити про інформацію як науковому понятті, що дає в руки дослідників теоретико - інформаційний метод, за допомогою якого можна проникнути в багато науки про живу і неживу природу, про суспільство, що дозволить не тільки поглянути на всі проблеми з новою боку, а й побачити ще не побаченими. Ось чому термін "інформація" отримав в наш час широке поширення, ставши частиною таких понять, як інформаційна система, інформаційна культура, навіть інформаційна етика.

Багато наукові дисципліни використовують теорію інформації, щоб підкреслити новий напрям у старих науках. Так виникли, наприклад, інформаційна географія, інформаційна економіка, інформаційне право.

Але надзвичайно велике значення набув термін "інформація" у зв'язку з розвитком новітньої комп'ютерної техніки, автоматизацією розумової праці, розвитком нових засобів зв'язку і обробки інформації і особливо з виникненням інформатики.

Однією з найважливіших завдань теорії інформації є вивчення природи і властивостей інформації, створення методів її обробки, зокрема перетворення самої різної сучасної інформації в програми для ЕОМ, за допомогою яких відбувається автоматизація розумової роботи - своєрідне посилення інтелекту, а отже, розвиток інтелектуальних ресурсів суспільства.

Додати в блог або на сайт

Цей текст може містити помилки.

Програмування, комп'ютери, інформатика і кібернетика | Шпаргалка
30.2кб. | скачати


Схожі роботи:
Інформація 3
Телекомунікація і інформація
Правова інформація
Комерційна інформація
Конфіденційна інформація
Інформація та інформатика
Цифрова інформація
Ротавіруси інформація
Інформація в менеджменті
© Усі права захищені
написати до нас