Інформація та способи її подання

[ виправити ] текст може містити помилки, будь ласка перевіряйте перш ніж використовувати.

скачати

Інформатика - наука про закони і методи накопичення, обробки і передачі інформації. У найбільш загальному вигляді поняття інформації можна виразити так:

Інформація - це відображення предметного світу за допомогою знаків і сигналів.

Прийнято говорити, що рішення задачі на ЕОМ, в результаті чого створюється нова інформація, виходить шляхом обчислень. Потреба в обчисленнях пов'язана з вирішенням завдань: наукових, інженерних, економічних, медичних та інших.

Яким чином відшукується рішення завдання?

Завдання стає розв'язною, якщо знайдено правило, спосіб отримання результату. В інформатиці таке правило називають алгоритмом.

Зміст алгоритму - складові його дії і об'єкти, над якими ці дії виконуються, - визначають кошти, які повинні бути присутніми в машині, призначеної для виконання алгоритму.

При вирішенні завдання ЕОМ вводить в себе необхідну інформацію і через якийсь час виводить (друкує, малює) результати - інформацію, для отримання якої і була створена. Таким чином, робота ЕОМ - це своєрідні маніпуляції з інформацією. І, отже, ЕОМ - це технічний засіб інформатики.

Що таке інформація? Яка її природа?

У повсякденному житті під інформацією розуміють всякого роду повідомлення, відомості про що-небудь, які передають і отримують люди.

Самі по собі мова, текст, цифри - не інформація. Вони лише носії інформації. Інформація міститься в мові людей, текстах книг, колонках цифр, в показаннях годин, термометрів та інших приладів. Повідомлення, відомості, тобто інформація, є причиною збільшення знань людей про реальний світ. Значить, інформація відображає щось, властиве реального світу, який пізнається в процесі отримання інформації: до моменту отримання інформації щось було невідомо, чи, інакше, не визначено, і завдяки інформації невизначеність була знята, знищена.

Розглянемо приклад. Нехай нам відомий будинок, в якому проживає наш знайомий, а номер квартири невідомий. У цьому випадку місцеперебування знайомого в якійсь мірі не визначено. Якщо в будинку всього дві квартири, ступінь невизначеності невелика. Але якщо в будинку 200 квартир - невизначеність досить велика.

Цей приклад наштовхує на думку, що невизначеність пов'язана з кількістю можливостей, тобто з різноманітністю ситуацій. Чим більше розмаїття, тим більше невизначеність.

Інформація, яка знімає невизначеність, існує остільки, оскільки існує різноманітність. Якщо немає різноманіття, немає невизначеності, а, отже, немає й інформації.

Отже, інформація - це відображення розмаїття, притаманного об'єктів і явищ реального світу. І, таким чином, природа інформації об'єктивно пов'язана з різноманітністю світу, і саме різноманітність є джерелом інформації.

Які форми подання інформації?

Інформація - дуже ємне поняття, в яке вміщається весь світ: все розмаїття речей і явищ, вся історія, всі томи наукових досліджень, творіння поетів і прозаїків. І все це відображається у двох формах - безперервної і дискретної. Звернемося до їх сутності.

Об'єкти і явища характеризуються значеннями фізичних величин. Наприклад, масою тіла, його температурою, відстанню між двома точками, довжиною шляху (пройденого рухомим тілом), яскравістю світла і т.д. Природа деяких величин така, що величина може приймати принципово будь-які значення в якомусь діапазоні. Ці значення можуть бути як завгодно близькі один до одного, зникаюче малоразлічіми, але все-таки, хоча б у принципі, різнитися, а кількість значень, що може приймати така величина, нескінченно велике.

Такі величини називаються безперервними величинами, а інформація, яку вони несуть в собі, безперервної інформацією.

Слово "безперервність" чітко виділяє основне властивість таких величин - відсутність розривів, проміжків між значеннями, які може приймати величина. Маса тіла - безперервна величина, що приймає будь-які значення від 0 до нескінченності. Те ж саме можна сказати про багатьох інших фізичних величинах - відстані між точками, площі фігур, напрузі електричного струму.

Крім безперервних існують інші величини, наприклад, кількість людей у ​​кімнаті, кількість електронів в атомі і т.д. Такого роду величини можуть приймати тільки цілі значення, наприклад, 0, 1, 2, ..., і не можуть мати дробових значень. Величини, що приймають не всілякі, а лише цілком певні значення, називають дискретними. Для дискретної величини характерно, що всі її значення можна пронумерувати цілими числами 0,1,2, ...

Приклади дискретних величин:

геометричні фігури (трикутник, квадрат, коло);

літери алфавіту;

кольору веселки;

Можна стверджувати, що різниця між двома формами інформації обумовлено принциповою відмінністю природи величин. У той же час безперервна і дискретна інформація часто використовуються спільно для подання відомостей про об'єкти та явища.

Приклад. Розглянемо твердження "Це коло радіуса 8,25".

Тут:

"Коло" - дискретна інформація, що виділяє певну геометричну фігуру з усього розмаїття фігур;

значення "8,25" - безперервна інформація про радіус кола, який може приймати безліч значень.

Що об'єднує безперервні і дискретні величини?

Як простий приклад, що ілюструє наші міркування, розглянемо пружинні ваги. Маса тіла, яка вимірюється на них, - величина безперервна за своєю природою. Подання про масу (інформацію про масу) містить у собі довжина відрізка, на яку переміщається покажчик терезів під впливом маси вимірюваного тіла. Довжина відрізка - теж безперервна величина.

Щоб охарактеризувати масу, у вагах традиційно використовується шкала, отградуированной, наприклад, в грамах. Нехай, наприклад, шкала конкретних ваг має діапазон від 0 до 50 грамів.

При цьому маса буде характеризуватися одним з 51 значень: 0, 1, 2, ..., 50, тобто дискретним набором значень. Таким чином, інформація про безперервну величиною, масою тіла, придбала дискретну форму.

Будь-яку безперервну величину можна представити у дискретній формі. І механізм такого перетворення очевидний.

Задамося питанням, чи можна за дискретному поданням відновити безперервну величину. І відповідь буде такою: так, в якійсь мірі можна, але зробити це не так просто, і відновлюваний образ може відрізнятися від оригіналу.

Як представляти безперервну інформацію?

Для представлення безперервної величини можуть використовуватися найрізноманітніші фізичні процеси.

У розглянутому вище прикладі ваги дозволяють величину "маса тіла" представити "довжиною відрізка", на який переміститься покажчик ваг (стрілка). У свою чергу, механічне переміщення можна перетворити, наприклад, в "напруга електричного струму". Для цього можна використовувати потенціометр, на який подається постійна напруга, наприклад, 10 вольт, від джерела живлення. Движок потенціометра можна пов'язати з покажчиком ваг. У такому випадку зміна маси тіла від 0 до 50 грамів призведе до переміщення движка в межах довжини потенціометра (від 0 до L міліметрів) і, отже, до зміни напруги на його виході від 0 до 10 вольт.

Висновки.

1. Інформація про масу тіла може представлятися, взагалі кажучи, багатьма способами.

2. В якості носіїв безперервної інформації можуть використовуватися будь-які фізичні величини, які приймають безперервний "набір" значень (правильніше було б сказати приймають будь-яке значення усередині деякого інтервалу).

Відзначимо, що фізичні процеси (переміщення, електричний струм тощо) можуть існувати самі по собі або використовуватися, наприклад, для передачі енергії. Але в ряді випадків ці ж процеси застосовуються в якості носіїв інформації. Щоб відрізнити одні процеси від інших, введено поняття "сигнал".

Якщо фізичний процес, тобто якась притаманна йому фізична величина, несе в собі інформацію, то говорять, що такий процес є сигналом. Саме в цьому сенсі користуються поняттями "електричний сигнал", "світловий сигнал" і т.д. Таким чином, електричний сигнал - не просто електричний струм, а струм, величина якого несе в собі якусь інформацію.

Як представляти дискретну інформацію?

Як вже говорилося, дискретність - це випадок, коли об'єкт або явище має кінцеве (рахункове) число різноманітність. Щоб виділити конкретне з усього можливого, потрібно кожному конкретному дати оригінальне ім'я (інакше, перерахувати). Ці імена і будуть нести в собі інформацію про об'єкти, явища і т. п.

В якості імен часто використовують цілі числа 0, 1, 2, ... Так іменуються (нумеруються) сторінки книги, будинки вздовж вулиці, ризики на шкалах вимірювальних приладів. За допомогою чисел можна перенумерувати всі "різноманітності" реального світу. Саме ця цифрова форма подання інформації використовується в ЕОМ.

У повсякденному житті, тим не менш, цифрова форма подання інформації не завжди зручна. Першість належить слову! Традиційно інформація про об'єкти і явища навколишнього світу представляється у формі слів і їх послідовностей.

Основний елемент у цій формі - слово. Слово - ім'я об'єкта, дії, властивості тощо, за допомогою якого виділяється іменоване поняття в усному мовленні або в письмовій формі.

Слова будуються з літер певного алфавіту (наприклад, А, Б, ..., Я). Крім букв використовуються спеціальні символи - знаки пунктуації, математичні символи +, -, знак інтеграла, знак суми і т.п. Все розмаїття використовуваних символів утворює алфавіт, на основі якого будуються самі різні об'єкти:

з цифр - числа;

з літер - власне слова,

з цифр, букв і математичних символів - формули і т.д.

І всі ці об'єкти несуть в собі інформацію:

числа - інформацію про значення;

слова - інформацію про імена і властивості об'єктів;

формули - інформацію про залежності між величинами і т.д.

Ця інформація (і це очевидно) має дискретну природу і представляється у вигляді послідовності символів. Про таку інформації говорять як про особливий вид дискретної інформації і називають цей вид символьною інформацією.

Наявність різних систем писемності, в тому числі таких, як ієрогліфічне письмо, доводить, що одна і та ж інформація може бути представлена ​​на основі самих різних наборів символів і самих різних правил використання символів при побудові слів, фраз, текстів.

З цього твердження можна зробити наступний висновок:

Різні алфавіти володіють однаковою "образотворчої можливістю", тобто за допомогою одного алфавіту можна представити всю інформацію, яку вдалося представити на основі іншого алфавіту. Можна, наприклад, обмежитися алфавітом із десяти цифр - 0, 1, ..., 9 і з використанням тільки цих символів записати текст будь-якої книги або партитуру музичного твору. При цьому звуження абетки до десяти символів не призвело б до будь-яких втрат інформації. Більш того, можна використовувати алфавіт тільки з двох символів, наприклад, символів 0 і 1. І його "образотворча можливість" буде такою ж.

Отже, символьна інформація може надаватися з використанням самих різних алфавітів (наборів символів) без спотворення змісту і сенсу інформації: при необхідності можна змінювати форму подання інформації - замість загальноприйнятого алфавіту використовувати який-небудь інший, штучний алфавіт, наприклад, двобуквений.

Форма подання інформації, відмінна від природної, загальноприйнятої, називається кодом. Коди широко використовуються в нашому житті: поштові індекси, телеграфний код Морзе та ін Широко застосовуються коди і в ЕОМ і в апаратурі передачі даних. Так, наприклад, широко відоме поняття "програмування в кодах".

Крім розглянутих існують й інші форми подання дискретної інформації. Наприклад, креслення і схеми містять в собі графічну інформацію.

Як виміряти інформацію?

Як вже говорилося в прикладі з номером квартири, одні відомості можуть містити в собі мало інформації, а інші - багато. Розроблено різні способи оцінки кількості інформації. У техніці найчастіше використовується спосіб оцінки, запропонований у 1948 році основоположником теорії інформації Клодом Шенноном. Як було відзначено, інформація знищує невизначеність. Ступінь невизначеності прийнято характеризувати за допомогою поняття "ймовірність".

Імовірність - величина, яка може приймати значення в діапазоні від 0 до 1. Вона може розглядатися як міра можливості настання якого-небудь події, що може мати місце в одних випадках і не мати місця в інших.

Якщо подія ніколи не може статися, його ймовірність вважається рівною 0. Так, ймовірність події "Завтра буде 5 серпня 1832 року" дорівнює нулю в будь-який день, крім 4 серпня 1832. Якщо подія відбувається завжди, його ймовірність дорівнює 1.

Чим більша ймовірність події, тим вище впевненість у тому, що воно відбудеться, і тим менше інформації містить повідомлення про цю подію. Коли ж імовірність події мала, повідомлення про те, що воно сталося, дуже інформативно.

Кількість інформації I, що характеризує стан, в якому перебуває об'єкт, можна визначити, використовуючи формулу Шеннона:

I = - (p [1] * log (p [1]) + p [2] * log (p [2 ])+...+ p [n] * log (p [n])),

тут

n - кількість можливих станів;

p [1 ],... p [n] - імовірності окремих станів;

log () - функція логарифма при підставі 2.

Знак мінус перед сумою дозволяє отримати позитивне значення для I, оскільки значення log (p [i]) завжди не позитивно.

Одиниця інформації називається бітом. Термін "біт" запропоновано як абревіатура від англійського словосполучення "Binary digiT", що перекладається як "двійкова цифра".

1 біт інформації - кількість інформації, за допомогою якого виділяється одне з двох рівноймовірно станів об'єкта.

Розглянемо приклад.

Нехай є два об'єкти. З кожного з них у певні моменти часу диспетчеру передається одне з двох повідомлень: включений або виключений об'єкт. Диспетчеру відомі типи повідомлень, але невідомо, коли і яке повідомлення надійде.

Нехай також, об'єкт А працює майже без перерви, тобто ймовірність того, що він включений, дуже велика (наприклад, р_А_вкл = 0,99 та р_А_викл = 0,01, а об'єкт Б працює інакше і для нього р_Б_вкл = р_Б_викл = 0,5).

Тоді, якщо диспетчер отримує повідомлення про те, що А включений, він отримує дуже мало інформації. З об'єктом Б справи йдуть інакше.

Підрахуємо для цього прикладу середня кількість інформації для зазначених об'єктів, яке отримує диспетчер:

Об'єкт А: I = - (0,99 * log (0,99) +0,01 * log (0,01)) = 0,0808.

Об'єкт Б: I = - (0,50 * log (0,50) +0,50 * log (0,50)) = 1.

Отже, кожне повідомлення об'єкта Б несе 1 біт інформації.

Формула Шеннона, в принципі, може бути використана і для оцінки кількості інформації в безперервних величинах.

При оцінці кількості дискретної інформації часто використовується також формула Хартлі:

I = log (n),

де n - число можливих рівноймовірно станів;

log () - функція логарифма при підставі 2.

Формула Хартлі застосовується у разі, коли ймовірності станів, у яких може знаходитися об'єкт, однакові.

Наведемо приклад. Хай об'єкт може знаходитися в одному з восьми рівноймовірно станів. Тоді кількість інформації, що надходить в повідомленні про те, в якому саме він знаходиться, дорівнюватиме

I = log (8) = 3 [біта].

Оцінимо кількість інформації в тексті.

Точно відповісти на запитання, яку кількість інформації містить 1 символ у слові або тексті, досить складна справа. Воно вимагає дослідження питання про частоти використання символів і всякого роду поєднань символів. Це завдання вирішується криптографами. Ми ж спростимо завдання. Припустимо, що текст будується на основі 64 символів, і частота появи кожного з них однакова, тобто всі символи рівноймовірні.

Тоді кількість інформації в одному символі дорівнюватиме

I = log (64) = 6 [біт].

З двох символів даного алфавіту може бути утворено n = 64 * 64 = 4096 різних поєднань. Отже, два символи несуть в собі I = log (4096) = 12 біт інформації.

Оцінимо кількість інформації, що міститься в числах.

Якщо припустити, що цифри 0, 1, ..., 9 використовуються однаково часто (різновірогідні), то

одна цифра містить I = log (10) = 3,32 [біт];

чотиризначне число з діапазону [0 .. 9999], якщо всі його значення різновірогідні, містить

I = log (10000) = 13,28 [біт];

а восьмирозрядному число - I = log (100000000) = 26,56 [біта].

Отже, кількість інформації в повідомленні залежить від числа різноманітність, властивих джерелу інформації і їх ймовірностей.

Повторимо основні положення, розглянуті вище.

1. Інформація - відображення предметного чи уявного світу за допомогою знаків і сигналів.

2. Інформація може існувати або в безперервній, або в дискретної формах.

3. Інформація про що-небудь може бути представлена ​​багатьма способами. В якості носіїв інформації можуть використовуватися різноманітні фізичні величини такої ж природи (для безперервної інформації - безперервні фізичні величини, для дискретної - дискретні).

4. Фізичний процес є сигналом, якщо яка-небудь притаманна йому фізична величина несе в собі інформацію.

5. Щоб уявити дискретну інформацію, треба перерахувати (поіменувати) все різноманіття, властиві об'єкту або явища (кольори веселки, види фігур та ін.)

Дискретна інформація представляється:

числами (як цифрова),

символами деякого алфавіту (символьна),

графічними схемами та кресленнями (графічна).

6. Дискретна інформація може використовуватися і для представлення безперервною. Зручною формою дискретної інформації є символьна.

7. Різні алфавіти володіють однаковою "образотворчої силою": за допомогою одного алфавіту можна представити всю інформацію, яку вдавалося представити на основі іншого алфавіту. А значить, інформацію про все що оточує людину світі можна уявити в дискретної формі з використанням алфавіту, що складається тільки з двох символів (тобто з використанням двійкової цифрової форми).

8. Форма подання інформації, відмінна від природної, загальноприйнятої, називається кодом.

Широко відомі такі коди, як поштові індекси, нотний запис музики, телеграфний код Морзе, цифровий запис програм для ЕОМ (програмування в кодах), перешкодозахищеність коди в системах передачі даних.

9. Інформація знищує невизначеність знань про навколишній світ. Ступінь невизначеності прийнято характеризувати за допомогою поняття "ймовірність".

Імовірність - величина, яка може приймати значення в діапазоні [0,1] і яка може розглядатися як міра можливості настання якого-небудь події. Якщо подія ніколи не може статися, його ймовірність вважається рівною 0, а якщо подія відбувається завжди, його ймовірність дорівнює 1.

Для оцінки кількості інформації в техніці найчастіше використовується спосіб, запропонований Клодом Шенноном. Для випадку, коли всі стани, в яких може знаходитися об'єкт, різновірогідні, застосовують формулу Хартлі. Одна одиниця інформації називається бітом.

Список літератури

Для підготовки даної роботи були використані матеріали з сайту http://referat2000.bizforum.ru/


Додати в блог або на сайт

Цей текст може містити помилки.

Програмування, комп'ютери, інформатика і кібернетика | Реферат
37.9кб. | скачати


Схожі роботи:
Інформація інформатика подання інформації
Способи подання знань
Способи одержання складних ефірів Конденсації формальдегіду з ізобутіленом Різні способи
Психологічні способи впливу на партнера і етикетні способи захисту
Види витрат виробництва та способи їх способи їх оптимізації
Масові подання
Подання кінцевих груп
Форми подання інформації
Інформація 3
© Усі права захищені
написати до нас