1   2   3   4
Ім'я файлу: МКР_1 (1).docx
Розширення: docx
Розмір: 103кб.
Дата: 05.11.2021
скачати
Пов'язані файли:
Формування (1).docx

Модульна контрольна робота №1

з дисципліни: «Теорія інформації та кодування»

для студентів спеціальності 123 «Комп’ютерна інженерія»

Варіант 1

  1. Що таке сигнал? Якими параметрами характеризуються сигнали? Що таке джерело повідомлень?

  2. Знайти ентропії дискретних випадкових величин (д. в. в.) X, Y, Z і кількість інформації, що містить д. в. в.Z=|X-Y| стосовно д. в. в.X, Y. X та Y незалежні д. в. в., задані такими розподілами:

    X

    -1

    1

    2

    4




    Y

    0

    2

    .

    P

    0,2

    0,3

    0,15

    0,35




    P

    0,35

    0,65

  3. Задано два дискретних джерела інформації з алфавітами X  = {x1x2, x3} та Y  = { y1, y2}. Чисельні значення безумовних pyj) та умовних py/xi) ймовірностей відомі:



варіанта

p( y1)

p( y2)

p( y3)



1

0,37

0,594

0,036



Знайти H(Y/xі), H(X/yj), H(Y/X), H(X/Y), пропускну здатність і швидкість передачі інформації по дискретному каналу зв'язку, якщо час передачі одного повідомлення t=10-3 с.

Модульна контрольна робота №1

з дисципліни: «Теорія інформації та кодування»

для студентів спеціальності 123 «Комп’ютерна інженерія»

Варіант 2

  1. Що таке лінія та канал зв'язку? Що таке ансамбль повідомлень?

  2. Знайти ентропії дискретних випадкових величин (д. в. в.) X, Y, Z і кількість інформації, що містить д. в. в.Z=|X-2Y| стосовно д. в. в.X, Y. X та Y незалежні д. в. в., задані такими розподілами:

    X

    -1

    0

    1

    4




    Y

    1

    2

    .

    P

    0,11

    0,25

    0,36

    0,28




    P

    0,25

    0,75

  3. Задано два дискретних джерела інформації з алфавітами X  = {x1x2, x3} та Y  = { y1, y2}. Чисельні значення безумовних pyj) та умовних py/xi) ймовірностей відомі:



варіанта

p( y1)

p( y2)

p( y3)



2

0,498

0,240

0,262



Знайти H(Y/xі), H(X/yj), H(Y/X), H(X/Y), пропускну здатність і швидкість передачі інформації по дискретному каналу зв'язку, якщо час передачі одного повідомлення t=10-3 с.

Модульна контрольна робота №1

з дисципліни: «Теорія інформації та кодування»

для студентів спеціальності 123 «Комп’ютерна інженерія»

Варіант 3

  1. У чому полягає різниця між лінією та каналом зв’язку? Як визначається кількість інформації в одному повідомленні?

  2. Знайти ентропії дискретних випадкових величин (д. в. в.) X, Y, Z і кількість інформації, що містить д. в. в.Z=|-X-Y| стосовно д. в. в.X, Y. X та Y незалежні д. в. в., задані такими розподілами:

    X

    -2

    0

    1

    3




    Y

    -1

    1

    .

    P

    0,11

    0,33

    0,36

    0,20




    P

    0,20

    0,80

  3. Задано два дискретних джерела інформації з алфавітами X  = {x1x2, x3} та Y  = { y1, y2}. Чисельні значення безумовних pyj) та умовних py/xi) ймовірностей відомі:



варіанта

p( y1)

p( y2)

p( y3)



3

0,5

0,24

0,26



Знайти H(Y/xі), H(X/yj), H(Y/X), H(X/Y), пропускну здатність і швидкість передачі інформації по дискретному каналу зв'язку, якщо час передачі одного повідомлення t=10-3 с.
Модульна контрольна робота №1

з дисципліни: «Теорія інформації та кодування»

для студентів спеціальності 123 «Комп’ютерна інженерія»

Варіант 4

  1. Що таке повідомлення? Що таке ентропія та які її властивості?

  2. Знайти ентропії дискретних випадкових величин (д. в. в.) X, Y, Z і кількість інформації, що містить д. в. в.Z=3X-Y стосовно д. в. в.X, Y. X та Y незалежні д. в. в., задані такими розподілами:

    X

    -2

    0

    2

    4




    Y

    -1

    3

    .

    P

    0,16

    0,28

    0,36

    0,20




    P

    0,15

    0,85

  3. Задано два дискретних джерела інформації з алфавітами X  = {x1x2, x3} та Y  = { y1, y2}. Чисельні значення безумовних pyj) та умовних py/xi) ймовірностей відомі:



варіанта

p( y1)

p( y2)

p( y3)



4

0,575

0,29

0,135



Знайти H(Y/xі), H(X/yj), H(Y/X), H(X/Y), пропускну здатність і швидкість передачі інформації по дискретному каналу зв'язку, якщо час передачі одного повідомлення t=10-3 с.

Модульна контрольна робота №1

з дисципліни: «Теорія інформації та кодування»

для студентів спеціальності 123 «Комп’ютерна інженерія»

Варіант 5

  1. У чому полягає різниця між даними, повідомленнями та інформацією? Що таке безумовна ентропія?

  2. Знайти ентропії дискретних випадкових величин (д. в. в.) X, Y, Z і кількість інформації, що містить д. в. в.Z=-3X+Y стосовно д. в. в.X, Y. X та Y незалежні д. в. в., задані такими розподілами:

    X

    -1

    0

    2

    4




    Y

    -3

    3

    .

    P

    0,16

    0,24

    0,40

    0,20




    P

    0,13

    0,87

  3. Задано два дискретних джерела інформації з алфавітами X  = {x1x2, x3} та Y  = { y1, y2}. Чисельні значення безумовних pyj) та умовних py/xi) ймовірностей відомі:



варіанта

p( y1)

p( y2)

p( y3)



5

0,304

0,29

0,406



  1   2   3   4

скачати

© Усі права захищені
написати до нас