1   2   3   4
Ім'я файлу: МКР_1 (1).docx
Розширення: docx
Розмір: 103кб.
Дата: 05.11.2021
скачати
Пов'язані файли:
Формування (1).docx

Модульна контрольна робота №1

з дисципліни: «Теорія інформації та кодування»

для студентів спеціальності 123 «Комп’ютерна інженерія»

Варіант 11

  1. Як визначається пропускна здатність неперервного каналу? Які є типи умовної ентропії?

  2. Знайти ентропії дискретних випадкових величин (д. в. в.) X, Y, Z і кількість інформації, що містить д. в. в.Z= |-X+2Y| стосовно д. в. в.X, Y. X та Y незалежні д. в. в., задані такими розподілами:

    X

    -5

    0

    1

    5




    Y

    -1

    2

    .

    P

    0,07

    0,28

    0,45

    0,20




    P

    0,22

    0,78

  3. Задано два дискретних джерела інформації з алфавітами X  = {x1x2, x3} та Y  = { y1, y2}. Чисельні значення безумовних pyj) та умовних py/xi) ймовірностей відомі:



варіанта

p( y1)

p( y2)

p( y3)



11

0,257

0,504

0,239



Знайти H(Y/xі), H(X/yj), H(Y/X), H(X/Y), пропускну здатність і швидкість передачі інформації по дискретному каналу зв'язку, якщо час передачі одного повідомлення t=10-3 с.

Модульна контрольна робота №1

з дисципліни: «Теорія інформації та кодування»

для студентів спеціальності 123 «Комп’ютерна інженерія»

Варіант 12

  1. Як визначається загальна умовна ентропія? Що таке джерело повідомлень?

  2. Знайти ентропії дискретних випадкових величин (д. в. в.) X, Y, Z і кількість інформації, що містить д. в. в.Z= -X-Y3 стосовно д. в. в.X, Y. X та Y незалежні д. в. в., задані такими розподілами:

    X

    -1

    0

    2

    3




    Y

    -1

    1

    .

    P

    0,06

    0,31

    0,4

    0,23




    P

    0,07

    0,93

  3. Задано два дискретних джерела інформації з алфавітами X  = {x1x2, x3} та Y  = { y1, y2}. Чисельні значення безумовних pyj) та умовних py/xi) ймовірностей відомі:



варіанта

p( y1)

p( y2)

p( y3)



12

0,412

0,202

0,386



Знайти H(Y/xі), H(X/yj), H(Y/X), H(X/Y), пропускну здатність і швидкість передачі інформації по дискретному каналу зв'язку, якщо час передачі одного повідомлення t=10-3 с.

Модульна контрольна робота №1

з дисципліни: «Теорія інформації та кодування»

для студентів спеціальності 123 «Комп’ютерна інженерія»

Варіант 13

  1. Як визначається ентропія об’єднання двох джерел? За яких умов ентропія джерела стає максимальною?

  2. Знайти ентропії дискретних випадкових величин (д. в. в.) X, Y, Z і кількість інформації, що містить д. в. в.Z= |X-4Y| стосовно д. в. в.X, Y. X та Y незалежні д. в. в., задані такими розподілами:

    X

    -5

    -3

    1

    5




    Y

    -4

    2

    .

    P

    0,08

    0,24

    0,48

    0,20




    P

    0,27

    0,73

  3. Задано два дискретних джерела інформації з алфавітами X  = {x1x2, x3} та Y  = { y1, y2}. Чисельні значення безумовних pyj) та умовних py/xi) ймовірностей відомі:



варіанта

p( y1)

p( y2)

p( y3)



13

0,181

0,449

0,37



Знайти H(Y/xі), H(X/yj), H(Y/X), H(X/Y), пропускну здатність і швидкість передачі інформації по дискретному каналу зв'язку, якщо час передачі одного повідомлення t=10-3 с.
Модульна контрольна робота №1

з дисципліни: «Теорія інформації та кодування»

для студентів спеціальності 123 «Комп’ютерна інженерія»

Варіант 14

  1. Які основні властивості ентропії об’єднання двох джерел? Що таке лінія та канал зв'язку?

  2. Знайти ентропії дискретних випадкових величин (д. в. в.) X, Y, Z і кількість інформації, що містить д. в. в.Z= |-X-3Y| стосовно д. в. в.X, Y. X та Y незалежні д. в. в., задані такими розподілами:

    X

    -2

    0

    1

    2




    Y

    0

    2

    .

    P

    0,1

    0,25

    0,43

    0,22




    P

    0,33

    0,67

  3. Задано два дискретних джерела інформації з алфавітами X  = {x1x2, x3} та Y  = { y1, y2}. Чисельні значення безумовних pyj) та умовних py/xi) ймовірностей відомі:



варіанта

p( y1)

p( y2)

p( y3)



14

0,368

0,178

0,454



Знайти H(Y/xі), H(X/yj), H(Y/X), H(X/Y), пропускну здатність і швидкість передачі інформації по дискретному каналу зв'язку, якщо час передачі одного повідомлення t=10-3 с.

Модульна контрольна робота №1

з дисципліни: «Теорія інформації та кодування»

для студентів спеціальності 123 «Комп’ютерна інженерія»

Варіант 15

  1. Що таке безумовна ентропія? Які є типи умовної ентропії?

  2. Знайти ентропії дискретних випадкових величин (д. в. в.) X, Y, Z і кількість інформації, що містить д. в. в.Z= -X2+3Y стосовно д. в. в.X, Y. X та Y незалежні д. в. в., задані такими розподілами:

    X

    -5

    -1

    1

    4




    Y

    -1

    -2

    .

    P

    0,16

    0,34

    0,36

    0,14




    P

    0,19

    0,81

  3. Задано два дискретних джерела інформації з алфавітами X  = {x1x2, x3} та Y  = { y1, y2}. Чисельні значення безумовних pyj) та умовних py/xi) ймовірностей відомі:



варіанта

p( y1)

p( y2)

p( y3)



15

0,532

0,082

0,386



1   2   3   4

скачати

© Усі права захищені
написати до нас