1   2   3   4
Ім'я файлу: МКР_1 (1).docx
Розширення: docx
Розмір: 103кб.
Дата: 05.11.2021
скачати
Пов'язані файли:
Формування (1).docx

Знайти H(Y/xі), H(X/yj), H(Y/X), H(X/Y), пропускну здатність і швидкість передачі інформації по дискретному каналу зв'язку, якщо час передачі одного повідомлення t=10-3 с.


Модульна контрольна робота №1

з дисципліни: «Теорія інформації та кодування»

для студентів спеціальності 123 «Комп’ютерна інженерія»

Варіант 6

  1. Що вивчається в дисципліні «Теорія інформації та кодування»? Що таке умовна ентропія?

  2. Знайти ентропії дискретних випадкових величин (д. в. в.) X, Y, Z і кількість інформації, що містить д. в. в.Z= -X+3Y стосовно д. в. в.X, Y. X та Y незалежні д. в. в., задані такими розподілами:

    X

    -5

    -1

    1

    4




    Y

    -1

    -2

    .

    P

    0,16

    0,28

    0,36

    0,20




    P

    0,15

    0,85

  3. Задано два дискретних джерела інформації з алфавітами X  = {x1x2, x3} та Y  = { y1, y2}. Чисельні значення безумовних pyj) та умовних py/xi) ймовірностей відомі:



варіанта

p( y1)

p( y2)

p( y3)



6

0,479

0,348

0,173



Знайти H(Y/xі), H(X/yj), H(Y/X), H(X/Y), пропускну здатність і швидкість передачі інформації по дискретному каналу зв'язку, якщо час передачі одного повідомлення t=10-3 с.
Модульна контрольна робота №1

з дисципліни: «Теорія інформації та кодування»

для студентів спеціальності 123 «Комп’ютерна інженерія»

Варіант 7

  1. Чим визначається продуктивність дискретного джерела? Як визначається часткова умовна ентропія?

  2. Знайти ентропії дискретних випадкових величин (д. в. в.) X, Y, Z і кількість інформації, що містить д. в. в.Z=X2-Y стосовно д. в. в.X, Y. X та Y незалежні д. в. в., задані такими розподілами:

    X

    -2

    0

    2

    4




    Y

    -1

    3

    .

    P

    0,13

    0,28

    0,43

    0,20




    P

    0,11

    0,89

  3. Задано два дискретних джерела інформації з алфавітами X  = {x1x2, x3} та Y  = { y1, y2}. Чисельні значення безумовних pyj) та умовних py/xi) ймовірностей відомі:



варіанта

p( y1)

p( y2)

p( y3)



7

0,206

0,168

0,626



Знайти H(Y/xі), H(X/yj), H(Y/X), H(X/Y), пропускну здатність і швидкість передачі інформації по дискретному каналу зв'язку, якщо час передачі одного повідомлення t=10-3 с.
Модульна контрольна робота №1

з дисципліни: «Теорія інформації та кодування»

для студентів спеціальності 123 «Комп’ютерна інженерія»

Варіант 8

  1. Що таке ентропія неперервного джерела? Як визначається пропускна здатність каналу передачі?

  2. Знайти ентропії дискретних випадкових величин (д. в. в.) X, Y, Z і кількість інформації, що містить д. в. в.Z=3X-Y2 стосовно д. в. в.X, Y. X та Y незалежні д. в. в., задані такими розподілами:

    X

    -1

    0

    1

    4




    Y

    -1

    1

    .

    P

    0,1

    0,27

    0,43

    0,20




    P

    0,08

    0,92

  3. Задано два дискретних джерела інформації з алфавітами X  = {x1x2, x3} та Y  = { y1, y2}. Чисельні значення безумовних pyj) та умовних py/xi) ймовірностей відомі:



варіанта

p( y1)

p( y2)

p( y3)



8

0,266

0,466

0,268



Знайти H(Y/xі), H(X/yj), H(Y/X), H(X/Y), пропускну здатність і швидкість передачі інформації по дискретному каналу зв'язку, якщо час передачі одного повідомлення t=10-3 с.

Модульна контрольна робота №1

з дисципліни: «Теорія інформації та кодування»

для студентів спеціальності 123 «Комп’ютерна інженерія»

Варіант 9

  1. Що таке диференціальна ентропія неперервного джерела? Які основні властивості безумовної ентропії?

  2. Знайти ентропії дискретних випадкових величин (д. в. в.) X, Y, Z і кількість інформації, що містить д. в. в.Z= -X+Y2 стосовно д. в. в.X, Y. X та Y незалежні д. в. в., задані такими розподілами:

    X

    -1

    0

    2

    3




    Y

    -2

    2

    .

    P

    0,12

    0,28

    0,4

    0,20




    P

    0,05

    0,95

  3. Задано два дискретних джерела інформації з алфавітами X  = {x1x2, x3} та Y  = { y1, y2}. Чисельні значення безумовних pyj) та умовних py/xi) ймовірностей відомі:



варіанта

p( y1)

p( y2)

p( y3)



9

0,656

0,188

0,156



Знайти H(Y/xі), H(X/yj), H(Y/X), H(X/Y), пропускну здатність і швидкість передачі інформації по дискретному каналу зв'язку, якщо час передачі одного повідомлення t=10-3 с.

Модульна контрольна робота №1

з дисципліни: «Теорія інформації та кодування»

для студентів спеціальності 123 «Комп’ютерна інженерія»

Варіант 10

  1. Як обчислюється диференціальна ентропія неперервного джерела? Які основні властивості умовної ентропії?

  2. Знайти ентропії дискретних випадкових величин (д. в. в.) X, Y, Z і кількість інформації, що містить д. в. в.Z=X2-Y2 стосовно д. в. в.X, Y. X та Y незалежні д. в. в., задані такими розподілами:

    X

    -2

    0

    2

    4




    Y

    -1

    3

    .

    P

    0,14

    0,28

    0,36

    0,22




    P

    0,4

    0,6

  3. Задано два дискретних джерела інформації з алфавітами X  = {x1x2, x3} та Y  = { y1, y2}. Чисельні значення безумовних pyj) та умовних py/xi) ймовірностей відомі:



варіанта

p( y1)

p( y2)

p( y3)



10

0,424

0,136

0,44



Знайти H(Y/xі), H(X/yj), H(Y/X), H(X/Y), пропускну здатність і швидкість передачі інформації по дискретному каналу зв'язку, якщо час передачі одного повідомлення t=10-3 с.

1   2   3   4

скачати

© Усі права захищені
написати до нас