1 2 3 4 Ім'я файлу: МКР_1 (1).docx Розширення: docx Розмір: 103кб. Дата: 05.11.2021 скачати Пов'язані файли: Формування (1).docx Модульна контрольна робота №1 з дисципліни: «Теорія інформації та кодування» для студентів спеціальності 123 «Комп’ютерна інженерія» Варіант 11 Як визначається пропускна здатність неперервного каналу? Які є типи умовної ентропії? Знайти ентропії дискретних випадкових величин (д. в. в.) X, Y, Z і кількість інформації, що містить д. в. в.Z= |-X+2Y| стосовно д. в. в.X, Y. X та Y незалежні д. в. в., задані такими розподілами:
Задано два дискретних джерела інформації з алфавітами X = {x1, x2, x3} та Y = { y1, y2}. Чисельні значення безумовних p( yj) та умовних p( yj /xi) ймовірностей відомі:
Знайти H(Y/xі), H(X/yj), H(Y/X), H(X/Y), пропускну здатність і швидкість передачі інформації по дискретному каналу зв'язку, якщо час передачі одного повідомлення t=10-3 с. Модульна контрольна робота №1 з дисципліни: «Теорія інформації та кодування» для студентів спеціальності 123 «Комп’ютерна інженерія» Варіант 12 Як визначається загальна умовна ентропія? Що таке джерело повідомлень? Знайти ентропії дискретних випадкових величин (д. в. в.) X, Y, Z і кількість інформації, що містить д. в. в.Z= -X-Y3 стосовно д. в. в.X, Y. X та Y незалежні д. в. в., задані такими розподілами:
Задано два дискретних джерела інформації з алфавітами X = {x1, x2, x3} та Y = { y1, y2}. Чисельні значення безумовних p( yj) та умовних p( yj /xi) ймовірностей відомі:
Знайти H(Y/xі), H(X/yj), H(Y/X), H(X/Y), пропускну здатність і швидкість передачі інформації по дискретному каналу зв'язку, якщо час передачі одного повідомлення t=10-3 с. Модульна контрольна робота №1 з дисципліни: «Теорія інформації та кодування» для студентів спеціальності 123 «Комп’ютерна інженерія» Варіант 13 Як визначається ентропія об’єднання двох джерел? За яких умов ентропія джерела стає максимальною? Знайти ентропії дискретних випадкових величин (д. в. в.) X, Y, Z і кількість інформації, що містить д. в. в.Z= |X-4Y| стосовно д. в. в.X, Y. X та Y незалежні д. в. в., задані такими розподілами:
Задано два дискретних джерела інформації з алфавітами X = {x1, x2, x3} та Y = { y1, y2}. Чисельні значення безумовних p( yj) та умовних p( yj /xi) ймовірностей відомі:
Знайти H(Y/xі), H(X/yj), H(Y/X), H(X/Y), пропускну здатність і швидкість передачі інформації по дискретному каналу зв'язку, якщо час передачі одного повідомлення t=10-3 с. Модульна контрольна робота №1 з дисципліни: «Теорія інформації та кодування» для студентів спеціальності 123 «Комп’ютерна інженерія» Варіант 14 Які основні властивості ентропії об’єднання двох джерел? Що таке лінія та канал зв'язку? Знайти ентропії дискретних випадкових величин (д. в. в.) X, Y, Z і кількість інформації, що містить д. в. в.Z= |-X-3Y| стосовно д. в. в.X, Y. X та Y незалежні д. в. в., задані такими розподілами:
Задано два дискретних джерела інформації з алфавітами X = {x1, x2, x3} та Y = { y1, y2}. Чисельні значення безумовних p( yj) та умовних p( yj /xi) ймовірностей відомі:
Знайти H(Y/xі), H(X/yj), H(Y/X), H(X/Y), пропускну здатність і швидкість передачі інформації по дискретному каналу зв'язку, якщо час передачі одного повідомлення t=10-3 с. Модульна контрольна робота №1 з дисципліни: «Теорія інформації та кодування» для студентів спеціальності 123 «Комп’ютерна інженерія» Варіант 15 Що таке безумовна ентропія? Які є типи умовної ентропії? Знайти ентропії дискретних випадкових величин (д. в. в.) X, Y, Z і кількість інформації, що містить д. в. в.Z= -X2+3Y стосовно д. в. в.X, Y. X та Y незалежні д. в. в., задані такими розподілами:
Задано два дискретних джерела інформації з алфавітами X = {x1, x2, x3} та Y = { y1, y2}. Чисельні значення безумовних p( yj) та умовних p( yj /xi) ймовірностей відомі:
1 2 3 4 |