![]() | 1 2 3 4 Ім'я файлу: МКР_1 (1).docx Розширення: docx Розмір: 103кб. Дата: 05.11.2021 скачати Пов'язані файли: Формування (1).docx Модульна контрольна робота №1 з дисципліни: «Теорія інформації та кодування» для студентів спеціальності 123 «Комп’ютерна інженерія» Варіант 1 Що таке сигнал? Якими параметрами характеризуються сигнали? Що таке джерело повідомлень? Знайти ентропії дискретних випадкових величин (д. в. в.) X, Y, Z і кількість інформації, що містить д. в. в.Z=|X-Y| стосовно д. в. в.X, Y. X та Y незалежні д. в. в., задані такими розподілами:
Задано два дискретних джерела інформації з алфавітами X = {x1, x2, x3} та Y = { y1, y2}. Чисельні значення безумовних p( yj) та умовних p( yj /xi) ймовірностей відомі:
Знайти H(Y/xі), H(X/yj), H(Y/X), H(X/Y), пропускну здатність і швидкість передачі інформації по дискретному каналу зв'язку, якщо час передачі одного повідомлення t=10-3 с. Модульна контрольна робота №1 з дисципліни: «Теорія інформації та кодування» для студентів спеціальності 123 «Комп’ютерна інженерія» Варіант 2 Що таке лінія та канал зв'язку? Що таке ансамбль повідомлень? Знайти ентропії дискретних випадкових величин (д. в. в.) X, Y, Z і кількість інформації, що містить д. в. в.Z=|X-2Y| стосовно д. в. в.X, Y. X та Y незалежні д. в. в., задані такими розподілами:
Задано два дискретних джерела інформації з алфавітами X = {x1, x2, x3} та Y = { y1, y2}. Чисельні значення безумовних p( yj) та умовних p( yj /xi) ймовірностей відомі:
Знайти H(Y/xі), H(X/yj), H(Y/X), H(X/Y), пропускну здатність і швидкість передачі інформації по дискретному каналу зв'язку, якщо час передачі одного повідомлення t=10-3 с. Модульна контрольна робота №1 з дисципліни: «Теорія інформації та кодування» для студентів спеціальності 123 «Комп’ютерна інженерія» Варіант 3 У чому полягає різниця між лінією та каналом зв’язку? Як визначається кількість інформації в одному повідомленні? Знайти ентропії дискретних випадкових величин (д. в. в.) X, Y, Z і кількість інформації, що містить д. в. в.Z=|-X-Y| стосовно д. в. в.X, Y. X та Y незалежні д. в. в., задані такими розподілами:
Задано два дискретних джерела інформації з алфавітами X = {x1, x2, x3} та Y = { y1, y2}. Чисельні значення безумовних p( yj) та умовних p( yj /xi) ймовірностей відомі:
Знайти H(Y/xі), H(X/yj), H(Y/X), H(X/Y), пропускну здатність і швидкість передачі інформації по дискретному каналу зв'язку, якщо час передачі одного повідомлення t=10-3 с. Модульна контрольна робота №1 з дисципліни: «Теорія інформації та кодування» для студентів спеціальності 123 «Комп’ютерна інженерія» Варіант 4 Що таке повідомлення? Що таке ентропія та які її властивості? Знайти ентропії дискретних випадкових величин (д. в. в.) X, Y, Z і кількість інформації, що містить д. в. в.Z=3X-Y стосовно д. в. в.X, Y. X та Y незалежні д. в. в., задані такими розподілами:
Задано два дискретних джерела інформації з алфавітами X = {x1, x2, x3} та Y = { y1, y2}. Чисельні значення безумовних p( yj) та умовних p( yj /xi) ймовірностей відомі:
Знайти H(Y/xі), H(X/yj), H(Y/X), H(X/Y), пропускну здатність і швидкість передачі інформації по дискретному каналу зв'язку, якщо час передачі одного повідомлення t=10-3 с. Модульна контрольна робота №1 з дисципліни: «Теорія інформації та кодування» для студентів спеціальності 123 «Комп’ютерна інженерія» Варіант 5 У чому полягає різниця між даними, повідомленнями та інформацією? Що таке безумовна ентропія? Знайти ентропії дискретних випадкових величин (д. в. в.) X, Y, Z і кількість інформації, що містить д. в. в.Z=-3X+Y стосовно д. в. в.X, Y. X та Y незалежні д. в. в., задані такими розподілами:
Задано два дискретних джерела інформації з алфавітами X = {x1, x2, x3} та Y = { y1, y2}. Чисельні значення безумовних p( yj) та умовних p( yj /xi) ймовірностей відомі:
1 2 3 4 |