Автор: Пользователь скрыл имя, 11 Марта 2012 в 20:33, контрольная работа
Решение задач по теории информации.
ТЕМА№1 (Вариант №1)
Задача 1. Известно, что одно из k возможных сообщений, передаваемых равномерным двоичным кодом, несет 3 бита информации. Чему равно k?
РЕШЕНИЕ
Число сообщений определяется по формуле: , где (двоичный код), (три бита информации), таким образом .
Задача 3. Символы алфавита обладают двумя качественными признаками.
а) Какое количество сообщений можно получить, комбинируя по 3, 4, 5 и 6 элементов в сообщении? б) Какое количество информации приходится на один элемент таких сообщений?
РЕШЕНИЕ
а) Воспользуемся формулой: , где (символы алфавита обладают двумя качественными признаками), а в соответствии з заданием. искомое число сообщений.
Отсюда: при ; при ; при ; при ;
б) Количество информации в одном сообщении вычисляется по формуле: , т.е. соответственно 3,4,5 и 6 битов, поэтому на один элемент этих сообщений приходится количество информации 1 бит.
Задача 9. Известно, что одно из равновероятных возможных сообщений несет 3 бита информации. Из скольких качественных признаков состоит алфавит, если количество символов в алфавите равно 8?
РЕШЕНИЕ
Качественное содержание алфавита (число сообщений) определяется по формуле: , где (алфавит содержит 8 символов), (три бита информации), таким образом .
Задача 17. Чему равно количество информации при получении сообщения о выходе из строя одного из восьми станков, полученных в одно и то же время с одного и того же завода?
РЕШЕНИЕ
Воспользуемся метой Хартли для определения количества информации для равновероятностных сообщений.
, где (всего 8 станков). Отсюда бита.
Задача 25. Определить энтропию источника сообщений, если статистика распределения вероятностей появления символов на выходе источника сообщений представлена следующей схемой:
S | 1 | 2 | 3 | 4 |
P(S) | 0,25 | 0,25 | 0,3 | 0,2 |
РЕШЕНИЕ
Энтропия дискретных сообщений определяется по формуле: , где из условия задачи.
Таким образом: