Автор: Пользователь скрыл имя, 24 Января 2012 в 14:27, контрольная работа
Задача 1.6. Вероятности совместного появления Р(xi,yj) объединения двух статистически зависимых ансамблей заданы в таблице 1. Определить точные и средние количества неопределенности в совместном наступлении событий xi и yj, а также точные и средние количества неопределенности в yj при известном исходе xi.
ЗАДАНИЕ 1…………………………………………………………………………...2
ЗАДАНИЕ 2…………………………………………………………………………...4
ЗАДАНИЕ 3…………………………………………………………………………...5
ЗАДАНИЕ 4…………………………………………………………………………...6
ЗАДАНИЕ 5…………………………………………………………………………..7
ЗАДАНИЕ 6…………………………………………………………………………..8
ЗАДАНИЕ 7…………………………………………………………………………..9
МИНИСТЕРСТВО ОБРАЗОВАНИЯ РЕСПУБЛИКИ БЕЛАРУСЬ
БЕЛОРУССКИЙ
НАЦИОНАЛЬНЫЙ ТЕХНИЧЕСКИЙ УНИВЕРСИТЕТ
МЕЖДУНАРОДНЫЙ
ИНСТИТУТ ДИСТАНЦИОННОГО ОБРАЗОВАНИЯ
Кафедра:
"Программное обеспечение
автоматизированных
систем"
КОНТРОЛЬНАЯ
РАБОТА
по дисциплине «Элементы теории информации»
Вариант
38
Минск 2011
Содержание
ЗАДАНИЕ
1………………………………………………………………………….
ЗАДАНИЕ
2………………………………………………………………………….
ЗАДАНИЕ
3………………………………………………………………………….
ЗАДАНИЕ
4………………………………………………………………………….
ЗАДАНИЕ
5………………………………………………………………………….
ЗАДАНИЕ
6………………………………………………………………………….
ЗАДАНИЕ
7………………………………………………………………………….
ЗАДАНИЕ
1
Задача 1.6. Вероятности совместного
появления Р(xi,yj) объединения
двух статистически зависимых ансамблей
заданы в таблице 1. Определить точные
и средние количества неопределенности
в совместном наступлении событий xi
и yj, а также точные и средние количества
неопределенности в yj
при известном исходе xi.
Таблица 1 (Вероятность совместного появления P(xi, yj)):
yj | xi | ||
x1 | x2 | x3 | |
y1 | 0.1 | 0.15 | 0.05 |
y2 | 0.05 | 0.03 | 0.02 |
y3 | 0.3 | 0.2 | 0.1 |
Решение. Точные количества неопределенности в совместном наступлении событий и находим из формулы
H(xi, yj) = - log P(xi, yj).
Подставляя в данное выражение P(xi, yj) из табл. 1, получим точные количества , которые помещены в табл. 2.
Таблица 2 (Точные количества H(xi, yj)):
yj | xi | ||
x1 | x2 | x3 | |
y1 | 3.32 | 2.74 | 4.32 |
y2 | 4.32 | 5.06 | 5.64 |
y3 | 1.74 | 2.32 | 3.32 |
Среднее количество неопределенности в любом совместном наступлении событий xi, yj равно
H(X,Y) = - i=1Σ3 j=1Σ3 P(xi, yj) * log P(xi, yj) = i=1Σ3 j=1Σ3 H(xi, yj) * P(xi, yj) = 3.32*0.1 + 4.32*0.05 + 1.74*0.3 + 2.74*0.15 + 5.06*0.03 + 2.32*0.2 + 4.32*0.05 + 5.64*0.02 + 3.32*0.1 = 0.33 + 0.22 + 0.52 + 0.41 + 0.15 + 0.46 + 0.22 + 0.11 + 0.33 = 2.76.
Найдем точные значения неопределенностей в наступлении события yj при известном исходе некоторого события xj. Для этого необходимо знать условные вероятности P(xi / yj), а затем воспользоваться формулой
H(yj / xi) = - log P(yj / xi).
Найдем
сначала безусловные
P(xi) = j=1Σ3 P(xi, yj) ; P(yj) = i=1Σ3 P(xi, yj) .
В результате вычислений получим:
P(x1) = 0.45; P(x2) = 0.38; P(x3) = 0.17; P(y1) = 0.3; P(y2) = 0.1; P(y3) = 0.6 .
Наконец, по формуле умножения вероятностей вычислим
P(yj / xi) = P(xi, yj) / P(xi) .
Результаты вычислений представлены в табл. 3.
Таблица 3 (Условные вероятности P(yj / xi)):
yj | xi | ||
x1 | x2 | x3 | |
y1 | 0.22 | 0.39 | 0.29 |
y2 | 0.11 | 0.08 | 0.12 |
y3 | 0.67 | 0.52 | 0.59 |
Результаты расчета H(yj / xi) представлены в табл. 4.
Таблица 4 (Точные условные энтропии H(yj / xi)):
yj | xi | ||
x1 | x2 | x3 | |
y1 | 2.18 | 1.36 | 1.79 |
y2 | 3.18 | 3.64 | 3.06 |
y3 | 0.58 | 0.94 | 0.76 |
Найдем частные условные энтропии путем усреднения точных условных энтропий.
H(Y, xi) = j=1Σ3 P(yj / xi) * H(yj / xi) .
H(Y, x1) = 2.18*0.22 + 3.18*0.11 + 0.58*0.67 = 0.4796 + 0.3498 + 0.3886 = 1.218 ;
H(Y, x2) = 1.36*0.39 + 3.64*0.08 + 0.94*0.52 = 0.5304 + 0.2912 + 0.4888 = 1.3104 ;
H(Y,
x3) = 1.79*0.29 + 3.06*0.12 + 0.76*0.59
= 0.5191 + 0.3672 + 0.4484 = 1.3347 .
Эти результаты образуют случайную величину, значения которой наступают с вероятностью P(xi). Поэтому только среднее H(Y, xi), усредненное с весом P(xi), не случайно, а именно:
H(Y / X) = i=1Σ3 H(Y / xj) * P(xi) = - i=1Σ3 j=1Σ3 H(xi, yj) * log P(yj / xi) =
= 1.218*0.45 + 1.3104*0.38 + 1.3347*0.17
= 0.5481 + 0.498 + 0.2269 = 1.274.
Если испытания будут независимы, то энтропия объединения будет
H*(Y , X) = H(X) + H(Y) = - i=1Σ3P(xi) * log P(xi) - i=1Σ3P(yi) * log P(yi) =
= - (0.45 * log0.45 + 0.38 * log0.38 + 0.17 * log0.17) - (0.3 * log0.3 + 0.1 * log0.1 + 0.6 * log0.6) = 0.52 + 0.53 + 0.43 + 0.52 + 0.33 + 0.44 = 2.77 .
Таким образом
H(Y
, X) = 2.76 бит < H*(Y ,
X) = H(X) + H(Y) = 2.77 .
ЗАДАНИЕ
2
Задача
2.3. Источник вырабатывает два символа
A и B с вероятностью P(A)= 0,4
и P(B) = 0,6. Определить количество
возможных последовательностей, содержащих
nA символов A, причем nA+nB
=M= 4. Определить вероятность события,
которое заключается в том, что в выработанной
источником последовательности длиной
M содержится nA
символов A.
Решение. Число всевозможных последовательностей, которое можно составить из двух букв, по M букв в каждой, N = 2M. Число последовательностей, у которых из M мест nA мест представлено букве A, равно числу сочетаний из M элементов по nA.
CMnA =M! / (M - nA)!nA! .
Вероятность того, что в выработанной источником последовательности длиной M содержится nA символов A, определяется из биномиального закона
PM,nA = CMnA * PnA * (1 - P)M-nA ,
Более
подробно рассмотрим работу данного
источника для M = 4. Тогда N= 24=16.
Выпишем эти 16 возможных последовательностей,
вычислив для каждой из них CMnA
и PM,nA
Возможные последовательности | nA | nB | CMnA | PM,nA |
AAAA | 4 | 0 | 1 | 0.0256 |
AAAB
AABA ABAA BAAA |
3 | 1 | 4 | 0.154 |
AABB
ABBA BBAA BAAB BABA ABAB |
2 | 2 | 6 | 0.346 |
BBBA
BBAB BABB ABBB |
1 | 3 | 4 | 0.346 |
BBBB | 0 | 4 | 1 | 0.130 |
Информация о работе Контрольная работа по «Элементы теории информации»