Автор: Пользователь скрыл имя, 29 Марта 2013 в 09:21, реферат
Понятие информационной системы (ИС). Этапы обращения информации в ИС. Энтропия. Основные свойства энтропии. Энтропия объединения.
Знак минус в первом равенстве (3) необходим для того, чтобы количество информации i(uk) было неотрицательным числом т.к. всегда P(uk) ≤ 1. Очевидно что, так же как и мера H(U) определяемая (2) величина i(uk) обладает свойством адетивности. И в случае достоверного сообщения, когда P(uk)=1, i(uk)=0. Однако, теперь количество информации содержащееся в дискретном сообщении зависит от степени неожиданности этого сообщения характеризуемой вероятностью его появления. Количество информации в сообщении тем больше, чем оно более неожиданно. Если источник выдает последовательность зависимых между собой элементарных сообщений, то наличие предшествующих сообщений может изменить вероятность последующего, следовательно, и количество информации в нем. Оно должно определяться по условной вероятности P(uk/uk-1,uk-2,…) выдачи сообщений uk при известных предшествующих сообщений uk/uk-1,uk-2,…, тогда количество информации
Определения (3) и (4) количества информации являются случайной величиной, поскольку сами сообщения являются случайными. Его распределение вероятностей определяется распределением вероятностей сообщений в данном ансамбле для цифровой характеристики всего ансамбля или источника сообщения используется математическое ожидание количества информации в отдельных сообщениях называемых энтропией.
Свойства энтропии
1) Энтропия любого дискретного ансамбля не отрицательна H(U)≥0 (6).
2) Пусть N - объем алфавита дискретного источника, тогда H(U) ≤log N (7).
3) Энтропия
объединения нескольких
Контрольные вопросы: