Автор: Пользователь скрыл имя, 27 Декабря 2011 в 17:44, реферат
Единица измерения количества информации - 1 бит. Понятие неопределенности, количество информации и энтропия. Формулы Шеннона и Хартли.
Введение
1. Бит
2. Неопределенность, количество информации и энтропия
3. Формула Шеннона
4. Формула Хартли
5. Количество информации, получаемой в процессе сообщения
Список использованной литературы
Если же вопрос стоит так: “в доме 8 этажей, какое количество информации мы получили, узнав, что интересующий нас Коля Иванов живет на втором этаже?”, нужно воспользоваться формулой (2): I=log2(8)=3 бита.
5.Количество информации, получаемой в процессе сообщения
До сих пор были приведены формулы для расчета энтропии (неопределенности) H, указывая, что H в них можно заменять на I, потому что количество информации, получаемое при полном снятии неопределенности некоторой ситуации, количественно равно начальной энтропии этой ситуации.
Но неопределенность может быть снята только частично, поэтому количество информации I, получаемой из некоторого сообщения, вычисляется как уменьшение энтропии, произошедшее в результате получения данного сообщения.
(4)
Для равновероятного случая, используя для расчета энтропии формулу Хартли, получим:
(5)
Второе равенство выводится на основании свойств логарифма. Таким образом, в равновероятном случае I зависит от того, во сколько раз изменилось количество рассматриваемых вариантов выбора (рассматриваемое разнообразие).
Исходя из (5) можно вывести следующее:
Если , то - полное снятие неопределенности, количество полученной в сообщении информации равно неопределенности, которая существовала до получения сообщения.
Если , то - неопределенности не изменилась, следовательно, информации получено не было.
Если же априори известно, что мужчин и женщин в учреждении поровну (два равновероятных варианта), то при расчете по той же формуле мы должны получить
неопределенность
в 1 бит. Проверка этого предположения
проведена в таблице 2.
Таблица 2.
pi | 1/pi | Ii=log2(1/pi), бит | pi*log2(1/pi), бит | ||
Ж | 1/2 | 2 | log2(2)=1 | 1/2 * 1=1/2 | |
М | 1/2 | 2 | log2(2)=1 | 1/2 * 1=1/2 | |
1 | H=1 бит | ||||
4.Формула Хартли
Формула Хартли - частный
случай формулы Шеннона для
Подставив в формулу (1) вместо pi его (в равновероятном случае не зависящее от i) значение , получим:
,
таким образом, формула Хартли выглядит очень просто:
(2)
Из нее явно следует, что чем больше количество альтернатив (N), тем больше неопределенность (H). Эти величины связаны в формуле (2) не линейно, а через двоичный логарифм. Логарифмирование по основанию 2 и приводит количество вариантов к единицам измерения информации - битам.
Энтропия будет являться целым числом лишь в том случае, если N является степенью числа 2, т.е. если N принадлежит ряду: {1, 2, 4, 8, 16, 32, 64, 128, 256, 512, 1024, 2048…}
Рис. 3. Зависимось энтропии от количества равновероятных вариантов выбора (равнозначных альтернатив).
Для решения обратных
задач, когда известна неопределенность
(H) или полученное в результате ее
снятия количество информации (I) и нужно
определить какое количество равновероятных
альтернатив соответствует
(3)
Например, если известно, что в результате определения того, что интересующий нас Коля Иванов живет на втором этаже, было получено 3 бита информации, то количество этажей в доме можно определить по формуле (3), как N=23=8 этажей.
Если же вопрос стоит так: “в доме 8 этажей, какое количество информации мы получили, узнав, что интересующий нас Коля Иванов живет на втором этаже?”, нужно воспользоваться формулой (2): I=log2(8)=3 бита.
5.Количество информации, получаемой в процессе сообщения
До сих пор были приведены формулы для расчета энтропии (неопределенности) H, указывая, что H в них можно заменять на I, потому что количество информации, получаемое при полном снятии неопределенности некоторой ситуации, количественно равно начальной энтропии этой ситуации.
Но неопределенность может быть снята только частично, поэтому количество информации I, получаемой из некоторого сообщения, вычисляется как уменьшение энтропии, произошедшее в результате получения данного сообщения.
(4)
Для равновероятного случая, используя для расчета энтропии формулу Хартли, получим:
(5)
Второе равенство выводится на основании свойств логарифма. Таким образом, в равновероятном случае I зависит от того, во сколько раз изменилось количество рассматриваемых вариантов выбора (рассматриваемое разнообразие).
Исходя из (5) можно вывести следующее:
Если , то - полное снятие неопределенности, количество полученной в сообщении информации равно неопределенности, которая существовала до получения сообщения.
Если , то - неопределенности не изменилась, следовательно, информации получено не было.
Если , то => , если , => . Т.е. количество полученной информации будет положительной величиной, если в результате получения сообщения количество рассматриваемых альтернатив уменьшилось, и отрицательной, если увеличилось.
Если количество рассматриваемых альтернатив в результате получения сообщения уменьшилось вдвое, т.е. , то I=log2(2)=1 бит. Другими словами, получение 1 бита информации исключает из рассмотрения половину равнозначных вариантов.
Рассмотрим в качестве примера опыт с колодой из 36 карт.
Рис. 4. Иллюстрация к опыту с колодой из 36-ти карт.
Пусть некто вынимает одну карту из колоды. Нас интересует, какую именно из 36 карт он вынул. Изначальная неопределенность, рассчитываемая по формуле (2), составляет H=log2(36)5,17 бит. Вытянувший карту сообщает нам часть информации. Используя формулу (5), определим, какое количество информации мы получаем из этих сообщений:
Вариант A. “Это карта красной масти”.
I=log2(36/18)=log2(2)=1 бит (красных карт в колоде половина, неопределенность уменьшилась в 2 раза).
Вариант B. “Это карта пиковой масти”.
I=log2(36/9)=log2(4)=2 бита (пиковые карты составляют четверть колоды, неопределенность уменьшилась в 4 раза).
Вариант С. “Это одна из старших карт: валет, дама, король или туз”.
I=log2(36)-log2(16)=5,17-4=1,
Вариант D. “Это одна карта из колоды".
I=log2(36/36)=log2(1)=0 бит (неопределенность не уменьшилась - сообщение не информативно).
Вариант D. “Это дама пик".
I=log2(36/1)=log2(36)=5,17 бит (неопределенность полностью снята).
Список использованной литературы
1. Зрение. http://schools.keldysh.ru/
2. Ильина О. В.
Кодирование информации в
3. Интернет-школа.
Просвещение.ru http://www.internet-school.ru/
4. Информатика, математика
лекции учебники курсовые
5. Петрович Н. Т.
Люди и биты. Информационный взрыв:
что он несет. М.: Знание, 1986.