Энтропия.Скорость передачи информации
Автор: Пользователь скрыл имя, 21 Апреля 2013 в 20:20, лекция
Описание работы
Последнее обстоятельство позволяет саму величину
считать одним из возможных значений некоторой дискретной
случайной величины, имеющей ряд распределения:
Работа содержит 1 файл
1
РТФ
ТЭС
Энтропия. Скорость передачи
информации
Доцент кафедры радиотехнических систем, к.т.н.
Александр Самуилович Бернгардт
2
ИСТОЧНИКИ
1. Теория и техника передачи информации : учебное пособие /
Ю.П.Акулиничев, А. С. Бернгардт. — Томск: Эль Контент, 2012. —
210 с.
2.
Акулиничев Ю.П., Дроздова В.И. Сборник задач по теории
информации. – Томск: ТГУ, 1976. – 146 с.
3. Гаранин М.В., Журавлев В.И., Кунегин С.В. Системы и сети
передачи информации: Учеб. пособие для вузов. – М.: Радио и
связь, 2001. – 336 с.
4. Современные технологии цифровых оптоволоконных сетей
связи (ATM, PDH, SDH, SONET и WDM): производственно-
практическое издание/ Николай Николаевич Слепов. - М.: Радио и
связь, 2000.
5. Сальников А.П. Теория электрической связи: Конспект
лекций, часть 1/ СПбГУТ. –СПб., 2002. –93 с.: ил.
Доцент кафедры радиотехнических систем А.С. Бернгардт, Тусур, РТФ
3
Схема цифровой системы передачи непрерывных сообщений
Доцент кафедры радиотехнических систем А.С. Бернгардт, Тусур, РТФ
Источник
непре-
рывных
сообщений
Кодер
источника
Кодер
канала
Модуля-
тор
Линия
связи
(среда)
Демоду-
лятор
Декодер
канала
Декодер
источника
Получатель
S(t)
Ŝ (t)
Кодек
источника
Кодек
канала
Модем
m(t)
Аналого-
цифровое
Преобразо-
вание
Цифро-
аналоговое
Преобразо-
вание
Исходный цифровой
(двоичный) поток
Принятый цифровой
(двоичный) поток
m(t)
Форматиро-
вание
КОДИРОВАНИЕ ИСТОЧНИКА
4
Количество информации, получаемой наблюдателем при
появлении значения
x
J
,
Клод Шеннон предложил определять по
формуле
)
(
log
)
(
j
a
j
x
p
x
I
и назвал эту величину собственной информацией символа x
J.
Свойства собственной информации:
I x
j
0
1)
0 , причем знак равенства имеет место лишь
в ситуации, когда Х – детерминированный сигнал, т.е.
, следовательно, любые другие состояния сигнала
невозможны.
p x
1
1
m
1
2) величина собственной информации тем больше,
чем менее вероятно данное состояние;
Собственная информация
Теория информации
Доцент кафедры радиотехнических систем А.С. Бернгардт, Тусур, РТФ
5
Последнее обстоятельство позволяет саму величину
считать одним из возможных значений некоторой дискретной
случайной величины, имеющей ряд распределения:
I
j
I x
j
I
j
I
1
I
2
…
I
m
p x
1
p x
2
p x
j
p x
1
p x
2
p x
m
…
3)cобственная информация I(x) случайна,
поскольку заранее неизвестно, какое именно значение
появится на выходе источника.
x
j
Доцент кафедры радиотехнических систем А.С. Бернгардт, Тусур, РТФ
Теория информации
Если а=2, количество
информации измеряется в битах,
1 нат. ед.=log
2
e бит1,443 бит,
1 дес. ед.=log
2
10 бит3,32 бит.
6
Энтропия
H X() M logP X()
(
)
P x
j
logP x
j
Математическое ожидание случайной величины «собственная
информация» равно:
и называется энтропией сигнала Х.
Размерность энтропии H(x) – бит/символ
Доцент кафедры радиотехнических систем А.С. Бернгардт, Тусур, РТФ
Теория информации
7
Собственная информация и избыточность (цифровые сигналы)
Х - это m-ичный символ, а х
1
,x
2
,…,x
m
- его возможные значения
.
x
j
x
1
x
2
…
x
m
p(x
j
) p(x
1
) p(x
2
)
…
p(x
m
)
I(x
j
)= -log
a
p(x
j
) –
собственная информация
символа х
j
.
1 нат. ед.=log2e бит1,443 бит,
1 дес. ед.=log210 бит3,32 бит.
,
x
j
=
j
0
90 180 270
p(x
j
) 0,10 0,60 0,18 0,12
I(x
j
) 3,32 0,74 2,47 3,06
1
( ) M log ( )
( )log ( )
m
j
j
j
H X
p X
p x
p x
- энтропия сигнала Х.
H(X)=-0,1log0,1-0,6log0,6-0,18log0,18-0,12log0,12= 1,587 бит.
H(x)
Hmax = logm
Пример:
Пример:
Доцент кафедры радиотехнических систем А.С. Бернгардт, Тусур, РТФ
Теория информации
8
Энтропия
Свойства энтропии
1. H(X) -неслучайная величина;
2. 0 ≤ H(X) ≤
∞
и H(X) = 0, если источник детерминированный
Эти два свойства показывают, что энтропия, в дополнение
к своему основному назначению (среднее количество
собственной информации в символе Х) может использоваться как
мера неопределенности
исхода опыта над случайном
объектом Х.
Энтропия Н(Х) – детерминированная величина, поэтому
ее удобнее применять для описания информационного
содержания сигналов.
Доцент кафедры радиотехнических систем А.С. Бернгардт, Тусур, РТФ
Теория информации
9
3) Зависимость энтропии от распределения вероятностей
сообщения
Для двоичного источника (m=2) энтропия определяется выражением
H[x] = -[p*log(p)+(1-p)*log(1-p)]
и достигает максимального значения при P=1/2.
В общем случае m-ичногоисточника максимальная энтропия
H
max
=log
2
m
и это достигается при P
i
=1/m, i=(1,m)- если распределение
равномерное. В этом случае 0≤H[x]≤ log m
Доцент кафедры радиотехнических систем А.С. Бернгардт, Тусур, РТФ
10
1
2
,
,...,
,
n
X X
X
X
- последовательность длины n,
состоящая из m-ичных символов
n
N m
1
2
1
2
( , ,...,
) log ( , ,...,
)
n
n
i
j
k
i
j
k
I x x
x
p x x
x
Собственная информация и избыточность (цифровые сигналы)
1
2
1
2
1
2
1
1
1
( )
(
,
,...,
)
...
( ,
,...,
)log ( ,
,...,
).
n
m m
m
n
n
i
j
k
i
j
k
i
j
k
H
H X X
X
p x x
x
p x x
x
X
1
2
1
1
2
1
( )
( )
(
/
) ...
(
/
,
,...,
).
n
n
H
H X
H X X
H X X X
X
X
max
max
( )
log
log
,
n
H
H
N n
m nH
X
Избыточность сигнала
max
1
( )
n
R
H
H
X
min
1
/ ,
r
R
L
L L L
Число возможных
реализаций
Доцент кафедры радиотехнических систем А.С. Бернгардт, Тусур, РТФ
Теория информации
11
УСЛОВНАЯ ЭНТРОПИЯ, УДЕЛЬНАЯ ЭНТРОПИЯ
Если n=2 , тогда H(X,Y) = [бит/слово из 2 букв],
Н(X/Y) –условная энтропия. Несложно убедиться, что
H(X,Y) = H(X)+H(Y/X)= H(Y)+ Н(X/Y)
Н(X/Y)≤ H(X) , следовательно,
Н(X,Y)≤ H(X) + H(Y).
H(X
n
)= [бит/слово из n букв]
H
уд
=H
1
=H(X
n
)/n [бит/букву] – удельная энтропия
Доцент кафедры радиотехнических систем А.С. Бернгардт, Тусур, РТФ
12
Взаимная информация
Количество информации, извлекаемой получателем из принятого
сигнала y
k
, когда в действительности передавалось сообщение x
j
( / )
( ; )
( )
( / ) log
.
( )
j
k
j
k
j
j
k
j
p x y
I x y
I x
I x y
p x
( / )
( / )
( , )
( ; ) ( ; ) log
log
log
( )
( )
( ) ( )
j
k
k
j
j
k
j
k
k
j
j
k
j
k
p x y
p y x
p x y
I x y
I y x
p x
p y
p x p y
Свойство симметрии:
( ; )
( )
( ),
j
j
j
j
I x y
I x
I y
В канале без помех
1
1
( ; )
[ ( ; )]
( , ) ( ; )
m m
j
k
j
k
j
k
I X Y
M I x y
p x y I x y
( ; )
( )
/
( )
( / )
I X Y
H X
H X Y
H Y
H Y X
Средняя взаимная информация между X и Y
Доцент кафедры радиотехнических систем А.С. Бернгардт, Тусур, РТФ
13
Средняя взаимная информация определяет скорость
передачи информации по каналу
)
;(
)
;
(
X
Y
I
Y
X
I
)
(
)(
)
(
)
/
(
)(
)
/
(
)
(
XY
H
Y
H
X
H
X
Y
H
Y
H
Y
X
H
X
H
Свойства
1.
2.
3. Если канал без помех, то тогда Y=X, следовательно
)(
);
(
)(
);
(
Y
H
YY
I
X
H
X
XI
4. Если Х,Y – независимы, тогда
,
)
(
)
/
(
k
i
k
y
p
x
y
p
0
);
(
YX
I
5.
)
(
)
;
(
0
X
H
Y
X
I
Доцент кафедры радиотехнических систем А.С. Бернгардт, Тусур, РТФ
14
H(X) - энтропия или скорость создания информации
H(X/Y) - условная энтропия , скорость потери информации
(Ненадежность канала)
H(Y) - энтропия на выходе
H(Y/X) - cкорость создания ложной информации
Доцент кафедры радиотехнических систем А.С. Бернгардт, Тусур, РТФ
I(X;Y) –
скорость
передачи информации по каналу
15
Пропускная способность m-ичного канала без помех
I(x;y)=I(x;x)=H[x]
С=max H[x]=log
2
m [бит/символ]
Что пришло на вход, получим на выходе
Источник
Канал
x
1
x
2
y
1
y
2
y=k*x
Это максимально возможная в этом канале скорость
передачи информации (бит/символ или бит/с) при заданных
ограничениях на значения ряда его физических параметров.
ПРОПУСКНАЯ СПОСОБНОСТЬ КАНАЛА
max ( ; ).
C
I X Y
Доцент кафедры радиотехнических систем А.С. Бернгардт, Тусур, РТФ
16
ПРОПУСКНАЯ СПОСОБНОСТЬ ЦИФРОВОГО КАНАЛА
Пропускная способность двоичного симметричного канала
с ошибками (помехами)
o
o
o
Переходные вероятности
двоичного симметричного
канала
x
1
=0
o
x
2
=1
1-p
p
1-p
p
y
2
=1
y
1
=0
бит
1
log
(1
) log(1
),
.
дв.симв
C
p
p
p
p
0
0,2
0,4
0,6
0,8
1
0
0,5
1
p
C, бит/симв
Пропускная
способность двоичного
симметричного канала.
Доцент кафедры радиотехнических систем А.С. Бернгардт, Тусур, РТФ
17
Пропускная способность симметричного m-ичного
канала с помехами
Источник
Канал
P
X
Y
x
1
x
m
y
1
y
m
Оптимальное распределение – Равномерное.
При таком распределении Энтропия – максимальна.
P
áèò
C logm Plog
(1- P)log(1- P) [
]
m-1
ñèì âî ë
Доцент кафедры радиотехнических систем А.С. Бернгардт, Тусур, РТФ
18
Предполагается, что:
1) параметры источника информации постоянны
во времени;
2) линия передачи обладает заданной полосой
пропускания f и ее параметры также
постоянны;
3) единственной помехой на входе приемника
является аддитивный белый гауссовский шум
со спектральной плотностью No Вт/Гц;
4) Pс и Pш - средние мощности полезного сигнала
и шума,
Р
ш
= N
0
*f ;
ПРОПУСКНАЯ СПОСОБНОСТЬ НЕПРЕРЫВНОГО КАНАЛА С ШУМОМ
(ФОРМУЛА ШЕННОНА).
Доцент кафедры радиотехнических систем А.С. Бернгардт, Тусур, РТФ
19
Пропускная способность непрерывного канала с шумом
log 1
/
,
/
.,
C
Ш
C
f
P P
бит сек
где P
ш
=N
o
f.
н
c
o
/ ,
f
P N
- нормирующая величина
0
0,5
1
1,5
0
1
2
3
4
f/f
н
C/f
н
Пропускная способность
непрерывного канала с белым шумом
1,44
Доцент кафедры радиотехнических систем А.С. Бернгардт, Тусур, РТФ
Доцент кафедры радиотехнических систем А.С. Бернгардт, Тусур, РТФ
21
Доцент кафедры радиотехнических систем А.С. Бернгардт, ТУСУР, РТФ,каф. РТС
Информация о работе Энтропия.Скорость передачи информации