Автор: Пользователь скрыл имя, 29 Октября 2011 в 19:08, курсовая работа
На современном этапе экономического развития страны одной из важнейших, наиболее острых и неотложных проблем является качество и надежность продукции и работ (услуг). Немаловажное место в этой проблеме занимает повышение качества и надежности разработок в области создания экономических информационных систем (ЭИС), используемых в различных сферах деятельности: обработки данных, проектирования, научных исследований и т.п., поскольку от прогрессивности создаваемых проектов ЭИС в значительной мере зависит научно-технических прогресс.
ВВЕДЕНИЕ………………………………………………………………….. 3
Глава 1. Понятие информации……………………………………………..5
1.1 Количественные и качественные характеристики информации… 10
1.2.1 Качественные характеристики информации……………………....10
1.2.2 Количественные характеристики информации…………………...12
Глава 2. Анализ качества баз данных ……………………………………29
ЗАКЛЮЧЕНИЕ ……….……………………………………………………36
Список используемой литературы ..……………………………………..40
ⱷ [Р (xoj , xok)] = ⱷ [Р (xoj )] + ⱷ [Р (xoj / xok)],
где Р (xoj / xok) — вероятность возникновения сообщения xok при условии появления перед ним сообщения xoj
Соответственно
вероятность возникновения
ⱷ [Р (xoj )] + ⱷ [Р (xok/ xoj)]= ⱷ [Р (xoj )] + ⱷ [(xok/ xoj)],
Дифференцируя по переменной P xoj , получим
P(Xok/Xoj)= ⱷ’ [ Р (xoj ) Р (xok/ xoj)] = ⱷ’ [ Р (xoj )]
Умножим левую и правую части уравнения на вероятность Р(xoj), тогда
P (Xoj) P(Xok/Xoj) ⱷ’ [ Р (xoj ) Р (xok/ xoj)] = P (Xoj) ⱷ’ [ Р (xoj )]
Учитывая, что вероятность Р (Xoj) находится в пределах от 0 до 1, видим, что части уравнения должны представлять собой постоянную величину, т.е. Р(Xoj) ⱷ’ [ Р (xoj )] =k, где k — постоянная величина. Отсюда ⱷ’ [ Р (xoj )] = k/ Р (xoj ). Количество информации в j-м сообщении составит
ⱷ[ Р (xoj )] = k ln Р (xoj ) + с,
где с — постоянная интегрирования. Для определения с рассмотрим частный случай, когда имеет место передача лишь одного /-го сообщения, т.е. Р(xoj)=1. Подставляя Р(xoj)=1 в приведенное уравнение, находим, что с = 0, а отсюда
ⱷ[ Р (xoj )] = k ln Р (xoj )
Для определения постоянной к выберем систему единиц Естественным требованием, является то, что количество информации должно быть положительной величиной, тогда, принимая к = 1 получаем
ⱷ[ Р (xoj )] = - ln Р (xoj )
Тогда в качестве единицы информации можно принять натуральную единицу. Количество информации в одну натуральную единицу (l нат) равно информации, которая передается в одном сообщении с вероятностью появления l/е. Как указывалось выше, в стаnbcтической теории получила применение двоичная единица информации, что соответствует коэффициенту к = - l/ln 2. Тогда количество информации для неравновероятных сообщений составит
I = ⱷ[ Р (xoj )] = - log2.
При необходимости количество информации в случайно выбранном сообщении нетрудно связать с информативностью символов кода сообщения. Если процесс образования символов описывается цепью Маркова и символы могут принимать K значений, то найти вероятность возникновения сообщения P(x0j) можно как произведение вероятностей возникновения символов его кода. Если они выбираются независимо и символ типа j встречается nj раз, то вероятность возникновения сообщения x0j составит
где Р(хj) -~ вероятность возникновения символа типа j.
При большой длине кода п можно считать, что nj= пР(хj), а так как выше установлено, что количество сообщения х0/ составляет I = - log2 P(xoj), то, подставляя полученные выше значения вероятности Р(xoj),найдем количество информации I в виде
Видно, что количество информации прямо пропорционально
длине кода п и информативности отдельно взятого символа. Отметим, что максимально возможное количество информации, т.е. максимум записанного выше выражения, получается, если символы равновероятны. Тогда для множества символов К оптимальное равномерное распределение соответствует P(xj)= l/K В этом случае получим, что I= nlog2K, Для двоичного кода К = 2, 1 — п, что соответствует количеству информации для неизбыточного кода при равновероятных сообщениях. Введенная количественная статистическая мера информации широко используется в теории информации для оценки количества собственной, условной, взаимной и других видов информации. Рассмотрим это на примере собственной информации.
Под этим будем, понимать информацию, которая содержится в данном конкретном сообщении. В соответствии с этим определением количество собственной информации в сообщении xoj определяется как I(xoj) = log2 P(xoj). Количество собственной информации измеряется числом бит информации, содержащихся в сообщении xoj. Для нее могут быть сформулированы следующие свойства.
1. Собственная информация неотрицательна.- Чем меньше вероятность возникновения сообщения, тем больше количество информации, содержащейся в нем. Если сообщение имеет вероятность
возникновения, равную единице, то получаемая с ним информация равна нулю, так как заранее известно, что может прийти только это сообщение, и выявление данного сообщения не несет потребителю никакой информации.
2. Собственная
информация обладает свойством аддитивности.
Для доказательства этого рассмотрим
ансамбль из множества сообщений {Х,
У}. Найдем количество собственной информации
для
пары сообщений xoj, yoj
I(xoj, yoj) = - log2P(xoj, yoj)
Если сообщение xoj, yoj статистически не зависимы, то Р(xoj, yoj) = Р(xoj) Р(yoj). Количество информации в двух сообщениях составит
I(xoj, yoi) = - log2P(xoj)- I(xoj, yoi) = - log2P( yoi)= I(xoj)+ I( yoi)
Таким
образом количество собственной
информации в двух независимых сообщениях
равно сумме собственных
Рассмотрим понятия и свойства энтропии дискретных систем. Математическое ожидание случайной величины собственной информации называется энтропией. Энтропия рассчитывается на множестве(ансамбле) сообщений X0 либо на множестве символов Х и физически определяет среднее количество собственной информации, которое содержится в элементах множества (либо сообщений либо символов). Для источников сообщений случайная величина на собственной информации принимает значение I(х01), I(х02),…, I(хoj),…, I(хoм) с вероятностью Р(х01), Р(х02),…? Р(Xoj) ),…, I(хoм) соответственно.
Среднее количество (математическое ожидание) собственной информации, содержащиеся в ансамбле сообщений Хо, т.е. энтропияы этого ансамбля составит
Где М- множество сообщений в ансамбле Хо. Содержательно энтропия Н(хо) показывает количество двоичный единиц информации, которая содержится в любом сообщении из множества Хо.
Следует отметить, что понятие энтропии исторически использовалось для оценки меры неопределенности состояния любой системы. Чем больше энтропии системы, тем больше неопределенность ее состояния и тем большую информацию получаем, когда эта непределеннсть снимается. Энтропия как количественная мера неопределенность снимается. Энтропия как количественная мера информации обладает следующими свойствами[48]:
Теперь перейдем к понятиям «энтропия источника» и «энтропия сообщения». При кодировании важно обеспечить выбор кода, который оптимально согласуется с источником. Это согласование возможно по критерию энтропии источника. Под энтропией источника обычно понимают количество информации, которая в среднем содержится в одном символе кода. Если код имеет основание системы счисления К, то энтропия источника, т.е. среднее количество информации, содержащейся в символе кода, составит
Содержательно энтропия источника показывает, сколько двоичных единиц информации переносится в среднем в одном символе кода. Для повышения информативности источника необходимо стремиться к равновероятности символов. В этом случае для неизбыточного кода в одном символе передается двоичная единица информации С введением избыточности информативность символа уменьшается, но появляются возможности, связанные с обнаружением и исправлением ошибок, что обеспечивает требуемую помехоустойчивость передачи сообщений. Среднее количество информации, содержащееся в сообщении, называется энтропией сообщения и определяется в виде
Видно, что энтропия сообщения представляет собой математическое ожидание собственной информации, содержащейся в ансамбле сообщений XQ, Таким образом, энтропия является универсальной статистической характеристикой, позволяющей оценить количество информации, которая содержится в любом ансамбле дискретных событий.
Понятие энтропии применимо и к непрерывным событиям В системах обработки информации и управления значительная доля информации имеет непрерывный характер и выражается в виде не прерывной функции от времени. В этом случае возникает задача непрерывной информации в виде непрерывных сообщений по каналам связи Непосредственная передача непрерывных сообщений без преобразования возможна лишь на незначительные расстояния, С увеличением расстояний осуществляют операцию дискретизации информации. Для этого вводят квантование по времени и по уровню. Непрерывная функция передается в виде совокупности мгновенных либо квантовых отсчетов, выбранных с различными интервалами но времени. Оценим количество информации, которая содержится в одном отсчете непрерывной функции, и найдем общее выражение для энтропии непрерывных событий.
Пусть
имеет место непрерывная
заштрихованной
на рис. 1.3 площадью под кривой W(x).
Для упрощения расчетов заменим эту площадь
другой площадью эквивалентного прямоугольника
с основанием Δх и высотой
W(xj) ,
тогда вероятность Р(xj) =
W(xj)Δx. Отсюда количество
собственной информации, содержащейся
в отсчете xj составит
Энтропия отсчета определяет количество информации, которая передается отсчетом функции ху С уменьшением шага дискретизации Δх, те при Δх —> 0, можно найти lim Н(хj), т.е предварительное значение
Информация о работе Меры информации, качество информации и его характеристика