Меры информации, качество информации и его характеристика

Автор: Пользователь скрыл имя, 29 Октября 2011 в 19:08, курсовая работа

Описание работы

На современном этапе экономического развития страны одной из важнейших, наиболее острых и неотложных проблем является качество и надежность продукции и работ (услуг). Немаловажное место в этой проблеме занимает повышение качества и надежности разработок в области создания экономических информационных систем (ЭИС), используемых в различных сферах деятельности: обработки данных, проектирования, научных исследований и т.п., поскольку от прогрессивности создаваемых проектов ЭИС в значительной мере зависит научно-технических прогресс.

Содержание

ВВЕДЕНИЕ………………………………………………………………….. 3
Глава 1. Понятие информации……………………………………………..5
1.1 Количественные и качественные характеристики информации… 10
1.2.1 Качественные характеристики информации……………………....10
1.2.2 Количественные характеристики информации…………………...12
Глава 2. Анализ качества баз данных ……………………………………29
ЗАКЛЮЧЕНИЕ ……….……………………………………………………36
Список используемой литературы ..……………………………………..40

Работа содержит 1 файл

doc.doc

— 489.50 Кб (Скачать)

      ⱷ [Р (xoj , xok)] = ⱷ [Р (xoj )]  + ⱷ [Р (xoj / xok)],

      где Р (xoj / xok) вероятность возникновения сообщения xok при условии появления перед ним сообщения xoj

      Соответственно  вероятность возникновения последовательности сообщений  xoj / xok составит Р (xoj / xok)= Р (xoj ) [ Р (xok/ xoj). Отсюда

      ⱷ [Р (xoj )] + ⱷ [Р (xok/ xoj)]= ⱷ [Р (xoj )]  + ⱷ [(xok/ xoj)],

Дифференцируя по переменной P xoj , получим

      P(Xok/Xoj)= ⱷ’ [ Р (xoj ) Р (xok/ xoj)] = ⱷ’ [ Р (xoj )]

      Умножим левую и правую части уравнения  на вероятность Р(xoj), тогда

      P (Xoj) P(Xok/Xoj)  ⱷ’ [ Р (xoj ) Р (xok/ xoj)] = P (Xoj) ⱷ’ [ Р (xoj )]

   Учитывая, что вероятность Р (Xoj) находится в пределах от 0 до 1, видим, что части уравнения должны представлять собой постоянную величину, т.е. Р(Xoj) ⱷ’ [ Р (xoj )] =k, где k — постоянная величина. Отсюда ⱷ’ [ Р (xoj )] = k/ Р (xoj ). Количество информации в j-м сообщении составит

ⱷ[ Р (xoj )] = k ln Р (xoj ) + с,

где с  — постоянная интегрирования. Для  определения с рассмотрим частный случай, когда имеет место передача лишь одного /-го сообщения, т.е. Р(xoj)=1. Подставляя Р(xoj)=1 в приведенное уравнение, находим, что с = 0, а отсюда

                        ⱷ[ Р (xoj )] = k ln Р (xoj )

       Для определения постоянной к выберем  систему единиц Естественным требованием, является то, что количество информации должно быть положительной величиной, тогда, принимая к = 1 получаем

       ⱷ[ Р (xoj )] = - ln Р (xoj )

       Тогда в качестве единицы информации можно  принять натуральную единицу. Количество информации в одну натуральную единицу (l нат) равно информации, которая передается в одном сообщении с вероятностью появления l/е. Как указывалось выше, в стаnbcтической теории получила применение двоичная единица информации, что соответствует коэффициенту к = - l/ln 2. Тогда количество информации для неравновероятных сообщений составит

       I = ⱷ[ Р (xoj )] = - log2.

       При необходимости количество информации в случайно выбранном сообщении нетрудно связать с информативностью символов кода сообщения. Если процесс образования символов описывается цепью Маркова и символы могут принимать K значений, то найти вероятность возникновения сообщения P(x0j) можно как произведение вероятностей возникновения символов его кода. Если они выбираются независимо и символ типа j встречается nj раз, то вероятность возникновения сообщения x0j  составит

                     

где Р(хj) -~ вероятность возникновения символа типа j.

        При большой длине кода п можно считать, что nj= пР(хj), а так как выше установлено, что количество сообщения х0/ составляет I = - log2 P(xoj), то, подставляя полученные выше значения вероятности Р(xoj),найдем количество информации I в виде

      

    Видно, что количество информации прямо пропорционально

    длине кода п и информативности отдельно взятого символа. Отметим, что максимально возможное количество информации, т.е. максимум записанного выше выражения, получается, если символы равновероятны. Тогда для множества символов К оптимальное равномерное распределение соответствует P(xj)= l/K В этом случае получим, что I= nlog2K, Для двоичного кода К = 2, 1 — п, что соответствует количеству информации для неизбыточного кода при равновероятных сообщениях. Введенная количественная статистическая мера информации широко используется в теории информации для оценки количества собственной, условной, взаимной и других видов информации. Рассмотрим это на примере собственной информации.

        Под этим будем, понимать информацию, которая содержится в данном конкретном сообщении. В соответствии с этим определением количество собственной информации в сообщении xoj определяется как I(xoj) = log2 P(xoj). Количество собственной информации измеряется числом бит информации, содержащихся в сообщении xoj. Для нее могут быть сформулированы следующие свойства.

        1. Собственная информация неотрицательна.- Чем меньше вероятность возникновения сообщения, тем больше количество информации, содержащейся в нем. Если сообщение имеет вероятность

    возникновения, равную единице, то получаемая с ним  информация равна нулю, так как заранее известно, что может прийти только это сообщение, и выявление данного сообщения не несет потребителю никакой информации.

        2. Собственная информация обладает свойством аддитивности. 
    Для доказательства этого рассмотрим ансамбль из множества сообщений , У}. Найдем количество собственной информации для 
    пары сообщений xoj, yoj

        I(xoj, yoj) = - log2P(xoj, yoj)

        Если  сообщение xoj, yoj статистически не зависимы, то Р(xoj, yoj) = Р(xoj) Р(yoj). Количество информации в двух сообщениях составит

        I(xoj, yoi) = - log2P(xoj)- I(xoj, yoi) = - log2P( yoi)= I(xoj)+ I( yoi)

       Таким образом количество собственной  информации в двух независимых сообщениях равно сумме собственных сообщений. Отметим, что она характеризует сообщение, которое возникает случайным образом из источника, а поэтому является случайной величиной и зависит от номера выбранного сообщения.

       Рассмотрим  понятия и свойства энтропии дискретных систем. Математическое ожидание случайной величины собственной информации называется энтропией. Энтропия рассчитывается на множестве(ансамбле) сообщений X0 либо на множестве символов Х и физически определяет среднее количество собственной информации, которое содержится в элементах множества (либо сообщений либо символов). Для источников сообщений случайная величина на собственной информации принимает значение I(х01), I(х02),…, I(хoj),…, I(х) с вероятностью Р(х01), Р(х02),…? Р(Xoj) ),…, I(х) соответственно.

       Среднее количество (математическое ожидание) собственной информации, содержащиеся  в ансамбле сообщений  Хо, т.е. энтропияы этого ансамбля составит

       

    Где М- множество сообщений в ансамбле Хо. Содержательно энтропия Н(хо) показывает количество двоичный единиц информации, которая содержится в любом сообщении из множества Хо.

    Следует отметить, что понятие энтропии исторически использовалось для оценки меры неопределенности состояния любой системы. Чем больше энтропии системы, тем больше неопределенность ее состояния и тем большую информацию  получаем, когда эта непределеннсть снимается. Энтропия как количественная мера неопределенность снимается. Энтропия как количественная мера информации обладает следующими свойствами[48]:

    1. Функция энтропии является непрерывной относительно вероятности возникновения событий и для дискретных событий имеет наибольшее значение при равной вероятности их появления. Если возможно появление лишь одного события , то априорной неопределенности нет, поэтому количество информации и энтропия равны нулю;
    2. При равновероятных событиях функция энтропии возрастает : увеличением числа событий в ансамбле, а поэтому для повышения информативности символов необходимо увеличивать основание системы счисления используемого кода;
    3. Функция энтропии не зависит от пути выбора событий. Это свойство вытекает из аддитивности статической меры информации и   как следствие, аддитивности функции энтропии;

   Теперь перейдем к понятиям «энтропия источника» и «энтропия сообщения». При кодировании важно обеспечить выбор кода, который оптимально согласуется с источником. Это согласование возможно по критерию энтропии источника. Под энтропией источника обычно понимают количество информации, которая в среднем содержится в одном символе кода. Если код имеет основание системы счисления К, то энтропия источника, т.е. среднее количество информации, содержащейся в символе кода, составит

   

   Содержательно энтропия источника показывает, сколько двоичных единиц информации переносится в среднем в одном символе кода. Для повышения информативности источника необходимо стремиться к равновероятности символов. В этом случае для неизбыточного кода в одном символе передается двоичная единица информации С введением избыточности информативность символа уменьшается, но появляются возможности, связанные с обнаружением и исправлением ошибок, что обеспечивает требуемую помехоустойчивость передачи сообщений. Среднее количество информации, содержащееся в сообщении, называется энтропией сообщения и определяется в виде

   

       Видно, что энтропия сообщения представляет собой математическое ожидание собственной информации, содержащейся в ансамбле сообщений XQ, Таким образом, энтропия является универсальной статистической характеристикой, позволяющей оценить количество информации, которая содержится в любом ансамбле дискретных событий.

      Понятие энтропии применимо и к непрерывным  событиям В системах обработки информации и управления значительная доля информации имеет непрерывный характер и выражается в виде не прерывной функции от времени. В этом случае возникает задача  непрерывной информации в виде непрерывных сообщений по каналам связи Непосредственная передача непрерывных сообщений без преобразования возможна лишь на незначительные расстояния, С увеличением расстояний осуществляют операцию дискретизации информации. Для этого вводят квантование по времени и по уровню. Непрерывная функция передается в виде совокупности мгновенных либо квантовых отсчетов, выбранных с различными интервалами но времени. Оценим количество информации, которая содержится в одном отсчете непрерывной функции, и найдем общее выражение для энтропии непрерывных событий.

  Пусть имеет место непрерывная информация, представленная в виде непрерывной функции х(t) с известной плотностью распределения вероятностей амплитудных значений W(х)., Разобьем область значений функции на K уровней с интервалом квантования Δх, тогда получим уровни х1, х2 ...,xj, ..., хк. При достижении функцией x(t) некоторого уровня хj и передаче этого уровня по канату связи количество передаваемой информации может быть определено с помощью функции энтропии H(Xj), если известна вероятность возникновения отсчета P(xj). Для нахождения вероятности Р(хj) построим плотность распределения W(х) и отметим отсчеты функций х1, х2 ...,xj(рис 1.3). Вероятность отображена;

  

заштрихованной  на рис. 1.3 площадью под кривой W(x). Для упрощения расчетов заменим эту площадь другой площадью эквивалентного прямоугольника с основанием Δх и высотой W(xj)  , тогда вероятность Р(xj) = W(xj)Δx. Отсюда количество собственной информации, содержащейся в отсчете xj составит 

   Энтропия  отсчета определяет количество информации, которая передается отсчетом функции  ху С уменьшением шага дискретизации Δх, те при Δх —> 0, можно найти lim Н(хj), т.е предварительное значение

Информация о работе Меры информации, качество информации и его характеристика