Меры информации, качество информации и его характеристика

Автор: Пользователь скрыл имя, 29 Октября 2011 в 19:08, курсовая работа

Описание работы

На современном этапе экономического развития страны одной из важнейших, наиболее острых и неотложных проблем является качество и надежность продукции и работ (услуг). Немаловажное место в этой проблеме занимает повышение качества и надежности разработок в области создания экономических информационных систем (ЭИС), используемых в различных сферах деятельности: обработки данных, проектирования, научных исследований и т.п., поскольку от прогрессивности создаваемых проектов ЭИС в значительной мере зависит научно-технических прогресс.

Содержание

ВВЕДЕНИЕ………………………………………………………………….. 3
Глава 1. Понятие информации……………………………………………..5
1.1 Количественные и качественные характеристики информации… 10
1.2.1 Качественные характеристики информации……………………....10
1.2.2 Количественные характеристики информации…………………...12
Глава 2. Анализ качества баз данных ……………………………………29
ЗАКЛЮЧЕНИЕ ……….……………………………………………………36
Список используемой литературы ..……………………………………..40

Работа содержит 1 файл

doc.doc

— 489.50 Кб (Скачать)

       В компьютерной практике слово “бит”  используется также как единица  измерения объёма памяти. Ячейка памяти размером в 1 бит может находиться в двух состояниях (“включено” и “выключено”) и в неё может быть записана одна двоичная цифра (0 или 1). Понятно, что бит — слишком маленькая единица измерения информации, поэтому пользуются кратными ей величинами. Основной единицей измерения информации является байт. 1 байт равен 8 битам. В ячейку размером в 1 байт можно поместить 8 двоичных цифр, то есть в одном байте можно хранить 256 = 28 различных чисел. Для измерения ещё больших объёмов информации используются такие величины: 

       §1.1. Количественные и качественные характеристики информации.

§1.2.1. Качественные характеристики информации.

Возможность и эффективность использования  информации обусловливаются такими основными ее потребительскими показателями качества, как репрезентативность, содержательность, достаточность, доступность, актуальность, своевременность, точность, достоверность, устойчивость.

Репрезентативность информации связана с правильностью ее отбора и формирования в целях адекватного отражения свойств объекта. Важнейшее значение здесь имеют:

• правильность концепции, на базе которой сформулировано исходное понятие;

• обоснованность отбора существенных признаков и  связей отображаемого явления.

Нарушение репрезентативности информации приводит нередко к существенным ее погрешностям.

Содержательность  информации отражает семантическую емкость, равную отношению количества семантической информации в сообщении к объему обрабатываемых данных, т.е.

С увеличением содержательности информации растет семантическая пропускная способность информационной системы, так как для получения одних и тех же сведений требуется преобразовать меньший объем данных.

Наряду  с коэффициентом содержательности С, отражающим семантический аспект, можно использовать и коэффициент  информативности, характеризующийся отношением количества синтаксической информации (по Шеннону) к объему данных .

Достаточность (полнота) информации означает, что она содержит минимальный, но достаточный для принятия правильного решения состав (набор показателей). Понятие полноты информации связано с ее смысловым содержанием (семантикой) и прагматикой. Как неполная, т.е. недостаточная для принятия правильного решения, так и избыточная информация снижает эффективность принимаемых пользователем решений.

Доступность информации восприятию пользователя обеспечивается выполнением соответствующих процедур ее получения и преобразования. Например, в информационной системе информация преобразовывается к доступной и удобной для восприятия пользователя форме. Это достигается, в частности, и путем согласования ее семантической формы с тезаурусом пользователя.

Актуальность информации определяется степенью сохранения ценности информации для управления в момент ее использования и зависит от динамики изменения ее характеристик и от интервала времени, прошедшего с момента возникновения данной информации.

Своевременность информации означает ее поступление не позже заранее назначенного момента времени, согласованного с временем решения поставленной задачи.

Точность информации определяется степенью близости получаемой информации к реальному состоянию объекта, процесса, явления и т.п.

Достоверность информации определяется ее свойством отражать реально существующие объекты с необходимой точностью. Измеряется достоверность информации доверительной вероятностью необходимой точности, т. е. вероятностью того, что отображаемое информацией значение параметра отличается от истинного значения этого параметра в пределах необходимой точности.

Устойчивость  информации отражает ее способность реагировать на изменения исходных данных без нарушения необходимой точности. Устойчивость информации, как и репрезентативность, обусловлена выбранной методикой ее отбора и формирования.

  §1.2.1 Количественные характеристики

  В процессе отражения между состояниями  взаимодействующих объектов возникает определенная связь. Информация как результат отражения одного объекта другим выявляет степень соответствия их состояний, а поэтому важными оказываются именно количественные характеристики информации. Некоторое количество информации можно рассматривать с трех основных точек зрения

  • с поведенческой точки зрения создание порции информации осуществляется по некоторой причине, а получение этой информации может привести к некоторому результату (наблюдаемому действию или мыслительной операции);
  • с математико-лингвистической точки зрения порция информации может быть описана путем соотнесения ее с другой информацией, указания ее смысла и структуры,

    • с физико-технической точки зрения рассматриваются физические аспекты проявления информации — ее материальный носитель, разрешающая способность и точность, с которыми она фиксируется, количество информации, которое производится, передается или принимается и т.д.

   Возможен  ряд подходов к оценке качества информации. Наиболее существенными из них являются статистический, семантический и прагматический. Наибольшее развитие получил первый подход.

   Статистический  подход представлен в обширном разделе  кибернетики — теории информации, которая занимается математическим описанием и оценкой методов передачи, хранения, извлечения и классификации информации Теория информации в математической основе использует методы теории вероятности, математической статистики, линейной алгебры и др. В статистической теории основное внимание обращается на распределение вероятности появления отдельных событий и построение на его основе обобщенных характеристик, позволяющих оценить количество информации в одном событии либо в их совокупности Количественной мерой информации стала энтропия. Чтобы возник процесс передачи, должны иметь место источник информации и потребитель. Источник выдает сообщение, потребитель, принимая сообщение, принимает при этом информацию о состоянии источника. В статистической теории, как указывалось выше, не изучают содержание информации. Предполагается, что до получения информации имела место некоторая неопределенность  С получением информации

эта неопределенность снимается Таким образом, статистическая количественная характеристика информации — это мера снимаемой в процессе получения информации неопределенности системы. Естественно, что количество информации зависит от закона распределения состояний системы.

   Семантический подход базируется на смысловом содержании информации Термин «семантика» исторически  применялся в металогике и семиотике. В металогике под семантикой понимают изучение связей между знакосочетаниями, входящими в состав какого-либо формализованного языка, и их интерпретациями (истолкованиями) в терминах той системы понятий и представлений, формализацией которой служит данный язык. В более узком смысле под семантикой подразумевают совокупность правил соответствия между формальными выражениями и их интерпретацией. Под семиотикой понимают комплекс научных теорий, изучающих свойства знаковых систем, т.е. систем конкретных или абстрактных объектов,  с каждым из которых сопоставлено некоторое значение. Примерами знаковых систем являются естественные языки, а также искусственные языки, такие как алгоритмические языки, языки программирования, информационные языки и др.

    Прагматический подход к информации базируется на анализе ее ценности, с точки зрения потребителя. Например, информация, имеющая несомненную ценность для биолога, будет иметь ценность, близкую к нулевой, для программиста. Ценность информации связывают со временем, поскольку с течением времени она стареет и ценность ее, а, следовательно, и «количество» уменьшается. Таким образом, прагматический подход оценивает содержательный аспект информации. Он имеет особое значение при использовании информации для управления, поскольку ее количество тесно связано с эффективностью управления в системе.

    Разные  подходы к оценке количества информации заставляют, с одной стороны, использовать разнотипные единицы информации для характеристики различных информационных процессов, а с другой стороны — увязывать эти единицы между собой как на логическом, так и на физическом уровнях. Например, процесс передачи информации, измеряемой в одних единицах, сопрягается с процессом хранения, когда она измеряется в других единицах, и т.д., а поэтому выбор единицы информации является весьма актуальной задачей

   Рассмотрим  статистическую меру количества информации, получившую наибольшее применение в процессе передачи сообщений.

Чтобы возник процесс передачи, должны существовать источник информации и потребитель. Источник выдает сообщение, потребитель, принимая сообщение, получает при этом информацию о состоянии источника. В статистической теории, как указывалось выше, не изучается содержание информации. Предполагается, что до получения информации имела место некоторая неопределенность. С получением информации эта неопределенность снимается Таким образом, статистическая количественная характеристика информации это мера, на основе которой в процессе получения информации снимается неопределенность системы. Естественно, что количество информации зависит от закона распределения состояния системы.

Введем  количественную меру информации для  простейшего варианта передачи равновероятных сообщений. Пусть источник формирует М сообщений, каждое из которых передается неизбыточным кодом длиной n. Определим число сведений f в некотором сообщении, полагая, что оно линейно зависит от длины кода, т.е. f=kn, где k —коэффициент пропорциональности. Будем считать что выполняются следующие условия: осуществляется передача дискретных сообщений; сообщения являются равновероятными и взаимонезависимы; система счисления (основание кода) К конечна. Тогда число передаваемых сообщений составляет М = Kn. Учитывая, что f=kn получаем     df= kdп,     dМ = Kn ln Кdп, dn=dM/knlnK, df=kdM/Mlnk 

f = к In M/ln K = kl loga M/ln K=k0 loga M

где k0=kl/ln K; kl = klna.

За единицу  количества информации примем число  сведений, которые передаются двумя  равновероятными сообщениями. Назовем эту единицу двоичной единицей информации. Тогда для f = 1, M= 2 получим J =k0 loga 2. Отсюда а = 2, kо = 1 и, следовательно, количество информации в сообщении составит I = log2M

Эта формула  получила название формулы Хартли. Из нее следует, что для равновероятных дискретных сообщений количество информации зависит лишь от числа передаваемых сообщений.

Если  сообщения отображаются неизбыточным кодом, то, под М = Кп, получим I= п log2 К.

      Видно, что число двоичных единиц информации, содержащих в одном сообщении, прямо  пропорционально длине кода п и возрастает с увеличением его основания. Если основание кода К= 2, то количество информации, содержащееся в любом сообщении, передаваемом неизбыточным кодом, составит 1= п двоичных единиц или бит. Отсюда видно, что если длина сообщения равна л, то сообщение содержит п бит информации, т.е. один элемент кода несет одну двоичную единицу информации. Информация, содержащаяся в сообщении, складывается из информации, которую несет каждый элемент кода, поэтому мера информации является аддитивной.

      Аддитивность  статистической меры информации позволяет определить ее количество и в более общем случае, когда передаваемые дискретные сообщения являются неравновероятными. Можно предположить, что количество информации, содержащейся в конкретном дискретном сообщении, функционально зависит от вероятности выбора этого сообщения. Тогда для сообщения xoj возникающего с вероятностью  количество информации может быть описано в виде I=ⱷ [P(xoj)]. Пусть вслед за сообщением xQJ из источника формируется сообщение x0k. Вероятность последовательного возникновения этих сообщений обозначим Р(xoj xok). Количество информации, которая будет содержаться в этих сообщениях, оценим как l = ⱷ[ Р(xoj xok)] Учитывая аддитивный характер принятой выше статистической меры информации, будем считать, что количество информации, заключенное в последовательности сообщений xoj , xok равно сумме количеств информации, содержащихся в каждом из выбранных сообщений. Тогда

Информация о работе Меры информации, качество информации и его характеристика