Автор: Пользователь скрыл имя, 29 Октября 2011 в 19:08, курсовая работа
На современном этапе экономического развития страны одной из важнейших, наиболее острых и неотложных проблем является качество и надежность продукции и работ (услуг). Немаловажное место в этой проблеме занимает повышение качества и надежности разработок в области создания экономических информационных систем (ЭИС), используемых в различных сферах деятельности: обработки данных, проектирования, научных исследований и т.п., поскольку от прогрессивности создаваемых проектов ЭИС в значительной мере зависит научно-технических прогресс.
ВВЕДЕНИЕ………………………………………………………………….. 3
Глава 1. Понятие информации……………………………………………..5
1.1 Количественные и качественные характеристики информации… 10
1.2.1 Качественные характеристики информации……………………....10
1.2.2 Количественные характеристики информации…………………...12
Глава 2. Анализ качества баз данных ……………………………………29
ЗАКЛЮЧЕНИЕ ……….……………………………………………………36
Список используемой литературы ..……………………………………..40
В
компьютерной практике слово “бит”
используется также как единица
измерения объёма памяти. Ячейка памяти
размером в 1 бит может находиться в двух
состояниях (“включено” и “выключено”)
и в неё может быть записана одна двоичная
цифра (0 или 1). Понятно, что бит — слишком
маленькая единица измерения информации,
поэтому пользуются кратными ей величинами.
Основной единицей измерения информации
является байт. 1 байт равен 8 битам.
В ячейку размером в 1 байт можно поместить
8 двоичных цифр, то есть в одном байте
можно хранить 256 = 28 различных чисел.
Для измерения ещё больших объёмов информации
используются такие величины:
§1.1. Количественные и качественные характеристики информации.
§1.2.1. Качественные характеристики информации.
Возможность и эффективность использования информации обусловливаются такими основными ее потребительскими показателями качества, как репрезентативность, содержательность, достаточность, доступность, актуальность, своевременность, точность, достоверность, устойчивость.
Репрезентативность информации связана с правильностью ее отбора и формирования в целях адекватного отражения свойств объекта. Важнейшее значение здесь имеют:
• правильность концепции, на базе которой сформулировано исходное понятие;
• обоснованность отбора существенных признаков и связей отображаемого явления.
Нарушение репрезентативности информации приводит нередко к существенным ее погрешностям.
Содержательность информации отражает семантическую емкость, равную отношению количества семантической информации в сообщении к объему обрабатываемых данных, т.е.
С увеличением содержательности информации растет семантическая пропускная способность информационной системы, так как для получения одних и тех же сведений требуется преобразовать меньший объем данных.
Наряду
с коэффициентом
Достаточность (полнота) информации означает, что она содержит минимальный, но достаточный для принятия правильного решения состав (набор показателей). Понятие полноты информации связано с ее смысловым содержанием (семантикой) и прагматикой. Как неполная, т.е. недостаточная для принятия правильного решения, так и избыточная информация снижает эффективность принимаемых пользователем решений.
Доступность информации восприятию пользователя обеспечивается выполнением соответствующих процедур ее получения и преобразования. Например, в информационной системе информация преобразовывается к доступной и удобной для восприятия пользователя форме. Это достигается, в частности, и путем согласования ее семантической формы с тезаурусом пользователя.
Актуальность информации определяется степенью сохранения ценности информации для управления в момент ее использования и зависит от динамики изменения ее характеристик и от интервала времени, прошедшего с момента возникновения данной информации.
Своевременность информации означает ее поступление не позже заранее назначенного момента времени, согласованного с временем решения поставленной задачи.
Точность информации определяется степенью близости получаемой информации к реальному состоянию объекта, процесса, явления и т.п.
Достоверность информации определяется ее свойством отражать реально существующие объекты с необходимой точностью. Измеряется достоверность информации доверительной вероятностью необходимой точности, т. е. вероятностью того, что отображаемое информацией значение параметра отличается от истинного значения этого параметра в пределах необходимой точности.
Устойчивость информации отражает ее способность реагировать на изменения исходных данных без нарушения необходимой точности. Устойчивость информации, как и репрезентативность, обусловлена выбранной методикой ее отбора и формирования.
§1.2.1 Количественные характеристики
В процессе отражения между состояниями взаимодействующих объектов возникает определенная связь. Информация как результат отражения одного объекта другим выявляет степень соответствия их состояний, а поэтому важными оказываются именно количественные характеристики информации. Некоторое количество информации можно рассматривать с трех основных точек зрения
• с физико-технической точки зрения рассматриваются физические аспекты проявления информации — ее материальный носитель, разрешающая способность и точность, с которыми она фиксируется, количество информации, которое производится, передается или принимается и т.д.
Возможен ряд подходов к оценке качества информации. Наиболее существенными из них являются статистический, семантический и прагматический. Наибольшее развитие получил первый подход.
Статистический подход представлен в обширном разделе кибернетики — теории информации, которая занимается математическим описанием и оценкой методов передачи, хранения, извлечения и классификации информации Теория информации в математической основе использует методы теории вероятности, математической статистики, линейной алгебры и др. В статистической теории основное внимание обращается на распределение вероятности появления отдельных событий и построение на его основе обобщенных характеристик, позволяющих оценить количество информации в одном событии либо в их совокупности Количественной мерой информации стала энтропия. Чтобы возник процесс передачи, должны иметь место источник информации и потребитель. Источник выдает сообщение, потребитель, принимая сообщение, принимает при этом информацию о состоянии источника. В статистической теории, как указывалось выше, не изучают содержание информации. Предполагается, что до получения информации имела место некоторая неопределенность С получением информации
эта неопределенность снимается Таким образом, статистическая количественная характеристика информации — это мера снимаемой в процессе получения информации неопределенности системы. Естественно, что количество информации зависит от закона распределения состояний системы.
Семантический подход базируется на смысловом содержании информации Термин «семантика» исторически применялся в металогике и семиотике. В металогике под семантикой понимают изучение связей между знакосочетаниями, входящими в состав какого-либо формализованного языка, и их интерпретациями (истолкованиями) в терминах той системы понятий и представлений, формализацией которой служит данный язык. В более узком смысле под семантикой подразумевают совокупность правил соответствия между формальными выражениями и их интерпретацией. Под семиотикой понимают комплекс научных теорий, изучающих свойства знаковых систем, т.е. систем конкретных или абстрактных объектов, с каждым из которых сопоставлено некоторое значение. Примерами знаковых систем являются естественные языки, а также искусственные языки, такие как алгоритмические языки, языки программирования, информационные языки и др.
Прагматический подход к информации базируется на анализе ее ценности, с точки зрения потребителя. Например, информация, имеющая несомненную ценность для биолога, будет иметь ценность, близкую к нулевой, для программиста. Ценность информации связывают со временем, поскольку с течением времени она стареет и ценность ее, а, следовательно, и «количество» уменьшается. Таким образом, прагматический подход оценивает содержательный аспект информации. Он имеет особое значение при использовании информации для управления, поскольку ее количество тесно связано с эффективностью управления в системе.
Разные подходы к оценке количества информации заставляют, с одной стороны, использовать разнотипные единицы информации для характеристики различных информационных процессов, а с другой стороны — увязывать эти единицы между собой как на логическом, так и на физическом уровнях. Например, процесс передачи информации, измеряемой в одних единицах, сопрягается с процессом хранения, когда она измеряется в других единицах, и т.д., а поэтому выбор единицы информации является весьма актуальной задачей
Рассмотрим статистическую меру количества информации, получившую наибольшее применение в процессе передачи сообщений.
Чтобы возник процесс передачи, должны существовать источник информации и потребитель. Источник выдает сообщение, потребитель, принимая сообщение, получает при этом информацию о состоянии источника. В статистической теории, как указывалось выше, не изучается содержание информации. Предполагается, что до получения информации имела место некоторая неопределенность. С получением информации эта неопределенность снимается Таким образом, статистическая количественная характеристика информации это мера, на основе которой в процессе получения информации снимается неопределенность системы. Естественно, что количество информации зависит от закона распределения состояния системы.
Введем количественную меру информации для простейшего варианта передачи равновероятных сообщений. Пусть источник формирует М сообщений, каждое из которых передается неизбыточным кодом длиной n. Определим число сведений f в некотором сообщении, полагая, что оно линейно зависит от длины кода, т.е. f=kn, где k —коэффициент пропорциональности. Будем считать что выполняются следующие условия: осуществляется передача дискретных сообщений; сообщения являются равновероятными и взаимонезависимы; система счисления (основание кода) К конечна. Тогда число передаваемых сообщений составляет М = Kn. Учитывая, что f=kn получаем df= kdп, dМ = Kn ln Кdп, dn=dM/knlnK, df=kdM/Mlnk
f = к In M/ln K = kl loga M/ln K=k0 loga M
где k0=kl/ln K; kl = klna.
За единицу количества информации примем число сведений, которые передаются двумя равновероятными сообщениями. Назовем эту единицу двоичной единицей информации. Тогда для f = 1, M= 2 получим J =k0 loga 2. Отсюда а = 2, kо = 1 и, следовательно, количество информации в сообщении составит I = log2M
Эта формула получила название формулы Хартли. Из нее следует, что для равновероятных дискретных сообщений количество информации зависит лишь от числа передаваемых сообщений.
Если сообщения отображаются неизбыточным кодом, то, под М = Кп, получим I= п log2 К.
Видно, что число двоичных единиц информации, содержащих в одном сообщении, прямо пропорционально длине кода п и возрастает с увеличением его основания. Если основание кода К= 2, то количество информации, содержащееся в любом сообщении, передаваемом неизбыточным кодом, составит 1= п двоичных единиц или бит. Отсюда видно, что если длина сообщения равна л, то сообщение содержит п бит информации, т.е. один элемент кода несет одну двоичную единицу информации. Информация, содержащаяся в сообщении, складывается из информации, которую несет каждый элемент кода, поэтому мера информации является аддитивной.
Аддитивность статистической меры информации позволяет определить ее количество и в более общем случае, когда передаваемые дискретные сообщения являются неравновероятными. Можно предположить, что количество информации, содержащейся в конкретном дискретном сообщении, функционально зависит от вероятности выбора этого сообщения. Тогда для сообщения xoj возникающего с вероятностью количество информации может быть описано в виде I=ⱷ [P(xoj)]. Пусть вслед за сообщением xQJ из источника формируется сообщение x0k. Вероятность последовательного возникновения этих сообщений обозначим Р(xoj xok). Количество информации, которая будет содержаться в этих сообщениях, оценим как l = ⱷ[ Р(xoj xok)] Учитывая аддитивный характер принятой выше статистической меры информации, будем считать, что количество информации, заключенное в последовательности сообщений xoj , xok равно сумме количеств информации, содержащихся в каждом из выбранных сообщений. Тогда
Информация о работе Меры информации, качество информации и его характеристика