Автор: Пользователь скрыл имя, 29 Марта 2013 в 09:21, реферат
Понятие информационной системы (ИС). Этапы обращения информации в ИС. Энтропия. Основные свойства энтропии. Энтропия объединения.
Вводная лекция. Цели и задачи курса «Теория информации», ее место в учебном процессе. Краткая историческая справка. Терминология.
Эффективная организация обмена информации приобретает все большее значение как условие успешной практической деятельности людей. Объем информации необходимый для нормального функционирования общества растет примерно пропорционально квадрату развития промышленного потенциала. Доля рабочей силы занятой вопросами обеспечения информацией начинает превышать долю рабочей силы занятой непосредственно в производстве. Поэтому науки изучающие структуру и закономерности протекания информационных процессов, к числу которых относится и теория информации в такой ситуации становиться исключительно актуальной.
Информация наряду с материей и энергией является первичным понятием нашего мира и поэтому в строгом смысле не может быть определена. Можно лишь перечислить ее основные свойства, например такие как:
1) информация приносит сведения, об окружающем мире которых в рассматриваемой точке не было до ее получения;
2) информация
не материальна, но она
3) знаки и
первичные сигналы несут
Вместе с тем слово информация является одним из тех терминов, которые достаточно часто встречаются не только в научных трудах специального характера, но и во множестве обиходных ситуаций и являются интуитивно понятными каждому человеку. При этом в узком практическом смысле под информацией обычно понимают совокупность сведений об окружающем мире являющихся объектом хранения, передачи и преобразования.
Знаки или первичные сигналы, организованные в последовательности несут информацию не потому, что они повторяют объекты реального времени, а по общественной договоренности об однозначной связи знаков и объектов, например: предметы и слова для их обозначения. Кроме того, первичные сигналы могут быть порождены естественными законами реального мира, например: напряжение на выходе термопары под действием температуры.
Информация, основанная на однозначной связи знаков или сигналов с объектами реального мира, называется семантической или смысловой. Информация, заключенная в характере (порядке и взаимосвязи) следования знаков сообщающей называется синтаксической. Также в общей науке о знаках (семиотики) кроме перечисленных выделяют сигматический и прагматический аспекты информации. В первом случае изучается вопрос о выборе знаков для обозначения объектов реального мира, во втором случае о ценности информации для достижения поставленных целей.
Очевидно, что наибольший практический интерес представляют смысловой и семантический и прагматический аспекты. Однако до сих пор не определены объективные количественные критерии меры ценности и полезности информации. В курсе теории информации изучаются проблемы синтаксического уровня касающихся создания теоретических основ построения систем связи, основные показатели функционирования которых были бы близки к предельно возможным.
Иначе говоря, рассмотрению подлежат вопросы доставки получателю информации как совокупность из знаков. При этом последовательностью игнорируются смысловое и прагматическое ее содержание. Синтаксическая мера информации имеет практическую ценность потому, что интересующая в конечном итоге получателя семантическая информация заключена в заданной последовательности знаков или первичных сигналов. Чем больше знаков передаются в определенный интервал времени, тем в среднем больше передается и смысловой информации. Теория информации представляет собой ветвь статистической теории связи. Для того чтобы более конкретно обозначить предмет этой науки введем некоторые понятия и определения.
Информация передается, и храниться в виде сообщений. Под сообщением понимают совокупность знаков или первичных сигналов содержащих информацию. Иначе говоря, сообщение - это информация представленная в какой-либо форме. Пример сообщений: текст, данные ЭВМ, речь, музыка и т.д.
Для того чтобы сообщение можно было передать получателю, необходимо воспользоваться некоторым физическим процессом, способным с той или иной скоростью распространяться от источника к получателю сообщения. Изменяющийся во времени физический процесс, отражающий передаваемое сообщение называется сигналом.
Сообщения могут быть функциями времени (когда информация представлена в виде первичных сигналов: речь, музыка) и не является ими (когда информация представлена в виде совокупности знаков).
Сигнал всегда является функцией времени. В зависимости от того, какие значения могут принимать аргумент и уровни сигналов их делят на 4 типа.
1) Непрерывный
или аналоговый сигналы (
2) Дискретизированный
или дискретно непрерывные
3) Дискретные
по уровню или квантованные
сигналы (случайные сигналы
4) Дискретные
по уровню и по времени
Совокупность
технических средств
Рисунок 1 - Общая схема системы связи
Она состоит из 5 частей:
1) Источник
сообщений создающий сообщения
или последовательность
2) Передатчик,
который перерабатывает
3) Канал -
это комплекс технических
Линией связи называется среда, используемая для передачи сигнала от передатчика к приемнику. Это может быть, например: пара поводов, кабель, область распространения радиоволн, световод и т.д.
4) Приемник
восстанавливается сообщение
5) Получатель
это лицо или аппарат, для
которого предназначено
Тогда круг проблем составляющих основное содержание теории информации можно охарактеризовать как исследование методов кодирования для экономического представления сообщений различных источников сообщений и для надежной передачи сообщений по каналам связи с шумом.
В основе теории
информации лежит статистическое описание
источников сообщений и каналов
связи, а так же базирующееся на этом
описании измерении количества информации
между сообщениями
Контрольные вопросы:
Лекция 1. Информационные системы – объект применения основных принципов и методов теория информации.
Понятие информационной системы (ИС). Этапы обращения информации в ИС. Энтропия. Основные свойства энтропии. Энтропия объединения.
Информационная система - система сбора, хранения. обновления, передачи, обработки и выдачи информации, необходимой для управления объектом.
Задачами информационной системы являются:
1. Обеспечение
информацией о происходящем
2. Обеспечение
информацией о правилах
3. Регистрация, анализ и оценка данных о среде объекта.
4. Наблюдение
за ходом управляемых
5. Обеспечение
ввода данных и обработка
6. Извлечение
из обработанных данных в
7. Получение
административной и
8. Контроль
за выполнением принятых
В ИС существуют
следующие этапы обращения
1) Этап восприятия информации.
2) Этап подготовки информации.
3) Этап передачи и хранения информации.
4) Этап обработки информации.
5) Этап отображения информации.
Основные меры информации. Важнейшим вопросом теории информации является установление меры количества и качества информации.
Предположим, что источник сообщений может в каждый момент времени случайным образом принять одно из конечного множества возможных состояний. Каждому состоянию источника U ставиться в соответствие условное обозначение в виде знака. Совокупность знаков u1, u2,:,ui,:,uN соответствующих всем N возможным состояниям источника называют его алфавитом, а количество состояний N объемом алфавита. Формирование таким источником сообщений сводиться к выбору им некоторого состояния ui и выдачи соответствующего знака. Таким образом, под элементарным дискретным сообщением будем понимать символ ui выдаваемое источником, при этом в течение некоторого времени Т источник может выдать дискретное сообщение в виде последовательности элементарных дискретных сообщений, представляющей сбой набор символов ui (например, u5, u1, u3) каждый из которых имеет длительность ti секунд. В общем случае он храниться дискретным ансамблем U т.е. полной совокупностью состояний с вероятностями их появления, составляющими в сумме 1.
где P(ui) это вероятность выбора источником состояния ui.
При выдаче источником сообщений в виде последовательности элементарных дискретных сообщений, полным вероятностным описанием является вероятность совместного появления набора различных символов ui в момент t1, t2,...,tn, где n - длина последовательности .
Располагая такими сведениями об источнике можно вычислить вероятность любого отрезка сообщения длиной меньше n. Если функция не меняется во времени, если она при любых t, то источник называется стационарным. Если при определении вероятностных характеристик стационарного источника усреднение по ансамблю можно заменить усреднением по времени, то такой источник называется эргодическим. Вероятностные свойства эргодического источника можно оценить, рассматривая лишь одну его достаточно длинную реализацию.
В каждом элементарном сообщении содержится для его получателя определенная информация совокупность сведений о состоянии дискретного источника сообщения. Определяя количественную меру этой информации, мы совершенно не будем учитывать ее смыслового содержания, так же ее значения для конкретного получателя. Очевидно, что при отсутствии сведений о состоянии источника имеется неопределенность относительно того, какое сообщение ui из числа возможных им выбрано, а при наличии этих сведений данная неопределенность полностью исчезает. Естественно количество информации содержащейся в дискретном сообщении измерять величиной исчезнувшей неопределенности. Введем меру этой неопределенности, которую можно рассматривать и как меру количественной информации. В качестве меры неопределенности источника с равновероятными состояниями и характеризующего его ансамбля U принять логарифм объема алфавита источника
H(U) = log N (2).
Легко видеть, что:
H(U) = log 1 = 0.
log(N∙M) = log(N) + log(M).
Впервые данная мера была предложена Хартли в 1928г. В общем случае, когда вероятности различных состояний источника не одинаковы, степень неопределенности конкретного состояния зависит не только от объема алфавита источника, но и от вероятности этого состояния. В такой ситуации количество информации, содержащееся в одном дискретном сообщении uk целесообразно определить как функцию вероятности появления этого сообщения P(uk) и характеризовать величиной