Свойства информации

Автор: Пользователь скрыл имя, 16 Декабря 2011 в 21:41, статья

Описание работы

Информация (от лат. informatio — осведомление, разъяснение, изложение) — в широком смысле абстрактное понятие, имеющее множество значений, в зависимости от контекста. В узком смысле этого слова — сведения (сообщения, данные) независимо от формы их представления. В настоящее время не существует единого определения термина информация. С точки зрения различных областей знания, данное понятие описывается своим специфическим набором признаков. Информация — совокупность данных, зафиксированных на материальном носителе, сохранённых и распространённых во времени и пространстве.

Работа содержит 1 файл

Документ Microsoft Office Word.docx

— 77.51 Кб (Скачать)

2. Свойства информации:

Информация (от лат. informatio — осведомление, разъяснение, изложение) — в широком смысле абстрактное понятие, имеющее множество значений, в зависимости от контекста. В узком смысле этого слова — сведения (сообщения, данные) независимо от формы их представления. В настоящее время не существует единого определения термина информация. С точки зрения различных областей знания, данное понятие описывается своим специфическим набором признаков. Информация — совокупность данных, зафиксированных на материальном носителе, сохранённых и распространённых во времени и пространстве. 

Как и всякий объект, информация обладает свойствами. Характерной отличительной особенностью информации от других объектов природы  и общества, является дуализм: на свойства информации влияют как свойства исходных данных, составляющих ее содержательную часть, так и свойства методов, фиксирующих  эту информацию. 
С точки зрения информатики наиболее важными представляются следующие общие качественные свойства: объективность, достоверность, полнота, точность, актуальность, полезность, ценность, своевременность, понятность, доступность, краткость и пр.

  1. Объективность информации. Объективный – существующий вне и независимо от человеческого сознания. Информация – это отражение внешнего объективного мира. Информация объективна, если она не зависит от методов ее фиксации, чьего-либо мнения, суждения. 
    Пример. Сообщение «На улице тепло» несет субъективную информацию, а сообщение «На улице 22°С» – объективную, но с точностью, зависящей от погрешности средства измерения. 
    Объективную информацию можно получить с помощью исправных датчиков, измерительных приборов. Отражаясь в сознании человека, информация может искажаться (в большей или меньшей степени) в зависимости от мнения, суждения, опыта, знаний конкретного субъекта, и, таким образом, перестать быть объективной.
  2. Достоверность информации. Информация достоверна, если она отражает истинное положение дел. Объективная информация всегда достоверна, но достоверная информация может быть как объективной, так и субъективной. Достоверная информация помогает принять нам правильное решение. Недостоверной информация может быть по следующим причинам:
    • преднамеренное искажение (дезинформация) или непреднамеренное искажение субъективного свойства;
    • искажение в результате воздействия помех («испорченный телефон») и недостаточно точных средств ее фиксации.
  3. Полнота информации. Информацию можно назвать полной, если ее достаточно для понимания и принятия решений. Неполная информация может привести к ошибочному выводу или решению.
  4. Точность информации определяется степенью ее близости к реальному состоянию объекта, процесса, явления и т. п.
  5. Актуальность информации – важность для настоящего времени, злободневность, насущность. Только вовремя полученная информация может быть полезна.
  6. Полезность (ценность) информации. Полезность может быть оценена применительно к нуждам конкретных ее потребителей и оценивается по тем задачам, которые можно решить с ее помощью.

Самая ценная информация – объективная, достоверная, полная, и актуальная. При этом следует  учитывать, что и необъективная, недостоверная информация (например, художественная литература), имеет  большую значимость для человека. Социальная (общественная) информация обладает еще и дополнительными  свойствами:

  • имеет семантический (смысловой) характер, т. е. понятийный, так как именно в понятиях обобщаются наиболее существенные признаки предметов, процессов и явлений окружающего мира.
  • имеет языковую природу (кроме некоторых видов эстетической информации, например изобразительного искусства). Одно и то же содержание может быть выражено на разных естественных (разговорных) языках, записано в виде математических формул и т. д.

С течением времени  количество информации растет, информация накапливается, происходит ее систематизация, оценка и обобщение. Это свойство назвали ростом и кумулированием информации. (Кумуляция – от лат. cumulatio – увеличение, скопление).

Старение информации заключается в уменьшении ее ценности с течением времени. Старит информацию не само время, а появление новой  информации, которая уточняет, дополняет  или отвергает полностью или  частично более раннюю. Научно-техническая  информация стареет быстрее, эстетическая (произведения искусства) – медленнее.

Логичность, компактность, удобная форма представления  облегчает понимание и усвоение информации

Информационные  параметры сигналов

     Сигнал - физический процесс, отображающий передаваемое сообщение. Отображение сообщения обеспечивается изменением какой-либо физической величины, характеризующей процесс. Эта величина является информационным параметром сигнала.

Сигналы, как и  сообщения, могут быть непрерывными и дискретными. Информационный параметр непрерывного сигнала с течением времени

Изучение развития колебательных процессов в испытуемых изделиях, путем проведения исследований одиночных импульсных сигналов излучаемых данным изделием, требует знания их параметров. Эти параметры должны позволять воссоздавать наиболее полную картину сигнала в частотной  и временной области. Основными  такими параметрами сигнала являются: энергия сигнала, пиковая мощность, длительность сигнала, несущая частота, количество посылок в сигнале.

Необходимость их измерения заключается в следующем:

Энергия импульса позволяет определить критерии стойкости  измерительной аппаратуры и выяснить энергетические возможности разрабатываемых  источников.

Пиковая мощность сигнала позволяет определить процессы развития колебаний и характеризует  его способности.

Измерение длительности радиоимпульса позволяет выяснить механизм происходящих процессов.

Количество импульсов  позволяет уточнить динамику процессов  в источнике, сразу определяя  параметры радиотехнических процессов, одновременно характеризуя поведение  механических процессов.

Комплексный анализ этих данных позволяет практически  выяснить сущность протекающих в  одноразовых источниках процессов, уточнить параметры физической модели, и своевременно внести коррективы в  разрабатываемые источники.

Для измерения  параметров импульсного электромагнитного  излучения, группой разработчиков  института Радиофизики и электроники  НАН Украины, разработан базовый  блок спектрометра. Он позволяет измерять энергию одиночного электромагнитного  импульса W, максимальное значение пиковой  мощности сигнала Р, длительность входного сигнала T, и количество импульсов в сигнале N. 

Информационные  параметры сообщений 

     Информация  - сведения о каких-либо процессах, событиях, фактах или предметах. Известно, что 80..90% информации человек получает через органы зрения и 10..20% - через органы слуха. Другие органы чувств дают в сумме 1..2% информации. Физиологические возможности человека не позволяют обеспечить передачу больших объемов информации на значительные расстояния.

     Связь - техническая база, обеспечивающая передачу и прием информации между удаленными друг от друга людьми или устройствами. Аналогия между связью и информацией такая же, как у транспорта и перевозимого груза. Средства связи не нужны, если нет информации, как не нужны транспортные средства при отсутствии груза.

     Сообщение - форма выражения (представления) информации, удобная для передачи на расстояние. Различают оптические (телеграмма, письмо, фотография) и звуковые (речь, музыка) сообщения. Документальные сообщения наносятся и хранятся на определенных носителях, чаще всего на бумаге. Сообщения, предназначенные для обработки на ЭВМ, принято называть данными.

     Информационный  параметр сообщения - параметр, в изменении которого "заложена" информация

     ЭНРОПИЯ И ЕЕ СВ-ВО:

     Энтропия — это количество информации, приходящейся на одно элементарное сообщение источника, вырабатывающего статистически независимые сообщения.

Определение по Шеннону

Шеннон предположил, что прирост информации равен утраченной неопределённости, и задал требования к её измерению:

  1. мера должна быть непрерывной; то есть изменение значения величины вероятности на малую величину должно вызывать малое результирующее изменение функции;
  2. в случае, когда все варианты (буквы в приведённом примере) равновероятны, увеличение количества вариантов (букв) должно всегда увеличивать значение функции;
  3. должна быть возможность сделать выбор (в нашем примере букв) в два шага, в которых значение функции конечного результата должно являться суммой функций промежуточных результатов.

Поэтому функция  энтропии H должна удовлетворять условиям:

  1. определена и непрерывна для всех , где для всех и . (Нетрудно видеть, что эта функция зависит только от распределения вероятностей, но не от алфавита.)
  2. Для целых положительных n, должно выполняться следующее неравенство:

  1. Для целых положительных  bi, где , должно выполняться равенство:

Шеннон показал,[источник не указан 233 дня] что единственная функция, удовлетворяющая этим требованиям, имеет вид:

где — константа (и в действительности нужна только для выбора единиц измерения).

Шеннон определил, что измерение энтропии ( ), применяемое к источнику информации, может определить требования к минимальной пропускной способности канала, требуемой для надёжной передачи информации в виде закодированных двоичных чисел. Для вывода формулы Шеннона необходимо вычислить математическое ожидание «количества информации», содержащегося в цифре из источника информации. Мера энтропии Шеннона выражает неуверенность реализации случайной переменной. Таким образом, энтропия является разницей между информацией, содержащейся в сообщении, и той частью информации, которая точно известна (или хорошо предсказуема) в сообщении. Примером этого является избыточность языка — имеются явные статистические закономерности в появлении букв, пар последовательных букв, троек и т. д. (см. цепи Маркова).

Определение энтропии Шеннона связано с понятием термодинамической энтропии. Больцман и Гиббс проделали большую работу по статистической термодинамике, которая способствовала принятию слова «энтропия» в информационную теорию. Существует связь между термодинамической и информационной энтропией. Например, демон Максвелла также противопоставляет термодинамическую энтропию информации, и получение какого-либо количества информации равно потерянной энтропии.

Свойства

Энтропия является количеством, определённым в контексте  вероятностной модели для источника  данных. Например, кидание монеты имеет  энтропию − 2(0,5log 20,5) = 1 бит на одно кидание (при условии его независимости). У источника, который генерирует строку, состоящую только из букв «А», энтропия равна нулю: . Так, например, опытным путём можно установить, что энтропия английского текста равна 1,5 бит на символ, что конечно будет варьироваться для разных текстов. Степень энтропии источника данных означает среднее число битов на элемент данных, требуемых для её зашифровки без потери информации, при оптимальном кодировании.

           1.2. Модели каналов  связи   

     Наиболее  важной частью структурной схемы  системы передачи цифровой информации для кодера и декодера является составной или дискретный канал, заключенный на рис. 1.1 в штриховую рамку. Рассмотрим наиболее часто встречающиеся математические модели данного канала.

     Самой простой является модель двоичного симметричного канала (ДСК), представляемая графом на рис. 1.2 и соответствующая случаю использования двоичной модуляции в канале с аддитивным шумом (т.е. каналу, в котором выходной сигнал L R(t) равен сумме входного сигнала S(t) и шума n(t)) и жесткого

          
 
 
 
 
 
 
 

решения демодулятора. Входом и выходом данного канала являются наборы Х=(0, 1} и 7={0,1) из двух возможных  двоичных символов. ДСК также характеризуется набором переходных вероятностей P(Y(X), определяющих вероятность приема из канала символа Y при передаче символа Х. Для ДСК переходные вероятности задаются выражениями:   

Информация о работе Свойства информации