Автор: Пользователь скрыл имя, 16 Декабря 2011 в 21:41, статья
Информация (от лат. informatio — осведомление, разъяснение, изложение) — в широком смысле абстрактное понятие, имеющее множество значений, в зависимости от контекста. В узком смысле этого слова — сведения (сообщения, данные) независимо от формы их представления. В настоящее время не существует единого определения термина информация. С точки зрения различных областей знания, данное понятие описывается своим специфическим набором признаков. Информация — совокупность данных, зафиксированных на материальном носителе, сохранённых и распространённых во времени и пространстве.
2. Свойства информации:
Информация (от
лат. informatio — осведомление,
разъяснение, изложение)
— в широком смысле
абстрактное понятие,
имеющее множество значений,
в зависимости от контекста.
В узком смысле этого
слова — сведения (сообщения,
данные) независимо
от формы их представления.
В настоящее время не
существует единого
определения термина
информация. С точки
зрения различных областей
знания, данное понятие
описывается своим специфическим
набором признаков.
Информация — совокупность
данных, зафиксированных
на материальном носителе,
сохранённых и распространённых
во времени и пространстве.
Как и всякий
объект, информация обладает свойствами.
Характерной отличительной
С точки зрения информатики наиболее важными
представляются следующие общие качественные
свойства: объективность, достоверность,
полнота, точность, актуальность, полезность,
ценность, своевременность, понятность,
доступность, краткость и пр.
Самая ценная информация – объективная, достоверная, полная, и актуальная. При этом следует учитывать, что и необъективная, недостоверная информация (например, художественная литература), имеет большую значимость для человека. Социальная (общественная) информация обладает еще и дополнительными свойствами:
С течением времени количество информации растет, информация накапливается, происходит ее систематизация, оценка и обобщение. Это свойство назвали ростом и кумулированием информации. (Кумуляция – от лат. cumulatio – увеличение, скопление).
Старение информации заключается в уменьшении ее ценности с течением времени. Старит информацию не само время, а появление новой информации, которая уточняет, дополняет или отвергает полностью или частично более раннюю. Научно-техническая информация стареет быстрее, эстетическая (произведения искусства) – медленнее.
Логичность, компактность, удобная форма представления облегчает понимание и усвоение информации
Информационные параметры сигналов
Сигнал - физический процесс, отображающий передаваемое сообщение. Отображение сообщения обеспечивается изменением какой-либо физической величины, характеризующей процесс. Эта величина является информационным параметром сигнала.
Сигналы, как и сообщения, могут быть непрерывными и дискретными. Информационный параметр непрерывного сигнала с течением времени
Изучение развития
колебательных процессов в
Необходимость
их измерения заключается в
Энергия импульса позволяет определить критерии стойкости измерительной аппаратуры и выяснить энергетические возможности разрабатываемых источников.
Пиковая мощность сигнала позволяет определить процессы развития колебаний и характеризует его способности.
Измерение длительности
радиоимпульса позволяет
Количество импульсов позволяет уточнить динамику процессов в источнике, сразу определяя параметры радиотехнических процессов, одновременно характеризуя поведение механических процессов.
Комплексный анализ этих данных позволяет практически выяснить сущность протекающих в одноразовых источниках процессов, уточнить параметры физической модели, и своевременно внести коррективы в разрабатываемые источники.
Для измерения
параметров импульсного электромагнитного
излучения, группой разработчиков
института Радиофизики и
Информационные
параметры сообщений
Информация - сведения о каких-либо процессах, событиях, фактах или предметах. Известно, что 80..90% информации человек получает через органы зрения и 10..20% - через органы слуха. Другие органы чувств дают в сумме 1..2% информации. Физиологические возможности человека не позволяют обеспечить передачу больших объемов информации на значительные расстояния.
Связь - техническая база, обеспечивающая передачу и прием информации между удаленными друг от друга людьми или устройствами. Аналогия между связью и информацией такая же, как у транспорта и перевозимого груза. Средства связи не нужны, если нет информации, как не нужны транспортные средства при отсутствии груза.
Сообщение - форма выражения (представления) информации, удобная для передачи на расстояние. Различают оптические (телеграмма, письмо, фотография) и звуковые (речь, музыка) сообщения. Документальные сообщения наносятся и хранятся на определенных носителях, чаще всего на бумаге. Сообщения, предназначенные для обработки на ЭВМ, принято называть данными.
Информационный параметр сообщения - параметр, в изменении которого "заложена" информация
ЭНРОПИЯ И ЕЕ СВ-ВО:
Энтропия — это количество информации, приходящейся на одно элементарное сообщение источника, вырабатывающего статистически независимые сообщения.
Шеннон предположил, что прирост информации равен утраченной неопределённости, и задал требования к её измерению:
Поэтому функция энтропии H должна удовлетворять условиям:
Шеннон показал,[источник не
где K — константа (и в действительности нужна только для выбора единиц измерения).
Шеннон определил, что измерение энтропии ( ), применяемое к источнику информации, может определить требования к минимальной пропускной способности канала, требуемой для надёжной передачи информации в виде закодированных двоичных чисел. Для вывода формулы Шеннона необходимо вычислить математическое ожидание «количества информации», содержащегося в цифре из источника информации. Мера энтропии Шеннона выражает неуверенность реализации случайной переменной. Таким образом, энтропия является разницей между информацией, содержащейся в сообщении, и той частью информации, которая точно известна (или хорошо предсказуема) в сообщении. Примером этого является избыточность языка — имеются явные статистические закономерности в появлении букв, пар последовательных букв, троек и т. д. (см. цепи Маркова).
Определение энтропии Шеннона связано с понятием термодинамической энтропии. Больцман и Гиббс проделали большую работу по статистической термодинамике, которая способствовала принятию слова «энтропия» в информационную теорию. Существует связь между термодинамической и информационной энтропией. Например, демон Максвелла также противопоставляет термодинамическую энтропию информации, и получение какого-либо количества информации равно потерянной энтропии.
Энтропия является количеством, определённым в контексте вероятностной модели для источника данных. Например, кидание монеты имеет энтропию − 2(0,5log 20,5) = 1 бит на одно кидание (при условии его независимости). У источника, который генерирует строку, состоящую только из букв «А», энтропия равна нулю: . Так, например, опытным путём можно установить, что энтропия английского текста равна 1,5 бит на символ, что конечно будет варьироваться для разных текстов. Степень энтропии источника данных означает среднее число битов на элемент данных, требуемых для её зашифровки без потери информации, при оптимальном кодировании.
1.2.
Модели каналов
связи
Наиболее важной частью структурной схемы системы передачи цифровой информации для кодера и декодера является составной или дискретный канал, заключенный на рис. 1.1 в штриховую рамку. Рассмотрим наиболее часто встречающиеся математические модели данного канала.
Самой простой является модель двоичного симметричного канала (ДСК), представляемая графом на рис. 1.2 и соответствующая случаю использования двоичной модуляции в канале с аддитивным шумом (т.е. каналу, в котором выходной сигнал L R(t) равен сумме входного сигнала S(t) и шума n(t)) и жесткого
решения демодулятора.
Входом и выходом данного канала
являются наборы Х=(0, 1} и 7={0,1) из двух возможных
двоичных символов. ДСК также характеризуется
набором переходных вероятностей P(Y(X),
определяющих вероятность приема из канала
символа Y при передаче символа Х. Для ДСК
переходные вероятности задаются выражениями: