Понятие информации, экономическая информация

Автор: Пользователь скрыл имя, 31 Октября 2011 в 15:26, доклад

Описание работы

Термин "информация" происходит от латинского слова "informatio", что означает сведения, разъяснения, изложение.

Информация — это настолько общее и глубокое понятие, что его нельзя объяснить одной фразой. В это слово вкладывается различный смысл в технике, науке и в житейских ситуациях. В обиходе информацией называют любые данные или сведения, которые кого-либо интересуют.

Например, сообщение о каких-либо событиях, о чьей-либо деятельности и т.п. "Информировать" в этом смысле означает "сообщить нечто, неизвестное раньше". Информация — сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые воспринимают информационные системы (живые организмы, управляющие машины и др.) в процессе жизнедеятельности и работы.

Работа содержит 1 файл

контрольная.docx

— 34.98 Кб (Скачать)

•      прагматическом, где рассматриваются отношения между сообщением и получателем, т. е. потребительское содержание сообщения, его отношение к получателю. 

Таким образом, проблемы передачи информации тоже разделяют  на три уровня: синтаксический, семантический и прагматический.

Проблемы синтаксического  уровня - это чисто технические  проблемы совершенствования методов  передачи сообщений и их материальных носителей — сигналов. На этом уровне рассматривают проблемы доставки получателю сообщений как совокупности знаков, учитывая при этом тип носителя и  способ представления информации, скорость передачи и обработки, размеры кодов  представления информации, надежность и точность преобразования этих кодов  и т. п. При этом полностью абстрагируются от смыслового содержания сообщений  и их целевого предназначения. На этом уровне информацию, рассматриваемую  только с синтаксических позиций, обычно называют данными, так как смысловая  сторона при этом не имеет значения.

Проблемы семантического уровня связаны с формализацией  и учетом смысла передаваемой информации. На данном уровне анализируются те сведения, которые отражает информация, выявляется смысл, содержание информации, осуществляется ее обобщение.

Проблемы этого  уровня чрезвычайно сложны, так как  смысловое содержание информации больше зависит от получателя, чем от семантики  сообщения, представленного на каком-либо языке.

На прагматическом уровне интересуют последствия от получения  и использования данной информации потребителем. Проблемы этого уровня связаны с определением ценности и полезности информации для потребителя  Основная сложность здесь состоит  в том, что ценность, полезность информации может быть совершенно различной  для различных получателей и, кроме того, она зависит от ряда факторов, таких, например, как своевременность ее доставки и использования.

Современная теория информации исследует в основном проблемы синтаксического уровня. Она  опирается на понятие «количество  информации», которое никак не отражает ни смысла, ни важности передаваемых сообщений. В связи с этим иногда говорят, что теория информации находится на синтаксическом уровне.

Для каждого  из рассмотренных выше уровней проблем  передачи информации существуют свои подходы к измерению количества информации и свои меры информации. Различают соответственно меры информации синтаксического уровня, семантического уровня и прагматического уровня. Однако в силу вышесказанного остановимся  лишь на мерах информации синтаксического уровня.

Итак, количественная оценка информации этого уровня не связана с содержательной стороной информации, а оперирует с обезличенной информацией, не выражающей смыслового отношения к объекту. В связи  с этим данная мера дает возможность  оценки информационных потоков в  таких разных по своей природе  объектах, как системы связи, вычислительные машины, системы управления, нервная  система живого организма и т. п.

Для измерения  информации на синтаксическом уровне вводятся два параметра: объем информации (данных) — V (объемный подход) и количество информации — / (вероятностный подход).

Качество информации является одним из важнейших параметров для потребителя информации. Оно  определяется следующими характеристиками:

репрезентативность  – правильность отбора информации в целях адекватного отражения  источника информации. Например, в  целях большей репрезентативности данных о себе абитуриенты стремятся  представить в приемную комиссию как можно больше свидетельств, дипломов, удостоверений и другой информации, подтверждающей их высокий уровень  подготовки, что учитывается при зачислении в ВУЗ;

содержательность  – семантическая емкость информации. Рассчитывается как отношение количества семантической информации к ее количеству в геометрической мере. Это характеристика сигнала, про который говорят, что  «мыслям в нем тесно, а словам просторно». В целях увеличения содержательности сигнала, например, используют для характеристики успеваемости абитуриента не полный перечень его аттестационных оценок, а средний балл по аттестату;

достаточность  (полнота) – минимальный, но достаточный  состав данных для достижения целей, которые преследует потребитель  информации. Эта характеристика похожа на репрезентативность, однако разница  состоит в том, что в данном случае учитывается минимальный  состав информации, который не мешает принятию решения. Например, абитуриент – золотой медалист может не представлять в приемную комиссию свой аттестат: диплом, подтверждающий получение золотой  медали, свидетельствует о полном наборе отличных оценок в аттестате;

доступность –  простота (или возможность) выполнения процедур получения и преобразования информации. Эта характеристика применима  не ко всей  информации, а лишь к  той, которая не является закрытой. Для обеспечения доступности  бумажных документов используются различные  средства оргтехники для их хранения, а для облегчения их обработки  используются средства вычислительной техники;

актуальность  – зависит от динамики изменения  характеристик информации и определяется сохранением ценности информации для  пользователя в момент ее использования. Очевидно, что касается информации, которая используется при зачислении, она актуальна, так как само обучение уже закончилось, и его результаты изменены быть не могут, а, значит, остаются актуальными;

своевременность – поступление не позже заранее  назначенного срока. Этот параметр также  очевиден недавним абитуриентам: опоздание  с представлением позитивной информации о себе при поступлении может быть чревато незачислением;

точность –  степень близости информации к реальному  состоянию источника информации. Например, неточной информацией является медицинская справка, в которой  отсутствуют данные о перенесенных абитуриентом заболеваниях;

достоверность – свойство информации отражать источник информации с необходимой точностью. Эта характеристика вторична относительно точности. В предыдущем примере получаемая информация недостоверна;

устойчивость  – способность информации реагировать  на изменения исходных данных без  нарушения необходимой точности.

Назад   

Количество информации. Формулы Хартли и Шеннона

  В 1928 г.  американский инженер Р. Хартли  предложил научный подход к  оценке сообщений. Предложенная  им формула имела следующий  вид:

            I = log2 K ,

Где К - количество равновероятных событий; I - количество бит в сообщении, такое, что любое из К событий произошло. Тогда K=2I.

Иногда формулу  Хартли записывают так:

            I = log2 K = log2 (1 / р) = - log2 р,

т. к. каждое из К  событий имеет равновероятный исход  р = 1 / К, то К = 1 / р.

  Задача.

  Шарик находится  в одной из трех урн: А,  В или С. Определить сколько бит информации содержит сообщение о том, что он находится в урне В.

  Решение.

  Такое сообщение  содержит I = log2 3 = 1,585 бита информации.

  Но не  все ситуации имеют одинаковые  вероятности реализации. Существует  много таких ситуаций, у которых  вероятности реализации различаются.  Например, если бросают несимметричную  монету или "правило бутерброда".

  "Однажды  в детстве я уронил бутерброд.  Глядя, как я виновато вытираю  масляное пятно, оставшееся на  полу, старший брат успокоил меня:

  -    не горюй, это сработал закон  бутерброда.

  -    Что еще за закон такой? - спросил  я.  

  -    Закон, который гласит: "Бутерброд  всегда падает маслом вниз". Впрочем, это шутка, - продолжал  брат.- Никакого закона нет. Прсто бутерброд действительно ведет себя довольно странно: большей частью масло оказывается внизу.

  -    Давай-ка еще пару раз уроним бутерброд, проверим, - предложил я. - Все равно ведь его придется выкидывать.

  Проверили.  Из десяти раз восемь бутерброд  упал маслом вниз.

  И тут  я задумался: а можно ли заранее  узнать, как сейчас упадет бутерброд  маслом вниз или вверх?

  Наши опыты  прервала мать…"

  ( Отрывок  из книги "Секрет великих  полководцев", В.Абчук).

  В 1948 г.  американский инженер и математик К Шеннон предложил формулу для вычисления количества информации для событий с различными вероятностями.

Если I - количество информации,

        К - количество возможных событий,

        рi - вероятности отдельных событий,

то количество информации для событий с различными вероятностями можно определить по формуле:

            I = - Sum рi log2 рi,

где i принимает  значения от 1 до К.

  Формулу  Хартли теперь можно рассматривать  как частный случай формулы  Шеннона:

            I = - Sum 1 / К log2 (1 / К) = I = log2 К.

  При равновероятных событиях получаемое количество информации максимально.

  Задачи.

1. Определить  количество информации, получаемое  при реализации одного из событий,  если бросают

а) несимметричную четырехгранную пирамидку;

б) симметричную и однородную четырехгранную пирамидку.

Решение.

а) Будем бросать  несимметричную четырехгранную пирамидку.

Вероятность отдельных  событий будет такова:

р1 = 1 / 2,

р2 = 1 / 4,

р3 = 1 / 8,

р4 = 1 / 8,

тогда количество информации, получаемой после реализации одного из этих событий, рассчитывается по формуле:

I = -(1 / 2 log2 1/2 + 1 / 4 log2 1/4 + 1 / 8 log2 1/8 + 1 / 8 log2 1/8) = 1 / 2 + 2 / 4 + + 3 / 8 + 3 / 8 = 14/8 = 1,75 (бит).

б) Теперь рассчитаем количество информации, которое получится  при бросании симметричной и однородной четырехгранной пирамидки:

I = log2 4 = 2 (бит).

2. Вероятность  перового события составляет 0,5, а второго и третьего 0,25. Какое  количество информации мы получим  после реализации одного из  них?

3. Какое количество  информации будет получено при  игре в рулетку с 32-мя секторами?

4. Сколько различных  чисел можно закодировать с  помощью 8 бит?

Решение: I=8 бит, K=2I=28=256 различных чисел.

  Физиологи  и психологи научились определять  количество информации, которое  человек может воспринимать при  помощи органов чувств, удерживать  в памяти и подвергать обработке.  Информацию можно представлять  в различных формах: звуковой, знаковой  и др. рассмотренный выше способ  определения количества информации, получаемое в сообщениях, которые уменьшают неопределенность наших знаний, рассматривает информацию с позиции ее содержания, новизны и понятности для человека. С этой точки зрения в опыте по бросанию кубика одинаковое количество информации содержится в сообщениях "два", "вверх выпала грань, на которой две точки" и в зрительном образе упавшего кубика.

  При передаче  и хранении информации с помощью  различных технических устройств  информацию следует рассматривать  как последовательность знаков (цифр, букв, кодов цветов точек изображения), не рассматривая ее содержание.

    Считая, что алфавит (набор символов  знаковой системы) - это событие,  то появление одного из символов  в сообщении можно рассматривать  как одно из состояний события.  Если появление символов равновероятно,  то можно рассчитать, сколько  бит информации несет каждый  символ. Информационная емкость  знаков определяется их количеством  в алфавите. Чем из большего  количества символов состоит  алфавит, тем большее количество  информации несет один знак. Полное  число символов алфавита принято  называть мощностью алфавита.

    Молекулы  ДНК (дезоксирибонуклеиновой кислоты)  состоят из четырех различных  составляющих (нуклеотидов), которые  образуют генетический алфавит.  Информационная емкость знака  этого алфавита составляет:

Информация о работе Понятие информации, экономическая информация