Понятие информации, экономическая информация

Автор: Пользователь скрыл имя, 31 Октября 2011 в 15:26, доклад

Описание работы

Термин "информация" происходит от латинского слова "informatio", что означает сведения, разъяснения, изложение.

Информация — это настолько общее и глубокое понятие, что его нельзя объяснить одной фразой. В это слово вкладывается различный смысл в технике, науке и в житейских ситуациях. В обиходе информацией называют любые данные или сведения, которые кого-либо интересуют.

Например, сообщение о каких-либо событиях, о чьей-либо деятельности и т.п. "Информировать" в этом смысле означает "сообщить нечто, неизвестное раньше". Информация — сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые воспринимают информационные системы (живые организмы, управляющие машины и др.) в процессе жизнедеятельности и работы.

Работа содержит 1 файл

контрольная.docx

— 34.98 Кб (Скачать)

Что означает понятие  «информация»?

Термин "информация" происходит от латинского слова "informatio", что означает сведения, разъяснения, изложение.

Информация —  это настолько общее и глубокое понятие, что его нельзя объяснить  одной фразой. В это слово вкладывается различный смысл в технике, науке  и в житейских ситуациях. В  обиходе информацией называют любые  данные или сведения, которые кого-либо интересуют.

Например, сообщение  о каких-либо событиях, о чьей-либо деятельности и т.п. "Информировать" в этом смысле означает "сообщить нечто, неизвестное раньше". Информация — сведения об объектах и явлениях окружающей среды, их параметрах, свойствах  и состоянии, которые воспринимают информационные системы (живые организмы, управляющие машины и др.) в процессе жизнедеятельности и работы.

Одно и то же информационное сообщение (статья в  газете, объявление, письмо, телеграмма, справка, рассказ, чертёж, радиопередача  и т.п.) может содержать разное количество информации для разных людей  — в зависимости от их предшествующих знаний, от уровня понимания этого  сообщения и интереса к нему.

Так, сообщение, составленное на японском языке, не несёт  никакой новой информации человеку, не знающему этого языка, но может  быть высокоинформативным для человека, владеющего японским. Никакой новой  информации не содержит и сообщение, изложенное на знакомом языке, если его  содержание непонятно или уже  известно. Информация есть характеристика не сообщения, а соотношения между  сообщением и его потребителем. Без  наличия потребителя, хотя бы потенциального, говорить об информации бессмысленно.

В случаях, когда  говорят об автоматизированной работе с информацией посредством каких-либо технических устройств, обычно в  первую очередь интересуются не содержанием  сообщения, а тем, сколько символов это сообщение содержит. Применительно  к компьютерной обработке данных под информацией понимают некоторую последовательность символических обозначений (букв, цифр, закодированных графических образов, звуков и т.п.), несущую смысловую нагрузку и представленную в понятном компьютеру виде. Каждый новый символ в такой последовательности символов увеличивает информационный объём сообщения.

Меры информации

При реализации информационных процессов всегда происходит перенос информации в пространстве и времени от источника информации к приемнику. При этом для передачи информации используют различные знаки  или символы, например естественного  или искусственного (формального) языка, позволяющие выразить ее в форме сообщения.

С точки зрения семиотики (от греч.  semeion — знак, признак) — науки, занимающейся исследованием свойств знаков и знаковых систем сообщение, может изучаться на трех уровнях:

•      синтаксическом, где рассматриваются внутренние свойства сообщений, т. е. отношения между знаками, отражающие структуру данной знаковой системы.

•      семантическом, где анализируются отношения между знаками и обозначаемыми ими предметами, действиями, качествами, т. е. смысловое содержание сообщения, его отношение к источнику информации;

•      прагматическом, где рассматриваются отношения между сообщением и получателем, т. е. потребительское содержание сообщения, его отношение к получателю.

Таким образом, проблемы передачи информации тоже разделяют  на три уровня: синтаксический, семантический и прагматический.

Проблемы синтаксического  уровня - это чисто технические  проблемы совершенствования методов  передачи сообщений и их материальных носителей — сигналов. На этом уровне рассматривают проблемы доставки получателю сообщений как совокупности знаков, учитывая при этом тип носителя и  способ представления информации, скорость передачи и обработки, размеры кодов представления информации, надежность и точность преобразования этих кодов и т. п. При этом полностью абстрагируются от смыслового содержания сообщений и их целевого предназначения. На этом уровне информацию, рассматриваемую только с синтаксических позиций, обычно называют данными, так как смысловая сторона при этом не имеет значения.

Проблемы семантического уровня связаны с формализацией  и учетом смысла передаваемой информации. На данном уровне анализируются те сведения, которые отражает информация, выявляется смысл, содержание информации, осуществляется ее обобщение.

Проблемы этого  уровня чрезвычайно сложны, так как  смысловое содержание информации больше зависит от получателя, чем от семантики  сообщения, представленного на каком-либо языке.

На прагматическом уровне интересуют последствия от получения  и использования данной информации потребителем. Проблемы этого уровня связаны с определением ценности и полезности информации для потребителя  Основная сложность здесь состоит  в том, что ценность, полезность информации может быть совершенно различной  для различных получателей и, кроме того, она зависит от ряда факторов, таких, например, как своевременность ее доставки и использования.

Современная теория информации исследует в основном проблемы синтаксического уровня. Она  опирается на понятие «количество  информации», которое никак не отражает ни смысла, ни важности передаваемых сообщений. В связи с этим иногда говорят, что теория информации находится на синтаксическом уровне.

Для каждого  из рассмотренных выше уровней проблем  передачи информации существуют свои подходы к измерению количества информации и свои меры информации. Различают соответственно меры информации синтаксического уровня, семантического уровня и прагматического уровня. Однако в силу вышесказанного остановимся лишь на мерах информации синтаксического уровня.

Итак, количественная оценка информации этого уровня не связана с содержательной стороной информации, а оперирует с обезличенной информацией, не выражающей смыслового отношения к объекту. В связи  с этим данная мера дает возможность  оценки информационных потоков в  таких разных по своей природе  объектах, как системы связи, вычислительные машины, системы управления, нервная  система живого организма и т. п.

Для измерения  информации на синтаксическом уровне вводятся два параметра: объем информации (данных) — V (объемный подход) и количество информации — / (вероятностный подход).

Количество информации / (энтропийный/вероятностный подход)

Часто приходится иметь дело с явлениями, исход  которых неоднозначен и зависит  от факторов, которые мы не знаем  или не можем учесть. Например –  определение пола будущего ребенка, результат бросания игральной кости и пр.

Определение: события, о которых нельзя сказать произойдут они или нет, пока не будет осуществлен  эксперимент, называются случайными.

Раздел математики, в котором строится понятийный и  математический аппарат для описания случайных событий, называется теорией вероятности.

Определение: осуществление  некоторого комплекса условий называется опытом, а интересующий нас исход  этого опыта – благоприятным  событием. Тогда, если N – общее число  опытов, а NA-количество благоприятных  исходов случайного события А, то отношение N/NA, называется относительной частотой появления события А. Однако, очевидно, в разных сериях, значение частоты может оказаться различным. Действительно, например, в серии из трех опытов по бросанию монеты может 2 раза выпасть орел и 1 раз решетка. Если благоприятным событием считать выпадение орла, то частота получается равно 2/3. Очевидно, что в другой серии она может быть равно 0 или 1 или 1/3. Однако, оказывается, что при увеличении количества опытов значение относительной частоты все меньше и меньше отклоняется от некоторой константы. Скачки могут быть, но все реже и реже. Наличие этой константы называется статистической устойчивостью частот, а сама константа вероятностью случайного события А. В случае, если все исходы опыта конечны и равновозможные, то их вероятность равна P=1/n, где n-число возможных исходов.

Пример:

1.    вероятность  выпадения орла при бросании монеты – ½.

2.    вероятность  вытянуть из урны красный шар  (при условии, что там три  шара – красный, синий, белый) – 1/3.

Таким образом, когда мы имеем дело со случайными событиями, имеется некоторая неопределенность. Введем в рассмотрение численную  величину, измеряющую неопределенность опыта.

Определение: Энтропия – мера неопределенности опыта, в  котором проявляются случайные события. Обозначим ее H.

Очевидно, что  величины H  и n (число возможных  исходов опыта) связаны функциональной зависимостью: H=f (n), то есть мера неопределенности есть функция числа исходов.

Некоторые свойства этой функции:

1. f (1) =0, так как  при n=1 исход не является случайным  и неопределенность отсутствует.

2. f (n) возрастает  с ростом n, так как чем больше  возможных исходов, тем труднее  предсказать результат, и, следовательно, больше неопределенность.

3. если  и два  независимых опыта с количеством  равновероятных исходов  и , то мера их суммарной неопределенности равна сумме мер неопределенности каждого из опытов:

Всем трем этим свойствам удовлетворяет единственная функция – log(n). То есть за меру неопределенности опыта с n равновероятными исходами можно принять число log(n). Вопрос – по какому основанию? В силу известной формулы  выбор основания значения не имеет, следовательно, можно взять в качестве основания логарифма 2. Таким образом:  H= - это формула Хартли.

Преобразовывая, получим: 2H=n

Замечание: в  случае, если исходы опыта не равновероятны, справедлива формула Шеннона: , где pi-вероятность i-того исхода.

Какова же связь  энтропии с информацией?

Из определения  энтропии следует, что энтропия это  числовая характеристика, отражающая ту степень неопределенности, которая  исчезает после проведения опыта, то есть ПОСЛЕ ПОЛУЧЕНИЯ ИНФОРМАЦИИ. То есть, после проведения опыта  получаем определенную информацию. Следовательно:

Энтропия опыта  равна той информации, которую  мы получаем в результате его осуществления.  То есть:

Определение:  информация I – это содержание сообщения, понижающего неопределенность некоторого опыта с неоднозначным исходом; убыль связанной с ним энтропии является количественной мерой информации.

Значит,  если  H1 – начальная энтропия (до проведения опыта), H2 – энтропия после проведения опыта, то информация

I=H1-H2=log2n1-log2n2=log2 (n1/n2).

Очевидно, что  в случае, когда получен конкретный результат, H2=0, и, таким образом, количество полученной информации совпадает с  начальной энтропией и подсчитывается при помощи формулы Хартли.

Итак, мы ввели  меру неопределенности – энтропию и показали, что начальная энтропия (или убыль энтропии) равна количеству полученной в результате опыта информации. Важным при введении какой-либо величины является вопрос о том, что принимать  за единицу ее измерения. Очевидно, значение H будет равно 1 при n=2. Иначе  говоря, в качестве единицы принимается  количество информации, связанное с  проведением опыта, состоящего в  получении одного из двух равновероятных исходов (например, бросание монеты).  Такая единица количества информации называется "бит".

Замечание: вероятностный  подход учитывает ценность информации для конкретного получателя (действительно, ведь речь идет о благоприятных (ля кого-то!!) событиях).

Пример: определим  количество информации, связанное с  появлением каждого символа в  сообщениях, записанных на русском  языке. Будем считать, что русский  алфавит состоит из 33 букв и знака "пробел". По формуле Хартли: H=log234=5 бит (здесь считаем, что появление  каждой буквы равновероятно). По формуле  Шеннона (для неравновероятных исходов) это значение равно 4,72 бит. Здесь значение, полученное по формуле Хартли – максимальное количество информации, которое моет приходиться на один знак.

Меры информации

При реализации информационных процессов всегда происходит перенос информации в пространстве и времени от источника информации к приемнику. При этом для передачи информации используют различные знаки  или символы, например естественного  или искусственного (формального) языка, позволяющие выразить ее в форме  сообщения.

С точки зрения семиотики (от греч.  semeion — знак, признак) — науки, занимающейся исследованием свойств знаков и знаковых систем сообщение, может изучаться на трех уровнях:

•      синтаксическом, где рассматриваются внутренние свойства сообщений, т. е. отношения между знаками, отражающие структуру данной знаковой системы.

•      семантическом, где анализируются отношения между знаками и обозначаемыми ими предметами, действиями, качествами, т. е. смысловое содержание сообщения, его отношение к источнику информации;

Информация о работе Понятие информации, экономическая информация