Понятие информации

Автор: Пользователь скрыл имя, 21 Января 2012 в 20:49, контрольная работа

Описание работы

Основные задачи исследования:
1. Дать определение информации.
2. Рассмотреть основные свойства и классификацию информации.
3. Определить основные единицы измерения информации.

Содержание

Введение…………………………………………………….3

1. Понятие информации……………………………6
2. Свойства информа-ции………………………….10
3. Классификация информа-ции………………….14
4. Измерение информации……………………….15
5. Информационные ресурсы и
информационные технологии…………………20
Заключение………………………………………………..22
Список литературы…………………………………........24
Приложение

Работа содержит 1 файл

Контрольная - Информация.doc

— 131.50 Кб (Скачать)

       В настоящее время получили распространение подходы к определению понятия "количество информации", основанные на том, что информацию, содержащуюся в сообщении, можно нестрого трактовать в смысле её новизны или, иначе, уменьшения неопределённости наших знаний об объекте.

       Так, американский инженер Р. Хартли (1928 г.) процесс получения информации рассматривает как выбор одного сообщения из конечного наперёд заданного множества из N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определяет как двоичный логарифм N.  

       Формула Хартли: I = log2N.   

       Допустим, нужно угадать одно число из набора чисел от единицы до ста. По формуле Хартли можно вычислить, какое количество информации для этого требуется: I = log2100 ” 6,644. То есть сообщение о верно угаданном числе содержит количество информации, приблизительно равное 6,644 единиц информации.

       Приведем  другие примеры равновероятных сообщений: при бросании монеты: "выпала решка", "выпал орел"; на странице книги: "количество букв чётное", "количество букв нечётное".

       Определим теперь, являются ли равновероятными сообщения "первой выйдет из дверей здания женщина" и "первым выйдет из дверей здания мужчина". Однозначно ответить на этот вопрос нельзя. Все зависит от того, о каком именно здании идет речь. Если это, например, станция метро, то вероятность выйти из дверей первым одинакова для мужчины и женщины, а если это военная казарма, то для мужчины эта вероятность значительно выше, чем для женщины.  

       Для задач такого рода американский учёный Клод Шеннон предложил в 1948 г. другую формулу определения количества информации, учитывающую возможную  неодинаковую вероятность сообщений в наборе, используя формулу Шеннона: [3,131] 

I = – ( p1 log2 p1 + p2 log2 p2 + . . . + pN log2 pN ) 

где:  n - число  возможных состояний;

p[1],...p[n] - вероятности  отдельных состояний;

log( ) - функция логарифма  при основании 2.

Знак минус  перед суммой позволяет получить положительное значение для I, поскольку значение log(p[i]) всегда не положительно.

       Помимо  двух рассмотренных подходов к определению количества информации, существуют и другие. Важно помнить, что любые теоретические результаты применимы лишь к определённому кругу случаев, очерченному первоначальными допущениями.

В качестве единицы  информации условились принять один бит (англ. bit — binary, digit — двоичная цифра).

       Бит в теории информации — количество информации, необходимое для различения двух равновероятных сообщений.

       А в вычислительной технике битом называют наименьшую "порцию" памяти, необходимую для хранения одного из двух знаков "0" и "1", используемых для внутримашинного представления данных и команд. 

               Бит — слишком мелкая единица измерения. На практике чаще применяется более крупная единица — байт, равная восьми битам. Именно восемь битов требуется для того, чтобы закодировать любой из 256 символов алфавита клавиатуры компьютера (256=28).

       Широко  используются также ещё более  крупные производные единицы информации [6,22]:  

       1 Килобайт (Кбайт) = 1024 байт = 210 байт,

       1 Мегабайт (Мбайт) = 1024 Кбайт = 220 байт,

       1 Гигабайт (Гбайт) = 1024 Мбайт = 230 байт.  

       В последнее время в связи с  увеличением объёмов обрабатываемой информации входят в употребление такие  производные единицы, как:  

       1 Терабайт (Тбайт) = 1024 Гбайт = 240 байт,

       1 Петабайт (Пбайт) = 1024 Тбайт = 250 байт.  

       За  единицу информации можно было бы выбрать количество информации, необходимое для различения, например, десяти равновероятных сообщений. Это будет не двоичная (бит), а десятичная (дит) единица информации. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

    1.   Информационные ресурсы                                       

             и информационные технологии. 

       Информационные  ресурсы – это идеи человечества и указания по их реализации, накопленные в форме, позволяющей их воспроизводство. 

       Это книги, статьи, патенты, диссертации, научно-исследовательская и опытно-конструкторская документация, технические переводы, данные о передовом производственном опыте и др.

       Информационные  ресурсы (в отличие от всех других видов ресурсов — трудовых, энергетических, минеральных и т.д.) тем быстрее растут, чем больше их расходуют.

       Информационная  технология — это совокупность методов и устройств, используемых людьми для обработки информации [7].

Человечество  занималось обработкой информации тысячи лет. Первые информационные технологии основывались на использовании счётов и письменности. Около пятидесяти лет назад началось исключительно быстрое развитие этих технологий, что в первую очередь связано с появлением компьютеров.

       В настоящее время термин "информационная технология" употребляется в связи с использованием компьютеров для обработки информации. Информационные технологии охватывают всю вычислительную технику и технику связи и, отчасти, — бытовую электронику, телевидение и радиовещание.

       Они находят применение в промышленности, торговле, управлении, банковской системе, образовании, здравоохранении, медицине и науке, транспорте и связи, сельском хозяйстве, системе социального обеспечения, служат подспорьем людям различных профессий и домохозяйкам.

       Народы  развитых стран осознают, что совершенствование информационных технологий представляет самую важную, хотя дорогостоящую и трудную задачу.

       В настоящее время создание крупномасштабных информационно-технологических систем является экономически возможным, и это обусловливает появление национальных исследовательских и образовательных программ, призванных стимулировать их разработку. 
 

                       Заключение. 

    Увеличение  роли и значения информации в современном обществе безусловно велика. Одна из основных особенностей состоит в том, что информация, и особенно знание как ее высшая форма, занимает в нем совершенно особое место. Информация в ее обыденном смысле всегда играла решающую роль в жизни человека. В отличие от высших животных, у которых жизненно важная информация вырабатывается, хранится передается в основном с помощью биофизических структур, человек в своей деятельности регулируется знаниями, т. е. особой небиологической формой информации. По мере усложнения человеческой деятельности объем знаний, требуемых для ее реализации, резко возрастает. С переходом к современной стадии развития, характеризующейся нарастающим темпом технических и технологических инноваций, объем знаний, необходимых для их обоснования, разработки, реализации и распространения, должен расти экспоненциально. Подсчитано, что, для увеличения объема материального производства в два паза необходимо четырехкратное возрастание объема обеспечивающей его информации. В современных условиях отсутствие необходимых знаний может оказаться непреодолимым препятствием социального и научно-технического прогресса. Для преодоления когнитивного дефицита традиционные методы освоения знаний человеком совершенно непригодны.

    В этих условиях информация, обеспечивающая жизненно и исторически важные направления  деятельности человека, превращается в наиболее ценный продукт и основной товар, суммарная стоимость которого зачастую превосходит суммарную стоимость продуктов материального производства.

    Все предшествующие изменения в производстве информации касались лишь способов ее фиксации, тиражирования и распространения. Это достигалось созданием письменности, книгопечатания и телефона, телеграфа, радио и телевидения и т.д. Однако все эти технологии не касались самого процесса создания, переработки и смысловой трансформации знания.

    Информационно-компьютерная революция радикально технологизирует интеллектуальную деятельность с помощью компьютеров и современных средств связи.

    Литература 

  1. Алексеев Е.Г.  Электронный учебник по информатике. http://stf.mrsu.ru/economic/lib/informatics/text/toc.html
 
  1.   Информатика. Базовый курс // Под ред. С.В. Симоновича, СПб., 2000.
 
  1.    Миньков С.Л. Информатика:учебное пособие. – Томск, 2000.
 
  1.  Симонович С.В.  Мой первый компьютер. – М.: АСТ-ПРЕСС, Инфорком-пресс, 1997.
 
  1. Федеральный закон  РФ «Об информации, информационных технологиях и о защите информации» от 27 июля 2006 г. №149-Ф3 (ред. 29.04.2006г.)
 
  1. Фигурнов В.Э.  IBM PC для пользователей. 7-е изд. перераб. и доп. – М.: ИНФА, 2002
 
  1. Энциклопедия  «ВикипедиЯ» [Электронный ресурс]: http://ru.wikipedia.org
 
 
 
 
 
 
 
 
 
 
 

ПРИЛОЖЕНИЕ 
 

Вариант 9.  Формула. 

 
 
 
 

Вариант 9. 

                                                                         Таблица 9.

 

Ведомость расчета с сельхозпредприятиями 

Название             предприятия 
 
 
 
Срок  оплаты
 
 
Дата  оплаты
Сумма Недоплата или переплата
 
Подлежащая оплате
 
Фактически оплаченная
           
 
 
 
 
 
 
 
 
 
 
 

Вариант 9.  Схема. 

 

 

 

Информация о работе Понятие информации