Информация и информационные процессы

Автор: Пользователь скрыл имя, 28 Февраля 2012 в 21:53, реферат

Описание работы

С точки зрения философии информация это – категория, представляющая собой отражение объективного мира его причинных следственных связей
В теории это снятое неопределенность.
Информация это точные факты и сведения.

Работа содержит 1 файл

Иформация и иформационный процесс.docx

— 15.39 Кб (Скачать)

Информация  и информационные процессы

ИНФОМАЦИЯ ОБЩЕНАУЧНОЕ ПОНЯТИЕ

С точки зрения философии  информация это – категория, представляющая собой отражение объективного мира его причинных следственных связей

В теории это снятое неопределенность.

Информация это точные факты и сведения.

Сообщение это форма представления  информации в виде речи, тексов, жестов взглядов изображений и т.п.

Одно и то же информационное сообщение (статья в газете объявление письмо, телепрограмма, справка, рассказ  чертеж, радиопередача, т.п.) может содержать  разное количество информации для разных людей – в зависимости от предшествующих знаний, от уровня  понимания этого сообщения и интересу к нему

Информация есть характеристика не сообщения, а соотношения между  сообщением его потреблением.

Равновероятность события, если ни одно из них не имеет  преимущества перед  другим.

Неравноверотные события  – если хотя бы одно из них более  вероятное – более содержимое.

Достоверное событие –  вероятность = 1, невозможное событие  - вероятность =0

Равновероятность 1/n

Где N

Сообщение уменьшающее неопределенность значений в два раза несет 1 бит информации.

2 1 = N

N мощность алфавита

I информационный вес символа

Где N – неопределенность значений или число.

Бит в теории информации –  кол-во информации, необходимое для  различения двух

В качестве единицы информации Клод Шеннон предложил один бит

(англ. Bit binary digit –двоичная цифра)

Алфавит – это множество  символов, принимаемых источником (используемых для представления информации). Число  символов алфавита называется мощностью.

Этот подход к измерению  информации, циркулирующей в компьютерах.

Минимальная мощность алфавита, пригодного для передачи информации равна 2

2 в теп. 1=2

Один символ двоичного  алфавита несет 1 бит информации.

Байт выводится как  информационный вкс символа из алфавита мощностью 256 символов

Поскольку 256 = 2 в степ 8, то 11 байт = 8 бит.

Для внешнего представления  информации компьютер использует алфавит мощностью 256.

1 Килобайт = 1024 байт = 2 в степ. 10 байт

1 мб 1024 кбайт = 2 в степ. 20 байт

1 гб = 1024 = 2 в степ. 30 байт. 

В вычислительной технике  битом называют наименьшую порцию памяти комп., необходимую для хранения одной или двух знаков

Свойства информации:

1)Объективность

2)Полнота

3)Достоверность

4)Адекватность

5)Актуальность

6)Доступность

Знания - проверенный практикой результат познания действительности, ее верное отражение в сознании человека.

Концепция, многоуровневое, информационного обмена:

1)Сигнальный.

2)Предоставления или распознавания.

3)Содержания или интерпретации.


Информация о работе Информация и информационные процессы