Автор: Пользователь скрыл имя, 05 Марта 2013 в 23:33, доклад
Познавая окружающий мир, человек постоянно имеет дело с информацией. Она помогает нам правильно оценить происходящие события, принять обдуманное решение, найти наиболее удачный вариант своих действий. Интуитивно мы понимаем, что информация — это то, чем каждый из нас пополняет собственный багаж знаний. Информация также является сильнейшим средством воздействия на личность и общество в целом. Кто владеет наибольшим объемом информации по какому-либо вопросу, тот всегда находится в более выигрышном положении по сравнению с остальными. Само слово «информация» происходит от латинского informatio, что означает «сведения, изложение, разъяснение».
Московский государственный университет им. М. В. Ломоносова
______________________________
ДОКЛАД
«Роль информации в системных исследованиях»
Выполнила:
Студентка 1 курса 103 группы
М.И.Аушева
Проверила:
М.А. Атаева
Москва
2012 г.
Информация несет человеку знания об окружающем мире, многообразие которого и порождает ее различные виды. Так, например, существует информация для узкого круга людей, специализирующихся в определенной научной области: химии, биологии, математике, физике, информатике, литературе. Такую информацию называют научной. В каждой научной области используется специализированный язык, для понимания которого требуются определенные знания и специальное обучение.
Для человека также важную роль играют средства массовой информации: радио, телевидение, газеты и журналы. Они распространяют общественно-политическую, научно-популярную, культурологическую информацию. С их помощью люди узнают о событиях в мире, науке и искусстве.
Так как сигналы-это состояния физических объектов, можно математически описать данное явление. Например, можно зафиксировать звуковые колебания, соответствующие конкретному сигналу, в виде зависимости давления х от времени t и изобразить этот сигнал функцией х(t). Функцией можно изобразить и статический сигнал, например запись звука на магнитной ленте, поставив в соответствие параметру t протяженность записи. Однако между просто состоянием объекта и сигналом имеется существенное различие: единственная функция x(t) не исчерпывает всех важных свойств сигналов. Дело в том, что понятие функции предполагает, что нам известно значение х для каждого интервала времени t. Но если это известно получателю сигнала, то отпадает необходимость в его передаче, так как функция х(t) может быть и без этого воспроизведена на приемном конце. Следовательно, функция приобретает сигнальные свойства только тогда , когда она является одной из возможных функций. Моделью сигнала может быть набор функций параметра t, причем до передачи сигнала неизвестно, какая из них будет отправлена. Каждая такая конкретная функция называется реализацией. Если ввести вероятностную меру на множество реализации, то получается математическая модель, которая называется случайным процессом.
Специфическим для теории информации является понятие неопределенности случайного объекта, для которой, кстати, и была введена количественная мера-энтропия. При обмене информацией между системами возникают специфические эффекты. Такие эффекты полезны для анализа систем. Например, избыточность-явление, которое не всегда бывает отрицательным. При искажениях, выпадениях и вставках символов именно избыточность позволяет обнаружить и исправить ошибки.
Также стоит сказать о скорости передачи информации, точнее необходимо, так как это важное понятие. Скорость передачи информации- количество информации, передаваемое в единицу времени. В дискретном случае единицей времени удобно считать время передачи одного символа. Для непрерывных каналов единицей времени может служить либо обычная единиц(например,секунда), либо интервал между отсчетами. Для более наглядного представления об этой величине отметим, что темп обычной речи человека соответствует скорости примерно 20 бит/с, муравьи обмениваются информацией 0,1 бит/с, что они делают с помощью усиков. Скорость передачи информации по каналу связи зависит от многих факторов и не превышает некоторого предела, называемого пропускной способностью канала. Например, пропускные способности зрительного, слухового, тактильного или же осязательного каналов связи человека составляют приблизительно 50 бит/с.
Теория информации имеет большое значение для системного подхода. Ее конкретные методы и результаты позволяют проводить количественные исследования информационных потоков в изучаемой системе. Однако более важным является эвристическое значение основных понятий теории информации- неопределенности, энтропии, количества информации, избыточности, пропускной способности и др. Вообще любая информация полезна в нынешнее время, как отмечалось раньше, она позволяет нам обдумать наши будущие действия, проанализировать ситуацию в данный момент(после получения информации) ,ну информации в системных исследованиях имеет такое же значение, что было описано в данной работе.
Литература:
1.Бондарев В.П., Концепции современного
естествознания,«Альфа-М»:»
2. И. Б. Родионов, «Теория систем и системный анализ», Лекция 6: Информационное описание и моделирования систем
3. http://utopiya.spb.ru/index.
Информация о работе Роль информации в системных исследованиях