Связи между математикой и естественнонаучными дисциплинами

Автор: Пользователь скрыл имя, 24 Сентября 2013 в 22:25, реферат

Описание работы

Вопрос о связи между математикой и естественнонаучными дисциплинами веками ставил в затруднение философов и историков науки. Вряд ли стоит сомневаться в том, что источником многих математических понятий и теорий послужил «внешний мир». Но однажды постигнутые, эти понятия и теории начинали развиваться совершенно независимо. Они поднимались к высотам абстракции, освобождаясь от пут своего конкретного (даже «низменного») происхождения.

Работа содержит 1 файл

Microsoft Word Document.docx

— 33.30 Кб (Скачать)

 

 

 

 

 

,

 

 

в которой элемент aij равен выигрышу игрока A, если он выбрал i-ю строку, а его противник B (втайне от A) выбрал j-й столбец.

 

Основная теорема теории игр утверждает, что существует такое  число v, называемое ценой (или значением) игры, что A может обеспечить себе выигрыш, в среднем равный v за одну игру, в  то время как B может помешать ему  выиграть больше. Кроме того, существует оптимальная стратегия для A (вообще говоря, смешанная), гарантирующая ему  выигрыш не меньше v за одну игру, и оптимальная стратегия для B (вообще говоря, тоже смешанная), гарантирующая, что его проигрыш за одну игру не превзойдёт v.

 

По-видимому, ещё рано судить о результатах применения теории игр, особенно в экономике, хотя именно там она нашла ряд наиболее известных (и наиболее разрекламированных) приложений. Одна из причин такой осторожности — огромные размеры матриц платежа  в реальных ситуациях, так что  полный их численный анализ всё ещё  недоступен даже самым быстродействующим  вычислительным машинам.

 

Важная роль теории игр  определяется не только её конкретными  применениями в той или иной области  знаний. Теория игр позволяет найти  математический подход к целому ряду вопросов, связанных, если так можно  выразиться, с рациональным поведением в конфликтных ситуациях. И даже если построенные на её основе модели слишком упрощённы и нереалистичны, теория игр заслуживает большого доверия уже потому, что она даёт надежду отыскать систематический подход к чрезвычайно сложным проблемам, связанным с общественным поведением.

 

Заканчивая обсуждение теории игр, невозможно не упомянуть хотя бы коротко теорию статистических решений, созданную на базе теории игр А. Вальдом.

 

Вальд рассматривал процесс принятия решения в условиях неопределённости как игру статистика против Природы. Стратегия Природы, конечно, неизвестна, однако статистик принимает решения в соответствии с оптимальной стратегией, которая определяется матрицей платежа. Эта матрица составляется из величин, которыми статистик оценивает для себя сравнительную стоимость того или иного решения. Эта теория по форме аналогична теории игр, однако технически гораздо более сложна и громоздка, так как матрицы платежа в большинстве случаев бесконечны. Влияние теории принятия решений на статистику было главным образом концептуальным. Теория статистических решений привлекла внимание ко многим важным вопросам, связанным со статистическими выводами, и особенно с характером статистических критериев, и внесла в них известную ясность.

 

^ Теория информации занимается  проблемами, связанными с эффективностью  передачи сообщений. Типичная  ситуация здесь состоит в том,  что имеется источник информации, выбирающий, из некоторого множества  сообщений одно сообщение, которое  должно быть передано; передающее  устройство превращает это сообщение  в сигнал; далее, имеется канал  (линия связи), по которому посылается  сигнал, и, наконец, принимающее  устройство, преобразующее сигнал  в сообщение. Например, при передаче  телеграмм записанные буквами  слова кодируются последовательностями  импульсов тока переменной длительности (тире, точки, пробелы), которые передаются  по проводам и затем снова  преобразуются в составленные  из букв слова. 

 

Теория информации не занимается проблемами семантики (насколько полно  передаваемые символы отражают смысл  сообщения); в ней рассматриваются  только вопросы, связанные с безошибочностью (точностью) и экономичностью передачи.

 

Чтобы пояснить, какого рода задачи возникают в теории информации, допустим, что сообщение представляет собой строку из ^ N букв латинского алфавита (N достаточно велико), в которой  каждая буква встречается с той  же частотой, с какой она появляется в «среднестатистических» текстах  на английском языке. Можно представить  себе и более общую ситуацию, когда  имеется алфавит из k букв S1, S2, ..., Sk, причём появление в сообщении буквы S1 имеет вероятность p1, буквы S2 — вероятность p2 и т.д. Следующие одна за другой буквы выбираются независимым образом. Такие сообщения можно передавать последовательно, буква за буквой. Допустим, что передача одной буквы занимает одну единицу времени (скажем, одну микросекунду); тогда скорость передачи равна одному символу за единицу времени. Нельзя ли улучшить положение? Какова максимальная скорость, с которой может быть осуществлена передача?

 

Передача по буквам неэффективна: при такой передаче не используется то важное обстоятельство, что некоторые  сообщения выбираются источником, значительно  реже, чем другие. Скорость передачи можно повысить, закодировав частые сообщен короткими выражениями  и оставив более длинные выражения  более редким сообщениям.

 

Шеннон ввёл в рассмотрение две величины: ^ H — энтропию источника  и C — пропускную способность канала и доказал, что оптимальная скорость передачи равна отношению C/H, которое  всегда не меньше единицы. Это означает, что можно придумать коды, позволяющие  осуществлять передачу с любой средней  скоростью, меньшей, чем C/H, и не существует кодов, обеспечивающих большую, чем C/H, скорость передачи сообщений.

 

Энтропия H определяется (грубо  говоря) как

 

 

1

 

N

 

 · (логарифм вероятности  «типичного» сообщения).

 

 

Пропускная способность C равна максимуму H по всем возможным  заданиям вероятностей, совместимым  с ограничениями, которые налагаются на сообщения. В рассматриваемом  простом случае, когда сообщение  представляет собой строку из N букв, выбираемых независимым образом, на источник не налагается никаких ограничений. К вопросу об ограничениях мы вернёмся несколько ниже.

 

Для теоретических целей  достаточно рассматривать только двоичные коды (т.е. коды, представляющие собой  последовательности нулей и единиц). Поэтому в теории информации удобно пользоваться логарифмами при основании 2. Это, конечно, не вызвано необходимостью: подобное соглашение равнозначно, скажем, выбору системы единиц.

 

Чтобы получить представление  о том, что понимается под «типичным» сообщением, вернёмся к нашему примеру.

 

Если ^ N велико, то бо́льшая часть сообщений содержит приблизительно p1N букв S1, p2N букв S2 и т.д. Это утверждение является грубой формулировкой закона больших чисел, рассмотренного в главе 1. Типичным считается сообщение, которое действительно содержит p1N букв S1, p2N букв S2 и т.д. Числа p1N, p2N, ..., конечно, могут быть и не целыми; в таком случае нужно брать ближайшие к ним целые числа; в пределе при N→∞ замена, скажем, p1N целым числом [p1N] не отразится существенно на результате.

 

Вероятность того, что сообщение  из ^ N букв будет содержать p1N букв S1, p2N букв S2 и т.д., равна

 

 p1N

 

p2N

 

 

 

 

pkN

 

 

 

 

p1    

 

p2    

 

...

 

pk    

 

,

 

 

и, следовательно, в нашем  простом примере энтропия задаётся формулой

 

 H = – ( p1 ln p1 + p2 ln p2 + ... + pk ln pk),

 

 

где p1, p2, ..., pk удовлетворяют единственному условию

 

p1 + p2 + ... + pk = 1.

 

 

Максимальное значение H при  таком условии равно

 

 Hmax = C = – ln k;

 

 

оно получается, когда все  pi равны между собой. Следовательно, можно построить код, обеспечивающий любую скорость передачи, меньшую чем

 

ln k

 

p1 ln p1 + p2 ln p2 + ... + pk ln pk

 

.

 

 

До сих пор мы задавали только частоту появления в сообщении  каждого символа в отдельности. Однако в конкретном языке, скажем английском или французском, на последовательности букв, образующие допустимое сообщение, налагаются очень жёсткие ограничения, часть которых не известна. Реальный язык можно аппроксимировать, налагая всё больше и больше ограничений статистического характера на процесс генерации сообщений. Например, вместо условия независимости можно ввести требование, чтобы каждая диграмма (т.е. каждая пара из двух последовательных букв) появлялась в сообщениях с той же частотой, что и в реальных текстах на данном языке; тем самым будет достигнуто большее соответствие с действительной структурой языка. Этот процесс можно продолжить, подгоняя частоты троек, четвёрок и т.д. последовательных букв к реальным частотам соответствующих сочетаний в данном языке. Если ограничиться диграммами, то статистическое описание источника сообщений примет вид простой марковской цепи.

 

В применении к нашему искусственному примеру с алфавитом S1, S2, ..., Sk это означает, что заданы вероятности pij того, что за Si следует Sj, и вероятность сообщения Si1Si2...SiN равна

 

pi1i2 pi2i3 ... piN–1iN.

 

 

Вероятности p1, p2, ..., pk появления отдельных символов в длинных сообщениях можно найти, решая линейные уравнения

 

 k

 

 

 

 

 

pi pij = pj     ( j = 1, 2, ..., k).

 

i=1

 

 

 

 

 

Энтропия такого источника  равна

 

H = – 

 

 

pi

 

 

pij ln pij .

 

 

 

 

i

 

 

 

 

j

 

 

 

 

 

Можно показать, что эта  величина не превосходит энтропии источника  в случае независимой генерации  символов с вероятностями pi. В этом проявляется общий принцип; чем больше налагается ограничений, тем меньше становится энтропия.

 

Если некоторое pij равно 0 или 1 (например, в английском языке за буквой  z никогда не следует x, так что pzx = 0), то мы имеем абсолютное ограничение. При отыскании максимума энтропии можно варьировать все вероятности pij, кроме тех, которые равны 0 или 1.

 

До сих пор мы предполагали, что в канале отсутствует шум, т.е. что каждый символ передаётся абсолютно  точно. Наиболее интересные математические задачи возникают в ситуациях, когда  канал «зашумлён». Простейшая модель такого зашумлённого канала — двоичный канал без памяти. Здесь мы считаем, что при передаче двоичных кодов  имеется некоторая постоянная вероятность p того, что символ 0 или 1 будет передан  правильно, и постоянная вероятность q=1–р того, что он будет искажён (т.е. 0 заменится на 1 или 1 на 0); кроме того, мы полагаем, что отдельные символы  передаются независимо.

 

Шеннон и другие показали, как и при каких обстоятельствах  можно построить коды, допускающие  дешифровку с произвольно высокой  вероятностью; найдены также оптимальные  скорости передачи.

 

Эти разделы теории уже  чрезвычайно сложны, но даже из нашего краткого и неполного обзора её более  элементарных частей видно, с каким  успехом математика применяется  сейчас к задачам, которые совсем недавно считались недоступными никакому точному количественному  анализу.

 

Обсуждая связи математики с другими науками, нельзя не коснуться  статистики. Статистика не является ветвью математики, поскольку она занимается обработкой данных и принятием решений  на основе результатов этой обработки. Используемая таким образом, она  не является даже чётко очерченной дисциплиной, а скорее представляет собой общий инструмент научного исследования. Однако математика играла и играет важную роль в развитии статистики. Многие разделы статистики настолько глубоко пропитаны  математическими идеями и методами, что их совокупность получила наименование математической статистики.

 

В свою очередь статистическая точка зрения оказывается полезной во многих областях чистой математики, расширяя проблематику и подсказывая  новые пути и подходы.

 

Мы хотим снова подчеркнуть, что очень редко можно провести чёткую границу между математикой  и другими науками, к которым  она применяется. Попытки — к  сожалению, довольно частые — изолировать  «чистую» математику от всей остальной  научной деятельности и заставить  её вариться в собственном соку могут  лишь обеднить и математику, и прочие науки.ия


Информация о работе Связи между математикой и естественнонаучными дисциплинами