Автор: Пользователь скрыл имя, 14 Мая 2012 в 10:46, реферат
Теория вероятностей - бурно развивающаяся область современной математики. Ее развитие состоит, в основном, в развитии приложений, ставших самостоятельными специальностями. К ним можно отнести математическую статистику, теорию случайных процессов, теорию информации, теорию массового обслуживания, теорию надежности, метод наименьших квадратов, метод Монте- Карло, теорию игр, теорию случайных блужданий, планирование эксперимента, распознавание образов и т.п. В одной книге невозможно изложить все эти разделы, - по ним написаны сотни книг и тысячи статей. Как заметил Козьма Прутков, нельзя объять необъятное.
Разберем весьма частный, однако часто встречающийся случай: W состоит из конечного числа N равновероятных событий. Понятие “равновероятности” здесь является исходным, неопределимым. Основанием для суждения о равноценности, равновероятности обычно служит физическая симметрия, равноправие исходов. Понятие вероятности здесь уже является производным: вероятностью Р(А) события А называется P(A)=N(A)/N, где N(A) - число элементарных событий, благоприятствующих событию А .
В этих условиях выведем основные формулы исчисления вероятностей.
1. Вероятность достоверного
2. Вероятность невозможного
3. , поскольку .
4. 0£P(A)£1 для "А , поскольку 0£N(A) £N .
5. Если АÌВ, то Р(А) £Р(В), поскольку N(A) £N(B) .
6. Для любых событий А и В Р(АВ) £Р(А) £Р(А+В) , т.к. N(AВ) £N(А) £N(А+B) .
7. Теорема сложения для несовместных событий. Если АВ=Æ, то Р(А+В)=Р(А)+Р(В) : вероятность суммы несовместимых событий равна сумме их вероятностей, поскольку N(А+В)=N(А)+N(В) .
8. Теорема сложения в общем случае для двух событий:
Р(А+В)=Р(А)+Р(В)-Р(АВ) .
Действительно, N(А+В)=N(А)+N(В)-N(AB) по определению суммы событий. Остается разделить это равенство на N.
9. Обобщение теоремы сложения на n событий:
Доказательство этой формулы методом математической индукции несложно, но громоздко. Во внутренней сумме число слагаемых, очевидно, равно , и суммирование ведется по всевозможным наборам различных целых индексов.
10. Условная вероятность.
Добавим к комплексу условий, реализация которых интерпретируется как опыт, еще одно условие: произошло событие В. Все опыты, когда В не произошло, как бы игнорируем. Чтобы мы могли время от времени наблюдать событие В, следует предположить Р(В)>0, т.е. N(B)>0. Считаем, что добавление события В к комплексу условий не нарушает равновероятности исходов и не меняет природы самих исходов. Теперь опыт может иметь лишь один из N(B) исходов, а из них событию А благоприятствуют N(AB) исходов. По классическому определению вероятность события А при условии, что произошло событие В, равна
Условная вероятность по существу ничем не отличается от безусловной, обычной, так что выведенные ранее свойства вероятности переносятся и на условную.
В случае, если АÌВ, формула для условной вероятности упрощается:
P(A|B)= P(A)/ P(B) , так как здесь АВ=А .
11.
Теорема умножения:
Первая из этих формул является лишь формой записи формулы для условной вероятности пункта 10; вторая получена из нее перестановкой местами А и В. Напомню, что мы вводили понятие условной вероятности лишь для условий ненулевой вероятности, т.е. предполагаем, что Р(А)>0, P(B)>0.
12. Теорема умножения для n событий:
Действительно,
воспользуемся сочетательным
учитывая,
что условные вероятности ничем
принципиальным не отличаются от безусловных,
- лишь к комплексу условий
13.
Понятие независимости событий.
Теорема умножения для двух независимых событий упрощается: вероятность произведения двух независимых событий равна произведению их вероятностей: Р(АВ)=Р(А)Р(В) .
Нетрудно доказать и обратное утверждение: если для двух событий А и В ненулевой вероятности выполняется равенство: Р(АВ)=Р(А)Р(В) , то события А и В независимы. Действительно, ,
что и требовалось доказать.
Таким образом, мы получили эквивалентное определение независимости двух событий: события А и В, имеющие положительные вероятности, называются независимыми, если вероятность их произведения равна произведению их вероятностей: Р(АВ)=Р(А)Р(В). События А и В в этом определении симметричны: если событие А не зависит от В, то и В не зависит от А. Второе определение можно распространить и на события нулевой вероятности: если хотя бы одно из событий А или В имеет нулевую вероятность, то равенство Р(АВ)=Р(А)Р(В) тривиально выполняется (0=0). Если одно из событий достоверно, например, В=W, то равенство также выполняется (Р(А)=Р(А)). Поэтому можно сказать, что достоверное и невозможное события независимы от любых событий, что вполне отвечает интуитивному смыслу независимости.
Если события А и В независимы, то независимы также события А, . Действительно, . Ясно, что независимы также и , . Если события А и В положительной вероятности независимы, то они не могут быть несовместимыми; если события А и В положительной вероятности несовместимы, то они не могут быть независимыми. Действительно, несовместимость означает Р(АВ)=0, а независимость: Р(АВ)=Р(А)Р(В), т.е. независимость и несовместимость потребовали бы равенства нулю вероятности хотя бы одного из событий.
Обобщим понятия независимости на n событий: события называются независимыми в совокупности, если для любого набора индексов вероятность произведения событий равна произведению их вероятностей: .
Можно было бы подумать, что для независимости событий в совокупности достаточно попарной независимости. Конкретные примеры, однако, доказывают, что это не так.
Для n событий также нетрудно сформулировать второе эквивалентное определение независимости в совокупности: события , имеющие положительные вероятности, независимы в совокупности, если для любых наборов неравных индексов: , что легко устанавливается по теореме умножения и формуле для условных вероятностей.
14. Формула полной вероятности.
Пусть - любое разбиение пространства W, В - любое событие. Тогда В=ВW=В(A1+ ... +An)=BA1+ .... +BAn , и, воспользовавшись несовместимостью слагаемых и теоремой умножения, получаем формулу полной вероятности .
Обычно - взаимоисключающие друг друга ситуации, в которых может происходить событие В.
15. Формулы Байеса.
В обозначениях предыдущего пункта
Получили формулы Байеса, которые называют также формулами вероятностей гипотез: если событие В может произойти лишь с одним из событий , и оно действительно произошло, то спрашивается, с каким из событий Аj оно произошло? Можно высказать n гипотез, и соответственно формулы Байеса дают апостериорные вероятности Р(Аk|B) для этих гипотез, выражая их через априорные вероятности Р(Аj) и условные вероятности Р(В| Аj) того, что в условиях j-ой гипотезы произойдет событие В.
Таковы основные формулы исчисления вероятностей. Они получены в условиях весьма частной модели - классической схемы, для пространства конечного числа N равновероятных элементарных событий. В этой схеме число событий, которым благоприятствуют ровно k исходов, равно , а всего различных событий, следовательно, 2N .
Весьма
неожиданно, что все выведенные формулы
являются на самом деле общими и
в действительности сохраняют свою
силу для любого пространства элементарных
событий. Пожалуй, нет другой большой
математической дисциплины, где простой
пример позволял бы получить все основные
ее формулы.
§ 3. Комбинаторика.
Вычисления
на основе классического определения
вероятностей обычно осуществляется с
помощью специальной
Педагогическая практика в настоящее время показывает, что выпускники школ, как правило, совершенно не знают комбинаторики. Для того, чтобы дальнейшее было им понятно, приходится здесь дать краткое знакомство с основными простейшими комбинаторными процедурами.
1. Выбор с возвращением.
Имеется n различных предметов. Требуется выбрать из них m предметов. После выбора очередного предмета выбранный предмет возвращается обратно в множество и участвует в выборах следующих предметов. Два набора считаются различными, если хотя бы на одном этапе были выбраны различные предметы. Число различных наборов, очевидно, равно nm.
2. Выбор без возвращения.
Отличие от предыдущего случая в том, что выбранный предмет не участвует в дальнейшем отборе. Число различных наборов, очевидно, равно n(n-1) ... (n-m+1). Необходимое условие для выбора без возвращения: m£n.
3. Размещения.
Имеется n различных мест, на которых нужно разместить m различных предметов, по одному на место. Два размещения считаются различными, если хотя бы на одном месте располагаются разные предметы (либо в одном из наборов это место занято, а в другом свободно). Число размещений обозначают . Очевидно, . Необходимое условие для того, чтобы размещение было возможно: m£n . Размещение - частный случай выбора без возвращения. Если разрешить располагать на одном месте сколько угодно предметов, то число размещений было бы равно nm и являлось бы частным случаем выбора с возвращением.
4. Перестановки.
Требуется n различных предметов разместить на n различных местах, по одному на место. Число перестановок Pn - частный случай числа размещений: .
5. Сочетания.
Имеется n различных предметов. Нужно выделить из них m, причем порядок отбора не учитывается. Два набора считаются различными, если в одном из них есть хотя бы один предмет, которого нет в другом. Число сочетаний принято обозначать или . Из каждого сочетания, если всевозможными способами переставлять порядок вошедших предметов, можно получить m! размещений: , т.е.
Несколько другая интерпретация числа сочетаний: имеется n различных мест. Нужно разместить на них m одинаковых предметов, по одному на место. Два размещения считаются различными, если в каждом есть хотя бы одно занятое место, свободное в другом. Числа называются также биномиальными коэффициентами, так как появляются в формуле бинома Ньютона: