Лекции по "Теории вероятностей и математической статистике"

Автор: Пользователь скрыл имя, 04 Марта 2013 в 16:59, курс лекций

Описание работы

Лекция № 1. Введение. Предмет теории вероятностей. Элементы комбинаторного анализа.
Лекция № 2. События и операции над событиями. Алгебра событий. Аксиомы вероятности. Вероятностное пространство.
Лекция № 3. Классическое определение вероятности. Геометрическое определение вероятности. Статистическое определение вероятности.
...
Лекция № 15. Проверка статистических гипотез.

Работа содержит 1 файл

Лекции.pdf

— 335.79 Кб (Скачать)
Page 1
Л
ЕКЦИИ
Лекция № 1. Введение. Предмет теории вероятностей. Элементы комбинаторного
анализа.
Предмет теории вероятностей
Предмет теории вероятностей – математический анализ случайных явлений, т.е.
эмпирических феноменов, которые - при заданном комплексе условий – могут быть
охарактеризованы тем, что
- для них не существует детерминистической регулярности (наблюдения над
ними не всегда приводят к одним и тем же исходам);
- они обладают некоторой статистической регулярностью (проявляющейся в
статистической устойчивости частот).
П р и м е р. Подброшена «правильная» монета. Заранее невозможно предсказать
исход подбрасывания. Но, если провести большое число независимых подбрасываний, то
можно заметить, что для «правильной» монеты будет наблюдаться определенная
статистическая регулярность: частота выпадения герба будет близка к 1/2.
Статистическая устойчивость частот приводит к возможности количественной
оценки «случайности» того или иного события А, осуществляющегося в результате
эксперимента. Поэтому теория вероятностей постулирует существование у события А
определенной числовой характеристики Р(А), называемой вероятностью этого события,
естественное свойство которой состоит в том, что с увеличением числа «независимых»
испытаний частота появления события А должна приближаться к Р(А).
Применительно к рассмотренному примеру это означает: вероятность события А,
состоящего в выпадении герба при бросании правильной монеты, естественно считать 1/2.
В самых разных ситуациях, особенно при подсчете вероятности события по
классическому определению вероятности (см. ниже), возникает задача подсчета
количества элементов множества, заданного теми или иными условиями.
Общая постановка комбинаторной задачи такова.
Из n различных элементов составляются наборы по m элементов, причем один и
тот же элемент может входить в набор более одного раза.
Необходимо указать точное число, выраженное через n и m, таких наборов.
В терминах теории вероятностей и математической статистики основное
множество различных элементов называется генеральной совокупностью, а составляемые
наборы – выборками.
Пусть генеральная совокупность состоит из n различных элементов. Рассмотрим
выборки по m ≤ n элементов.
Выборки бывают упорядоченные (если в выборке изменить порядок следования
элементов, то это будет уже другая выборка) и неупорядоченные (порядок следования
элементов не имеет значения); с возвращением или повторением (один и тот же элемент
может входить в выборку более одного раза) и без возвращения или повторения (один и
тот же элемент не может входить в выборку более одного раза).
О п р е д е л е н и е 1. Упорядоченные выборки без возвращения называют
размещениями. Число размещений из n элементов по m равно
m
n
А = n(n - 1)(n - 2)…(n - m +1) = n! / (n-m)!
Действительно, 1-й элемент выборки можно выбрать n способами, 2-й – (n-1)
способом, и т. д., m-й – (n-m+1) способом. По правилу произведения получается искомая
формула.
П р и м е р. Из элементов 1,2,3 можно составить
2
3
А = 6 размещений по 2: 12, 13, 21,
23, 31, 32.
Если m=n, то размещения называются перестановками и обозначаются Р
n
. Имеем:
Р
n
=
n
n
А = n!

Page 2

П р и м е р. Из элементов 1,2,3 можно составить Р
3
= 6 перестановок: 123, 132,
213, 231, 312, 321.
О п р е д е л е н и е 2. Неупорядоченные выборки без возвращения называют
сочетаниями. Число сочетаний из n элементов по m равно
m
n
C
= n(n - 1)(n - 2)…(n – m + 1) / n! = n! / (m! (n - m)!) =
m
n
А
/ m!.
Действительно, неупорядоченных выборок меньше, чем упорядоченных (при
прочих равных условиях) в m! раз, т. к. m элементов можно переставить m! различными
способами.
П р и м е р. Из элементов 1,2,3 можно составить
2
3
C
= 3 сочетания по 2: 12, 13, 23.
Упорядоченные выборки с повторением называют размещениями с повторением
(их число равно n
m
), а неупорядоченные выборки с повторением называют сочетаниями с
повторением (их число равно
m
1
m
n
C

+
).
П р и м е р. Из элементов 1,2,3 можно составить 3
2
=9 размещений по 2 с
повторениями: 11, 12, 13, 21, 22, 23, 31, 32, 33 и
2
4
C
= 6 сочетаний по 2 с повторениями:
11, 12, 13, 22, 23, 33.
Лекция № 2. События и операции над событиями. Алгебра событий. Аксиомы
вероятности. Вероятностное пространство.
Одно из основных понятий теории вероятностей – случайное событие, или просто
событие. В реальном мире случайное событие – это исход (какого – либо испытания,
наблюдения, эксперимента), который может произойти или не произойти.
П р и м е р. При бросании игральной кости событиями будут, например
А = {выпала «шестерка»}; В = {выпало четное число очков}.
Рассмотрим некоторые частные случаи событий и некоторые операции над
событиями.
Достоверным (обозначается Ω) называется событие, которое (при определенном
комплексе условий) происходит всегда.
Невозможным (обозначается ∅) называется событие, которое (при определенном
комплексе условий) не происходит никогда.
Противоположными (обозначаются А и Ā) называются два единственно
возможных (в данном опыте) события, такие, что одно из них происходит тогда и только
тогда, когда не происходит другое.
Объединением или суммой событий А и В (обозначается АUВ или А+В)
называется событие, которое происходит тогда и только тогда, когда происходит или А,
или В, или А и В вместе.
Пересечением или произведением событий А и В (обозначается А∩В или АВ)
называется событие, которое происходит тогда и только тогда, когда происходят А и В
вместе.
Разностью событий А и В (обозначается А\В или А-В) называется событие,
которое происходит тогда и только тогда, когда происходит А и не происходит В.
События А и В называются несовместными, если АВ = ∅.
События А и В являются несовместными, т.к. вместе они произойти не могут.
В настоящее время в теории вероятностей наиболее распространен подход, при
котором событие определяется через понятие элементарного события. В математической
модели можно принять понятие элементарного события как первоначальное, которому не
дается определения и которое характеризуется только своими свойствами.
Наиболее употребительная теоретико-вероятностная модель в простейших случаях
урновая модель.
У р н о в а я м о д е л ь. Пусть имеется урна с n одинаковыми шарами. Испытание
состоит в том, что мы наугад выбираем из урны шар. Обозначим Ω={ω
1
,…,ω
n
} множество

Page 3

шаров в урне. Если при испытании мы вынимаем шар ω
i
∈А, где А – некоторое
подмножество множества шаров Ω, то будем говорить, что произошло событие А; если
ω
i
∉А, то будем говорить, что событие А не произошло. В данном случае событие А
отождествляется с подмножеством А множества всех возможных исходов, или, как будем
говорить, элементарных событий.
В общем случае будем в произвольной теоретико-вероятностной модели
рассматривать некоторое основное множество Ω={ω}. Будем называть его элементы ω
элементарными событиями, само множество Ω - пространством элементарных
событий, а некоторые его подмножества А⊆Ω - событиями. Операции над событиями –
это операции над подмножествами.
Если рассматривается некоторая система А
0
множеств А⊆Ω, то с помощью
теоретико-множественных операций U, ∩ и \ можно из элементов А
0
построить новую
систему множеств, которые также являются событиями. Присоединяя к этим событиям
достоверное и невозможное события Ω и ∅, получим систему множеств А, которая
является алгеброй, т.е. такой системой множеств, что
1*. ∅∈А, Ω∈А (замкнутость относительно невозможного и достоверного
событий).
2*. Если А∈А, то и Ā∈А (замкнутость относительно дополнения).
3*. Если А∈А и В∈А, то и АUВ, А∩В∈А (замкнутость относительно объединения
и пересечения).
Таким образом, в качестве систем событий целесообразно рассматривать такие
системы множеств, которые являются алгебрами.
Перейдем к аксиомам теории вероятностей, введенным А.Н. Колмогоровым.
Итак, пусть Ω-(конечное) множество элементов ω, называемых элементарными
событиями, А – множество всех подмножеств Ω. Элементы множества А называются
событиями, а Ω–пространством элементарных событий.
1) Любому событию А∈А поставлено в соответствие неотрицательное число
Р(А), которое называется вероятностью события А.
2) Р(Ω) = 1.
3) Если А и В не пересекаются, то Р(А+В) = Р(А)+Р(В).
Совокупность объектов (Ω, А, Р), удовлетворяющую аксиомам 1)-3), будем
называть вероятностным пространством. Простейшие вероятностные пространства
строятся следующим образом. Берется произвольное конечное множество Ω={ω
1
, …,ω
n
} и
произвольное множество {p
1
,…,p
n
} неотрицательных чисел, таких, что p
1
+…+ p
n
=1. За А
принимается множество всех подмножеств А из Ω и для А={
1
i
ϖ
,…,
k
i
ϖ
} полагается
Р(А)=
1
i
p
+…+
k
i
p
. В этом случае говорят, что p
1
,…,p
n
есть вероятности элементарных
событий ω
1
, …, ω
n
.
Лекция № 3. Классическое определение вероятности. Геометрическое определение
вероятности. Статистическое определение вероятности.
В связи с трудностью, связанной с приписыванием элементарным событиям
(исходам) значений их вероятностей, отметим, что существует много практических
ситуаций, в которых из соображений симметрии разумно рассматривать все исходы как
равновозможные. Поэтому, если пространство элементарных событий состоит из
конечного числа точек ω
1
, …, ω
n
, то полагаем p
1
=…=p
n
=1/n, и, следовательно, для любого
события А∈А
Р(А) = (
1
i
p
+…+
k
i
p
)/(p
1
+…+ p
n
) = k/n,
или
Р(А) = А / Ω ,

Page 4

где k=А  - число элементарных событий, составляющих А (благоприятных исходов); n =
Ω  - число всех элементарных событий.
П р и м е р. Брошена игральная кость. Используя классическое определение
вероятности, найти вероятность события A={выпало четное число очков}.
Р е ш е н и е. Имеем: Ω={1,2,3,4,5,6}, оно содержит 6 элементарных событий
(исходов); А={2,4,6}, оно содержит 3 элементарных события (благоприятных исхода).
Согласно классическому определению вероятности,
Р(А) = А / Ω = 3/6 = ½.
Заметим, что, например, бросание четырехугольной усеченной пирамиды не
вписывается в классическую схему, т. к. исходы – выпадения различных граней такой
пирамиды – не равновозможны.
Еще в самом начале развития теории вероятностей была замечена недостаточность
классического определения вероятности, основанного на рассмотрении конечного числа
равновозможных исходов. Уже тогда частные примеры привели к некоторому
видоизменению этого определения и построению понятия вероятности также для случаев,
когда мыслимо бесконечное множество исходов. При этом по-прежнему основную роль
играло понятие «равновозможности» некоторых событий.
Общая задача, которая ставилась и привела к распространению понятия
вероятности, может быть сформулирована следующим образом.
Пусть имеется, например, на плоскости, некоторая область G и в ней содержится
другая область g. В область G наудачу бросается точка и спрашивается, чему равна
вероятность события А, заключающегося в том, что точка попадет в область g.
Брошенная точка может попасть в любую точку области G, причем вероятность
попадания в какую-либо часть области G пропорциональна площади этой части и не
зависит от ее расположения и формы.
Таким образом, по определению, вероятность попадания в область g при бросании
наудачу точки в область G равна (S – площадь)
Р(А) = S(g)/S(G).
П р и м е р. (Задача о встрече). Два лица А и В условились встретиться в
определенном месте между 12 и 13 часами. Пришедший первым ждет другого 20 минут,
затем уходит. Приход каждого лица в течение указанного часа может произойти наугад, а
моменты приходов независимы. Найти вероятность события А = {А и В встретились}.
Р е ш е н и е. Обозначим моменты прихода лица А через х и лица В – через у. Для
того, чтобы встреча произошла, необходимо и достаточно, чтобы х – у≤ 20.
Изобразим х и у как декартовы координаты на плоскости; в качестве единицы
масштаба выберем минуту. Искомая вероятность равна Р(А) = (60
2
– 40
2
)/60
2
= 5/9.
Еще на заре возникновения теории вероятностей был замечен иной способ
приближенной оценки неизвестной
вероятности случайного события.Длительные
наблюдения над появлением или непоявлением события А при большом числе
независимых испытаний, производимых в одних и тех же условиях, в ряде случаев
показывают, что число появлений события А подчиняется устойчивым закономерностям.
А именно, если мы через µ обозначим число появлений события А при n независимых
испытаниях, то оказывается, что отношение µ/n (относительная частота события А) при
достаточно больших n для большинства таких серий наблюдений сохраняет почти
постоянную величину, причем большие отклонения наблюдаются тем реже, чем
многочисленнее произведенные испытания. Более того, оказывается, что для тех случаев,
к которым применимо классическое определение вероятности, это колебание частоты
происходит около вероятности события Р(А). То, что при большом числе испытаний
частота события остается почти постоянной, дает нам возможность расширить круг
явлений, для которых мы будем говорить об их вероятности.Представим себе, что
относительно события А принципиально возможно проведение неограниченной
последовательности независимых друг от друга испытаний в неизменных условиях. Если

Page 5

в результате достаточно многочисленных наблюдений замечено, что частота события А
ведет себя достаточно правильно и почти всегда колеблется около некоторой, вообще
говоря, неизвестной, постоянной, то говорят, что это событие имеет вероятность.
За численное значение этой вероятности события А может быть приближенно при
большом числе n независимых испытаний, производящихся в неизменных условиях,
принята частота события А.
Лекция № 4. Формула сложения вероятностей. Условная вероятность. Формула
умножения вероятностей. Независимость.
Рассмотрим некоторые следствия, вытекающие из аксиом Колмогорова.
Аксиома 3) – аксиома аддитивности – по индукции обобщается с двух на
произвольное число n несовместных событий, а именно:
Если события А
1
, А
2
, …, А
n
попарно несовместны, т.е. А
i
∩А
j
=(i

j), то
вероятность их объединения (суммы) равна сумме их вероятностей:
Р(А
1
+ А
2
+ … + А
n
) = Р(А
1
) + Р( А
2
) + …+ Р(А
n
).
(4.1)
Равенство (4.1) есть формула сложения вероятностей для несовместных событий.
О п р е д е л е н и е. Полной группой событий называется группа событий
А
1
,…,А
n
, таких, что:
1) они попарно несовместны, т.е. А
i
∩А
j
=∅ (i ≠ j);
2) одно (и только одно – в силу несовместности) из них обязательно произойдет,
т.е. их сумма есть достоверное событие: А
1
+…+А
n
= Ω.
У т в е р ж д е н и е 1. Сумма вероятностей событий, образующих полную группу,
равна единице: Р(А
1
)+…+ Р(А
n
)=1.
Действительно, пусть А
1
, А
2
, …, А
n
– полная группа событий, т.е. эти события
несовместны и в сумме дают достоверное событие. Тогда, применяя формулу (4.1), имеем:
Р(А
1
)+…+ Р(А
n
)=Р(А
1
+…+А
n
)=Р(Ω)=1
(последнее равенство имеет место в силу аксиомы 2) Колмогорова). Утверждение
доказано.
Противоположные события. Дадим еще одно определение противоположного
события, использующее понятие полной группы событий.
О п р е д е л е н и е. Противоположными называются два единственно возможных
события, образующих полную группу. Если одно из взаимно противоположных событий
обозначается А, то другое - Ā.
У т в е р ж д е н и е 2. Сумма вероятностей взаимно противоположных событий
равна единице:
Р(А) + Р(Ā) = 1.
(4.2)
Действительно, по определению, противоположные события образуют полную
группу, а сумма вероятностей событий, образующих полную группу, согласно
утверждению 1, равна единице. Утверждение доказано.
Обобщим формулу (4.1) с несовместных на произвольные события. Пусть А и В –
два произвольных события (может быть, совместных, т.е. АВ≠∅). Имеем:
АUВ = А + (В\АВ), В = АВ + (В\АВ),
где слагаемые правых частей обоих равенств – несовместные события. Тогда согласно
аксиоме 3) Колмогорова имеем:
Р(А + (В\АВ)) = Р(А) + Р(В\АВ), Р(В) = Р(АВ) + Р(В\АВ),
откуда следует, что
Р(АUВ) = Р(А) + Р(В) – Р(АВ),
т.е. вероятность объединения двух событий есть сумма их вероятностей за вычетом
вероятности их совместного наступления.
Последняя формула есть формула сложения вероятностей для произвольных
событий. Эта формула по индукции обобщается на любое конечное число событий:

Page 6

Р(
n
1
i=
U
А
i
)=∑
=
n
1
i
P(A
i
)-


<

n
j
i
1
P(A
i
A
j
)+


<
<

n
k
j
i
1
P(A
i
A
j
A
k
)-…+(-1)
n+1
P(
n
1
i=
I
A
i
).
Понятие условной вероятности относится к основным рабочим инструментам
теории вероятностей. Оно возникает при замене пространства элементарных событий Ω
на его непустое подмножество В и последующем пересчете возникающих при этом
вероятностей.
Р(А/В) =
)B
(P
)
AB
(P
,
(4.3)
где полагаем, что Р(В) > 0.
Число Р(А/В), вычисленное по формуле (4.6), называется вероятностью события
А при условии В, или условной вероятностью. Аналогично,
Р(В/А) =
)A
(P
)
AB
(P
при Р(А) > 0.
(4.4)
При Р(А) > 0 и Р(В) > 0 любое из равенств (4.3) и (4.4) эквивалентно так
называемой формуле умножения вероятностей, согласно которой
Р(АВ) = Р(А) Р(В/А) = Р(В) Р(А/В),
(4.5)
т.е. вероятность произведения двух событий равна произведению вероятности одного из
них на условную вероятность другого при условии, что первое произошло.
Формула умножения применима и в том случае, когда одно из событий А или В
есть невозможное событие, т.к. в этом случае вместе с Р(А) = 0 имеет место Р(А/В) = 0 и
Р(АВ) = 0.
Формула (4.5) по индукции обобщается на произвольное число событий:
Р(А
1
…А
n
)=Р(А
1
)Р(А
2
/ А
1
)Р(А
3

1
А
2
)…Р(А
n

1
А
2
…А
n-1
).
Говорят, что событие А не зависит от события В (В≠∅), если имеет место
равенство
Р(А/В) = Р(А),
т.е. наступление события В не изменяет вероятности события А.
Если событие А не зависит от события В, то в силу (4.5) имеет место равенство
Р(А) Р(В/А) = Р(А) Р(В),
откуда следует, что
Р(В/А) = Р(В),
т.е., что В также не зависит от А. Таким образом, при сделанном предположении свойство
независимости событий взаимно.
Если независимость событий А и В определить посредством следующего из (4.5)
равенства
Р(АВ) = Р(А) Р(В),
(4.9)
(вероятность произведения событий равна произведению их вероятностей), то это
определение верно всегда, в том числе и тогда, когда хотя бы одна из вероятностей Р(А),
Р(В) равна нулю.
Обобщим понятие независимости на совокупность, состоящую из 3 событий.
О п р е д е л е н и е. События А, В и С называются независимыми (в
совокупности), если
1) они попарно независимы, т.е. Р(АВ)=Р(А)Р(В), Р(АС)=Р(А)Р(С) и
Р(ВС)=Р(В)Р(С);
2) Р(АВС) = Р(А)Р(В)Р(С).
Заметим, что из попарной независимости не следует независимость в
совокупности.
Обобщая по индукции понятие независимости на совокупность n событий,
получаем следующее

Page 7

О п р е д е л е н и е. События А
1
, А
2
, …, А
n
называются независимыми (в
совокупности), если для любого события А
k
из их числа и любых
m
2
1
i
i
i
A
,...,
A
,
A
(i≠k,
j=1,2,…,m) из их же числа события А
k
и
m
2
1
i
i
i
A
,...,
A
,
A
взаимно независимы. В силу (3.9) это
определение эквивалентно следующему: при любых 1≤I
1
<I
2
<…<I
m
≤n и m (1≤ m ≤ n)
P(
m
2
1
i
i
i
A
...
A
A
) = P(
1
i
A
)P(
2
i
A
)…P(
m
i
A
).
Лекция № 5. Полная группа событий. Формула полной вероятности. Формулы Байеса.
Формула полной вероятности применяется в тех случаях, когда событие А может
произойти только при наступлении одного из несовместных событий (т. н. гипотез).
Напомним, что группа событий Н
1
, Н
2
, …, Н
n
называется полной, если Н
i
Н
j
= ∅
при I ≠ j и Н
1

2
+…+Н
n
= Ω.
Формула полной вероятности. Если Н
1
, Н
2
, …, Н
n
– полная группа событий и все
Р(Н
i
) > 0, то для любого события А ⊂ Ω имеет место формула
Р(А) = ∑
=
n
1
i
Р(Н
i
)Р(А/H
i
).
Д о к а з а т е л ь с т в о. Имеем: А=АΩ=А(Н
1
+…+Н
n
)=АН
1
+…+АН
n
,
причем слагаемые последней суммы несовместны. Тогда по формуле сложения для
несовместных событий Р(А) = Р(АН
1
)+Р(АН
2
)+…+Р(АН
n
).
Применяя к правой части последнего равенства формулу умножения
вероятностей, имеем:
Р(А) = ∑
=
n
1
i
Р(Н
i
)Р(А/H
i
).
Пусть имеет место равенство А = АН
1
+АН
2
+…+АН
n
, где Н
1
, Н
2
, …, Н
n

гипотезы, составляющие полную группу событий. Требуется найти вероятности гипотез,
если известно, что событие А произошло.
Согласно формуле умножения имеем: Р(Н
i
A)=Р(Н
i
)P(A/Н
i
)=P(A)P(Н
i
/A). Отсюда
P(Н
i
/A)=
)A
(P
)
H
/
A(
P)
H(
P
i
i
. Находя знаменатель по формуле полной вероятности, имеем:
P(Н
i
/A)=

=
n
1
j
j
j
i
i
)
H
/
A(
P)
H(
P
)
H
/
A(
P)
H(
P
, i = 1,2,…,n.
Полученные формулы называются формулами Байеса. Общая схема применения
этих формул к решению практических задач такова. Пусть событие А может протекать в
различных условиях, относительно характера которых можно выдвинуть n гипотез Н
1
, Н
2
,
…, Н
n
. По тем или иным причинам нам известны вероятности Р(Н
i
) до испытания.
Известно также, что гипотеза Н
i
сообщает событию вероятность Р(А/Н
i
). Произведем
опыт, в котором событие А наступило. Это должно вызвать переоценку вероятностей
гипотез Н
i
- формулы Байеса количественно решают этот вопрос.
Лекция № 6. Схема Бернулли. Формула Бернулли. Приближенная формула
Пуассона. Локальная и интегральная теоремы Муавра-Лапласа.
О п р е д е л е н и е. Повторные независимые испытания, проводящиеся в
одинаковых условиях, называются испытаниями Бернулли, если в каждом из них
возможны только два исхода: успех (если интересующее нас событие произошло) и
неудача (если оно не произошло), причем вероятность успеха (а следовательно, и неудачи)
не меняется от испытания к испытанию.
Опишем теоретико-вероятностную модель, соответствующую n испытаниям,
проводящимся по схеме Бернулли. Будем обозначать р – вероятность успеха, q –
вероятность неудачи и будем считать, что а
i
– исход I-го испытания, причем а
i
= 1, если в
I-м испытании произошел успех и а
i
= 0, если неудача.

Page 8

Тройка
(Ω,
А,
Р),
где
Ω={ω:
ω=(a
1
,…,a
n
),
a
i
=0;1};
A={A:A⊆Ω};
p(ω)=
)
a
...
a
a(
n
a
...
a
a
n
2
1
n
2
1
q
p
+
+
+

+
+
+
, p+q=1
(6.1)
есть вероятностная модель, отвечающая n независимым испытаниям с двумя исходами,
или схема Бернулли.
Во многих случаях бывает необходимо найти вероятность того, что событие А в n
испытаниях Бернулли наступит ровно m раз, неважно, в каких по счету испытаниях.
Например, найти вероятность m бракованных изделий среди n изделий (если вероятность
брака известна); или вероятность m попаданий при n независимых выстрелах (если
вероятность попадания известна). Для этого применяется
Формула Бернулли. Вероятность того, что в n испытаниях Бернулли произошло
ровно m успехов, равна
P
n
(m) =
m
n
C p
m
q
n – m
,
где р – вероятность успеха, а q = 1 – p – вероятность неудачи (в каждом испытании).
Д о к а з а т е л ь с т в о. В элементарном событии ω (a
1
a
2
,… a
n
) имеем: a
i
=1, если
в i-м испытании произошел успех и a
i
= 0 в противном случае. Обозначим В
m
= {ω: a
1
+
a
2
…+a
n
= m} – событие, состоящее в том, что в n испытаниях Бернулли произошло m
успехов. Так как при ω ∈ В
m
р(ω) = p
m
q
n – m
, то Р(В
m
) = P
n
(m) = p
m
q
n-m
m
n
C , где
m
n
C - число
элементарных событий, входящих в В
m
, т. е. число всевозможных расположений m
успехов среди n испытаний.
О п р е д е л е н и е. Число m
0
наступлений события А (успехов) в n испытаниях
Бернулли называется наивероятнейшим, если вероятность осуществления события P
n
(m
0
)
не меньше вероятностей других событий P
n
(m) при любых m = 0, 1, …, n:
P
n
(m
0
) ≥ P
n
(m), m = 0, 1, …, n.
(6.1)
Вычислим m
0
. Имеем:
m
n
m
1
m
n
1
m
n
n
)p
1(
p!
n
)!1
m
n(
)!1
m
(
)p
1(
p
)!
m
n(
!m
!n
)
m
(
P
)1
m
(
P



+



+


=
+
=
p
1
p
1
m
m
n

+

.
P
n
(m+1) > P
n
(m) при
p
1
p
1
m
m
n

+

>1, т. е. m < np – q;
P
n
(m+1) = P
n
(m) при
p
1
p
1
m
m
n

+

=1, т. е. m = np – q;
P
n
(m+1) < P
n
(m) при
p
1
p
1
m
m
n

+

<1, т. е. m > np – q.
Таким образом, пока m, возрастая, не достигнет величины np-q, мы будем все
время иметь P
n
(m+1)>P
n
(m), т.е. с увеличением числа m вероятность P
n
(m) будет все время
возрастать. Как только число m, возрастая, перешагнет через грань np – q, так вероятность
P
n
(m) начнет убывать и будет убывать до P
n
(n).
Этот вывод прежде всего убеждает, что замеченное на примере поведение
величины P
n
(m) при возрастании числа m (сначала возрастание, затем убывание) является
общим законом, имеющим место во всех случаях. Кроме того, этот вывод позволяет нам
решить задачу о нахождении наивероятнейшего числа успехов m
0
в n испытаниях
Бернулли.
Итак, согласно (6.1), P
n
(m
0
+1)≤P
n
(m
0
), откуда, следуя нашим выводам, m
0
≥np-q.
С другой стороны, согласно (6.1), P
n
(m
0
– 1) ≤ P
n
(m
0
), для чего, следуя нашим
выводам, должно быть m
0
– 1 ≤ np – q, т.е. m
0
≤ np – q + 1 = np + p.
Таким образом, число m
0
должно удовлетворять двойному неравенству
np – q ≤ m
0
≤ np + p.
(6.2)
Итак, (6.2) определяет промежуток (длины 1) в котором лежит (целое) число m
0
.
Если само число np+p целое, то будем иметь два наивероятнейших числа успехов.

Page 9

Т е о р е м а (Пуассон). Если вероятность р наступления события А в каждом из n
независимых испытаний стремится к нулю (р→0) при неограниченном увеличении числа
n испытаний (n→∞), причем произведение np стремится к постоянному числу λ (nр→λ),
то вероятность P
n
(m) того, что событие А появится m раз в n независимых испытаниях,
удовлетворяет предельному равенству


n
lim
P
n
(m) = е
- λ
!m
m
λ
.
(6.3)
Д о к а з а т е л ь с т в о. По формуле Бернулли
P
n
(m) =
!
m
)1
m
n
)...(
1
n(
n
+


p
m
(1 – p)
n
(1 – p)
- m
,
или, учитывая, что


n
lim
np=λ, т.е., (при достаточно больших n) p≈λ/n,
P
n
(m) ≈
!m
m
λ























n
1
m
1
...
n
1
1
1
(1-λ/n)
n
(1-λ/n)
- m
.
Т.к.


n
lim
(1-1/n)=…=


n
lim
(1-(m-1)/n)=1,


n
lim
(1-λ/n)
n
=


n
lim
((1-λ/n)
-n/λ
)



и


n
lim
(1-
λ/n)
-m
=1, то


n
lim
P
n
(m) =е

!m
m
λ
.
Строго говоря, условие теоремы Пуассона р→0 при n→∞, так что nр→λ,
противоречит исходной предпосылке схемы Бернулли, согласно которой вероятность р
наступления события в каждом испытании постоянна. Однако, если вероятность р
постоянна и мала, число испытаний n велико и число λ = np невелико (будем полагать λ ≤
10), то из предельного равенства (6.3) вытекает приближенная формула Пуассона
P
n
(m) ≈ е
- λ
!m
m
λ
.
Локальная теорема Муавра-Лапласа дает асимптотическую формулу, которая
позволяет приближенно найти вероятность появления m успехов в n испытаниях
Бернулли, если число испытаний n достаточно велико. Заметим, что для частного случая
(когда вероятность успеха в каждом испытании р = ½) эта формула была найдена в 1730
году Муавром, в 1783 году Лаплас обобщил формулу Муавра для произвольного р: 0< p <
1. Доказательство локальной и интегральной теорем Муавра-Лапласа достаточно
громоздко, поэтому ограничимся их формулировками и примерами применения.
Л о к а л ь н а я т е о р е м а. Если вероятность р наступления события А в
каждом испытании постоянна и отлична от 0 и 1, то вероятность P
n
(m) того, что событие
А появится m раз в n независимых испытаниях при достаточно большом n приближенно
равна
P
n
(m) ≈









ϕ
npq
np
m
npq
1
,
(6.4)
где
ϕ(х) =
2
/
x
2
e
2
1

π
.
Чем больше n, тем точнее приближенная формула (6.4), называемая локальной
формулой Муавра-Лапласа. Вычисления по этой формуле дают незначительную
погрешность уже при n ≥ 20. Заметим также, что функция ϕ(х) монотонно убывает при
положительных значениях х, причем ϕ(х) → 0 при х → ∞ (практически можно считать,
что ϕ(х)≈0 уже при х>4).
И н т е г р а л ь н а я т е о р е м а. Если вероятность р наступления события А в
каждом испытании постоянна и отлична от 0 и 1, то вероятность того, что число m

Page 10

наступлений события А в n независимых испытаниях заключено в отрезке [m
1
, m
2
], при
достаточно большом n приближенно равна
P
n
(m
1
≤ m ≤ m
2
) ≈









npq
np
m
Ф
2
-









npq
np
m
Ф
1
,
(6.5)
где Ф(х) =




π
x
2
t
dt
e
2
1
2
- функция Лапласа.
Формула (6.5) называется интегральной формулой Муавра-Лапласа. Чем больше
n, тем она точнее: при npq ≥ 20 формула (6.7), также как и (6.6), дает незначительную
погрешность. Функция Ф(х) табулирована. Для применения таблиц необходимо знать
такие свойства функции Ф(х), как то, что Ф(х) + Ф(- х) = 1 и то, что Ф(х) монотонно
возрастает, причем Ф(х) → 1 при х → ∞ (практически можно считать, что Ф(х) ≈ 1 уже
при х > 4).
Лекция № 7. Простая случайная величина: определение, закон распределения,
ряд распределения, функция распределения и ее свойства. Независимость случайных
величин. Математическое ожидание и дисперсия.
О п р е д е л е н и е. Пусть Ω = {ω
1

2
,…,ω
n
} – (конечное) пространство
элементарных событий. Числовая функция ξ=ξ(ω), определенная на Ω, называется
(простой) случайной величиной.
О п р е д е л е н и е. Законом распределения случайной величины называется
любое соотношение, устанавливающее связь между возможными значениями случайной
величины и соответствующими им вероятностями.
В общем случае, т. к. функция ξ определена на конечном множестве, то
множество ее значений есть конечное множество Х = {x
1
, x
2
, …, x
m
}, m ≤ n (последнее
неравенство учитывает то обстоятельство, что некоторые из значений могут приниматься
функцией ξ при разных значениях аргумента – элементарного события ω). Рассмотрим
событие A
i
= {ω∈Ω: ξ(ω) = x
i
}, или (более кратко) A
i
= {ξ = x
i
}, обозначим его
вероятность Р(A
i
) = р
i
.
Соответствие между x
i
и р
i
при всех i=1,2,…,m есть закон распределения
вероятностей случайной величины ξ. Это соответствие можно наглядно выписать в виде
таблицы
ξ
x
1
х
2

x
m
р
р
1
p
2

p
m
которая называется рядом распределения случайной величины ξ. Очевидно, что всегда р
1
+…+ р
m
= 1.
О п р е д е л е н и е. Пусть ξ - случайная величина и х – произвольное
действительное число. Вероятность того, что ξ примет значение, не превосходящее х,
называется функцией распределения случайной величины ξ (обозначается F
ξ
(x)):
F
ξ
(x) = P{ξ ≤ x}.
Приведем некоторые свойства функций распределения.
1. 0≤ F
ξ
(x) ≤ 1.
Это свойство очевидно, т. к. функция распределения по определению есть
вероятность.
2. Р{x
1
< ξ ≤ x
2
} = F
ξ
(x
2
) – F
ξ
(x
1
).
Действительно, справедливо представление {ξ ≤ x
2
} = {ξ ≤ x
1
} + {x
1
< ξ ≤ x
2
}, где
события, стоящие в правой части, несовместны. Тогда Р{ξ ≤ x
2
} = Р{ξ ≤ x
1
} + Р{x
1
< ξ ≤
x
2
}, т. е. F
ξ
(x
2
) = F
ξ
(x
1
) + Р{x
1
< ξ ≤ x
2
}.
3. Функция распределения – неубывающая, т. Е. F
ξ
(x
1
) ≤ F
ξ
(x
2
) при x
1
≤ x
2
.

Page 11

Пусть x
1
≤ x
2
. Из доказательства свойства 2 имеем: F
ξ
(x
2
) = F
ξ
(x
1
) + Р{x
1
< ξ ≤ x
2
}≥
F
ξ
(x
1
), т. к. вероятность неотрицательна.
Приведем без доказательства еще два свойства:
4. Функция распределения непрерывна справа.
5. F
ξ
(x) → 0 при х → - ∞; F
ξ
(x) → 1 при х → + ∞.
Любая функция, удовлетворяющая свойствам 1, 3, 4, 5 может являться функцией
распределения какой-то случайной величины.
Введем понятие независимости случайных величин. Две случайные величины
являются независимыми, если закон распределения одной из них не меняется в
зависимости от того, какие возможные значения принимает другая. Так, если случайная
величина ξ может принимать значения х
1
, х
2
, …, х
m
, а случайная величина η - y
1
,y
2
,…,y
k
,
то независимость случайных величин ξ и η есть независимость событий А
i
={ξ=x
i
} и
В
j
={η=y
j
} при любых i, j из множества принимаемых ими значений. Как известно,
независимость событий А
i
и В
j
есть выполнение равенства Р(А
i
В
j
) = Р(А
i
)Р(В
j
). Итак,
О п р е д е л е н и е. Случайная величина ξ, принимающая значения х
1
, х
2
, …, х
m
, и
случайная величина η, принимающая значения y
1
, y
2
,…, y
k
, называются независимыми,
если для любых I = 1,2,…,m и j = 1,2,…,k
Р{ξ = x
i
, η = y
j
} = Р{ξ = x
i
}Р{η = y
j
}.
В общем случае дадим
О п р е д е л е н и е. Пусть ξ
1
,…, ξ
r
– некоторый набор случайных величин,
принимающих значения в (конечном) множестве Х из множества действительных чисел.
Случайные величины ξ
1
,…, ξ
r
называются независимыми (в совокупности), если для
любых x
1
,…,x
r
∈X
P{ξ
1
= x
1
, …, ξ
r
= x
r
} = P{ξ
1
= x
1
}…P{ξ
r
= x
r
}.
Пусть (Ω, А, Р) – (конечное) вероятностное пространство и ξ= ξ(ω) – случайная
величина, принимающая значения в множестве Х = {x
1
, …, x
m
}. Пусть, далее, ее
распределение задано таблицей
ξ
x
1
х
2

x
m
р
р
1
p
2

p
m
О п р е д е л е н и е. Математическим ожиданием, или средним значением
случайной величины ξ называется число Мξ = ∑
=
m
1
i
x
i
p
i
.
Основные свойства математического ожидания следующие (а и b – константы).
1) Математическое ожидание постоянной величины равно самой постоянной:
М(с) = с.
2) М(aξ + bη) = aМξ + bМη (линейность).
3) Если ξ и η независимы, то Мξη = МξМη.
4) Если ξ ≥ 0, то Мξ ≥ 0.
5) Если ξ ≥ η, то Мξ ≥ Мη (монотонность).
6) Мξ≤ Mξ.
Приведем без доказательства еще один факт (относительно вычисления
математического ожидания функции от случайной величины). Пусть f(x) – произвольная
числовая функция, определенная на множестве действительных чисел. Тогда
Мf(ξ) = ∑
=
m
1
i
f(x
i
) p
i
.
О п р е д е л е н и е. Дисперсией случайной величины ξ называется математическое
ожидание квадрата ее отклонения от математического ожидания, т. е. число
Dξ = M(ξ - Mξ)
2
.
З а м е ч а н и е. Дисперсия всегда неотрицательна как среднее значение квадрата.
Используя свойства математического ожидания, имеем: Dξ = M(ξ - Mξ)
2
= M(ξ
2

2ξMξ + (Mξ)
2
) = M(ξ
2
) – (Mξ)
2
, т. е.

Page 12

Dξ = M(ξ
2
) – (Mξ)
2
О п р е д е л е н и е. Величина σ
ξ
=
ξ
D
называется среднеквадратическим или
стандартным отклонением случайной величины ξ.
Приведем некоторые основные свойства дисперсии
1) Постоянный множитель можно выносить за знак дисперсии, возведя его в
квадрат: D(cξ) = с
2
Dξ.
2) Добавление к случайной величине постоянной не меняет ее дисперсии: D(c + ξ)
= Dξ.
3) Дисперсия суммы или разности независимых случайных величин равна сумме
их дисперсий: D(ξ ± η) = Dξ + Dη.
О п р е д е л е н и е. Ковариацией случайных величин ξ и η называется число
cov(ξ, η) = М(ξ - Мξ)(η - Мη).
Оп р е д е л е н и е. Если Dξ > 0, Dη > 0, то число ρ(ξ, η) =
η
ξ
η
ξ
D
D
)
,
cov(
называется
коэффициентом корреляции случайных величин ξ и η.
Можно показать, что |ρ(ξ, η)| ≤ 1 и если |ρ(ξ, η)| = 1, то ξ и η линейно зависимы.
Лекция № 8. Дискретные случайные величины: ряд распределения, функция
распределения, мат. ожидание и дисперсия. Непрерывные случайные величины:
плотность распределения, функция распределения, математическое ожидание и
дисперсия.
Пусть (Ω, А, Р) – произвольное (не обязательно конечное) вероятностное
пространство. Теперь уже случайной величиной мы будем называть не любую числовую
функцию ξ = ξ(ω).
О п р е д е л е н и е. Числовая функция ξ = ξ(ω) от элементарного события ω∈Ω
называется случайной величиной, если для любого действительного числа х существует
вероятность события
{ω ∈ Ω: ξ(ω) ≤ x} = {ξ ≤ x}.
(8.1)
Так же, как и в конечном случае, функция F
ξ
(x)=P{ξ≤x}, определенная при всех
х∈R, есть функция распределения случайной величины ξ (свойства функции
распределения те же, что и в конечном случае).
О п р е д е л е н и е. Дискретной называется случайная величина, множество
значений которой конечно или счетно.
Ряд распределения дискретной случайной величины есть таблица (заметим, что, в
отличие от ряда распределения простой случайной величины, она может иметь
бесконечное множество колонок)
ξ
x
1
х
2

р
р
1
p
2

Функция распределения дискретной случайной величины есть F
ξ
(x)=P{ξ≤x}
=

≤x
x:
i
i
i
p .
Математическое ожидание дискретной случайной величины есть число (если ряд
сходится абсолютно)
Мξ =


=1
i
x
i
p
i
.
Дисперсия дискретной случайной величины, как и для простой случайной
величины, есть число
Dξ = M(ξ - Mξ)
2
.

Page 13

О п р е д е л е н и е. Непрерывной называется случайная величина ξ, для которой
при любых действительных a < b выполнено равенство
Р{a ≤ ξ ≤ b} =

ξ
b
a
dx
)x
(
p
,
где р
ξ
(х) – некоторая неотрицательная интегрируемая функция, такая что

+∞


ξ
dx
)x
(
p
=1,
называемая плотностью вероятности случайной величины ξ.
Если ξ - непрерывная случайная величина, то ее функция распределения F
ξ
(x)
=



ξ
x
dt
)t(
p
, и наоборот, плотность вероятности р
ξ
(х) = F′
ξ
(x) (в точках существования
производной функции распределения). В связи с этим заметим, что Р{a ≤ ξ ≤ b} = F
ξ
(b) –
F
ξ
(a) (следуя формуле Ньютона – Лейбница, известной из математического анализа).
Таким образом, непрерывная случайная величина может задаваться плотностью
вероятности или функцией распределения.
Математическое ожидание непрерывной случайной величины есть число
Мξ =

+∞


ξ
dx
)x
(
xp
,
если интеграл сходится абсолютно.
Дисперсия для непрерывной случайной величины определяется так же, как и для
дискретной:
Dξ = M(ξ - Mξ)
2
.
Свойства математических ожиданий и дисперсий дискретных и непрерывных
случайных величин те же, что и в конечном случае.
Случайные величины ξ
1
,…, ξ
r
, заданные на произвольном пространстве
элементарных событий и принимающие значения в множестве Х⊆R, называются
независимыми (в совокупности), если для любых x
1
,…, x
r
∈R
P{ξ
1
≤ x
1
, …, ξ
r
≤ x
r
} = P{ξ
1
≤ x
1
}…P{ξ
r
≤ x
r
}.
Лекция № 9. Виды распределений: биномиальное; Пуассона; геометрическое;
равномерное на отрезке; показательное; нормальное.
Закон больших чисел и центральная предельная теорема.
Рассмотрим некоторые виды распределений дискретных и непрерывных
случайных величин, наиболее часто встречающиеся на практике.
1. Биномиальный закон распределения. Дискретная случайная величина ξ имеет
биномиальный закон распределения, если она принимает значения m = 0, 1, …, n с
вероятностями (0< p<1, q =1– p)
Р{ξ = m} =
m
n
C p
m
q
n – m
.
Видно, что вероятности Р{ξ = m} находятся по формуле Бернулли.
Следовательно, биномиальный закон распределения представляет собой закон
распределения числа ξ = m наступлений события А в n независимых испытаниях, в
каждом из которых оно может произойти с одной и той же вероятностью р.
Mξ = np, Dξ = npq.
2. Закон распределения Пуассона. Дискретная случайная величина ξ имеет закон
распределения Пуассона, если она принимает значения m = 0, 1, … с вероятностями (λ > 0
– параметр)
Р{ξ = m} = е
- λ
!m
m
λ
.

Page 14

Mξ = Dξ = λ.
3. Геометрическое распределение. Дискретная случайная величина ξ имеет
геометрическое распределение, если она принимает значения m = 1, 2,… с вероятностями
(0 < p < 1, q = 1 – p)
Р{ξ = m} = pq
m-1
.
Mξ=1/p, Dξ = q/p
2
.
4. Равномерный закон распределения. Непрерывная случайная величина ξ имеет
равномерный закон распределения на отрезке [a, b], если ее плотность вероятности р
ξ
(х)
постоянна на этом отрезке и равна нулю вне его, т.е.
Р
ξ
(х) =



>
<



b.
x
a,
x
при
0
b,
x
a
при
)a
b
/(
1
Mξ = (a + b)/2, Dξ = (b – a)
2
/12.
5. Показательный (экспоненциальный) закон распределения. Непрерывная
случайная величина ξ имеет показательный закон распределения с параметром λ, если ее
плотность вероятности есть
р
ξ
(х) =



<

λ
λ

0.
x
при
0
,0
x
при
e
x
Mξ = 1/λ, Dξ =1/λ
2
.
6. Нормальный закон распределения. Непрерывная случайная величина ξ имеет
нормальный закон распределения (закон Гаусса) с параметрами а и σ
2
(ξ ∼N(а, σ
2
)), если
ее плотность вероятности есть
р
ξ
(х) =
(
)
2
2
2
a
x
e
2
1
σ


π
σ
.
Математическое ожидание и дисперсия нормальной случайной величины есть а и
σ
2
соответственно.
Под законами больших чисел понимают всю совокупность предложений,
утверждающих с вероятностью, сколь угодно близкой к единице, что наступит некоторое
событие, зависящее от неограниченно увеличивающегося числа случайных событий,
каждое из которых оказывает на него только незначительное влияние.
Неравенство Чебышева. Для любого ε > 0 справедливо
Р{| ξ | > ε} ≤ Mξ
2

2
.
С л е д с т в и е. Для любой случайной величины ξ, имеющей конечную
дисперсию Dξ, при любом ε > 0 имеет место неравенство
Р{| ξ - Мξ | > ε} ≤ Dξ/ε
2
.
Т е о р е м а (Чебышев). Если ξ
1
, ξ
2
,… - последовательность попарно независимых
случайных величин, имеющих конечные дисперсии, ограниченные одной и той же
константой:

1
≤ c, Dξ
2
≤ c,…,
то для любого ε > 0
.1
M
n
1
n
1
P
lim
n
1
i
i
n
1
i
i
n
=






ε
<
ξ

ξ


=
=


Результат теоремы Чебышева называется законом больших чисел и играет
существенную роль в теории обработки измерений.
Интегральная предельная теорема Муавра – Лапласа послужила источником
большого цикла исследований, имеющих фундаментальное значение для теории
вероятностей и ее приложений. Придадим этой теореме несколько иную форму. Пусть µ
k
– число наступлений события А в k-м испытании Бернулли, тогда µ = ∑
=
µ
n
1
i
k
- число

Page 15

наступлений события А в n испытаниях. При доказательстве теоремы Бернулли мы
показали: Мµ
k
= р, Dµ
k
= pq, тогда Мµ = np, Dµ = npq и теорема Муавра – Лапласа может
быть записана следующим образом:
Р




π












µ
µ

µ

b
a
2
/
t
n
dt
e
2
1
b
D
M
a
2
.
Возникает вопрос: насколько тесно связано это соотношение со специальным
выбором слагаемых µ
k
, не будет ли оно выполняться и при более слабых ограничениях на
функции распределения слагаемых? Постановка этой задачи и ее решение – в основном
дело Чебышева и его учеников Маркова и Ляпунова. Их исследования показали, что на
слагаемые следует наложить лишь самые слабые ограничения, смысл которых в том, что
отдельные слагаемые должны оказывать незначительное влияние на сумму. Причины, по
которым эти результаты приобрели огромное значение для приложений, лежат в самом
существе массовых явлений, изучение закономерностей которых и составляет предмет
теории вероятностей.
Одной из важнейших схем, по которой идет использование результатов теории
вероятностей в естествознании и технике, состоит в следующем. Считают, что процесс
протекает под влиянием большого числа независимо действующих случайных факторов,
каждый из которых лишь ничтожно мало изменяет течение процесса. Исследователь,
интересующийся изучением процесса в целом, а не действием отдельных факторов,
наблюдает лишь суммарное действие этих факторов.
Итак,
результат
теоремы
Чебыщева
при
a
=
-
∞,
b
=
x:
Р






π












µ
µ

µ
x
2/
t
n
dt
e
2
1
x
D
M
2
является частным случаем так называемой центральной предельной теоремы. Пусть ξ
1
, ξ
2
,
…- последовательность независимых случайных величин. Говорят, что для этой
последовательности выполняется центральная предельная теорема, если при любом х
справедливо предельное соотношение для сумм ζ
n
= ξ
1
+ ξ
2
+ … + ξ
n
:
Р






π












ζ
ζ

ζ
x
2/
t
n
n
n
n
dt
e
2
1
x
D
M
2
.
Для справедливости центральной предельной теоремы (9.6) на случайные
величины ξ
1
, ξ
2
, … надо налагать те или иные дополнительные условия. Приведем
центральную предельную теорему для независимых одинаково распределенных
случайных величин.
Т е о р е м а. Если случайные величины ξ
1
, ξ
2
, … независимы, одинаково
распределены и имеют конечные Мξ
I
= a и Dξ
I
= σ
2
> 0, то
Р






π








σ

ξ
+
+
ξ
x
2/
t
n
n
1
dt
e
2
1
x
n
na
...
2
.
Лекция № 10. Предмет математической статистики. Основные задачи
математической статистики. Генеральная совокупность и выборка. Выборочный
метод.
Основная задача математической статистики – получение выводов о массовых
явлениях и процессах по данным наблюдений над ними или экспериментов. Эти
статистические выводы относятся не к отдельным испытаниям, а представляют собой
утверждения об общих характеристиках изучаемого явления – вероятностях, законах
распределения и их параметрах, математических ожиданиях и дисперсиях и др. – в
предположении о постоянстве условий, порождающих явление.

Page 16

Содержание математической статистики составляет разработка приемов
статистического наблюдения и анализа статистических данных. Исходным материалом
для статистического исследования реального явления служит набор результатов
наблюдений над ними или же результатов специально поставленных испытаний. Укажем
некоторые основные вопросы, которые при этом возникают.
1. О ц е н к а з н а ч е н и я н е и з в е с т н о й в е р о я т н о с т и с л у ч а й н о г о с о
б ы - т и я.
2. О п р е д е л е н и е н е и з в е с т н о й ф у н к ц и и р а с п р е д е л е н и я. Задача
ставится так: в результате n независимых испытаний над случайной величиной ξ
получены ее значения х
1
, х
2
, …, х
n
. Требуется определить, хотя бы приближенно,
неизвестную функцию распределения F
ξ
(x) величины ξ.
3. О п р е д е л е н и е н е и з в е с т н ы х п а р а м е т р о в р а с п р е д е л е- н и я. Часто
общетеоретические соображения позволяют сделать достаточно определенные
заключения о типе функции распределения интересующей нас случайной величины. Так,
например, центральная предельная теорема дает возможность считать, что в
определенных случаях функция распределения должна быть нормальной. При этом
определение неизвестной функции распределения сводится к определению по результатам
наблюдений только неизвестных значений параметров а и σ
2
. Общая задача ставится так:
случайная величина ξ имеет функцию распределения определенного вида, зависящую от k
параметров, значения которых неизвестны. На основании последовательных наблюдений
величины ξ нужно найти значения этих параметров.
4. П р о в е р к а с т а т и с т и ч е с к и х г и п о т е з. Задача ставится так: на основании
некоторых соображений можно считать, что функция распределения случайной величины
ξ есть F
ξ
(x); спрашивается, совместимы ли наблюденные значения с гипотезой, что ξ
действительно имеет распределение F
ξ
(x)?
В практике статистических наблюдений различают два основных вида
наблюдений: сплошное, когда изучаются все элементы интересующей исследователя
совокупности, и выборочное, когда изучается часть элементов. Вся подлежащая изучению
совокупность называется генеральной совокупностью. Та часть объектов, которая
отобрана для непосредственного изучения из генеральной совокупности, называется
выборкой. Количества объектов в генеральной совокупности или выборке называются их
объемами. Генеральная совокупность может иметь как конечный, так и бесконечный
объем. Выборку можно рассматривать как некий эмпирический аналог генеральной
совокупности. Сущность выборочного метода состоит в том, чтобы по некоторой части
генеральной совокупности (выборке) выносить суждения о ее свойствах в целом.
Преимущества выборочного метода по сравнению со сплошным:

Позволяет существенно экономить затраты (материальные, трудовые, временные).

Является единственно возможным в случае бесконечной генеральной совокупности
и в случае, когда исследование связано с ликвидацией изучаемых объектов (напр.,
дегустация вина).

При тех же затратах дает возможность углубленного исследования.

Позволяет снизить ошибки регистрации, т. е. расхождения между истинными и
зарегистрированными значениями признака.
Основной недостаток выборочного метода – ошибки исследования, или ошибки
репрезентативности (см. ниже). Однако ошибки, возникающие при применении
выборочного метода в связи с изучением только части объектов, могут быть заранее
оценены и при правильной организации выборки сведены к минимуму, тогда как
сплошное наблюдение часто приводит к тому, что каждое отдельное наблюдение
проводится с меньшей точностью (экономия затрат!). А это уже приводит к
неустранимым ошибкам и снижению точности сплошного наблюдения по сравнению с
выборочным.

Page 17

Чтобы по данным выборки иметь возможность судить о генеральной
совокупности, она должна быть отобрана случайно. Случайность отбора элементов в
выборку достигается соблюдением принципа равной возможности всем элементам
генеральной совокупности быть отобранными в выборку. На практике это достигается
тем, что извлечение элементов в выборку проводится путем лотереи или с помощью
случайных чисел, вырабатываемых ЭВМ.
Выборка называется репрезентативной (представительной), если она достаточно
хорошо воспроизводит генеральную совокупность.
Два способа образования выборки:
I. Повторный выбор (выбор с возвращением): каждый случайно выбранный из
генеральной совокупности элемент после проведенного исследования возвращается в
генеральную совокупность.
II. Бесповторный выбор (выбор без возвращения): каждый случайно выбранный из
генеральной совокупности элемент после проведенного исследования уже не
возвращается в генеральную совокупность.
Математическая теория выборочного метода основывается на анализе
собственно-случайной выборки, т. е. выборки, образованной случайным выбором
элементов без расчленения генеральной совокупности на части или группы.
В математической статистике понятие генеральной совокупности трактуется как
совокупность всех мыслимых наблюдений, которые могли бы быть произведены при
данном реальном комплексе условий, и в этом смысле ее не следует смешивать с
реальными совокупностями, подлежащими статистическому изучению. Понятие
генеральной совокупности в определенном смысле аналогично понятию случайной
величины, так как полностью обусловлено комплексом условий.
О п р е д е л е н и е. Все множество значений подлежащей исследованию
случайной величины называется генеральной совокупностью.
Выборка в математической статистике – это несколько значений исследуемой
случайной величины.
О п р е д е л е н и е. Последовательность наблюдений х
1

2
,…,х
n
называется
(случайной) выборкой объема n, если х
1
, х
2
,…, х
n
получены как независимые реализации
некоторой случайной величины ξ с функцией распределения F
ξ
(x).
При этом также говорят, что х
1
, х
2
,…, х
n
есть выборка из генеральной
совокупности ξ. С теоретико-вероятностной точки зрения случайная выборка х
1
, х
2
,…,х
n
может рассматриваться как последовательность независимых случайных величин,
имеющих одну и ту же функцию распределения F
ξ
(x).
Лекция № 11. Вариационный и статистический ряды. Эмпирическая функция
распределения как оценка функции распределения генеральной совокупности.
Гистограмма как оценка плотности распределения генеральной совокупности.
О п р е д е л е н и е. Последовательность выборочных значений, записанных в
порядке возрастания, называется вариационным рядом.
Пусть из генеральной совокупности извлечена выборка объема n:
43
42
1
43
42
1
43
42
1
раз
n
k
k
k
раз
n
2
2
2
раз
n
1
1
1
k
2
1
z
,...,
z,
z
;...;
z
,...,
z,
z;
z
,...,
z,
z
(n
1
+ n
2
+…+ n
k
= n).
О п р е д е л е н и е. Различные выборочные значения z
1
, z
2
,…,z
k
называются
вариантами, числа n
1
, n
2
,…n
k
– их частотами (сумма частот равна объему выборки), а
числа w
1
= n
1
/n, w
2
= n
2
/n,…, w
k
= n
k
/n – их относительными частотами (сумма
относительных частот равна единице).
П р и м е р 11.1. Из генеральной совокупности извлечена выборка объема 10: 8, 8,
7, 8, 9, 2, 1, 2, 2, 3. Записать ее в виде вариационного ряда.
Р е ш е н и е. Требуемый вариационный ряд имеет вид: 1, 2, 2, 2, 3, 7, 8, 8, 8, 9.
О п р е д е л е н и е. Таблица вида

Page 18

Табл. 11.1
z
i
z
1
z
2

z
k
n
i
n
1
n
2

n
k
где в верхней строке выписаны варианты, а в нижней – их частоты, называется
статистическим рядом.
Иногда статистическим рядом (или рядом относительных частот) называют
таблицу вида
z
i
z
1
z
2

z
k
w
i
w
1
w
2

w
k
где в нижней строке выписаны относительные частоты.
З а м е ч а н и е. Последний статистический ряд в математической статистике –
аналог ряда распределения дискретной случайной величины генеральной совокупности),
где вместо вероятностей p
i
значений случайной величины стоят относительные частоты w
i
вариант (выборочных значений случайной величины).
П р и м е р 11.2. Построить статистический ряд для выборки из примера 11.1.
Р е ш е н и е. Искомым рядом будет
х
i
1
2
3
7
8
9
n
i
1
3
1
1
3
1
Контроль: сумма частот равна объему выборки (1+3+1+1+3+1=10).
О п р е д е л е н и е. Функцию F
n
(x) = m / n, где n – объем выборки, а m – число
значений x
i
в выборке, не превосходящих х, называют эмпирической функцией
распределения.
В отличие от эмпирической функции распределения F
n
(x), полученной на
основании выборочных значений генеральной совокупности (случайной величины ξ),
функцию распределения всей генеральной совокупности F
ξ
(x) называют теоретической
функцией распределения. Различие этих двух функций в том, что F
ξ
(x) есть вероятность
события {ξ ≤ x}, а F
n
(x) – относительная частота того же события. Из теоремы Бернулли
следует, что при больших n числа F
n
(x) и F
ξ
(x) мало отличаются друг от друга в том
смысле, что для любого положительного числа ε выполняется: Р{|F
n
(x) –F
ξ
(x)| < ε} → 1
при n → ∞. Это подтверждается и тем, что эмпирическая функция распределения обладает
свойствами, аналогичными свойствам теоретической. Перечислим некоторые из них:
1) Значения эмпирической функции распределения принадлежат отрезку [0,1]: 0
≤ F
n
(x) ≤ 1.
2) F
n
(x) – неубывающая функция, ее график имеет ступенчатый вид.
3) Если z
1
– наименьшая варианта, то F
n
(x) = 0 при х < z
1
; если z
k
– наибольшая
варианта, то F
n
(x) = 1 при x ≥ z
k
.
Дадим определение одного из основных понятий математической статистики –
оценки, или статистики.
О п р е д е л е н и е. Пусть х
1

2
,…,х
n
– выборка. Любая функция от выборочных
значений х
1

2
,…,х
n
называется оценкой (той или иной характеристики генеральной
совокупности).
Итак, эмпирическая функция распределения F
n
(x) может служить оценкой по
выборке для (неизвестной) теоретической функции распределения F
ξ
(x) генеральной
совокупности.
Если изучаемая случайная величина ξ (генеральная совокупность) непрерывна, то
для оценки ее неизвестной плотности вероятности р
ξ
(x) целесообразно использовать т. н.
гистограмму.
Итак, пусть ξ - непрерывная случайная величина с неизвестной плотностью
вероятности р
ξ
(x). Для получения оценки р
ξ
(x) по выборке х
1
, х
2
, …, х
n
разобьем область
значений ξ на интервалы h
i
(i = 1, 2, …,s). Обозначим через х
i
* середины интервалов, а
через ν
I
– число элементов выборки, попавших в интервал h
i
. Тогда р
ξ
(x
i
) ≈ ν
i
/(nh
i
) (i = 1, 2,

Page 19

…, s) и величина ν
i
/(nh
i
) – оценка плотности вероятности в точке х
i
*. В прямоугольной
системе координат построим прямоугольники с основаниями h
i
и высотами ν
i
/(nh
i
).
Полученная таким образом фигура называется гистограммой (относительных частот)
выборки.
З а м е ч а н и е. Как легко подсчитать, площадь полученной ступенчатой фигуры
равна единице. Это аналог того факта из теории вероятностей, что интеграл от плотности
вероятности любой непрерывной случайной величины равен единице.
Лекция № 12. Основные выборочные характеристики: выборочное среднее как оценка
математического ожидания генеральной совокупности и выборочная дисперсия как
оценка дисперсии генеральной совокупности.
Пусть имеется (повторная) выборка объема n из генеральной совокупности, т.е. N
независимых одинаково распределенных случайных величин х
1
, х
2
, …, х
n
(или n
независимых реализаций случайной величины ξ - генеральной совокупности) с функцией
распределения F
ξ
(x).
О п р е д е л е н и е. Выборочным средним (обозначается
__
x
) называется среднее
арифметическое выборочных значений:
__
x =

=
n
1
i
i
x
n
1
.
З а м е ч а н и е. Если выборка записана в виде статистического ряда (см. табл.
11.1), то выборочное среднее вычисляется как
__
x =

=
k
1
i
i
i
n
z
n
1
.
Запишем последнюю формулу в виде(w
i
-относительная частота варианты z
i
)
__
x = z
1
n
1
/n + z
2
n
2
/n + …+ z
k
n
k
/n = z
1
w
1
+ z
2
w
2
+…+ z
k
w
k
.
При больших n (в силу закона больших чисел в форме Бернулли) относительные
частоты значений z
i
близки к их вероятностям p
i
: w
i
≈ p
i
, и мы получаем:
__
x
≈ z
1
p
1
+ z
2
p
2
+…+ z
k
p
k
= Mξ,
где ξ - (дискретная) случайная величина, представленная выборкой.
Итак, в качестве оценки математического ожидания Mξ генеральной совокупности
можно взять выборочное среднее
__
x .
Выборочное среднее, найденное по данным одной выборки, есть, очевидно,
определенное число. Если же извлекать другие выборки того же объема из генеральной
совокупности, то выборочное среднее будет меняться от выборки к выборке. Таким
образом, выборочное среднее можно рассматривать как случайную величину, а
следовательно, говорить о ее распределении (теоретическом и эмпирическом) и их
числовых характеристиках, в частности, математическом ожидании и дисперсии.
В качестве оценки для дисперсии изучаемой случайной величины (генеральной
совокупности) по выборочным данным берут т. н. Выборочную дисперсию.
О п р е д е л е н и е. Выборочной дисперсией (обозначается обычно s
2
) называется
среднее арифметическое квадратов отклонений выборочных значений от выборочного
среднего:
s
2
=

=

n
1
i
2
__
i
)x
x(
n
1
.
З а м е ч а н и е. Если выборка записана в виде статистического ряда (см. табл. 8.1),
то выборочная дисперсия вычисляется как
s
2
=

=

k
1
i
i
2
__
i
n
)x
z(
n
1
.

Page 20

Отметим, что, как и в случае с выборочным средним, последняя формула – это
аналог теоретико-вероятностной формулы для вычисления дисперсии (дискретной)
случайной величины.
З а м е ч а н и е. Обычно (ниже будет показано, почему) в практике статистических
вычислений вместо s
2
используют оценку
s
1
2
=

=


n
1
i
2
__
i
)x
x(
1
n
1
или (для статистического ряда)
s
1
2
=

=


k
1
i
i
2
__
i
n
)x
z(
1
n
1
,
называемую исправленной выборочной дисперсией.
О п р е д е л е н и е. Выборочным среднеквадратическим отклонением
(стандартным отклонением, обозначается s) называется квадратный корень из выборочной
дисперсии: s =
2
s
.
Пусть при проведении некоторого опыта наблюдаются две случайные величины ξ
и η. Тогда n независимых повторений опыта дадут n пар наблюдавшихся значений (x
1
,y
1
),
(x
2
,y
2
), …,(x
n
,y
n
) (x
i
– выборочные значения ξ, y
i
–выборочные значения η).
О п р е д е л е н и е. Выборочной ковариацией случайных величин ξ и η называется
число
Cov(ξ,η) =




=
=
=
=

=


n
1
i
n
1
i
i
n
1
i
i
n
1
i
i
i
i
i
y
n
1
x
n
1
y
x
n
1
)y
y
)(
x
x(
n
1
.
Выборочная ковариация, как следует из ее названия, служит оценкой по выборке
ковариации случайных величин ξ и η (генеральной ковариации) и является выборочной
характеристикой их линейной связи.
О п р е д е л е н и е. Выборочным коэффициентом корреляции случайных величин
ξ и η называется число r(ξ,η) =
η
ξ
η
ξ
s
s
)
,(
Cov
, где s
ξ
, s
η
- выборочные среднеквадратические
отклонения случайных величин ξ и η (соответственно).
Выборочный коэффициент корреляции служит оценкой по выборке коэффициента
корреляции случайных величин ξ и η (генерального коэффициента корреляции) и
является выборочной характеристикой тесноты линейной связи между случайными
величинами ξ и η.
Лекция № 13. Точечные оценки параметров распределения
Предположим, что функция распределения случайной величины ξ (генеральной
совокупности), представленной выборкой х
1

2
,…,х
n
, зависит от неизвестного параметра
θ: F
ξ
(x) = F
ξ
(x; θ). Например, это параметр λ в распределении Пуассона с плотностью р
ξ
(х)
= λе
-λх
или параметры а и σ
2
в нормальном законе распределения с плотностью р
ξ
(х) =
(
)
2
2
2
a
x
e
2
1
σ


π
σ
и т. д.
О п р е д е л е н и е. Точечной оценкой
n

θ
параметра θ называют любую функцию
от выборочных значений х
1
, х
2
, …, х
n
;
n

θ
=
n

θ

1
, х
2
, …, х
n
).
Поскольку х
1
, х
2
, …, х
n
– случайные величины, то и
n

θ
- случайная величина,
зависящая от закона распределения случайной величины ξ и числа n (в отличие от
оцениваемого параметра θ - величины неслучайной, детерминированной).

Page 21

Всегда существует множество функций от результатов наблюдений х
1
, х
2
,…, х
n
(от n экземпляров случайной величины ξ), которые можно предложить в качестве оценки
параметра θ. Какими свойствами должна обладать оценка
n

θ
, чтобы в каком-либо смысле
быть «доброкачественной» оценкой?
Рассмотрим наиболее важные свойства оценок.
О п р е д е л е н и е. Оценка
n

θ
параметра θ называется несмещенной, если ее
математическое ожидание равно оцениваемому параметру:
М
n

θ
= θ.
В противном случае оценка называется смещенной.
Если это равенство не выполняется, то оценка
n

θ
, полученная по разным
выборкам, будет в среднем либо завышать значение θ (если М
n

θ
> θ), либо занижать его
(если М
n

θ
< θ). Таким образом, требование несмещенности гарантирует отсутствие
систематических ошибок при оценивании.
Заметим, что
__
x и s
1
2
являются несмещенными оценками математического
ожидания и дисперсии (соответственно) генеральной совокупности ξ, представленной
выборкой х
1

2
,…,х
n
, в то время как оценка s
2
смещена.
О п р е д е л е н и е. Оценка
n

θ
параметра θ называется состоятельной, если она
удовлетворяет закону больших чисел, т. е. для любого ε > 0
.1
P
lim
n
n
=






ε
<
θ

θ



О п р е д е л е н и е. Оценка
n

θ
(из данного класса оценок) параметра θ называется
эффективной (в данном классе), если она имеет наименьшее по классу
среднеквадратическое отклонение М(
n

θ
-θ)
2
от оцениваемого параметра.
Можно показать, что
__
x - эффективная оценка для Mξ.
Одним из основных методов нахождения точечных оценок неизвестных
параметров распределения является метод максимального правдоподобия, предложенный
Р. Фишером.
Пусть ξ - дискретная случайная величина, представленная выборкой х
1
,…,х
n
и
пусть вероятность Р(ξ=х
i
) (i=1,…,n) есть функция от θ: Р(ξ=х
i
)=P(х
i
; θ), где θ -
неизвестный параметр распределения.
О п р е д е л е н и е. Функцией правдоподобия (для выборки х
1
,…,х
n
) называется
функция аргумента θ
L (θ) = L(х
1
, х
2
,…, х
n
; θ) = P(х
1
; θ) P(х
2
; θ)… P(х
n
; θ).
За точечную оценку
n

θ
параметра θ берут такое его значение, при котором
функция правдоподобия достигает максимума.
Функции L и lnL достигают максимума при одном и том же значении θ, поэтому
вместо максимума функции L ищут (что удобнее) максимум функции lnL.
Если ξ - непрерывная случайная величина, имеющая плотность вероятности р
ξ
(х)
= р
ξ
(х; θ), то функция правдоподобия есть
L(х
1
, х
2
,…, х
n
; θ) = р
ξ

1
; θ) р
ξ

2
; θ)… р
ξ

n
; θ).
Естественность подобного подхода к определению статистических оценок
вытекает из смысла функции правдоподобия, которая при каждом фиксированном
значении параметра θ является мерой правдоподобности получения наблюдений х
1
, х
2
,…,

Page 22

х
n
. И оценка
n

θ
такова, что имеющиеся наблюдения являются наиболее
правдоподобными.
Лекция № 14. Интервальные оценки параметров распределения. Метод
доверительных интервалов. Доверительные интервалы для математического
ожидания нормальной генеральной совокупности в случае известной и неизвестной
дисперсии.
Нами рассмотрены оценки параметров генеральной совокупности одним числом,
т. е. Мξ - числом
__
x
, Dξ - числом s
2
и т. д. – точечные оценки. Однако точечная оценка
n

θ
является лишь приближенным значением неизвестного параметра θ даже в том случае,
если она несмещенная (в среднем совпадает с θ), состоятельная (стремится к θ с ростом n)
и эффективная (обладает наименьшей степенью случайных отклонений от θ) и для
выборки малого объема может существенно отличаться от θ.
Чтобы получить представление о точности и надежности оценки
n

θ
, используют
интервальную оценку параметра.
О п р е д е л е н и е. Интервальной оценкой параметра θ называется числовой
интервал (
n

θ
(1)
,
n

θ
(2)
), который с заданной вероятностью 1-α накрывает неизвестное
значение параметра θ.
Границы интервала (
n

θ
(1)
,
n

θ
(2)
) находятся по выборочным данным, поэтому
являются случайными величинами, в отличие от оцениваемого параметра θ - величины
неслучайной. Интервал (
n

θ
(1)
,
n

θ
(2)
) называется доверительным, а вероятность 1-α -
доверительной вероятностью или надежностью оценки.
Величина доверительного интервала существенно зависит от объема выборки n
(уменьшается с ростом n) и от значения доверительной вероятности 1 - α (увеличивается с
приближением 1-α к 1). Очень часто (но не всегда) доверительный интервал выбирается
симметричным относительно параметра θ, т.е. (θ - ∆, θ + ∆).
Ошибка ∆ является ошибкой репрезентативности выборки. Она возникает только
вследствие того, что исследуется не вся совокупность, а лишь ее часть, отобранная
случайно. Ее не следует путать с систематической ошибкой репрезентативности,
появляющейся в результате нарушения принципа случайности при отборе элементов в
выборку.
Доверительный интервал для математического ожидания нормальной генеральной
совокупности
Итак,
n

θ
=
__
x =

=
n
1
i
i
x
n
1
является наилучшей (в определенном смысле) несмещенной
оценкой для математического ожидания Мξ = θ нормального распределения с плотностью
вероятности р
ξ
(х; θ) =
(
)
2
2
2
x
e
2
1
σ
θ


π
σ
по выборке объема n.
1. Пусть дисперсия выборочных значений x
i
нормальной генеральной
совокупности известна: Dξ= σ
2
. Интервал
__
x - u
α
n
σ
< θ <
__
x + u
α
n
σ
,
где n – объем выборки,
__
x =

=
n
1
i
i
x
n
1
- выборочное среднее, u
α
- такой аргумент функции
Ф(х), при котором Ф(-u
α
)=α/2, есть 100(1-α)%-й доверительный интервал для истинного

Page 23

содержания математического ожидания Мξ=θ нормально распределенной генеральной
совокупности при известной дисперсии σ
2
.
2. Если дисперсия Dξ генеральной совокупности неизвестна, то для интервальной
оценки Мξ = θ служит доверительный интервал
__
x
- t
α
n
s
1
< θ <
__
x
+ t
α
n
s
1
,
где s
1
=

=








n
1
i
2
__
i
x
x
1
n
1
- оценка среднеквадратического отклонения σ величины ξ, а t
α
находится по таблицам по заданным n и α.
Лекция № 15. Проверка статистических гипотез.
Часто бывает необходимо знать закон распределения генеральной совокупности.
Если он неизвестен, но есть основания предполагать, что он имеет определенный вид
(назовем его А), то выдвигают гипотезу: генеральная совокупность распределена по
закону А. Таким образом, в этой гипотезе речь идет о виде предполагаемого
распределения.
Бывают случаи, когда закон распределения известен, но его параметры
неизвестны. Если есть основания предполагать, что неизвестный параметр θ равен
определенному числу θ
0
, то выдвигают гипотезу: θ = θ
0
. Таким образом, в этой гипотезе
речь идет о предполагаемой величине неизвестного параметра известного распределения.
Возможны и другие гипотезы: о равенстве параметров двух или нескольких
распределений; о независимости выборок и т. д.
О п р е д е л е н и е. Гипотезу о виде неизвестного распределения или о
параметрах известного распределения называют статистической.
Например, статистическими являются гипотезы:
• Генеральная совокупность распределена по закону Пуассона (гипотеза о
виде неизвестного распределения).
• Дисперсии двух нормальных генеральных совокупностей равны между
собой (гипотеза о параметрах двух известных распределений).
Проверки гипотез и основанные на них статистические выводы являются одними
из центральных задач математической и прикладной статистики. Общая схема проверки
гипотезы может быть описана так.
Пусть х
1
, х
2
,…, х
n
– выборка из генеральной совокупности с функцией
распределения F
ξ
(х) = F
ξ
(х;θ), θ∈Θ ⊆ R
m
. Относительно параметра θ выдвигаются две
гипотезы Н
0
: θ∈Z
0
и Н
1
: θ∈Z
1
, где Z
0
⊂Θ, Z
1
⊂Θ - некоторые заданные множества.
Гипотезу Н
0
называют нулевой, а гипотезу Н
1
альтернативной. Если множество Z
состоит из одной точки (Z = {θ
0
}), то соответствующая гипотеза называется простой, в
противном случае она называется сложной. Если альтернативная гипотеза явно не
указана, то это означает, что Z
1
=Θ\ Z
0
(т. е. Н
1
= не Н
0
).
О п р е д е л е н и е. Статистическим тестом или просто тестом называется
любая процедура, основанная на наблюдениях х
1
, х
2
,…, х
n
, результатом которой является
одно из двух возможных решений:
1) не отвергать (принять) нулевую гипотезу Н
0
;
2) отвергнуть нулевую гипотезу Н
0
в пользу альтернативной гипотезы Н
1
.
Поскольку тест использует случайную выборку х
1
, х
2
,…, х
n
, то, естественно,
могут возникать ошибочные решения. В связи с этим возникают две ошибки теста:
- ошибка первого рода: нулевая гипотеза отвергается, когда она верна;
- ошибка второго рода: нулевая гипотеза принимается, когда верна
альтернативная гипотеза.

Page 24

По юридической терминологии ошибка первого рода – вынесение судом обвинительного
приговора, когда на самом деле обвиняемый невиновен; ошибка второго рода – вынесение
судом оправдательного приговора, когда на самом деле обвиняемый виновен.
Вероятности ошибок первого и второго рода обычно обозначают α = Р(Н
1
Н
0
) и β
= Р(Н
0
Н
1
) соответственно. Величину α называют значимостью теста, а величину 1 - β -
его мощностью.
Отметим, что последствия ошибок могут оказаться весьма различными.
Например, если отвергнуто правильное решение «продолжить строительство жилого
дома», то эта ошибка I рода повлечет за собой материальный ущерб; если же принято
неправильное решение «продолжить строительство», несмотря на возможность обвала
стройки, то эта ошибка II рода может стать причиной гибели людей. Существуют
примеры, когда ошибка I рода вызывает более тяжелые последствия, чем ошибка II рода.
Естественно, при построении теста стремятся уменьшить эти ошибки, однако
невозможно минимизировать их одновременно. При фиксированной объеме выборки
можно сделать сколь угодно малой только одну из величин α и β, что сопряжено с
неизбежным увеличением другой. Только при увеличении объема выборки возможно
одновременное уменьшение α и β. Поэтому обычно поступают следующим образом:
фиксируют значимость теста и стараются найти такой тест, у которого мощность
максимальна (именно здесь в явном виде проявляется несимметричность гипотез, деление
их на основную и альтернативную).
На практике для построения тестов часто используют следующий подход.
Предположим, что можно найти такую статистику t
n
= t
n

1
, х
2
, …, х
n
), что, если гипотеза
Н
0
верна, то распределение случайной величины t
n
известно (например, затабулировано).
Тогда для заданного значения α ошибки первого рода можно найти такую область К
α
, что
Р(t
n
∈ К
α
)=1- α (вероятность вычисляется в предположении, что верна нулевая гипотеза). В
этом случае тест определяется следующим образом:
1) на основании наблюдений х
1
, х
2
, …, х
n
вычисляется значение статистики t
n
;
2) для заданного уровня значимости α находится область К
α
;
3) если t
n
∈К
α
, то Н
0
не отвергается (принимается); если t
n
∉К
α
, то Н
0
отвергается
в пользу Н
1
.
Статистику t
n
называют критической статистикой, а область К
α
- критической
областью.
Таким образом, множество возможных значений критической статистики
разбивается на два непересекающихся подмножества: критическую область (область
отклонения гипотезы) и область допустимых значений (область принятия гипотезы). Если
значение критической статистики попадает в критическую область, то нулевую гипотезу
отвергают.
З а м е ч а н и е. Принцип проверки статистической гипотезы не дает логического
доказательства ее верности или неверности. Принятие гипотезы Н
0
(при ее испытании
против Н
1
) не означает, что мы уверены в ее абсолютной правильности, просто она не
противоречит имеющимся у нас выборочным данным (таким же свойством, наряду с Н
0
,
могут обладать и другие гипотезы). Более того, возможно, что при увеличении объема
выборки или при испытании Н
0
против другой альтернативы Н
2
гипотеза Н
0
будет
отвергнута. Так что принятие гипотезы следует расценивать не как однозначное
установление содержащегося в ней факта, а как допущение достаточно правдоподобного,
не противоречащего опыту утверждения.

Информация о работе Лекции по "Теории вероятностей и математической статистике"