Автор: Пользователь скрыл имя, 27 Февраля 2013 в 14:55, курсовая работа
Сегодня для любого гражданина России не секрет, что экономика его страны практически перешла на рыночные рельсы и функционирует исключительно по законам рынка. Каждое предприятие отвечает за свою работу само и само принимает решения о дальнейшем развитии. Современные условия рыночного хозяйствования предъявляют к методам прогнозирования очень высокие требования, ввиду всё возрастающей важности правильного прогноза для судьбы предприятия, да и экономики страны в целом.
В данной курсовой работе мною был приведён метод наименьших квадратов (МНК), как один из способов прогнозирования экономических показателей.
Введение
1. Постановка задачи множественной линейной регрессии 3
2. Расчётные формулы с помощью метода наименьших квадратов 4
3. Достаточное условие применения метода наименьших квадратов 6
Теорема Гаусса-Маркова
4. Проверка адекватности модели 16
Коэффициент детерминации
Список использованной литературы 18
Зная вектор b, выборочное уравнение множественной регрессии представим в виде:
где у— групповая (условная) средняя переменной Y при заданном векторе значений объясняющей переменной
Х0=(1 х10 х20 ... хр0).
На практике часто бывает необходимо сравнение влияния на зависимую переменную различных объясняющих переменных, когда последние выражаются разными единицами измерения. В этом случае используют стандартизованные коэффициенты регрессии bj’ и коэффициенты эластичности Ej (j = 1,2,..., р):
Стандартизованный коэффициент регрессии bj’ показывает, на сколько величин sy изменится в среднем зависимая переменная Y при увеличении только j-й объясняющей переменной на sxj, а коэффициент эластичности Ej — на сколько процентов (от средней) изменится в среднем Yпри увеличении только Xj на 1%.
Преобразуем вектор оценок (4.8) с учетом (4.2):
т.е. оценки параметров (4.8), найденные по выборке, будут содержать случайные ошибки.
Так как математическое ожидание оценки b равно оцениваемому параметру β, т. е.
Т.к. M(ε)=0, то, очевидно, что вектор b есть несмещенная оценка параметра β.
Вариации оценок параметров будут в конечном счете определять точность уравнения множественной регрессии. Для их измерения в многомерном регрессионном анализе рассматривают так называемую ковариационную матрицу вектора оценок параметров ∑b, являющуюся матричным аналогом дисперсии одной переменной:
где элементы δij — ковариации (или корреляционные моменты) оценок параметров βi и βj. Ковариация двух переменных определяется как математическое ожидание произведения отклонений этих переменных от их математических ожиданий. Поэтому
Ковариация характеризует как степень рассеяния значений двух переменных относительно их математических ожиданий, так и взаимосвязь этих переменных.
В силу того, что оценки bj, полученные методом наименьших квадратов, являются несмещенными оценками параметров βj, т. е. M(bj)=βj , выражение (4.13) примет вид:
(в этом легко убедиться, перемножив векторы (b - β) и (b - β)’).
Учитывая (4.12), преобразуем это выражение:
ибо элементы матрицы X — неслучайные величины.
Матрица М(εε') представляет собой ковариационную матрицу вектора возмущений
в которой все элементы, не лежащие на главной диагонали, равны нулю в силу предпосылки 4 о некоррелированности возмущений εi и εj между собой, а все элементы, лежащие на главной диагонали, в силу предпосылок 2 и 3 регрессионного анализа равны одной и той же дисперсии δ2:
Поэтому матрица
где Еn — единичная матрица n-го порядка. Следовательно, в силу (4.15) ковариационная матрица вектора оценок параметров:
Итак, с помощью обратной матрицы (Х’Х)-1 определяется не только сам вектор b оценок параметров (4.8), но и дисперсии и ковариации его компонент.
Теперь мы имеем возможность привести доказательство теоремы Гаусса—Маркова.
Выше мы уже показали, что оценка метода наименьших квадратов b = (Х'Х)-1 X'Y есть несмещенная оценка для вектора параметров β, т. е. М(b) = β. Любую другую оценку b1 вектора β без ограничения общности можно представить в виде
где С — некоторая матрица размера (р+1)хn.
Так как рассматриваемые в теореме оценки относятся к классу несмещенных оценок, то и
М(b1) =β или М(b1) = M[(X'X)-1X' + C]Y = β.
Учитывая, что матрица в квадратных скобках — неслучайная, а в силу предпосылки 2 регрессионного анализа M(ε)=0, получим
откуда следует, что СХ = 0.
Далее
Так как
Теперь с помощью
Или, учитывая (4.16),
Диагональные элементы матрицы СС’ неотрицательны, ибо они равны суммам квадратов элементов соответствующих строк этой матрицы. А так как диагональные элементы матриц ∑b и ∑b есть дисперсии компонент векторов оценок b1i и bi то дисперсия Это означает, что оценки коэффициентов регрессии, найденных методом наименьших квадратов, обладают наименьшей дисперсией, что и требовалось доказать.
Итак, мы доказали, что оценка b метода наименьших квадратов является «наилучшей» линейной оценкой параметра β. Перейдем теперь к оценке еще одного параметра - дисперсии возмущений δ2.
Рассмотрим вектор остатков е, равный в соответствии с (4.2') е= Y- Хb.
В силу (4.2) и (4.8)
(учли, что произведение (Х’Х)-1(Х'Х)=
Найдем транспонированный вектор остатков е'. Так как при транспонировании матрица (Х'Х)-1 не меняется, т. е.
Так как последние два
слагаемых взаимно
Первое слагаемое выражения (4.
ибо в силу предпосылок 2,3 регрессионного анализа
Матрица В=Х(Х’Х)-1 X' симметрическая, так как
Поэтому ε'Вε представляет квадратическую форму
Её математическое ожидание
Последнюю сумму можно разбить на две составляющие суммы элементов на главной диагонали матрицы В и вне ее:
Второе слагаемое равно нулю в силу предпосылки 4 регрессионного анализа, т.е. M(εiεj)=0. Сумма диагональных элементов матрицы В образует след матрицы tr(B). Получим
Заменив матрицу В ее выражением, получим
так как след матрицы не меняется при ее транспонировании, т. е. tr(AC)= tr(CA), а след единичной матрицы (т.е. сумма ее диагональных элементов) равен порядку этой матрицы.
Теперь по формуле (4.17), учитывая (4.18) и (4.19), получим:
т.е.:
Равенство (4.20) означает, что несмещенная оценка s2 параметра δ2 или выборочная остаточная дисперсия s2 определяется по формуле:
Полученная формула легко объяснима. В знаменателе выражения (4.21) стоит n-(р+1), а не n-2. Это связано с тем, что теперь (р+1) степеней свободы (а не две) теряются при определении неизвестных параметров, число которых вместе со свободным членом равно (р+1). Можно показать, что рассмотренные оценки b и s2 параметров β и δ2 при выполнении предпосылки 5 регрессионного анализа о нормальном распределении вектора возмущений ε(ε~Nn(0;δ2En)) являются независимыми. Для этого в данном случае достаточно убедиться в некоррелированности оценок b и s2.
Перейдем теперь к оценке значимости коэффициентов регрессии bj и построению доверительного интервала для параметров регрессионной модели βj (j=1,2,..., р).
В силу (4.14), (4.16) и изложенного выше оценка sb2 дисперсии δb2 коэффициента регрессии bj определится по формуле:
где s2 — несмещенная оценка параметра δ2;
[(Х'Х)~1]jj — диагональный элемент матрицы (X'Х)-1.
Среднее квадратическое отклонение (стандартная ошибка) коэффициента регрессии bj примет вид:
Значимость коэффициента регрессии bj мoжно проверить, если учесть, что статистика (bj -βj)/sb. имеет t-распределение Стьюдента с k =n-р-1 степенями свободы. Поэтому bj значимо отличается от нуля (иначе — гипотеза H0 o равенстве параметра βj нулю, т. е. H0: βj = 0, отвергается) на уровне значимости α, если - табличное значение t-критерия Стьюдента, определенное на уровне значимости α при числе степеней свободы k=n-р-1.
В общей постановке гипотеза H0 о равенстве параметра βj заданному числу βj0, т. е. Н0:βj=βj0, отвергается, если
Поэтому доверительный интервал для параметра βj есть
Наряду с интервальным
оцениванием коэффициентов
где у — групповая средняя, определяемая по уравнению регрессии,
— ее стандартная ошибка.
Аналогичный доверительный интервал для индивидуальных значений зависимой переменной y0* примет вид:
Доверительный интервал для параметра δ2 в множественной регрессии строится аналогично парной модели по формуле (3.39) с соответствующим изменением числа степеней свободы критерия χ2.
Коэффициент детерминации.
Как и в случае парной регрессионной модели, в модели множественной регрессии общая вариация Q — сумма квадратов отклонений зависимой переменной от средней (3.41) может быть разложена на две составляющие:
Q=QR+Qe ,
где QR, Qe — соответственно сумма квадратов отклонений, обусловленная регрессией, и остаточная сумма квадратов, характеризующая влияние неучтенных факторов.
Получим более удобные, формулы для сумм квадратов Q, QR и Qe, не требующие вычисления значений yi , обусловленных регрессией, и остатков еi.
Наконец,
Уравнение множественной регрессии значимо (иначе - гипотеза Hо о равенстве нулю параметров регрессионной модели, т. е. Ho: β1 = β2 =...=βp= 0, отвергается), если при m = р+1)
где Fα;p;n-p-1 - табличное значение F- критерия Фишера-Снедекора, а QR и Qe определяются по формулам (4.31) и (4.30).
Kоэффициент детерминации R2 как одна из наиболее эффективных оценок адекватности регрессионной модели, мера качества уравнения регрессии, характеристика его прогностической силы.
Коэффициент детерминации (или множественный коэффициент детерминации) R2 определяется по формуле:
R2 характеризует долю вариации зависимой переменной, обусловленной регрессией или изменчивостью объясняющих переменных; чем ближе R2 к единице, тем лучше регрессия описывает зависимость между объясняющими и зависимой переменными.
Вместе с тем использование только одного коэффициента детерминации R2 для выбора наилучшего уравнения регрессии может оказаться недостаточным. На практике встречаются случаи, когда плохо определенная модель регрессии может дать сравнительно высокий коэффициент R2. Недостатком коэффициента детерминации R2 является то, что он, вообще говоря, увеличивается при добавлении новых объясняющих переменных, хотя это и не обязательно означает улучшение качества регрессионной модели. В этом смысле предпочтительнее использовать скорректированный (адаптированный, поправленный (adjusted)) коэффициент детерминации R2, определяемый по формуле
Из (4.34) следует, что чем больше число объясняющих переменных р, тем меньше R2 по сравнению с R2. В отличие от R2 скорректированный коэффициент R2 может уменьшаться при введении в модель новых объясняющих переменных, не оказывающих существенного влияния на зависимую переменную. Однако даже увеличение скорректированного коэффициента детерминации R2 при введении в модель новой объясняющей переменной не всегда означает, что ее коэффициент регрессии значим (это происходит, как можно показать, только в случае, если соответствующее значение t-статистики больше единицы (по абсолютной величине), т.е. |t|>1. Другими словами, увеличение R2 еще не означает улучшения качества регрессионной модели. Если известен коэффициент детерминации R2, то критерий значимости (4.32) уравнения регрессии может быть записан в виде:
где к1=р, к2=n-р-1, ибо в уравнении множественной регрессии вместе со свободным членом оценивается m=р+1 параметров.
Список использованной литературы
Под ред. проф. Н.Ш. Кремера. - М.: ЮНИТИ-ДАНА, 2002. — 311 с.