Классический метод наименьших квадратов
Контрольная работа, 28 Января 2011, автор: пользователь скрыл имя
Описание работы
Целью работы является рассмотрение методики классического метода наименьших квадратов.
Для достижения поставленной цели необходимо решить следующие задачи:
o рассмотреть применение метода наименьших квадратов для нахождения неизвестных параметров уравнения регрессии на примере модели линейной парной регрессии;
o изучить свойства оценок МНК;
o рассмотреть применение МНК на конкретном примере.
Содержание
Введение…………………………………………………………………….3
1. Процедура оценки параметров по методу наименьших квадратов…..5
2. Свойства оценок МНК…………………………………………………..9
Заключение………………………………………………………………..21
Список использованной литературы…………………………………….22
Работа содержит 1 файл
эконометрика.doc
— 312.50 Кб (Скачать)или
Откуда следует, что “оптимальный” вектор оценок параметров a определяется на основе следующего векторно-матричного выражения:
Все переменные в правой части выражения (2.8) являются известными – это исходные данные, сведенные в матрицу Х и вектор у.
Рассмотрим применение МНК на конкретном примере. Имеются данные о цене на нефть x (долларов за баррель) и индексе акций нефтяной компании y (в процентных пунктах). Требуется найти эмпирическую формулу, отражающую связь между ценой на нефть и индексом акций нефтяной компании исходя из предположения, что связь между указанными переменными линейна и описывается функцией вида yi=β0+β1xi. Зависимой переменной (y) в данной регрессионной модели будет являться индекс акций нефтяной компании, а независимой (x) — цена на нефть.
Для нахождения коэффициентов β0 и β1 построим вспомогательную таблицу 1.
Таблица для нахождения коэффициентов β0 и β1
| № наблюдения | Цена на нефть – х, ден.ед. | Индекс нефтяной компании - % | xi *yi | хi2 |
| 1 | 17,28 | 537 | 9279,36 | 298,5984 |
| 2 | 17,05 | 534 | 9104,70 | 290,7025 |
| 3 | 18,30 | 550 | 10 065,00 | 334,8900 |
| 4 | 18,80 | 555 | 10 434,00 | 353,4400 |
| 5 | 19,20 | 560 | 10 752,00 | 368,6400 |
| 6 | 18,50 | 552 | 10 212,00 | 342,2500 |
| Сумма по столбцу | 110,13 | 3288 | 59 847,06 | 1988,52 |
Запишем систему нормальных уравнений исходя из данных таблицы:
1988,52β + 110,13β = 59847,06,
110,13β + 6β = 3288.
Решением данной системы нормальных уравнений будут следующие числа: β1=15,317; β0=266,86. Таким образом, уравнение регрессии, описывающее зависимость между ценой на нефть и индексом акций нефтяной компании, можно записать как: y = 15,317x + 266,86.
На
основании полученного
2. Свойства оценок МНК.
Рассмотрим основные условия, при которых оценки коэффициентов линейной эконометрической модели, во-первых, могут быть в принципе найдены, а, во-вторых, их “качество” будет “достаточно высоким”, что является определенным свидетельством и достаточного качества построенной модели.
“Качество” оценок, их свойства тесно связаны со “статистической” трактовкой исходных данных и, в первую очередь, независимых переменных. Рассмотрим сначала случай, когда измеренные (наблюдаемые) значения независимых факторов трактуются как детерминированные (неслучайные) величины.
В этом случае матрица Х представляет собой матрицу, состоящую из констант, и элементы матриц (Х¢Х) и (Х¢Х)–1 также рассматриваются как константы.
Прежде всего заметим, что выражение (2.3) и аналогичное ему выражение (2.7) представляют собой систему (n+1) уравнений с (n+1) неизвестными. Вследствие этого решение, т. е. вектор a, на основе выражения (2.8) теоретически можно получить почти всегда, кроме тех случаев, когда матрица Х¢Х является вырожденной и, следовательно, обратная ей матрица (Х¢Х)–1 не существует.
Вырожденная матрица Х¢Х будет иметь место в том случае, если хотя бы один из столбцов матрицы Х представим в виде линейной комбинацией нескольких других ее столбцов. От свойства вырожденности матрицы Х¢Х следует отличать ее плохую обратимость. Это свойство может быть обусловлено существованием почти линейной зависимости между столбцами матрицы Х. В этом случае определитель матрицы Х¢Х близок к нулю и при расчете элементов обратной ей матрицы могут возникнуть проблемы вычислительного характера, когда неизбежные в расчетах на ЭВМ ошибки округления будут значительно искажать конечный результат. Это, в свою очередь, может повлечь существенные искажения оценок параметров модели, т. е. элементов вектора a.
Другое достаточно естественное ограничение для получения решения состоит в том, что количество измерений факторов Т должно быть больше их числа n+1 (Т>n+1). В противном случае получить однозначную оценку параметров модели невозможно, так как количество неизвестных в системе (2.3) превысит число ее уравнений [5, с.367].
Наряду с отмеченными трудностями “вычислительного характера” проблема получения “хороших” оценок параметров эконометрических моделей усложняется еще из-за ряда обстоятельств. Дело в том, что найденные с помощью выражения (2.8) оценки ai, i=0,1,..., n являются случайными величинами. Их можно представить как сумму истинного значения ai и некоторой случайной ошибки Dai .
Для доказательства справедливости этого утверждения подставим в выражение (2.8) вместо вектора у его выражение Х×a+e, где a – вектор истинных значений параметров ai, i=0,1,..., n. После подстановки получим:
a=(Х¢Х)–1×Х¢(Х×a+e)=(Х¢Х)
=a+(Х¢Х)–1Х¢×e,
где (Х¢Х)–1Х¢×e=Da – вектор ошибки оценок параметров ai .
При случайном характере оценок коэффициентов модели ai, i=0,1,..., n; их “высокое качество” подтверждается наличием у них свойств несмещенности и эффективности.
Рассмотрим сначала условие несмещенности этих оценок. Оно означает, что математическое ожидание оценки ai, i=0,1,..., n; равно истинному значению параметра ai, т. е. M[ai]=ai.
При условии, что матрица (Х¢Х) обратима, возьмем математическое ожидание от правой и левой частей выражения (2.9). Получим
Из выражения (2.10) непосредственно вытекает, что для того, чтобы значения ai, i=0,1,..., n; полученные из выражения (2.8), были несмещенными оценками параметров эконометрической модели ai необходимо выполнение следующего условия:
М[(Х¢Х)–1Х¢×e] = 0. (2.11)
Поскольку матрица Х является ненулевой, то для выполнения условия (2.11) необходимо, чтобы
а)
М[e]=0;
б) факторы хit и ошибка et были независимыми между собой, i=0,1,..., n.
В
этом случае математическое ожидание
произведения (Х¢Х)–1Х¢×e
можно представить как произведение математических
ожиданий двух величин (постоянной матрицы
(Х¢Х)–1Х¢
на случайный вектор ошибки e, т. е. М[(Х¢Х)–1Х¢×e]=М[(Х¢Х)–1Х¢]×М[
Оценка ai параметра модели ai считается эффективной, если ее дисперсия является минимальной среди дисперсий всех других возможных оценок данного параметра.
Дисперсии оценок ai, i=0,1,..., n; можно найти как диагональные элементы их ковариационной матрицы. Напомним, что ковариационная матрица вектора оценок a (в общем случае) определяется следующим выражением:
Сov(a)= , (2.13)
где si2=D(ai) – дисперсия i-ой оценки; cov(ai, aj) – ковариация оценок i-го и j-го параметров.
Ковариационная матрица вектора оценок а может быть представлена как математическое ожидание произведения вектора-столбца ошибки на ее вектор-строку, т. е. Сov(a)=М[Da×Da¢]. С учетом (2.9) получим:
Сov(a)=М[(Х¢Х)–1Х¢×e×e¢×Х(Х¢Х )–1]. (2.14)
Поскольку матрица Х образована постоянными величинами, то выражение (2.14) можно переписать в следующем виде:
Сov(a)=(Х¢Х)–1Х¢×М[e×e¢]×Х(Х
=(Х¢Х)–1Х¢×Сov(e)×Х(Х¢Х)–1,
где Сov(e) является ковариационной матрицей вектора “идеальной” ошибки модели, определяемой следующим выражением:
Сov(e)= , (2.16)