Шпаргалка по "Эконометрике"

Автор: Пользователь скрыл имя, 09 Июня 2012 в 14:56, шпаргалка

Описание работы

Работа содержит ответы на вопросы по дисциплине "Эконометрика"

Работа содержит 1 файл

эконометрика.doc

— 675.50 Кб (Скачать)
  1. Охарактеризуйте эконометрику как  междисциплинарное  научное направление.

 Эконометрика  — наука, изучающая количественные  и качественные экономические  взаимосвязи с помощью математических  и статистических методов и  моделей. Современное определение  предмета эконометрики было выработано в уставе Эконометрического общества, которое главными целями назвало использование статистики и математики для развития экономической теории. Теоретическая эконометрика рассматривает статистические свойства оценок и испытаний, в то время как прикладная эконометрика занимается применением эконометрических методов для оценки экономических теорий. Эконометрика даёт инструментарий для экономических измерений, а также методологию оценки параметров моделей микро- и макроэкономики. Кроме того, эконометрика активно используется для прогнозирования экономических процессов как в масштабах экономики в целом, так и на уровне отдельных предприятий. При этом эконометрика является частью экономической теории, наряду с макро- и микроэкономикой.

Термин «эконометрика» состоит из двух частей: «эконо» — от «экономика» и «метрика» — от «измерение». Эконометрика входит в обширное семейство дисциплин, посвящённых измерениям и применению статистических методов в различных областях науки и практики. К этому семейству относятся, в частности, биометрия, технометрика, наукометрия, психометрия, хемометрия, квалиметрия. Особняком стоит социометрия — этот термин закрепился за статистическими методами анализа взаимоотношений в малых группах, то есть за небольшой частью такой дисциплины, как статистический анализ в социологии и психологии. 

2.Охарактеризуйте  сущность и цель  корреляционного  анализа. Коэффициент  корреляции и диапазоны  его значения.

Задача  корреляционного анализа сводится к установлению направления и  формы связи между признаками, измерению ее тесноты и к оценке достоверности выборочных показателей корреляции.

Корреляционная  связь между признаками может  быть линейной и криволинейной (нелинейной), положительной и отрицательной.

Прямая  корреляция отражает однотипность в изменении признаков: с увеличением значений первого признака увеличиваются значения и другого, или с уменьшением первого уменьшается второй.

Обратная  корреляция указывает на увеличение первого признака при уменьшении второго или уменьшение первого признака при увеличении второго. Корреляция изучается на основании экспериментальных данных, представляющих собой измеренные значения (xi, yi) двух признаков. Если экспериментальных данных немного, то двумерное эмпирическое распределение представляется в виде двойного ряда значений xi и yi. При этом корреляционную зависимость между признаками можно описывать разными способами. Соответствие между аргументом и функцией может быть задано таблицей, формулой, графиком и т. д.

 Корреляционный  анализ, как и другие статистические методы, основан на использовании вероятностных моделей, описывающих поведение исследуемых признаков в некоторой генеральной совокупности, из которой получены экспериментальные значения xi и yi.

 Когда  исследуется корреляция между  количественными признаками, значения которых можно точно измерить в единицах метрических шкал (метры, секунды, килограммы и т.д.), то очень часто принимается модель двумерной нормально распределенной генеральной совокупности. Такая модель отображает зависимость между переменными величинами xi и yi графически в виде геометрического места точек в системе прямоугольных координат. Эту графическую зависимость называются также диаграммой рассеивания или корреляционным полем.

 Данная  модель двумерного нормального  распределения (корреляционное поле) позволяет дать наглядную графическую интерпретацию коэффициента корреляции, т.к. распределение в совокупности зависит от пяти параметров: mx, my – средние значения (математические ожидания); sx,sy – стандартные отклонения случайных величин Х и Y и р – коэффициент корреляции, который является мерой связи между случайными величинами Х и Y.

 Если  р = 0, то значения, xi, yi, полученные  из двумерной нормальной совокупности, располагаются на графике в  координатах х, у в пределах области, ограниченной окружностью (рис.1.3, а). В этом случае между случайными величинами Х и Y отсутствует корреляция и они называются некоррелированными. Для двумерного нормального распределения некоррелированность означает одновременно и независимость случайных величин Х и Y.

Если  р = 1 или р = -1, то между случайными величинами Х и Y существует линейная функциональная зависимость (Y = c + dX). В этом случае говорят о полной корреляции. При р = 1 значения xi, yi определяют точки, лежащие на прямой линии, имеющей положительный наклон (с увеличением xi значения yi также увеличиваются), при р = -1 прямая имеет отрицательный наклон (рис.1.3, б).

 В  промежуточных случаях (-1 < p < 1) точки, соответствующие значениям xi, yi, попадают в область, ограниченную некоторым эллипсом (рис.1.3, в. г), причем при p > 0 имеет место положительная корреляция (с увеличением xi значения yi имеют тенденцию к возрастанию), при p < 0 корреляция отрицательная. Чем ближе р к , тем уже эллипс и тем теснее экспериментальные значения группируются около прямой линии.

 Здесь  же следует обратить внимание  на то, что линия, вдоль которой  группируются точки, может быть  не только прямой, а иметь любую  другую форму: парабола, гипербола  и т. д. В этих случаях  мы рассматривали бы так называемую, нелинейную (или криволинейную) корреляцию (рис.1.3, д).

 Таким  образом, визуальный анализ корреляционного  поля помогает выявить не только  наличия статистической зависимости  (линейную или нелинейную) между  исследуемыми признаками, но и  ее тесноту и форму. Это имеет существенное значение для следующего шага в анализе ѕ выбора и вычисления соответствующего коэффициента корреляции.

 Корреляционную  зависимость между признаками  можно описывать разными способами.  В частности, любая форма связи  может быть выражена уравнением общего вида Y = f(X), где признак Y – зависимая переменная, или функция от независимой переменной X, называемой аргументом. Соответствие между аргументом и функцией может быть задано таблицей, формулой, графиком и т. д.

Коэффициент корреляции р для генеральной совокупности, как правило, неизвестен, поэтому он оценивается по экспериментальным данным, представляющим собой выборку объема n пар значений (xi, yi), полученную при совместном измерении двух признаков Х и Y. Коэффициент корреляции, определяемый по выборочным данным, называется выборочным коэффициентом корреляции (или просто коэффициентом корреляции). Его принято обозначать символом r.

 Коэффициенты  корреляции — удобный показатель  связи, получивший широкое применение  в практике. К их основным свойствам необходимо отнести следующие:

Коэффициенты  корреляции способны характеризовать  только линейные связи, т.е. такие, которые  выражаются уравнением линейной функции. При наличии нелинейной зависимости  между варьирующими признаками следует  использовать другие показатели связи.

Значения  коэффициентов корреляции – это  отвлеченные числа, лежащее в  пределах от —1 до +1, т.е. -1 < r < 1.

При независимом  варьировании признаков, когда связь  между ними отсутствует, г = 0.

При положительной, или прямой, связи, когда с увеличением значений одного признака возрастают значения другого, коэффициент корреляции приобретает положительный (+) знак и находится в пределах от 0 до +1, т.е. 0 < r 1.

При отрицательной, или обратной, связи, когда с увеличением  значений одного признака соответственно уменьшаются значения другого, коэффициент корреляции сопровождается отрицательным (–) знаком и находится в пределах от 0 до –1, т.е. -1 < r <0.

Чем сильнее  связь между признаками, тем ближе  величина коэффициента корреляции к ф1ф. Если r = , то корреляционная связь переходит в функциональную, т.е. каждому значению признака Х будет соответствовать одно или несколько строго определенных значений признака Y.

Только  по величине коэффициентов корреляции нельзя судить о достоверности корреляционной связи между признаками. Этот параметр зависит от числа степеней свободы k = n –2, где: n – число коррелируемых пар показателей Х и Y. Чем больше n, тем выше достоверность связи при одном и том же значении коэффициента корреляции.

 В практической деятельности, когда число коррелируемых пар признаков Х и Y не велико (  ), то при оценке зависимости между показателями используется следующую градацию:

1) высокая  степень взаимосвязи – значения  коэффициента корреляции находится  в пределах от 0,7 до 0,99;

2) средняя  степень взаимосвязи – значения  коэффициента корреляции находится  в пределах от 0,5 до 0,69;

3) слабая  степень взаимосвязи – значения  коэффициента корреляции находится  от 0,2 до 0,49.

3.Перечислите  и поясните основные  параметры случайных величин.

Вид функций  F(x), р(х), или перечисление р(хi) называют законом распределения случайной величины.  
Хотя можно представить себе бесконечное разнообразие случайных величин, законов распределения гораздо меньше. Во-первых, различные случайные величины могут иметь совершенно одинаковые законы распределения. Например: пусть y принимает всего 2 значения 1 и -1 с вероятностями 0.5; величина z = -y имеет точно такой же закон распределения. 
Во-вторых, очень часто случайные величины имеют подобные законы распределения, т.е., например, р(х) для них выражается формулами одинакового вида, отличающимися только одной или несколькими постоянными. Эти постоянные называются параметрами распределения.

Хотя  в принципе возможны самые разные законы распределения, здесь будут рассмотрены несколько наиболее типичных законов. Важно обратить внимание на условия, в которых они возникают, параметры и свойства этих распределений.  

1 .   Равномерное распределение 
Так называют распределение случайной величины, которая может принимать любые значения в интервале (a,b), причем вероятность попадания ее в любой отрезок внутри (a,b) пропорциональна длине отрезка и не зависит от его положения, а вероятность значений вне (a,b) равна 0.

 
Рис 6.1 Функция и плотность равномерного распределения

Параметры распределения: a , b  

2 .   Нормальное распределение 
Распределение с плотностью, описываемой формулой

                 (6.1)

называется  нормальным. (Рисунок 6.2) 
Параметры распределения: a , σ

 
Рисунок 6.2 Типичный вид плотности и функции нормального распределения  

3 .   Распределение Бернулли 
Если производится серия независимых испытаний, в каждом из который событие А может появиться с одинаковой вероятностью р, то число появлений события есть случайная величина, распределенная по закону Бернулли, или по биномиальному закону (другое название распределения).

                 (6.2)

Здесь n - число испытаний в серии, m - случайная величина (число появлений события А), Рn(m) - вероятность того, что А произойдет именно m раз, q = 1 - р (вероятность того, что А не появится в испытании).

Пример 1: Кость бросают 5 раз, какова вероятность  того, что 6 очков выпадет дважды ? 
n = 5, m = 2, p = 1/6, q = 5/6

Параметры распределения: n , р  

4 .   Распределение Пуассона 
Распределение Пуассона получается как предельный случай распределения Бернулли, если устремить р к нулю, а n к бесконечности, но так, чтобы их произведение оставалось постоянным: nр = а. Формально такой предельный переход приводит к формуле

                 (6.3)

Параметр  распределения: a

Распределению Пуассона подчиняются очень многие случайные величины, встречающиеся  в науке и практической жизни.

Пример 2: число вызовов, поступающих на станцию скорой помощи в течение  часа. 
Разобьем интервал времени Т (1 час) на малые интервалы dt, такие что вероятность поступления двух и более вызовов в течение dt пренебрежимо мала, а вероятность одного вызова р пропорциональна dt: р = μdt ; 
будем рассматривать наблюдение в течение моментов dt как независимые испытания, число таких испытаний за время Т: n = T / dt; 
если предполагать, что вероятности поступления вызовов не меняются в течение часа, то полное число вызовов подчиняется закону Бернулли с параметрами: n = T / dt, р = μdt . Устремив dt к нулю, получим, что n стремится к бесконечности, а произведение n×р остается постоянным: а = n×р = μТ.

Пример 3: число молекул идеального газа в некотором фиксированном объеме V. 
Разобьем объем V на малые объемы dV такие, что вероятность нахождения двух и более молекул в dV пренебрежимо мала, а вероятность нахождения одной молекулы пропорциональна dV: р = μdV; будем рассматривать наблюдение каждого объемчика dV как независимое испытание, число таких испытаний n=V/dV; если предполагать, что вероятности нахождения молекулы в любом месте внутри V одинаковы, полное число молекул в объеме V подчиняется закону Бернулли с параметрами: n = V / dV, р = μdV. Устремив dV к нулю, получим, что n стремится к бесконечности, а произведение n×р остается постоянным: а = n×р =μV.

Информация о работе Шпаргалка по "Эконометрике"