Математические методы

Автор: Пользователь скрыл имя, 26 Февраля 2013 в 20:57, шпаргалка

Описание работы

Генеральная совокупность – любая группа людей, которую психолог изучает по выборке.
Объем генеральной совокупность может быть различным, в зависимости от предмета наблюдения и той задачи, которую предстоит решить психологу.
Выборка – любая подгруппа элементов (респондентов), выделенная из генеральной совокупности для проведения эксперимента.
Объем выборки (n) может быть любым, но не меньше, чем 2 респондента. Малая выборка до 30. Средняя от 30 до 100. Большая от 100.

Работа содержит 1 файл

!!!!!!!!ОТВЕТЫ Вопросы МатМетоды.doc

— 547.50 Кб (Скачать)

Мода используется в ситуациях, когда не нужна высокая точность, но важна быстрота определения меры центральной тенденции.

Медиана. Правила вычисления медианы. Когда вычисление медианы предпочтительнее вычисления среднего?

Медиана – значение, которое делит упорядоченное множество данных пополам.

Если в выборке имеется две  «середины», то медианой ядвляется их среднее арифметическое.

Медиана нечувствительна к величине крайних значений упорядоченной  совокупности наблюдений.

В случае сильно скошенных  распределений медиана предпочтительнее среднего!! Медиана вычисляется в том случае, когда в серии есть «нетипичные» данные, резко влияющие на среднее.

Среднее арифметическое. Способ вычисления. Преимущества и недостатки данной статистической оценки.

Для сгруппированных переменных можно  воспользоваться другой формулой –  среднее будет соответствовать  сумме произведений средних значений каждого класса и частоты встречаемости значения признака в данном классе:

                                                                     

Преимущество средних величин заключается в их способности уравновешивать все индивидуальные отклонения, в результате чего появляется то устойчивое и типичное, что характеризует качественное своеобразие варьирующего объекта, позволяя отличить одну выборку от другой.

Использование среднего дает исследователю  ряд преимуществ. В отличие от др. М. ц. т., среднее чувствительно к точному положению каждого значения в распределении переменной. Правда, это достоинство среднего арифметического оборачивается недостатком в виде повышенной чувствительности к крайним значениям переменной, и потому его иногда избегают использовать в случае сильно скошенных распределений.

Среднее —  особенно полезная мера в области  статистических выводов, поскольку  выборочное среднее является относительно эффективной оценкой генерального среднего.

Недостаток  – при вычислении среднего может  получиться не целое число (например, вычисляют среднее кол-во учеников, обучающихся в 5 классах определенной школы.

Обычно выборочное среднее применяется  при стремлении к наибольшей точности в определении центральной тенденции.

Меры изменчивости. Понятие о  размахе, дисперсии и стандартном  отклонении. Способы вычисления.

Разброс – разностьмежду максимальным и минимальным показателями вариационного ряда.

Дисперсия – наиболее часто использующаяся мера рассеяния случайной величины (переменной). Мера изменчивости или разброса значений одной или нескольких количественных переменных, равная среднему арифметическому квадратов отклонений.

Это среднее  арифметическое квадратов отклонений значений переменной от ее среднего значения.

Алгоритм:

  1. Вычисляется среднее.
  2. Вычисляется отклонение от среднего для каждого числа.
  3. Отклонение возводится в квадрат.
  4. Сумма квадратов.
  5. Делится на величину n.

Стандартное отклонение – положительное значение квадратного корня из дисперсии. Говорит о том, насколько могут значимо отклоняться изменяющиеся данные.

Понятие об асимметрии и эксцессе. Что они характеризуют и для  чего применяются?

Распределение может быть  приблизительно симметричным относительно моды  либо обладать отрицательной или положительной асимметрией. Положительно асимметричным считается распределение с более крутым левым и более пологим правым крылом, распределение с отрицательной асимметрией, напротив, имеет более пологий левый фронт нарастания и более крутой правый.

        Отрицательная 
          асимметрия, 
          As < 0

       Симметричное 
      распределение, 
       As = 0

     Положительная 
       асимметрия, 
       As > 0


Рассчитываемый по соответствующим формулам коэффициент асимметрии (As) может быть использован в качестве одного из критериев соответствия экспериментального распределения теоретическому.

Соответствие  эмпирического распределения нормальному  находится по соответствующим таблицам (в нашем приложении – табл. I). При этом эмпирическое распределение считается соответствующим теоретическому (нормальному), если асимметрия при данной выборке не превышает граничного значения.

Причины асимметрии могут быть различными. Во-первых, это  возможное действие побочных однонаправленных факторов. Так, например, в тестах на измерение интеллекта могут преобладать сложные задания, с которыми большинство испытуемых не справляется. Это может явиться причиной положительной асимметрии (центральная тенденция лежит слева от среднего значения).  Во-вторых, это ограничение (сверху или снизу) размаха вариаций. Например, при измерении времени сенсомоторной реакции нижний предел реагирования лимитирован физиологическими возможностями субъекта, в то время как верхний жестко не ограничен. Наконец, третьей причиной асимметрии может быть неоднородность  выборки (например, если исследование проводится в смешанной группе разного возраста).

Коэффициент эксцесса

В отличие от коэффициента асимметрии, коэффициент (показатель) эксцесса характеризует компактность или «размытость» распределения, его островершинность или плосковершинность, что связано с разным характером группирования значений переменной вокруг среднего (рис. 6.4).

 

Плосковершинное 
распределение, 
Ex < 0

       Нормальное 
      распределение, 
       Ex = 0

       Островершинное 
       распределение, 
       Ex > 0


Рис. 6.4. Типы эксцесса

Причинами эксцесса могут быть  большая  или меньшая степень тяготения переменных к центральной тенденции, неоднородность выборки, наложение друг на друга нескольких распределений с одинаковой модой и разной дисперсией  и т. д.

Аналогично определению асимметрии распределение соответствует нормальному (согласуется с нормальным), если Ex < Exкр. При обратном соотношении  принято говорить, что по показателю эксцесса эмпирическое распределение  статистически достоверно отличается от нормального.

При анализе эмпирического распределения  может возникнуть такая ситуация, когда по одному из показателей (асимметрии или эксцессу) распределение соответствует  нормальному, по другому же – отличается от него. В этом случае следует использовать следующее правило: если хотя бы по одному из вышеуказанных показателей распределение достоверно отличается от нормального, то следует делать вывод о том, что экспериментальное распределение отличается от теоретического (нормального).

Кроме коэффициента асимметрии и показателя эксцесса, для сравнения экспериментального распределения с теоретическим используют и другие критерии, в частности критерий хи-квадрат и критерий l Колмогорова - Смирнова.

 

 

Диаграмма рассеивания и ее применение. Интерпретация диаграммы рассеивания.

Коэффициент корреляции. Критерии выводов  о направлении и силе связи  по коэффициенту корреляции.

Анализ связей между признаками – главный вид  задач, встречающийся практически  в

любом эмпирическом исследовании.

При изучении корреляций стараются установить, существует ли какая-то связь между

двумя показателями в одной выборке (например, между  ростом и весом детей или между  уровнем

IQ и школьной успеваемостью) либо между двумя различными выборками (например, при

сравнении пар  близнецов), и если эта связь существует, то сопровождается ли увеличение одного

показателя возрастанием (положительная корреляция) или уменьшением (отрицательная

корреляция) другого.

Иными словами, корреляционный анализ помогает установить, можно ли предсказывать

возможные значения одного показателя, зная величину другого.

Корреляционная  связь – это согласованные изменения двух признаков или большего

количества  признаков (множественная корреляционная связь).

Корреляционная  зависимость – это изменения, которые вносят значения одного признака

в вероятность  появления разных значений другого  признака.

Зависимость подразумевает  влияние, связь – любые согласованные  изменения, которые

могут объясняться  сотнями причин. Корреляционные связи не могут рассматриваться как

свидетельство причинно-следственной связи, они свидетельствуют лишь о том, что изменениям

одного  признака, как правило, сопутствуют  определенные изменения другого, но находится ли

причина изменений в одном из признаков  или она оказывается за пределами  исследуемой пары

признаков, нам неизвестно.

Воздействия, которые  мы можем качественно определить или даже измерить, могут

рассматриваться как независимые переменные. Признаки, которые мы измеряем и которые, по

нашему предположению, могут изменяться под влиянием независимых  переменных, считаются

зависимыми переменными. Согласованные изменения независимой  и зависимой переменной

действительно могут рассматриваться как зависимость.

По направлению корреляционная связь может быть положительной ("прямой") и

отрицательной ("обратной"). При положительной прямолинейной корреляции более высоким

значениям одного признака соответствуют более высокие  значения другого, а более низким

значениям одного признака – низкие значения другого (см. Рис. 4.2). При отрицательной

корреляции соотношения  обратные.

Степень, сила или  теснота корреляционной связи определяется по величине коэффициента

корреляции.

Сила  связи не зависит от ее направленности и определяется по абсолютному значению

коэффициента  корреляции.

Коэффициент корреляции – это величина, которая может варьировать в пределах от +1 до

–1. В случае полной положительной корреляции этот коэффициент равен плюс 1, а при  полной

отрицательной – минус 1.

Используется  две системы классификации корреляционных связей по их силе: общая и

частная.

Общая классификация корреляционных связей:

1) сильная, или  тесная при коэффициенте корреляции r>0,70;

2) средняя при  0,50<r<0,69;

3) умеренная  при 0,30<r<0,49;

4) слабая при  0,20<r<0,29;

5) очень слабая  при r<0,19.

Частная классификация корреляционных связей:

1) высокая значимая корреляция при r, соответствующем уровню статистической значимости

ρ≤0.01

2) значимая корреляция  при r, соответствующем уровню  статистической значимости ρ≤0,05;

3) тенденция  достоверной связи при r, соответствующем  уровню статистической значимости

ρ≤0,10;

4) незначимая  корреляция при r, не достигающем  уровня статистической значимости.

В психологических  исследованиях чаще всего применяется  коэффициент линейной

корреляции r –  Пирсона и методы ранговой корреляции Спирмена и Кендала. Однако метод

Пирсона является параметрическим и поэтому не лишен недостатков, свойственных

параметрическим методам (необходимо, чтобы данные были измерены в интервальных шкалах

или распределение  не отличалось от нормального). Параметрическими являются также методы

определения корреляционного отношения и подсчета множественных коэффициентов корреляции.

Метод ранговой корреляции Спирмена, является непараметрическим  методом, он является

универсальным и работает с данными измеренными  в любых шкалах и прост в  применении.

Уникальность метода ранговой корреляции состоит в том, что он позволяет сопоставлять

не индивидуальные показатели, а индивидуальные иерархии, или профили, что недоступно ни

одному из других статистических методов, включая метод  линейной корреляции. Коэффициент

ранговой корреляции рекомендуется применять в тех случаях, когда нам необходимо проверить,

согласованно  ли изменяются разные признаки у одного и того же испытуемого и насколько

совпадают индивидуальные ранговые показатели у двух отдельных  испытуемых или у

испытуемого и группы

Коэффициент корреляции r-Пирсона, его вычисление, свойства, область допустимых значений, интерпретация результатов.

Коэффициент корреляции r-Спирмена, его вычисление, свойства, область допустимых значений, интерпретация результатов.

Коэффициент корреляции t-Кенделла, его вычисление, свойства, область допустимых значений, интерпретация результатов.

Коэффициент частной корреляции, его  вычисление, свойства, область допустимых значений, интерпретация результатов.

Нормальное распределение, его значение в математической статистике. Свойство нормального распределения. Семейство нормальных кривых.

Стандартизация, ее цели и задачи. Особенности применения стандартных  оценок стенов, Е-баллов, z-оценок.

Нормальное распределение. Варианты проверки на нормальность выборочного распределения.

Распределением признака называется закономерность встречаемости разных его значений.

Нормальное  распределение характеризуется тем, что крайние значения признака в нем

встречаются достаточно редко, а значения, близкие к средней величине – достаточно часто.

График нормального  распределения представляет собой  так называемую колоколообразную кривую. Нормальное распределение имеет  колоколообразную форму, асимптотически

приближается  к оси X (то есть может принимать  сколь угодно малые значения по ординате при

стремлении икс-значений к плюс или минус бесконечности), значения моды, медианы и среднего

Информация о работе Математические методы