Автор: Пользователь скрыл имя, 14 Декабря 2011 в 14:15, реферат
Метод порівняння паралельних рядів. Цей метод широко застосову¬ється для встановлення зв'язку між явищами, які пов`язані між собою. Сут¬ність його полягає в тому, що дані ряду факторної ознаки розміщуються за принципом її зростання, або зменшення, або за якимось іншим принципом, і паралельно наводиться ряд даних результативної ознаки, яка залежить від факторної. Шляхом порівняння наведених рядів виявляються наявність і на¬прямок зміни результативної ознаки від зміни факторної ознаки. У тих ви¬падках, коли зростання факторної ознаки тягне за собою зростання і величи¬ни результативної ознаки, можна казати про наявність прямої кореляційної залежності. Якщо ж із збільшенням факторної ознаки, величина результа-тивної ознаки має тенденцію до зменшення, то можна припустити наявність оберненого зв`язку між ознаками.
ух = а0 + а1х,
де ух – ординати шуканої прямої, або вирівнюванні значення результативної ознаки; х – факторна ознака; а0 і а1 – параметри рівняння.
Перший параметр рівняння а0 – ордината лінії при х = 0. Параметр а1, який називається коефіцієнтом регресії, – це показник середньої зміни ознаки у на одиницю ознаки х в межах даного дослідження.
Якщо ми маємо обернену залежність між результативною та факторною ознакою, то рівняння лінійної залежності буде мати вигляд:
ух = а0 – а1х,.
Така лінія регресії нами побудована на рисунку 18. Її параметри будуть мати вигляд: y = 24,438-0,4978x.
Для знаходження параметрів рівняння а0 і а1 застосовують спосіб найменших квадратів. Цей спосіб полягає в тому, що знаходять такі значення коефіцієнтів рівняння, при яких сума відхилень фактичних значень результативної ознаки від обчислених за допомогою рівняння буде найменша з усіх можливих, тобто сума відхилень точок кореляційного поля від відповідних точок теоретичної лінії регресії дорівнює нулю.
Якщо попередній аналіз досліджуваних явищ, зв'язок між якими вивчається, показує, що рівним змінам середніх значень факторної ознаки відповідають нерівні зміни середніх значень результативної ознаки, то для вираження загального характеру зв'язку застосовують криволінійні форми кореляційних рівнянь, з яких найбільш частіше використовуються вирівнювання за параболою і гіперболою.
Прямолінійне кореляційне рівняння має більш широке застосування, тому що його параметри легше обчислити, хоча в реальному житті лінійний зв'язок між явищами суспільного життя зустрічається дуже рідко. Але якщо вибрати не тривалий термін часу, то яка завгодно крива лінія обов`язково наближується до прямої лінії. Тому вибір прямої лінії можна розглядати як деяке спрощення дійсної залежності між явищами і істотного спрощення усіх розрахунків.
Друге завдання кореляційного аналізу – це вимірювання щільності зв'язку, тобто ступеня впливу х на варіацію ознаки у. Щільність кореляційного зв'язку оцінюється за допомогою коефіцієнта кореляції та кореляційного відношення. Коефіцієнт кореляції – це числова характеристика, що виражає взаємозв'язок і спільний розподіл двох випадкових величин. Він достатньо точно оцінує ступінь щільності взаємозв`язку при наявності лінійної залежності між факторними та результативною ознаками. При наявності криволінійної залежності він недооцінює ступінь щільності зв`язку, тому рекомендується використовувати у якості показника ступеню щільності зв`язку кореляційне відношення. Обчислення кореляційного відношення можливо лише при наявності достатньо великої кількості даних, які наведені, як правило, у вигляді групової таблиці. Обчислення кореляційного відношення при великій кількості груп і малої кількості одиниць у кожній групі позбавлено сенсу.
Індекс кореляції завжди повинен знаходитися в межах від нуля до одиниці. Якщо індекс кореляції дорівнює нулю, то немає ніякого взаємозв`язку між досліджуваними явищами, інакше кажучи, результативна ознака не залежить зовсім від зміни цієї факторної ознаки. Якщо індекс кореляції дорівнює одиниці, то це свідчить про наявність повного, функціонального зв`язку між явищами, про те, що результативна ознака повністю залежить від зміни факторної ознаки.
Чим ближче одержаний результат до одиниці, тим більш щільно результативна ознака залежить від факторної, і навпаки.
Індекс кореляції може мати як знак плюс, так і знак мінус. Якщо залежність між показниками пряма, то індекс кореляції має знак плюс; якщо залежність між показниками обернена, то індекс кореляції матимемо знак мінус.
Оцінити щільність взаємозв`язку можна лише за допомогою законів математичної статистики. З цією метою застосовуються спеціальні таблиці. На практиці для більшості економічних розрахунків вважається, що він обов`язково повинен бути більше 0,75, щоб більше, ніж на три четверті зміна результативної ознаки складалась під впливом факторної.
За прикладом (табл. 27) коефіцієнт кореляції дорівнює -0,97247, тобто на 97,2 % вчинення злочину залежить від віку злочинців. (Умовний приклад). Якщо в дійсності коефіцієнт кореляції має таке значення, то слід мати на увазі, що в цьому випадку можна казати про те, що між показниками існує дуже щільний зв`язок, який наближує його до функціонального.
В юридичній науці була зроблена спроба розробити спеціальний коефіцієнт кореляції між показниками судимості та покарання, але ця формула не знайшла розповсюдження, тому ми її не наводимо.
Обчисливши лінійний коефіцієнт кореляції, оцінюючий ступінь зв`язку між змінами факторної та результативної ознаки, можна обчислити коефіцієнт регресії, що дає змогу вирішити завдання обґрунтованого прогнозу тенденцій зміни результативного фактору в майбутньому. Практичне використання рівнянь регресії з метою екстраполяції можливо лише в тоді, коли, ми вважаємо, що в майбутньому істотно не змінюються умови формування рівнів ознаки, які лежали в основі обчислення параметрів рівняння регресії. Це ще раз підкреслює, що метод екстраполяції на основі рівнянь регресії може застосовуватися на практиці лише на не тривалий термін часу.
Ми зупинилися лише на розгляді питань парної кореляції. В дійсності ж при проведенні статистичного аналізу правових явищ слід вивчати багатофакторні кореляційні взаємозв`язки, тому що в практиці результативний фактор змінюється під впливом декількох причин, факторних ознак. Одночасне вивчення впливу їх провадиться на основі використання методів множинної кореляції. В цьому випадку можна обчислити часткові та множинні коефіцієнти кореляції, які дають змогу встановити вплив різних факторів на зміну результативної ознаки.
Якщо позначити фактори х1, х2, х3, …, хm, то лінійне рівняння множинної кореляційної залежності може бути у загальному вигляді записано таким чином:
ух1, х2, х3, …, хm = b0 + b1 х1+b2 х2 +b3 х3+ …+ bm хm.
По параметрам цього рівняння можна оцінити внесок кожного із факторів на зміну рівня результативного фактору. Коефіцієнти рівняння множинної регресії дають змогу встановити абсолютний розмір впливу факторів на рівень результативної ознаки і характеризують ступінь впливу кожного фактора на результативну ознаку при фіксованому (середньому) рівні інших факторів.
З метою порівняння оцінок ролі різних факторів у формуванні результативної ознаки необхідно доповнити абсолютні показники відносними, такими як коефіцієнт еластичності, бета та дельта-коефіцієнти, які дають змогу уточнити вплив різних факторів на ті чи інші результати. Так, частковий коефіцієнт еластичності показує, на скільки відсотків в середньому змінюється результативна ознаки зі зміною ознаки-фактора (наприклад, першого) на один відсоток при фіксованому стані інших факторів. Бета-коефіцієнт дозволяє порівнювати вплив коливання різних факторів на варіацію результативної ознаки, на основі чого виявляються фактори, в розвитку яких закладені найбільші резерви зміни результативної ознаки. З метою оцінки частки впливу кожного фактора у сумарний їх вплив розраховуються дельта-коефіцієнти. При достатньо значній кількості факторів, які включені до рівняння регресії, проводиться ранжування факторів за величиною цих коефіцієнтів.
Побудова
багатофакторних регресійних
Кореляційний
аналіз дозволяє вимірити залежність
юридично значущих явищ від інших, встановити
взаємозв`язок рівнів попередніх і
сучасних періодів часу одного і того
ж явища. Цей останній вид кореляційного
аналізу має назву
Можливості
широкого застосування методів кореляції
в недалекому минулому стримувалося
значною трудомісткістю необхідних
розрахунків. Сьогодні при застосуванні
сучасної обчислювальної техніки –
ці обмеження не мають значення.
Але роль дослідника при проведенні
кореляційного аналізу
Література: