ЕКСПЕРИМЕНТАЛЬНА ПСИХОЛОГІЯ
Тема 9. Кореляційні дослідження у психології
Під кореляцією (від лат. соггеШіо – “співвідношення”) розуміють реально встановлений факт взаємозв’язку певного стану однієї змінної з певними значеннями іншої, коли зміна однієї з них супроводжується зміною другої. Інакше кажучи, кореляція відображає факт коваріації змінних.
Кореляцію змінних х і у можна подати на так званій діаграмі розсіювання або кореляційному полі (рис. 4).
Рис. 4. Діаграма розсіювання (кореляційне
Множина крапок (результатів виміру х і у) утворює “хмаринку”, за формою якої і судять про зв’язок х і у. Чим більшим є такий зв’язок, тим більше витягнутою буде “хмаринка”.
Види кореляцій розрізняють, по-перше, за особливостями збору даних. При цьому виокремлюють:
– аутохонні кореляції, які являють собою кореляцію результатів виміру однієї й тієї ж змінної на одних і тих самих об’єктах – досліджуваних у різний час, що дає змогу встановити паттерн реакцій і, отже, відкриває шлях до дослідження структури особистості;
– синхронні
– перехресно-відстрочену кореляцію між двома змінними, які виміряються в різний проміжок часу, наприклад, одна – на першому етапі дослідження, друга – на кінцевому етапі.
По-друге, кореляції розрізняють за типом зв’язку, при цьому виокремлюють:
– лінійну кореляцію, в якій виокремлюють позитивну, коли підвищення рівня однієї змінної супроводжується підвищенням іншої, і негативну, коли зростання рівня однієї змінної супроводжується зменшенням рівня іншої;
– нульову, коли зв’язок між змінними відсутній;
– нелінійну кореляцію, коли підвищення рівня однієї змінної супроводжується зростанням іншої до певних значень, а потім супроводжується її зменшенням (рис. 5).
Рис. 5. Види кореляцій
(а і б – сильна і слабка позитивні, в – негативна, г – нульова, д і е – нелінійні кореляції)
Прикладом нелінійної кореляції може бути відомий закон Йєркса – Додсона, згідно з яким до певних показників зростання мотивації сприяє підвищенню ефективності навчання, а потім ефект супермотивації знижує дану ефективність.
Статистичною мірою кореляційного зв’язку є насамперед вибірковий коефіцієнт коваріації змінних х і у:
Тобто середній добуток відхилень кожної змінної.
Слід зауважити, що коваріація змінної самої з собою є дисперсією змінної:
Частіше як статистичну міру зв’язку між даними використовують коефіцієнт кореляції, який являє собою відношення отриманої коваріації до максимально можливої:
Значення коефіцієнта г (який називають коефіцієнтом Пірсона) тим більше, чим більшим є зв’язок між змінними. При цьому значущість цього зв’язку залежить від прийнятого рівня значущості й величини вибірки. Крім коефіцієнта Пірсона, для даних, отриманих за шкалою інтервалів можна використовувати коефіцієнт рангової кореляції Спірмена р:
Де n – кількість вимірів змінних.
Для шкали порядку з метою виміру зв’язків між змінними використовують коефіцієнт Кендалла, який грунтується на підрахунку розбіжностей у порядку ранжування змінних х і у.
Для дихотомічної шкали, яку іноді ототожнюють із шкалою найменувань, використовують так званий φ-коефіцієнт.
Наприклад, результати дослідження груп чоловіків і жінок, які проходили певне дослідження і досягли (або не досягли) успіху, можна подати таким чином (табл. 15):
Таблиця 15
Представлення результатів дослідження за дихотомічною шкалою
Групи | Успішні | Неуспішні | Разом |
Чоловіки | А | Ь | А+Ь |
Жінки | С | D | C+d |
Разом | А+с | Ь+d | A+Ь+c+d |
Тоді коефіцієнт ф можна визначити за формулою
Зазначимо, що якщо змінна представлена множиною n-випадків із середнім М і стандартним відхиленням σ, її значення можна перетворити на іншу множину даних із стандартним відхиленням, яке дорівнює 1. Тоді нові значення змінних будуть безпосередньо виражатися у відхиленнях вихідних значень від середнього, виміряних в одиницях стандартного відхилення. Це особливо важливо за необхідності порівняння результатів виміру змінних різної розмірності. Для цього “сирі” бали переводяться в стандартні оцінки z за формулою
У цьому випадку коефіцієнт кореляції буде визначатися за формулою
Слід зауважити, що стандартну оцінку для змінної у можна отримати, якщо стандартну оцінку змінної х помножити на коефіцієнт кореляції між х і у:
У результаті на діаграмі розсіювання можна побудувати так звану лінію передбачення, яка поєднує середні оцінки досліджуваної змінної у і тим самим дозволяє передбачити її значення за оцінками змінної х (рис. 6)
Як видно з рис. 6, лінія передбачення проходить через перетин точок zx = 0, zy = 0, які є середніми значеннями відповідних розподілів.
Кут нахилу лінії передбачення визначається величиною коефіцієнта кореляції. При цьому значенню коефіцієнта кореляції, який дорівнює 0, відповідає горизонтальна лінія, а значенню коефіцієнта кореляції, що рівний 1, відповідає лінія передбачення під кутом нахилу 45°.
Слід зауважити, що передбачувана величина (zу) ближче до середньої розподілу, ніж та величина, на основі якої робиться передбачення (zх), тому говорять, що передбачення прямують (регресують) до середнього, а лінія передбачення називається також лінією регресії х на у.
Рис. 6. Лінія передбачення значень змінної у за значеннями змінної х
(за Р. Готтсданкером)
Чим вище значення коефіцієнта кореляції, тим нижча регресія передбачення. У випадку повної кореляції регресія до середньої відсутня, тоді, наприклад, якщо значення zх = 1,5, то і значення zу = 1,5 і так для кожної пари значень змінних х і у.
Якщо кореляція між змінними відсутня, то лінія передбачення буде горизонтальною, і всі передбачувані значення в цьому випадку регресують до середнього.
Розглянута z-шкала є прикладом лінійного перетворення значень змінної, за якої зберігається співвідношення між первинними і z-показниками, отже, зберігаються всі властивості первинного розподілу.
Вищезазначені міркування стосуються тих випадків, коли форма розподілу змінних х і у подібна. Якщо необхідно порівняти дані, що представлені розподілами різної форми, використовують нелінійні перетворення. А. Анастазі зазначає про необхідність для такого роду обчислень перевести спочатку “сирі” значення в процентилі, а потім у нормалізовані стандартні показники.
Пошук і аналіз указаних статистичних мір зв’язку використовується, по-перше, як прийом статистичного аналізу даних, коли, наприклад, оцінюється надійність експериментальних результатів, валідність тестових методик, або коли відсутність кореляції дозволяє відкинути гіпотезу про причинно-наслідковий зв’язок між змінними. Неможливість відхилення 0-гіпотези в останньому випадку обумовлена відсутністю коваріації незалежної і залежної змінних, яка є суттєвою умовою каузального висновку. Отже, коефіцієнт кореляції, як міра
Зв’язку, може виконувати ту ж роль, що і міри відмінностей (наприклад, t-Стьюдента, дисперсійний аналіз тощо).
По-друге, оцінка статистичної міри зв’язку є необхідною складовою кореляційного дослідження як засобу емпіричної перевірки психологічних гіпотез про природні зв’язки між змінними, рівні яких активно не змінюються, а лише вимірюються дослідником.
Отже, кореляційним дослідженням, як правило, називають пасивно спостережуване дослідження, яке має на меті виявлення статистичного взаємозв’язку між змінними і психологічний прогноз на основі визначених інтеркореляцій.
Такого роду дослідження широко використовуються у випадку ускладнення предмета, коли організація активних експериментальних дій неможлива, утруднена або небажана, оскільки процеси, що досліджуються, можуть утратити якісну специфіку, якщо їх штучно ізолювати. Наприклад, досить важко, а з етичних міркувань і неможливо, дослідити каузальні зв’язки між розлученням батьків і розвитком певних особистісних характеристик дітей або, скажімо, між порядком народжуваності й інтелектом. Тут можливо установити тільки статистичні зв’язки.
Крім того, кореляційне дослідження, на відміну від експерименту, дає змогу у більшості випадків швидко провести дослідження, зекономити гроші й час.
Слід зауважити, що в разі встановлення значущого зв’язку між змінними залишається можливою велика кількість пояснень (або теоретичних гіпотез) стосовно характеру і природи такого зв’язку.
Зокрема, залежність, можливо, є каузальною, але напрям зв’язку може бути будь-яким, при цьому без експериментального контролю неможливо віддати перевагу жодному з них.
Так, наприклад, дослідження взаємозв’язку агресивності й перегляду телевізійних передач не дають остаточної відповіді стосовно того, чи агресивність спонукає до перегляду телевізійних передач певної спрямованості, чи, навпаки, такі передачі породжують агресивну поведінку.
Може виявитися, що змінні не будуть пов’язані каузальним зв’язком, але входять у комплекс взаємодії, що інші каузальні залежності породжують кореляцію між ними. Наприклад, високий рівень розвитку інтелекту може породжувати кореляцію між успішністю навчання з математики й історії і є в цьому випадку прихованою змінною.
У зв’язку з цим доцільно здійснити перевірку альтернативних пояснень щодо впливу “третього прихованого чинника” шляхом статистичного вилучення “підозрюваних” чинників впливу.
Наприклад, Л. Ірон і Р. Х’юсманн виявили, що інтенсивність перегляду фільмів зі сценами насильства у 875 восьмирічних дітей корелювала з агресивністю навіть після статистичного вилучення найбільш очевидних третіх факторів (чисельності сім’ї, статусу, освіти батьків тощо). Більш того, коли вони знову дослідили цих самих дітей у 19-річному віці, виявилося, що перегляд жорстоких бойовиків у помірному ступені визначає агресивність у 19 років, але агресивність у 8 років не визначає захоплення жорстокими бойовиками в 19 років. Це може означати, що не агресивна схильність зумовлює прагнення дивитися “круті” фільми, а швидше за все, “круті” фільми здатні провокувати людину на насилля, задаючи певні моделі поведінки.
Іноді кореляція може бути обумовлена неоднорідністю вибірки. Наприклад, коли до вибірки були відібрані чоловіки – математики, а жінки – журналісти, можна встановити кореляцію між статтю і екстравертованістю.
Може також трапитися, що кореляція між змінними обумовлена випадком і не має за собою опосередкованого впливу прихованих змінних чи інших причин.
Отже, в кореляційному дослідженні через відсутність запланованого впливу на залежну змінну використовуються ті характеристики, що вже існують, і це не дає змоги, як правило, встановити причинно-наслідкові залежності між змінними.
У той же час в окремих випадках і в кореляційних дослідженнях є можливим наблизитися до розуміння відношень між змінними як причинно-наслідкових подібно тому, як гіпотетико-дедуктивний метод міркувань є характерним для власне експериментальних досліджень і полягає у виведенні з системи теоретичних положень таких наслідків-гіпотез, які можуть бути перевірені емпірично з використанням процедур експериментального контролю. Йдеться про можливість порівняння емпірично виявлених кореляцій з тими, що теоретично припускаються у формальних каузальних моделях зв’язків між змінними, як, наприклад, у психогенетиці.
Плани кореляційних досліджень часто розглядають як форми контролю при отриманні емпіричних даних, тобто як аналог форм експериментального контролю. Такі плани містять:
– план виміру основних змінних;
– форми контролю діапазону їхніх проявів;
– форми контролю побічних змінних, які обумовлюють змішування змінних.
Контроль побічних змінних у кореляційному дослідженні здійснюється через складання однорідних груп, які вирівняні за усіма параметрами, крім одного, що цікавить дослідника.
Наприклад, у відомому дослідженні впливу порядку народжуваності на інтелект відмінності, скажімо, між 2 і 5 дитиною порівнювалися в межах однорідних груп – сімей, які мали 5, 6, 7 і більше дітей. Це дозволило уникнути змішування досліджуваних змінних із побічною змінною – соціально-економічним становищем сім’ї, оскільки сім’ї з низьким соціально-економічним статусом мають, як правило, більше дітей і гірші умови життя, які в цілому можуть негативно позначитися на рівні розвитку дітей. І дійсно, в цьому дослідженні було показано, що якщо досліджуються групи з різною кількістю дітей в сім’ях, виявляється кореляційний зв’язок між зниженням показників інтелекту і збільшенням чисельності сім’ї.
Отже, складання однорідних груп являє собою форму контролю у вигляді стабілізації всіх рівнів побічної змінної таким чином, щоб на кожному рівні незалежної змінної вони були представлені рівномірно. При цьому кількість однорідних підгруп дорівнює кількості рівнів побічних змінних.
Наприклад, у зазначеному дослідженні була виокремлена підгрупа з сім’єю з п’яти дітей і вже в середині цієї групи вивчався вплив порядку народження на інтелект.
Контроль побічних змінних із невеликою кількістю досліджуваних може також здійснюватися шляхом підбору пар досліджуваних, які вирівняні за побічною змінною, коли кожному індивіду однієї групи підбирається індивід другої групи з такими ж побічними характеристиками. При цьому виникає загроза нерепрезентативності вибірки, оскільки чим більше побічних змінних, тим менше можна підібрати досліджуваних з їхніми рівними значеннями.
У цілому контроль у кореляційних дослідженнях є статистичним, що означає, по-перше, більш-менш повне охоплення у вибірці всіх рівнів випадкових варіацій побічних змінних, по-друге, розгляд емпірично отриманого коефіцієнта кореляції між змінними як міра оцінки 0-гіпотези (про відсутність зв’язку між двома чи більше показниками вибірки).
Водночас на відміну від квазіекспериментальних схем “де і на кому проводити дослідження”, в яких встановлюється причинно-наслідковий зв’язок між змінними на основі контролю post factum (див. тему 8), в кореляційних дослідженнях такий контроль, як правило, відсутній.