Статистичні способи обробки експериментальних даних

[ виправити ] текст може містити помилки, будь ласка перевіряйте перш ніж використовувати.

скачати

Московський державний соціальний університет

Філія в м. Мінську

СТАТИСТИЧНІ СПОСОБИ ОБРОБКИ ЕКСПЕРИМЕНТАЛЬНИХ ДАНИХ

Контрольна робота з предмету

"Основи психологічного експериментування"

студентки 5 курсу з / о

Мінськ 2005

Зміст

Введення

1. Методи первинної статистичної обробки результатів експерименту

1.1 Мода

1.2 Медіана

1.3 Вибіркове середнє

1.4 Розкид вибірки

1.5 Дисперсія

2. Методи вторинної статистичної обробки результатів експерименту

2.1 Регресійні числення

2.2 Кореляція

2.3 Факторний аналіз

Висновок

Література

Введення

Методи статистичної обробки результатів експерименту.

Методами статистичної обробки результатів експерименту називаються математичні прийоми, формули, способи кількісних розрахунків, за допомогою яких показники, отримані в ході експерименту, можна узагальнювати, приводити в систему, виявляючи приховані в них закономірності. Мова йде про такі закономірності статистичного характеру, які існують між досліджуваними в експерименті змінними величинами.

Деякі з методів математико-статистичного аналізу дозволяють обчислювати так звані елементарні математичні статистики, що характеризують вибіркове розподіл даних, наприклад вибіркове середнє, вибіркова дисперсія, мода, медіана і ряд інших. Інші методи математичної статистики, наприклад дисперсійний аналіз, регресійний аналіз, дозволяють судити про динаміку зміни окремих статистик вибірки. За допомогою третьої групи методів, скажімо, кореляційного аналізу, факторного аналізу, методів порівняння вибіркових даних, можна достовірно судити про статистичні зв'язках, що існують між змінними величинами, які досліджують у даному експерименті.

1. Методи первинної статистичної обробки результатів експерименту

Всі методи математико-статистичного аналізу умовно діляться на первинні і вторинні. Первинними називають методи, за допомогою яких можна отримати показники, безпосередньо відображають результати вироблених в експерименті вимірювань. Відповідно під первинними статистичними показниками маються на увазі ті, які застосовуються в самих психодіагностичних методиках і є підсумком початковій статистичної обробки результатів психодіагностики. Вторинними називаються методи статистичної обробки, за допомогою яких на базі первинних даних виявляють приховані в них статистичні закономірності.

До первинних методам статистичної обробки відносять, наприклад, визначення вибіркової середньої величини, вибірковою дисперсії, вибіркової моди і вибіркової медіани. У число вторинних методів звичайно включають кореляційний аналіз, регресійний аналіз, методи порівняння первинних статистик у двох або декількох вибірок.

Розглянемо методи обчислення елементарних математичних статистик.

1.1 Мода

Числовий характеристикою вибірки, як правило, не вимагає обчислень, є так звана мода. Модою називають кількісне значення досліджуваної ознаки, найбільш часто зустрічається у вибірці. Для симетричних розподілів ознак, в тому числі для нормального розподілу, значення моди збігається зі значеннями середнього і медіани. Для інших типів розподілі, несиметричних, це не характерно. Наприклад, у послідовності значень ознак 1, 2, 5, 2, 4, 2, 6, 7, 2 модою є значення 2, так як воно зустрічається частіше за інших значень - чотири рази.

Моду знаходять згідно з такими правилами:

1) У тому випадку, коли всі значення у вибірці зустрічаються однаково часто, прийнято вважати, що цей вибірковий ряд не має моди. Наприклад: 5, 5, 6, 6, 7, 7 - у цій вибірці моди немає.

2) Коли два сусідніх (суміжних) значення мають однакову частоту і їх частота більше частот будь-яких інших значень, мода обчислюється як середнє арифметичне цих двох значень. Наприклад, у вибірці 1, 2, 2, 2, 5, 5, 5, 6 частоти поруч розташованих значень 2 та 5 збігаються і дорівнюють 3. Ця частота більше, ніж частота інших значень 1 та 6 (у яких вона дорівнює 1). Отже, модою цього ряду буде величина = 3,5

3) Якщо два несуміжні (не сусідніх) значення у вибірці мають рівні частоти, які більше частот будь-якого іншого значення, то виділяють дві моди. Наприклад, у ряді 10, 11, 11, 11, 12, 13, 14, 14, 14, 17 модами є значення 11 і 14. У такому випадку говорять, що вибірка є бімодальною.

Можуть існувати і так звані мультимодальні розподілу, що мають більше двох вершин (мод).

4) Якщо мода оцінюється по безлічі згрупованих даних, то для знаходження моди необхідно визначити групу з найбільшою частотою ознаки. Ця група називається модальної групою.

1.2 Медіана

Медіаною називається значення досліджуваного ознаки, яке ділить вибірку, впорядковану за величиною даної ознаки, навпіл. Праворуч і ліворуч від медіани в упорядкованому ряду залишається за однаковою кількістю ознак. Наприклад, для вибірки 2, 3, 4, 4, 5, 6, 8, 7, 9 медіаною буде значення 5, так як зліва і праворуч від нього залишається по чотири показника. Якщо ряд включає в себе парне число ознак, то медіаною буде середнє, взяте як полусумма величин двох центральних значень ряду. Для наступного ряду 0, 1, 1, 2, 3, 4, 5, 5, 6, 7 медіана буде дорівнює 3,5.

Знання медіани корисно для того, щоб встановити, чи є розподіл приватних значень вивченого ознаки симетричним і наближається до так званого нормальному розподілу. Середня і медіана для нормального розподілу зазвичай збігаються або дуже мало відрізняються один від одного. Якщо вибіркове розподіл ознак нормально, то до нього можна застосовувати методи вторинних статистичних розрахунків, засновані на нормальному розподілі даних. В іншому випадку цього робити не можна, тому що в розрахунки можуть приїздити серйозні помилки.

1.3 Вибіркове середнє

Вибіркове середнє (середнє арифметичне) значення як статистичний показник являє собою середню оцінку досліджуваного в експерименті психологічного якості. Ця оцінка характеризує ступінь його розвитку в цілому у тієї групи досліджуваних, яка була піддана психодиагностическому обстеженню. Порівнюючи безпосередньо середні значення двох або декількох вибірок, ми можемо судити про відносну ступеня розвитку у людей, що складають ці вибірки, оцінюється якості.

Вибіркове середнє визначається за допомогою наступної формули:

де х - вибіркова середня величина або середнє арифметичне значення по вибірці; n - кількість випробуваних у вибірці чи приватних психодіагностичних показників, на основі яких обчислюється середня величина; х k - приватні значення показників у окремих досліджуваних. Усього таких показників n, тому індекс k даної змінної приймає значення від 1 до n; Σ - прийнятий у математиці знак підсумовування величин тих змінних, які знаходяться праворуч від цього знаку. Вираз відповідно означає суму всіх х з індексом k, від 1до n. У психодіагностики і в експериментальних психолого-педагогічних дослідженнях середнє, як правило, не обчислюється з точністю, що перевищує один знак після коми, тобто з більшою, ніж десяті частки одиниці. У психодіагностичних обстеженнях велика точність розрахунків не потрібно і не має сенсу, якщо взяти до уваги приблизність тих оцінок, які в них виходять, і достатність таких оцінок для виробництва порівняно точних розрахунків.

1.4 Розкид вибірки

Розкид (іноді цю величину називають розмахом) вибірки позначається літерою R. Це самий простий показник, який можна отримати для вибірки - різниця між максимальною і мінімальною величинами даного конкретного варіаційного ряду, тобто

R = х max - х min

Зрозуміло, що чим сильніше варіює вимірюваний ознака, тим більше величина R, і навпаки. Проте може статися так, що у двох вибіркових рядів і середні, і розмах збігаються, проте характер варіювання цих рядів буде різний. Наприклад, дано дві вибірки:

Х = 10 15 20 25 30 35 40 45 50X = 30 R = 40

Y = 10 28 28 30 30 30 32 32 50 Y = 30 R = 40

При рівності середніх і розкидів для цих двох вибіркових рядів характер їх варіювання різний. Для того щоб більш чітко уявляти характер варіювання вибірок, слід звернутися до їх розподілом.

1.5 Дисперсія

Дисперсія - це середнє арифметичне квадратів відхилень значень змінної від її середнього значення.

Дисперсія як статистична величина характеризує, наскільки приватні значення відхиляються від середньої величини в даній вибірці. Чим більше дисперсія, тим більше відхилення або розкид даних.

де 5 - вибіркова дисперсія, або просто дисперсія;

2 (... ...) - вираз, що означає, що для всіх х, від першого до останнього в даній вибірці необхідно обчислити різниці між приватними і середніми значеннями, звести ці різниці в квадрат і підсумувати;

п - кількість випробуваних у вибірці чи первинних значень, за якими обчислюється дисперсія. Проте сама дисперсія, як характеристика відхилення від середнього, часто незручна для інтерпретації. Для того, щоб наблизити розмірність дисперсії до розмірності вимірюваної ознаки застосовують операцію добування квадратного кореня з дисперсії. Отриману величину називають стандартним відхиленням.

Із суми квадратів, ділених на число членв ряду витягується квадратний корінь.

Іноді вихідних приватних первинних даних, які підлягають статистичній обробці, буває досить багато, і вони вимагають проведення великої кількості елементарних арифметичних операцій. Для того щоб скоротити їх кількість і разом з тим зберегти потрібну точність розрахунків, іноді вдаються до заміни вихідної вибірки приватних емпіричних даних на інтервали. Інтервалом називається група впорядкованих за величиною значень ознаки, замінна в процесі розрахунків середнім значенням.

2. Методи вторинної статистичної обробки результатів експерименту

За допомогою вторинних методів статистичної обробки експериментальних даних безпосередньо перевіряються, доводяться або спростовуються гіпотези, пов'язані з експериментом. Ці методи, як правило, складніше, ніж методи первинної статистичної обробки, і вимагають від дослідника гарної підготовки в галузі елементарної математики і статистики. (7).

Обговорювану групу методів можна розділити на кілька підгруп:

1. Регресійне числення.

2. Методи порівняння між собою двох або декількох елементарних статистик (середніх, дисперсій і т.п.), що відносяться до різних вибірках.

3. Методи встановлення статистичних взаємозв'язків між змінними, наприклад їх кореляції один з одним.

4. Методи виявлення внутрішньої статистичної структури емпіричних даних (наприклад, факторний аналіз). Розглянемо кожну з виділених підгруп методів вторинної статистичної обробки на прикладах.

2.1 Регресійні числення

Регресійне числення - це метод математичної статистики, що дозволяє звести приватні, розрізнені дані до деякого лінійного графіком, приблизно відбиває їх внутрішню взаємозв'язок, і отримати можливість за значенням однієї із змінних приблизно оцінювати ймовірне значення іншої змінної (7).

Графічне вираження регресійного рівняння називають лінією регресії. Лінія регресії виражає найкращі передбачення залежною зміною (Y) із незалежним змінним (X).

Регресію виражають за допомогою двох рівнянь регресії, які в самому прямому випадку виглядають, як рівняння прямої.

Y = a 0 + a 1 * X (1)

X = b 0 + b 1 * Y (2)

У рівнянні (1) Y - залежна змінна, X - незалежна змінна, a 0 - вільний член, a 1 - коефіцієнт регресії, або кутовий коефіцієнт, що визначає нахил лінії регресії по відношенню до осей координат.

У рівнянні (2) X - залежна змінна, Y - незалежна змінна, b 0 - вільний член, b 1 - коефіцієнт регресії, або кутовий коефіцієнт, що визначає нахил лінії регресії по відношенню до осей координат.

Кількісне уявлення зв'язку (залежності) між Х та Y (між Y і X) називається регресійним аналізом. Головне завдання регресійного аналізу полягає в знаходженні коефіцієнтів a 0, b 0, a 1 та b 1 і визначенні рівня значимості отриманих аналітичних виразів, що зв'язують між собою змінні Х і У.

При цьому коефіцієнти регресії a 1 і b 1 показують, наскільки в середньому величина однієї змінної змінюється при зміні на одиницю заходи інший. Коефіцієнт регресії a 1 у рівнянні можна підрахувати за формулою:

а коефіцієнт b 1 в рівнянні за формулою

де r yx - коефіцієнт кореляції між змінними X і Y;

S x - середньоквадратичне відхилення, підраховану для змінної X;

S y - Середньоквадратичне відхилення, підраховану для змінної У /

Для застосування методу лінійного регресійного аналізу необхідно дотримуватися таких умов:

1. Порівнянні змінні Х і Y повинні бути виміряні в шкалі інтервалів або відносин.

2. Передбачається, що змінні Х і Y мають нормальний закон розподілу.

3. Число варіюють ознак у порівнюваних змінних має бути однаковим. (5).

2.2 Кореляція

Наступний метод вторинної статистичної обробки, за допомогою якого з'ясовується зв'язок або пряма залежність між двома рядами експериментальних даних, носить назву метод кореляцій. Він показує, яким чином одне явище впливає на інше або пов'язані з ним у своїй динаміці. Такі залежності існують, наприклад, між величинами, які у причинно-наслідкових зв'язках один з одним. Якщо з'ясовується, що два явища статистично достовірно корелюють один з одним і якщо при цьому є впевненість в тому, що одне з них може виступати в якості причини іншого явища, то звідси безумовно слід висновок про наявність між ними причинно-наслідкового залежності. (7)

Коли підвищення рівня однієї змінної супроводжується підвищенням рівня інший, то мова йде про позитивну кореляцію. Якщо ж зростання однієї змінної відбувається при зниженні рівня інший, то говорять про негативної кореляції. За відсутності зв'язку змінних ми маємо справу з нульовою кореляцією. (1)

Є кілька різновидів цього методу: лінійний, ранговий, парний і множинний. Лінійний кореляційний аналіз дозволяє встановлювати прямі зв'язки між змінними величинами з їхнім абсолютним значенням. Ці зв'язки графічно виражаються прямою лінією, звідси назва "лінійний". Ранговая кореляція визначає залежність не між абсолютними значеннями змінних, а між порядковими місцями, або рангами, займаними ними в упорядкованому за величиною ряду. Парний кореляційний аналіз включає вивчення кореляційних залежностей тільки між парами перемінних, а множинний, або багатовимірний, - між багатьма змінними одночасно. Поширеною у прикладній статистиці формою багатовимірного кореляційного аналізу є факторний аналіз. (5)

Коефіцієнт лінійної кореляції визначається за допомогою наступної формули:

де r xy - коефіцієнт лінійної кореляції;

х, у - середні вибіркові значення порівнюваних величин;

х i, у i - приватні вибіркові значення порівнюваних величин;

n - загальне число величин в порівнюваних рядах показників;

S 2 x, S 2 y - дисперсії, відхилення порівнюваних величин від середніх значень.

До коефіцієнту рангової кореляції в психолого-педагогічних дослідженнях звертаються в тому випадку, коли ознаки, між якими встановлюється залежність, є якісно різними і не можуть бути досить точно оцінені за допомогою так званої інтервальної вимірювальної шкали. Інтервальної називають таку шкалу, яка дозволяє оцінювати відстані між її значеннями і судити про те, яке з них більше і наскільки більше іншого. Наприклад, лінійка, за допомогою якої оцінюються і порівнюються довжини об'єктів, є інтервального шкалою, так як, користуючись нею, ми можемо стверджувати, що відстань між двома і шістьма сантиметрами в два рази більше, ніж відстань між шістьма і вісьма сантиметрами. Якщо ж, користуючись деяким вимірювальним інструментом, ми можемо тільки стверджувати, що одні показники більше за інших, але не в змозі сказати на скільки, то такий вимірювальний інструмент називається не інтервальним, а порядковим.

Більшість показників, які отримують у психолого-педагогічних дослідженнях, належать до порядковим, а не до інтервальним шкалами (наприклад, оцінки типу "так", "ні", "скоріше ні, ніж так" та інші, які можна переводити у бали), тому коефіцієнт лінійної кореляції до них непридатний. У цьому випадку звертаються до використання коефіцієнта рангової кореляції, формула якого наступна:

де R s - коефіцієнт рангової кореляції за Спирмену;

d i - різниця між рангами показників одних і тих же випробовуваних в упорядкованих рядах;

n - число досліджуваних або цифрових даних (рангів) у корелюється рядах.

Метод множинних кореляцій на відміну від методу парних кореляцій дозволяє виявити загальну структуру кореляційних залежностей, які існують всередині багатовимірного експериментального матеріалу, який включає більше двох змінних, і представити ці кореляційні залежності у вигляді деякої системи.

Для застосування приватного коефіцієнта кореляції необхідно дотримуватися таких умов:

1. Порівнянні змінні повинні бути виміряні в шкалі інтервалів або відносин.

2. Передбачається, що всі змінні мають нормальний закон розподілу.

3. Число варіюють ознак у порівнюваних змінних має бути однаковим.

4. Для оцінки рівня достовірності кореляційного відносини Пірсона слід користуватися формулою (11.9) і таблицею критичних значень для t-критерію Стьюдента при k = n - 2. (5)

2.3 Факторний аналіз

Факторний аналіз - статистичний метод, який використовується при обробці великих масивів експериментальних даних. Завданнями факторного аналізу є: скорочення числа змінних (редукція даних) та визначення структури взаємозв'язків між змінними, тобто класифікація змінних, тому факторний аналіз використовується як метод скорочення даних або як метод структурної класифікації.

Важлива відмінність факторного аналізу від всіх описаних вище методів полягає в тому, що його не можна застосовувати для обробки первинних, або, як кажуть, "сирих", експериментальних даних, тобто отриманих безпосередньо при обстеженні досліджуваних. Матеріалом для факторного аналізу служать кореляційні зв'язки, а точніше - коефіцієнти кореляції Пірсона, які обчислюються між змінними (тобто психологічними ознаками), включеними до обстеження. Іншими словами, факторному аналізу піддають кореляційні матриці, або, як їх інакше називають, матриці интеркорреляций. Найменування стовпців і рядків у цих матрицях однакові, тому що вони представляють собою перелік змінних, включених в аналіз. З цієї причини матриці интеркорреляций завжди квадратні, тобто кількість рядків у них дорівнює кількості шпальт, і симетричні, тобто на симетричних місцях щодо головної діагоналі стоять одні й ті ж коефіцієнти кореляції.

Головне поняття факторного аналізу - фактор. Це штучний статистичний показник, що виникає в результаті спеціальних перетворень таблиці коефіцієнтів кореляції між досліджуваними психологічними ознаками, або матриці интеркорреляций. Процедура вилучення факторів з матриці интеркорреляций називається факторизації матриці. У результаті факторизації з кореляційної матриці може бути вилучено різну кількість чинників аж до числа, рівного кількості вихідних змінних. Однак фактори, що виділяються в результаті факторизації, як правило, нерівноцінні за своїм значенням. (5)

За допомогою виявлених факторів пояснюють взаємозалежність психологічних явищ. (7)

Найчастіше в результаті факторного аналізу визначається не один, а кілька факторів, по-різному пояснюють матрицю интеркорреляций змінних. У такому випадку фактори ділять на генеральні, загальні і одиничні. Генеральними називаються фактори, всі факторні навантаження яких значно відрізняються від нуля (нуль навантаження свідчить про те, що дана зміна ніяк не пов'язана з іншими і не чинить на них ніякого впливу в житті). Загальні - це фактори, які мають частина факторних навантажень відмінна від нуля. Одиничні - це чинники, в яких істотно відрізняється від нуля тільки одна з навантажень. (7)

Факторний аналіз може бути доречним, якщо виконуються наступні критерії.

1. Не можна факторізовать якісні дані, отримані за шкалою найменувань, наприклад, такі, як колір волосся (чорний / каштановий / рудий) і т.п.

2. Всі змінні повинні бути незалежними, а їх розподіл повинен наближатися до нормального.

3. Зв'язки між змінними повинні бути приблизно лінійні або, принаймні, не мати явно криволінійного характеру.

4. У вихідній кореляційної матриці має бути кілька кореляцій по модулю вище 0,3. В іншому випадку досить важко витягти з матриці будь-які чинники.

5. Вибірка досліджуваних повинна бути досить великою. Рекомендації експертів варіюють. Найбільш жорстка точка зору рекомендує не застосовувати факторний аналіз, якщо кількість піддослідних менше 100, оскільки стандартні помилки кореляції в цьому випадку виявляться занадто великі.

Однак якщо чинники добре визначені (наприклад, з навантаженнями 0,7, а не 0,3), експериментатору потрібна менша вибірка, щоб виділити їх. Крім того, якщо відомо, що отримані дані відрізняються високою надійністю (наприклад, використовуються валідні тести), то можна аналізувати дані і по меншій кількості випробовуваних. (5).

2.4 Використання факторного аналізу в психології

Факторний аналіз широко використовується в психології в різних напрямках, пов'язаних з рішенням як теоретичних, так і практичних проблем.

У теоретичному плані використання факторного аналізу пов'язано з розробкою так званого факторно-аналітичного підходу до вивчення структури особистості, темпераменту і здібностей. Використання факторного аналізу в цих сферах засноване на широко прийнятому допущенні, згідно з яким спостережувані і доступні для прямого вимірювання показники є лише непрямими і / або приватними зовнішніми проявами більш загальних характеристик. Ці характеристики, на відміну від перших, є прихованими, так званими латентними змінними, оскільки вони є поняття або конструкти, які не доступні для прямого вимірювання. Однак вони можуть бути встановлені шляхом факторизації кореляційних зв'язків між спостережуваними рисами і виділенням факторів, які (за умови гарної структури) можна інтерпретувати як статистичне вираз шуканої латентної змінної.

Хоча фактори мають чисто математичний характер, передбачається, що вони репрезентують приховані змінні (теоретично постуліруемое конструкти або поняття), тому назви факторів нерідко відображають сутність досліджуваного гіпотетичного конструкту.

В даний час факторний аналіз широко використовується в диференціальній психології і психодіагностики. З його допомогою можна розробляти тести, встановлювати структуру зв'язків між окремими психологічними характеристиками, вимірюваними набором тестів або завданнями тесту.

Факторний аналіз використовується також для стандартизації тестових методик, яка проводиться на репрезентативній вибірці випробуваних.

Для більш детального ознайомлення з різними варіантами застосування факторного аналізу в психології рекомендуємо таку літературу:

Благуш П. Факторний аналіз з узагальненнями. М.: Фінанси і статистика, 1989.

Іберла К. Факторний аналіз. М.: Статистика, 1980.

Кім Дж.О., Мьюллер Ч.У. Факторний аналіз: статистичні методи і практичні питання / / Факторний, дискримінаційний і кластерний аналіз. М.: Фінанси і статистика, 1989.

Окунь Я. Факторний аналіз. М.: Статистика, 1974.

Харман Г. Сучасний факторний аналіз. М.: Статистика, 1972. (5)

Висновок

Якщо дані, отримані в експерименті, якісного характеру, то правильність зроблених на основі їх висновків повністю залежить від інтуїції, ерудиції і професіоналізму дослідника, а також від логіки його міркувань. Якщо ж ці дані кількісного типу, то спочатку проводять їх первинну, а потім вторинну статистичну обробку. Первинна статистична обробка полягає у визначенні необхідного числа елементарних математичних статистик. Така обробка майже завжди передбачає як мінімум визначення вибіркового середнього значення. У тих випадках, коли інформативним показником для експериментальної перевірки запропонованих гіпотез є розкид даних відносного середнього, обчислюється дисперсія чи відхилення. Значення медіани рекомендується обчислювати тоді, коли передбачається використовувати методи вторинної статистичної обробки, розраховані на нормальний розподіл, Для такого роду розподілу вибіркових даних медіана, а також мода збігаються або досить близькі до середньої величини. Цим критерієм можна скористатися для того, щоб приблизно судити про характер отриманого розподілу первинних даних.

Вторинна статистична обробка (порівняння середніх, дисперсій, розподілів даних, регресійний аналіз, кореляційний аналіз, факторний аналіз і ін) проводиться в тому випадку, якщо для вирішення завдань або докази запропонованих гіпотез необхідно визначити статистичні закономірності, приховані у первинних експериментальних даних. Приступаючи до вторинної статистичної обробки, дослідник передусім повинен вирішити, які з різних вторинних статистик йому слід застосувати для обробки первинних експериментальних даних. Рішення приймається на основі врахування характеру перевіряється гіпотези і природи первинного матеріалу, отриманого в результаті проведення експерименту. Наведемо кілька рекомендацій на цей рахунок.

Рекомендація 1. Якщо експериментальна гіпотеза містить припущення про те, що в результаті проведеного психолого-педагогічного дослідження зростуть (або зменшаться) показники якого-небудь якості, то для порівняння до - і постексперіментальних даних рекомендується використовувати критерій Ст'юдента або χ 2-критерій. До останнього звертаються в тому випадку, якщо первинні експериментальні дані відносні і виражені, наприклад, у відсотках.

Рекомендація 2. Якщо експериментально перевіряється гіпотеза включає в себе твердження про причинно-наслідкової залежності між деякими змінними, то її доцільно перевіряти, звертаючись до коефіцієнтів лінійної або рангової кореляції. Лінійна кореляція використовується в тому випадку, коли вимірювання незалежною і залежною змінних виробляються за допомогою інтервальної шкали, а зміни цих змінних до і після експерименту невеликі. До рангової кореляції звертаються тоді, коли досить оцінити зміни, що стосуються порядку проходження один за одним по величині незалежних і залежних змінних, або коли їх зміни досить великі, або коли вимірювальний інструмент був порядковим, а не інтервальним.

Рекомендація 3. Іноді гіпотеза включає припущення про те, що в результаті експерименту зростуть або зменшаться індивідуальні відмінності між випробуваними. Таке припущення добре перевіряється за допомогою критерію Фішера, що дозволяє порівняти дисперсії до і після експерименту. Зауважимо, що, користуючись критерієм Фішера, можна працювати тільки з абсолютними значеннями показників, але не з їх рангами.

Результати кількісного та якісного аналізу матеріалу, отриманого під час проведення експерименту, первинної та вторинної статистичної обробки цього матеріалу, використовуються для доказу правильності запропонованих гіпотез. Висновки про їх істинності є логічним наслідком докази, в процесі якого в якості основного аргументу виступає бездоганність логіки самого докази, а в якості фактів - те, що встановлено в результаті кількісного та якісного аналізу експериментальних даних.

Факти в ході докази обов'язково повинні співвідноситися з гіпотезами. У процесі такого співвіднесення з'ясовується, наскільки повно наявні факти доводять, підтверджують запропоновані гіпотези. (7)

Література

  1. Годфруа Ж. Що таке психологія: У 2-х т. Т.2: Пер. з франц. - М.: Світ, 1992. - 376 с.

  2. Горбатов Д.С. Практикум з психологічного дослідження: Учеб. посібник. - Самара: "БАХРАХ - М", 2003. - 272 с.

  3. Дружинін В.М. Експериментальна психологія: Навчальний посібник - М.: ИНФРА-М, 1997. - 256 с.

  4. Дружинін В.М. Експериментальна психологія - СПб: Питер, 2000. - 320с.

  5. Єрмолаєв О.Ю. Математична статистика для психологів. - М.: Московський психолого-соціальний інститут: Флінта, 2003.336с.

  6. Корнілова Т.В. Введення в психологічний експеримент. Підручник для ВУЗів. М.: Изд-во ЧеРо, 2001.

  7. Немов Р.С. Психологія. Кн.3: ​​Психодіагностика. Введення в наукове психологічне дослідження з елементами математичної статистики. - М.: ВЛАДОС, 1998. - 632 с.

Додати в блог або на сайт

Цей текст може містити помилки.

Психологія | Контрольна робота
60.9кб. | скачати


Схожі роботи:
Методика обробки експериментальних даних 2
Методика обробки експериментальних даних
Аналіз пакетів обробки експериментальних даних SABR і BOOTSTRAP
Статистичні методи обробки даних
Найпростіші способи обробки дослідних даних
Статистичні методи оцінки вимірів в експериментальних дослідженнях
Аналіз експериментальних даних
Застосування систем лінійних рівнянь для апроксимації експериментальних даних
Статистичні методи обробки
© Усі права захищені
написати до нас