Нелінійні регресії

[ виправити ] текст може містити помилки, будь ласка перевіряйте перш ніж використовувати.

скачати

Рег. № _________________
"___"_______________ 2008р.
МОСКОВСЬКИЙ НОВИЙ ЮРИДИЧНИЙ ІНСТИТУТ
Факультет: Фінансово-економічний
Реферат
З дисципліни: "Економетрика"
_____________________________________________________________
На тему: _____" Нелінійні регресії "
Студента
Кулешова Юлії В'ячеславівни
Группа_____М07ФЗВС-2/04 сп____
Курcу _____второй______
Форма обученія__ _заочная______
Преподаватель_______________
Дата сдачі___________________
Результат проверкі_____________
Робота захищена з оцінкою
2008/2009 уч. рік

Зміст

Введення. 3
1. Лінійна регресія. 5
2. Поліноміальна регресія. 6
3. Нелінійна регресія. 8
4. Згладжування даних. 12
5. Передбачення залежностей. 14
Література. 15

Введення

Апроксимація даних з урахуванням їх статистичних параметрів відноситься до завдань регресії. Вони зазвичай виникають при обробці експериментальних даних, отриманих в результаті вимірювань процесів або фізичних явищ, статистичних за своєю природою (як, наприклад, вимірювання в радіометрії та ядерної геофізики), або на високому рівні перешкод (шумів). Завданням регресійного аналізу є підбір математичних формул, найкращим чином описують експериментальні дані.
Математична постановка задачі регресії полягає в наступному. Залежність величини (числового значення) певного властивості випадкового процесу або фізичного явища Y від іншого змінного властивості або параметра Х, яке в загальному випадку також може відноситися до випадкової величиною, зареєстрована на безлічі точок xk безліччю значень yk, при цьому в кожній точці зареєстровані значення yk і xk відображають дійсні значення Y (хk) з випадковою похибкою  k, розподіленої, як правило, за нормальним законом. За сукупністю значень yk потрібно підібрати таку функцію f (xk, a0, a1, ..., an), якої залежність Y (x) відображалася б з мінімальною похибкою. Звідси випливає умова наближення:
yk = f (xk, a0, a1, ..., an) +  k.
Функцію f (xk, a0, a1, ..., an) називають регресією величини y на величину х. Регресійний аналіз передбачає завдання виду функції f (xk, a0, a1, ..., an) і визначення чисельних значень її параметрів a0, a1, ..., an, які забезпечують найменшу похибку наближення до безлічі значень yk. Як правило, при регресійному аналізі похибка наближення обчислюється методом найменших квадратів (МНК). Для цього виконується мінімізація функції квадратів залишкових помилок:
  a0, a1, ..., an) = [F (xk, a0, a1, ..., an) - yk] 2.
Для визначення параметрів a0, a1, ..., an функція залишкових помилок диференціюється за всіма параметрами, отримані рівняння приватних похідних прирівнюються нулю і вирішуються у сукупності щодо всіх значень параметрів. Види регресії зазвичай називаються за типом апроксимуючих функцій: поліноміальна, експонентна, логарифмічна і т.п.

1. Лінійна регресія

Загальний принцип. Найпростіший спосіб апроксимації за МНК довільних даних sk - за допомогою полінома першого ступеня, тобто функції виду y (t) = a + bt. З урахуванням дискретності даних по точках tk, для функції залишкових помилок маємо:
 (a, b) = [(A + b · tk) - sk] 2.
Диференціюючи функцію залишкових помилок з аргументів a, b, прирівнюємо отримані рівняння нулю і формуємо 2 нормальних рівняння системи:
(A + b · tk) - sk º a 1 + b tk - sk = 0,
((A + b · tk) - sk) · tk º a tk + b tk2 - sk · tk = 0,
Рішення даної системи рівнянь в явній формі для К-відліків:
b = [K tk · sk - tk sk] / [K tk2 - ( tk) 2],
a = [ sk - b tk] / K.
Отримані значення коефіцієнтів використовуємо в рівнянні регресії y (t) = a + bt. За аналогічною методикою обчислюються коефіцієнти і будь-яких інших видів регресії, відрізняючись тільки громіздкістю відповідних виразів.
Реалізація в Mathcad. Лінійна регресія в системі Mathcad виконується по векторах аргументу Х і відліків Y функціями:
intercept (X, Y) - обчислює параметр а, зсув лінії регресії по вертикалі;
slope (X, Y) - обчислює параметр b, кутовий коефіцієнт лінії регресії.
Розташування відліків по аргументу Х довільне. Функцією corr (X, Y) додатково можна обчислити коефіцієнт кореляції Пірсона. Чим він ближче до 1, тим точніше оброблювані дані відповідають лінійної залежності.
Приклад виконання лінійної регресії наведено на рис.2.1.1

Рис.2.1.1

2. Поліноміальна регресія

Одновимірна поліноміальна регресія з довільною ступенем n полінома і з довільними координатами відліків в Mathcad виконується функціями:
regress (X, Y, n) - обчислює вектор S для функції interp (...), у складі якого знаходяться коефіцієнти ki полінома n-го ступеня;
interp (S, X, Y, x) - повертає значення функції апроксимації за координатами х.
Функція interp (...) реалізує обчислення за формулою:
f (x) = k0 + k1 · x1 + k2 · x2 + ... + kn · xn ≡ ki · xi.
Значення коефіцієнтів ki можуть бути вилучені з вектора S функцією submatrix (S, 3, length (S), 0, 0).
На ріс.2.2.1 наведено приклад поліноміальної регресії з використанням поліномів 2, 3 та 8-го ступеня. Ступінь полінома зазвичай встановлюють не більше 4-6 з послідовним підвищенням ступеня, контролюючи середньоквадратичне відхилення функції апроксимації від фактичних даних. Неважко помітити, що в міру підвищення ступеня полінома функція апроксимації наближається до фактичних даних, а при ступені полінома, рівною кількістю відліків даних мінус 1, взагалі перетворюється на функцію інтерполяції даних, що не відповідає завданням регресії.

Ріс.2.2.1 Одновимірна поліноміальна регресія.
Зональна регресія. Функція regress по всій сукупності точок створює один апроксимуючої поліном. При великих координатних інтервалах з великою кількістю відліків і досить складну динаміку зміни даних рекомендується застосовувати послідовну локальну регресію відрізками поліномів малих ступенів. У Mathcad це виконується відрізками поліномів другого ступеня функцією loess (X, Y, span), яка формує спеціальний вектор S для функції interp (S, X, Y, x). Аргумент span> 0 в цій функції (порядку 0.1-2) визначає розмір локальної області та підбирається з урахуванням характеру даних і необхідного ступеня їх згладжування (чим більше span, тим більше ступінь згладжування даних).


Ріс.2.2.2
На ріс.2.2.2 наведено приклад обчислення регресії модельної кривої (відрізка синусоїди) в сумі з шумами. Обчислення виконані для двох значень span з визначенням середньоквадратичного наближення до базової кривої. При моделюванні будь-яких випадкових процесів і сигналів на високому рівні шумів по мінімуму середньоквадратичного наближення може визначатися оптимальне значення параметра span.

3. Нелінійна регресія

Лінійне підсумовування довільних функцій. У Mathcad є можливість виконання регресії з наближенням до функції загального виду у вигляді ваговій суми функцій fn (x):
f (x, Kn) = K1 · f1 (x) + K2 · f2 (x) + ... + KN · fN (x),
при цьому самі функції fn (x) можуть бути будь-якого, в тому числі нелінійного типу. З одного боку, це різко підвищує можливості аналітичного відображення функцій регресії. Але, з іншого боку, це вимагає від користувача певних навичок апроксимації експериментальних даних комбінаціями досить простих функцій.
Реалізується узагальнена регресія по векторах X, Y і f функцією linfit (X, Y, f), яка обчислює значення коефіцієнтів Kn. Вектор f повинен містити символьну запис функцій fn (x). Координати xk у векторі Х можуть бути будь-якими, але розташованими у порядку зростання значень х (з відповідними відліками значень yk у векторі Y). Приклад виконання регресії наведено на ріс.2.3.1 Числові параметри функцій f1-f3 підбиралися по мінімуму середньоквадратичного відхилення.

Ріс.2.3.1 Узагальнена регресія.
Регресія загального типу. Другий вид нелінійної регресії реалізується шляхом підбору параметрів ki до заданої функції апроксимації з використанням функції genfit (X, Y, S, F), яка повертає коефіцієнти ki, що забезпечують мінімальну середньоквадратичне похибка наближення функції регресії до вхідних даних (вектори Х і Y координат і відліків ). Символьне вираз функції регресії і символьні вираження її похідних по параметрах ki записуються у вектор F. Вектор S містить початкові значення коефіцієнтів ki для розв'язання системи нелінійних рівнянь ітераційним методом. Приклад використання методу наведено на ріс.2.3.2.


Ріс.2.3.2
Типові функції регресії Mathcad. Для простих типових формул апроксимації передбачено ряд функцій регресії, в яких параметри функцій підбираються програмою Mathcad самостійно. До них належать такі функції:
èèè

expfit (X, Y, S) - повертає вектор, що містить коефіцієнти a, b і c експоненційної функції y (x) = a · exp (b · x) + c. У вектор S вводяться початкові значення коефіцієнтів a, b і c першого наближення. Для орієнтування за формою апроксимаційних функцій і завдання відповідних початкових значень коефіцієнтів на малюнках ліворуч наводиться вид функцій при постійних значеннях коефіцієнтів a і c.


èèè

lgsfit (X, Y, S) - те ж, для вираження y (x) = a / (1 + c · exp (b · x)).

èèè pwrfit (X, Y, S) - те ж, для вираження y (x) = a · xb + c.
§ § è sinfit (X, Y, S) - те ж, для вираження y (x) = a · sin (x + b) + c. Підбирає коефіцієнти для синусоїдальної функції регресії. Малюнок синусоїди загальновідомий.
èèè logfit (X, Y) - те ж, для вираження y (x) = a · ln (x + b) + c. Завдання початкового наближення не потрібно.
§ § è medfit (X, Y) - те ж, для вираження y (x) = a + b · x, тобто для функції лінійної регресії. Завдання початкового наближення також не потрібно. Графік - пряма лінія.
На ріс.2.3.3 наведено приклад реалізації синусоїдальної регресії модельного масиву даних за базовою синусоїді в зіставленні з зональної регресією поліномом другого ступеня. Як можна бачити з зіставлення методів по среднеквадратическим наближення до базової кривої і до вихідних даних, популярність функції математичного очікування для статистичних даних з її використанням як базової для функції регресії дає можливість з більш високою точністю визначати параметри регресії в цілому по всій сукупності даних, хоча при цьому крива регресії не відображає локальних особливостей фактичних відліків даної реалізації. Це має місце і для всіх інших методів із завданням функцій регресії.

Ріс.2.3.3

4. Згладжування даних

Згладжування даних, як перекручених перешкодами, так і статистичних по своїй природі, також можна вважати окремим випадком регресії без визначення символьної форми її функції, а тому може виконуватися більш простими методами. У Mathcad для згладжування застосовуються такі функції:
supsmooth (X, Y) - повертає вектор згладжених даних Y з використанням лінійного згладжування методом найменших квадратів за k-найближчих відліків з адаптивним вибором значення k з урахуванням динаміки зміни даних. Значення вектора Х повинні йти в порядку зростання.
ksmooth (X, Y, b) - обчислює вектор згладжених даних на основі розподілу Гауса. Параметр b задає ширину вікна згладжування і повинен бути в кілька разів більше інтервалу між відліками по осі х.
medsmooth (Y, b) - обчислює вектор згладжених даних за методом ковзної медіани з шириною вікна b, яке повинне бути непарним числом.
Зіставлення методів згладжування наведено на ріс.2.4.1 Як можна бачити на цьому малюнку, якість згладжування функціями supsmooth (X, Y) і ksmooth (X, Y, b) практично ідентично (при відповідному виборі параметра b). Медіанний спосіб поступається за своїми можливостями двом іншим. Можна помітити також, що на кінцевих точках інтервалу завдання даних якість згладжування погіршується, особливо в медіанній способі, який взагалі не може виконувати свої функції на кінцевих інтервалах довжиною b / 2.

Ріс.2.4.1

5. Передбачення залежностей

Функція Mathcad
divdict (Y, n, K), де n - ступінь полінома апроксимації вектора рівномірно розподілених даних Y, дозволяє обчислити вектор До точок передбачення (екстраполяції) поведінки довільного сигналу за межами його завдання (за зростанням координат х). Передбачення тим точніше, чим більш гладку форму має заданий сигнал. Приклад використання функції наведено на рис.2.5 1 для гладкою і статистично зашумленной сигнальної кривої. Ступінь апроксимує полінома визначає глибину використання вхідних даних і може бути досить невеликою для гладких і монотонних сигналів. Помилка прогнозування збільшується в міру віддалення від заданих даних.

Рис.2.5 1.

Література

1. Дьяконов В.П. Вейвлети. Від теорії до практики. - М.: СОЛОН-Р, 2002. - 448 с.
2. Корн Г., Корн Є. Довідник з математики для наукових працівників та інженерів. - М.: Наука, 1984.
3. Економетрика Під ред.І. І. Єлисєєвій 2002р.
4.а. А. Циплаков, "Деякі економетричні методи. Метод максимальної правдоподібності в економетрії", ЕФ НГУ, 1997.
5. Суслов В.І., Ібрагімов М.М., Талишева Л.П., Циплаков А. А.
Економетрія. - К.: Видавництво СО РАН, 2005. - 744с.
6.В.П. Носко "Економетрика" (Вступ до регресійний аналіз часових рядів) Москва 2002
7. Лекції "Аналіз часових рядів" Г.Г. Канторовича (Вища школа економіки, ГУ-ВШЕ) Опубліковано в "Економічній журналі ВШЕ" Том.6 (2002), № 1,2,3,4 і Том.7 (2003), № 1
Додати в блог або на сайт

Цей текст може містити помилки.

Економіко-математичне моделювання | Реферат
30.3кб. | скачати


Схожі роботи:
Нелінійні елементи
Нелінійні багатохвильові взаємодії в пружних системах
Нелінійні та лінійні моделі біполярного транзистора
Нелінійні електричні кола в режимі постійного струму
Лінійна модель множинної регресії
Проходження світла через кристали та нелінійні оптичні явища
Межі застосування закону Дарсі Нелінійні закони фільтрації
Методика побудови рівняння регресії і кореляції
Перевірка істинності моделей множинної регресії
© Усі права захищені
написати до нас