Статистичне моделювання

[ виправити ] текст може містити помилки, будь ласка перевіряйте перш ніж використовувати.

скачати

Зміст
Введення
1. Вибірковий метод
2. Статистична оцінка законів розподілу
3. Основні властивості точкових оцінок
4. Оцінка математичного сподівання і дисперсії по вибірці
5. Довірчі інтервали
6. Методи одержання оцінок
7. Метод максимальної правдоподібності
8. Розподіл хі-квадрат
Література

Введення
Коли доводиться вивчати не поодинокі, а масові випадкові явища, необхідно вдаватися до статистичних методів дослідження. Ці методи призначені для виявлення закономірностей там, де на перший погляд, немає нічого, крім сукупності окремих фактів, спостережень, вимірювань. Теорія ймовірностей і математична статистика є науками про методи кількісного аналізу масових випадкових явищ.
У теорії ймовірностей за заданими ймовірностями деяких подій і функцій розподілу випадкових величин визначаються ймовірності та функції розподілу інших подій і випадкових величин.
Природно запитати: звідки відомі вихідні ймовірності і розподілу, як їх знайти? Одних апріорних міркувань для цього, як правило, недостатньо, необхідні досвід, спеціальні випробування. Математична статистика і розробляє методи, що дозволяють за результатами випробувань робити певні висновки про можливості і розподілених випадкових величин і подій.
Метою кожної науки є виявлення деяких загальних закономірностей, що дозволяють передбачати протягом явищ природи і вибирати раціональні шляхи поведінки у вихідних ситуаціях. У багатьох випадках для виявлення загальних закономірностей необхідно провести велику кількість спостережень і вимірів; як наслідок потрібні методи обробки сукупності таких спостережень. Ці методи також розробляє математична статистика.
Перші роботи з математичної статистики з'явилися в вісімнадцятому столітті і були пов'язані зі статистикою народонаселення, вивченням тривалості життя і питаннями страхування. Пізніше в кінці вісімнадцятого початок дев'ятнадцятого століття у зв'язку з астрономічними завданнями почалися серйозні дослідження з теорії помилок вимірювань. Біологічні дослідження послужили поштовхом для постановки численних питань, які привели на початку 20го століття до виділення математичної статистки в окрему науку. Зараз у зв'язку із загальним бурхливим розвитком науки і проникненням кількісних методів буквально в усі галузі знань інтерес до математичної статистики зріс, виникли нові завдання і методи. Математична статистика знаходиться в стадії подальшого розвитку і її прогрес триває.
Відомо, що кожне розподіл визначається тим чи іншим числом параметрів: закон Пуассона залежить тільки від одного параметра - математичного сподівання; нормальний закон - від двох - математичного сподівання і дисперсії досліджуваної випадкової величини.
Якщо ми хочемо використовувати ці закони, наприклад розподілу Пуассона, в інженерних задачах, нам потрібно оцінити параметр, тобто знайти його чисельне значення, в даному випадку - чисельне значення математичного очікування.
Традиційний природний спосіб знаходження параметра полягає в обстеженні деякої безлічі значень відповідної випадкової величини. Це безліч зазвичай називається вибіркою; елементи множини - вибірковими значеннями випадкової величини; кількість елементів - об'ємом вибірки. На підставі вивчення вибірки ми робимо деякі висновки про всю сукупність можливих значень випадкової величини. Ця сукупність називається генеральною. У результаті обстеження вибірки та використання відповідних статистичних правил можна отримати чисельну оцінку значення параметра. Оцінка параметра - це деяка функція від вибіркових значень випадкової величини. У нашому випадку в якості оцінки параметра - математичного очікування можна використовувати середнє арифметичне вибіркових значень. Відзначимо, що оцінка є випадковою величиною. Таким чином, параметр - постійна величина замінюється значенням випадкової величини, отриманої за результатами вибірки на підставі деякого правила.
Якщо ми розглянемо ще одну вибірку такого ж обсягу, то чисельне значення оцінки буде дещо іншим, оскільки склад нашої вибірки випадковий. Це ще раз ілюструє той факт, що за допомогою оцінки величина параметра визначається з деякою помилкою. Вузловим для математичної статистики є питання, як далеко можуть відхиляться величини оцінок, обчислення за вибіркою, від відповідних істинних значень параметрів.
У розглянутому випадку потрібно за вибіркою оцінити математичне сподівання випадкової величини, розподіленої за законом Пуассона. Як це зробити? Можна використовувати: 1) середнє арифметичне 2) найбільш часто зустрічається вибіркове значення випадкової величини; 3) середній член варіаційного ряду.
Яка з цих оцінок краще? І що значить краща оцінка? Яким вимогам вона повинна задовольняти? Відповіді на ці запитання дає математична статистика.
Друге завдання - перевірка статистичних гіпотез. Це можуть бути гіпотези про закон розподілу, про рівність двох математичних очікувань або дисперсій різних розподілів. Перевірка статистичних гіпотез також проводиться на основі аналізу вибірки обмеженого обсягу.
Можна припустити що деяка випадкова величина розподілена за законом Пуассона. Ця гіпотеза потребує перевірки. Частоти (оцінки ймовірностей), отримані в результаті обробки вибірки, можуть дещо відрізнятися від ймовірностей, визначених на підставі розподілу Пуассона. Причина розбіжності може полягати в тому, що неправильна гіпотеза про закон розподілу. Однак не виняток і інша причина: обсяг вибірки досить малий, а при такому обсязі вибірки отримані відмінності між частотами і ймовірностями можуть спостерігати і при істинності припущення про закон розподілу. Прийняти найкраще рішення в даному випадку допомагають методи математичної статистики.
Існують і інші не менш важливі завдання математичної статистики, такі, наприклад як планування експерименту, встановлення статистичних залежностей між випадковими подіями.

1. Вибірковий метод
Генеральна і вибіркова сукупність
Одним з фундаментальних понять математичної статистики є невизначені поняття генеральної сукупності. Під генеральною сукупністю розуміють безліч якісно однорідних елементів (об'єктів, виробів) самої різної природи. Розглянемо можливі типи цих сукупностей.
1. Кінцева і реально існуюча, наприклад генеральна сукупність всіх людей України у фіксований момент часу.
2. Нескінченна і реально існуюча, наприклад безліч дійсних чисел, що лежать між нулем і одиницею.
3. Уявна (гіпотетична) кінцева або нескінченна: Наприклад, повторні безперервні кидання гральної кістки дають послідовність елементів з нескінченної неіснуючої генеральної сукупності.
Другим основним поняттям математичної статистики є поняття вибіркової сукупності (вибірки).
Нехай потрібно вивчити елементи деякої генеральної сукупності щодо будь-якого кількісної ознаки, що характеризує ці елементи. Це можна зробити, виробляючи суцільне обстеження всіх елементів сукупності щодо даного нас ознаки. Однак на практиці суцільне обстеження застосовується порівняно рідко. Для генеральної сукупності, що містить велику кількість елементів, суцільне обстеження буде економічно невигідно або взагалі фізично неможливо. Якщо обстеження об'єкта пов'язано з його знищенням (наприклад при перевірці якості мінних детонаторів) або зажадає великих матеріальних витрат (наприклад запуск сучасної ракети), то проводити суцільне обстеження практично не має сенсу. У такій ситуації випадково відбирають з генеральної сукупності обмеженого числа об'єктів і вивчають їх.
Таким чином, вибірковою сукупністю або просто вибіркою об'єму n будемо називати сукупність n об'єктів, відібраних з цікавить нас генеральної сукупності.
2. Статистична оцінка законів розподілу
Якщо вибірка обсягу n із генеральної сукупності представницька, то елементи з однаковими значеннями варіанти будуть приблизно однаково часто зустрічатися як у вибірці, так і в генеральній сукупності. У цьому випадку природно прийняти розподіл X у вибірці за наближене розподіл її в генеральній сукупності, тобто вважати дискретний розподіл вибірки F n (x) наближенням до теоретичної функції розподілу F (x). Приклад наближення показаний на малюнку

Підставою для такого наближення є так звана основна теорема математичної статистики, доведена В.І. Глівенко

З цієї теореми випливає, що при n → ∞ з імовірністю, що дорівнює одиниці, верхня межа відхилення | F (x)-F (x) | на всій осі x прагне до нуля. Тим самим гарантується рівномірне наближення F n (x) до F (x) на всій осі x. Таким чином, досліджуючи функцію Fn (x), ми можемо по ній наближене оцінити теоретичну функцію розподілу випадкової величини.

3. Основні властивості точкових оцінок

Для того щоб оцінка мала практичну цінність, вона повинна володіти наступними властивостями.
· 1. Оцінка параметра q називається незміщеної, якщо її математичне сподівання одно оцінюваному параметру q, тобто
М = q. (22.1)
Якщо рівність (22.1) не виконується, то оцінка може або завищувати значення q (М > q), або занижувати його (М < q). Природно в якості наближеного невідомого параметра брати незміщені оцінки для того, щоб не робити систематичної помилки в бік завищення або заниження.
· 2. Оцінка параметра q називається спроможною, якщо вона підпорядковується закону великих чисел, тобто сходиться по ймовірності до оцінюваного параметру при необмеженому зростанні числа дослідів (спостережень) і, отже, виконується рівність:
, (22.2)
де e> 0 скільки завгодно мале число.
Для виконання (22.2) достатньо, щоб дисперсія оцінки прагнула до нуля при , Тобто
(22.3)
і крім того, щоб оцінка була незміщеної. Від формули (22.3) легко перейти до (22.2), якщо скористатися нерівністю Чебишева.
Отже, спроможність оцінки означає, що при достатньо великій кількості дослідів і з скільки завгодно великою вірогідністю відхилення оцінки від істинного значення параметра менше будь-який наперед заданої величини. Цим виправдано збільшення обсягу вибірки.
Так як - Випадкова величина, значення якої змінюється від вибірки до вибірки, то міру її розсіювання близько математичного очікування q будемо характеризувати дисперсією D . Нехай і - Дві незміщені оцінки параметра q, тобто M = Q і M = Q, відповідно D і D і, якщо D <D , То в якості оцінки беруть .
· 3. Несмещенная оцінка , Яка має найменшу дисперсію серед всіх можливих незміщені оцінок параметра q, обчислених за вибірками одного і того ж об'єму, називається ефективною оцінкою.
На практиці при оцінці параметрів не завжди вдається задовольнити одночасно вимогам 1, 2, 3. Проте вибору оцінки завжди має передувати її критичний розгляд з усіх точок зору. При вибірці практичних методів обробки дослідних даних необхідно керуватися сформульованими властивостями оцінок.

4. Оцінка математичного сподівання і дисперсії по вибірці

Найбільш важливими характеристиками випадкової величини є математичне сподівання і дисперсія. Розглянемо питання про те, які вибіркові характеристики найкраще оцінюють математичне сподівання і дисперсію в сенсі незміщеності, ефективності і спроможності.
Теорема 23.1. Арифметична середня , Обчислена за n незалежним спостереженнями над випадковою величиною x, яка має математичне очікування Mx = m, є незміщеної оцінкою цього параметра.
Доказ.
Нехай - N незалежних спостережень над випадковою величиною x. За умовою Mx = m, а тому є випадковими величинами і мають той же закон розподілу, то тоді . За визначенням середня арифметична
. (23.1)
Розглянемо математичне сподівання середньої арифметичної. Використовуючи властивість математичного сподівання, маємо:
,
тобто . В силу (22.1) є незміщеної оцінкою. 
Теорема 23.2. Арифметична середня , Обчислена за n незалежним спостереженнями над випадковою величиною x, яка має Mx = m і , Є заможної оцінкою цього параметра.
Доказ.
Нехай - N незалежних спостережень над випадковою величиною x. Тоді в силу теореми 23.1 маємо Mx = .
Для середньої арифметичної запишемо нерівність Чебишева:
.
Використовуючи властивості дисперсії 4,5 і (23.1), маємо:
,
тому що за умовою теореми .
Отже,
. (23.2)
Отже, дисперсія середньої арифметичної в n разів менше дисперсії випадкової величини x. Тоді
,
тому
,
а це означає, що є заможної оцінкою.
Зауваження: 1. Приймемо без доведення дуже важливий для практики результат. Якщо x Î N (a, s), то несмещенная оцінка математичного сподівання a має мінімальну дисперсію, рівну , Тому є ефективною оцінкою параметра а. 
Перейдемо до оцінки для дисперсії і перевіримо її на спроможність і незміщеності.
Теорема 23.3. Якщо випадкова вибірка складається з n незалежних спостережень над випадковою величиною x з
Mx = m і Dx = , То вибіркова дисперсія
(23.3)
не є незміщеної оцінкою Dx - генеральної дисперсії.
Доказ.
Нехай - N незалежних спостережень над випадковою величиною x. За умовою і для всіх . Перетворимо формулу (23.3) вибіркової дисперсії:

Спростимо вираз
.
Беручи до уваги (23.1), звідки

можна записати

Тоді

Тепер розглянемо - Математичне сподівання вибіркової дисперсії:

Використовуючи визначення дисперсії, отримуємо:

і в силу (23.2), отже,
, (23.4)
тобто вибіркова дисперсія є зміщеною оцінкою дисперсії генеральної сукупності.
Зауваження 2. Оцінку (23.4) можна виправити так, щоб вона стала незміщеної
(23.5)
Зазвичай оцінку називають виправленої вибіркової дисперсією. Дійсно,

тоді

Дріб називають поправкою Бесселя. При малих n поправка Бесселя значно відрізняється від 1. При n> 50 практично немає різниці між і .
Зауваження 3. Можна показати, що оцінки і є заможними і не є ефективними.
Незміщеної, заможне і ефективної оцінкою є оцінка
(23.6)
у разі, коли математичне сподівання m відомо
.

5. Довірчі інтервали

Изучавшиеся раніше оцінки невідомого параметра є точковими: ми намагалися судити про значення невідомого числа або вектора q за значенням оцінки , Прийняте нею, як тільки відома статистична вибірка ( ). Однак, оскільки оцінка сама є випадковою величиною, її вибіркове значення свідомо не збігається з константою q. Маючи на увазі цю обставину, краще прагнути вказувати не точне значення оцінюваного параметра, а певний інтервал, що містить в собі значення параметра. Межі такого інтервалу повинні визначатися доступній нам інформацією - вибіркою з генеральної сукупності, тобто вони самі випадкові, і тому є сенс говорити про ймовірність того, що значення параметра знаходиться всередині інтервалу.
Визначення 24.1. Нехай генеральна сукупність описується випадковою величиною x, розподіл якої залежить від скалярного параметра q. Нехай, далі, і дві функції вибірки такі, що завжди і
.
( ) З випадковими межами називають довірчим інтервалом для невідомого параметра q з довірчою ймовірністю b.
Число a = 1-b називають рівнем значущості інтервалу.
Намагаючись мати максимально достовірні висновки, межі довірчого інтервалу вибирають таким чином, щоб довірча ймовірність b була якомога ближче до 1.
Схематично процес побудови довірчого інтервалу можна описати таким чином.
Нехай - Несмещенная оцінка параметра q.
Виберемо довірчу ймовірність b. Значення виразу «b якомога ближче до 1» щодо, воно знаходиться поза межами математики і визначається особою, яка провадить статистичні дослідження. Зазвичай вибирають b дорівнює 0,9; 0,95; 0,99.
Нехай, далі, можна знайти таке число e> 0, що
. (24.1)
Записавши (24.1) у вигляді
,
бачимо, що інтервал ( ) Є довірчим інтервалом для параметра q з рівнем значущості a = 1-b.
Практично питання про побудову довірчого інтервалу пов'язаний з можливістю знаходження розподілу оцінки , А це, у свою чергу, залежить від розподілу генеральної сукупності.
Приклад 24.1. Побудова довірчого інтервалу для математичного сподівання нормальної генеральної сукупності при відомій дисперсії.
Нехай генеральна сукупність x розподілена по нормальному закону з параметрами (q, s 2), де s 2 (дисперсія) відомо. Ми вже знаємо, що найкращою в сенсі незміщеності, спроможності та ефективності оцінкою невідомого математичного сподівання q нормального закону є вибіркове середнє
.
У просунутому курсі теорії ймовірностей доводиться, що нормальний розподіл має властивість стійкості: якщо незалежні випадкові величини x, h розподілені нормально з параметрами ( ) І ( ) Відповідно, то їх сума x + h розподілена нормально з параметрами ( ).
Використовуючи це твердження в нашому випадку, укладаємо, що розподілена нормально з параметрами ( ), А нормоване вибіркове середнє підпорядковане нормальному закону з параметрами (0,1).
Це означає, що
, Де .
Функція Ф (z) нам вже зустрічалася, її значення табульований.
Виберемо тепер довірчу ймовірність b і позначимо корінь рівняння Ф ( ) = B / 2.
Після цього розглянемо рівності
, Які свідчать про те, що інтервал

є довірчим для параметра q з довірчою ймовірністю b (і рівнем значущості a = 1 - b).
Наведемо частина з таблиці значень (Додаток 2) для деяких найбільш уживаних значень b.
Таблиця 24.1 (Залежність від довірчої ймовірності)
b
0,9
0,925
0,95
0,99

1,65
1,78
1,96
2,89
Позначимо половину ширини довірчого інтервалу.
Зауважуємо, що:
1) при фіксованій довірчої ймовірності b ширина довірчого інтервалу зменшується із зростанням числа спостережень n як величина порядку (При збільшенні, наприклад, числа спостережень у 100 разів ширина інтервалу зменшиться в 10 разів);
2) оскільки Ф (z) зростає з ростом z, то збільшення довірчої ймовірності, при всіх інших постійних параметрах, призводить до розширення довірчого інтервалу.
Приклад 24.2. Бажаючи дізнатися, скільки годин на тиждень діти проводять біля телевізора, соціологічна служба обстежила 100 учнів нікого міста, в результаті чого виявилося, що в середньому це число дорівнює . З минулої практики відомо, що стандартне відхилення ( ) Генеральної сукупності дорівнює 6 (годин). Знайдемо довірчий інтервал з довірчою ймовірністю 0,95 для числа годин на тиждень, проведених дитиною біля телевізора.
Оскільки b = 0,95, з табл. 24.1 знаходимо , І межі інтервалу довіри будуть такими:
,
інтервал довіри має вигляд (26.32; 28.68).
Тепер поставимо питання інакше: скільки дітей треба обстежити з тим, щоб середня кількість годин на тиждень, проведених дитиною біля телевізора, відхилилося від його оцінки не більше ніж на 0,5 ч. з імовірністю 0,95?
У такій постановці йдеться про знаходження числа n таким, щоб виконувалося рівність
,
звідки або n = (2sZ 0.475) 2.
В умовах прикладу n = (2 × 6 × 1,96) 2 @ 553.
Зрозуміло, при великих значеннях n ширина довірчого інтервалу зменшиться.
Зауважимо, що в порівнянні з первинним завданням ширина інтервалу зменшилася в 1,18 / 0,5 = 2,36 разів, кількість необхідних випробувань збільшилася в (2,36) 2 = 5,57 разів (553 відрізняється в третьому знаку від 100 × 5,57).
Приклад 24.3. Побудова довірчого інтервалу для математичного сподівання нормальної генеральної сукупності за невідомої дисперсії.
Знову розглянемо генеральну сукупність x, розподілену нормально з параметрами (q, s 2), однак тепер вважаємо дисперсію s 2 невідомою.
Позначимо стандартне вибіркове квадратичне відхилення
.
У курсах теорії ймовірностей доводиться, що випадкова величина

підпорядковується так званого закону розподілу Стьюдента з n - 1 ступенем свободи і її щільність має вигляд
,
де К n деяка нормуються константа.
Створено таблиці, що дають можливість обчислювати ймовірності виду

(Див. дод. 4).
Зважаючи на вищесказане, отримуємо рівності:
,
з яких видно, що вибравши Z як корінь рівняння

(Позначимо цей корінь ), Приходимо до довірчого інтервалу для q виду
.
Приклад 24.4. Розглянемо питання про побудову довірчого інтервалу для невідомої кількості часу протягом тижня, який дитина проводить біля екрану телевізора, зберігши всі дані прикладу 24.2, вважаючи тепер, що 6 год. є оцінка вибіркового середньоквадратичного відхилення, .
По таблиці розподілу Стьюдента (див. додаток 4) знаходимо , Межі інтервалу будуть
,
а сам інтервал (25,92; 29,08).
Зауважуємо, що інтервал став ширше, що пояснюється зменшенням обсягу наявної інформації з-за незнання ще одного параметра генеральної сукупності.

6. Методи одержання оцінок

До цих пір ми вважали, що оцінка невідомого параметра відома і займалися вивченням її властивостей з метою використання їх при побудові довірчого інтервалу. У цьому параграфі розглянемо питання про способи побудови оцінок.

Методи правдоподібності

Нехай потрібно оцінити невідомий параметр , Взагалі кажучи, векторний, . При цьому передбачається, що вид функції розподілу відомий з точністю до параметра ,
.
У такому разі всі моменти випадкової величини x стають функціями від :
.
Метод моментів вимагає виконання наступних дій:
1. Обчислюємо k «теоретичних» моментів
.
2. За вибіркою будуємо k однойменних вибіркових моментів. У излагаемом контексті це будуть моменти

3. Прирівнюючи «теоретичні» й однойменні їм вибіркові моменти, приходимо до системи рівнянь щодо компонент оцінюваного параметра
(25.1)
4. Вирішуючи отриману систему (точно або наближено), знаходимо вихідні оцінки . Вони, звичайно, є функціями від вибіркових значень .
Ми виклали порядок дій, виходячи з початкових - теоретичних і вибіркових - моментів. Він зберігається при іншому виборі моментів, початкових, центральних або абсолютних, який визначається зручністю рішення системи (25.1) або подібною до неї.
Перейдемо до розгляду прикладів.
Приклад 25.1. Нехай випадкова величина x розподілена рівномірно на відрізку [a; b], де - Невідомі параметри. За вибіркою ( ) Обсягу n з розподілу випадкової величини x. Потрібно оцінити a і b.
Рішення.
У даному випадку розподіл визначається щільністю

1) Обчислимо перші два початкових «теоретичних» моменти:


2) Обчислимо за вибіркою два перших початкових вибіркових моменту

3) Складемо систему рівнянь

4) З першого рівняння висловимо a через b

і підставимо в друге рівняння, в результаті чого прийдемо до квадратного рівняння

вирішуючи яке, знаходимо два кореня
.
Відповідні значення a такі
.
Оскільки за змістом завдання має виконуватися умова a <b, вибираємо як рішення системи і оцінок невідомих параметрів
.
Помічаючи, що є не що інше, як вибіркова дисперсія , Отримуємо остаточно
.
Якби ми вибрали як «теоретичних» моментів математичне сподівання і дисперсію, , То прийшли б до системи (з урахуванням нерівності a <b)

яка лінійна і вирішується простіше попередньої. Відповідь, звичайно, збігається з вже отриманим.
Нарешті, відзначимо, що наші системи завжди має рішення і при тому єдина. Отримані оцінки, звичайно, заможні, однак властивостям незміщеності не володіють.

7. Метод максимальної правдоподібності

Вивчається, як і колись, випадкова величина x, розподіл якої задається або ймовірностями її значень , Якщо x дискретна, або щільністю розподілу , Якщо x неперервна, де - Невідомий векторний параметр. Нехай ( ) - Вибірка значень x. Природно в якості оцінки взяти те значення параметра, при якому ймовірність отримання вже наявної вибірки максимальна.
Вираз

називають функцією правдоподібності, вона являє собою спільний розподіл або спільну щільність випадкового вектора з n незалежними координатами, кожна з яких має той же розподіл (щільність), що і x.
В якості оцінки невідомого параметра береться таке його значення , Що доставляє максимум функції , Що розглядається як функції від при фіксованих значеннях . Оцінку називають оцінкою максимальної правдоподібності. Зауважимо, що залежить від обсягу вибірки n і вибіркових значень
,
і, отже, сама є випадковою величиною.
Відшукування точки максимуму функції представляє собою окрему задачу, яка полегшується, якщо функція диференційовна по параметру .
У цьому випадку зручно замість функції розглядати її логарифм, оскільки точки екстремуму функції та її логарифма збігаються.
Методи диференціального обчислення дозволяють знайти точки, підозрілі на екстремум, а потім з'ясувати, в який з них досягається максимум.
З цією метою розглядаємо спочатку систему рівнянь
(25.2)
вирішення якої - Точки, підозрілі на екстремум. Потім за відомою методикою, обчислюючи значення других похідних

за знаком визначника, складеного з цих значень, знаходимо точку максимуму.
Оцінки, отримані за методом максимальної правдоподібності, заможні, хоча можуть виявитися зміщеними.
Розглянемо приклади.
Приклад 25.2. Нехай виробляється деякий випадковий експеримент, результатом якого може бути деякий події А, ймовірність Р (А) якого невідома і підлягає оцінюванню.
Рішення.
Введемо випадкову величину x рівністю

якщо подія А сталося,
якщо подія А не відбулося (сталася подія ).
Розподіл випадкової величини x задається рівністю

Вибіркою в даному випадку буде кінцева послідовність ( ), Де кожне з може бути дорівнює 0 або 1.
Функція правдоподібності буде мати вигляд

Знайдемо точку її максимуму за р, для чого обчислимо похідну логарифма

Позначимо - Це число дорівнює кількості одиниць «успіхів» у обраній послідовності.
Прирівняємо отриману похідну до нуля

і вирішимо отримане рівняння
.
Оскільки похідна змінює знак з «+» на «-» при зростанні р від 0 до 1, точка є точка максимуму функції L, а - Оцінка максимального правдоподібності параметра р. Зауважимо, що ставлення є частота появи події А в перших n випробуваннях.
Оскільки m є число «успіхів» у послідовності n незалежних випробувань (у схемі Бернуллі), то , І - Несмещенная оцінка. У силу закону великих чисел Бернуллі прагне за ймовірністю до р, та оцінка спроможна.
Приклад 25.3. Побудуємо оцінки невідомих математичного сподівання і дисперсії нормально розподіленої випадкової величини x з параметрами .
Р і ш е н і е.
В умовах прикладу випадкова величина визначається щільністю розподілу
.
Відразу випишемо логарифм функції правдоподібності
.
Складемо систему рівнянь для знаходження екстремальних точок

З першого рівняння знаходимо , З другого, підставляючи знайдене значення a, знаходимо .
Обчислимо другу похідні функції lnL в точці ( ):
А = , В = , С = .
Оскільки визначник
,
а А <0, то знайдена точка справді точка максимуму функції правдоподібності.
Зауважимо, що оцінка є вибіркове середнє (несмещенная і заможна оцінка математичного очікування), а - Вибіркова дисперсія (зміщена оцінка дисперсії).
Додати в блог або на сайт

Цей текст може містити помилки.

Математика | Реферат
74.2кб. | скачати


Схожі роботи:
Статистичне моделювання 2
Економіко статистичне моделювання продуктивності праці
Статистичне моделювання сітьового графіка побудови судна 2
Статистичне моделювання сітьового графіка побудови судна
Аналіз та статистичне моделювання показників використання вантажних вагонів
Імітаційне моделювання системи фазового автопідстроювання частоти в пакеті моделювання динамічних
Статистичне спостереження 3
Статистичне спостереження 6
Статистичне спостереження 4
© Усі права захищені
написати до нас