Динаміка розвитку деяких понять і теорем теорії ймовірностей

[ виправити ] текст може містити помилки, будь ласка перевіряйте перш ніж використовувати.

скачати

МІНІСТЕРСТВО ОСВІТИ УКРАЇНИ

«Гомельський державний університет імені Франциска Скорини»

Математичний факультет

Кафедра математичного аналізу

Дипломна робота

"Динаміка розвитку деяких понять і теорем теорії ймовірностей"

Гомель 2003

Реферат

Дипломна робота 45 сторінок, 3 рисунка, 2 таблиці, 10 джерел.

Перелік ключових слів: вірогідність, класичне визначення, математичне сподівання, закон великих чисел, подія, теорія ймовірностей.

Об'єктом дослідження в даній роботі є: поняття ймовірності, математичного очікування, закон великих чисел, а точніше динаміка їх розвитку.

Мета роботи: простежити динаміку розвитку зазначених понять і теореми від найпростіших форм, до завершених, сучасних. Це дозволить зрозуміти і осмислити сутність закону великих чисел (статистичної закономірності), що грає важливу роль з методичної точки зору.

Основними методами дослідження в цій галузі є: вивчення історико-математичної літератури, аналітичний метод дослідження.

В результаті проведеного дослідження можна зробити такі висновки: розвиток понять ймовірності та математичного сподівання відбувалося стрибкоподібно. Це пов'язано з багатьма факторами. Як приклад можна навести такий фактор: з постановкою нових задач в теорії ймовірностей були потрібні і нові підходи до їх вирішення, а це означало іноді перегляд визначень основних понять, критична їх переоцінка. З законом великих чисел таких змін не відбувалося. Він плавно розвивався від найпростіших форм до завершених, сучасних. Це пов'язано з тим, що спочатку він був повністю осмислений, сформульований правильно, тому його важко було витлумачити якось інакше, або помилково. У зв'язку з цим його смислове значення не змінювалося з часом.

Отримані результати можуть бути використані як наочний посібник, перш за все з метою осмислення зазначених понять і теореми, для ілюстрації їх історичного розвитку, як методична допомога.

Зміст

Введення

1. Динаміка розвитку поняття ймовірності

    1. Перші спроби введення поняття ймовірності

    2. Поява класичного визначення поняття ймовірності

    3. Перші спроби аксіоматичного введення поняття ймовірності

    4. Поява аксіоматичного визначення поняття ймовірності

2. динаміка розвитку поняття математичного сподівання

2.1 Передумови введення поняття математичного сподівання

2.2 Введення поняття математичного очікування і його подальший розвиток

3. Закон великих чисел

3.1 Первинне осмислення статистичної закономірності

3.2 Поява теорем Бернуллі і Пуассона - найпростіших форм закону великих чисел

3.3 Нерівність Чебишева. Закон великих чисел у формі Чебишева

3.4 Закон великих чисел для залежних випадкових величин

3.5 Посилення закону великих чисел. Поява необхідного і достатнього умов закону великих чисел

Висновок

Список джерел

Введення

В історії теорії ймовірностей можна виділити наступні етапи.

1. Передісторія теорії ймовірностей. У цей період, початок якого губиться в дали століть, ставилися і примітивно вирішувалися елементарні завдання, які пізніше будуть віднесені до теорії ймовірностей. Ніяких спеціальних методів у цей період не виникає. Йде накопичення матеріалу. Цей період закінчується в XVI ст. роботами Кардано, Пачолі, Тарталья та ін

2. Виникнення теорії ймовірностей як науки. У цей період виробляються перший специфічний поняття, такі, як математичне очікування. Встановлюються перші теореми-теореми додавання і множення ймовірностей. Початок цього періоду пов'язане з іменами Паскаля, Ферма, Гюйгенса. Цей період триває від середини XVII ст. до початку XVIII ст. У цей час теорія ймовірностей знаходить свої перші застосування в демографії, страховій справі, в оцінці помилок спостереження.

3. Наступний період починається з появи роботи Я. Бернуллі «Мистецтво припущення» (1713 р.). Це перша робота, в якій була строго доведена гранична теорема - простий випадок закону великих чисел. Теорема Бернуллі дала можливість широко застосовувати теорію ймовірностей до статистики. До цього періоду відносяться роботи Муавра, Лапласа, Гаусса, Пуассона та ін; теорія ймовірностей починає застосовуватися в різних областях природознавства. Центральне місце в цьому періоді займають граничні теореми.

4. Наступний період розвитку теорії ймовірностей зв'язаний, перш за все, з російської (Петербурзької) школою. Тут можна назвати такі імена, як Чебишев П.Л., Марков А.А., Ляпунов А.М. У цей період поширення закону великих чисел і центральної граничної теореми на різні класи випадкових величин досягає своїх природних кордонів. Закони теорії ймовірностей стали застосовуватися до залежних випадкових величин. Все це дало можливість докласти теорію ймовірностей до багатьох розділах природознавства, в першу чергу - до фізики. Виникає статистична фізика, яка розвивається у взаємозв'язку з теорією ймовірностей.

5. Сучасний період розвитку теорії ймовірностей почався з встановлення аксіоматики. Цього в першу чергу вимагала практика, так як для успішного застосування теорії ймовірностей до фізики, біології та інших областях науки, а також до техніки і військової справи необхідно було уточнити і привести в струнку систему її основні поняття. Завдяки аксіоматиці теорія ймовірностей стала абстрактно-дедуктивної математичної дисципліною, тісно пов'язаної з теорією множин, а через неї-з іншими математичними дисциплінами. Це зумовило небувалу широту досліджень з теорії ймовірностей, починаючи від господарсько - прикладних питань і закінчуючи найтоншими питаннями кібернетики. Перші роботи цього періоду пов'язані з іменами Бернштейна, Мізеса, Бореля. Остаточне встановлення аксіоматики сталося в 30-ті роки XX ст., Коли була опублікована, і отримала загальне визнання аксіоматика А.Н. Колмогорова.

В останні часом намітилися нові підходи до основних понять теорії ймовірностей. Про це свідчить поява теорії надійності, теорії інформації, теорії масового обслуговування тощо

Ми ж розглянемо динаміку розвитку визначення поняття ймовірності; такого поняття в теорії ймовірностей, як математичне сподівання, а також відомого закону великих чисел.

Простеживши розвиток цих понять від найпростіших уявлень до закінчених і обміркованих їх форм, ми зможемо глибше зрозуміти їх зміст, що, безсумнівно, важливо з методичної точки зору.

1. Динаміка розвитку поняття ймовірності

1.1 Перші спроби введення поняття ймовірності

Розглянемо, як розвивалося поняття ймовірності.

Д. Кардано (1501-1576 рр..) У своїй роботі «Книги про гру в кості» впритул підійшов до визначення поняття ймовірності через ставлення равновозможних подій [1].

«Отже, є одне загальне правило для розрахунку: необхідно врахувати загальне число можливих випадінь і число способів, якими можуть з'явитися дані випадіння, а потім знайти відношення останнього числа до числа залишилися можливостей випадінь; приблизно в такій же пропорції визначаються відносні розміри ставок для того, щоб гра йшла на рівних умовах ».

Кардано в цьому уривку каже, що якщо можливе число випробувань одно n, а число сприятливих випробувань - m, то ставки повинні бути відносно (Мова йде про поділ ставки, тому що учених того часу дуже хвилювало це питання, багато хто з них намагалися вирішувати цю задачу).

У роботах Л. Пачолі, Н. Тарталья робиться спроба виділити нове поняття ймовірності - відношення шансів - при вирішенні низки специфічних завдань, насамперед комбінаторних.

Треба відзначити, що поняттям ймовірності активно користувалися вчені того часу, не визначаючи його а розуміючи його інтуїтивно. Паскаль і Ферма в листах один одному використовували поняття ймовірності в прихованій формі, не обличчя його в конкретне визначення.

Гюйгенс (1629-1695 рр..) У своїй книзі «Про розрахунки в азартних іграх» виділив поняття «шанс», яке по суті, є ще не дуже усвідомлене поняття ймовірності [2]. У вступі Гюйгенс пише: «Хоча в іграх, заснованих на чистому випадку, результати є невідомими, проте шанс гравця на виграш, або на програш має певну вартість. Наприклад, якщо хто-небудь тримає парі, що він викине при першому киданні однієї кістки шість очок, то невідомо, чи виграє він чи програє, але що є визначеним і піддається обчисленню це те, наскільки його шанси програти парі перевершують його шанси на виграш парі ».

Т. Байес (1702-1761 рр..) У своїй роботі, опублікованій в «Філософські праці» за 1763 Р. Прайсом під назвою «Досвід вирішення завдання з теорії ймовірностей покійного високоповажного містера Байеса, члена Королівського суспільства, повідомлено містером Прайсом в листах Джону Кентон, магістра мистецтв, члену Королівського товариства »ввів поряд з іншими визначеннями і визначення поняття ймовірності. Байес формулює такі визначення.

1. Кілька подій є несумісними, якщо настання однієї з них виключає настання інших.

2. Події є виключають один одного, якщо одне з них має настати, але обидва одночасно наступити не можуть.

3. Кажуть, що подія не відбулося, якщо воно не настає або, якщо наступає виключає подія.

4. Кажуть, що подія визначено, якщо воно настало або не настав.

5. Ймовірність якого-небудь події є відношення значення, яке дається очікуванню, пов'язаному з настанням події, і значення очікуваної в цьому випадку прибутку.

6. Під шансом я розумію те ж саме, що й під ймовірністю.

7. Події є незалежними, якщо настання одного не зменшує та не збільшує ймовірності решті [1,2].

Деякі з цих визначень, наприклад 1 і 7, майже повністю збігаються з сучасними. Визначення ж ймовірності не відрізняється ясністю, можливо тому, що у формулюванні використовується невизначене поняття: «значення очікування, пов'язаного з настанням події».

У другому розділі своєї роботи Байес користується геометричним визначенням ймовірності в його сучасному розумінні (не визначаючи його), вирішуючи завдання про киданні кулі W на квадратну дошку ABCD

На AB беруться дві будь-які точки f і b і через них C F s L D проводяться лінії, паралельні AD до перетину з CD в точках F і L. Після цього Байес формулює наступну лему.

Лемма.

Ймовірність того, що точка O (точка зупинки OO кулі) буде перебувати між двома якими-небудь точками лінії AB, є відношення відстані між двома точками до всієї лінії AB.

Іншими словами, імовірність того, що куля, кинутий випадковим чином на ABCD, зупиниться в прямокутнику bfFL, дорівнює . Аналогічно ми обчислюємо геометричним способом імовірність і зараз, як відношення заходів.

P (A) = , ( ) - Ймовірнісна простір,

- Клас чи сімейство підмножин в ,

- Область в ,

P-ймовірність.

Але у Байеса не було визначення геометричної ймовірності.

Кондорсе (1743-1794 рр..), Відомий політичний і громадський діяч буржуазної французької революції, займався питаннями теорії ймовірностей. У своїй роботі «Suite du Memoire sur le calcul des Probabilites» Кондорсе намагався поряд з імовірністю ввести поняття «власне ймовірність» [1,2].

«Не слід розуміти під власне ймовірністю події відношення числа мають місце сполучень до загальної кількості поєднань. Наприклад, якщо з 10 карт витягується одна карта і свідок каже, що це була саме така-то карта, то власне ймовірність цієї події, яку потрібно зіставити з імовірністю народжується із свідоцтва, не є ймовірність витягти цю карту, яка буде , А є ймовірність витягти цю карту переважно, ніж іншу якусь певну карту, і так як всі ці ймовірності однакові, то власне вірогідність буде в цьому випадку ...

У випадку, коли витягується одна з десяти карт, число сполучень, при яких витягується якась певна карта, є одиниця і число сполучень, при яких буде залучена будь-яка інша певна карта, теж є одиниця, значить, власне ймовірність виразиться - . "

Поняття власне ймовірності необгрунтовано. Його протиставлення поняттю ймовірності суто суб'єктивне і математично нічим не підтверджено. Можливо саме тому в науці воно не збереглося.

До XVIII ст. поняття ймовірності вже дуже активно використовувалося при вирішенні різних завдань.

Л. Ейлер (1707-1783 рр..), Досліджуючи різні лотереї, які пропонували Прусскому королю Фрідріху II для поповнення скарбниці держави, користувався саме класичним визначенням ймовірності.

1.2 Поява класичного визначення поняття ймовірності

П. Лаплас (1749-1827 рр..) У своїх лекціях під назвою «Досвід філософії теорії ймовірностей" вводив наступне класичне визначення ймовірності: ймовірність P (A) події A дорівнює відношенню числа можливих результатів випробування, що сприяють події A, до числа всіх можливих результатів випробування. У цьому визначенні передбачається, що окремі можливі результати випробування рівноймовірно [1,2].

Цьому визначенню ймовірності Лаплас надав суб'єктивний сенс, ввівши принцип недостатності або відсутності підстав. Цей принцип полягає в тому, що якщо ймовірність події невідома, то ми для її значення призначаємо деяке число, яке нам представляється розумним. У випадку, якщо ми маємо кілька подій, які становлять повну систему, але не знаємо ймовірності кожної події окремо, то ми вважаємо, що всі ці події рівноймовірно.

Магістр філософії Сигізмунд (Зігізмунт) Ревковскій (1807-1893 рр.). В 1829/30 р. вперше в Росії став читати курс теорії ймовірностей. Ймовірність він називав мірою надії, величиною надії і давав їй класичне визначення.

Н.І. Лобачевський серйозно займався теорією ймовірностей. У своїй роботі «Нові початку геометрії з повною теорією паралельних» він визначає ймовірність, слідуючи Лапласу: «під словами ймовірність розуміють зміст числа сприятливих випадків до числа всіх випадків разом». Рівноможливими випадків, очевидно, малася на увазі Лобачевським.

Професор математики Московського університету Зернов Н.Є. (1804-1862)

у своїй промові «Теорія ймовірностей, з додатком переважно до смертності та страхування», яка була видана в 1843 р., ввів визначення ймовірності ( ) І цікаве визначення поняття відносної ймовірності.

«Ймовірність подій, що розглядаються в такому вигляді, як ніби інші події зовсім не мали місця, називається ймовірністю відносного. Відносна вірогідність якої-небудь події дорівнює приватному, що сталося від ділення самостійної ймовірності того ж події на суму цей останньої ймовірності і протилежної їй, також самостійною ».

Це визначення супроводжується прикладом. У посудині є 3 червоних, 1 чорний, 2 білі кулі. Ймовірність витягнути червону кулю ; ; - Це все ймовірності самостійні. Тримають парі щодо появи білого або чорного кулі, не звертаючи уваги на червоні. Ймовірність виграти парі на білому кулі - , На чорному - . Це, по Зернову, відносні ймовірності. Для них справедливі співвідношення:

; .

Навіть на цьому прикладі видно, що поняття відносної ймовірності зайво (можна розглядати, що в урні тільки 2 білих та 1 чорна куля).

Великим представником російської теорії ймовірностей був М.В. Остроградський. У своїй статті «Про страхування», опублікованій в журналі «Фінський вісник» в 1847 р., Остроградський трактує поняття ймовірності з суб'єктивних позицій, як міру впевненості пізнає суб'єкта [1].

Він докладно говорить про те, що ймовірність є міра нашого незнання, що це суб'єктивне поняття, що у ймовірності в суб'єктивному світі немає ніякого відповідності, що весь світ детерміністічен і випадкового в ньому немає, є тільки те, що ми не знаємо або не пізнали, що ми і називаємо випадковим.

«Якщо явище цілком залежить від кількох інших явищ або випадків, з яких одні можуть його провести, інші йому огидні, і якщо при тому всі ці випадки такі, що для нас, ми повторюємо, для нас, немає причини одні з них віддавати перевагу іншим, то ймовірність очікуваного явища вимірюється дробом, чисельник якої дорівнює числу випадків, що доставляють явище, - а знаменник числа всіх випадків ». Це твердження співпадає з так званим класичним визначенням Лапласа з тлумаченням рівноможливими, як недостатність підстав давати перевагу одним подіям перед іншими. Розглядається приклад. В урні знаходиться 5 куль (3 білих і 2 чорних), з неї витягується одна куля. Яка ймовірність, що ця куля буде білою? Щодо цього прикладу Остроградський пише: «П'ять куль перебувають у вазі, нема ніякої причини думати, що один з них потрапить в руку швидше, ніж інший. Говорячи, немає ніякої причини, розуміємо, що її немає для нас, - вона є, але зовсім нам невідома. ... І як ми не можемо дати одній кулі перевагу перед іншим, то всі кулі представляють для нас випадки рівноможливими. Той, хто знав би розташування куль в урні і міг би обчислити рух виймати руки, той сказав би наперед, який саме вийде куля, - для нього не було б ймовірності.

Якби для нас, справді, не було причин вийняти такий-то куля, а не інший, тоді поява кулі було б дійсно неможливо, як неможливо дію без причини.

Ми повторюємо, що ймовірність і однакова можливість випадків, і міра ймовірності існують тільки для нас. Для істот ж всезнаючий, тобто мають всі відомості про всі явища, ймовірність не може мати не тільки заходи, але і ніякого значення.

Це висловлювання є типовим висловом в дусі механічного детермінізму, який був у той час широко поширений в теорії ймовірностей.

1.3 Перші спроби введення аксіоматичного визначення поняття ймовірності

П.Л. Чебишев (1821-1894 рр..) Був творцем і ідейним керівником петербурзької математичної школи. Чебишев зіграв велику роль у розвитку багатьох розділів математики, в тому числі теорії ймовірностей. У своїй магістерській дисертації у першому розділі він вводить поняття ймовірності. Для цього він, насамперед, визначає рівноможливими події: «Якщо з певного числа різних подій за певних обставин одне обов'язково має статися, і немає особливої ​​причини очікувати будь-якого з цих подій переважно перед іншими, то такі події відрізняємо назвою випадків равновозможних». Не можна сказати, щоб це визначення було достатньо чітке.

Якщо з n випадків m мають наслідком деяка подія, то мірою ймовірності цієї події, яке називають ймовірним, приймають , Тобто «Ставлення числа равновозможних випадків, сприятливих для події, до числа всіх равновозможних випадків».

А.А. Марков (1856-1922 рр..) Був найближчим учнем і кращим виразником ідей Чебишева. У своїй роботі «Обчислення ймовірностей" Марков давав класичне визначення ймовірності, але до визначення рівноможливими («Дві події ми називаємо рівноможливими, якщо немає жодних підстав очікувати одного з них переважно перед іншим. Кілька подій ми називаємо рівноможливими, якщо кожні два з них рівноможливими» ) він робив таке зауваження: «На мою думку, різні поняття визначаються не стільки словами, кожне з яких може, в свою чергу, вимагати визначення, як нашим ставленням до них, яке з'ясовується поступово». Визначення поняття ймовірності виглядає так:

«Ймовірністю події називається дріб, чисельник якого представляє число равновозможних випадків, сприятливих цій події, а знаменник-число всіх равновозможних випадків, відповідних питання». [1,2]

У своїй книзі «Теорія ймовірностей» С.Н. Бернштейн спробував ввести визначення поняття ймовірності аксіоматичним способом.

З аксіоми порівняння ймовірностей і аксіоми про несумісних події Бернштейн робить такий висновок: «Якщо події X сприяють m випадків із загального числа всіх n єдино можливих, несумісних і рівноймовірно випадків, то ймовірність події X залежить тільки від чисел m і n (а не від природи розглянутого досвіду), тобто ймовірність X = F (m, n), де F (m, n) є деяка певна функція ».

Але, цим аксіомам задовольняє тільки функція виду F ( ), Причому-це зростаюча функція дробу . Будь-яку таку функцію F ( ) Можна прийняти за вірогідність X. Загальноприйнято вважати F ( ) = . Це і є ймовірність події X в висловлених умовах, а точніше класичне визначення ймовірності.

З упевненістю можна сказати, що визначення поняття ймовірності лежить в основі будь-якої аксіоматичної системи теорії ймовірностей. На недоліки класичного визначення ймовірності вказували давно. Були видні і недоліки суб'єктивного трактування ймовірності, що йде від Лапласа. Критику цих недоліків зустрічали доброзичливо. Найбільш широкого поширення набули роботи в цьому напрямку німецького вченого Р. Мізеса (1883-1953 рр..), Який з гітлерівської Німеччини емігрував до США, де він очолив Інститут прикладної математики. Мізес є засновником так званої частотної концепції в теорії ймовірностей.

Основним поняттям в частотній теорії Мізеса є поняття колективу. Під колективом розуміється нескінченна послідовність k-однакових спостережень, кожне з яких визначає деяку точку, що належить заданому простору кінцевого числа вимірів. Говорити про ймовірність, по Мізеса, можна тільки тоді, коли існує ця певна сукупність подій. Колектив, по Мізеса, "... повинен відповідати таким двом вимогам:

  1. відносні частоти появи певної події в послідовності незалежних випробувань мають певні граничні значення;

  2. граничні значення, про які йдеться в першому вимозі, залишаються незмінними, якщо з усієї послідовності вибрати будь-яку підпослідовність.

Прийнявши за основу той факт, що ймовірність і частота - пов'язані між собою величини, Мізес визначає ймовірність як граничне значення частоти: «Обгрунтовано припущення, що відносна частота появи кожного одиничного спостережуваного ознаки прагне до певного граничного значення. Це граничне значення ми називаємо ймовірністю ».

Але насправді ніякого обгрунтованого припущення у нас немає. Ми ніколи не можемо знати, чи має дана частота межа чи ні, хоча б уже тому, що для цього довелося б зробити нескінченне число дослідів. Це визначення неспроможне математично, так як ми не можемо вказати функціональної залежності між кількістю випробувань n і частотою появи подій , Де m-кількість появ події, а, не вказавши такої залежності, ми не можемо обчислити межу, , Який прийнятий за ймовірність.

Найбільші представники теорії ймовірностей ніколи не були прихильниками частотної школи, а прихильники цієї школи не отримали істотних результатів в теорії ймовірностей.

Спроб обгрунтувати теорію ймовірностей було досить багато. Наприклад, італійський математик Б. Фінетті висунув суб'єктивне тлумачення ймовірності. Таким підходом до ймовірності він намагався подолати протиріччя, які виникли і в класичній теорії ймовірностей і в частотній школі Мізеса. За Фінетті ймовірність є чисто суб'єктивною величиною. Кожна людина по-своєму оцінює ймовірність тієї чи іншої події.

Трохи пізніше Джеффріс розробляв поняття ймовірності як міри правдоподібності. Вперше ця концепція була висунута Кейнес в 1921 р. За цією теорією кожне речення має певну ймовірність. Ймовірностями такого роду не можна дати частотної інтерпретації. Розробка теорії ступенів правдоподібності триває деякими математиками і в наші дні.

1.4 Поява аксіоматичного визначення поняття ймовірності

На сьогоднішній день закріпилося визначення поняття ймовірності дане А.Н. Колмогоровим в книзі «Основні поняття теорії ймовірностей» (1933 р.) аксіоматично.

Вже були розкриті глибокі аналогії між поняттями теорії ймовірностей і поняттями метричної теорії функцій. Були встановлені аналогії між безліччю і подією, мірою безлічі і ймовірністю події, інтегралом і математичним очікуванням і ін

Виникла потреба в аксіоматизації теорії ймовірностей виходячи з теоретико-множинних уявлень, що й було виконано в книзі Колмогорова. Після цієї аксіоматизації теорія ймовірностей зайняла рівноправне місце серед інших математичних дисциплін.

Розглянемо аксіоматику Колмогорова.

Нехай є спостереження або випробування, які хоча б теоретично допускають можливість необмеженого повторення. Кожне окреме випробування може мати той чи інший результат в залежності від випадку. Сукупність усіх цих можливих результатів утворює безліч E, яке є першим основним поняттям аксіоматики. Це безліч E називається безліччю елементарних подій. Що з себе представляють події, що є елементами цієї множини, для подальшого логічного побудови абсолютно байдуже, як байдуже для аксіоматичної побудови геометрії, що ми будемо розуміти під словами «точка», «пряма» і т.п. Тільки після такого аксіоматичної побудови теорія ймовірностей допускає різні інтерпретації, в тому числі і не пов'язані з випадковими подіями. Будь-яка підмножина безлічі E, тобто будь-яку сукупність можливих результатів, називають подією. Або іншими словами: випадковими подіями називаються елементи множини F підмножин з E. Далі розглядаються не всі події, а тільки деякий тіло подій. Теорія ймовірностей займається тільки тими подіями, частота яких стійка. Це положення в аксіоматичної теорії Колмогорова формалізується таким чином, що кожному події, яке ми розглядаємо, ставиться у відповідність деяке позитивне число, яке називається ймовірністю даної події. При цьому абстрагуються від усього того, що допомагало сформулювати це поняття, наприклад, від частоти. Це дає можливість інтерпретувати ймовірність не тільки імовірнісним способом. Тим самим значно розширюються можливості ймовірностей.

Сформулюємо аксіоми Колмогорова [1,5].

  1. Якщо випадкові події A і B входять до складу F, то події A або B, A і B, не A і не B також містяться в F.

  2. F містить як елементи безліч E і всі окремі його елементи.

  3. Кожному елементу A з F поставлено у відповідність невід'ємне дійсне число P (A), зване ймовірністю події A.

  4. P (E) = 1.

  5. Якщо A і B не перетинаються і належать F, то P (A + B) = P (A) + P (B). Для нескінченних множин F є ще одна аксіома, яка для кінцевих множин є наслідком п'яти наведених аксіом.

  6. Якщо перетин послідовності подій пусто, то .

Аксіоматика Колмогорова сприяла тому, що теорія ймовірностей остаточно зміцнилася як повноправна математична дисципліна.

Простеживши динаміку розвитку та формування поняття ймовірності можна зробити висновок, що воно вироблялося складними шляхами. Математики і філософи, політики і просто захоплені теорією ймовірностей вчені намагалися втілити поняття ймовірності в конкретну форму. Даючи правильні і помилкові визначення поняттю імовірно, вони маленькими кроками просувалися до вірного вирішення цього питання. Але навіть у добре і правильно сформульованих варіантах класичного визначення ймовірності можна виявити прогалини і упущення. Наприклад, майже у всіх даних варіантах класичного визначення відсутня умова кінцівки числа равновозможних подій, тобто умова, що . Можливо ця умова не обумовлювалося, але передбачалося. З побудовою системи аксіом для визначення поняття ймовірності завдання деякої неспроможності класичного визначення ймовірності була вирішена. Однак спостерігаються спроби дати трактування ймовірності з більш широких позицій, у тому числі і з позицій теорії інформації.

2. Динаміка розвитку поняття математичного сподівання

2.1 Передумови введення поняття математичного сподівання

Одним з перших наблизився до визначення поняття математичного сподівання Д. Кардано у своїй роботі «Книга про гру в кості». Він визначив умови невинною гри, які можна побачити на наступному прикладі Кардано: кидають дві гральні кістки. «Якщо, отже, будь-хто заявить, що він бажав би отримати 1, 2 або 3, то ти знаєш, що для цього є 27 шансів, а так як вся серія складається з 36, то залишається 9 бросаний, в яких ці числа очок не випадуть; таким чином, ці числа будуть знаходитися в потрійному відношенні. Отже, при чотирьох бросаниях три випадіння будуть сприятливі 1, 2 або 3, і лише один раз не вийде ні одного з трьох зазначених чисел очок. Якщо той, хто чекає випадання одного з трьох зазначених чисел очок, поставив три аса (давньоримські мідні монети), а інший один, то спочатку перший виграє тричі і отримає три аса, а потім другий виграє один раз і отримає три аса; таким чином, в загальному підсумку чотирьох бросаний шанси їх завжди зрівняються. Отже, такі умови розрахунку в грі - правильні, якщо ж другий з них поставить більше, то йому доведеться змагатися в грі на нерівних умовах і зі збитком для себе, а якщо він поставить менше, то з баришем. »Проте Кардано розуміє, що ці твердження справедливі тільки тоді, коли гра буде продовжуватися досить довго [1].

2.2 Введення поняття математичного очікування і його подальший розвиток

Звернемося до роботи Х. Гюйгенса «Про розрахунок в азартних іграх». Книга складається з вступу і 14 пропозицій. Розглянемо перші три пропозиції [1].

Пропозиція 1: «Якщо я маю рівні шанси отримання a або b, то це мені варто «.

Пропозиція 2: «Якщо я маю рівні шанси на отримання a, b або c, то це мені коштує стільки ж, як якби я мав .

Пропозиція 3: «Якщо число випадків, в яких виходить сума a, так само p і число випадків, в яких виходить сума b, так само q, і всі випадки однаково легко можуть відбутися, то вартість мого очікування дорівнює .

По суті Гюйгенс тут так визначає математичне сподівання. Він фактично вперше вводить поняття математичного сподівання і використовує його. Математичне сподівання є узагальненням поняття середньої арифметичної. Середня арифметична широко застосовувалася в торгівлі і промисловості для визначення середніх цін, середнього прибутку і т.п.

Термінологія Гюйгенса в теорії ймовірностей несе на собі відбиток комерційної термінології. Він вважає, що математичне очікування - це ціна шансу на виграш в безпечній грі і приходить до висновку, що справедлива ціна - є середня ціна. Він обчислює «за яку справедливу ціну я міг би поступитися своїм місцем в грі іншому». Сам Гюйгенс не називає математичне сподівання очікуванням, воно в нього фігурує як вартість шансу. Вперше термін «очікування» з'являється в перекладі роботи Гюйгенса Францем ван Схоутеном.

Робота Х. Гюйгенса справила великий вплив на Я. Бернуллі. До пропозицій 1, 2 і 3 Гюйгенса Бернуллі робить велике примітка.

«Автор цього трактату викладає ... в цьому і двох наступних пропозиціях основний принцип мистецтва припущень. Так як дуже важливо, щоб цей принцип був добре зрозумілий, то я спробую довести його за допомогою числень більш звичайних і більш доступних всім, виходячи виключно з тієї аксіоми, або визначення, що кожен повинен чекати або припускає чекати стільки скільки він неминуче отримає.

Слово «очікування» тут не повинно розумітися в його звичайному розумінні, за яким «чекати» або «сподіватися» відноситься до події найбільш сприятливому, хоча може статися найгірше для нас; потрібно розуміти під цим словом надію, яку ми маємо на отримання кращого, зменшену страхом гіршого. Так що вартість нашого очікування завжди означає щось середнє між кращим, на що ми сподіваємося, і гіршим, чого ми боїмося ... »

Після розгляду пропозиції 3 Бернуллі зазначає наступне: «З розгляду ... очевидно, що є велика схожість з правилом, званим в арифметиці правилом товариства, яке полягає у знаходженні ціни суміші, складеної з певних кількостей різних речей з різною ціною. Або, скоріше, що обчислення є абсолютно однаковими. Так, подібно до того, як сума творів кількостей змішуються речовин на їх відповідні ціни, розділена на суму речовин, дає шукану ціну, яка завжди знаходиться між крайніми цінами, також сума творів випадків на відповідно принесені ними вигоди, розділена на число всіх випадків, вказує вартість очікування, яка внаслідок цього завжди є «середньою між найбільшою і найменшою з цих вигод».

Це досить гарне пояснення математичного очікування і його зв'язки з виваженою середньої арифметичної [1].

В середині і в другій половині XVIII ст. багато вчених займалися питаннями пов'язаними з теорією ймовірностей. Перш за все, це відноситься до математиків, з яких можна виділити Д. Бернуллі (1700-1778 рр.).. Найбільш відомою роботою Д. Бернуллі з теорії ймовірностей є «Досвід нової теорії міри випадку» (1738 р.), в якій він вводить поняття морального очікування [2]. Однак, незважаючи на те, що надалі багато вчених розробляли це поняття воно не прижилося в теорії ймовірностей. Д. Бернуллі вводить правило підрахунку математичного сподівання, яке він називає основним правилом: «Значення очікуваної величини виходить шляхом множення значень окремих очікуваних величин на число випадків, в яких вони можуть з'явитися, і наступного розподілу суми творів на суму всіх випадків, при цьому потрібно, щоб розглядалися ті випадки, які є рівноможливими між собою »[1, 2]. Це правило повністю відповідає визначенню математичного очікування випадкової величини.

.

Тут -Значення окремої i-ой очікуваної величини,

-Число випадків в яких може з'явитися i-а очікувана величина,

n-число всіх випадків.

Ми бачимо, що визначення математичного сподівання дискретної випадкової величини остаточно сформувалося до середини XVIII ст. і активно використовувалося при вирішенні різних завдань. Однак поняття математичного сподівання іноді вважали недостатнім. Тому були спроби ввести поняття морального очікування (моральне очікування), яке пов'язане з «вигодою, що залежить від особистих умов». Незважаючи на те, що розробкою поняття морального очікування займалися багато вчених (Д. Бернуллі, Ж. Л. Бюффон, В. Я. Буняковський, Н. Є. Зернов, Лаплас, Пуассон, Лакруа), це поняття не закріпилася в науці.

Можна зробити висновок, що поняття математичного сподівання подолало складний шлях щоб стати одним з головних і основних понять в теорії ймовірностей.

3. Закон великих чисел

3.1 Первинне осмислення статистичної закономірності

Закон великих чисел займає одне з центральних місць у теорії ймовірностей. До недавнього часу проблема закону великих чисел не була остаточно вирішена. Розглянемо динаміку розвитку цього закону.

Одним з перших до розуміння статистичної закономірності та закону великих чисел підійшов Кардано. Щодо свого висновку про 6 можливостях отримати однакові числа очок на двох кістках і 30 можливостях - різні, він пише: «Ціла серія ігор (36 кидків) не дає відхилення, хоча в одній грі це може статися ..., при великому числі ігор виявляється, що дійсність дуже наближається до цього припущення »[1].

Тут Кардано стверджує, що при малій кількості спостережень частота може відхилятися досить сильно від частки, або, іншими словами, - від імовірності, при великому числі випробувань це відхилення буде незначно.

3.2 Поява теорем Бернуллі і Пуассона - найпростіших форм закону великих чисел

Я. Бернуллі писав: «... І що не дано вивести a priori то, принаймні, можна отримати a posteriori, тобто з багаторазового спостереження результатів ... ».

Бернуллі стверджує, що якщо в азартних іграх завжди можна порахувати число випадків, а самі випадки зустрічаються однаково легко, то в інших явищах в природі і суспільстві ні те ні інше не має.

«Вся справа зводиться до того, щоб для правильного складання пропозицій про яку-небудь речі були точно обчислені як числа випадків, так і було б визначено наскільки одні випадки можуть легше зустрітися, ніж інші ...». Але це зовсім неможливо зробити для більшості явищ. Однак Бернуллі знайшов вихід із ситуації. Він стверджує, що при збільшенні числа випробувань, частота появи якої-небудь події буде мало відрізнятися від імовірності появи цієї події. І чим більше число випробувань, тим менше це відмінність. «Слід зауважити, що відношення між числами випадків, які ми бажаємо визначити досвідом, розуміється не в сенсі точного відносини ..., але до певної міри наближеного, тобто укладеного в двох кордонах, які можна взяти як завгодно тісними ».

На допомогу доказу своєї теореми Бернуллі доводить ряд лем [1].

Лемма 1.

Розглядаються два ряди

0, 1, 2, ..., r - 1, r, r + 1, ..., r + s;

0, 1, 2, ..., nr - n, ..., nr, ..., nr + n, ..., nr + ns

і стверджується, що зі збільшенням n зростає кількість членів між nr і nr + n; nr і nr - n; nr + n і nr + ns; nr і 0. Крім того, як би велике не було n, число членів після nr + n не буде перевищувати більш ніж у s - 1 раз число членів, укладених між nr і nr + n або між nr і nr - n, а також число членів до nr - n не буде перевищувати більш ніж у r - 1 раз число членів між тими ж числами.

Доказ.

Знайдемо кількість членів між зазначеними в лемі членами аналізованих рядів. Для цього введемо позначення:

-Число членів між nr і nr + n;

-Число членів між nr і nr - n;

-Число членів між nr + n і nr + ns;

-Число членів між nr і 0;

-Число членів після nr + n;

-Число членів до nr - n.

;

;

;

.

Очевидно, що зі збільшенням n (тобто при ) , , , будуть необмежено зростати.

Знайдемо число членів після nr + n ( ), Очевидно, що = = .

Очевидно, що = = , Тобто число членів після nr + n не перевищує більш ніж у s -1 раз число членів укладених між nr і nr + n або між nr і nr - n, для будь-якого n.

Знайдемо число членів до nr - n ( ), Очевидно, що , А значить = = , Тобто число членів до nr - n не перевищує більш ніж у r -1 раз число членів укладених між nr і nr + n або між nr і nr - n, для будь-якого n.

Що й треба було довести.

Лемма 2.

Всяка ціла ступінь будь-якого двочлена r + s виражається числом членів, на одиницю більшим числа одиниць у показнику ступеня.

Доказ.

Розглянемо , Де x (X - ціле число)

= .

Складемо ряд із ступенів одночлена s (або r)

0,1,2, ..., x -2, x -1, x. Кількість членів в цьому ряду одно x +1.

Т. о. всяка ціла ступінь двочлена r + s виражається числом членів, на одиницю більшим числа одиниць у показнику ступеня. Що й треба було довести.

Лемма 3.

У будь-якого ступеня двочлена r + s, принаймні в t = r + s або nt = nr + ns, деякий член M буде найбільшим, якщо числа попередніх йому і наступних за ним членів перебувають у відношенні s до r або, що те саме, якщо в цьому члені показники букв r і s перебувають у відношенні самих кількостей r і s; ближчий до нього член з тієї та іншої сторони більше більш віддаленого з того ж боку, та той же член M має до ближчого менше відношення, чим більш близьке до більш віддаленою при рівному числі проміжних членів.

Доказ.

Відзначається, що коефіцієнти членів рівновіддалених від кінців рівні. Число всіх членів nt +1 = nr + ns +1. Найбільший член буде:

M = = .

M можна записати в іншому вигляді, скориставшись наступною формулою .

M = = .

Найближчий до нього ліворуч член дорівнює ;

праворуч - .

Наступний зліва - ;

праворуч - і т.д.

; ;

; , І т.д.

Очевидно, що:

, M-найбільша член.

Що й треба було довести.

Лемма 4.

У ступені двочлена з показником nt число n може бути взято настільки великим, щоб ставлення найбільшого члена M до двох інших L і , Віддаленим від нього ліворуч і праворуч на n членів, перевершило всяке дане відношення.

Доказ.

M = = ;

L = ;

= .

Для доказу леми необхідно встановити, що

і .

= = =

= .

= = =

= .

Але ці відносини будуть нескінченно великими, коли n покладається нескінченним, бо тоді зникають числа 1, 2, 3 та ін порівняно з n, і самі числа , , і пр. , , тощо будуть мати ті ж значення, як і . Після цього відкинувши ці числа і провівши відповідні скорочення на n, отримаємо, що

= ; = .

Кількість співмножників в чисельнику і знаменнику одно n. Внаслідок чого ці відносини будуть нескінченними ступенями виразів: і і тому нескінченно великими.

Таким чином, ми з'ясували, що в нескінченно високого ступеня двочлена відношення найбільшого члена до інших L і перевершує всяке задане ставлення.

і .

Що й треба було довести.

Лемма 5.

Відношення суми всіх членів від L до до всіх інших зі збільшенням n може бути зроблено більше всякого заданого числа.

Доказ.

M - Найбільший член розкладання.

Нехай сусідні з ним ліворуч будуть F, G, H, ...;

нехай сусідні з L ліворуч будуть P, Q, R, ....

На підставі леми 3 маємо:

< ; < ; < , ... або < < < <....

Так як по лемі 4, при n нескінченно великому, ставлення нескінченно, то тим більше будуть нескінченними відносини , , , ..., І тому ставлення також нескінченно, тобто сума членів між найбільшим M і межею L нескінченно більше суми такого ж числа членів за межею L і найбільш до нього близьких. І так як число всіх членів за межею L перевищує, по лемі 1, не більше ніж у s -1 раз (тобто кінцеве число раз) число членів між цією межею і найбільшим членом M, а самі члени робляться тим менше, ніж далі вони відстоять від межі, по першій частині леми 3, то сума всіх членів між M і L (навіть не рахуючи M) буде нескінченно більше сум всіх членів за межею L. Аналогічне твердження можна довести щодо членів між M і . Обидва ці твердження і доводять лему.

Що й треба було довести.

Головне пропозицію.

Нехай число сприятливих випадків відноситься до числа несприятливих точно або приблизно, як r до s, або до числа всіх випадків, як r до r + s або r до t, це відношення полягає в межах і . Потрібно довести, що можна взяти стільки дослідів, щоб у яке завгодно дане число раз (c раз) було імовірніше, що число сприятливих спостережень потрапить у ці межі, а не поза ними, тобто відношення числа сприятливих спостережень до числа всіх буде не більше ніж і не менш .

Доказ.

Нехай число необхідних спостережень буде nt. Ймовірність того що всі спостереження будуть сприятливі, дорівнює

,

що всі крім одного-

,

крім двох

і т.д.

А це є члени розкладання (r + s) в ступені nt (поділені на ), Які досліджувалися у минулих лемах. Всі подальші висновки грунтуються на доведених лемах. Число випадків з ns несприятливими набдюденіямі і nr сприятливими дає член M. Число випадків, при яких буде nr + n або nr - n сприятливих спостережень, виражається членами L і , Віддалених на n членів від M. Отже, число випадків, для яких сприятливих спостережень виявиться не більше nr + n і не менш nr - n, виражатиметься сумою членів, укладених між L і . Загальне ж число випадків, для яких сприятливих спостережень буде або більше nr + n або менше nr - n, виражається сумою членів, що стоять лівіше L і правіше .

Так як ступінь двочлена може бути взята настільки велика, щоб сума членів, укладених між обома межами L і перевершувала більш ніж в c разів суму всіх інших з цих меж вихідних, по лема 4-й та 5-й, то, отже, можна взяти таке велике число спостережень, щоб число випадків, при яких відношення числа сприятливих спостережень до числа всіх виявляється ув'язненим в межі і або і , Перевищувала більш ніж в c раз число інших випадків, тобто зробилося більш ніж в c раз імовірніше, що відношення числа сприятливих спостережень до числа всіх полягає в межах і , А не поза цими межами.

Що й треба було довести.

Для порівняння дамо сучасну формулювання теореми Бернуллі.

Теорема Бернуллі.

Якщо ймовірність настання події A в послідовності незалежних випробувань постійна і дорівнює p, то, яке б не було позитивне число , З імовірністю як завгодно близькою до одиниці, можна стверджувати, що при досить великому числі випробувань n різниця за абсолютною величиною виявиться меншою, ніж :

,

де -Будь-яке мале число.

Ця теорема буде доведена нами пізніше (після введення нерівності Чебишева).

Завжди може статися, що, яким би великим не було n, в даній серії з n випробувань виявиться більше . Але, згідно теоремі Бернуллі ми можемо стверджувати, що якщо n досить велике і якщо вироблено досить багато серій випробувань за n випробувань в кожній серії, то в переважній кількості серій нерівність буде виконано.

Бернуллі вважає, що з доведеної теореми «випливає те дивовижне, мабуть, слідство, що якби спостереження над усіма подіями продовжувати всю вічність (причому ймовірність, нарешті, перейшла б у повну достовірність), то помітили б, що все в світі управляється точними відносинами і постійним законом зміни, так, що навіть у речах, надзвичайно випадкових, ми змушені були б визнати як би деяку необхідність і, скажу я, рок ».

А.А. Марков писав, що в цій роботі Бернуллі «вперше була опублікована і доведена знаменита теорема ..., що поклала початок законом великих чисел ...». Пуассон (1781-1840 рр..) У своїй роботі «Дослідження про ймовірність судових вироків у кримінальних та цивільних справах» займався граничними пропозиціями. В результаті він довів свою знамениту теорему, якій дав назву «закон великих чисел» [1]. Теорема Пуассона формулювалася наступним чином.

Теорема.

Якщо робиться n незалежних випробувань, результатами яких є настання або не настання події A, причому ймовірність настання події в окремих випробуваннях неоднакова, то з імовірністю, як завгодно близькою до одиниці (або, іншими словами, - до достовірності), можна стверджувати, що частота настання події A буде як завгодно мало відрізнятися від середньої арифметичної ймовірностей настання події в окремих випробуваннях.

Тепер цю теорему записують так:

Якщо ж імовірність настання події не буде змінюватися від випробування до випробування, то = P, і теорема Пуассона в цьому випадку переходить в теорему Я. Бернуллі, яка, таким чином, є окремим випадком теореми Пуассона.

3.3 Нерівність Чебишева. Закон великих чисел у формі Чебишева

17.12.1866 р. Чебишев доповів Академії наук свою працю «Про середніх величинах», яка була опублікована в 1867 р. У «Математичному збірнику». У цій роботі Чебишев довів одну важливу нерівність, яка тепер називається нерівністю Чебишева. За допомогою цієї нерівності Чебишев отримав теорему, з якої як наслідку виходять теореми Бернуллі і Пуассона. На початку роботи «Про середніх величинах» Чебишев доводить теорему [1,6].

Теорема.

Якщо математичне сподівання величин x, y, z, ... суть a, b, c, ...,

а математичне сподівання квадратів , , , ... Суть , , , ..., То ймовірність, що сума x + y + z + ... полягає в межах

,

,

при всякому значенні залишається більше .

Далі Чебишев переходить до наступної теоремі.

Якщо ми зобразимо через N число величин x, y, z, ..., u, вважаючи в доведеною зараз теоремі , Розділимо на N як суму x + y + z + ..., так і межі її

,

,

то з цієї теореми отримаємо таку щодо середніх величин.

Теорема.

Якщо математичне сподівання величин

x, y, z, ..., , , , ... Суть a, b, c, ..., , , , ..., То ймовірність, що середнє арифметичне N величин x, y, z, ..., від середнього арифметичного математичних сподівань цих величин різниться не більше як на при всякому значенні, буде перевершувати .

Це і є знамените нерівність Чебишева, яке в сучасній формі записується наступним чином:

,

де випадкова величина x має кінцеву дисперсію , А -Будь-яка відмінна від нуля позитивна величина.

Дійсно, першу теорему Чебишева можна записати так:

Застосуємо цю теорему до випадкової величиною x:

.

Але ,

,

,

.

Нехай , Тоді і отримуємо звичну формулу для нерівності Чебишева .

Сформулюємо відповідну теорему і доведемо в ній це нерівність.

Теорема.

Нехай є випадкова величина з математичним очікуванням і дисперсією . Нерівність Чебишева стверджує, що, яке б не було позитивне число , Ймовірність того, що величина відхилиться від свого математичного сподівання не менше ніж на , Обмежена зверху величиною :

.

Доказ.

1. Нехай величина дискретна, з рядом розподілу

Зобразимо можливі значення величини і її математичне сподівання у вигляді точок на числовій осі Ox.

Задамося деяким значенням і обчислимо ймовірність того, що величина відхилиться від свого математичного сподівання не менше ніж на : .

Для цього відкладемо від точки вправо і вліво по відрізку довжиною ; Отримаємо відрізок . Ймовірність є не що інше, як ймовірність того, що випадкова точка потрапить не всередину відрізка , А зовні його (кінці відрізка ми в нього не включаємо): .

Для того щоб знайти цю вірогідність, потрібно підсумувати вірогідність всіх тих значень , Які лежать поза відрізка . Це ми запишемо наступним чином:

, Де запис під знаком суми означає, що підсумовування поширюється на всі ті значення , Для яких точки лежать поза відрізка .

З іншого боку, напишемо вираз дисперсії величини за визначенням:

.

Так як всі члени суми невід'ємні, вона може тільки зменшитися, якщо ми поширимо її не на всі значення , А тільки на деякі, зокрема на ті, які лежать поза відрізка :

.

Замінимо під знаком суми вираз через . Так як для всіх членів суми , То від такої заміни сума теж може тільки зменшитися, означає:

.

Але згідно з формулою сума, що стоїть в правій частині цієї нерівності є не що інше, як ймовірність попадання випадкової точки зовні відрізка , Отже , Звідки безпосередньо випливає доказуване нерівність.

2. У разі коли величина безупинна, доказ проводиться аналогічним чином із заміною ймовірностей елементом ймовірності, а кінцевих сум - інтегралами. Дійсно,

,

де - Щільність розподілу величини . Далі, маємо:

,

звідки й випливає нерівність Чебишева для безперервних величин.

Що й треба було довести.

Як наслідок з свого нерівності Чебишев отримує таку теорему.

Теорема.

Якщо математичні очікування величин не перевершують будь-якого кінцевого межі, то ймовірність, що середнє арифметичне N таких величин від середнього арифметичного їх математичних сподівань різниться менш ніж на якусь дану величину, зі зростанням числа N до , Приводиться до одиниці.

Доказ.

Дійсно, розглянемо випадкову величину , Що представляє собою середню арифметичну з даних випадкових величин.

;

;

.

Якщо обмежені математичні очікування випадкових величин та їх квадратів, то обмежені також і дисперсії, тобто Всі , Де c-деяке число. Тоді .

Застосуємо тепер нерівність Чебишева до :

, Або

.

Переходячи до межі, отримуємо:

.

Що й треба було довести.

Це і є теорема Чебишова - закон великих чисел Чебишева. Ця теорема встановлює, що при достатньо великих n з імовірністю, близькою до одиниці, можна вважати, що середнє арифметичне випадкових величин як завгодно мало коливається близько деякого постійного числа-середнього їх математичних сподівань.

Теореми Пуассона і Бернуллі є окремими випадками закону великих чисел Чебишева.

Дійсно, нехай в n випробуваннях, подія A настає з імовірностями і не настає з імовірностями . Розглянемо випадкову величину - Число наступів події A в i-му випробуванні. Тоді

; ; ,

задовольняє умовам теореми Чебишева, тобто

, Або

,

де -Середнє арифметичне з ймовірностей наступів подій в окремих випробуваннях. А це і є теорема Пуассона.

Якщо все , То і , І ми отримаємо теорему Бернуллі:

.

Цікаво, що Чебишев не називав доведену теорему «законом великих чисел», хоча теорема Пуассона виходить з неї як окремий випадок.

Знаючи, що теорема Бернуллі є окремим випадком теореми Чебишева спробуємо довести її як прямий наслідок закону великих чисел Чебишева (тобто наведемо сучасне доказ теореми Бернуллі [3]). Повторимо сучасну формулювання теореми Бернуллі.

Теорема.

Нехай виробляється n незалежних дослідів. Якщо ймовірність настання події A в послідовності незалежних випробувань постійна і дорівнює p, то, яке б не було позитивне число , З імовірністю як завгодно близькою до одиниці, можна стверджувати, що при досить великому числі випробувань n різниця за абсолютною величиною виявиться меншою, ніж :

,

де -Будь-яке мале число.

Доказ.

Розглянемо незалежні випадкові величини:

- Число появ події A в першому досвіді;

- Число появ події A в другому досвіді, і т.д.

Всі ці величини перериваним і мають один і той же закон розподілу, що виражається поруч види:

0

1

q

p

т.к. подія A настає з ймовірністю p і не настає з імовірністю q .

Обчислимо математичне сподівання кожної з величин :

, Дисперсію:

.

задовольняють умовам теореми Чебишева, тобто можемо застосувати нерівність Чебишева:

.

Т.к. , , А , То отримуємо вираз:

.

Звідси і випливає справедливість доказуваного нерівності:

,

де -Мале число при .

Що й треба було довести.

3.4 Закон великих чисел для залежних випадкових величин

А.А. Марков під цим законом розумів закон, «в силу якого з імовірністю, як завгодно близькою до достовірності, можна стверджувати, що середнє арифметичне з декількох величин, при досить великому числі цих величин, буде довільно мало відрізнятися від середньої арифметичної їх математичних сподівань». При такому розумінні закону великих чисел і теорема Бернуллі і теорема Пуассона і теорема Чебишова будуть його різними формами. Таке розуміння тепер загальноприйнято.

Чебишев поширив закон великих чисел на незалежні випадкові величини з рівномірно обмеженими дисперсіями: .

Марков розширив умови застосовності цього закону. У роботі «Поширення закону великих чисел на величини, що залежать один від одного» Марков навів наступну теорему [1,6].

Теорема.

Якщо послідовність взаємно незалежних випадкових величин така, що

, То

.

Доказ.

Розглянемо величину

, .

Очевидно, що і величина обмежена <C, c-деяке число. Застосуємо тепер нерівність Чебишева до :

, Або

.

Переходячи до межі отримуємо:

.

Що й треба було довести.

У цій роботі Марков доводить, що закон великих чисел застосуємо до , Якщо і зв'язок величин така, що збільшення будь-якої з них тягне за собою зменшення математичних очікувань інших.

Марков робить зауваження: «до того ж висновку про застосування закону великих чисел не важко прийти і у випадку, коли математичне сподівання при всякому зменшується зі збільшенням суми «.

Марков розглядає послідовність випадкових величин, пов'язаних в ланцюг. Такі ланцюга залежних величин отримали назву марковських ланцюгів. У цій роботі Марков розглядає просту ланцюг (проста ланцюг Маркова - послідовність випадкових величин, кожна з яких може приймати будь-яке число результатів, причому ймовірності наслідків при -М випробуванні отримують певні значення, якщо відомий тільки результат -Го випробування), причому всі приймають значення тільки 0 або 1. Він встановлює, що ці випадкові величини також підпорядковані закону великих чисел. Потрібно відзначити, що в роботі Марков вимагав, щоб для всіх ймовірностей переходу виконувалася умова . Але висновки Маркова залишаються справедливими, якщо замість такого сильного обмеження вимагати тільки, щоб ця умова виконувалася хоча б для однієї ймовірності при будь-якому .

Наприкінці своєї роботи Марков робить висновок, що незалежність величин не становить необхідної умови для існування закону великих чисел.

В даний час використовується умова, аналогічне умові Маркова, але вже не тільки достатнє, але й необхідна для застосування закону великих чисел до послідовності довільних випадкових величин [4].

Теорема.

Для того щоб для послідовності (Як завгодно залежних) випадкових величин при будь-якому позитивному виконувалося співвідношення

, (3.4.1)

Необхідно і достатньо, щоб при . (3.4.2)

Доказ.

Припустимо спочатку, що (2) виконано, і покажемо, що в цьому випадку виконано також (1). Позначимо через функцію розподілу величини .

Легко перевірити наступний ланцюжок співвідношень:

Це нерівність доводить достатність умови теореми.

Покажемо тепер, що умова (2) необхідно. Легко бачити, що

Таким чином, .

Вибираючи спочатку як завгодно малим, а потім достатньо великим, ми можемо зробити праву частину останнього нерівності як завгодно малою.

Що й треба було довести.

3.5 Посилення закону великих чисел. Поява необхідного і достатнього умов застосування закону великих чисел

У 1923 р. А.Я. Хинчин встановив закон повторного логарифма, який є своєрідним узагальненням і посиленням закону великих чисел [1]. Розглянемо отримані ним результати.

Згідно теоремі Бернуллі, при для будь-якого

У 1909 р. Борель для довів, що , Тобто що для великих з переважною ймовірністю має бути мала в порівнянні з , .

У 1917 р. Кантелло розповсюдив результат Бореля на будь .

У 1913 р. Хаусдорф для випадку Бернуллі знайшов наступну оцінку: з імовірністю одиниця , Де довільно.

У 1914 р. Харді і Літтльвуд показали, що з імовірністю одиниця .

А в 1923 р. Хинчин довів наступну теорему.

Теорема.

Якщо ймовірність появи події A в кожному з незалежних випробувань дорівнює , То число появ події A в випробуваннях при задовольняє співвідношенню:

.

Функція в цьому сенсі є точною верхньою межею випадкової величини .

Уявімо цей результат геометрично. Будемо по осі абсцис відкладати , А по осі ординат - . Проведемо в цій системі прямі: і . Теорема Бореля-Кантелло стверджує, що при достатньо великих майже вірогідно, що буде укладатися між прямими і . Але ці межі виявилися дуже широкі і Хинчин вказав більш суворі межі зміни . Якщо ми проведемо криві

і (3.5.1)

, (3.5.1 ')

то по теоремі Хинчина, яке б не було , Для досить великих різниця майже достовірно укладена між цими кривими. Якщо ж взяти криві

і (3.5.2)

, (3.5.2 ')

то майже достовірно нескінченно багато раз вийде за межі цих кривих. Зобразимо схематично цю ситуацію.





Хоча Марков і розширив межі застосування закону великих чисел, однак, остаточно це питання ще не було вирішене. Встановити необхідні і достатні умови застосовності закону великих чисел вдалося тільки завдяки застосуванню методів і понять теорії функцій.

У 1926 р. А.Н. Колмогоров встановив ці умови в своїй роботі [5].

Визначення.

Випадкові величини послідовності називаються стійкими, якщо існує така числова послідовність , Що для будь-якого позитивного , .

Якщо існують всі і якщо можна покласти , То кажуть, що стійкість нормальна.

Якщо все рівномірно обмежені, то з , , Слід співвідношення , , І, отже, , .

Таким чином, стійкість обмеженою послідовності необхідно нормальна. Нехай .

По нерівності Чебишева .

Отже, умова Маркова: , , Достатньо для нормальної стійкості.

Якщо рівномірно обмежені, , То за нерівністю ,

.

Отже, в цьому випадку умова Маркова є також і необхідним для нормальної стійкості .

Якщо і величини попарно некоррелірованнимі, то .

Отже, в цьому разі для нормальної стійкості середніх арифметичних , Тобто для того, щоб для всякого

,

Досить виконання наступної умови: (Теорема Чебишова). Зокрема, ця умова виконана, якщо всі величини рівномірно обмежені.

1. Можна узагальнити цю теорему на випадок слабо корельованих величин . Якщо припустити, що коефіцієнт кореляції (Ясно, що завжди ) Між і задовольняє нерівності і що , То для нормальної стійкості середніх арифметичних, тобто для того, щоб для всякого

,

достатньо виконання умови , Де .

2. У разі незалежних доданків можна дати також необхідна і достатня умова для стійкості середніх арифметичних .

Для кожного існує константа (Медіана ), Яка задовольняє таким умовам: , .

Покладемо

Теорема.

Нехай - Послідовність взаємно незалежних випадкових величин. Тоді умови

= , ,

,

необхідні і достатні для стійкості величин , При цьому постійні , , Можна прийняти рівними , Так що в разі (І тільки в цьому випадку) стійкість нормальна.

Доказ.

Достатність умов теореми встановлюється просто. Справді оскільки а згідно нерівності Чебишева

то

Для доказу необхідності нам знадобиться ряд допоміжних пропозицій.

Лемма 1.

Нехай - Незалежні події, , і для деякого . Якщо, крім того, подія таке, що для кожного , То тоді .

Доказ.

Якщо існує такий номер , Що , То .

Нехай тепер для всіх .

Тоді знайдеться таке , Що , І, значить, для всіх

,

,

.

Звідси

.

Що й треба було довести.

Лемма 2.

Нехай - Незалежні, обмежені, , , Випадкові величини з нульовими середніми. Тоді для всякого і цілого

, Де .

Доказ.

Нехай , , , ,

. Помічаючи, що на безлічі , Отримуємо

З нерівності випливає, що

.

Тому при будь-якому . Значить і .

Що й треба було довести.

Лемма 3.

Нехай - Незалежні, обмежені випадкові величини, причому , . Тоді

.

Доказ.

Позначимо , . Якщо або , То права частина в доказуваному нерівності негативна і нерівність очевидно.

Нехай тепер одночасно , . Тоді достатньо показати, що , Оскільки, очевидно,

.

Позначимо . Якщо , То

і, значить,

Припустимо, тепер, що .

Позначаючи і застосовуючи лему 2, знаходимо

Звідси

На безлічі .

Тому .

Ясно також, що .

Отже,

і, значить, .

Що й треба було довести.

Доказ теореми. Необхідність.

Нехай послідовність , така, що для будь-якого , . Покажемо, що тоді

, .

Позначимо для даного , ,

.

Оскільки - Медіана , То .

Для достатньо великих , Тому

, Тобто .

Далі, якщо подія виконується, а ні, то виконується подія і, значить, .

Але .

Отже, .

Застосуємо лему 1, взявши .

Тоді .

Події незалежні, тому .

Оскільки за умовою , , То з і отримуємо шукане співвідношення .

Покладемо тепер

З випливає, що якщо , , То і , .

Позначимо . Тоді і по леми 3

звідки .

Для .

Тоді з ,

і

випливає, що

, А значить в силу довільності

.

Що й треба було довести.

3. Подальше узагальнення теореми Чебишева виходить, якщо припустити, що якимось чином залежать від результатів будь-яких випробувань , Так що після кожного певного результату всіх цих випробувань приймає певне значення. Загальна ідея віх теорем, відомих під назвою закону великих чисел, полягає в тому, що якщо залежність величини від кожного окремого випробування , , Дуже мала при великих , То величини стійкі. Якщо розглядати як розумну міру залежності величини від випробування , То вищезгадана загальна ідея закону великих чисел може бути конкретизована такими міркуваннями.

Нехай .

Тоді ,

,

.

Легко, далі, підрахувати, що випадкові величини , , Некоррелірованнимі. Справді, нехай , Тоді, знаючи, що , Можна записати таке:

і, отже, , .

Отже, .

Таким чином, умова , достатньо для нормальної стійкості величин .

Таким чином, була завершена одна з центральних проблем теорії ймовірностей - проблема закону великих чисел.

Висновок

Ми простежили динаміку розвитку поняття ймовірності; такого поняття в теорії ймовірностей, як математичне сподівання, а також розвиток однієї з центральних теорем-закону великих чисел. Можемо зробити такі висновки.

Простеживши динаміку розвитку та формування поняття ймовірності можна відзначити, що воно вироблялося складними шляхами. Поняття ймовірності вливався в визначення різних форм і змістів.

Спочатку це поняття розуміли на чисто інтуїтивному рівні. Пізніше з'явилися різні визначення поняття ймовірності. Спостерігалися спроби вводити нові поняття, наприклад «власне ймовірність», але ці спроби не увінчалися успіхом - це поняття не збереглося в науці. Надалі виникає необхідність у більш чіткому і строгому відношенні до основних понять теорії ймовірностей, тобто і до визначення поняття ймовірності. Цього вимагало розвиток статистичної фізики; цього вимагало розвиток самої теорії ймовірностей, в якій гостро стала відчуватися незадоволеність класичного обгрунтування лапласовского типу; цього вимагав та розвиток інших наук, в яких широко застосовувалися імовірнісні поняття. Ставало дедалі чіткіше видно, що теорія ймовірностей потребує нового логічному обгрунтуванні - в обгрунтуванні за допомогою аксіоматичного методу. Багато вчених роблять спроби аксіоматичного визначення поняття ймовірності. Проте успішно це завдання було вирішено на початку XX ст. Колмогоровим. Аксіоматика Колмогорова сприяла тому, що теорія ймовірностей остаточно зміцнилася як повноправна математична дисципліна.

Розвиток поняття математичного очікування також зустрічало ряд труднощів. Спроби ввести поняття морального очікування, яке б усувало недоліки математичного очікування - провалилися. Це сталося через те, що поняття морального очікування не було пов'язано з поняттям ймовірності на відміну від математичного очікування. У результаті поняття «математичне очікування» зайняло міцне місце, по праву йому належить, в теорії ймовірностей.

Динаміку розвитку закону великих чисел можна порівняти з ієрархічною драбиною. В основі її найпростіші теореми Бернуллі і Пуассона, а на вершині - критерій застосування закону великих чисел (необхідна і достатня умови). На відміну від понять ймовірності та математичного сподівання, закон великих чисел не стикався з подібними протиріччями, у своєму трактуванні. Удосконалення закону великих чисел відбувалося плавно, без різких стрибків.

Список джерел

1. Майстрів Л.Є. Теорія ймовірностей. Історичний нарис. - М.: Наука,

1967. - 320 с.

  1. Майстрів Л.Є. Розвиток поняття ймовірності. - М.: Наука, 1980. - 270 с.

  2. Вентцель Е.С. Теорія ймовірностей. - М.: Наука. Головна редакція фіз. - Мат. літератури, 1969. - 576 с.

  3. Гнеденко Б.В. Курс теорії ймовірностей. - М.: Наука. Головна редакція фіз. - Мат. літератури, 1969. - 400 с.

  4. Колмогоров А.Н. Основні поняття теорії ймовірностей. - М.: Наука. Головна редакція фіз. - Мат. літератури, 1974. - 120 с.

  5. Історія вітчизняної математики. В 4 т.-К.: Навукова думка, 1967. - Т.2.

  6. Глівенко В.І. Курс теорії ймовірностей. - М.: Гостехиздат, 1939.

  7. Чебишев П.Л. Повне зібрання творів - М.-Л.: 1948.-Т.3.

  8. Історія природознавства в Росії. - М.: 1960.-Т.2.

  9. Гнеденко Б.В., Колмогоров А.Н. Теорія ймовірностей. - В кн.: «Математика в СРСР за 30 років». - М. - Л.: 1948.

Додати в блог або на сайт

Цей текст може містити помилки.

Математика | Диплом
304.1кб. | скачати


Схожі роботи:
Основи теорії ймовірностей
Аксіоматика теорії ймовірностей
Основи теорії ймовірностей
Обчислення з теорії ймовірностей
Основи теорії ймовірностей
Граничні теореми теорії ймовірностей
Основні теореми теорії ймовірностей
Основні поняття теорії ймовірностей
Граничні теореми теорії ймовірностей
© Усі права захищені
написати до нас