У теорії ймовірностей зустрічаються кілька з іншим типом залежності - ймовірнісної залежністю

У теорії ймовірностей зустрічаються кілька з іншим типом залежності - ймовірнісної залежністю. Якщо величина Y пов'язана з величиною Х ймовірнісної залежністю, то, знаючи значення Х, не можна точно вказати значення Y, а можна вказати її закон розподілу, що залежить від того, яке значення прийняла величина Х.

Імовірнісна залежність може бути більш-менш тісному; у міру збільшення тісноти ймовірнісної залежності вона все більше наближається до функціональної. Т.ч. функціональну залежність можна розглядати як крайній, граничний випадок найбільш тісній вероятностной залежності. Інший крайній випадок - повна незалежність випадкових величин. Між цими двома крайніми випадками лежать всі градації ймовірнісної залежності - від найсильнішої до найслабшої.

Імовірнісна залежність між випадковими величинами часто зустрічається на практиці. Якщо випадкові величини Х і Y знаходяться в ймовірнісної залежності, то це не означає, що зі зміною величини Х величина Y змінюється цілком певним чином; це лише означає, що зі зміною величини Х величина Y

має тенденцію також змінюватися (зростати або спадати при зростанні Х). Ця тенденція дотримується лише в загальних рисах, а в кожному окремому випадку можливі відступу від неї.

Приклади ймовірнісної залежності.

Виберемо навмання одного хворого з перитонітом. випадкова величина Т - час від початку захворювання, випадкова величина Про - рівень гомеостатичних порушень. Між цими величинами є явна залежність, так як величина Т є однією з найбільш головних причин, що визначають величину О.

У той же час між випадковою величиною Т і випадковою величиною М, що відбиває летальність при даній патології, є більш слабка імовірнісна залежність, так як випадкова величина хоч і впливає на випадкову величину О, однак не є головною визначальною.

Тим більше, якщо розглядати величину Т і величину В (вік хірурга), то дані величини практично незалежні.

До сих пір ми обговорювали властивості систем випадкових величин, даючи тільки словесне роз'яснення. Однак існують числові характеристики, за допомогою яких досліджуються властивості як окремих випадкових величин, так і системи випадкових величин.

Однією з найважливіших характеристик випадкової величини нормального розподілу є математичне очікування.

Розглянемо дискретну випадкову величину Х, що має можливі значення Х1, Х2. Хn з імовірностями р1, р2. рn. нам потрібно охарактеризувати якимось числом становище значень випадкової величини на осі абсцис з урахуванням того, що ці значення мають різні значення. Для цієї мети зазвичай користуються так званим "середнім зваженим" з значень Хi, причому кожне значення Хi при осреднении має враховуватися з "вагою", пропорційним ймовірності цього значення. Таким чином, якщо позначити "середнє зважене" через М [X] або mx, одержимо

або, враховуючи, що, то

Математичним очікуванням випадкової величини називається сума добутків всіх можливих значень випадкової величини на ймовірності цих значень.

Для більшої наочності розглянемо одну механічну інтерпретацію введеного поняття. Нехай на осі абсцис розташовані точки з абсциссами х1, х2, ..., хn, в яких зосереджені відповідно маси р1, р2, .... рn, причому. Тоді математичне очікування є не що інше, як абсциса центру ваги даної системи матеріальних точок.

Формула (1) для математичного очікування відповідає випадку дискретної випадкової величини. Для безперервної величини Х математичне очікування, природно, виражається не сумою, а інтегралом:

де - щільність розподілу величини Х.

Формула (2) виходить з формули (1), якщо в ній замінити окремі значення Хi безперервно змінюється параметром Х, відповідні ймовірності рi елементом ймовірності f (x) dx, кінцеву суму - інтегралом.

У механічної інтерпретації математичне сподівання неперервної випадкової величини зберігає той же сенс - абсциси центра ваги в разі, коли маса розподілу по осі абсцис безупинна з щільністю f (x).

Слід зазначити, що математичне очікування існує не для всіх випадкових величин, що, однак, на думку деяких вчених, не представляє для практики істотного інтересу.

Крім математичного очікування важливе значення мають також інші числові випадкової величини - моменти.

Поняття моменту широко застосовується в механіці для опису розподілу мас (статистичні моменти, моменти інерції і т.д.). Абсолютно тими ж прийомами користуються в теорії ймовірностей для опису основних властивостей розподілу випадкової величини. Найчастіше застосовуються на практиці моменти двох видів: початкові і центральні.

Початковим моментом s-го порядку перериваної випадкової величини Х називається сума виду

Очевидно це визначення збігається з визначенням початкового моменту порядку s в механіці, якщо на осі абсцис в точках х1, ..., хn зосереджена маса р1, ..., рn.

Для неперервної випадкової величини Х початковим моментом s-го порядку називається інтеграл

тобто початковий момент s-го порядку випадкової величини Х є не що інше, як математичне очікування s-го ступеня цієї випадкової величини.

Перед тим як дати визначення центрального моменту введемо поняття "центрованої випадкової величини".

Нехай є випадкова величина Х з математичним очікуванням mx. Центрованої випадкової величиною, що відповідає величині Х, називається відхилення випадкової величини Х від її математичного очікування

Неважко бачити, що математичне очікування центрованої випадкової величини дорівнює нулю.

Центрування випадкової величини рівносильно переносу початку координат в точку, абсциса якої дорівнює математичному очікуванню.

Центральним моментом порядку s випадкової величини Х називається математичне сподівання s-го ступеня відповідної центрованої випадкової величини:

Для перериваної випадкової величини s-й центральний момент виражається сумою