4.2. Числові характеристики системи двох випадкових величин. Кореляційний момент. Коефіцієнт кореляції

 

Закони розподілу системи випадкових величин є її вичерпними імовірнісними характеристиками. Однак дуже часто такі характеристики не можуть бути застосовані, оскільки обмеженість експериментального матеріалу не дає можливості побудувати закон розподілу системи.

При дослідженнях, пов’язаних із системами випадкових величин, велике застосування знайшли числові характеристики. Вони в певній мірі можуть дати уявлення про характер закону розподілу. В основу отримання числових характеристик системи покладено поняття моментів. Так, як і для однієї випадкової величини, визначають початкові та центральні моменти для двох випадкових величин.

Початковим моментом порядку k+s системи (ξ1, ξ2) називається математичне сподівання добутку k-го степеня ξ1 і на s-го степеня ξ2

.

Формули для обчислення початкових моментів записуються так: для системи дискретних випадкових величин

,

де Pij = P(ξ1,=хi, ξ2=yj)  імовірність того, що система (ξ1, ξ2) приймає значення (хi,yj ), а сума розподіляється по всіх можливих значеннях випадкових величин (ξ1, ξ2).

Для системи неперервних випадкових величин:

,

де f(х,у) – щільність розподілу системи.

На практиці найбільш вживаними є початкові моменти першого порядку:

які є математичними сподіваннями випадкових величин ξ1 і ξ2, що входять в систему. Ці математичні сподівання визначають координати точки, яка називається центром розсіювання системи на площині.

Тепер перейдемо до розгляду центральних моментів.

Центральним моментом μks порядку (k+s) системи (ξ1, ξ2) називається математичне сподівання добутку k-го і s–го степенів відповідних центрованих величин:

.

Формули для обчислення моментів μks записуються таким чином:

1) для системи дискретних випадкових величин

,

2) для системи неперервних випадкових величин:

.

На практиці найчастіше використовуються центральні моменти другого порядку. Два з них відомі як дисперсії величин і .

,

,

які характеризують розсіювання випадкової точки в напрямку осей , .

Особливу роль при дослідженні системи двох випадкових величин відіграє другий мішаний центральний момент μ11, який називається кореляційним моментом (moment correlation) або моментом зв’язку (moment connection). Він зазвичай позначається .

.

Момент зв’язку визначений як математичне сподівання добутку відхилень двох випадкових величин від їх математичних сподівань. Крім розсіювання величин ξ1, ξ2 може характеризувати взаємний вплив цих випадкових величин. Для оцінювання ступеня цього впливу зазвичай використовують не сам момент зв’язку, а безрозмірне відношення яке називають коефіцієнтом кореляції випадкових величин і .

Кореляційний момент і коефіцієнт кореляції мають таку властивість.

Теорема. Якщо випадкові величини ξ1, ξ2 незалежні, то кореляційний момент і коефіцієнт кореляції рівні нулю.

Доведення.

Доведення проведемо для неперервних випадкових величин. Нехай і  незалежні випадкові величини зі щільністю розподілу f(х,у). Тоді f(х,у)= f1(х)f2(у), де f1(х) і f2(у)  щільності розподілу, відповідно, величин і .

Отже,      Тобто подвійний інтеграл перетворюється в добуток двох інтегралів, кожний з яких рівний нулю, оскільки вони є математичними сподіваннями центрованих випадкових величин. Отже, для незалежних випадкових величин ξ1, ξ2 . Із рівності нулю кореляційного моменту випливає рівність нулю коефіцієнта кореляції. Аналогічно доводиться ця властивість і для дискретних випадкових величин.

Рівність нулю коефіцієнта кореляції є тільки необхідною, але не достатньою умовою для незалежності випадкових величин. Дві випадкові величини і називаються некорельованими, якщо їх коефіцієнт кореляції дорівнює нулю; і називаються корельованими, якщо їх коефіцієнт кореляції відмінний від нуля. Таким чином, якщо випадкові величини і незалежні, то вони і некорельовані, але із некорельованості випадкових величин не можна зробити висновок про їх незалежність. Крім кореляційного моменту і коефіцієнта кореляції, взаємний зв'язок двох випадкових величин може бути описаний за допомогою лінії регресії. Дійсно, при кожному значенні величина залишається випадковою величиною, яка допускає розсіювання своїх значень. Залежність від визначається в зміні значень при переході від одного значення х до іншого. Цю залежність описує крива регресії

у = mу(х).

Аналогічно, залежність від , яка визначається в зміні значень ξ1 при переході від одного значення у до іншого, описується кривою регресії х = m х(у).