Математичне очікування випадкового процесу. Випадкові величини. Дискретна випадкова величина. Математичне очікування. Закон розподілу дискретної випадкової величини

Випадковими (стохастичними) процесами є зовнішні перешкоди, шуми флуктуації на виході дискримінатора та інших пристроїв РАС, внутрішні обурення в РАС: нестабільність частоти ПГ, нестабільність пристроїв регульованої тимчасової затримки та ін.

Дослідження РАС при випадкових впливах у принципі можна проводити звичайними методами, визначаючи параметри якості РАС при найнесприятливіших (максимальних) значеннях обурення ( найгірший випадок ).

Однак, оскільки максимальне значеннявипадкової величини малоймовірно і спостерігатиметься рідко, до РАС будуть пред'являтися свідомо жорсткі вимоги. Більш раціональні рішення можна отримати, розглядаючи найбільш ймовірне значення довільної величини.

Закон розподілу флуктуаційних складових у лінійних РАС можна вважати нормальним (Гаусовським). Нормальний закон розподілу уражає внутрішніх обурень. При проходженні випадкового процесу через лінійну систему, нормальний закон розподілу залишається незмінним . Якщо на вході РАС або в будь-якій іншій точці (наприклад, на виході дискримінатора) є обурення із законом розподілу, відмінним від нормального, і має широкий спектр S(ω), це обурення ефективно нормалізується вузькосмуговими елементами фільтра РАС.

Випадковий процес із нормальним законом розподілу повністю визначається математичним очікуванням m(t) та кореляційною функцією R(τ).

Математичне очікування (маточування) випадкового процесу x(t) є деякою регулярну функцію m x(t), при якій групуються всі реалізації цього процесу ( - щільність ймовірності) . Його називають також середнім значенням по множині (Ансамблю).

m x(t) = М{x(t)} = . (6.1)

Випадковий процес ( t) без регулярної складової m x(t) називається центрованим .

Для врахування ступеня розкиданості випадкового процесу щодо його середнього значення m x(t) вводять поняття дисперсії :

D x(t) = М{( (t)) 2 } = . (6.2)

Середнє значення квадрата випадкового процесу пов'язане з його маточкуванням m x(t) та дисперсією D x(t) формулою: .

На практиці зручно оцінювати випадковий процес статистичними характеристиками х вкв(t) та s x(t), мають таку ж розмірність, як і процес.

Середньоквадратичне значення х вкв(t) випадкового процесу:

Середньоквадратичне відхиленнях вкв (t) випадкового процесу:

. (6.4)

Матоочікування та дисперсія не дають достатнього уявлення про характер окремих реалізацій випадкового процесу. Для того, щоб врахувати ступінь мінливості процесу або зв'язок між його значеннями в різні моменти часу, вводиться кореляційне поняття ( автокореляційної ) функції.

Кореляційна функціяцентрованого процесу ( t) дорівнює

де – двомірна густина ймовірності.

Кореляційна функція є парної : R(τ ) = R(–τ ).

Якщо функції розподілу та щільності ймовірності процесу не залежать від зсуву за часом на однакову величину всіх тимчасових аргументів, такий випадковий процес називають стаціонарним .

Якщо у стаціонарного процесу збігаються значення середнього за безліччю і середнього за часом , такий випадковий процес називають ергодичним .

Знаючи R(τ) можна визначити дисперсію стаціонарного процесу:

Спектральна щільність S l y(ω) вихідного процесу y(t) в лінійної системита спектральна щільність S l (ω) вхідного впливу пов'язані співвідношенням:

. (6.7)

Кореляційна функція R(τ) стаціонарного випадкового процесу та його спектральна щільність S(ω) пов'язані перетворенням Фур'є, тому часто аналіз проводять у частотній ділянці. Виконавши перетворення Фур'є (6.7), отримуємо вираз для кореляційної функції вихідного процесу R y(τ):

Спектральні густини S l y(ω) та S l (ω) є двосторонніми .

Можна ввести односторонню спектральну щільність N(f), яка визначається тільки для позитивних частот ().

З урахуванням парності R(τ) та формули Ейлера (6.8) можна спростити:

. (6.9)

Якість роботи РАС щодо випадкових сигналів та перешкод характеризується сумарною середньоквадратичною помилкою (СКО).

Розглянемо узагальнену РАС, схема якої представлена ​​на рис. 2.11. Вважаємо вплив λ( t) детермінованим, а обурення ξ( t) на виході дискримінатора - випадковим процесом. За допомогою формул (2.28) - (2.31) визначимо ПФ для помилки при впливі та обуренні.

У загальному випадку між процесами впливу та обурення може існувати кореляція (зв'язок). У цьому випадку крім автокореляційних функцій виду (6.8) для кожного з процесів необхідно враховувати взаємні кореляційні функції процесів щодо один одного. Через спектральні густини помилково дані зв'язку записується наступним чином:

Після підстановки виразу (6.11) у формулу (6.8) отримаємо відповідні складові дисперсії:

Якщо кореляція між процесами відсутня, то S l x (ω) = S x l (ω) = 0, а також D l x = D x l = 0 і формула (6.12) спрощується

Мотивування помилки х(t) знаходиться аналогічно визначенню в режимі, що встановився: .

Якщо спектральна щільність S х(ω) описується дробово-раціональною функцією щодо ω, то для обчислення D xйого представляють у вигляді:

де – поліном, що містить парні ступеня iω до 2 n-2 включно; а – поліном ступеня n, Коріння якого лежать у верхній напівплощині комплексної змінної ω.

Інтеграли (6.14) можна обчислити за формулою (6.15):

, (6.15)

де D n- старший визначник Гурвіца виду (4.7), складений з коефіцієнтів а j, а Q n– визначник виду D n, в якому в першому рядку коефіцієнти а jзамінені на b j.

Для інтеграла (6.15) є таблиці значень для n ≤ 7.

Значення при n≤ 4 визначаються за формулами:

, , ,

Приклад 6.1.Визначимо СКО системи ФАПЧ із прикладу 4.2.

Нехай на вході РАС діє сигнал λ( t) = 1 + 0,1t, А обурення ξ( t) являє собою білий шум з амплітудою N 0= 1 мВ().

Коефіцієнти помилок для цієї РАС вже знайшли в прикладі 5.1.

.

Для ПФ помилки щодо обурення з формули (2.30) після заміни змінних р ® iω отримаємо ( До 1 = S д , k 0 = k 1 S д , k 1 = k ф k і):

Після підстановки формули (6.17) (6.13) ( D l = 0) отримаємо:

Порівнюючи (6.18) з виразом (6.14), знаходимо порядок та коефіцієнти поліномів (6.14): n = 3, b 2 = 0, b 1= –(T 2) 2 , b 0 = 1; a 3 = T ф T д, a 2 = T ф+ T д , a 1 = 1 + k 0 T 2, a 0 = k 0 .

Після підстановки чисельних значень у результаті отримуємо:

m x= 5×10 -4 (1/с), D x= 1,06×10 -3 (1/с 2) (при k 0 = 200, S д = 10, k 1 = 20) або

m x= 5×10 -4 (1/с), D x= 0,66 (1/с 2) (при k 0 = 200, S д = 0,4 , k 1 = 500).

З (6.3), (6.4) випливає, що x ско≈ s x= 0,032 (1/с) при S д= 10, а при S д = 0,4 x ско≈ s x= 0,81 (1/с).

Приклад 6.2.Визначимо СКО РАС із прикладу 4.5 при тих самих сигналах: λ( t) = 1 + 0,1tта ξ( t) = N 0= 1 мВ. λ′( t) = λ 1 , λ″( t) = 0

Коефіцієнти помилок для цієї РАС знайдемо за формулою (5.19): .

v = 0, d 1 = 0, d 0 = S д, b 3 = Т 1 Т 2 Т 3, b 2 = Т 1 Т 2+Т 2 Т 3+Т 1 Т 3, b 1 = Т 1 +Т 2 +Т 3, b 0 = 1.

З формул (5.19)–(5.22) отримуємо

Для ПФ помилки щодо обурення з формули (2.30) після заміни змінних р ® iв (6.20) отримаємо:

Після підстановки формули (6.20) (6.13) (D l = 0) отримаємо:

Порівнюючи (6.21) з виразом (6.14), знаходимо коефіцієнти поліномів (6.14): n = 3, b 2 = b 1 = 0, b 0 = 1; a 3 = Т 1 Т 2 Т 3, a 2 = Т 1 Т 2 + Т 2 Т 3 + Т 1 Т 3, a 1 = Т 1 +Т 2 +Т 3, a 0 = S д + 1.

Після підстановки у формулу (6.16) та перетворень отримаємо:

Після встановлення чисельних значень отримуємо в результаті:

m x= (9,2 + 0,9 t) 10 -2, D x= 4,2×10 -4.

6.2. Графоаналітичний метод визначення дисперсії.

Міністерство освіти та науки РФ

Череповецький державний університет

Інженерно-економічний інститут

Поняття випадкового процесу з математики

Виконувала студентка

групи 5 ГМУ-21

Іванова Юлія

Череповець


Вступ

Основна частина

· Визначення випадкового процесу та його характеристики

· Марківські випадкові процеси з дискретними станами

· Стаціонарні випадкові процеси

· Ергодична властивість стаціонарних випадкових процесів

Література


Вступ

Поняття випадкового процесу введено у XX столітті та пов'язане з іменами О.М. Колмогорова (1903-1987), А.Я. Хінчина (1894-1959), Є.Є. Слуцького (1880-1948), Н. Вінера (1894-1965).

Це поняття наші дні одна із центральних у теорії ймовірностей, а й у природознавстві, інженерному справі, економіці, організації виробництва, теорії зв'язку. Теорія випадкових процесів належить до категорії математичних дисциплін, що найбільш швидко розвиваються. Безперечно, що ця обставина значною мірою визначається її глибокими зв'язками із практикою. XX століття не могло задовольнитися тією ідейною спадщиною, яку було отримано від минулого. Справді, тоді, як фізика, біолога, інженера цікавив процес, тобто. зміна досліджуваного явища в часі, теорія ймовірностей пропонувала їм як математичний апарат лише кошти, що вивчали стаціонарні стани.

Для дослідження зміни у часі теорія ймовірностей кінця XIX- початку XX століття не мала ні розроблених приватних схем, ні тим більше загальних прийомів. А необхідність їх створення буквально стукала у вікна та двері математичної науки. Вивчення броунівського руху у фізиці підвело математику до порогу створення теорії випадкових процесів.

Вважаю за необхідне згадати ще про дві важливі групи досліджень, розпочатих у різний час та з різних приводів.

По-перше, ця робота А.А. Маркова (1856-1922) з вивчення ланцюгових залежностей. По-друге, роботи Є.Є. Слуцького (1880-1948) з теорії випадкових функцій.

Обидва ці напрямки грали дуже істотну рольу формуванні загальної теоріївипадкових процесів.

Для цієї мети вже був накопичений значний вихідний матеріал, і необхідність побудови теорії ніби носилися у повітрі.

Залишалося здійснити глибокий аналіз існуючих робіт, висловлених них ідей і результатів і його основі здійснити необхідний синтез.


Визначення випадкового процесу та його характеристики

Визначення: Випадковим процесом X(t) називається процес, значення якого за будь-якого значення аргументу t є випадковою величиною.

Іншими словами, випадковий процес є функцією, яка в результаті випробування може прийняти той чи інший конкретний вид, невідомий заздалегідь. При фіксованому t=t 0 X(t 0) є звичайну випадкову величину, тобто. перерізвипадкового процесу на момент t 0.

Приклади випадкових процесів:

1. чисельність населення регіону з часом;

2. кількість заявок, що у ремонтну службу фірми, з часом.

Випадковий процес можна записати як функції двох змінних X(t,ω), де ω€Ω, t€T, X(t, ω) € ≡ і ω – елементарна подія, Ω - простір елементарних подій, Т – безліч значень аргументу t, ≡ - безліч можливих значень випадкового процесу X(t, ω).

Реалізацієювипадкового процесу X(t, ω) називається невипадкова функція x(t), яку перетворюється випадковий процес X(t) у результаті випробування (при фіксованому ω), тобто. конкретний вид, прийнятий випадковим процесом X(t), його траєкторія.

Таким чином, випадковий процес X(t, ω) поєднує в собі риси випадкової величини та функції.Якщо зафіксувати значення аргументу t, випадковий процес перетворюється на звичайну випадкову величину, якщо зафіксувати ω, то в результаті кожного випробування він перетворюється на звичайну невипадкову функцію. У подальшому викладі опустимо аргумент ω, але мається на увазі за умовчанням.

На малюнку 1 зображено кілька реалізацій деякого випадкового процесу. Нехай переріз цього процесу при даному є безперервною випадковою величиною. Тоді випадковий процес X(t) при даному t визначається цілком ймовірністю φ(x t). Очевидно, що щільність φ(x, t) не є вичерпним описом випадкового процесу X(t), бо вона не виражає залежності між його перерізами у різні моменти часу.

Випадковий процес X(t) є сукупністю всіх перерізів при всіляких значень t, тому для його опису необхідно розглядати багатовимірну випадкову величину (X(t 1), X(t 2), …, X(t n)), що складається з усіх поєднань цього процесу. У принципі таких поєднань нескінченно багато, але для опису випадкового процесу вдається частина обійтися відносно невеликою кількістю поєднань.

Кажуть, що випадковий процес має порядокn, якщо він повністю визначається щільністю спільного розподілу φ(x 1, x 2, …, x n; t 1, t 2, …, t n) n довільних перерізів процесу, тобто щільністю n-вимірної випадкової величини (X(t 1), X(t 2), …, X(t n)), де X(t i) – поєднання випадкового процесу X(t) в момент часу t i , i=1, 2 , …, n.

Як і випадкова величина, випадковий процес може бути описаний числовими характеристиками. Якщо випадкової величини ці характеристики є постійними числами, то випадкового процесу – невипадковими функціями.

Математичним очікуваннямвипадкового процесу X(t) називається невипадкова функція a x (t), яка за будь-якому значенні змінної t дорівнює математичному очікуванню відповідного перерізу випадкового процесу X(t), тобто. a x (t) = М .

Дисперсієювипадкового процесу X(t) називається невипадкова функція D x (t), за будь-якого значення змінної t дорівнює дисперсії відповідного поєднання випадкового процесу X(t), тобто. D x (t) = D.

Середнім квадратичним відхиленням x (t) випадкового процесу X(t) називається арифметичне значення кореня квадратного з його дисперсії, тобто. x (t) = D x (t).

Математичне очікування випадкового процесу характеризує середнютраєкторію всіх можливих його реалізацій, а його дисперсія чи середнє квадратичне відхилення - розкидреалізацій щодо середньої траєкторії.

Введених вище показників випадкового процесу виявляється недостатньо, оскільки вони визначаються лише одномірним законом розподілу. Якщо для випадкового процесу Х 1 (t) характерна повільна зміна значень реалізацій зі зміною t, то для випадкового процесу Х 2 (t) ця зміна відбувається значно швидше. Іншими словами, для випадкового процесу Х 1 (t) характерна тісна імовірнісна залежність між двома його поєднаннями Х 1 (t 1) і Х 1 (t 2), тоді як для випадкового процесу Х 2 (t) ця залежність між поєднаннями Х 2 (t 1) та Х 2 (t 2) практично відсутня. Зазначена залежність між поєднаннями характеризується кореляційною функцією.

Визначення: Кореляційною функцієювипадкового процесу Х(t) називається невипадкова функція

K x (t 1 , t 2) = M [(X (t 1) - a x (t 1)) (X (t 2) - a x (t 2))] (1.)

двох змінних t 1 і t 2 яка при кожній парі змінних t 1 і t 2 дорівнює коваріації відповідних поєднань Х(t 1) і Х(t 2) випадкового процесу.

Вочевидь, для випадкового процесу Х(t 1) кореляційна функція K x 1 (t 1 , t 2) меншає зі збільшенням різниці t 2 - t 1 значно повільніше, ніж K x 2 (t 1 , t 2) для випадкового процесу Х (T 2).

Кореляційна функція K x (t 1 , t 2) характеризує не тільки ступінь тісноти лінійної залежностіміж двома поєднаннями, а й розкид цих поєднань щодо математичного очікування a x (t). Тому також розглядається нормована кореляційна функція випадкового процесу.

Нормованою кореляційною функцієювипадкового процесу Х(t) називається функція:

P x (t 1 , t 2) = K x (t 1 , t 2) / x (t 1) x (t 2) (2)

Приклад №1

Випадковий процес визначається формулою X(t) = X cosωt де Х – випадкова величина. Знайти основні характеристики цього процесу, якщо М(Х) = а D(X) = σ 2 .

РІШЕННЯ:

На підставі властивостей математичного очікування та дисперсії маємо:

a x (t) = M(X cosωt) = cosωt * M(X) = a cosωt,

D x (t) = D (X cos ωt) = cos 2 ωt * D (X) = σ 2 cos 2 ωt.

Кореляційну функцію знайдемо за формулою (1)

K x (t 1 , t 2) = M [(X cos t 1 – a cos t 1) (X cos t 2 – a cos t 2)] =

Cosωt 1 cosωt 2 * M[(X – a)(X - a)] = cosωt 1 cosωt 2 * D(X) = σ 2 cosωt 1 cosωt 2 .

Нормовану кореляційну функцію знайдемо за формулою (2.):

P x (t 1 , t 2) = σ 2 cosωt 1 cosωt 2 / (σ cosωt 1)(σ cosωt 2)

Випадкові процеси можна класифікувати в залежності від того, плавно або стрибкоподібно змінюються стани системи, в якій вони протікають, звичайно (лічильна) або безліч цих станів і т.п. Серед випадкових процесів особливе місце належить Марківському довільному процесу.

Теорема. Випадковий процес X(t) є гільбертовим тоді і лише тоді, коли існує R(t, t^) для всіх (t, t^)€ T*T.

Теорію гільбертових випадкових процесів називають кореляційною.

Зауважимо, що безліч Т може бути дискретною і континуальною. У першому випадку випадковий процес Х t називають процесом із дискретним часом, у другому – з безперервним часом.

Відповідно поєднання Х t можуть бути дискретними та безперервними випадковими величинами.

Випадковий процес називається Х(t) вибірковонеправильним, диференційованим та інтегрованим у точці ω€Ω, якщо його реалізація x(t) = x(t, ω) відповідно безперервна, диференційована та інтегрована.

Випадковий процес Х(t) називається безперервним: майже, мабуть,якщо

P(A)=1, A = (ω € Ω : lim x(t n) = x(t))

У середньому квадратичному,якщо

Lim M [(X (t n) - X (t)) 2] = 0

Можливо, якщо

Aδ ≥ 0: lim P[| X(t n) - X(t) | > δ] = 0

Східність у середньому квадратичному позначають також:

X(t) = lim X(t n)

Виявляється, з вибіркової безперервності випливає безперервність майже напевно, з безперервності майже напевно і в середньому квадратичному випливає безперервність за ймовірністю.

Теорема. Якщо X(t) – гільбертів випадковий процес, безперервний у середньому квадратичному, то m x (t) – безперервна функція і має місце співвідношення

Lim M = M = M.

Теорема. Гільбертов випадковий процес X(t) безперервний в середньому квадратичному тоді і тільки тоді, коли безперервна його функція варіації R(t, t^) в точці (t, t).

Гільбертів випадковий процес X(t) називається диференційованим у середньому квадратичному, якщо існує випадкова функція X(t) = dX(t)/dt така, що

X(t) = dX(t)/ dt = lim X(t+∆t) – X(t) / ∆t

(t € T, t +∆t € T),

тобто. коли

Lim M [((X(t + ∆t) – X(t) / (∆t)) – X(t)) 2 ] = 0

Випадкову функцію X(t) називатимемо похідною в середньому квадратичномувипадкового процесу X(t) відповідно в точці t або T.

Теорема. Гільбертів випадковий процес X(t) диференціюємо в середньому квадратичному в точці t тоді і тільки тоді, коли існує

δ 2 R(t, t^) / δtδt^ у точці (t, t^). При цьому:

R x (t, t^) = M = δ 2 R(t, t^) / δtδt^.

Якщо гільбертів випадковий процес диференціюємо на Т, його похідна в середньому квадратичному також є випадковим гільбертовим процесом; якщо вибіркові траєкторії процесу диференційовані Т з ймовірністю 1, то з ймовірністю 1 їх похідні збігаються з похідними в середньому квадратичному на Т.

Теорема. Якщо X(t) - гільбертів випадковий процес, то

M = (d / dt) M = dm x (t) / dt.

Нехай (0, t) – кінцевий інтервал, 0

X(t) - гільберти випадковий процес.

Y n = ∑ X(t i)(t i – t i-1) (n = 1,2, …).

Тоді випадкова величина

max (t i – t i -1)→0

Називається інтегралом у середньому квадратичномупроцесу X(t) на (0, t) і позначається:

Y(t) = ∫ X(τ)dτ.

Теорема . Інтеграл Y(t) у середньому квадратичному існує тоді і тільки тоді, коли коваріаційна функція R(t, t^) гільбертового процесу X(t) безперервна на Т×Т і існує інтеграл

R y (t, t^) = ∫ ∫ R(τ, τ^) dτdτ^

Якщо інтеграл у середньому квадратичному функції X(t) існує, то

M = ∫ Mdτ,

R Y (t, t^) = ∫ ∫ R(τ, τ^)dτdτ^

K y (t, t^) = ∫ ∫ K(τ, τ^)dτdτ^

Тут R y (t, t ^) = M, K y (t, t ^) = M - коварійна та кореляційна функції випадкового процесу Y(t).

Теорема. Нехай X(t) – гільбертів випадковий процес з коваріаційною функцією R(t, t^), φ(t) – речова функція та існує інтеграл

∫ ∫ φ(t)φ(t^)R(t, t^)dtdt^

Тоді існує у середньому квадратичному інтеграл

∫ φ(t)X(t)dt.

Випадкові процеси:

X i (t) = V i i (t) (i = 1n)

Де φ i (t) – задані речові функції

V i - випадкові величини з характеристиками

Називають елементарними.

Канонічним розкладаннямвипадкового процесу X(t) називають його уявлення у вигляді

Де V i – коефіцієнти, а i (t) – координатні функції канонічного розкладання процесу X(t).

Зі відносин:

M(VI = 0), D(VI) = DI, M(VI j) = 0 (i ≠ j)

X(t) = m x (t) + ∑ V i φ i (t) (t € T)

K(t, t^) = ∑ D i φ i (t)φ i (t^)

Цю формулу називають канонічним розкладаннямкореляційна функція випадкового процесу.

У разі рівняння

X(t) = m x (t) + ∑ V i φ i (t) (t € T)

Мають місце формули:

X(t) = m x (t) + ∑ V i φ(t)

∫ x(τ)dt = ∫ m x (τ)dτ + ∑ V i ∫ φ i (t)dt.

Таким чином, якщо процес X(t) представлений його канонічним розкладанням, то похідна та інтеграл від нього також можуть бути представлені у вигляді канонічних розкладів.

Марківські випадкові процеси з дискретними станами

Випадковий процес, що протікає в деякій системі S з можливими станами S 1 , S 2 , S 3 , …, називається Марківським, або випадковим процесом без наслідкуякщо для будь-якого моменту часу t 0 ймовірні характеристики процесу в майбутньому (при t>t 0) залежить тільки від його стану в даний момент t 0 і не залежать від того, коли і як система прийшла в цей стан; тобто. не залежать від її поведінки у минулому (при t

Прикладом Марківського процесу: система S – лічильник у таксі. Стан системи в момент t характеризується числом кілометрів (десятих кілометрів), пройдених автомобілем до цього моменту. Нехай у момент t 0 лічильник показує S 0 / Ймовірність того, що в момент t>t 0 лічильник покаже те чи інше число кілометрів (точніше, відповідне число рублів) S 1 залежить від S 0 але не залежить від того, в які моменти часу змінилися показання лічильника до t 0 .

Багато процесів можна приблизно вважати Марковськими. Наприклад, процес гри у шахи; система S – група шахових постатей. Стан системи характеризується числом постатей противника, що збереглися на дошці в момент t 0 . Імовірність того, що в момент t>t 0 матеріальна перевага буде на боці одного з противників, залежить в першу чергу від того, в якому стані знаходиться система в даний момент t 0, а не від того, коли і в якій послідовності зникли фігури з дошки до t 0 .

У ряді випадків передісторією аналізованих процесів можна просто знехтувати і застосовувати їх вивчення Марківські моделі.

Марківським випадковим процесом з дискретними станами та дискретним часом (або ланцюгом Маркова ) називається Марківський процес, в якому його можливі стани S 1 , S 2 , S 3, ... можна заздалегідь перерахувати, а перехід зі стану в стан відбувається миттєво (стрибком), але тільки в певні моменти часу t 0, t 1, t 2, ..., звані крокамипроцесу.

Позначимо p ij - ймовірність переходувипадкового процесу (системи S) зі стану I стан j. Якщо ці ймовірності не залежать від номера кроку процесу, то такий ланцюг Маркова називається однорідним.

Нехай число станів системи звичайно і m. Тоді її можна характеризувати матрицею переходу P 1 яка містить всі ймовірності переходу:

p 11 p 12 … p 1m

p 21 p 22 … p 2m

P m1 p m2 … p mm

Звичайно, за кожним рядком ∑ p ij = 1, I = 1, 2, …, m.

Позначимо p ij (n) - ймовірністю того, що в результаті n кроків система перейде зі стану I стан j. У цьому при I = 1 маємо ймовірності переходу, утворюють матрицю P 1 , тобто. p ij (1) = p ij

Необхідно, знаючи ймовірність переходу p ij , знайти p ij (n) – ймовірності переходу системи зі стану I стан j за n кроків. З цією метою розглядатимемо проміжний (між I і j) стан r, тобто. будемо вважати, що з початкового стану I за k кроків система перейде в проміжний стан r з ймовірністю p ir (k), після чого за решту n-k кроківз проміжного стану r вона перейде до кінцевого стану j з ймовірністю p rj (n-k). Тоді за формулою повної ймовірності

P ij (n) = ∑ p ir (k) p rj (n-k) – рівність Маркова.

Переконаємося у цьому, знаючи всі ймовірності переходу p ij = p ij (1), тобто. матрицю P 1 переходу зі стану в стан за один крок можна знайти ймовірність p ij (2), тобто. матрицю P 2 переходу зі стану у стан за два кроки. А знаючи матрицю P 2 - знайти матрицю P 3 переходу зі стану в стан за три кроки, і т.д.

Справді, вважаючи n = 2 формулою P ij (n) = ∑ p ir (k) p rj (n-k), тобто. k=1 (проміжний між кроками стан), отримаємо

P ij (2) = ∑ p ir (1) p rj (2-1) = ∑ p ir p rj

Отримана рівність означає, що P 2 =P 1 P 1 = P 2 1

Вважаючи n = 3, k = 2, аналогічно отримаємо P 3 = P 1 P 2 = P 1 P 1 2 = P 1 3 , а загалом P n = P 1 n

приклад

Сукупність сімей деякого регіону можна поділити на три групи:

1. сім'ї, які мають автомобіля і які збираються його купувати;

2. сім'ї, що не мають автомобіля, але мають намір його придбати;

3. сім'ї, що мають автомобіль.

Проведене статистичне обстеження показало, що матриця переходу за інтервал за один рік має вигляд:

(У матриці P 1 елемент р 31 = 1 означає ймовірність того, що сім'я, що має автомобіль, також буде його мати, а, наприклад, елемент р 23 = 0,3 – ймовірність того, що сім'я, яка не мала автомобіля, але вирішила його придбати, здійснить свій намір у наступному році, і т.д.)

Знайти ймовірність того, що:

1. сім'я, яка не мала автомобіля і збиралася його придбати, перебуватиме в такій же ситуації через два роки;

2. сім'я, яка не мала автомобіля, але має намір його придбати, матиме автомобіль через два роки.

РІШЕННЯ:знайдемо матрицю переходу Р 2 через два роки:

0,8 0,1 0,1 0,8 0,1 0,1 0,64 0,15 0,21

0 0,7 0,3 0 0,7 0,3 0 0,49 0,51

0 0 1 0 0 1 0 0 1

Тобто шукані в прикладі 1) та 2) ймовірності рівні відповідно

р 11 = 0,64, р 23 = 0,51

Далі розглянемо Марківський випадковий процес з дискретними станами та безперервним часом, у якому, на відміну розглянутої вище ланцюга Маркова, моменти можливих переходів системи із стану не фіксовані заздалегідь, а випадкові.

При аналізі випадкових процесів із дискретними станами зручно користуватися геометричною схемою – так званим графіком подій. Зазвичай стани системи зображуються прямокутниками (кружками), а можливі переходи зі стану - стрілками (орієнтованими дугами), що з'єднують стани.

приклад. Побудувати граф станів наступного випадкового процесу: пристрій S складається з двох вузлів, кожен з яких у випадковий момент часу може вийти з ладу, після чого миттєво починається ремонт вузла, що триває наперед невідомий випадковий час.

РІШЕННЯ.Можливі стани системи: S 0 – обидва вузли справні; S 1 - перший вузол ремонтується, другий справний; S 2 - другий вузол ремонтується, перший справний; S 3 – обидва вузли ремонтуються.

Стрілка, напрями, наприклад, з S 0 в S 1 означає перехід системи в момент відмова першого вузла, з S 1 в S 0 - перехід в момент закінчення ремонту цього вузла.

На графі відсутні стрілки з S 0 S3 і з S 1 S2 . Це пояснюється тим, що виходи вузлів з ладу передбачається незалежними один від одного і, наприклад, ймовірностями одночасного виходу з ладу двох вузлів (перехід з S 0 до S 3) або одночасного закінчення ремонтів двох вузлів (перехід з S 3 до S 0) можна знехтувати.

Стаціонарні випадкові процеси

стаціонарним у вузькому значенні, якщо

F(x 1 , …, x n ; t 1 , …, t n) = F(x 1 , …, x n ; t 1 +∆, …, t n +∆)

При довільних

n≥1, x 1 , …, x n , t 1 , …, t n; ∆; t 1 € T, t i + ∆ € T.

Тут F(x 1 , …, x n ; t 1 , …, t n) – n-вимірна функція розподілу випадкового процесу Х(t).

Випадковий процес Х(t) називають стаціонарним у широкому розумінні, якщо

Очевидно, що зі стаціонарності у вузькому значенні випливає стаціонарність у широкому значенні.

З формул:

m(t) = m(t + ∆), K(t, t^) = K(t + ∆, t^ + ∆)

(t € T, t^ € T, t + ∆€ T), t^ + ∆€ T)

Слід, що з процесу, стаціонарного у сенсі, можна записати

m(t) = m x (0) = const;

D(t) = K(t, t) = K(0,0) = const;

K(t, t^) = K(t – t^, 0) = K (0, t^ - t)

Таким чином, для процесу, стаціонарного в широкому сенсі, математичне очікування та дисперсія не залежать від часу, а K(t, t^) є функцією виду:

Видно, що k(τ) – парна функція, причому

Тут D – дисперсія стаціонарного процесу

Х(t), α i (I = 1, n) – довільні числа.

Перша рівність системи

K(0) = В = σ 2; |k(τ)| ≤ k(0); ∑ ∑ ά i α j k(t i - t j) ≥ 0

випливає із рівняння K(t, t^) = k(τ) = k(-τ), τ = t^ – t. Перша рівність

K(0) = В = σ 2; |k(τ)| ≤ k(0); ? ? Остання нерівність:

K(0) = В = σ 2; |k(τ)| ≤ k(0); ∑ ∑ ά i α j k(t i - t j) ≥ 0

Отримують так:

∑ ∑ α i α j k(t i - t j) = ∑ ∑ K(t i , t j)α i α j = ∑ ∑ M[(α i X i)(α j X j)] = M[(∑ α i X i) 2 ] ≥0

Враховуючи формулу кореляційної функції похідної dX(t)/dt випадкового процесу для стаціонарної випадкової функції X(t) отримаємо

K 1 (t, t^) = M[(dX(t)/dt)*(dX(t^)/dt^)] = δ 2 K(t, t^) / δtδt^ = δ 2 k(t ^ - t) / δtδt^

Оскільки

δk(t^ ​​- t) / δt = (δk(τ) / δτ) * (δτ / δτ) = - δk(τ) / δτ,

δ 2 k(t^ - t) / δtδt^ = - (δ 2 k(τ) / δτ 2) * (δτ / δt^) = - (δ 2 k(τ) / δτ 2)

то K 1 (t, t^) = k 1 (τ) = - (2 k (τ) / 2), τ = t - t.

Тут K 1 (t, t^) та k 1 (τ) – кореляційна функція першої похідної стаціонарного випадкового процесу X(t).

Для n-ї похідної стаціонарного випадкового процесу формула кореляційної функції має вигляд:

K n (τ) = (-1) n * (δ 2 n * k (τ) / δτ 2 n)

Теорема. Стаціонарний випадковий процес X(t) з кореляційною функцією k(τ) безперервний у середньому квадратичному у точці t € T тоді і лише тоді, коли

Lim k(τ) = k(0)

Для доказу запишемо очевидний ланцюжок рівностей:

M [X(t+τ)-X(T)| 2] = M [| X (t) | 2 ] – 2M[|X(t+τ)X(t)|] + M =

2D-2k(τ) = 2.

Звідси очевидно, що умова безперервності у середньому квадратичному процесі X(t) у точці t € T

Lim M | X (t + τ) - X (t) | 2] = 0

Має місце тоді і лише тоді, коли виконується Lim k(τ) = k(0)

Теорема. Якщо кореляційна функція k(τ) стаціонарного випадкового процесу X(t) безперервна в середньому квадратичному в точці τ=0, вона безперервна в середньому квадратичному в будь-якій точці τ € R 1 .

Для доказу запишемо очевидні рівності:

k(τ+∆τ)-k(τ) = M – M =

M(X(t))

Потім, застосовуючи нерівність Шварца до співмножників у фігурній дужці та враховуючи співвідношення:

K(t, t^) = k(τ) = k(-τ), τ = t^ – t.

K(0) = В = σ 2; |k(τ)| ≤ k(0); ∑ ∑ ά i α j k(t i - t j) ≥ 0

0 ≤ 2 ≤ MM[|X(t+τ+∆τ)-X(t+τ)| 2 ] =

Переходячи до межі при ∆τ→0 і зважаючи на умову теореми про безперервність k(τ) у точці τ=0, а також першу рівність системи

K(0) = В = σ 2 , знайдемо

Lim k(τ+∆τ) = k(τ)

Оскільки тут - довільне число, теорему слід вважати доведеною.

Ергодична властивість стаціонарних випадкових процесів

Нехай Х(t) – стаціонарний випадковий процес на відрізку часу з характеристиками

τ = t^ – t, (t, t^) € T×T.

Ергодична властивість стаціонарного випадкового процесу полягає в тому, що за досить тривалою реалізацією процесу можна судити про його математичне очікування, дисперсію, кореляційну функцію.

Суворіше стаціонарний випадковий процес Х(t) будемо називати ергодичним з математичного очікування,якщо

Lim M (|(1 / T)∫ X(t)dt|2) = 0

Теорема

Стаціонарний випадковий процес Х(t) з характеристиками:

M = 0, K(t, t^) = M = k(τ),

τ = t^ – t, (t, t^) € T×T

є ергодичним з математичного очікування тоді і лише тоді, коли

Lim (2/T) ∫ k(τ) (1 – τ/t)dτ = 0.

Для доказу, очевидно, достатньо переконатися, що справедлива рівність

Запишемо очевидні співвідношення

C = M (|(1/T)) ∫X(t)dt| 2 ) = (1 / T 2) ∫ ∫ k(t^ - t)dt^dt = (1/T) ∫ dt ∫ k(t^ - t)dt^.

Вважаючи тут τ = t^ – t, dτ = dt^ і враховуючи умови (t^ = T) →

(t^ = 0)→(τ = -t), отримаємо

С = (1/T 2) ∫ dt ∫ k(τ)dτ = (1/T 2) ∫ dt ∫ k(τ)dτ + (1/T 2) ∫ dt ∫ k(τ)dτ =

= -(1/T 2) ∫ dt ∫ k(τ)dτ - (1/T 2) ∫ dt ∫ k(τ)dτ

Вважаючи у першому і другому доданків правої частини цієї рівності відповідно τ = -τ^, dτ = -dτ^, τ = T-τ^, dτ = -dτ^, знайдемо

С = (1/T 2) ∫ dt ∫ k(τ)dτ + (1/T 2) ∫ dt ∫ k(T - τ)dτ

Застосовуючи формулу Діріхле для подвійних інтегралів, запишемо

С = (1/T 2) ∫ dt ∫ k(τ)dτ + (1/T 2) ∫ dt ∫ k(T - τ)dτ = (1/T 2) ∫ (T - τ) k(τ) dτ + (1/T 2) ∫ τk (T – τ)dτ

У другому доданку правої частини можна покласти τ^ = T-τ, dτ = -dτ^, після чого матимемо

Звідси і з визначення констант видно, що рівність

M((1 / T) ∫X(t)dt| 2 ) = (2 / T) ∫ k(τ) (1 – τ/t)dτ

Справедливо.

Теорема

Якщо кореляційна функція k(τ) стаціонарного випадкового процесу X(t) задовольняє умову

Lim (1/T) ∫ |k(τ)| dt = 0

То X(t) є ергодичним з математичного очікування.

Дійсно, враховуючи співвідношення

M((1 / T) ∫X(t)dt| 2 ) = (2 / T) ∫ k(τ) (1 – τ/t)dτ

Можна записати

0 ≤ (2/Т) ∫ (1 – τ/t) k(τ)dτ ≤ (2/T) ∫ (1- τ/t) |k(τ)|dτ ≤ (1/T) ∫ |k (τ) | dτ

Звідси видно, що якщо виконано умову, то

Lim (2/T) ∫ (1 – τ/T) k(τ)dτ = 0

Тепер, беручи до уваги рівність

С = (1/Т 2) ∫ (T - τ) k(τ)dτ – (1/T 2) ∫ (T - τ) k(τ)dτ = 2/T ∫ (1- (τ/T) ) k(τ)dτ

І умова Lim M (|(1 / T)∫ X(t)dt|2) = 0

Ергодичність з математичного очікування стаціонарного випадкового процесу X(t), знаходимо, що необхідне доведено.

Теорема.

Якщо кореляційна функція k(τ) стаціонарного випадкового процесу

X(t) інтегрована і необмежено зменшується за τ → ∞, тобто. виконується умова

При довільному ε > 0, то X(t) – ергодичний з математичного очікування стаціонарний випадковий процес.

Дійсно, враховуючи вираз

Для Т≥Т 0 маємо

(1/T) ∫ |k(τ)|dτ = (1/T)[ ∫ |k(τ)|dτ + ∫ |k(τ)|d dτ ε(1 – T 1 /T).

Переходячи до межі при Т → ∞, знайдемо

0 ≤ lim ∫ |k(τ)|dτ = ε.

Оскільки тут ε > 0 – довільна, скільки завгодно мала величина, то виконується умова ергодичності з математичного очікування. Оскільки це випливає із умови

Щодо необмеженого спадання k(τ), то теорему слід вважати доведеною.

Доведені теореми встановлюють конструктивні ознаки ергодичності стаціонарних випадкових процесів.

X(t) = m + X(t), m=const.

Тоді M = m, і якщо X(t) - ергодичний стаціонарний випадковий процес, то умову ергодичності Lim M (|(1 / T)∫ X(t)dt| 2 ) = 0 після нескладних перетворень можна подати у вигляді

Lim M([(1/T) ∫ X(t)dt – m] 2 ) = 0

Звідси випливає, що якщо X(t) – ергодичний за математичним очікуванням стаціонарний випадковий процес, то математичне очікування процесу X(t) = m + X(t) наближено може бути обчислено за формулою

M = (1/T) ∫ x(t)dt

Тут Т - Досить тривалий проміжок часу;

x(t) – реалізація процесу X(t) на відрізку часу.

Можна розглядати ергодичність стаціонарного випадкового процесу X(t) за кореляційною функцією.

Стаціонарний випадковий процес X(t) називається ергодичним за кореляційною функцією, якщо

Lim M ([(1/T) ∫ X(t) X(t + τ)dt – k(τ)] 2 ]) = 0

Звідси випливає, що для ергодичного за кореляційною функцією стаціонарного випадкового процесу X(t) можна покласти

k (τ) = (1/T) ∫ x(t)x(t + τ)dt

при досить великому Т.

Виявляється, умова

обмеженості k(τ) достатньо для ергодичності за кореляційною функцією стаціонарного нормально розподіленого процесу X(t).

Зауважимо, випадковий процес називається нормально розподіленим, якщо будь-яка його кінцева функція розподілу є нормальною.

Необхідною та достатньою умовою ергодичності стаціонарного нормально розподіленого випадкового процесу є співвідношення

τ 0: lim (1/T) ∫ (1 – τ/T)dτ = 0


Література

1. Н.Ш. Кремер «Теорія ймовірностей та математична статистика» / ЮНІТІ / Москва 2007.

2. Ю.В. Кожевніков «Теорія ймовірностей та математична статистика» / Машинобудування / Москва 2002.

3. Б.В. Гнеденко «Курс теорії ймовірностей»/Головна редакція фізико-математичної літератури/ Москва 1988.

Перешкоди у системах зв'язку описуються методами теорії випадкових процесів.

Функція називається випадковою, якщо в результаті експерименту вона набуває того чи іншого вигляду, заздалегідь невідомо, який саме. Випадковим процесом називається випадкова функція часу. Конкретний вид, який набуває випадкового процесу в результаті експерименту, називається реалізацією випадкового процесу.

На рис. 1.19 показано сукупність кількох (трьох) реалізацій випадкового процесу , , . Така сукупність називається ансамблем реалізацій. При фіксованому значенні моменту часу першому експерименті отримаємо конкретне значення , у другому – , у третьому – .

Випадковий процес має двоїстий характер. З одного боку, у кожному конкретному експерименті він представлений своєю реалізацією – невипадковою функцією часу. З іншого боку, випадковий процес описується сукупністю випадкових величин.

Дійсно, розглянемо випадковий процес у фіксований момент часу. Тоді в кожному експерименті набуває одного значення, причому заздалегідь невідомо, яке саме. Таким чином, випадковий процес, що розглядається у фіксований момент часу, є випадковою величиною. Якщо зафіксовано два моменти часу і , то в кожному експерименті отримуватимемо два значення і . У цьому спільне розгляд цих значень призводить до системі двох випадкових величин. При аналізі випадкових процесів у N моментів часу приходимо до сукупності або системи N випадкових величин .

Математичне очікування, дисперсія та кореляційна функція випадкового процесу. Оскільки випадковий процес, що розглядається у фіксований момент часу, є випадковою величиною, то можна говорити про математичне очікування та дисперсія випадкового процесу:

, .

Як і для випадкової величини, дисперсія характеризує розкид значень випадкового процесу щодо середнього значення . Чим більше, тим більше ймовірність появи дуже великих позитивних та негативних значень процесу. Більше зручною характеристикою є середнє квадратичне відхилення (СКО), що має ту ж розмірність, що і сам випадковий процес.

Якщо випадковий процес визначає, наприклад, зміна дальності до об'єкта, то математичне очікування – середня дальність у метрах; дисперсія вимірюється у квадратних метрах, а Ско – у метрах та характеризує розкид можливих значень дальності щодо середньої.

Середнє значення та дисперсія є дуже важливими характеристиками, що дозволяють судити про поведінку випадкового процесу у фіксований час. Однак, якщо необхідно оцінити «швидкість» зміни процесу, то спостережень в один момент недостатньо. Для цього використовують дві випадкові величини, що розглядаються спільно. Так само, як і для випадкових величин, вводиться характеристика зв'язку або залежності між . Для випадкового процесу ця характеристика залежить від двох моментів часу і називається кореляційною функцією: .

Стаціонарні випадкові процеси. Багато процесів у системах управління протікають однорідно у часі. Їхні основні характеристики не змінюються. Такі процеси називаються стаціонарними. Точне визначення можна дати в такий спосіб. Випадковий процес називається стаціонарним, якщо будь-які його ймовірні характеристики не залежать від зсуву початку відліку часу. Для стаціонарного випадкового процесу математичне очікування, дисперсія та СКО постійні: , .

Кореляційна функція стаціонарного процесу залежить від початку відліку t, тобто. залежить тільки від різниці моментів часу:

Кореляційна функція стаціонарного випадкового процесу має такі властивості:

1) ; 2) ; 3) .

Часто кореляційні функції процесів у системах зв'язку мають вигляд, показаний на рис. 1.20.

Мал. 1.20. Кореляційні функції процесів

Інтервал часу , у якому кореляційна функція, тобто. величина зв'язку між значеннями випадкового процесу, що зменшується в М разів, називається інтервалом або часом кореляції випадкового процесу. Зазвичай або . Можна сказати, що значення випадкового процесу, що відрізняються за часом на інтервал кореляції, слабко пов'язані один з одним.

Таким чином, знання кореляційної функції дозволяє судити про швидкість зміни довільного процесу.

Інший важливою характеристикою є енергетичний спектр довільного процесу. Він визначається як перетворення Фур'є від кореляційної функції:

.

Очевидно, справедливе та зворотне перетворення:

.

Енергетичний спектр показує розподіл потужності випадкового процесу, наприклад, перешкоди, на осі частот.

При аналізі САУ дуже важливо визначити характеристики випадкового процесу на виході лінійної системи за відомих характеристик процесу на вході САУ. Припустимо, що лінійна система задана імпульсною перехідною характеристикою. Тоді вихідний сигнал на момент часу визначається інтегралом Дюамеля:

,

де – процес вході системи. Для знаходження кореляційної функції запишемо і після перемноження знайдемо математичне очікування

Тут коротко розглянемо основні питання систематизації (класифікації) випадкових процесів.

Випадковий процес, що протікає (проходить) у будь-якій фізичній системі, являє собою випадкові переходи системи з одного стану в інший. Залежно від багатьох цих станів
від безлічі значень аргументу всі випадкові процеси ділять на класи (групи):

1. Дискретний процес (дискретний стан) із дискретним часом.

2. Дискретний процес із безперервним часом.

3. Безперервний процес (безперервний стан) з дискретним часом.

4. Безперервний процес із безперервним часом.

У 1-му 3-му випадку безліч дискретно, тобто. аргумент приймає дискретні значення
зазвичай
в 1-му випадку безліч значень випадкової функції
визначаються рівностями:, є дискретна безліч
(множина
звичайно чи лічильне).

У третьому випадку безліч
незліченно, тобто. перетин випадкового процесу у будь-який момент часу є безперервною випадковою величиною.

У 2-му та 4-му випадках безліч безперервно, у другому випадку безліч станів системи
звичайно чи лічильне, а в четвертому випадку безліч
незліченне.

Наведемо деякі приклади випадкових процесів 1-4 класів відповідно:

1. Хокеїст може забити або не забити один або кілька шайб у ворота суперника під час матчів, що проводяться у певні моменти (відповідно до розкладу ігор) часу

Випадковий процес
є кількість забитих шайб до моменту .

2. Випадковий процес
- кількість переглянутих фільмів у кінотеатрі «Зірка»

від початку роботи кінотеатру до моменту часу .

3. У певні моменти часу
вимірюється температура
хворого на деякому лікувальному центрі.
- є випадковим процесом безперервного типу з дискретним часом.

4. Показник рівня вологості повітря протягом доби у місті А.

Можна розглядати й інші складніші класи випадкових процесів. До кожного класу випадкових процесів розробляються відповідні методи вивчення.

Можна знайти ряд різноманітні та цікаві приклади випадкових потоків у підручниках [В. Феллер, ч 1,2] та в монографії. Тут ми на цьому обмежимося.

Для випадкових процесів також вводяться прості функціональні характеристики, що залежать від параметра , аналогічні основним числовим характеристикам випадкових величин

Знання цих характеристик, достатньо вирішення багатьох завдань (нагадаємо, що повна характеристика випадкового процесу дається її багатовимірним (кінцевомірним) законом розподілу.

На відміну від числових характеристик випадкових величин у випадку функціональні характеристики є певні функції.

4. Математичне очікування та дисперсія випадкового процесу

Математичним очікуванням випадкового процесу

визначена за будь-якого фіксованого значення аргументу дорівнює математичному очікуванню відповідного перерізу випадкового процесу:

(12)
.

Для короткого позначення математичного очікування п.п. застосовують також позначення
.

Функція
характеризує поведінку випадкового процесу у середньому. Геометричний сенс математичного очікування
тлумачиться як «середня крива», біля якої розташовані криві-реалізації (див. рис. 60).

(див. рис. 60 Лист.).

На підставі властивості математичного очікування випадкової величини та враховуючи, що
випадковий процес, а
невипадкова функція, отримуємо властивостіматематичного очікування випадкового процесу:

1. Математичне очікування невипадкової функції і самої функції:
.

2. Невипадковий множник (невипадкову функцію) можна виносити за знак математичного очікування випадкового процесу, тобто.

3. Математичне очікування суми (різниці) двох випадкових процесів дорівнює сумі

(Різниці) математичних очікувань доданків, тобто.

Зазначимо, що якщо зафіксуємо аргумент (параметр) , Переходимо від випадкового процесу до випадкової величини (тобто. Переходимо до перерізу випадкового процесу), можна знайти м.о. цього процесу при цьому фіксованому

Бо якщо перетин с.п.
при заданому є безперервна с.в. зі щільністю
то його математичне очікування можна вирахувати за формулою

(13)
.

приклад 2.Нехай с.п. визначається формулою, тобто.
с.в.,


Знайти математичне очікування випадкового процесу

Рішення.Властивості 2. маємо

так як
і, отже,
.

Вправа.Вирахувати математичне очікування скористаюся, рівностями

,
,

а потім на підставі формули (13) обчислити інтеграл і переконатися, що результат буде той самий.

Вказівка.Скористатися рівністю

.

Дисперсія випадкового процесу.

Дисперсією випадкового процесу
називається невипадкова функція

Дисперсія
с.п. розглядається також характеризують розкид (розсіювання) можливих значень с.п. щодо його математичного очікування.

Поряд із дисперсією с.п. розглядається також середнє квадратичне відхилення

(коротко с.к.о.), що визначається рівністю

(15)

Розмірність функції
дорівнює розмірності с.п.
.

Значення реалізацій с.п. при кожному відхиляється від математичного очікування
на величину порядку
(Див. рис 60).

Зазначимо найпростіші властивості дисперсії випадкових процесів.

1. Дисперсія невипадкової функції
дорівнює нулю, тобто.

2. Дисперсія випадкового процесу
невід'ємна тобто.

3. Дисперсія твору невипадкової функції
на випадкову функцію
дорівнює добутку квадрата невипадкової функції дисперсію випадкової функції, тобто.

4. Дисперсія суми с.п.
та невипадкової функції
дорівнює дисперсії с.п., тобто.

приклад 3.Пустьс.п. визначається формулою, тобто.
с.в.

розподілено за нормальним законом

Знайти дисперсію та середнє квадратичне відхилення с.п.
.

Рішення.Обчислимо дисперсію на підставі формули із властивості 3. Маємо

але
, отже, за визначенням дисперсії С.В.

Отже,
тобто.
і