Курсова робота
Випадковий процес в математиці
Зміст
Введення
1. Визначення випадкового процесу і його характеристики
2. Марковські випадкові процеси з дискретними станами
3. Стаціонарні випадкові процеси
4. Ергодична властивість стаціонарних випадкових процесів
Література
Введення
Поняття випадкового процесу уведено в XX сторіччі й пов'язане з іменами А.Н. Колмогорова (1903-1987), А.Я. Хинчина (1894-1959), Е.Е. Слуцького (1880-1948), Н. Вінера (1894-1965). Це поняття в наші дні є одним із центральних не тільки в теорії ймовірностей, але також у природознавстві, інженерній справі, економіці, організації виробництва, теорії зв'язку. Теорія випадкових процесів належить до категорії найбільше що швидко розвиваються математичних дисциплін. Безсумнівно, що ця обставина значною мірою визначається її глибокими зв'язками із практикою. XX століття не могло задовольнятися тим ідейною спадщиною, що було отримано від минулого. Дійсно, у той час, як фізика, біолога, інженера цікавив процес, тобто зміна досліджуваного явища в часі, теорія ймовірностей пропонувала їм як математичний апарат лише засобу, що вивчали стаціонарні стани. Для дослідження зміни в часі теорія ймовірностей кінця XIX - початку XX століття не мало ні розроблених приватних схем, ні тим більше загальних прийомів. А необхідність їхнього створення буквально стукала у вікна й двері математичної науки. Вивчення броунівського руху у фізику підвело математиків до порога створення теорії випадкових процесів.
Вважаю за необхідне згадати ще про дві важливі групи досліджень, початих у різний час і по різних приводах.
По-перше, ця роботи А.А. Маркова (1856-1922) по вивченню ланцюгових залежностей. По-друге, роботи Е.Е. Слуцького (1880-1948) по теорії випадкових функцій. Обоє цих напрямку грали дуже істотну роль у формуванні загальної теорії випадкових процесів.
Для цієї мети вже був накопичений значний вихідний матеріал, і необхідність побудови теорії як би носилися в повітрі.
Залишалося здійснити глибокий аналіз наявних робіт, висловлених у них ідей і результатів і на його базі здійснити необхідний синтез.
1. Визначення випадкового процесу і його характеристики
Визначення: Випадковим процесом X(t) називається процес, значення якого при будь-якому значенні аргументу t є випадковою величиною.
Інакше кажучи, випадковий процес являє собою функцію, що у результаті випробування може прийняти той або інший конкретний вид, невідомий заздалегідь. При фіксованому t=t0 X(t0) являє собою звичайну випадкову величину, тобто перетин випадкового процесу в момент t0.
Приклади випадкових процесів:
чисельність населення регіону із часом;
число заявок, що надходять у ремонтну службу фірми, із часом.
Випадковий процес можна записати у вигляді функції двох змінних X(t,?), де ?€?, t€T, X(t, ?) € ? і ? - елементарна подія, ? - простір елементарних подій, Т - множина значень аргументу t, ? - множина можливих значень випадкового процесу X(t, ?).
Реалізацією випадкового процесу X(t, ω) називається невипадкова функція x(t), у яку перетворюється випадковий процес X(t) у результаті випробування (при фіксованому ω), тобто конкретний вид, прийнятий випадковим процесом X(t), його траєкторія.
Таким чином, випадковий процес X(t, ω) сполучає в собі риси випадкової величини й функції. Якщо зафіксувати значення аргументу t, випадковий процес перетворюється у звичайну випадкову величину, якщо зафіксувати ?, те в результаті кожного випробування він перетворюється у звичайну невипадкову функцію. Надалі викладі опустимо аргумент ?, але він буде матися на увазі за замовчуванням.
На малюнку 1 зображено кілька реалізацій деякого випадкового процесу. Нехай перетин цього процесу при даному t є безперервною випадковою величиною. Тоді випадковий процес X(t) при даному t визначається повністю ймовірності ?(x, t). Очевидно, що щільність ?(x, t) не є вичерпним описом випадкового процесу X(t), тому що вона не виражає залежності між його перетинами в різні моменти часу.
Випадковий процес X(t) являє собою сукупність всіх перетинів при всіляких значень t, тому для його опису необхідно розглядати багатомірну випадкову величину (X(t1), X(t2), …, X(tn)), що складається із всіх сполучень цього процесу. У принципі таких сполучень нескінченно багато, але для опису випадкового процесу вдається частина обійтися відносно невеликою кількістю сполучень.
Говорять, що випадковий процес має порядок n, якщо він повністю визначається щільністю спільного розподілу φ(x1, x2, …, xn; t1, t2, …, tn) n довільних перетинів процесу, тобто щільністю n-мірної випадкової величини (X(t1), X(t2), …, X(tn)), де X(ti) – сполучення випадкового процесу X(t) у момент часу ti, i=1, 2, …, n...
Як і випадкова величина, випадковий процес може бути описаний числовими характеристиками. Якщо для випадкової величини ці характеристики є постійними числами, то для випадкового процесу – невипадковими функціями.
Математичним очікуванням випадкового процесу X(t) називається невипадкова функція ax(t), що при будь-якому значенні змінної t дорівнює математичному очікуванню відповідного перетину випадкового процесу X(t), тобто ax(t)=М [X(t)].
Дисперсією випадкового процесу X(t) називається невипадкова функція Dx(t), при будь-якому значенні змінної t рівна дисперсії відповідного сполучення випадкового процесу X(t), тобто Dx(t)= D[X(t)].
Середнім квадратичним відхиленням σx(t) випадкового процесу X(t) називається арифметичне значення кореня квадратного з його дисперсії, тобто σx(t)= Dx(t).
Математичне очікування випадкового процесу характеризує середню траєкторію всіх можливих його реалізацій, а його дисперсія або середнє квадратичне відхилення - розкид реалізацій щодо середньої траєкторії.
Уведених вище характеристик випадкового процесу виявляється недостатньо, тому що вони визначаються тільки одномірним законом розподілу. Якщо для випадкового процесу Х1(t) характерно повільна зміна значень реалізацій зі зміною t, то для випадкового процесу Х2(t) ця зміна проходить значно швидше. Інакше кажучи, для випадкового процесу Х1(t) характерна тісна імовірнісна залежність між двома його сполученнями Х1(t1) і Х1(t2), у той час як для випадкового процесу Х2(t) ця залежність між сполученнями Х2(t1) і Х2(t2) практично відсутній. Зазначена залежність між сполученнями характеризується кореляційною функцією.
Визначення: Кореляційною функцією випадкового процесу Х(t) називається невипадкова функція
Kx(t1, t2) = M[(X(t1) – ax(t1))(X(t2) – ax(t2))] (1.)
двох змінних t1 і t2 , що при кожній парі змінних t1 і t2 дорівнює ковариації відповідних сполучень Х(t1) і Х(t2) випадкові процеси.
Очевидно, для випадкового процесу Х(t1) кореляційна функція Kx1(t1, t2) убуває в міру збільшення різниці t2 - t1 значно повільніше, ніж Kx2(t1, t2) для випадкового процесу Х(t2).
Кореляційна функція Kx(t1, t2) характеризує не тільки ступінь тісноти лінійної залежності між двома сполученнями, але й розкид цих сполучень щодо математичного очікування ax(t). Тому розглядається також нормована кореляційна функція випадкового процесу.
Нормованою кореляційною функцією випадкового процесу Х(t) називається функція:
Px(t1, t2) = Kx(t1, t2) / σx(t1)σx(t2) (2)
Приклад № 1
Випадковий процес визначається формулою X(t) = X cosωt, де Х – випадкова величина. Знайти основні характеристики цього процесу, якщо М(Х) = а, D(X) = σ2.
Рішення:
На підставі властивостей математичного очікування й дисперсії маємо:
ax(t) = M(X cosωt) = cos?t * M(X) = a cos?t,
Dx(t) = D(X cosωt) = cos2ωt * D(X) = σ2 cos2 ωt.
Кореляційну функцію знайдемо по формулі (1.)
Kx(t1, t2) = M[(X cosωt1 – a cosωt1) (X cos ωt2 – a cosωt2)] =
= cosωt1 cosωt2 * M[(X – a)(X - a)] = cosωt1 cosωt2 * D(X) = σ2 cosωt1 cosωt2.
Нормовану кореляційну функцію знайдемо по формулі (2.):
Px(t1, t2) = σ2 cosωt1 cosωt2 / (σ cosωt1)( σ cosωt2) ≡ 1.
Випадкові процеси можна класифікувати залежно від того, плавно або стрибкоподібно міняються стани системи, у якій вони протікають, або нескінченна множина цих станів і т.п. Серед випадкових процесів особливе місце належить Марковському випадковому процесу.
Теорема. Випадковий процес X(t) є Гильбертівим тоді й тільки тоді, коли існує R(t, t') для всіх (t, t')€ T*T.
Теорію Гильбертівих випадкових процесів називають кореляційною.
Помітимо, множина Т може бути дискретним і континуальним. У першому випадку випадковий процес Хt називають процесом з дискретним часом, у другому – з безперервним часом.
Відповідно сполучення Хt можуть бути дискретними й безперервними випадковими величинами.
Випадковий процес називається Х(t) вибірково неправильним, і інтегрувальним у крапці ω€?, якщо його реалізація x(t) = x(t, ?) відповідно безперервна, диференцуєма й інтегрувальна.
Випадковий процес Х(t) називається безперервним: майже, напевно, якщо
P(A)=1, A = {ω € Ω : lim x(tn) = x(t)}
У середньому, якщо
Lim M[(X(tn) – X(t))2] = 0
По ймовірності, якщо
Aδ ≥ 0 : lim P[| X(tn) – X(t)| > δ] = 0
Збіжність у середньому позначають також:
X(t) = lim X(tn)
Виявляється, з вибіркової безперервності треба безперервність майже напевно, з безперервності майже напевно й у середньому треба безперервність по ймовірності.
Теорема. Якщо X(t) – Гильбертів випадковий процес, безперервний у середньому, то mx(t) – безперервна функція й має місце співвідношення
Lim M [X(tn)] = M [X(t)] = M [lim X(tn)].
Теорема. Гильбертів випадковий процес X(t) безперервний у середньому тоді й тільки тоді, коли безперервна його ковариаціона функція R(t, t') у крапці (t, t).
Гильбертів випадковий процес X(t) називається диференцуємим у середньому квадратичному, якщо існує випадкова функція X(t) = dX(t)/dt така, що
X(t) = dX(t)/ dt = lim X(t+?t) - X(t) / ?t
(t € T, t +?t € T),
т.е. коли
Lim M [((X(t + ∆t) – X(t) / (∆t)) – X(t))2] = 0
Випадкову функцію X(t) будемо називати похідній у середньому квадратичному випадкового процесу X(t) відповідно в крапці t або на T.
Теорема. Гильбертів випадковий процес X(t) диференціюємо в середньому квадратичному у крапці t тоді й тільки тоді, коли існує δ2 R(t, t’) / δt?t' у крапці (t, t'). При цьому:
Rx(t, t’) = M[X(t)X(t’)] = δ2 R(t, t’) / δt?t'.
Якщо Гильбертів випадковий процес диференціюємо на Т, то його похідна в середньому квадратичному також є Гильбертівим випадковим процесом; якщо вибіркові траєкторії процесу диференцуєми на Т с імовірністю 1, то з імовірністю 1 їхні похідні збігаються з похідними в середньому квадратичному на Т.
Теорема. Якщо X(t) - Гильбертів випадковий процес, то
M[dX(t) / dt] = (d / dt) M[X(t)] = dmx(t) / dt.
Нехай (0, t) – кінцевий інтервал, 0 <t1 < … <tn = t – його крапки
X(t) - Гильбертів випадковий процес.
Yn = ∑ X(ti)(ti – ti-1) (n = 1,2, …)...
Тоді випадкова величина
Y(t) = lim Yn
max (ti – ti-1)→0
Називається інтегралом у середньому квадратичному процесу X(t) на (0, t) і позначається:
Y(t) = ? X(?)d?.
Теорема. Інтеграл Y(t) у середньому квадратичному існує тоді й тільки тоді, коли коваріаціона функція R(t, t') Гильбертіва процесу X(t) безперервна на Т?Т і існує інтеграл
Ry (t, t’) = ∫ ? R(?, ?') d?d?’
Якщо інтеграл у середньому квадратичному функції X(t) існує, то
M[Y(t)] = ? M[X(?)]d?,
RY(t, t’) = ∫ ? R(?, ?')d?d?’
Ky (t, t’) = ∫ ? K(?, ?')d?d?’
Тут Ry(t, t’) = M[Y(t)Y(t’)], Ky(t, t’) = M[Y(t)Y(t’)] –кореляційна функції випадкового процесу Y(t).
Теорема. Нехай X(t) - Гильбертів випадковий процес із функцією R(t, t'), ?(t) - речовинна функція й існує інтеграл
? ? ?(t)?(t')R(t, t')dtdt'
Тоді існує в середньому квадратичному інтеграл
? ?(t)X(t)dt.
Випадкові процеси:
Xi(t) = Viφi(t) (i = 1n)
Де φi(t) – задані речовинні функції
Vi - випадкові величини з характеристиками
M(VI = 0), D(VI) = DI, M(ViVj) = 0 (i ≠ j)
Називають елементарними.
Канонічним розкладанням випадкового процесу X(t) називають його подання у вигляді
X(t) = mx(t) + ∑ Viφi(t) (t € T)
Де Vi – коефіцієнти, а φi(t) – координатні функції канонічного розкладання процесу X(t). З відносин:
M(VI = 0), D(VI) = DI, M(ViVj) = 0 (i ≠ j)
X(t) = mx(t) + ∑ Viφi(t) (t € T)
Треба:
K(t, t’) = ∑ Diφi(t)φi(t’)
Цю формулу називають канонічним розкладанням кореляційної функції випадкового процесу.
У випадку рівняння
X(t) = mx(t) + ∑ Viφi(t) (t € T)
Мають місце формули:
X(t) = mx(t) + ∑ Viφ(t)
∫ x(τ)dt = ∫ mx(τ)dτ + ∑ Vi ∫ φi(t)dt.
Таким чином, якщо процес X(t) представлений його канонічним розкладанням, те похідна й інтеграл від нього також можуть бути представлені у вигляді канонічних розкладань.
2. Марковські випадкові процеси з дискретними станами
Випадковий процес, що протікає в деякій системі S з можливими станами S1, S2, S3, …, називається Марковським, або випадковим процесом без наслідку, якщо для будь-якого моменту часу t0 імовірні характеристики процесу в майбутньому (при t>t0) залежить тільки від його стану в цей момент t0 і не залежать від того, коли і як система прийшла в цей стан; тобто не залежать від її поводження в минулому (при t<t0).
Прикладом Марковського процесу: система S – лічильник у таксі. Стан системи в момент t характеризується числом кілометрів (десятих часток кілометрів), пройдених автомобілем до даного моменту. Нехай у момент t0 лічильник показує S0/ Імовірність того, що в момент t>t0 лічильник покаже те або інше число кілометрів (точніше, що відповідає число рублів) S1 залежить від S0, але не залежить від того, у які моменти часу змінилися показання лічильника до моменту t0.
Багато процесів можна приблизно вважати Марковськими. Наприклад, процес гри в шахи; система S – група шахових фігур. Стан системи характеризується числом фігур супротивника, що збереглися на дошці в момент t0. Імовірність того, що в момент t>t0 матеріальна перевага буде на боці одного із супротивників, залежить у першу чергу від того, у якому стані перебуває система в цей момент t0, а не від того, коли й у якій послідовності зникли фігури з дошки до моменту t0.
У ряді випадків передісторією розглянутих процесів можна просто зневажити й застосовувати для їхнього вивчення Марковські моделі.
Марковським випадковим процесом з дискретними станами й дискретним часом (або ланцюгом Маркова) називається Марковський процес, у якому його можливі стани S1, S2, S3, … можна заздалегідь перелічити, а перехід зі стану в стан відбувається миттєво (стрибком), але тільки в певні моменти часу t0, t1, t2, ..., називані кроками процесу.
Позначимо pij – імовірність переходу випадкового процесу (системи S) зі стану I у стан j. Якщо ці ймовірності не залежать від номера кроку процесу, то такий ланцюг Маркова називається однорідної.
Нехай число станів системи звичайно й дорівнює m. Тоді її можна характеризувати матрицею переходу P1, що містить всі ймовірності переходу:
p11 p12 … p1m
p21 p22 … p2m
… … … …
Pm1 pm2 … pmm
Природно, по кожному рядку ∑ pij = 1, I = 1, 2, …, m...
Позначимо pij(n) – імовірністю того, що в результаті n кроків система перейде зі стану I у стан j. При цьому при I = 1 маємо ймовірності переходу, що утворять матрицю P1, тобто pij(1) = pij
Необхідно, знаючи ймовірності переходу pij, знайти pij(n) – імовірності переходу системи зі стану I у стан j за n кроків. Із цією метою будемо розглядати проміжне (між I і j) стан r, тобто будемо вважати, що з первісного стану I за k кроків система перейде в проміжний стан r з імовірністю pir(k), після чого за що залишилися n-k кроків із проміжного стану r вона перейде в кінцевий стан j з імовірністю prj(n-k). Тоді по формулі повної ймовірності
Pij(n) = ∑ pir (k) prj (n-k) – рівність Маркова.
Переконаємося в тім, що, знаючи всі ймовірності переходу pij = pij(1), тобто матрицю P1 переходу зі стану в стан за один крок, можна знайти ймовірність pij(2), тобто матрицю P2 переходи зі стану в стан за два кроки. А знаючи матрицю P2, - знайти матрицю P3 переходи зі стану в стан за три кроки, і т.д.
Дійсно, думаючи n = 2 у формулі Pij(n) = ∑ pir (k) prj (n-k), тобто k=1 (проміжне між кроками стан), одержимо
Pij(2) = ∑ pir(1)prj (2-1) = ∑ pir prj
Отримана рівність означає, що P2 =P1P1 = P21
Думаючи n = 3, k = 2, аналогічно одержимо P3 = P1P2 = P1P12 = P13, а в загальному випадку Pn = P1n
Приклад
Сукупність родин деякого регіону можна розділити на три групи:
родини, що не мають автомобіля й не збираються його купувати;
родини, що не мають автомобіля, але які бажаютьйого придбати;
родини, що мають автомобіль.
Проведене статистичне обстеження показало, що матриця переходу за інтервал в один рік має вигляд:
0,8 0,1 0,1
0 0,7 0,3
0 0 1
(У матриці P1 елемент р31 = 1 означає ймовірність того, що родина, що має автомобіль, також буде його мати, а, наприклад, елемент р23 = 0,3 – імовірність того, що родина, що не мала автомобіля, але намагаються його придбати, здійснить свій намір у наступному році, і т.д.)
Знайти ймовірність того, що:
родина, що не мала автомобіля й не хоче його придбати, буде перебувати в такій же ситуації через два роки;
родина, що не мала автомобіля, але які бажають його придбати, буде мати автомобіль через два роки.
Рішення: знайдемо матрицю переходу Р2 через два роки:
0,8 0,1 0,1 0,8 0,1 0,1 0,64 0,15 0,21
0 0,7 0,3 0 0,7 0,3 0 0,49 0,51
0 0 1 0 0 1 0 0 1
Тобто шукані в прикладі 1) і 2) імовірності рівні відповідно
р11 =0,64, р23 =0,51
Далі розглянемо Марковський випадковий процес із дискретними станами й безперервним часом, у якому, на відміну від розглянутої вище ланцюга Маркова, моменти можливих переходів системи зі стану не фіксовані заздалегідь, а випадкові.
При аналізі випадкових процесів з дискретними станами зручно користуватися геометричною схемою – так званим графіком подій. Звичайно стану системи зображуються прямокутниками (кружками), а можливі переходи зі стану в стан - стрілками (орієнтованими дугами), що з'єднують стану.
Приклад. Побудувати граф станів наступного випадкового процесу: пристрій S складається із двох вузлів, кожний з яких у випадковий момент часу може вийти з ладу, після чого миттєво починається ремонт вузла, що триває заздалегідь невідомий випадковий час.
Рішення. Можливі стани системи: S0 – обидва вузли справні; S1 – перший вузол ремонтується, другий справний; S2 – другий вузол ремонтується, перший справний; S3 – обидва вузли ремонтуються.
Стрілка, напрямку, наприклад, з S0 в S1, означає перехід системи в момент відмова першого вузла, з S1 в S0 – перехід у момент закінчення ремонту цього вузла. На графі відсутні стрілки з S0 в S3 і з S1 в S2. Це пояснюється тим, що виходи вузлів з ладу передбачається незалежними друг від друга й, наприклад, імовірностями одночасного виходу з ладу двох вузлів (перехід з S0 в S3) або одночасне закінчення ремонтів двох вузлів (перехід з S3 в S0) можна зневажити.
3. Стаціонарні випадкові процеси
Випадковий процес Х(t) називають стаціонарним у вузькому змісті, якщо
F(x1, …, xn; t1, …, tn) = F(x1, …, xn; t1+∆, …, tn+∆)
При довільних
n≥1, x1, …, xn, t1, …, tn; ∆; t1 € T, ti + ∆ € T...
Тут F(x1, …, xn; t1, …, tn) – n-мірна функція розподілу випадкового процесу Х(t).
Випадковий процес Х(t) називають стаціонарним у широкому змісті, якщо
m(t) = m(t + ?), K(t, t') = K(t + ?, t' + ?)
(t € T, t' € T, t + ?€ T), t' + ?€ T)
Очевидно, що зі стаціонарності у вузькому змісті треба стаціонарність у широкому змісті.
З формул:
m(t) = m(t + ?), K(t, t') = K(t + ?, t' + ?)
(t € T, t' € T, t + ?€ T), t' + ?€ T)
Треба, що для процесу, стаціонарного в широкому змісті, можна записати
m (t) = mx(0) = const;
D (t) = K(t, t) = K(0,0) = const;
K(t, t') = K(t - t', 0) = K (0, t' - t)
Таким чином, для процесу, стаціонарного в широкому змісті, математичне очікування й дисперсія не залежать від часу, а K(t, t') представляє собою функцію виду:
K(t, t') = k(?) = k(-?), ? = t' - t.
Видно, що k(?) - парна функція, при цьому
K(0) = В = σ2; |k(τ)| ≤ k(0); ∑ ∑ άi αj k(ti - tj) ≥ 0
Тут D - дисперсія стаціонарного процесу
Х(t), αi (I = 1, n) – довільні числа.
Перша рівність системи
K(0) = В = σ2; |k(τ)| ≤ k(0); ∑ ∑ άi αj k(ti - tj) ≥ 0
треба з рівняння K(t, t') = k(?) = k(-?), ? = t' - t. Перша рівність
K(0) = В = σ2; |k(τ)| ≤ k(0); ∑ ∑ άi αj k(ti - tj) ≥ 0 - простий наслідок нерівності Шварца для перетинів X(t), X(t') стаціонарного випадкового процесу X(t). Остання нерівність:
K(0) = В = σ2; |k(τ)| ≤ k(0); ∑ ∑ άi αj k(ti - tj) ≥ 0
Одержують у такий спосіб:
∑ ∑ αi αj k(ti - tj) = ∑ ∑ K(ti, tj)αi αj = ∑ ∑ M[(αiXi)(αjXj)] = M[(∑ αiXi)2] ≥0
З огляду на формулу кореляційної функції похідній dX(t)/dt випадкового процесу, для стаціонарної випадкової функції X(t) одержимо
K1(t, t’) = M[(dX(t)/dt)*(dX(t’)/dt’)] = δ2K(t, t’) / δtδt’ = δ2k(t’ - t) / δt?t'
Оскільки
?k(t' - t) / ?t = (?k(?) / ??) * (?? / ??) = - ?k(?) / ??,
δ2k(t’ - t) / δtδt’ = - (δ2 k(τ) / δτ2) * (δτ / δt’) = - (δ2 k(τ) / δτ2)
те K1(t, t’) = k1(τ) = - (δ2 k(τ) / δτ2), τ = t' - t.
Тут K1(t, t’) і k1(τ) – кореляційна функція першій похідній стаціонарного випадкового процесу X(t).
Для n-й похідній стаціонарного випадкового процесу формула кореляційної функції має вигляд:
Kn(τ) = (-1)n * (δ2n *k(τ) / δτ2n)
Теорема. Стаціонарний випадковий процес X(t) з кореляційною функцією k(?) безперервний у середньому квадратичному у крапці t € T тоді й тільки тоді, коли
Lim k(?) = k(0)
Для доказу запишемо очевидний ланцюжок рівностей:
M [|X(t+τ)-X(T)|2] = M[|X(t)|2] – 2M[|X(t+τ)X(t)|] + M[X(t)2] =
= 2D-2k(?) = 2[k(0)-k(?)].
Звідси очевидно, що умова безперервності в середньому квадратичному процесу X(t) у крапці t € T
Lim M[|X(t+τ) – X(t)|2] = 0
Має місце тоді й тільки тоді, коли виконується Lim k(?) = k(0)
Теорема. Якщо кореляційна функція k(τ) стаціонарного випадкового процесу X(t) безперервна в середньому квадратичному у крапці τ=0, то вона безперервна в середньому квадратичному у будь-якій крапці τ € R1.
Для доказу запишемо очевидні рівності:
k(?+??)-k(?) = M[X(t+?+??)X(t)] - M[X(t+?)X(t)] =
= M{X(t)[X(t+?+??) - X(t+?)]}
Потім, застосовуючи нерівність Шварца до співмножників у фігурній дужці й з огляду на співвідношення:
K(t, t') = k(?) = k(-?), ? = t' - t.
K(0) = В = σ2; |k(τ)| ≤ k(0); ∑ ∑ άi αj k(ti - tj) ≥ 0
Одержимо:
0 ≤ [k(τ+∆τ)-k(τ)]2≤ M[X(t)2]M[|X(t+τ+∆τ)-X(t+τ)|2] =
= 2D[D-k(??)].
Переходячи до межі при ??>0 і беручи до уваги умова теореми про безперервність k(?) у крапці ?=0, а також перша рівність системи
K(0) = В = σ2 , знайдемо
Lim k(?+??) = k(?)
Оскільки тут ? - довільне число, теорему варто вважати доведеної.
4. Ергодична властивість стаціонарних випадкових процесів
Нехай Х(t) - стаціонарний випадковий процес на відрізку часу [0,T] з характеристиками
M[X(t)] = 0, K(t, t') = M[X(t)X(t')] = k(?),
? = t' - t, (t, t') € T?T.
Ергодична властивість стаціонарного випадкового процесу полягає в тім, що по досить тривалій реалізації процесу можна судити про його математичне очікування, дисперсію, кореляційній функції.
Більш строго стаціонарний випадковий процес Х(t) будемо називати ергодичним по математичному очікуванню, якщо
Lim M {|(1/ T)∫ X(t)dt|2} = 0
Теорема
Стаціонарний випадковий процес Х(t) з характеристиками:
M[X(t)] = 0, K(t, t') = M[X(t)X(t')] = k(?),
? = t' - t, (t, t') € T?T
є ергодичним по математичному очікуванню тоді й тільки тоді, коли
Lim (2/ T) ? k(?) (1 - ?/t)d? = 0.
Для доказу, мабуть, досить переконатися, що справедливо рівність
M{(1/ T) ∫X(t)dt|2} = (2/ T) ∫ k(?) (1 - ?/t)d?
Запишемо очевидні співвідношення
C = M {|(1/ T) ) ∫X(t)dt|2} = (1/ T2) ∫ ? k(t' - t)dt'dt = (1/T) ? dt ? k(t' - t)dt'.
Думаючи тут ? = t' - t, d? = dt' і з огляду на умови (t' = T) > (? = T - t),
(t' = 0)>(? = -t), одержимо
З = (1/T2) ∫ dt ∫ k(τ)dτ = (1/T2) ∫ dt ∫ k(τ)dτ + (1/T2) ∫ dt ? k(?)d? =
= -(1/T2) ∫ dt ∫ k(τ)dτ - (1/T2) ∫ dt ? k(?)d?
Думаючи в першому й другому доданках правої частини цієї рівності відповідно ? = -?', d? = -d?', ? = T-?', d? = -d?', знайдемо
З = (1/T2) ∫ dt ∫ k(τ)dτ + (1/T2) ∫ dt ? k(T - ?)d?
Застосовуючи формулу Дирихле для подвійних інтегралів, запишемо
З = (1/T2) ∫ dt ∫ k(τ)dτ + (1/T2) ∫ dt ∫ k(T - τ)dτ = (1/T2) ∫ (T - τ) k(τ)dτ + (1/T2) ∫ ?k (T - ?)d?
У другому доданку правої частини можна покласти ?' = T-?, d? = -d?', після чого будемо мати
З = (1/Т2) ∫ (Т - τ) k(τ)dτ – (1/T2) ∫ (T - ?) k(?)d? = 2/T ? (1- (?/T)) k(?)d?
Звідси й з визначення констант видно, що рівність
M{(1/ T) ∫X(t)dt|2} = (2/ T) ∫ k(?) (1 - ?/t)d?
Справедливо.
Теорема
Якщо кореляційна функція k(?) стаціонарного випадкового процесу X(t) задовольняє умові
Lim (1/T) ? |k(?)| dt = 0
Те X(t) є ергодичним по математичному очікуванню.
Дійсно, з огляду на співвідношення
M{(1/ T) ∫X(t)dt|2} = (2/ T) ∫ k(?) (1 - ?/t)d?
Можна записати
0 ? (2/Т) ? (1 - ?/t) k(?)d? ? (2/T) ? (1- ?/t) |k(?)|d? ? (1/T) ? |k(?)|d?
Звідси видно, що якщо виконано умову, те
Lim (2/T) ? (1 - ?/T) k(?)d? = 0
Тепер, беручи до уваги рівність
З = (1/Т2) ∫ (Т - τ) k(τ)dτ – (1/T2) ∫ (T - ?) k(?)d? = 2/T ? (1- (?/T)) k(?)d?
І умова Lim M {|(1/ T)∫ X(t)dt|2} = 0
Ергодичності по математичному очікуванню стаціонарного випадкового процесу X(t), знаходимо, що необхідне доведено.
Теорема.
Якщо кореляційна функція k(?) стаціонарного випадкового процесу
X(t) інтегрувальна й необмежено убуває при ? > ?, тобто виконується умова
При довільному ? > 0, то X(t) - ергодичний по математичному очікуванню стаціонарний випадковий процес.
Дійсно, з огляду на вираження
Для Т≥Т0 маємо
(1/T) ∫ |k(τ)|dτ = (1/T)[ ∫ |k(τ)|dτ + ∫ |k(τ)|dτ ≤ (1/T) ∫ |k(τ)|dτ ε(1 – T1/T).
Переходячи до межі при Т > ?, знайдемо
0 ? lim ? |k(?)|d? = ?.
Оскільки тут ? > 0 - довільна, скільки завгодно мала величина, то виконується умова ергодичності по математичному очікуванню. Оскільки це треба з умови. Про необмежене убування k(?), те теорему варто вважати доведеної. Доведені теореми встановлюють конструктивні ознаки ергодичності стаціонарних випадкових процесів.
Нехай
X(t) = m + X(t), m=const.
Тоді M[X(T)] = m, і якщо X(t) - ергодичний стаціонарний випадковий процес, то умова ергодичності Lim M {|(1/ T)∫ X(t)dt|2} = 0 після нескладних перетворень можна представити у вигляді
Lim M{[(1/T) ∫ X(t)dt – m]2} = 0
Звідси треба, що якщо X(t) - ергодичний по математичному очікуванню стаціонарний випадковий процес, то математичне очікування процесу X(t) = m + X(t) приблизно може бути обчислене по формулі
M = (1/T) ? x(t)dt
Тут Т - досить тривалий проміжок часу;
x(t) - реалізація процесу X(t) на відрізку часу [0, Т].
Можна розглядати ергодичність стаціонарного випадкового процесу X(t) по кореляційній функції.
Стаціонарний випадковий процес X(t) називається ергодичним по кореляційній функції, якщо
Lim M {[ (1/T) ∫ X(t) X(t + τ)dt – k(τ)]2]} = 0
Звідси треба, що для ергодичного по кореляційній функції стаціонарного випадкового процесу X(t) можна покласти
k (?) = (1/T) ? x(t)x(t + ?)dt
при досить великому Т.
Виявляється, умова обмеженості k(?) досить для ергодичності по кореляційній функції стаціонарного нормально розподіленого процесу X(t).
Помітимо, випадковий процес називається нормально розподіленим, якщо будь-яка його функція розподілу є нормальною.
Необхідною й достатньою умовою ергодичності стаціонарного нормально розподіленого випадкового процесу є співвідношення
τ0 : lim (1/T) ∫ [k(τ)2 + k(τ + τ0) k(τ – τ0)] (1 – τ/T)d? = 0
Література
1.Кремер М.Ш. Теорія ймовірностей і математична статистика. – К., 2004
2.Кожевников Ю.В. Теорія ймовірностей і математична статистика. – К., 2005
3.Гнеденко Б.Д. Курс теорії ймовірностей. – К., 2005