Понятие случайного процесса в математике

Основная часть

В· Определение случайного процесса и его характеристики

В· Марковские случайные процессы с дискретными состояниями

В· Стационарные случайные процессы

В· Эргодическое свойство стационарных случайных процессов

Литература


Введение

Понятие случайного процесса введено в XX столетии и связано с именами А.Н. Колмогорова (1903-1987), А.Я. Хинчина (1894-1959), Е.Е. Слуцкого (1880-1948), Н. Винера (1894-1965).

Это понятие в наши дни является одним из центральных не только в теории вероятностей, но также в естествознании, инженерном деле, экономике, организации производства, теории связи. Теория случайных процессов принадлежит к категории наиболее быстро развивающихся математических дисциплин. Несомненно, что это обстоятельство в значительной мере определяется ее глубокими связями с практикой. XX век не мог удовлетвориться тем идейным наследием, которое было получено от прошлого. Действительно, в то время, как физика, биолога, инженера интересовал процесс, т.е. изменение изучаемого явления во времени, теория вероятностей предлагала им в качестве математического аппарата лишь средства, изучавшие стационарные состояния.

Для исследования изменения во времени теория вероятностей конца XIX - начала XX века не имела ни разработанных частных схем, ни тем более общих приемов. А необходимость их создания буквально стучала в окна и двери математической науки. Изучение броуновского движения в физике подвело математику к порогу создания теории случайных процессов.

Считаю необходимым упомянуть еще о двух важных группах исследований, начатых в разное время и по разным поводам.

Во-первых, эта работы А.А. Маркова (1856-1922) по изучению цепных зависимостей. Во-вторых, работы Е.Е. Слуцкого (1880-1948) по теории случайных функций.

Оба этих направления играли очень существенную роль в формировании общей теории случайных процессов.

Для этой цели уже был накоплен значительный исходный материал, и необходимость построения теории как бы носились в воздухе.

Оставалось осуществить глубокий анализ имеющихся работ, высказанных в них идей и результатов и на его базе осуществить необходимый синтез.


Определение случайного процесса и его характеристики

Определение: Случайным процессом X(t) называется процесс, значение которого при любом значении аргумента t является случайной величиной.

Другими словами, случайный процесс представляет собой функцию, которая в результате испытания может принять тот или иной конкретный вид, неизвестный заранее. При фиксированном t=t0 X(t0) представляет собой обычную случайную величину, т.е. сечение случайного процесса в момент t0.

Примеры случайных процессов:

1. численность населения региона с течением времени;

2. число заявок, поступающих в ремонтную службу фирмы, с течением времени.

Случайный процесс можно записать в виде функции двух переменных X(t,ω), где ωтВмΩ, tтВмT, X(t, ω) тВм ≡ и ω тАУ элементарное событие, Ω - пространство элементарных событий, Т тАУ множество значений аргумента t, ≡ - множество возможных значений случайного процесса X(t, ω).

Реализацией случайного процесса X(t, ω) называется неслучайная функция x(t), в которую превращается случайный процесс X(t) в результате испытания (при фиксированном ω), т.е. конкретный вид, принимаемый случайным процессом X(t), его траектория.

Таким образом, случайный процесс X(t, ω) совмещает в себе черты случайной величины и функции. Если зафиксировать значение аргумента t, случайный процесс превращается в обычную случайную величину, если зафиксировать ω, то в результате каждого испытания он превращается в обычную неслучайную функцию. В дальнейшем изложении опустим аргумент ω, но он будет подразумеваться по умолчанию.

На рисунке 1 изображено несколько реализаций некоторого случайного процесса. Пусть сечение этого процесса при данном t является непрерывной случайной величиной. Тогда случайный процесс X(t) при данном t определяется полностью вероятности φ(xтАЪ t). Очевидно, что плотность φ(x, t) не является исчерпывающим описанием случайного процесса X(t), ибо она не выражает зависимости между его сечениями в разные моменты времени.

Случайный процесс X(t) представляет собой совокупность всех сечений при всевозможных значений t, поэтому для его описания необходимо рассматривать многомерную случайную величину (X(t1), X(t2), тАж, X(tn)), состоящей из всех сочетаний этого процесса. В принципе таких сочетаний бесконечно много, но для описания случайного процесса удаётся часть обойтись относительно небольшим количеством сочетаний.

Говорят, что случайный процесс имеет порядок n, если он полностью определяется плотностью совместного распределения φ(x1, x2, тАж, xn; t1, t2, тАж, tn) n произвольных сечений процесса, т.е. плотностью n-мерной случайной величины (X(t1), X(t2), тАж, X(tn)), где X(ti) тАУ сочетание случайного процесса X(t) в момент времени ti, i=1, 2, тАж, n.

Как и случайная величина, случайный процесс может быть описан числовыми характеристиками. Если для случайной величины эти характеристики являются постоянными числами, то для случайного процесса тАУ неслучайными функциями.

Математическим ожиданием случайного процесса X(t) называется неслучайная функция ax(t), которая при любом значении переменной t равна математическому ожиданию соответствующего сечения случайного процесса X(t), т.е. ax(t)=М [X(t)].

Дисперсией случайного процесса X(t) называется неслучайная функция Dx(t), при любом значении переменной t равная дисперсии соответствующего сочетания случайного процесса X(t), т.е. Dx(t)= D[X(t)].

Средним квадратическим отклонением σx(t) случайного процесса X(t) называется арифметическое значение корня квадратного из его дисперсии, т.е. σx(t)= Dx(t).

Математическое ожидание случайного процесса характеризует среднюю траекторию всех возможных его реализаций, а его дисперсия или среднее квадратическое отклонение - разброс реализаций относительно средней траектории.

Введённых выше характеристик случайного процесса оказывается недостаточно, так как они определяются только одномерным законом распределения. Если для случайного процесса Х1(t) характерно медленное изменение значений реализаций с изменением t, то для случайного процесса Х2(t) это изменение проходит значительно быстрее. Другими словами, для случайного процесса Х1(t) характерна тесная вероятностная зависимость между двумя его сочетаниями Х1(t1) и Х1(t2), в то время как для случайного процесса Х2(t) эта зависимость между сочетаниями Х2(t1) и Х2(t2) практически отсутствует. Указанная зависимость между сочетаниями характеризуется корреляционной функцией.

Определение:Корреляционной функцией случайного процесса Х(t) называется неслучайная функция

Kx(t1, t2) = M[(X(t1) тАУ ax(t1))(X(t2) тАУ ax(t2))] (1.)

двух переменных t1 и t2 , которая при каждой паре переменных t1 и t2 равна ковариации соответствующих сочетаний Х(t1) и Х(t2) случайного процесса.

Очевидно, для случайного процесса Х(t1) корреляционная функция Kx1(t1, t2) убывает по мере увеличения разности t2 - t1 значительно медленнее, чем Kx2(t1, t2) для случайного процесса Х(t2).

Корреляционная функция Kx(t1, t2) характеризует не только степень тесноты линейной зависимости между двумя сочетаниями, но и разброс этих сочетаний относительно математического ожидания ax(t). Поэтому рассматривается также нормированная корреляционная функция случайного процесса.

Нормированной корреляционной функцией случайного процесса Х(t) называется функция:

Px(t1, t2) = Kx(t1, t2) / σx(t1x(t2) (2)

Пример № 1

Случайный процесс определяется формулой X(t) = X cosωt, где Х тАУ случайная величина. Найти основные характеристики этого процесса, если М(Х) = а, D(X) = σ2.

РЕШЕНИЕ:

На основании свойств математического ожидания и дисперсии имеем:

ax(t) = M(X cosωt) = cosωt * M(X) = a cosωt,

Dx(t) = D(X cosωt) = cos2ωt * D(X) = σ2 cos2 ωt.

Корреляционную функцию найдём по формуле (1.)

Kx(t1, t2) = M[(X cosωt1 тАУ a cosωt1) (X cos ωt2 тАУ a cosωt2)] =

= cosωt1 cosωt2 * M[(X тАУ a)(X - a)] = cosωt1 cosωt2 * D(X) = σ2 cosωt1 cosωt2.

Нормированную корреляционную функцию найдём по формуле (2.):

Px(t1, t2) = σ2 cosωt1 cosωt2 / (σ cosωt1)( σ cosωt2) ≡ 1.

Случайные процессы можно классифицировать в зависимости от того, плавно или скачкообразно меняются состояния системы, в которой они протекают, конечно (счетно) или бесконечно множество этих состояний и т.п. Среди случайных процессов особое место принадлежит Марковскому случайному процессу.

Теорема. Случайный процесс X(t) является гильбертовым тогда и только тогда, когда существует R(t, tтАЩ) для всех (t, tтАЩ)тВм T*T.

Теорию гильбертовых случайных процессов называют корреляционной.

Заметим, множество Т может быть дискретным и континуальным. В первом случае случайный процесс Хtназывают процессом с дискретным временем, во втором тАУ с непрерывным временем.

Соответственно сочетания Хt могут быть дискретными и непрерывными случайными величинами.

Случайный процесс называется Х(t) выборочно неправильным, дифференцируемым и интегрируемым в точке ωтВмΩ, если его реализация x(t) = x(t, ω) соответственно непрерывна, дифференцируема и интегрируема.

Случайный процесс Х(t) называется непрерывным: почти, наверное, если

P(A)=1, A = {ω тВм Ω : lim x(tn) = x(t)}

В среднем квадратическом, если

Lim M[(X(tn) тАУ X(t))2] = 0

По вероятности, если

Aδ ≥ 0 : lim P[| X(tn) тАУ X(t)| > δ] = 0

Сходимость в среднем квадратическом обозначают также:

X(t) = lim X(tn)

Оказывается, из выборочной непрерывности следует непрерывность почти наверное, из непрерывности почти наверное и в среднем квадратическом следует непрерывность по вероятности.

Теорема. Если X(t) тАУ гильбертов случайный процесс, непрерывный в среднем квадратическом, то mx(t) тАУ непрерывная функция и имеет место соотношение

Lim M [X(tn)] = M [X(t)] = M [lim X(tn)].

Теорема. Гильбертов случайный процесс X(t) непрерывен в среднем квадратическом тогда и только тогда, когда непрерывна его ковариационная функция R(t, tтАЩ) в точке (t, t).

Гильбертов случайный процесс X(t) называется дифференцируемым в среднем квадратическом, если существует случайная функция X(t) = dX(t)/dt такая, что

X(t) = dX(t)/ dt = lim X(t+∆t) тАУ X(t) / ∆t

(t тВм T, t +∆t тВм T),

т.е. когда

Lim M [((X(t + ∆t) тАУ X(t) / (∆t)) тАУ X(t))2] = 0

Случайную функцию X(t) будем называть производной в среднем квадратическом случайного процесса X(t) соответственно в точке t или на T.

Теорема. Гильбертов случайный процесс X(t) дифференцируем в среднем квадратическом в точке t тогда и только тогда, когда существует

δ2 R(t, tтАЩ) / δtδtтАЩ в точке (t, tтАЩ). При этом:

Rx(t, tтАЩ) = M[X(t)X(tтАЩ)] = δ2 R(t, tтАЩ) / δtδtтАЩ.

Если гильбертов случайный процесс дифференцируем на Т, то его производная в среднем квадратическом также является гильбертовым случайным процессом; если выборочные траектории процесса дифференцируемы на Т с вероятностью 1, то с вероятностью 1 их производные совпадают с производными в среднем квадратическом на Т.

Теорема. Если X(t) - гильбертов случайный процесс, то

M[dX(t) / dt] = (d / dt) M[X(t)] = dmx(t) / dt.

Пусть (0, t) тАУ конечный интервал, 0 1 < тАж n = t тАУ его точки

X(t) - гильбертов случайный процесс.

Yn = ∑ X(ti)(ti тАУ ti-1) (n = 1,2, тАж).

Тогда случайная величина

Y(t) = lim Yn

max (ti тАУ ti-1)→0

Называется интегралом в среднем квадратическом процесса X(t) на (0, t) и обозначается:

Y(t) = ∫ X(τ)dτ.

Теорема. Интеграл Y(t) в среднем квадратическом существует тогда и только тогда, когда ковариационная функция R(t, tтАЩ) гильбертова процесса X(t) непрерывна на Т×Т и существует интеграл

Ry(t, tтАЩ) = ∫ ∫ R(τ, τтАЩ) dτdτтАЩ

Если интеграл в среднем квадратическом функции X(t) существует, то

M[Y(t)] = ∫ M[X(τ)]dτ,

RY(t, tтАЩ) = ∫ ∫ R(τ, τтАЩ)dτdτтАЩ

Ky(t, tтАЩ) = ∫ ∫ K(τ, τтАЩ)dτdτтАЩ

Здесь Ry(t, tтАЩ) = M[Y(t)Y(tтАЩ)], Ky(t, tтАЩ) = M[Y(t)Y(tтАЩ)] тАУ ковариационная и корреляционная функции случайного процесса Y(t).

Теорема. Пусть X(t) тАУ гильбертов случайный процесс с ковариационной функцией R(t, tтАЩ), φ(t) тАУ вещественная функция и существует интеграл

∫ ∫ φ(t)φ(tтАЩ)R(t, tтАЩ)dtdtтАЩ

Тогда существует в среднем квадратическом интеграл

∫ φ(t)X(t)dt.

Случайные процессы:

Xi(t) = Viφi(t) (i = 1n)

Где φi(t) тАУ заданные вещественные функции

Vi- случайные величины с характеристиками

M(VI = 0), D(VI) = DI, M(ViVj) = 0 (i ≠ j)

Называют элементарными.

Каноническим разложением случайного процесса X(t) называют его представление в виде

X(t) = mx(t) + ∑ Viφi(t) (t тВм T)

Где Vi тАУ коэффициенты, а φi(t) тАУ координатные функции канонического разложения процесса X(t).

Из отношений:

M(VI = 0), D(VI) = DI, M(ViVj) = 0 (i ≠ j)

X(t) = mx(t) + ∑ Viφi(t) (t тВм T)

Следует:

K(t, tтАЩ) = ∑ Diφi(t)φi(tтАЩ)

Эту формулу называют каноническим разложением корреляционной функции случайного процесса.

В случае уравнения

X(t) = mx(t) + ∑ Viφi(t) (t тВм T)

Имеют место формулы:

X(t) = mx(t) + ∑ Viφ(t)

∫ x(τ)dt = ∫ mx(τ)dτ + ∑ Vi ∫ φi(t)dt.

Таким образом, если процесс X(t) представлен его каноническим разложением, то производная и интеграл от него также могут быть представлены в виде канонических разложений.

Марковские случайные процессы с дискретными состояниями

Случайный процесс, протекающий в некоторой системе S с возможными состояниями S1, S2, S3, тАж, называется Марковским, или случайным процессом без последствия, если для любого момента времени t0 вероятные характеристики процесса в будущем (при t>t0) зависит только от его состояния в данный момент t0 и не зависят от того, когда и как система пришла в это состояние; т.е. не зависят от её поведения в прошлом (при t0).

Примером Марковского процесса: система S тАУ счётчик в такси. Состояние системы в момент t характеризуется числом километров (десятых долей километров), пройденных автомобилем до данного момента. Пусть в момент t0 счётчик показывает S0/ Вероятность того, что в момент t>t0 счётчик покажет то или иное число километров (точнее, соответствующее число рублей) S1 зависит от S0, но не зависит от того, в какие моменты времени изменились показания счётчика до момента t0.

Многие процессы можно приближенно считать Марковскими. Например, процесс игры в шахматы; система S тАУ группа шахматных фигур. Состояние системы характеризуется числом фигур противника, сохранившихся на доске в момент t0. Вероятность того, что в момент t>t0 материальный перевес будет на стороне одного из противников, зависит в первую очередь от того, в каком состоянии находится система в данный момент t0, а не от того, когда и в какой последовательности исчезли фигуры с доски до момента t0.

В ряде случаев предысторией рассматриваемых процессов можно просто пренебречь и применять для их изучения Марковские модели.

Марковским случайным процессом с дискретными состояниями и дискретным временем (или цепью Маркова) называется Марковский процесс, в котором его возможные состояния S1, S2, S3, тАж можно заранее перечислить, а переход из состояния в состояние происходит мгновенно (скачком), но только в определённые моменты времени t0, t1, t2, .., называемые шагами процесса.

Обозначим pij тАУ вероятность перехода случайного процесса (системы S) из состояния I в состояние j. Если эти вероятности не зависят от номера шага процесса, то такая цепь Маркова называется однородной.

Пусть число состояний системы конечно и равно m. Тогда её можно характеризовать матрицей перехода P1, которая содержит все вероятности перехода:

p11 p12 тАж p1m

p21 p22 тАж p2m

тАж тАж тАж тАж

Pm1 pm2 тАж pmm

Естественно, по каждой строке ∑ pij = 1, I = 1, 2, тАж, m.

Обозначим pij(n) тАУ вероятностью того, что в результате n шагов система перейдёт из состояния I в состояние j. При этом при I = 1 имеем вероятности перехода, образующие матрицу P1, т.е. pij(1) = pij

Необходимо, зная вероятности перехода pij, найти pij(n) тАУ вероятности перехода системы из состояния I в состояние j за n шагов. С этой целью будем рассматривать промежуточное (между I и j) состояние r, т.е. будем считать, что из первоначального состояния I за k шагов система перейдёт в промежуточное состояние r с вероятностью pir(k), после чего за оставшиеся n-k шагов из промежуточного состояния r она перейдёт в конечное состояние j с вероятностью prj(n-k). Тогда по формуле полной вероятности

Pij(n) = ∑ pir (k) prj (n-k) тАУ равенство Маркова.

Убедимся в том, что, зная все вероятности перехода pij = pij(1), т.е. матрицу P1 перехода из состояния в состояние за один шаг, можно найти вероятность pij(2), т.е. матрицу P2 перехода из состояния в состояние за два шага. А зная матрицу P2, - найти матрицу P3 перехода из состояния в состояние за три шага, и т.д.

Действительно, полагая n = 2 в формуле Pij(n) = ∑ pir (k) prj (n-k), т.е. k=1 (промежуточное между шагами состояние), получим

Pij(2) = ∑ pir(1)prj (2-1) = ∑ pir prj

Полученное равенство означает, что P2 =P1P1 = P21

Полагая n = 3, k = 2, аналогично получим P3 = P1P2 = P1P12 = P13, а в общем случае Pn= P1n

Пример

Совокупность семей некоторого региона можно разделить на три группы:

1. семьи, не имеющие автомобиля и не собирающиеся его покупать;

2. семьи, не имеющие автомобиля, но намеревающиеся его приобрести;

3. семьи, имеющие автомобиль.

Проведённое статистическое обследование показало, что матрица перехода за интервал в один год имеет вид:

0,8 0,1 0,1

0 0,7 0,3

0 0 1

(В матрице P1 элемент р31 = 1 означает вероятность того, что семья, имеющая автомобиль, также будет его иметь, а, например, элемент р23 = 0,3 тАУ вероятность того, что семья, не имевшая автомобиля, но решившая его приобрести, осуществит своё намерение в следующем году, и т.д.)

Найти вероятность того, что:

1. семья, не имевшая автомобиля и е собиравшаяся его приобрести, будет находиться в такой же ситуации через два года;

2. семья, не имевшая автомобиля, но намеревающаяся его приобрести, будет иметь автомобиль через два года.

РЕШЕНИЕ: найдём матрицу перехода Р2 через два года:

0,8 0,1 0,1 0,8 0,1 0,1 0,64 0,15 0,21

0 0,7 0,3 0 0,7 0,3 0 0,49 0,51

0 0 1 0 0 1 0 0 1

То есть искомые в примере 1) и 2) вероятности равны соответственно

р11 =0,64, р23 =0,51

Далее рассмотрим Марковский случайный процесс с дискретными состояниями и непрерывным временем, в котором, в отличие от рассмотренной выше цепи Маркова, моменты возможных переходов системы из состояния не фиксированы заранее, а случайны.

При анализе случайных процессов с дискретными состояниями удобно пользоваться геометрической схемой тАУ так называемым графиком событий. Обычно состояния системы изображаются прямоугольниками (кружками), а возможные переходы из состояния в состояние тАУ стрелками (ориентированными дугами), соединяющими состояния.

Пример. Построить граф состояний следующего случайного процесса: устройство S состоит из двух узлов, каждый из которых в случайный момент времени может выйти из строя, после чего мгновенно начинается ремонт узла, продолжающийся заранее неизвестное случайное время.

РЕШЕНИЕ. Возможные состояния системы: S0 тАУ оба узла исправны; S1 тАУ первый узел ремонтируется, второй исправен; S2 тАУ второй узел ремонтируется, первый исправен; S3 тАУ оба узла ремонтируются.

Стрелка, направления, например, из S0 в S1, означает переход системы в момент отказ первого узла, из S1 в S0 тАУ переход в момент окончания ремонта этого узла.

На графе отсутствуют стрелки из S0 в S3 и из S1 в S2. Это объясняется тем, что выходы узлов из строя предполагается независимыми друг от друга и, например, вероятностями одновременного выхода из строя двух узлов (переход из S0 в S3) или одновременного окончания ремонтов двух узлов (переход из S3 в S0) можно пренебречь.

Стационарные случайные процессы

Случайный процесс Х(t) называют стационарным в узком смысле, если

F(x1, тАж, xn; t1, тАж, tn) = F(x1, тАж, xn; t1+∆, тАж, tn+∆)

При произвольных

n≥1, x1, тАж, xn, t1, тАж, tn; ∆; t1 тВм T, ti + ∆ тВм T.

Здесь F(x1, тАж, xn; t1, тАж, tn) тАУ n-мерная функция распределения случайного процесса Х(t).

Случайный процесс Х(t) называют стационарным в широком смысле, если

m(t) = m(t + ∆), K(t, tтАЩ) = K(t + ∆, tтАЩ + ∆)

(t тВм T, tтАЩ тВм T, t + ∆тВм T), tтАЩ + ∆тВм T)

Очевидно, что из стационарности в узком смысле следует стационарность в широком смысле.

Из формул:

m(t) = m(t + ∆), K(t, tтАЩ) = K(t + ∆, tтАЩ + ∆)

(t тВм T, tтАЩ тВм T, t + ∆тВм T), tтАЩ + ∆тВм T)

Следует, что для процесса, стационарного в широком смысле, можно записать

m (t) = mx(0) = const;

D (t) = K(t, t) = K(0,0) = const;

K(t, tтАЩ) = K(t тАУ tтАЩ, 0) = K (0, tтАЩ - t)

Таким образом, для процесса, стационарного в широком смысле, математическое ожидание и дисперсия не зависят от времени, а K(t, tтАЩ) представляет собою функцию вида:

K(t, tтАЩ) = k(τ) = k(-τ), τ = tтАЩ тАУ t.

Видно, что k(τ) тАУ чётная функция, при этом

K(0) = В = σ2; |k(τ)| ≤ k(0); ∑ ∑ άiαjk(ti - tj) ≥ 0

Здесь D тАУ дисперсия стационарного процесса

Х(t), αi (I = 1, n) тАУ произвольные числа.

Первое равенство системы

K(0) = В = σ2; |k(τ)| ≤ k(0); ∑ ∑ άiαjk(ti - tj) ≥ 0

следует из уравнения K(t, tтАЩ) = k(τ) = k(-τ), τ = tтАЩ тАУ t. Первое равенство

K(0) = В = σ2; |k(τ)| ≤ k(0); ∑ ∑ άiαjk(ti - tj) ≥ 0 - простое следствие неравенства Шварца для сечений X(t), X(tтАЩ) стационарного случайного процесса X(t). Последнее неравенство:

K(0) = В = σ2; |k(τ)| ≤ k(0); ∑ ∑ άiαjk(ti - tj) ≥ 0

Получают следующим образом:

∑ ∑ αi αjk(ti - tj) = ∑ ∑ K(ti, tji αj = ∑ ∑ M[(αiXi)(αjXj)] = M[(∑ αiXi)2] ≥0

Учитывая формулу корреляционной функции производной dX(t)/dt случайного процесса, для стационарной случайной функции X(t) получим

K1(t, tтАЩ) = M[(dX(t)/dt)*(dX(tтАЩ)/dtтАЩ)] = δ2K(t, tтАЩ) / δtδtтАЩ = δ2k(tтАЩ - t) / δtδtтАЩ

Поскольку

δk(tтАЩ - t) / δt = (δk(τ) / δτ) * (δτ / δτ) = - δk(τ) / δτ,

δ2k(tтАЩ - t) / δtδtтАЩ = - (δ2 k(τ) / δτ2) * (δτ / δtтАЩ) = - (δ2 k(τ) / δτ2)

то K1(t, tтАЩ) = k1(τ) = - (δ2 k(τ) / δτ2), τ = tтАЩ тАУ t.

Здесь K1(t, tтАЩ) и k1(τ) тАУ корреляционная функция первой производной стационарного случайного процесса X(t).

Для n-й производной стационарного случайного процесса формула корреляционной функции имеет вид:

Kn(τ) = (-1)n * (δ2n *k(τ) / δτ2n)

Теорема.Стационарный случайный процесс X(t) с корреляционной функцией k(τ) непрерывен в среднем квадратическом в точке t тВм T тогда и только тогда, когда

Lim k(τ) = k(0)

Для доказательства запишем очевидную цепочку равенств:

M [|X(t+τ)-X(T)|2] = M[|X(t)|2] тАУ 2M[|X(t+τ)X(t)|] + M[X(t)2] =

= 2D-2k(τ) = 2[k(0)-k(τ)].

Отсюда очевидно, что условие непрерывности в среднем квадратическом процесса X(t) в точке t тВм T

Lim M[|X(t+τ) тАУ X(t)|2] = 0

Имеет место тогда и только тогда, когда выполняется Lim k(τ) = k(0)

Теорема. Если корреляционная функция k(τ) стационарного случайного процесса X(t) непрерывна в среднем квадратическом в точке τ=0, то она непрерывна в среднем квадратическом в любой точке τ тВм R1.

Для доказательства запишем очевидные равенства:

k(τ+∆τ)-k(τ) = M[X(t+τ+∆τ)X(t)] тАУ M[X(t+τ)X(t)] =

= M{X(t)[X(t+τ+∆τ) тАУ X(t+τ)]}

Затем, применяя неравенство Шварца к сомножителям в фигурной скобке и учитывая соотношения:

K(t, tтАЩ) = k(τ) = k(-τ), τ = tтАЩ тАУ t.

K(0) = В = σ2; |k(τ)| ≤ k(0); ∑ ∑ άiαjk(ti - tj) ≥ 0

Получим:

0 ≤ [k(τ+∆τ)-k(τ)]2≤ M[X(t)2]M[|X(t+τ+∆τ)-X(t+τ)|2] =

= 2D[D-k(∆τ)].

Переходя к пределу при ∆τ→0 и принимая во внимание условие теоремы о непрерывности k(τ) в точке τ=0, а также первое равенство системы

K(0) = В = σ2 , найдём

Lim k(τ+∆τ) = k(τ)

Поскольку здесь τ тАУ произвольное число, теорему следует считать доказанной.

Эргодическое свойство стационарных случайных процессов

Пусть Х(t) - стационарный случайный процесс на отрезке времени [0,T] с характеристиками

M[X(t)] = 0, K(t, tтАЩ) = M[X(t)X(tтАЩ)] = k(τ),

τ = tтАЩ тАУ t, (t, tтАЩ) тВм T×T.

Эргодическое свойство стационарного случайного процесса заключается в том, что по достаточно длительной реализации процесса можно судить о его математическом ожидании, дисперсии, корреляционной функции.

Более строго стационарный случайный процесс Х(t) будем называть эргодическим по математическому ожиданию, если

Lim M {|(1 / T)∫ X(t)dt|2} = 0

Теорема

Стационарный случайный процесс Х(t) с характеристиками:

M[X(t)] = 0, K(t, tтАЩ) = M[X(t)X(tтАЩ)] = k(τ),

τ = tтАЩ тАУ t, (t, tтАЩ) тВм T×T

является эргодическим по математическому ожиданию тогда и только тогда, когда

Lim (2 / T) ∫ k(τ) (1 тАУ τ/t)dτ = 0.

Для доказательства, очевидно, достаточно убедиться, что справедливо равенство

M{(1 / T) ∫X(t)dt|2} = (2 / T) ∫ k(τ) (1 тАУ τ/t)dτ

Запишем очевидные соотношения

C = M {|(1 / T) ) ∫X(t)dt|2} = (1 / T2) ∫ ∫ k(tтАЩ - t)dtтАЩdt = (1/T) ∫ dt ∫ k(tтАЩ - t)dtтАЩ.

Полагая здесь τ = tтАЩ тАУ t, dτ = dtтАЩ и учитывая условия (tтАЩ = T) → (τ = T - t),

(tтАЩ = 0)→(τ = -t), получим

С = (1/T2) ∫ dt ∫ k(τ)dτ = (1/T2) ∫ dt ∫ k(τ)dτ + (1/T2) ∫ dt ∫ k(τ)dτ =

= -(1/T2) ∫ dt ∫ k(τ)dτ - (1/T2) ∫ dt ∫ k(τ)dτ

Полагая в первом и втором слагаемых правой части этого равенства соответственно τ = -τтАЩ, dτ = -dτтАЩ, τ = T-τтАЩ, dτ = -dτтАЩ, найдем

С = (1/T2) ∫ dt ∫ k(τ)dτ + (1/T2) ∫ dt ∫ k(T - τ)dτ

Применяя формулу Дирихле для двойных интегралов, запишем

С = (1/T2) ∫ dt ∫ k(τ)dτ + (1/T2) ∫ dt ∫ k(T - τ)dτ = (1/T2) ∫ (T - τ) k(τ)dτ + (1/T2) ∫ τk (T тАУ τ)dτ

Во втором слагаемом правой части можно положить τтАЩ = T-τ, dτ = -dτтАЩ, после чего будем иметь

С = (1/Т2) ∫ (Т - τ) k(τ)dτ тАУ (1/T2) ∫ (T - τ) k(τ)dτ = 2/T ∫ (1- (τ/T)) k(τ)dτ

Отсюда и из определения констант видно, что равенство

M{(1 / T) ∫X(t)dt|2} = (2 / T) ∫ k(τ) (1 тАУ τ/t)dτ

Справедливо.

Теорема

Если корреляционная функция k(τ) стационарного случайного процесса X(t) удовлетворяет условию

Lim (1/T) ∫ |k(τ)| dt = 0

То X(t) является эргодическим по математическому ожиданию.

Действительно, учитывая соотношение

M{(1 / T) ∫X(t)dt|2} = (2 / T) ∫ k(τ) (1 тАУ τ/t)dτ

Можно записать

0 ≤ (2/Т) ∫ (1 тАУ τ/t) k(τ)dτ ≤ (2/T) ∫ (1- τ/t) |k(τ)|dτ ≤ (1/T) ∫ |k(τ)|dτ

Отсюда видно, что если выполнено условие, то

Lim (2/T) ∫ (1 тАУ τ/T) k(τ)dτ = 0

Теперь, принимая во внимание равенство

С = (1/Т2) ∫ (Т - τ) k(τ)dτ тАУ (1/T2) ∫ (T - τ) k(τ)dτ = 2/T ∫ (1- (τ/T)) k(τ)dτ

И условие Lim M {|(1 / T)∫ X(t)dt|2} = 0

Эргодичности по математическому ожиданию стационарного случайного процесса X(t), находим, что требуемое доказано.

Теорема.

Если корреляционная функция k(τ) стационарного случайного процесса

X(t) интегрируема и неограниченно убывает при τ → ∞, т.е. выполняется условие

При произвольном ε > 0, то X(t) тАУ эргодический по математическому ожиданию стационарный случайный процесс.

Действительно, учитывая выражение

Для Т≥Т0 имеем

(1/T) ∫ |k(τ)|dτ = (1/T)[ ∫ |k(τ)|dτ + ∫ |k(τ)|dτ ≤ (1/T) ∫ |k(τ)|dτ ε(1 тАУ T1/T).

Переходя к пределу при Т → ∞, найдём

0 ≤ lim ∫ |k(τ)|dτ = ε.

Поскольку здесь ε > 0 тАУ произвольная, сколько угодно малая величина, то выполняется условие эргодичности по математическому ожиданию. Поскольку это следует из условия

О неограниченном убывании k(τ), то теорему следует считать доказанной.

Доказанные теоремы устанавливают конструктивные признаки эргодичности стационарных случайных процессов.

Пусть

X(t) = m + X(t), m=const.

Тогда M[X(T)] = m, и если X(t) - эргодический стационарный случайный процесс, то условие эргодичности Lim M {|(1 / T)∫ X(t)dt|2} = 0 после несложных преобразований можно представить в виде

Lim M{[(1/T) ∫ X(t)dt тАУ m]2} = 0

Отсюда следует, что если X(t) тАУ эргодический по математическому ожиданию стационарный случайный процесс, то математическое ожидание процесса X(t) = m + X(t) приближенно может быть вычислено по формуле

M = (1/T) ∫ x(t)dt

Здесь Т тАУ достаточно длительный промежуток времени;

x(t) тАУ реализация процесса X(t) на отрезке времени [0, Т].

Можно рассматривать эргодичность стационарного случайного процесса X(t) по корреляционной функции.

Стационарный случайный процесс X(t) называется эргодическим по корреляционной функции, если

Lim M {[ (1/T) ∫ X(t) X(t + τ)dt тАУ k(τ)]2]} = 0

Отсюда следует, что для эргодического по корреляционной функции стационарного случайного процесса X(t) можно положить

k (τ) = (1/T) ∫ x(t)x(t + τ)dt

при достаточно большом Т.

Оказывается, условие

ограниченности k(τ) достаточно для эргодичности по корреляционной функции стационарного нормально распределенного процесса X(t).

Заметим, случайный процесс называется нормально распределённым, если любая его конечномерная функция распределения является нормальной.

Необходимым и достаточным условием эргодичности стационарного нормально распределенного случайного процесса является соотношение

τ0 : lim (1/T) ∫ [k(τ)2 + k(τ + τ0) k(τ тАУ τ0)] (1 тАУ τ/T)dτ = 0


Литература

1. Н.Ш. Кремер ВлТеория вероятностей и математическая статистикаВ» / ЮНИТИ / Москва 2007.

2. Ю.В. Кожевников ВлТеория вероятностей и математическая статистикаВ» /Машиностроение/ Москва 2002.

3. Б.В. Гнеденко ВлКурс теории вероятностейВ» /Главная редакция физико-математической литературы/ Москва 1988.

Вместе с этим смотрят:


10 способов решения квадратных уравнений


РЖнварiантнi пiдпростори. Власнi вектори i власнi значення лiнiйного оператора


РЖнтегральнi характеристики векторних полiв


РЖнтерполювання функцiй


Автокорреляционная функция. Примеры расчётов