9. случайные процессы и сигналы

Остальные рефераты » 9. случайные процессы и сигналы

СИГНАЛЫиЛИНЕЙНЫЕСИСТЕМЫ

Signals and linear systems. Casual processes and signals

Тема 9. СЛУЧАЙНЫЕ ПРОЦЕССЫ И СИГНАЛЫ

Нет ничего более противного разуму и постоянству природы чем случайность. Сам бог не может знать того что произойдет случайно. Ибо если знает то это определенно произойдет а если определенно произойдет то не случайно.

Марк Туллий Цицерон. Римский философ и политик I в.д.н.э.


Случайность противна разуму но не природе. Для проверки теории случайных процессов боги и создали мир. Швыряться яблоками они уже перестали со времен Ньютона здесь ничего нового не наблюдалось. Но арбузные корки продолжают подсовывать - фиксируется непредсказуемая и зачастую очень даже интересная реакция.

Рудольф Гавшин. Уральский геофизик ХХ в.

Содержание

Введение.

1. Случайные процессы и функции. Случайный процесс. Функциональные характеристики случайного процесса. Одномерная функция распределения вероятностей. Одномерная плотность вероятностей. Функции математического ожидания дисперсии среднего квадратического отклонения. Двумерная плотность распределения вероятностей. Корреляционные и ковариационные функции случайных процессов. Свойства функций автоковариации и автокорреляции. Взаимные моменты случайных процессов. Статистическая независимость случайных процессов. Классификация случайных процессов. Эргодические процессы.

2. Функции спектральной плотности. Каноническое разложение случайных функций. Комплексные случайные функции. Финитное преобразование Фурье. Спектры мощности случайных функций. Теорема Винера-Хинчина. Спектр ковариационных функций. Взаимные спектральные функции. Эффективная ширина спектра мощности. Соотношение неопределенности.

3. Преобразования случайных функций. Системы преобразования случайных функций. Связь выходных статистических функций с входными. Математическое ожидание выходного сигнала. Корреляционная функция выходного сигнала. Функция взаимной корреляции входного и выходного сигналов. Спектральные соотношения. Дисперсия выходного сигнала. Функция когерентности. Преобразования случайных функций. Преобразования стационарных случайных функций.

4. Модели случайных сигналов и помех. Телеграфный сигнал. Белый шум. Гауссовый шум. Гауссовые случайные процессы.

Введение.

Наряду с полезными информационными составляющими в реальных сигналах присутствуют помехи и шумы. К помехам обычно относят сигналы от других посторонних источников "наводки" аппаратуры влияние дестабилизирующих факторов на основной сигнал и т.п. Физическая природа помех как правило не случайна и после соответствующего изучения может переводиться в разряд детерминированной помехи или исключаться из сигнала. К шумам относят случайные флуктуации сигнала обусловленные природой его источника или устройств детектирования и формирования сигнала. При неизвестной природе помех они также могут относиться к числу случайных если имеют случайное вероятностное распределение с нулевым средним значением и дельта-подобную функцию автокорреляции.

Теория вероятностей рассматривает случайные величины и их характеристики в "статике". Задачи описания и изучения случайных сигналов "в динамике" как отображения случайных явлений развивающихся во времени или по любой другой переменной решает теория случайных процессов.

В качестве универсальной координаты для распределения случайных величин по независимой переменной будем использовать как правило переменную "t" и трактовать ее чисто для удобства как временную координату. Распределения случайных величин во времени а равно и сигналов их отображающих в любой математической форме обычно называют случайными (или стохастическими) процессами. В технической литературе термины "случайный сигнал" и "случайный процесс" используются как синонимы.

В отличие от детерминированных сигналов значения случайных сигналов в произвольные моменты времени не могут быть вычислены. Они могут быть только предсказаны в определенном диапазоне значений с определенной вероятностью меньшей единицы. Количественные характеристики случайных сигналов позволяющие производить их оценку и сравнение называют статистическими.

В процессе обработки и анализа физико-технических данных обычно приходится иметь дело с тремя типами сигналов описываемых методами статистики. Во-первых это информационные сигналы отображающие физические процессы вероятностные по своей природе как например акты регистрации частиц ионизирующих излучения при распаде радионуклидов. Во-вторых информационные сигналы зависимые от определенных параметров физических процессов или объектов значения которых заранее неизвестны и которые обычно подлежать определению по данным информационным сигналам. И в-третьих это шумы и помехи хаотически изменяющиеся во времени которые сопутствуют информационным сигналам но как правило статистически независимы от них как по своим значениям так и по изменениям во времени. При обработке таких сигналов обычно ставятся задачи:

обнаружение полезного сигнала

оценка параметров сигнала

выделение информационной части сигнала (очистка сигнала от шумов и помех)

предсказание поведения сигнала на некотором последующем интервале (экстраполяция).

9.1. Случайные процессы и функции [1 2 25].

Случайный процесс описывается статистическими характеристиками называемыми моментами. Важнейшими характеристиками случайного процесса являются его стационарность эргодичность и спектр мощности.

Случайный процесс в его математическом описании Х(t) представляет собой функцию которая отличается тем что ее значения (действительные или комплексные) в произвольные моменты времени по координате t являются случайными. Строго с теоретических позиций случайный процесс X(t) следует рассматривать как совокупность временных функций xk(t) имеющих определенную общую статистическую закономерность. При регистрации случайного процесса на определенном временном интервале осуществляется фиксирование единичной реализации xk(t) из бесчисленного числа возможных реализаций процесса X(t). Эта единичная реализация называется выборочной функцией случайного процесса X(t). Отдельная выборочная функция не характеризует процесс в целом но при определенных условиях по ней могут быть выполнены оценки статистических характеристик процесса. Примеры выборочных функций модельного случайного процесса X(t) приведены на рис. 9.1.1. В дальнейшем при рассмотрении различных параметров и характеристик случайных процессов для сопровождающих примеров будем использовать данную модель процесса.

Рис. 9.1.1. Выборочные функции случайного процесса.

Функциональные характеристики случайного процесса.

Рис. 9.1.2. Сечения случайного процесса X(t).

С практической точки зрения выборочная функция является результатом отдельного эксперимента после которого данную реализацию xk(t) можно считать детерминированной функцией. Сам случайный процесс в целом должен анализироваться с позиции бесконечной совокупности таких реализаций образующих статистический ансамбль. Полной статистической характеристикой процесса является N-мерная плотность вероятностей р(xn; tn). Однако как экспериментальное определение N-мерных плотностей вероятностей процессов так и их использование в математическом анализе представляет значительные математические трудности. Поэтому на практике обычно ограничиваются одно- и двумерной плотностью вероятностей процессов.

Допустим что случайный процесс X(t) задан ансамблем реализаций {x1(t) x2(t) … xk(t) …}. В произвольный момент времени t1 зафиксируем значения всех реализаций {x1(t1) x2(t1) … xk(t1) …}. Совокупность этих значений представляет собой случайную величину X(t1) и является одномерным сечением случайного процесса X(t). Примеры сечений случайного процесса X(t) по 100 выборкам xk(t) (рис. 9.1.1) в точках t1 и t2 приведены на рис. 9.1.2.

Одномерная функция распределения вероятностей F(x ti) определяет вероятность того что в момент времени ti значение случайной величины X(ti) не превысит значения x:

F(x ti) = P{X(ti)≤x}.

Очевидно что в диапазоне значений вероятностей от 0 до 1 функция F(x t) является неубывающей с предельными значениями F(- t)=0 и F( t)=1. При известной функции F(x t) вероятность того что значение X(ti) в выборках будет попадать в определенный интервал значений [a b] определяется выражением:

P{a<X(ti)≤b} = F(b ti) – F(a ti).

Одномерная плотность распределения вероятностей p(x t) случайного процесса Х(t) определяет вероятность того что случайная величина x(t) лежит в интервале {x ≤ x(t) ≤ x+dx}. Она характеризует распределение вероятностей реализации случайной величины Х(ti) в произвольный момент времени ti и представляет собой производную от функции распределения вероятностей:

p(x ti) = dF(x ti)/dx. (9.1.1)

Моменты времени ti являются сечениями случайного процесса X(t) по пространству возможных состояний и плотность вероятностей p(x ti) представляет собой плотность вероятностей случайных величин X(ti) данных сечений. Произведение p(x ti)dx равно вероятности реализации случайной величины X(ti) в бесконечно малом интервале dx в окрестности значения x откуда следует что плотность вероятностей также является неотрицательной величиной.

Рис. 9.1.3. Распределение вероятностей и плотность вероятностей сечения случайного процесса

На рис. 9.1.3 приведены примеры распределения вероятностей и плотности вероятностей сечения случайного процесса X(t) в точке t1 (рис. 9.1.1). Функции вероятностей определены по N=1000 выборок дискретной модели случайного процесса и сопоставлены с теоретическими распределениями при N  .

При известной функции плотности вероятностей вероятность реализации значения X(ti) в произвольном интервале значений [a b] вычисляется по формуле:

P(a<X(ti)≤b) =p(x ti) dx.

Функция плотности вероятностей должна быть нормирована к 1 т.к. случайная величина обязана принимать какое-либо значение из числа возможных образующих полное пространство случайных величин:

p(x ti) dx =1.

Плотность распределения вероятностей соответственно определяет функцию распределения вероятностей:

F(x ti) =p(x ti) dx.

По известной плотности распределения вероятностей могут быть вычислены функции моментов случайного процесса которые представляют собой математические ожидания соответствующих степеней (порядка) значений случайного процесса (начальные моменты) и значений флюктуационных составляющих процесса (центральные моменты моменты относительно центров распределения случайных величин):

M{xn(t)} =xn(t) p(x t) dx

M0{xn(t)} = M{[x(t)-M{x(t)}]n} =[(x(t)- M{x(t)}]n p(x t) dx

Функции моментов являются основными статистическими характеристиками случайного процесса. Они представляют собой неслучайные функции но полностью и однозначно определяют случайный процесс как и плотность распределения вероятностей при определенном количестве порядков в зависимости от характера процесса. Минимальное число порядков которое полностью определяет гауссово распределение плотности вероятностей равно 2.

В практике анализа случайных процессов используются в основном начальные моменты первого порядка и центральные моменты второго порядка.

Математическое ожидание(mean value) является первым начальным моментом случайного процесса и представляет собой статистическое усреднение случайной величины X(ti) в каком либо фиксированном сечении ti случайного процесса. Соответственно полная функция математического ожидания является теоретической оценкой среднего взвешенного значения случайного процесса по временной оси:

mx(t)  M{Х(t)} =x p(x; t) dx (9.1.2)

Математическое ожидание mx(t) представляет собой неслучайную составляющую случайного процесса X(t). На рис. 9.1.1. и 9.1.2 неслучайные составляющие m(t) модели случайного процесса X(t) выделены пунктиром и соответствуют выборкам N  .

Второй начальный момент случайного процесса определяет его среднюю мощность:

wx(t)  M{Х2(t)} =x2 p(x; t) dx (9.1.3)

Функциядисперсии (variance function of a dispersion) случайного процесса. При анализе случайных процессов особый интерес представляет флуктуационная составляющая процесса которая определяется разностью Х(t)-mx(t). Функция дисперсии является теоретической оценкой среднего взвешенного значения разности Х(t)-mx(t)2 т.е. является вторым центральным моментом процесса и определяет мощность его флуктуационной составляющей:

Dx(t) = M{[Х(t)-mx(t)]2} = M{X2(t)} - mx2(t) =[xo(t)]2 p(x; t) dx (9.1.4)

где xo(t) = x(t)-mx(t).

Функция среднего квадратического отклонения (standard deviation) служит амплитудной мерой разброса значений случайного процесса по временной оси относительно математического ожидания процесса:

x(t) =. (9.1.5)

Рис. 9.1.4.

Учитывая последнее выражение дисперсия случайной величины обычно обозначается индексом 2.

На рис. 9.1.4 приведен пример флюктуационной составляющей процесса X(t) (рис. 9.1.1) в одной из реализаций в сопоставлении со средним квадратическим отклонением ± случайных величин от математического ожидания m(t).

Одномерные законы плотности распределения вероятностей случайных процессов не несут каких-либо характеристик связи между значениями случайных величин для различных значений аргументов.

Двумерная плотность распределения вероятностей p(x1 t1; x2 t2) определяет вероятность совместной реализации значений случайных величин Х(t1) и Х(t2) в произвольные моменты времени t1 и t2 что характеризует взаимосвязь случайного процесса в различные моменты времени и дает возможность определить характер изменения случайного процесса т.е. динамику развития процесса во времени. Распределение описывает двумерную случайную величину {X(ti) X(tj)} в виде функции вероятности реализации случайной величины X(ti) в бесконечно малом интервале dxi в окрестностях xi в момент времени ti при условии что в момент времени tj значение X(tj) будет реализовано в бесконечно малом интервале dxj в окрестностях xj:

p(x1 t1; x2 t2) = P{x1 ≤ x(t1) ≤ x1+dx1  x2 ≤ x(t2) ≤ x2+dx2 }.

С помощью двумерной плотности распределения вероятностей можно определить корреляционные функции процесса.

Корреляционные функции случайных процессов. Характеристикой динамики изменения случайной величины X(ti) является корреляционная функция которая описывает случайный процесс в целом:

RX(ti tj) = M{X(t1) X(t2)}.

Корреляционная функция представляет собой статистически усредненное произведение значений случайного процесса X(t) в моменты времени ti и tj по всем значениям временных осей ti и tj а следовательно тоже является двумерной функцией. В терминах теории вероятностей корреляционная функция является вторым начальным моментом случайного процесса.

На рис. 9.1.5 приведены примеры реализаций двух случайных процессов которые характеризуются одной и той же функцией математического ожидания и дисперсии.

Рис. 9.1.5.

На рисунке видно что хотя пространство состояний обоих процессов практически одно и то же динамика развития процессов в реализациях существенно различается. Единичные реализации коррелированных процессов в произвольный момент времени могут быть такими же случайными как и некоррелированных а в пределе во всех сечениях оба процесса могут иметь один и тот же закон распределения случайных величин. Однако динамика развития по координате t (или любой другой независимой переменной) единичной реализации коррелированного процесса по сравнению с некоррелированным является более плавной а следовательно в коррелированном процессе имеется определенная связь между последовательными значениями случайных величин. Оценка степени статистической зависимости мгновенных значений какого-либо процесса Х(t) в произвольные моменты времени t1 и t2 и производится функцией корреляции. По всему пространству значений случайного процесса X(t) корреляционная функция определяется выражением:

RX(ti tj) =x(ti)x(tj) p(xi tj; xi tj) dxi dxj (9.1.6)

При анализе случайных процессов второй момент времени tj удобно задавать величиной сдвига  относительно первого момента который при этом может быть задан в виде координатной переменной:

RX(t t+) = M{Х(t)Х(t+)}. (9.1.7)

Функция задаваемая этим выражением обычно называется автокорреляционной функцией случайного процесса.

Ковариационные функции. Частным случаем корреляционной функции является функция автоковариации (ФАК) которая широко используется при анализе сигналов. Она представляет собой статистически усредненное произведение значений центрированной случайной функции X(t)-mx(t) в моменты времени ti и tj и характеризует флюктуационную составляющую процесса:

KХ(ti tj) =(x(ti)-mx(ti)) (x(tj)-mx(tj)) p(xi tj; xi tj) dxi dxj (9.1.8)

В терминах теории вероятностей ковариационная функция является вторым центральным моментом случайного процесса. Для центрированных случайных процессов ФАК тождественна функции автокорреляции. При произвольных значениях mx ковариационные и корреляционные функции связаны соотношением:

KX(t t+) = RX(t t+) - mx2(t).

Нормированная функция автоковариации (функция корреляционных коэффициентов):

Х(t t+) = KX(t t+)/[(t)(t+)]. (9.1.9)

Функция корреляционных коэффициентов может принимать значения от +1 (полная статистическая корреляция случайных процессов на интервалах t и t+) до -1 (полная статистическая противоположность процессов на этих интервалах). Попутно отметим что в математической статистике а также довольно часто и в технической литературе эту функцию называют функцией корреляции. При = 0 значение Х равно 1 а ФАК вырождается в дисперсию случайного процесса:

KX(t) = DX(t).

Отсюда следует что для случайных процессов и функций основными характеристиками являются функции математического ожидания и корреляции (ковариации). Особой необходимости в отдельной функции дисперсии не имеется.

Рис. 9.1.7. Реализации и ковариационные функции случайных процессов.

Примеры реализаций двух различных случайных процессов и их нормированных ковариационных функций приведены на рис. 9.1.7.

Свойства функций автоковариации и автокорреляции.

1. Максимум функций наблюдается при = 0. Это очевидно т.к. при = 0 вычисляется степень связи отсчетов с собой же которая не может быть меньше связи разных отсчетов. Значение максимума функции корреляции равно средней мощности сигнала.

Страницы: 1 2 3 4