![]() | |
НПО Системы Безопасности (499)340-94-73 График работы: ПН-ПТ: 10:00-19:00 СБ-ВС: выходной ![]() ![]() |
Главная » Периодика » Безопасность 0 ... 6789101112 ... 262 X,-b/,i\X....n, (2.1.59) где - элементы обратной матрицы А". Якобиан этого преобразования ./=l/detA. Следовательно, п п " 1 (2.1.60) 2.1.3. Статистическое усреднение случайных величин Усреднение играет важную роль для характеристики результатов эксперимента и случайных величин, определенных на выборочном пространстве эксперимента. В частности, представляют интерес первый и второй моменты одной случайной величины и совместные моменты, такие как корреляция и ковариация между парой случайных величин в многомерном ряде случайных величин. Также большой интерес представляет характеристическая функция случайной величины и совместные характеристические функции для многомерного ряда случайных величин. Этот раздел посвящается определению этих важных статистических средних Сначала мы рассмотрим случайную величину X, характеризуемую ФПВ р{х). Математическое оэ/сидаиие от X определяется как е(х) = W, = г xp{x)dx, (2.1.61) где £() означает математическое ожидание (статистическое усреднение). Это первый момент случайной величины X. В общем, п-и момент определяется как E{x")=fj"pix)chc. (2.1.62) Теперь предположим, что мы определяем случайную величину Y - g{X), где g(X) -некоторая произвольная функция от случайной величины X. Математическое ожидание У определяется как е{у) = E\gix)] Г g{x)p{x)dx (2.1.63) В частности, если Y -{х- mj)", где т.у - математическое ожидание X, то E{Y) = E[{X-myyf{x-mj"p{x)dx. (2.1.64) Это математическое ожидание названо н-м щептральиым моментом случайной величины X, так как это момент, взятый относительно среднего. Если = 2, центральный момент называется дисперсией случайной величины и обозначается . Таким образом, = f" - "х У P{)dx. (2 165) J-оо Этот параметр является мерой рассеяния случайной величины X Раскрывая выражение {х-тУъ интеграле (2.165) и учитывая, что математическое ожидание от константы равно константе, получим выражение, которое определяет дисперсию через первый и второй моменты: . = е{х)- [е{х)\- = е{х)- ml. (2.1.66) Для случая двух случайных величин х\ п х2 с СФПВ р{х\, х- мы определяем совместный момент как е{х1х;) - f" f" xxlpix,, x;)dx,dx, . (2.1.67) и совместный гентральный момент как 38 (2.1.68) E[(X,-mJ{X,-m,y = f Г (1 ~ "\ у (2 ~ )" P{1 2 )<1 2 J-CO J-CO " где m,=E(X,) С точки зрения приложений важное значение имеет совместный момент и совместный центральный момент, когда к = п = \. Эти совместные моменты называют корреляуией и ковариациеи случайных величин Х\ и Хг. При рассмотрении многомерных случайных величин мы можем определять совместные моменты произвольного порядка. Однако наиболее полезные для практических приложений моменты - это корреляция и ковариации между парами случайных величин. Для детализации предположим, что X,, /=1, 2, .... «, являются случайными величинами с СФПВр(хх, Хг, . .Y,,) Пустьp(x,,Xj) - СФПВ случайных величин XhXj. Тогда корреляция мелоду XjuXj определяется совместным моментом E(x,X)=[Jj,xp{x,.x)dx,dx. (2.1.69) а ковариация между X, и Xj равна -"Х, г г (-. -"l)pix.,Xj)dxdx - (2.1.70) = J JiXjP{xnj)dx,dXj -"."y = Д,/)- Матрица размера wxn с элементами \x,j называется ковариациоппой Mampiiifeii случайных величин Xi, /=1, 2, . ., п. Мы встретимся с ковариационной матрицей при обсуждении совместных гауссовских случайных величин в разделе 2.1.4. Две случайные величины называют некоррелированными, если £(А,А) = -Е{Х)Е{Хmjn.. В этом случае их ковариация Ду=0. Заметим, что если X, п Xj статистически независимы, они также не коррелированы. Однако, если X, и Xj некоррелированы, они не обязательно статистически независимы. Говорят, что две случайные величины ортогональны, если е{х,Х=0. Заметим, что это условие имеет место, когда Xi и Xj не коррелированы и либо одна, либо обе случайные величины имеют нулевое среднее. Характеристические функции. Характеристическая функция случайной величины X определяется как статистическое среднее Eie-"-) \\,(jv)-- Г e"";;(x>/Y, (2.1.71) где переменная v веи;ественная, j-4--\. Заметим, что (jv) можно определить как преобразование Фурье" от ФПВ р{х). Тогда обратное преобразование Фурье дает If /. ч -.V,. , (2.1.72) р{х) = - С \/(/v)e Wv. 2к Очень полезное свойство характеристической функции-ее связь с моментами случайной величины. Заметим, что первая производная от (2.1.71) по v •p{x)dx. Вычисляя производную при v=0, получаем для первого момента (среднего) Обычно преобр.пов;1нис Фурье от (1)>Н1сции g{u) определяется клк G(v) = j g{ii)e"chi, которое опнчастс! от (2 1.71) отрицательным знаком в экспоненте. Но это тривиальное отличие, и мы назывлсм интсгр;1л в (2.1 71) преобразованием Фурье. (2.1.73) Дифференцирование можно продолжить, и п-я производная от v(/V) при vO определяет л-й момент: (2.1.74) Таким образом, моменты случайных величин можно определять через характеристические функции. С другой стороны, предположим, что характеристическую функцию можно представить рядом Тейлора относительно точки v=0, т.е. dv" (2.1.75) Используя соотношение (2.1.74) в (2.1.75), мы получаем выражение для характеристической функции через моменты в виде (2.1.76) Характеристическая функция дает простой метод для определения ФПВ суммы независимых случайных величин. Чтобы это проиллюстрировать, предположим, что X,, /=1,2, ... п, - ряд статистически независимых случайных величин, и пусть (2.1.77) Задача сводится к нахождению ФПВ от Y. Мы определим ФПВ от У, найдя сначала её характеристическую функцию, а затем вычислив обратное преобразование Фурье. Итак, \ 1 1 (2.1.78) = £-£ П" pixuX2,-X„)dx,dx,...dx„. V <=1 Так как случайные величины статистически независимы, p(x,x.,...x) = = р{х)р{х,)...р(х) и и-мерный интеграл в (2.1.78) сводится к произведению w простых интегралов, каждый из которых определяет характеристическую функцию одного X,. Следовательно, (2.1.79) Если помимо статистической независимости все X, имеют одинаковое распределение, тогда все x:(jv) идентичны. Соответственно VrOv) = kv,Ov)r. (2.1.80) Окончательно ФПВ У определяется обратным преобразованием Фурье, как дано в (2.1.72). Поскольку характеристическая функция суммы п статистически независимых случайных величин равна произведению характеристических функций индивидуальных 0 ... 6789101112 ... 262 |