Разделы презентаций


Многомерные случайные величины

Содержание

Пусть имеется пространство элементарных событий U, на нем построено поле событий и для каждого события А из этого поля определена вероятность Р(А). Каждому элементарному

Слайды и текст этой презентации

Слайд 1


Слайд 2 Пусть имеется пространство элементарных событий

U, на нем построено поле событий и для каждого события

А из этого поля определена вероятность Р(А).
Каждому элементарному событию gi из U сопоставим несколько чисел: ξ i1 , ξ i2 , ξ i3 , ... ξ ik  или вектор ξi. Потребуем, чтобы для любых хj ( -∞ < хj <+∞ ) , j = 1, 2 ... k , множество А тех g , для которых ξ j < хj ( j = 1, 2, ... k) , принадлежало полю событий, т.е. для него определена вероятность Р{ ξ 1 < x1 ,  ξ 2 < x2 , ...  ξ k < xk } = P(A) = F( x1, x2,  ... xk ). Тогда ξ называется многомерной случайной величиной, или случайным вектором, а F( x1, x2,  ... xk ) ее функцией распределения.
Пусть имеется пространство элементарных событий U, на нем построено поле событий и

Слайд 3Примеры:
1 .   Координаты молекулы, находящейся в сосуде с

газом, (x,y,z) или компоненты ее скорости (Vx,Vy,Vz) - можно рассматривать как

трехмерные случайные величины
Примеры:  1 .   Координаты молекулы, находящейся в сосуде с газом, (x,y,z) или компоненты ее скорости (Vx,Vy,Vz) -

Слайд 4 2 .   В задаче "о встрече" время прихода одного

участника (х1) и другого (х2), если условия их прихода известны

(скажем - любой момент в течение заданного часа), пару чисел х1, х2 можно рассматривать как двумерную случайную величину
2 .   В задаче

Слайд 5 3 .   Результат эксперимента, состоящего в измерении показателя преломления

раствора в зависимости от концентрации уксусной кислоты можно рассматривать как

девятимерную случайную величину
3 .   Результат эксперимента, состоящего в измерении показателя преломления раствора в зависимости от концентрации уксусной кислоты

Слайд 6Свойства многомерной функции распределения:
1 .   F( x1, x2,  ... xk-1,- ∞) = 0, т.е. если

хоть один из аргументов принимает значение -∞, то F=0.
2

.   F( x1, x2,  ... xk ) не убывающая функция любого аргумента
3. F( x1, x2,  ... xk-1, ∞) = F( x1, x2,  ... xk-1 ), т.е. если один из аргументов принимает значение ∞, то размерность случайной величины уменьшается на 1.

Свойства многомерной функции распределения:1 .   F( x1, x2,  ... xk-1,- ∞) = 0, т.е. если хоть один из аргументов принимает значение -∞,

Слайд 7 Многомерные случайные величины могут быть непрерывными,

т.е. принимать любые значения в некоторой области к-мерного пространства (например,

упомянутые выше компоненты скорости молекулы).
У них F( x1, x2,  ... xk ) непрерывная функция всех аргументов. Для них определена
к-мерная плотность распределения
p( x1, x2,  ... xk ), которая есть производная от функци распределения.
Многомерные случайные величины могут быть непрерывными, т.е. принимать любые значения в некоторой области

Слайд 8 Вероятность того, что случайный вектор примет

значение, лежащее в области V к-мерного пространства, равна интегралу по

этой области от к-мерной плотности распределения. Интеграл по всем переменным от - ∞ до + ∞ от к-мерной плотности распределения равен 1.
Интеграл по одной переменной от - ∞ до + ∞ от к-мерной плотности распределения равен плотности распределения (к-1)-мерной случайной величины.
Например:
Вероятность того, что случайный вектор примет значение, лежащее в области V к-мерного пространства,

Слайд 9 Многомерные случайные величины могут быть

дискретными, т.е. каждая компонента случайного вектора может принимать только конечное

или счетное множество определенных значений. Например, рассмотрим эксперимент по бросанию одновременно двух костей, с каждым элементарным событием свяжем два числа ( z1, z2 ), где z1 - число очков на первой кости, z2 - сумма очков на двух костях. Тогда ( z1, z2 ) - двумерная случайная величина, поскольку известна вероятность р( хi, хk ) пересечения событий, состоящих в том, что z1 примет значение хi, а z2 - хk . Для дискретных случайных величин закон распределения задается вероятностями всевозможных комбинаций их значений. Для двумерной величины при небольшом числе возможных значений это удобно представить в виде таблицы, где на пересечении столбца z1 и строки z2 стоит вероятность р( z1, z2 )
Многомерные случайные величины могут быть дискретными, т.е. каждая компонента случайного вектора может

Слайд 11 Просуммировав все значения р( z1, z2 ) вдоль каждой

строки, мы получим вероятности определенных значений z2 , т.е. закон распределения

одномерной величины z2 . Аналогично, сумма по столбцам даст закон распределения одномерной величины z1 . Сумма всех чисел в таблице должна быть равна 1 .

Математическим ожиданием многомерной случайной величины называется вектор, компоненты которого являются математическим ожиданием каждой отдельной компоненты случайного вектора. M( z1, z2, ... zk ) = ( Mz1, Mz2,  ...  Mzk ).
Mzi вычисляются как сумма или интеграл так же, как и для одномерных случайных величин .

Просуммировав все значения р( z1, z2 ) вдоль каждой строки, мы получим вероятности определенных значений z2 ,

Слайд 12 Дисперсия многомерной случайной величины описывается

ковариационной матрицей . Это таблица чисел размерности К×К для

К-мерной величины, у которой на диагонали стоят дисперсии соответствующих одномерных величин, вычисляемых обычным образом, а ij-тым элементом является bij - коэффициент ковариации i-той и j-той компоненты случайного вектора.

 

Дисперсия многомерной случайной величины описывается ковариационной матрицей .   Это таблица

Слайд 13 Коэффициент ковариации случайных величин zi , zj ,

обозначаемый иногда как cov(zi,zj), есть математическое ожидание произведения отклонений каждой

из этих величин от своего математического ожидания:

Для вычисления коэффициента ковариации надо знать закон распределения двумерной случайной величины (zi,zj). Тогда для непрерывных величин:

 

 

Коэффициент ковариации случайных величин zi , zj , обозначаемый иногда как cov(zi,zj), есть математическое ожидание

Слайд 14для дискретных величин:
Здесь суммирование ведется по всем t значениям, которые

принимает величина zi и всем q значениям, которые принимает величина

zj .

Преобразовав , получим более удобную формулу для вычисления коэффициента ковариации

 

для дискретных величин:Здесь суммирование ведется по всем t значениям, которые принимает величина zi и всем q значениям,

Слайд 15 Часто используется понятие: коэффициент корреляции rij -

это коэффициент ковариации, деленный на корень из произведения дисперсий

i-той и j-той компонент случайного вектора

доказательство:

|rij|<=1

 

Часто используется понятие: коэффициент корреляции rij - это коэффициент ковариации, деленный на корень из

Слайд 16
Компоненты многомерной случайной величины называются независимыми, если многомерная функция

распределения, многомерная плотность распределения, вероятность определенного набора значений распадаются на

произведение соответствующих одномерных функций или вероятностей

Случайные величины независимы, если независимы
события А: ξi Для независимых событий Р(АВ)=Р(А)*Р(В), т.е.
F(xi,xk)=F(xi)*F(xk). Соответственно:

p(xi,yj,zk)=p(xi)p(yj)p(zk)

Компоненты многомерной случайной величины называются независимыми, если многомерная функция распределения, многомерная плотность распределения, вероятность определенного набора

Слайд 17Математическое ожидание суммы случайных величин равно сумме их матожиданий

всегда
Математическое ожидание произведения независимых случайных величин равно произведению их матожиданий
Дисперсия

суммы независимых случайных величин равна сумме их дисперсий.



Коэффициенты ковариации и корреляции независимых случайных величин равны 0, следовательно, ковариационная матрица - диагональна
Математическое ожидание суммы случайных величин равно сумме их матожиданий  всегдаМатематическое ожидание произведения независимых случайных величин равно

Слайд 18Если r=0, то не обязательно случайные величины независимы.
Пусть есть 2

генератора, вырабатывающие числа z1. z2, равные 0 или 1 с

вероятностями 1/2. Рассмотрим закон распределения двумерной величины х1, х2 , построенной по правилу: х1= z1+ z2, х2= z1- z2.

Mx1=1; Mx2=0

M(x1x2)=
-1/4+1/4=0

Cov(x1x2)=0
r12=0

Они не независимы: p(1,1)=1/4; p(1)p(1)=1/8

0

1/4

0

1/4

1/4

1/4

1/4

1/4

1/4

1/4

1/2

1/2

0

0

0

1

Если r=0, то не обязательно случайные величины независимы.Пусть есть 2 генератора, вырабатывающие числа z1. z2, равные 0

Слайд 19Эллипсоид рассеяния- это область, в которой
значения многомерной случайной величины


лежат с наибольшей вероятностью.
Пример: х, у независимы. Мх=а, My=b

C=1

В данном случае это эллипс
с центром в точке а, b
и осями

Эллипсоид рассеяния- это область, в которой значения многомерной случайной величины лежат с наибольшей вероятностью.Пример: х, у независимы.

Слайд 20ЗАКОН БОЛЬШИХ ЧИСЕЛ

ЗАКОН БОЛЬШИХ ЧИСЕЛ

Слайд 21Сущность закона больших чисел состоит в том , что при

большом числе независимых опытов частота появления какого-то события близка к

его вероятности.
Этот известный факт следует из теоремы Чебышева.

Сначала докажем неравенство

Обозначим:

Сущность закона больших чисел состоит в том , что при большом числе независимых опытов частота появления какого-то

Слайд 22Среднее арифметическое сходится к матожиданию
по вероятности
Сходимость по вероятности отличается

от обычной сходимости тем, что нельзя указать такого n, при

котором разность станет наверняка меньше ε , хотя и ничтожно малая, но существует вероятность и большего отклонения.

При независимых испытаниях

при n→∞

При большом числе испытаний частота появления события мало отличается от его вероятности

Среднее арифметическое сходится к матожиданию по вероятностиСходимость по вероятности отличается от обычной сходимости тем, что нельзя указать

Слайд 23ЦЕНТРАЛЬНАЯ ПРЕДЕЛЬНАЯ ТЕОРЕМА И ЕЕ СЛЕДСТВИЯ

ЦЕНТРАЛЬНАЯ ПРЕДЕЛЬНАЯ ТЕОРЕМА И ЕЕ СЛЕДСТВИЯ

Слайд 24Характеристические функции случайных
величин.
Определение:
Если х и у независимы, то
Если x=σz+a,

то

Характеристические функции случайных величин.Определение:Если х и у независимы, тоЕсли x=σz+a, то

Слайд 25 Характеристическая функция
нормально распределенной величины
используем
обозначение

х~N(a,σ2)
Положим:
=
z~N(0,1)

Характеристическая функция нормально распределенной величины используем обозначение х~N(a,σ2)Положим:=z~N(0,1)

Слайд 26 Нормальное распределение -наиболее распростра-ненное в природе

распределение случайных величин. Математическим обоснованием этого факта служит центральная предельная

теорема:

Сумма большого числа как угодно распределенных независимых случайных величин распределена асимптотически нормально, если только слагаемые вносят равномерно малый вклад в сумму.

Это значит, что чем больше независимых слагаемых в сумме, тем ближе закон ее распределения к нормальному. Вместо суммы часто рассматривают среднее арифметическое большого числа случайных величин, оно отличается от суммы только множителем (1/n) , поэтому его распределение также стремится к нормальному с ростом числа n суммируемых величин. Поскольку случайные величины, с которыми мы сталкиваемся, например, при измерениях, есть результат действия множества независимых факторов, понятно, почему измеряемые значения, как правило, распределены нормально.

Нормальное распределение -наиболее распростра-ненное в природе распределение случайных величин. Математическим обоснованием этого факта

Слайд 27Докажем для случая одинаково распределенных
величин xk.

Mxк =a; Dxk =σ2
Образуем
Mwк=0. Dwк=1
Построим

характеристическую функцию
Докажем для случая одинаково распределенных величин xk.     Mxк =a;  Dxk =σ2 Образуем

Слайд 28Применим к распределению Бернулли.
xk=ξk Mξ=p

Dξ=pq

теорема Муавра-Лапласа
Поскольку плотность нормального

распределения с матожиданием 0 и дисперсией 1, а также значение интеграла от этой плотности в пределах от 0 до z как функция z табулированы , то легко найти вероятность попадания х, а значит и m, при известных n, p в любой интервал.

Применим к распределению Бернулли.xk=ξk      Mξ=p     Dξ=pq теорема Муавра-ЛапласаПоскольку

Слайд 29Понятие о случайной функции (случайном процессе)
Если

элементарному событию сопоставляется не набор чисел ( случайный вектор), а

функция некоторого параметра t - f(t) и при каждом значении t определена функция распределения F t (x)=P{f(t)

Образно говоря - это "бесконечномерная случайная величина".





Понятие о случайной функции (случайном процессе)    Если элементарному событию сопоставляется не набор чисел (

Слайд 30 Если F t (x) не зависит от t

, процесс называется стационарным. Числовые характеристики случайного процесса ( математическое

ожидание и дисперсия ) при фиксированном t определяются так же, как и для обычной случайной величины , если известны плотность распределения рt(х) или рt(xi) (если f принимает дискретный ряд значений). Для стационарного процесса эти характеристики от t не зависят.

Характеристики стационарного процесса можно определить усреднением по параметру

Если результаты вычисления числовых характеристик стационарного процесса путем усреднения по параметру и по ансамблю реализаций дают одинаковый результат, процесс называется эргодическим.

Если F t (x) не зависит от t , процесс называется стационарным. Числовые характеристики случайного

Слайд 31Аналогом ковариационной матрицы , которая характеризует связь между компонентами случайного

вектора, для случайного процесса служит автокорреляционная функция Г(τ), показывающая как

быстро с изменением параметра могут меняться значения случайной функции.

Г(0)=Df

Связь спектра и автокорреляционной функции
Спектр- это Фурье образ f(t)

Положим, что процесс стационарный и Mf=0

Спектр мощности сигнала f(t), т. е. квадрат модуля Фурье-образа f(t), S(ω)=V(ω)*V(ω) пропорционален Фурье-образу функции корреляции Г(τ).

Аналогом ковариационной матрицы , которая характеризует связь между компонентами случайного вектора, для случайного процесса служит автокорреляционная функция

Слайд 32Добавив в показатель экспоненты ± iωt и перейдя к
переменным

t и

Отсюда
Df= Г(0)~S(ω)Δω

Добавив в показатель экспоненты ± iωt и перейдя к переменным t и Отсюда Df= Г(0)~S(ω)Δω

Слайд 33Марковский процесс
Если процесс состоит из дискретного ряда значений хк

и вероятность перехода в следующий момент времени из состояния

хк в состояние хр не зависит от состояния предшествующего хк, то процесс называется марковский Наиболее яркий пример: процесс возбуждения и распада энергетических состояний атома в плазме. Находясь на определенном энергетическом уровне Ек
атом может перейти на какой-то другой
уровень с вероятностью , которая не
зависит от того , с какого уровня атом
попал на Ек.

Другой пример: игра в кости. Вероятность
выиграть не зависит от того, выиграл ты прошлый раз или проиграл
Марковский процесс Если процесс состоит из дискретного ряда значений хк и вероятность перехода  в следующий момент

Слайд 34На этом раздел
«Теория
вероятностей»
закончен.

На этом раздел«Теория вероятностей»закончен.

Обратная связь

Если не удалось найти и скачать доклад-презентацию, Вы можете заказать его на нашем сайте. Мы постараемся найти нужный Вам материал и отправим по электронной почте. Не стесняйтесь обращаться к нам, если у вас возникли вопросы или пожелания:

Email: Нажмите что бы посмотреть 

Что такое TheSlide.ru?

Это сайт презентации, докладов, проектов в PowerPoint. Здесь удобно  хранить и делиться своими презентациями с другими пользователями.


Для правообладателей

Яндекс.Метрика