Разделы презентаций


Теория вероятностей и математическая статистика

Содержание

Лекция 1. Введение в теорию вероятностей Предметом теории вероятностей является математический анализ случайных явлений, то есть разработка и применение математического аппарата для изучения явлений, имеющих случайную природу. Главным обстоятельством, которое определяет

Слайды и текст этой презентации

Слайд 1 Теория вероятностей и математическая статистика
Для студентов Института экономики
СФУ

2011
Т.В. Крупкина
Демонстрационная презентация курса

Теория вероятностей и математическая статистика  Для студентов Института экономики СФУ 2011Т.В. КрупкинаДемонстрационная презентация курса

Слайд 2Лекция 1. Введение в теорию вероятностей
Предметом теории вероятностей является

математический анализ случайных явлений, то есть разработка и применение математического

аппарата для изучения явлений, имеющих случайную природу.
Главным обстоятельством, которое определяет границы применимости теории вероятностей, является наличие у изучаемых явлений свойства «статистической устойчивости».


СФУ Т.В. Крупкина

Лекция 1. Введение в теорию вероятностей Предметом теории вероятностей является математический анализ случайных явлений, то есть разработка

Слайд 3Равновозможные исходы
Рассмотрим некоторый опыт с конечным числом n всевозможных взаимоисключающих

друг друга исходов, которые являются равновозможными. Пусть А – некоторое

событие, связанное с этим исходом.
Вероятность p(A) можно определить, как долю тех исходов, в результате которых это событие осуществляется.

СФУ Т.В. Крупкина

Равновозможные исходыРассмотрим некоторый опыт с конечным числом n всевозможных взаимоисключающих друг друга исходов, которые являются равновозможными. Пусть

Слайд 4Пусть n – число всех исходов, n(A) – число благоприятных

исходов, в результате которых осуществляется событие A.

Классическое определение вероятности
СФУ Т.В.

Крупкина
Пусть n – число всех исходов, n(A) – число благоприятных исходов, в результате которых осуществляется событие A.Классическое

Слайд 5Формулы комбинаторики
Число перестановок
Число перестановок из n элементов равно
СФУ Т.В.

Крупкина

Формулы комбинаторикиЧисло перестановок 	Число перестановок из n элементов равноСФУ Т.В. Крупкина

Слайд 6Выбор без возвращения
Число размещений
С помощью этой формулы можно подсчитать,

сколько существует различных способов выбрать и разместить по различным местам

k из n различных элементов.
Формула числа размещений имеет вид:


СФУ Т.В. Крупкина

Выбор без возвращения Число размещений 	С помощью этой формулы можно подсчитать, сколько существует различных способов выбрать и

Слайд 7Выбор без возвращения
Число сочетаний
С помощью этой формулы можно подсчитать, сколько

существует различных способов выбора из n элементов k, не учитывая

порядок элементов в выбранной последовательности. Формула числа сочетаний имеет вид:




СФУ Т.В. Крупкина

Выбор без возвращенияЧисло сочетаний	С помощью этой формулы можно подсчитать, сколько существует различных способов выбора из n элементов

Слайд 8Статистическое определение вероятности
Пусть рассматриваемый опыт можно повторять многократно, и пусть

N – число всех повторений опыта, а N(А) – число

тех из них, в которых осуществлялось событие А. Отношение N(А)/N называется частотой события А в данной серии испытаний.

СФУ Т.В. Крупкина

Статистическое определение вероятности 	Пусть рассматриваемый опыт можно повторять многократно, и пусть N – число всех повторений опыта,

Слайд 9Статистическое определение вероятности
Практика показывает, что для многих
событий частота при больших

п мало
меняется, колеблясь около некоторого
постоянного значения P*, которое можно
назвать статистической

вероятностью события А,



СФУ Т.В. Крупкина

Статистическое определение вероятности Практика показывает, что для многихсобытий частота при больших п маломеняется, колеблясь около некоторогопостоянного значения

Слайд 10Лекция 2. Основания теории вероятностей
Пространством элементарных исходов Ω называется множество,

содержащее все возможные результаты данного случайного эксперимента, из которых в

эксперименте происходит ровно один. Элементы этого множества называют элементарными исходами и обозначают буквой ω.

СФУ Т.В. Крупкина

Лекция 2. Основания теории вероятностейПространством элементарных исходов Ω называется множество, содержащее все возможные результаты данного случайного эксперимента,

Слайд 11
Событиями мы будем называть некоторые наборы элементарных исходов, то есть

подмножества множества Ω. Говорят, что в результате эксперимента произошло событие

A, если в эксперименте произошел один из элементарных исходов, входящих в множество.

СФУ Т.В. Крупкина

Событиями мы будем называть некоторые наборы элементарных исходов, то есть подмножества множества Ω. Говорят, что в результате

Слайд 12Элементарные события
Достоверное событие Ω наступает при любом исходе.
Невозможное событие

не может произойти в результате эксперимента, оно не происходит никогда.
Случайное

событие может произойти или не произойти в результате эксперимента, оно происходит иногда.


СФУ Т.В. Крупкина

Элементарные событияДостоверное событие Ω наступает при любом исходе. Невозможное событие не может произойти в результате эксперимента, оно

Слайд 13Комбинации событий
Рассмотрим комбинации событий, такие, как
сумма, произведение, разность и

т.д.
Поскольку события – это множества исходов, будем использовать соответствующие определения

для множеств.
Сумма событий соответствует объединению множеств, произведение событий соответствует пересечению множеств и т.д.

СФУ Т.В. Крупкина

Комбинации событийРассмотрим комбинации событий, такие, как сумма, произведение, разность и т.д.Поскольку события – это множества исходов, будем

Слайд 14 Суммой событий A1 и A2 называют событие A, состоящее в

осуществлении хотя бы одного из событий A1 или A2:








Аналогично

определяется


Сумма (объединение) событий



A1

A2

Ω

СФУ Т.В. Крупкина

Суммой событий A1 и A2 называют событие A, состоящее в осуществлении хотя бы одного из событий A1

Слайд 15

Противоположным событием к событию A называют событие

состоящее в том, что событие A не произошло:

A
Ω
Противоположное событие
СФУ Т.В.

Крупкина
Противоположным событием к событию A называют событие    состоящее в том, что событие A не

Слайд 16Вероятность в дискретном пространстве
Чтобы определить вероятность любого события на

дискретном пространстве элементарных исходов, достаточно присвоить вероятность каждому элементарному исходу.

Тогда вероятность любого события определяется как сумма вероятностей входящих в него элементарных исходов.

СФУ Т.В. Крупкина

Вероятность в дискретном пространстве Чтобы определить вероятность любого события на дискретном пространстве элементарных исходов, достаточно присвоить вероятность

Слайд 17Несчетное множество исходов
Но множество исходов не обязательно конечно или счетно.


Пусть, например, опыт состоит в выборе точки из отрезка [0,

1]. Исходом является любая точка, а множество точек отрезка несчетно. Как ввести вероятность в этом случае?
Ответ дает аксиоматика Колмогорова.

СФУ Т.В. Крупкина

Несчетное множество исходовНо множество исходов не обязательно конечно или счетно. Пусть, например, опыт состоит в выборе точки

Слайд 18Аксиоматическое определение вероятности
Вероятность события есть числовая функция P(A), удовлетворяющая аксиомам:


СФУ Т.В. Крупкина

Аксиоматическое определение вероятности	Вероятность события есть числовая функция P(A), удовлетворяющая аксиомам: СФУ Т.В. Крупкина

Слайд 19Лекция 3. Исчисление вероятностей
Определение
События A и B называются независимыми, если





СФУ Т.В. Крупкина

Лекция 3.  Исчисление вероятностейОпределение	События A и B называются независимыми, если СФУ Т.В. Крупкина

Слайд 20Условная вероятность
Условной вероятностью события A при условии, что произошло событие

B, называется число




Считают, что

условная вероятность определена только в случае, когда
P(B) > 0.

СФУ Т.В. Крупкина

Условная вероятность	Условной вероятностью события A при условии, что произошло событие B, называется число

Слайд 21Теорема сложения

СФУ Т.В. Крупкина

Теорема сложенияСФУ Т.В. Крупкина

Слайд 22Теорема умножения для двух событий
если соответствующие условные вероятности определены

(то есть если P(A) > 0, P(B) > 0).


Доказательство следует из определения условной вероятности.

СФУ Т.В. Крупкина

Теорема умножения для двух событий	если соответствующие условные вероятности определены  (то есть если P(A) > 0, P(B)

Слайд 23Теорема (формула полной вероятности)
Пусть A – случайное событие, H1, H2,

…, Hn  – полная группа событий (гипотезы),


Тогда вероятность события А может

быть вычислена по формуле:

СФУ Т.В. Крупкина

Теорема (формула полной вероятности)	Пусть A – случайное событие, H1, H2, …, Hn  – полная группа событий (гипотезы),	Тогда вероятность

Слайд 24Теорема (формула Байеса)
Пусть A – случайное событие, H1, H2, …,

Hn  – полная группа событий (гипотезы),


Тогда условная вероятность того, что имело

место событие Hk, если наблюдалось событие А, может быть вычислена по формуле:

СФУ Т.В. Крупкина

Теорема (формула Байеса)	Пусть A – случайное событие, H1, H2, …, Hn  – полная группа событий (гипотезы),	Тогда условная вероятность

Слайд 25Лекция 4. Схемы испытаний
Схемой испытаний Бернулли  называется последовательность независимых

испытаний, в каждом из которых возможны лишь два исхода  — 

«успех» и «неудача», при этом «успех» в одном испытании происходит с вероятностью p, а «неудача»  —  с вероятностью q = 1 – p.

СФУ Т.В. Крупкина

Лекция 4. Схемы испытаний 	Схемой испытаний Бернулли  называется последовательность независимых испытаний, в каждом из которых возможны лишь

Слайд 26Теорема (формула Бернулли)
Обозначим через m число успехов в n испытаниях

схемы Бернулли. Тогда

СФУ Т.В. Крупкина

Теорема (формула Бернулли)Обозначим через m число успехов в n испытаниях схемы Бернулли. ТогдаСФУ Т.В. Крупкина

Слайд 27Предельные теоремы для схемы Бернулли
При числе испытаний, превышающем 20, вычисление

точного значения Pn(m) затруднительно. В этих случаях применяют приближенные формулы,

вытекающие из предельных теорем.
Различают два случая:
когда р мало, используют приближение Пуассона,
когда р не мало (и не очень близко к единице), справедливо приближение Муавра –Лапласа.

СФУ Т.В. Крупкина

Предельные теоремы для схемы Бернулли	При числе испытаний, превышающем 20, вычисление точного значения Pn(m) затруднительно. В этих случаях

Слайд 28Теорема Пуассона
Если при n → ∞, р → 0

так, что np → λ, 0 < λ < ∞,

то для любого фиксированного m∈N справедливо:

СФУ Т.В. Крупкина

Теорема Пуассона 	Если при n → ∞, р → 0 так, что np → λ, 0 <

Слайд 29Приближенная формула Пуассона




где λ = np. Приближенную формулу Пуассона

применяют при
n > 30,
р < 0.1,
0.1

λ = np < 10.

СФУ Т.В. Крупкина

Приближенная формула Пуассона 		где λ = np. Приближенную формулу Пуассона применяют при 	n > 30, р <

Слайд 30Локальная приближенная формула Муавра –Лапласа
Локальную приближенную формулу Муавра –
Лапласа применяют

при
n > 30, 0.1 ≤ p ≤ 0.9,

nрq > 9.

СФУ Т.В. Крупкина

Локальная приближенная формула Муавра –ЛапласаЛокальную приближенную формулу Муавра –Лапласа применяют при n > 30,  0.1 ≤

Слайд 31График биномиальных вероятностей при n=30, p=0,2 и график φ(X)
СФУ Т.В.

Крупкина

График биномиальных вероятностей при n=30, p=0,2 и график φ(X)СФУ Т.В. Крупкина

Слайд 32Свойства функции ϕ(x)
СФУ Т.В. Крупкина

Свойства функции ϕ(x)СФУ Т.В. Крупкина

Слайд 33Интегральная приближенная формула Муавра –Лапласа
Интегральную приближенную формулу Муавра –
Лапласа применяют

при n > 30, 0.1 ≤ p ≤ 0.9, nрq >

9.

СФУ Т.В. Крупкина

Интегральная приближенная формула Муавра –ЛапласаИнтегральную приближенную формулу Муавра –Лапласа применяют при n > 30, 0.1 ≤ p

Слайд 34Свойства функции Ф(x)

Свойства функции Ф(x)

Слайд 35Лекция 5. Дискретные случайные величины
Пусть есть случайный эксперимент,

Ω ─ пространство элементарных событий.
Определение
Случайной величиной ξ называется

функция, отображающая Ω в R.
ξ: Ω → R
(То есть ξ = ξ(ω)).
Смысл: случайная величина – это числовая функция, принимающая значения случайным образом.

СФУ Т.В. Крупкина

Лекция 5.   Дискретные случайные величины 	Пусть есть случайный эксперимент, Ω ─  пространство элементарных событий.Определение

Слайд 36Дискретные распределения
Случайная величина ξ имеет дискретное распределение, если она принимает

не более чем счетное число значений.
Значения: a1, a2,…,


Вероятности значений: pi = P(ξ = ai) > 0

СФУ Т.В. Крупкина

Дискретные распределения	Случайная величина ξ имеет дискретное распределение, если она принимает не более чем счетное число значений.

Слайд 37Ряд распределения
Если случайная величина ξ имеет дискретное распределение, то

рядом распределения называется соответствие ai ↔pi, которое имеет вид :


СФУ Т.В. Крупкина

Ряд распределения  	Если случайная величина ξ имеет дискретное распределение, то рядом распределения называется соответствие ai ↔pi,

Слайд 38Биномиальное распределение B(n, p)
Случайная величина ξ имеет биномиальное распределение с

параметрами n и p, где 0 ≤ p ≤ 1,

если ξ принимает значения 0, 1, 2, …n с вероятностями P{ξ = k} = Cnk pk q n –k.
Случайная величина с таким распределением имеет смысл числа успехов в n испытаниях схемы Бернулли с вероятностью успеха p.

СФУ Т.В. Крупкина

Биномиальное распределение B(n, p)	Случайная величина ξ имеет биномиальное распределение с параметрами n и p, где 0 ≤

Слайд 39Пример
Распределение вероятностей биномиально распределенной случайной величины для n = 10

и p = 0.2
СФУ Т.В. Крупкина

ПримерРаспределение вероятностей биномиально распределенной случайной величины для n = 10 и p = 0.2СФУ Т.В. Крупкина

Слайд 40Распределение Пуассона Pλ
Сл. в. ξ имеет распределение Пуассона с

параметром λ, где λ>0, если ξ принимает значения 0,

1, 2,… с вероятностями

СФУ Т.В. Крупкина

Распределение Пуассона Pλ 	Сл. в. ξ имеет распределение Пуассона с параметром λ, где λ>0, если  ξ

Слайд 41Функция распределения
Определение
Функцией распределения случайной величины ξ называется функция Fξ(x),
при каждом

x∈R равная
Fξ(x) = P{ξ < x}.
СФУ Т.В. Крупкина

Функция распределенияОпределение	Функцией распределения случайной величины ξ называется функция Fξ(x),	при каждом x∈R равнаяFξ(x) = P{ξ < x}.СФУ Т.В.

Слайд 42Лекция 6. Непрерывные распределения
Случайная величина ξ имеет непрерывное распределение, если

существует неотрицательная функция fξ(x) такая, что для любого x0∈R функция

распределения представима в виде


При этом функция fξ(x) называется плотностью распределения случайной величины ξ.

СФУ Т.В. Крупкина

Лекция 6.  Непрерывные распределения	Случайная величина ξ имеет непрерывное распределение, если существует неотрицательная функция fξ(x) такая, что

Слайд 43Геометрический смысл функции распределения
СФУ Т.В. Крупкина

Геометрический смысл функции распределенияСФУ Т.В. Крупкина

Слайд 44Равномерное распределение R [a, b]
СФУ Т.В. Крупкина

Равномерное распределение R [a, b] СФУ Т.В. Крупкина

Слайд 45Нормальное распределение N (a,σ)

СФУ Т.В. Крупкина

Нормальное распределение N (a,σ) СФУ Т.В. Крупкина

Слайд 46Нормальное распределение N (a,σ)
Графики нормальных плотностей имеют симметричную, колоколообразную форму.


а – это величина, которая характеризует положение кривой плотности на

оси абсцисс.
Изменение σ приводит к изменению формы кривой плотности, с увеличением σ кривая делается менее островершинной и более растянутой вдоль оси абсцисс.

СФУ Т.В. Крупкина

Нормальное распределение N (a,σ) Графики нормальных плотностей имеют симметричную, колоколообразную форму. а – это величина, которая характеризует

Слайд 47Кривые плотностей N(a, σ) с различными а и σ

СФУ Т.В.

Крупкина

Кривые плотностей N(a, σ) с различными а и σСФУ Т.В. Крупкина

Слайд 48Плотность и функция распределения N(0,1)

Плотность и функция распределения N(0,1)

Слайд 49Многомерные СВ
n – мерной случайной величиной ξ называется вектор ξ(ω)=(ξ1(ω),

ξ2(ω), … , ξn(ω)),
компонентами которого являются одномерные случайные величины.
Функцией распределения

n–мерной случайной величины ξ называется функция
Fξ1,ξ2,…,ξn(x1, x2, …, xn)= P(ξ1 < x1, …, ξn < xn)



СФУ Т.В. Крупкина

Многомерные СВn – мерной случайной величиной ξ называется вектор ξ(ω)=(ξ1(ω), ξ2(ω), … , ξn(ω)),компонентами которого являются одномерные

Слайд 50Лекция 7. Числовые характеристики
Математическим ожиданием Mξ сл. вел. ξ с

дискретным распределением, задаваемым законом распределения P(ξ=xi) = pi, называется число





Смысл: Математическое ожидание – это среднее значение случайной величины.

СФУ Т.В. Крупкина

Лекция 7.  Числовые характеристики	Математическим ожиданием Mξ сл. вел. ξ с дискретным распределением, задаваемым законом распределения P(ξ=xi)

Слайд 51
Математическим ожиданием Mξ непрерывно распределенной сл. в. ξ

с с плотностью распределения fξ(x) называется число



Математическое ожидание существует,

если
M|ξ| < ∞.


Математическое ожидание н.сл.в.

Математическим ожиданием Mξ непрерывно распределенной сл. в. ξ  с с плотностью распределения fξ(x) называется число

Слайд 52Математическое ожидание функции случайной величины

Математическое ожидание функции   случайной величины

Слайд 53Дисперсия случайной величины
Если случайная величина ξ имеет математическое ожидание M

ξ , то дисперсией случайной величины ξ называется величина

D ξ = M(ξ - M ξ )2.

Смысл: Дисперсия случайной величины характеризует меру разброса случайной величины около ее математического ожидания.

Дисперсия случайной величиныЕсли случайная величина ξ имеет математическое ожидание M ξ , то дисперсией случайной величины ξ

Слайд 54Числовые характеристики

Числовые характеристики

Слайд 55Начальные и центральные моменты
Начальным моментом k-го порядка случайной величины

ξ называется величина
αk = Mξ k.
Центральным моментом k-го порядка

случайной величины ξ называется величина μk, определяемая формулой
μk = M(ξ - Mξ )k.
Начальные и центральные моменты Начальным моментом k-го порядка случайной величины ξ называется величина αk = Mξ k.Центральным

Слайд 56Коэффициент асимметрии

Коэффициент асимметрии

Слайд 57
Коэффициент асимметрии

Коэффициент асимметрии

Слайд 58Коэффициент эксцесса

Коэффициент эксцесса

Слайд 59Лекция 8. Линейная зависимость
Определение. Ковариацией случайной величины (ξ, η) называется

центральный смешанный момент второго порядка
Kξ,η = cov(ξ, η) =

M[(ξ – Mξ)∙(η – Mη)].
Ковариация есть мера линейной зависимости между ξ, η. Вычисляется по формуле
cov(ξ, η) = M(ξ∙η) – M ξ∙M η.
Лекция 8. Линейная зависимостьОпределение. Ковариацией случайной величины (ξ, η) называется центральный смешанный момент второго порядка Kξ,η =

Слайд 60Коэффициент корреляции
Коэффициентом корреляции между случайными величинами ξ, η называется

число


Коэффициент корреляции Коэффициентом корреляции между случайными величинами ξ, η называется число

Слайд 61Свойства коэффициента корреляции
1. │ρξη│≤ 1.
2. Если ξ,η независимы, то ρξη=

0.
Если │ρξη│=1, то ξ, η линейно зависимы,
то

есть существуют такие a и b, что
ξ = aη + b.
Свойства коэффициента корреляции1. │ρξη│≤ 1.2. Если ξ,η независимы, то ρξη= 0. Если │ρξη│=1, то ξ, η линейно

Слайд 62Смысл коэффициента корреляции
Коэффициент корреляции есть мера линейной зависимости между

ξ, η.
Его модуль указывает на силу линейной связи

(чем ближе к 1, тем сильнее),
а знак указывает на направление связи.
Смысл коэффициента корреляции Коэффициент корреляции есть мера линейной зависимости между ξ, η.Его модуль указывает на силу линейной

Слайд 63Уравнение линейной регрессии
Уравнением линейной регрессии η на ξ называется уравнение


ηˆ = aξ + b, параметры которого минимизируют остаточную дисперсию


S2ост= M (η – ηˆ)2 = M(η – (aξ + b))2.
Смысл. Уравнение линейной регрессии η на ξ выражает линейную зависимость η от ξ.
Уравнение линейной регрессииУравнением линейной регрессии η на ξ называется уравнение ηˆ = aξ + b, параметры которого

Слайд 64Формулы уравнения линейной регрессии

СФУ Т.В. Крупкина

Формулы уравнения линейной регрессииСФУ Т.В. Крупкина

Слайд 65Лекция 9. Условные распределения
Пусть (ξ, η) – двумерная случайная величина.

Рассмотрим распределение η при условии, что ξ = x. Оно

называется условным.
Определение. Условной функцией распределения случайной величины
η при условии, что ξ = x, называется
Fη/ξ = x = P(η < y/ξ = x).

Лекция 9. Условные распределенияПусть (ξ, η) – двумерная случайная величина. Рассмотрим распределение η при условии, что ξ

Слайд 66 Нахождение условной функции распределения
Условная функция распределения случайной величины η

при условии, что ξ = x

Нахождение условной функции распределенияУсловная функция распределения случайной величины η при условии, что ξ = x

Слайд 67Условная плотность
Если условная функция распределения случайной величины η при условии,

что ξ = x, непрерывна, то производная от нее называется

условной плотностью распределения случайной величины η при условии, что ξ = x.

Условная плотностьЕсли условная функция распределения случайной величины η при условии, что ξ = x, непрерывна, то производная

Слайд 68Условное математическое ожидание
Условным математическим ожиданием
M(η/ξ = x) случайной

величины η при условии, что ξ = x, называется

математическое ожидание, найденное с помощью условного закона распределения.
Условная функция распределения, условная плотность, условное математическое ожидание обладают свойствами функции распределения, плотности, математического ожидания соответственно.

Условное математическое ожиданиеУсловным математическим ожиданием M(η/ξ = x) случайной  величины η при условии, что ξ =

Слайд 69Регрессия
Определение. Регрессией η на ξ называется случайная величина r(ξ), равная

при каждом x условному математическому ожиданию случайной величины η при

условии, что ξ = x.
Определение. Линией регрессии называется линия y = r(x), где
r(x) = M(η/ξ = x).

РегрессияОпределение. Регрессией η на ξ называется случайная величина r(ξ), равная при каждом x условному математическому ожиданию случайной

Слайд 70Корреляционное отношение
Корреляционным отношением η на ξ называется числовая характеристика, равная



Смысл: корреляционное отношение измеряет силу зависимости η от ξ

Корреляционное отношениеКорреляционным отношением η на ξ называется числовая характеристика, равная Смысл: корреляционное отношение измеряет силу зависимости η

Слайд 71Лекция 10. Предельные теоремы
Неравенство Маркова. Для любого ε >

0




Неравенство Чебышева. Для любого ε > 0


Лекция 10. Предельные теоремыНеравенство Маркова.  Для любого ε > 0 Неравенство Чебышева. Для любого ε >

Слайд 72Сходимость по вероятности
Последовательность случайных величин
ξ1, ξ2 ,…, ξn сходится

по вероятности
к сл. в. ξ,

если для любого

ε > 0




Сходимость по вероятностиПоследовательность случайных величин ξ1, ξ2 ,…, ξn сходится по вероятности к сл. в. ξ,

Слайд 73Закон больших чисел (ЗБЧ)
Определение. Говорят, что к последовательности случайных величин


ξ1, ξ2 ,…, ξn с математическими ожиданиями
Mξi = ai,

i = 0,1,…,n, применим закон больших чисел, если


Закон больших чисел (ЗБЧ)Определение. Говорят, что к последовательности случайных величин ξ1, ξ2 ,…, ξn с математическими ожиданиями

Слайд 74Закон больших чисел
Смысл: среднее значение случайных величин стремится по вероятности

к среднему их математических ожиданий (то есть к постоянной величине).
Замечание.

ЗБЧ справедлив при некоторых условиях. Различные группы условий определяют разные формы закона больших чисел.


Закон больших чиселСмысл: среднее значение случайных величин стремится по вероятности к среднему их математических ожиданий (то есть

Слайд 75ЗБЧ в форме Чебышева
Теорема. Если для последовательности случайных величин {ξn}

с математическими ожиданиями Mξi=ai
и с

дисперсиями Dξi=σ2i, i=0,1,…,n, выполняются условия:
сл.в. {ξn} независимы;
дисперсии всех сл.в. {ξn} ограничены одним и тем же числом, (σ2i ≤ A для всех i),
то к {ξn} применим ЗБЧ.
ЗБЧ в форме ЧебышеваТеорема. Если для последовательности случайных величин {ξn}  с математическими ожиданиями Mξi=ai

Слайд 76ЗБЧ в форме Бернулли
Теорема. Пусть осуществляется серия из n независимых

опытов, проводимых по схеме Бернулли с параметром p, пусть m

– число успехов, m/n – частота успехов в данной серии испытаний. Тогда


ЗБЧ в форме БернуллиТеорема. Пусть осуществляется серия из n независимых опытов, проводимых по схеме Бернулли с параметром

Слайд 77ЗБЧ в форме Хинчина
Теорема. Для того, чтобы к последовательности
случайных величин

{ξn} был применим ЗБЧ,
достаточно выполнения условий:
сл.в. {ξn} независимы;
сл.в. {ξn} одинаково

распределены.
Тогда


ЗБЧ в форме ХинчинаТеорема. Для того, чтобы к последовательностислучайных величин {ξn} был применим ЗБЧ,достаточно выполнения условий:сл.в. {ξn}

Слайд 78Центральная предельная теорема (ЦПТ)
В теоремах этой группы выясняются условия, при

которых возникает нормальное распределение. Общим для этих теорем является следующее

обстоятельство: закон распределения суммы достаточно большого числа независимых случайных величин при некоторых условиях неограниченно приближается к нормальному.
Центральная предельная теорема (ЦПТ)В теоремах этой группы выясняются условия, при которых возникает нормальное распределение. Общим для этих

Слайд 79Центральная предельная теорема для независимых одинаково распределенных сл. в.
Если случайные

величины {ξn} независимы, одинаково распределены и имеют конечные математические ожидания

Mξi=a и дисперсии Dξi=σ2,… i=0,1,…,n, то при n→∞

Центральная предельная теорема для независимых одинаково распределенных сл. в. Если случайные величины {ξn} независимы, одинаково распределены и

Слайд 80Зависимость от числа слагаемых

Зависимость от числа слагаемых

Слайд 81Практическое значение ЦПТ
Многие случайные величины можно рассматривать как сумму отдельных

независимых слагаемых.
Например: числа продаж некоторого товара;
объемы прибыли от

реализации однородного товара различными производителями;
валютные курсы.
Из ЦПТ следует, что они приближенно нормально распределены.

Практическое значение ЦПТМногие случайные величины можно рассматривать как сумму отдельных независимых слагаемых. Например: числа продаж некоторого товара;

Слайд 82 Лекция 11. Введение в математическую статистику
Математическая статистика – это раздел

математики который занимается разработкой методов сбора, описания и анализа экспериментальных

результатов наблюдений, массовых случайных явлений.
Фундаментальными понятиями математической статистики являются генеральная совокупность и выборка.

СФУ Т.В. Крупкина

Лекция 11. Введение в математическую статистику Математическая статистика – это раздел математики который занимается разработкой методов

Слайд 83Основные понятия
Совокупность наблюдаемых случайных величин Х = (Х1, ...,

Хn) называется выборкой, сами величины Xi , i =1,..., n,

– элементами выборки, а их число n – ее объемом.
Реализации выборки Х будем обозначать строчными буквами х = (x1,..., xn).
Статистической моделью называется класс распределений, допустимых для выборки.

Основные понятия 	Совокупность наблюдаемых случайных величин Х = (Х1, ..., Хn) называется выборкой, сами величины Xi ,

Слайд 84Таким образом, мы рассматриваем генеральную совокупность как случайную величину ξ,

а выборку – как n – мерную случайную величину

(ξ1, …, ξn), компоненты которой независимы и одинаково распределены (так же, как ξ).
Такие выборки называются простыми.

Простая выборка

Таким образом, мы рассматриваем генеральную совокупность как случайную величину ξ, а выборку – как n – мерную

Слайд 85Эмпирическая функция распределения
Эмпирической функцией распределения называется случайная функция от Fn(x),

вычисляемая по формуле



где νn – число элементов выборки Х, значения

которых меньше х.


Эмпирическая функция распределенияЭмпирической функцией распределения называется случайная функция от Fn(x), вычисляемая по формулегде νn – число элементов

Слайд 86Свойства эмпирической функции распределения
Пусть Fn(x) – эмпирическая функция распределения, построенная

по выборке Х из распределения ξ, и Fξ(x) – соответствующая

теоретическая функция.
Тогда:





Свойства эмпирической функции распределенияПусть Fn(x) – эмпирическая функция распределения, построенная по выборке Х из распределения ξ, и

Слайд 87 При большом объеме выборки ее элементы объединяют в группы, представляя

результаты опытов в виде группированного статистического ряда.
Для этого интервал,

содержащий все элементы выборки, разбивается на k непересекающихся интервалов длины h. Результаты сводятся в таблицу, называемую таблицей частот группированной выборки.

Группировка выборки

При большом объеме выборки ее элементы объединяют в группы, представляя результаты опытов в виде группированного статистического ряда.

Слайд 88Параметры группировки
Разность между максимальным и
минимальным элементами выборки
называется размахом выборки R.
Число

интервалов k находится из условия
2k –1 ≈ n,
где

n – объем выборки.
Длину интервала h находят по формуле
h = R/k.
Все интервалы имеют одинаковую длину.
Параметры группировкиРазность между максимальным иминимальным элементами выборкиназывается размахом выборки R.Число интервалов k находится из условия 2k –1

Слайд 89Графические характеристики выборки
Если на каждом интервале построить прямоугольник с

высотой ni/h, получим гистограмму.
Кривая, соединяющая середины верхних оснований

гистограммы, называется полигоном (частот).
Полигон — непрерывная функция (ломаная).
Графические характеристики выборки Если на каждом интервале построить прямоугольник с высотой ni/h, получим гистограмму.  Кривая, соединяющая

Слайд 90Гистограмма и плотность
Гистограмма относительных частот является статистическим аналогом плотности распределения

генеральной совокупности.


СФУ Т.В. Крупкина

Гистограмма и плотностьГистограмма относительных частот является статистическим аналогом плотности распределения генеральной совокупности. СФУ Т.В. Крупкина

Слайд 91 Лекция 12. Числовые характеристики выборки
Выборочное среднее
Выборочная дисперсия
Выборочная исправленная дисперсия
Выборочное среднеквадратическое

отклонение
Выборочный начальный момент порядка l
Выборочный центральный момент
порядка l

СФУ

Т.В. Крупкина
Лекция 12.  Числовые характеристики выборки Выборочное среднееВыборочная дисперсияВыборочная исправленная дисперсияВыборочное среднеквадратическое отклонение Выборочный начальный момент

Слайд 92Числовые характеристики выборки
Выборочный коэффициент асимметрии
Выборочный коэффициент эксцесса
Коэффициент вариации
Выборочная

мода
Выборочная медиана
Выборочная квантиль порядка q

Числовые характеристики выборкиВыборочный коэффициент асимметрииВыборочный коэффициент эксцесса Коэффициент вариации Выборочная модаВыборочная медианаВыборочная квантиль порядка q

Слайд 93Способ получения выборочных формул
Чтобы из формулы числовой характеристики сл.в.

получить формулу выборочной характеристики, нужно:
заменить обозначение сл.в. обозначением элемента выборки

(xi)
заменить знак математического ожидания М[..] на
Способ получения выборочных формул Чтобы из формулы числовой характеристики сл.в. получить формулу выборочной характеристики, нужно:заменить обозначение сл.в.

Слайд 94Замечание
Если в формуле встречается числовая характеристика, для которой уже

известна соответствующая ей выборочная, то числовая характеристика заменяется на выборочную.
Например,


Замечание Если в формуле встречается числовая характеристика, для которой уже известна соответствующая ей выборочная, то числовая характеристика

Слайд 95Выборочное среднее
Выборочное среднее
(по вариационному ряду x1,x2,…,xn)

Выборочное среднее Выборочное среднее(по вариационному ряду x1,x2,…,xn)

Слайд 96Выборочная дисперсия


Выборочная дисперсия

Слайд 97Выборочный начальный момент порядка l

Теоретический

Выборочный по вариационному ряду


Выборочный по

статистическому ряду

Выборочный начальный момент порядка lТеоретическийВыборочный по вариационному ряду Выборочный по статистическому ряду

Слайд 98Выборочный центральный момент порядка l

Теоретический

Выборочный по вариационному ряду


Выборочный по

статистическому ряду

Выборочный центральный момент порядка lТеоретическийВыборочный по вариационному ряду Выборочный по статистическому ряду

Слайд 99Лекция 13. Распределение выборочных характеристик
Распределением χ2 с k степенями свободы

называется распределение случайной величины χ2(k), равной сумме квадратов k независимых

нормально распределенных по закону N(0,1) случайных величин Ui i = 1,2,…,k, то есть распределение случайной величины

Лекция 13. Распределение выборочных характеристикРаспределением χ2 с k степенями свободы называется распределение случайной величины χ2(k), равной сумме

Слайд 100Плотность распределения χ2 при k = 7


Плотность распределения χ2  при k = 7

Слайд 101Плотность распределения χ2 при разных k

Плотность распределения χ2  при разных k

Слайд 102Распределение Стьюдента
Распределением Стьюдента с k степенями свободы называется распределение

случайной величины Т(k), равной





где U имеет нормальное распределение N(0, 1).

Величина, имеющая распределение Стьюдента с k степенями свободы будет также обозначаться t(k).
Распределение Стьюдента 	Распределением Стьюдента с k степенями свободы называется распределение случайной величины Т(k), равной		где U имеет нормальное

Слайд 103k = ∞ – нормальное распределение
Плотность распределения Стьюдента

k = ∞ – нормальное распределениеПлотность распределения Стьюдента

Слайд 104Распределение Фишера
Распределением Фишера с k1 и k2 степенями свободы называется

распределение случайной величины F(k1, k2), равной


Распределение Фишера	Распределением Фишера с k1 и k2 степенями свободы называется распределение случайной величины F(k1, k2), равной

Слайд 105Теорема Фишера
Пусть (X1, X2,..., Xn) – выборка из N(a, σ).


Тогда:






Теорема Фишера	Пусть (X1, X2,..., Xn) – выборка из N(a, σ). Тогда:

Слайд 106Теорема
Пусть (X1, X2,..., Xn) – выборка из N(a, σ).


Тогда:






Теорема 	Пусть (X1, X2,..., Xn) – выборка из N(a, σ). Тогда:

Слайд 107Лекция 14. Точечное оценивание параметров
Основная задача математической статистики состоит в

нахождении распределения наблюдаемой случайной величины Х по данным выборки. Во

многих случаях вид распределения Х можно считать известным, и задача сводится к получению приближенных значений неизвестных параметров этого распределения.

Лекция 14. Точечное оценивание параметровОсновная задача математической статистики состоит в нахождении распределения наблюдаемой случайной величины Х по

Слайд 108Точечные оценки
Рассмотрим параметрическую модель (Fθ) и
выборку (X1, X2,..., Xn)

. (То есть известен вид функции распределения F, и F

зависит от одного неизвестного параметра θ).
Точечной оценкой неизвестного параметра θ
называется функция элементов выборки,
используемая для получения приближенного
значения θ.
Точечные оценкиРассмотрим параметрическую модель (Fθ) и выборку (X1, X2,..., Xn) . (То есть известен вид функции распределения

Слайд 109Несмещенность
Оценка параметра θ называется несмещенной, если

Доказывали, что


Значит, в любом распределении, у которого математическое ожидание равно параметру, выборочное среднее есть несмещенная оценка этого параметра.
НесмещенностьОценка параметра θ называется несмещенной, еслиДоказывали, что

Слайд 110Несмещенные оценки в N(a,σ)
В N(a,σ):
выборочное среднее – несмещенная оценка параметра

a,
выборочная дисперсия – смещенная оценка σ2,
исправленная

выборочная дисперсия – несмещенная оценка σ2.

Несмещенные оценки в N(a,σ)В N(a,σ):выборочное среднее – несмещенная оценка параметра a, выборочная дисперсия – смещенная оценка

Слайд 111Состоятельность
Оценка параметра θ называется состоятельной,

если

Состоятельность Оценка     параметра θ называется состоятельной, если

Слайд 112Оптимальность
Для параметра θ может быть предложено несколько несмещенных оценок. Мерой

точности несмещенной оценки считают ее дисперсию
Несмещенная оценка параметра

θ называется оптимальной, если она имеет минимальную дисперсию среди всех несмещенных оценок этого параметра.
Оптимальность	Для параметра θ может быть предложено несколько несмещенных оценок. Мерой точности несмещенной оценки считают ее дисперсию

Слайд 113Нижняя граница дисперсий
Для дисперсии несмещенной оценки
параметра

θ выполняется неравенство Рао – Крамера:





Нижняя граница дисперсий	Для дисперсии  несмещенной  оценки  параметра θ выполняется неравенство Рао – Крамера:

Слайд 114Эффективность
Несмещенная оценка параметра θ называется эффективной, если ее дисперсия равна

нижней границе Рао –Крамера:

Эффективность	Несмещенная оценка параметра θ называется эффективной, если ее дисперсия равна нижней границе Рао –Крамера:

Слайд 115Оценка максимального правдоподобия
Оценкой максимального правдоподобия (о.м.п.) неизвестного параметра

θ называют значение, при котором функция правдоподобия достигает максимума

(как функция от θ при фиксированных (X1, X2,..., Xn). Это значение параметра зависит от выборки и является искомой оценкой.
Оценка максимального правдоподобия Оценкой максимального правдоподобия  (о.м.п.) неизвестного параметра θ называют значение, при котором функция правдоподобия

Слайд 116Метод максимального правдоподобия
Для нахождения максимума функции правдоподобия L можно

искать максимум
ln L и решать уравнение

правдоподобия


Метод максимального правдоподобия Для нахождения максимума функции правдоподобия L можно искать максимум    ln L

Слайд 117Метод моментов
Теоретические моменты случайной величины зависят от

параметра, а выборочные моменты зависят от элементов выборки. Но выборочные

приближенно равны теоретическим. Приравняем их, и получим уравнения, связывающие параметр и элементы выборки. Выразим из них параметр. Полученная функция и называется оценкой метода моментов (о.м.м.).
Метод моментов Теоретические моменты случайной величины  зависят от параметра, а выборочные моменты зависят от элементов выборки.

Слайд 118Лекция 15. Интервальное оценивание параметров
Доверительным интервалом уровня значимости α (0

α

которого выполняется условие:
P(I1(X) ≤ θ ≤ I2 (X)) = 1 – α.
Число 1 – α называется доверительной вероятностью, а I1(X), I2 (X)
– нижней и верхней доверительными границами.

СФУ Т.В. Крупкина

Лекция 15. Интервальное оценивание параметровДоверительным интервалом уровня значимости α (0< α

Слайд 119Уровень значимости α
Его обычно берут равным одному из чисел 0.001,

0.005, 0.01, 0.05, 0.1. Уровень значимости выражает ошибку доверительного интервала.

Чем меньше α, тем больше доверительная вероятность и тем надежнее доверительный интервал, но более надежный интервал является более широким и менее информативным. Стандартный уровень значимости α =0.05. Соответствующий доверительный интервал называется 95% –м.

Уровень значимости αЕго обычно берут равным одному из чисел 0.001, 0.005, 0.01, 0.05, 0.1. Уровень значимости выражает

Слайд 120Схема построения доверительного интервала
Надо взять статистику G(x, θ), такую, что

она сама зависит от параметра θ, а ее распределение от

θ не зависит, записать уравнение
P(γ1 ≤ G(x, θ) ≤ γ2) = 1 – α,
и разрешить неравенство под знаком вероятности относительно параметра θ.
Схема построения доверительного интервалаНадо взять статистику G(x, θ), такую, что она сама зависит от параметра θ, а

Слайд 121Доверительный интервал для параметра a распределения N(a, σ)

Доверительный интервал для параметра a распределения N(a, σ)

Слайд 122Квантили нормального распределения

Квантили нормального распределения

Слайд 123Доверительный интервал для параметра a (при неизвестном σ) :

Доверительный интервал для параметра a (при неизвестном σ) :

Слайд 124Доверительный интервал для параметра σ распределения N(a, σ)

Доверительный интервал для параметра σ распределения N(a, σ)

Слайд 125Асимптотический доверительный интервал
Разрешив неравенство относительно θ, получим доверительный интервал для

параметра θ значимости α.

Асимптотический доверительный интервалРазрешив неравенство относительно θ, получим доверительный интервал для параметра θ значимости α.

Слайд 126Лекция 16. Проверка статистических гипотез
Статистической гипотезой называется утверждение о виде

распределения генеральной совокупности.
Проверяемая гипотеза называется нулевой и обозначается

H0. Наряду с ней рассматривают альтернативную гипотезу H1.
Правило, согласно которому проверяют гипотезу H0 (принимают или отвергают), называется статистическим критерием.


Лекция 16. Проверка статистических гипотезСтатистической гипотезой называется утверждение о виде распределения генеральной совокупности.  Проверяемая гипотеза называется

Слайд 127Проверка гипотезы
Определим для малого α >0 область V так, чтобы

в случае справедливости гипотезы H0 вероятность осуществления события P(T(x) €

V ) = α.
По выборке вычислим значение статистики Т = tв.
Если окажется, что tв € V, то в предположении справедливости гипотезы H0, произошло маловероятное событие и эта гипотеза должна быть отвергнута как противоречащая статистическим данным. В противном случае нет основания отказываться от гипотезы H0 .
Проверка гипотезыОпределим для малого α >0 область V так, чтобы в случае справедливости гипотезы H0 вероятность осуществления

Слайд 128Критическая область
Статистика T(X), определенная выше,
называется статистикой критерия, V –
критической областью

критерия, α – уровнем
значимости критерия (вероятностью
ошибочного отвержения гипотезы

H0, когда она
верна).
В конкретных задачах величину α берут
равной 0,005; 0,01; 0,05; 0,1.

Критическая областьСтатистика T(X), определенная выше,называется статистикой критерия, V –критической областью критерия, α – уровнем значимости критерия (вероятностью

Слайд 129Если значение статистики попадает критическую область, то H0 отвергается.

Если значение статистики попадает критическую область, то H0 отвергается.

Слайд 130Ошибка первого рода
Ошибка первого рода состоит в том, что H0

отвергается, когда она верна.
Вероятность ошибки 1 – го рода

обозначается α,
α=P(T€ V/ H0) (значение статистики Т
принадлежит критической области V при
условии, что верна H0) .
α – это уровень значимости.

Ошибка первого родаОшибка первого рода состоит в том, что H0 отвергается, когда она верна. Вероятность ошибки 1

Слайд 131Ошибка второго рода
Ошибка второго рода состоит в том, что H0

не отвергается, когда она не верна.
Вероятность ошибки 2 –

го рода обозначается β.
β – это вероятность того, что значение
статистики Т не принадлежит критической
области V при условии, что верна H1.

Ошибка второго родаОшибка второго рода состоит в том, что H0 не отвергается, когда она не верна. Вероятность

Слайд 132Мощность критерия
Мощностью критерия
называется величина М= 1 – β.

Мощность
критерия М равна вероятности отвергнуть H0,
когда она не

верна.
М – это вероятность того, что значение
статистики Т принадлежит критической
области V при условии, что верна H1.

Мощность критерияМощностью критерия называется величина М= 1 – β. Мощность критерия М равна вероятности отвергнуть H0, когда

Слайд 133Лекция 17. Проверка гипотез о параметрах
Общая схема проверки
1.Сформулировать статистическую
параметрическую

модель, нулевую и
альтернативную гипотезы, задать уровень
значимости α.
2. Выбрать

статистику Т, такую, что она сама
зависит от параметра θ, а ее распределение
от θ не зависит, и различается при H0 и при H1.

СФУ Т.В. Крупкина

Лекция 17. Проверка гипотез о параметрахОбщая схема проверки1.Сформулировать статистическую параметрическую модель, нулевую и альтернативную гипотезы, задать уровень

Слайд 134 Общая схема проверки параметрических гипотез
3. Найти критическую область V.
4.

Рассчитать по выборке значение ст –ки Тв.
5. Если Тв попадает

в критическую область V, то нулевая гипотеза отвергается (в пользу альтернативной). Если Тв не попадает в критическую область V, то нулевая гипотеза не отвергается.
6. Сформулировать ответ в терминах вопроса.


Общая схема проверки параметрических гипотез  3. Найти критическую область V.4. Рассчитать по выборке значение ст

Слайд 135Проверка гипотез о параметрах нормального распределения
Гипотезы о параметрах одного распределения

(одна выборка).
Гипотезы о параметрах двух распределений (две независимые

выборки).
Гипотезы о параметрах двух распределений (две парные выборки).




Проверка гипотез о параметрах нормального распределения Гипотезы о параметрах одного распределения (одна выборка). Гипотезы о параметрах двух

Слайд 136Гипотеза о дисперсии. H0: σ = σ0.

Гипотеза о дисперсии.  H0: σ = σ0.

Слайд 137Гипотеза о среднем. H0: a = a0.
1) (X1,, X2,...,Xn)

€, N(θ1, σ), то есть параметр σ известен, а параметр

a не известен.


Гипотеза о среднем.  H0: a = a0. 1) (X1,, X2,...,Xn) €, N(θ1, σ), то есть параметр

Слайд 138Гипотеза о среднем. H0: a = a0.
2) (X1,, X2,...,

Xn) € N(θ1,θ2), то есть оба параметра неизвестны.


Гипотеза о среднем.  H0: a = a0.2) (X1,, X2,..., Xn) € N(θ1,θ2), то есть оба параметра

Слайд 139 Гипотеза о дисперсиях. H0: σ1 = σ2.
Критерий Фишера

Гипотеза о дисперсиях.   H0: σ1 = σ2. Критерий Фишера

Слайд 140 Гипотеза о средних. H0: a1 = a2.
Критерий Стьюдента

Гипотеза о средних.  H0: a1 = a2.  Критерий Стьюдента

Слайд 141Лекция 18. Проверка гипотез о виде распределения.
Критерии согласия
Критериями согласия

называют
критерии, предназначенные для проверки
простой гипотезы  H0: F = F0,

при сложной
альтернативной  H1: F ≠ F0.
Для проверки гипотезы возьмем статистику
T = T(X), характеризующую отклонение
эмпирических данных от соответствующих
гипотезе теоретических значений.

Лекция 18. Проверка гипотез о виде распределения. Критерии согласияКритериями согласия называюткритерии, предназначенные для проверкипростой гипотезы  H0: F

Слайд 142H0: F=F0. Критерий согласия Колмогорова

Критерий применяется для непрерывных сл.в.
В качестве

статистики T выбирают величину
Dn = Dn(x) = max|Fn(x) –

F0(x)|,
где Fn(x) – эмпирическая функция распределения, а в качестве критической области – область вида V = (t*,+∞).

H0: F=F0. Критерий согласия КолмогороваКритерий применяется для непрерывных сл.в.В качестве статистики T выбирают величину Dn = Dn(x)

Слайд 143При n → ∞, если H0 – верная гипотеза,
распределение

статистики √n Dn сходится к
функции Колмогорова К(t). Функция
Колмогорова

задается таблично. При
практических расчетах значения К(t) можно
применять уже при n > 20.
t* находится из таблиц К(t) по заданному α.
Например, при α = 0,05 находим, что t* = 1,358.


Применение критерия Колмогорова

При n → ∞, если H0 – верная гипотеза, распределение статистики √n Dn сходится к функции Колмогорова

Слайд 144Правило проверки
Таким образом, при заданном уровне
значимости α правило проверки
гипотезы

H0 при n>20 сводится к
следующему:
если значение статистики √n Dn ≥

t*,
то H0 отвергают, в противном случае
делают вывод, что статистические
данные не противоречат гипотезе.



Правило проверкиТаким образом, при заданном уровне значимости α правило проверкигипотезы H0 при n>20 сводится кследующему:если значение статистики

Слайд 145Критерий согласия Пирсона χ2
Критерий применяется к группированной выборке.
Пусть n

– объем выборки (n ≥ 50),
k – число интервалов

группировки,
ni – число значений, попавших в i –й интервал,
i = 1,…,k, (ni ≥ 5),
pi – теоретическая вероятность попадания одного элемента выборки в i – й интервал,
npi = niТ ( теоретические частоты).


Критерий согласия Пирсона χ2 Критерий применяется к группированной выборке. Пусть n – объем выборки (n ≥ 50),

Слайд 146Статистика критерия Пирсона



Если для оценки параметров используются оценки максимального правдоподобия,

то:



Статистика критерия ПирсонаЕсли для оценки параметров используются оценки максимального правдоподобия, то:

Слайд 147Правило проверки
ν = k – r –1, где r –

число параметров, оцененных
по выборке.
Критическая область имеет вид (t*, +∞),

где t*
– квантиль распределения χ2 порядка 1 – α.
Если значение статистики T ≥ t*, то H0
отвергают, в противном случае делают
вывод, что статистические данные не
противоречат гипотезе.

Правило проверкиν = k – r –1, где r – число параметров, оцененных по выборке.Критическая область имеет

Обратная связь

Если не удалось найти и скачать доклад-презентацию, Вы можете заказать его на нашем сайте. Мы постараемся найти нужный Вам материал и отправим по электронной почте. Не стесняйтесь обращаться к нам, если у вас возникли вопросы или пожелания:

Email: Нажмите что бы посмотреть 

Что такое TheSlide.ru?

Это сайт презентации, докладов, проектов в PowerPoint. Здесь удобно  хранить и делиться своими презентациями с другими пользователями.


Для правообладателей

Яндекс.Метрика