Разделы презентаций


Множественный регрессионный анализ

Содержание

Построение уравнения регрессии 1. Постановка задачиДанные наблюденийПо имеющимся данным n наблюдений за совместным изменением параметров y, xj и ((yi,xj,i); j=1, 2, ..., p; i=1, 2, ..., n) необходимо определить аналитическую зависимость

Слайды и текст этой презентации

Слайд 1Множественный регрессионный анализ
часть значения у, которая объяснена уравнением

регрессии с несколькими факторами

необъясненная часть значения у
(или возмущение)


Множественная регрессия – это уравнение связи с несколькими независимыми переменными:

Множественный регрессионный анализ  часть значения у, которая объяснена уравнением регрессии с несколькими факторами необъясненная часть значения

Слайд 2Построение уравнения регрессии 1. Постановка задачи
Данные наблюдений
По имеющимся данным n наблюдений

за совместным изменением параметров y, xj и ((yi,xj,i); j=1, 2,

..., p; i=1, 2, ..., n) необходимо определить аналитическую зависимость ŷ = f(x1,x2,...,xp), наилучшим образом описывающую данные наблюдений.


Критерий качества
выбранной зависимости:

Построение уравнения регрессии 1. Постановка задачиДанные наблюденийПо имеющимся данным n наблюдений за совместным изменением параметров y, xj

Слайд 32. Спецификация модели

2.1. Отбор факторов, подлежащих включению в модель
Требования к

отбираемым факторам


Факторы не должны быть взаимно коррелированы
Факторы должны быть

количественно измеримы

целесообразность включения каждого нового фактора оценивается с помощью коэффициента детерминации;
при возникновении необходимости добавить в уравнение качественный фактор вводится «фиктивная» переменная

Пример:
y – себестоимость единицы продукции
x – заработная плата работника
z – производительность труда

2. Спецификация модели 	2.1. Отбор факторов, подлежащих включению в модельТребования к отбираемым факторамФакторы не должны быть взаимно

Слайд 4Парная коллинеарность и мультиколлинеарность
Две переменные считаются явно коллинеарными, т.е. находятся

между собой в линейной зависимости, если коэффициент интеркорреляции (корреляции между

двумя объясняющими переменными) ≥ 0,7.
Если факторы явно коллинеарны, то они дублируют друг друга и один из них рекомендуется исключить из уравнения.

Мультиколлинеарность – линейная зависимость между более чем двумя переменными, т.е. совокупное воздействие факторов друг на друга.
Парная коллинеарность и мультиколлинеарность		Две переменные считаются явно коллинеарными, т.е. находятся между собой в линейной зависимости, если коэффициент

Слайд 5Включение в модель мультиколлинеарных факторов нежелательно по следующим причинам:
затрудняется

интерпретация параметров множественной регрессии; параметры линейной регрессии теряют экономический смысл;
оценки

параметров не надежны, имеют большие стандартные ошибки и меняются с изменением количества наблюдений (не только по величине, но и по знаку), что делает модель непригодной для анализа и прогнозирования.
Включение в модель мультиколлинеарных факторов нежелательно  по следующим причинам: затрудняется интерпретация параметров множественной регрессии; параметры линейной

Слайд 6Оценка мультиколлинеарности
Для оценки мультиколлинеарности используется определитель матрицы парных коэффициентов интеркорреляции:
(!)

Если факторы не коррелируют между собой, то матрица коэффициентов интеркорреляции

является единичной, поскольку в этом случае все недиагональные элементы равны 0.
Например, для уравнения с тремя переменными



Оценка мультиколлинеарности	Для оценки мультиколлинеарности используется определитель матрицы парных коэффициентов интеркорреляции:(!) Если факторы не коррелируют между собой, то

Слайд 7(!) Если между факторами существует полная линейная зависимость и все

коэффициенты корреляции равны 1, то определитель такой матрицы равен 0.
Чем

ближе к 0 определитель матрицы коэффициентов интеркорреляции, тем сильнее мультиколлинеарность и ненадежнее результаты множественной регрессии.
Чем ближе к 1 определитель матрицы коэффициентов интеркорреляции, тем меньше мультиколлинеарность факторов.


(!) Если между факторами существует полная линейная зависимость и все коэффициенты корреляции равны 1, то определитель такой

Слайд 8Способы преодоления мультиколлинеарности факторов:
исключение из модели одного или нескольких факторов;
переход

к совмещенным уравнениям регрессии, т.е. к уравнениям, которые отражают не

только влияние факторов, но и их взаимодействие. Например,
если , то можно построить следующее совмещенное уравнение:

переход к уравнениям приведенной формы (в уравнение регрессии подставляется рассматриваемый фактор, выраженный из другого уравнения).



Способы преодоления мультиколлинеарности факторов:исключение из модели одного или нескольких факторов;переход к совмещенным уравнениям регрессии, т.е. к уравнениям,

Слайд 92. Спецификация модели 2.2. Выбор формы уравнения регрессии
Линейная регрессия


Линеаризуемые регрессии
Степенная регрессия


Экспоненциальная

регрессия


Гиперболическая регрессия

2. Спецификация модели 2.2. Выбор формы уравнения регрессииЛинейная регрессияЛинеаризуемые регрессииСтепенная регрессияЭкспоненциальная регрессияГиперболическая регрессия

Слайд 10Например, зависимость спроса на товар (Qd) от цены (P) и

дохода (I) характеризуется следующим уравнением: Qd = 2,5 - 0,12P +

0,23 I. Коэффициенты данного уравнения говорят о том, что при увеличении цены на единицу, спрос уменьшится в среднем на 0,12 единиц, а при увеличении дохода на единицу, спрос возрастет в среднем 0,23 единицы.

Например, зависимость выпуска продукции Y от затрат капитала K и труда L:

говорит о том, что увеличение затрат капитала K на 1% при неизменных затратах труда вызывает увеличение выпуска продукции Y на 0,23%. Увеличение затрат труда L на 1% при неизменных затратах капитала K вызывает увеличение выпуска продукции Y на 0,81%.


Например, зависимость спроса на товар (Qd) от цены (P) и дохода (I) характеризуется следующим уравнением: Qd =

Слайд 113. Оценка параметров модели 3.1. МНК

или

Отсюда получаем систему уравнений:




3. Оценка параметров модели 3.1. МНК или Отсюда получаем систему уравнений:

Слайд 12Решение системы уравнений с помощью метода определителей:
где ∆ – определитель


системы:

∆a, ∆b1, ∆bp

– частные определители (∆j) , которые получаются из основного определителя путем замены j-го столбца на столбец свободных членов


Решение системы уравнений с помощью метода определителей:где ∆ – определитель       системы:

Слайд 133. Оценка параметров модели 3.2. Метод оценки параметров через стандартизованные коэффициенты

β
Уравнение регрессии в стандартизованном (нормированном) масштабе:



где

, - стандартизованные
переменные
β - стандартизованные коэффициенты регрессии.
β-коэффициенты показывают, на сколько сигм (средних квадратических отклонений) изменится в среднем результат за счет изменения соответствующего фактора xi на одну сигму при неизменном среднем уровне других факторов.




3. Оценка параметров модели 3.2. Метод оценки параметров через стандартизованные коэффициенты βУравнение регрессии в стандартизованном (нормированном) масштабе:где

Слайд 14Взаимосвязь bi и β
Связь коэффициентов «чистой» регрессии bi с коэффициентами

βi описывается соотношением:


или
Параметр a определяется как:
Коэффициенты β определяются

при помощи МНК из следующей системы уравнений методом определителей:
Взаимосвязь bi и β	Связь коэффициентов «чистой» регрессии bi с коэффициентами βi описывается соотношением:или Параметр a определяется как:

Слайд 154. Проверка качества уравнения регрессии
Н0: уравнение статистически не значимо

yi =

ŷi + εi

D(y) = D(ŷ) + D(ε)

4. Проверка качества уравнения регрессии Н0: уравнение статистически не значимо yi

Слайд 16F-критерий Фишера:
где m – число независимых переменных в уравнении

регрессии;
n – число

единиц совокупности.

Если Fфакт > Fтабл, то Н0 о случайной природе связи отклоняется и признается статистическая значимость и надежность уравнения.
Если Fфакт < Fтабл, то Н0 не отклоняется и признается статистическая незначимость уравнения регрессии.

F-критерий Фишера:где m – число независимых переменных в уравнении      регрессии;

Слайд 17Частный F-критерий:
- оценивает статистическую значимость присутствия каждого из факторов

в уравнении.

Частный F-критерий: - оценивает статистическую значимость присутствия каждого из факторов в уравнении.

Теги

Обратная связь

Если не удалось найти и скачать доклад-презентацию, Вы можете заказать его на нашем сайте. Мы постараемся найти нужный Вам материал и отправим по электронной почте. Не стесняйтесь обращаться к нам, если у вас возникли вопросы или пожелания:

Email: Нажмите что бы посмотреть 

Что такое TheSlide.ru?

Это сайт презентации, докладов, проектов в PowerPoint. Здесь удобно  хранить и делиться своими презентациями с другими пользователями.


Для правообладателей

Яндекс.Метрика