Разделы презентаций


Линейная дискриминантная функция Фишера

Задача Фишера состоит в построении вырожденного линейного преобразования: y = WT , ║W║ = 1 y = ║W║║x ║cos( ) фактически это выражение дает

Слайды и текст этой презентации

Слайд 1Линейная дискриминантная функция Фишера

Данный подход не требует предположений о

нормальном распределении данных.

Пусть имеется обучающая выборка: x1, x2, ... xN

, где:

N1 элементов из множества X1
N2 элементов из множества X2

Общее число элементов N = N1 + N2

Задача состоит в построении разделяющей функции для двух классов:

X1 = {xi} i=1..N1 X2 = { } j=1..N2


Линейная дискриминантная функция Фишера Данный подход не требует предположений о нормальном распределении данных.Пусть имеется обучающая выборка: x1,

Слайд 2Задача Фишера состоит в построении вырожденного линейного преобразования:
y = WT

, ║W║ = 1
y = ║W║║x ║cos(

)
фактически это выражение дает нам проекции векторов X на вектор W
У Фишера такое преобразование рассматривается как проекция на ось W: { } → {y} = Y




Задача Фишера состоит в построении вырожденного линейного преобразования:		y = WT  ,  ║W║ = 1	y =

Слайд 3Нужно найти такой вектор W, чтобы множества Y1 и Y2

были наиболее разнесены (то есть, удалены друг от друга).

Критерий разнесения

может быть выбран разным.

Исходить будем из следующих параметров: для каждой выборки определим среднее значение:

mi = xi


= yi = WTxi = WT{ x} = WT mi


Далее мы строим | - |:

| - | = WT( ) - это скалярная величина







Нужно найти такой вектор W, чтобы множества Y1 и Y2 были наиболее разнесены (то есть, удалены друг

Слайд 4Далее проблема состоит в оценке функции разброса:

=

(y - )2 - разброс внутри

класса


= + - суммарный разброс

Разброс внутри класса – это нечто вроде дисперсии, только ненормированной.

- средняя дисперсия выборки в Y.



Далее проблема состоит в оценке функции разброса:			=     (y -   )2

Слайд 5Далее идет дело техники: как это вычислить и как оптимизировать.
Мы

определяем матрицу разброса внутри класса:

= (WTx

- WT mi)2 = WT (x - mi) WT(x - mi) =


= WT (x - mi)(x - mi)T W = WT [ (x - mi)(x - mi)T]W =

=WT Si W

Si – матрица разброса внутри Xi.
Далее идет дело техники: как это вычислить и как оптимизировать.Мы определяем матрицу разброса внутри класса:		=

Слайд 6Таким образом получаем следующий результат:

= WT Si W

S1 +

S2 = SW - суммарная матрица разброса для всех результатов.

+ = WT SW W

Таким же образом можно представить ( - )2:

( - )2 = (WT - WT )2 = WT( )WT( ) =

= WT( )( )T W = WT SB W

Матрица SB - матрица разброса между классами



Таким образом получаем следующий результат: 			= WT Si W		S1 + S2 = SW - суммарная матрица разброса

Слайд 7Тогда мы получаем искомый критерий в следующем виде:

J(

) =

Далее стоит задача оптимизации данного отношения (мы

должны его максимизировать).

Рассмотрим свойства матрицы SB:

SB = ( )( )T

1. это квадратная матрица размерности n × n
2. произведение этой матрицы на произвольный вектор

SB = ( )( )T = С( )
C - скаляр
дает вектор, который по направлению совпадает с разностью
( )




Тогда  мы получаем искомый критерий в следующем виде:		J(   ) = Далее стоит задача оптимизации

Слайд 8 3. ранг матрицы SB равен единице, это легко показать, если

представить ее в виде ddT:

d1d1 d1d2 ... d1dn
d2d1 d2d2 ...

d2dn
. = ( ) .
.
dnd1 dnd2 ... dndn

- матрица вырожденная и ранг ее равен единице.
3. ранг матрицы SB равен единице, это легко показать, если представить ее в виде ddT:	d1d1 d1d2 ...

Слайд 9Условная оптимизация по Лагранжу
Запишем функцию Лагранжа: F = WT

SB W - λ WT SW W,
где λ -произвольная

константа
Эта функция зависит от W
Мы должны найти производную этой функции по вектору :

= 2 SB - 2 λ SW = 0


= 2A - такое правило существует, его легко
доказать

Получаем следующее:
SB W - λ SW W




Условная оптимизация по Лагранжу Запишем функцию Лагранжа: F = WT SB W - λ WT SW W,

Слайд 10C( ) =

λ SW , отсюда окончательно имеем:

=

SW-1 ( ) .

Так как вектор произвольной длины, положим =1, тогда имеем :

= SW-1 ( ).

Соответственно линейный дискриминант Фишера получается в следующем виде:

y = T = XTW = SW-1( ) - это проекция вектора на ось W


C(        ) = λ SW     ,

Слайд 11Мы должны выбрать некоторый порог решения η

Правило решения имеет вид

XT SW-1( )

= η


Мы должны выбрать некоторый порог решения ηПравило решения имеет вид XT SW-1(

Слайд 12Матрица SW = S1 + S2 ~ N Σ

пропорциональна суммарной матрице ковариации и соответственно для случая нормального распределения

исходных данных дискриминант Фишера дает результат такой же, как и байесовская линейная дискриминантная функция:

XT Σ-1(M1 – M2) + C1 ... ≥ C2
Матрица  SW = S1 + S2 ~ N Σ пропорциональна суммарной матрице ковариации и соответственно для

Обратная связь

Если не удалось найти и скачать доклад-презентацию, Вы можете заказать его на нашем сайте. Мы постараемся найти нужный Вам материал и отправим по электронной почте. Не стесняйтесь обращаться к нам, если у вас возникли вопросы или пожелания:

Email: Нажмите что бы посмотреть 

Что такое TheSlide.ru?

Это сайт презентации, докладов, проектов в PowerPoint. Здесь удобно  хранить и делиться своими презентациями с другими пользователями.


Для правообладателей

Яндекс.Метрика