Разделы презентаций


АНАЛИЗ И ИНТЕРПРЕТАЦИЯ ДАННЫХ

Содержание

Оценка качества классификации Рассмотрим случайную величину: являющейся значением решающей функции. Решение

Слайды и текст этой презентации

Слайд 1«АНАЛИЗ И ИНТЕРПРЕТАЦИЯ ДАННЫХ»
Оценка качества классификации


Постникова О.Е. гр. 3341

«АНАЛИЗ И ИНТЕРПРЕТАЦИЯ ДАННЫХ»Оценка качества классификации Постникова О.Е. гр. 3341

Слайд 2Оценка качества классификации
Рассмотрим случайную величину:




являющейся значением решающей функции. Решение принимается сравнением U с порогом


В исходной постановке задачи мы рассматривали многомерное пространство





Оценка качества классификации Рассмотрим случайную величину:

Слайд 3Так как решение принимается на основе одномерной величины U, то

можно считать, что задача классификации сводится к редукции пространства, то

есть от n-мерного пространства мы переходим к пространству
В исходном пространстве условные плотности – многомерные нормальные распределения:















Так как решение принимается на основе одномерной величины U, то можно считать, что задача классификации сводится к

Слайд 4В редуцированном пространстве переходим к одномерным условным нормальным распределения величины

U


т. е. каждому многомерному распределению соответствует одномерное.

- пороговое значение
Проблему принятия решения сводим к одномерной задаче. Ошибки классификации могут быть определены через распределения U.



C – порог







В редуцированном пространстве переходим к одномерным условным нормальным распределения величины Uт. е. каждому многомерному распределению соответствует одномерное.

Слайд 5Прямое вычисление ошибок в многомерном пространстве приводит к техническим трудностям,

поэтому и применяется редукция пространства.

Основная задача:
поиске распределений

плотности вероятностей значений решающей функции U.
U - это линейная комбинация нормально распределенных величин, нормальная величина.

Прямое вычисление ошибок в многомерном пространстве приводит к техническим трудностям, поэтому и применяется редукция пространства.Основная задача:

Слайд 6Условные математические ожидании и дисперсии U по классам






где

- расстояние Махаланобиса
Посчитаем :
математические ожидания ошибок







Условные математические ожидании и дисперсии U по классамгде

Слайд 7Нахождении дисперсий данной величины





В предположении равенства матриц ковариации в

исходном пространстве, получаем, что дисперсии U также равны по классам.
Т.к.

матрицы ковариации одинаковые, то можно сделать вывод: DU1 = DU2
M{(V - MV)2} = M{(V - MV)T(V - MV)}
D = (M1 - M2)Т∑-1(M1 - M2) = α = σ2 ,
где α - расстояние Махаланобиса.


Нахождении дисперсий данной величины В предположении равенства матриц ковариации в исходном пространстве, получаем, что дисперсии U также

Слайд 8
U может принадлежать двум нормальным распределениям:
U1 ∈ N(

(½)α, α); U2 ∈ N(- (½)α, α);


MU1 = (1/2)α
MU2 = -(1/2)α
MU1 – MU2 = α
U может принадлежать двум нормальным распределениям:  U1 ∈ N( (½)α, α); U2 ∈ N(- (½)α, α);

Слайд 9α - обобщенное расстояние между классами в N-мерном пространстве.
α =

(M1 - M2)T Σ-1(M1-M2)
Если Σ = I, то
α =

(M1 - M2)T(M1 - M2) = Σ(M1i - M2i)2 = ║M1 - M2║2 = d2
Если матрица диагональная, но с разными σ, то:




- сумма взвешенных расстояний по каждой координате




α - обобщенное расстояние между классами в N-мерном пространстве.α = (M1 - M2)T Σ-1(M1-M2)Если Σ = I,

Слайд 10
α хорошо описывает статистическую природу данных.
δ = XT Σ-1(M1 -

M2) – (½) (M1 + M2)T Σ-1(M1 - M2)
M{U/1}

= (1/2)α α = (M1 - M2)T Σ-1(M1 - M2)
M{U/2} = -(1/2)α
D[U] = M[(U - MU)2] = M[(U - MU)T(U - MU)]
D[U] = α
σn2 = α
α хорошо описывает статистическую природу данных.δ = XT Σ-1(M1 - M2) – (½) (M1 + M2)T Σ-1(M1

Слайд 11Построим вероятности ошибок классификации
U ≥ C C = ln

K K = (q2C(1|2) )/(q1C(2|1) )

N((1/2)αα) N(-(1/2)αα)








Построим вероятности ошибок классификации U ≥ C C = ln K   K = (q2C(1|2) )/(q1C(2|1)

Слайд 12P = q1 P(2|1) + q2 P(1|2) - вероятность полной

ошибки










Ф(x) – интеграл ошибок Гаусса.





P = q1 P(2|1) + q2 P(1|2) - вероятность полной ошибкиФ(x) – интеграл ошибок Гаусса.

Слайд 13Полная ошибка


Cвойства полной ошибки:
C = ln K = ln((q2C(1|2))/(q1C(2|1)))

= 0
q1 = q2 = 0.5 C(1|2) =

C(2|1)
Pош = 0.5 Ф( ) + 0.5 [1 - Ф( )] =
= 0.5 [1 - Ф( )] + 0.5 [1 - Ф( )] = 1 - Ф( )
Т.к. Ф(-х) = 1 – Ф(х)








Полная ошибкаCвойства полной ошибки: C = ln K = ln((q2C(1|2))/(q1C(2|1))) = 0q1 = q2 = 0.5

Слайд 14Рассмотрим α

Пусть



α = (M1 - M2)T Σ-1(M1-M2) =

Если σi2 = 1, тогда α = Σ(M1i - M2i)2 = d2
Ошибка зависит от обобщенного расстояния d2, чем больше d2, тем меньше ошибка (так как расстояние между распределениями увеличивается).





Рассмотрим α

Слайд 15
((M1i - M2i)/ σi)= γ - это

взвешенное нормальное распределение
Если γ = const, тогда α

будет представлять собой следующее:
α = Σγ2 = n γ2




((M1i - M2i)/ σi)= γ  - это взвешенное нормальное распределение  Если γ =

Слайд 16Пусть вероятность ошибки 0,005 = 0,5%.
Pош = 1 – Ф(x),

где х =
По таблице можно найти данную величину:




γ =

0.1 – это означает, что классы сильно пересекаются
n = [ ] = 2700 для γ = 0,1
Для γ = 5 n = [ ] = 2







Пусть вероятность ошибки 0,005 = 0,5%.Pош = 1 – Ф(x), где х = По таблице можно найти

Слайд 17 Подбирая размерность пространства всегда можно добиться уменьшения ошибок

(с ростом размерности ошибка падает).





P1пр = f(U|1)dU

Pпр2 = f(U|2)dU

Pпрср = q1 P1пр + q2 P2пр



Подбирая размерность пространства всегда можно добиться уменьшения ошибок (с ростом размерности ошибка падает).P1пр =

Обратная связь

Если не удалось найти и скачать доклад-презентацию, Вы можете заказать его на нашем сайте. Мы постараемся найти нужный Вам материал и отправим по электронной почте. Не стесняйтесь обращаться к нам, если у вас возникли вопросы или пожелания:

Email: Нажмите что бы посмотреть 

Что такое TheSlide.ru?

Это сайт презентации, докладов, проектов в PowerPoint. Здесь удобно  хранить и делиться своими презентациями с другими пользователями.


Для правообладателей

Яндекс.Метрика