Разделы презентаций


Лекция № 3 Задача классификации

Содержание

Задача классификацииЗадача классификацииОбласти применения алгоритмов классификацииФормальное математическое определениеНесбалансированная классификацияКритерии качества классификации:Precision, Recall, F1 score, ROC AUC

Слайды и текст этой презентации

Слайд 1Лекция № 3 Задача классификации

Лекция № 3 Задача классификации

Слайд 2Задача классификации
Задача классификации
Области применения алгоритмов классификации
Формальное математическое определение
Несбалансированная классификация
Критерии качества

классификации:
Precision, Recall, F1 score, ROC AUC

Задача классификацииЗадача классификацииОбласти применения алгоритмов классификацииФормальное математическое определениеНесбалансированная классификацияКритерии качества классификации:Precision, Recall, F1 score, ROC AUC

Слайд 3Области применения алгоритмов классификации

Области применения алгоритмов классификации

Слайд 4Области применения алгоритмов классификации
Регрессия - множество ответов бесконечно, так как

они являются действительными числами или векторами действительных чисел.




Классификация - множество

ответов дискретно и конечно. Решается задача классификации объектов в один или несколько классов.
Области применения алгоритмов классификацииРегрессия - множество ответов бесконечно, так как они являются действительными числами или векторами действительных

Слайд 5Области применения алгоритмов классификации
Оценка кредитоспособности заемщиков.
Задачи медицинской диагностики
Оптическое распознавание символов.
Распознавание

речи.
Обнаружение спама.
Классификация документов и т.д.

Области применения алгоритмов классификацииОценка кредитоспособности заемщиков.Задачи медицинской диагностикиОптическое распознавание символов.Распознавание речи.Обнаружение спама.Классификация документов и т.д.

Слайд 6Формальное математическое определение

Формальное математическое определение

Слайд 7Формальное математическое определение
Разделяющая гиперплоскость – это гиперплоскость, которая отделяет группы

объектов, принадлежащим различным классам.
Если такая гиперплоскость существует, то говорят

о линейной разделимости выборки (A).
Качество линейных методов классификации невысоко на линейно неразделимой выборке (B).

Формальное математическое определениеРазделяющая гиперплоскость – это гиперплоскость, которая отделяет группы объектов, принадлежащим различным классам. Если такая гиперплоскость

Слайд 8Формальное математическое определение

Формальное математическое определение

Слайд 9Формальное математическое определение

Формальное математическое определение

Слайд 10Несбалансированная классификация
Imbalanced Data : один из классов представлен значительно бо́льшим

количеством объектов, чем другой – мажоритарный и миноритарный классы.
Классификация на

подобных выборках может оказаться неэффективной, т.к. модель будет предвзятой и неточной. Причина: классификатор может полностью отнести объекты миноритарных классов к шуму.
Алгоритмы машинного обучения обычно предназначены для повышения точности за счет уменьшения ошибки. Другими словами, классификатор настраивается на мажоритарный класс, получая высокую точность, не выделяя объекты миноритарного класса.
Несбалансированная классификацияImbalanced Data : один из классов представлен значительно бо́льшим количеством объектов, чем другой – мажоритарный и

Слайд 11Несбалансированная классификация
Задачи, в которых несбалансированность данных не просто общая проблема,

а ожидаема в силу специфики области применения:

В медицинской диагностике объектам

миноритарного класса соответствует наличие редкого заболевания.

Прогнозирование природных катастроф.

Обнаружение аномалий в сценариях обнаружения кражи электроэнергии.

Мошеннические транзакции – 1-2% транзакций, отличающихся от большинства.




Несбалансированная классификацияЗадачи, в которых несбалансированность данных не просто общая проблема, а ожидаема в силу специфики области применения:В

Слайд 12Несбалансированная классификация
Обучение на несбалансированных данных осложняется расположением отдельных примеров выборок:




Вкрапления
Наложения
s

– чистые примеры класса (safe examples);
b – пограничные (borderline);
n –

зашумляющие (noisy).
Несбалансированная классификацияОбучение на несбалансированных данных осложняется расположением отдельных примеров выборок:ВкрапленияНаложенияs – чистые примеры класса (safe examples);b –

Слайд 13Несбалансированная классификация
Основные подходы к решению проблемы несбалансированных данных в классификации:
Сэмплинг

(sampling)
Уменьшение большего класса
Увеличение меньшего класса
2. Изменение порога решения



Сэмплинг представляет собой

выбор прецедентов таким образом, чтобы их количество для обоих классов уравнялось. Этот подход позволяет учесть распределение/соотношение классов.




Imbalanced Data

Over-sampling

Under-sampling

Несбалансированная классификацияОсновные подходы к решению проблемы несбалансированных данных в классификации:Сэмплинг (sampling)Уменьшение большего классаУвеличение меньшего класса2. Изменение порога

Слайд 14Несбалансированная классификация
Уменьшение большего класса (Undersampling)
Случайный или синтетический выбор прецедентов мажоритарного

класса в обучающую выборку.
Приводит к уменьшению тренировочной базы
Возможно исключение

важной информации и увеличение ошибки
Самый простой вариант — произвольный выбор прецедентов (Random Undersampling) — не учитывает положение прецедентов относительно друг друга и поверхности, разделяющей классы. Однако, на практике он оказывается наиболее эффективным.



Несбалансированная классификацияУменьшение большего класса (Undersampling)Случайный или синтетический выбор прецедентов мажоритарного класса в обучающую выборку. Приводит к уменьшению

Слайд 15Несбалансированная классификация
Уменьшение большего класса (Undersampling)
Поиск связей Томека (Tomek Links)
Этот способ

хорошо удаляет записи, которые можно рассматривать в качестве «зашумляющих».


Несбалансированная классификацияУменьшение большего класса (Undersampling)Поиск связей Томека (Tomek Links)Этот способ хорошо удаляет записи, которые можно рассматривать в

Слайд 16Несбалансированная классификация
Уменьшение большего класса (Undersampling)
Правило сосредоточенного ближайшего соседа
(Condensed Nearest

Neighbor Rule)
Этот метод учит классификатор находить отличие между похожими примерами,

но принадлежащими к разным классам.

Несбалансированная классификацияУменьшение большего класса (Undersampling)Правило сосредоточенного ближайшего соседа (Condensed Nearest Neighbor Rule)Этот метод учит классификатор находить отличие

Слайд 17Несбалансированная классификация
Уменьшение большего класса (Undersampling)
Односторонний сэмплинг (One-side Sampling, One-sided Selection)
Применяется

правило сосредоточенного ближайшего соседа.
Удаляются все мажоритарные примеры, участвующие в связях

Томека.

Таким образом, удаляются большие «сгустки» мажоритарных примеров, а затем область пространства со скоплением миноритарных очищается от потенциальных шумовых эффектов.

Несбалансированная классификацияУменьшение большего класса (Undersampling)Односторонний сэмплинг (One-side Sampling, One-sided Selection)Применяется правило сосредоточенного ближайшего соседа.Удаляются все мажоритарные примеры,

Слайд 18Несбалансированная классификация
Уменьшение большего класса (Undersampling)
Правило «очищающего» соседа (Neighborhood Cleaning Rule)
Все

примеры классифицируются по правилу трех ближайших соседей.
Удаляются следующие мажоритарные примеры:
получившие

верную метку класса;
являющиеся соседями миноритарных примеров, которые были неверно классифицированы.

Эта стратегия также направлена на то, чтобы удалить те примеры, которые негативно влияют на исход классификации миноритарных.

Несбалансированная классификацияУменьшение большего класса (Undersampling)Правило «очищающего» соседа (Neighborhood Cleaning Rule)Все примеры классифицируются по правилу трех ближайших соседей.Удаляются

Слайд 19Несбалансированная классификация
Увеличение меньшего класса (Oversampling)
Добавление прецедентов миноритарного класса позволяет сохранить

всю имеющуюся информацию. Недостаток – увеличение размера тренировочной базы и,

как следствие, большее время ее обработки.
Самый простой вариант — дублирование случайных прецедентов меньшего класса, которое не добавляет лишней информации и не изменяет положение разделяющей поверхности.

Несбалансированная классификацияУвеличение меньшего класса (Oversampling)Добавление прецедентов миноритарного класса позволяет сохранить всю имеющуюся информацию. Недостаток – увеличение размера

Слайд 20Несбалансированная классификация
Увеличение меньшего класса (Oversampling)
Алгоритм SMOTE (Synthetic Minority Oversampling Technique)

- генерация некоторого количества искусственных примеров, которые «похожи» на имеющиеся

в миноритарном классе, но при этом не дублируют их.

Миноритарный пример

Мажоритарный пример

Искусственный пример

Алгоритм не подходит в случае, если миноритарные примеры равномерно распределены среди мажоритарных и имеют низкую плотность. Тогда SMOTE только сильнее перемешает классы.

Несбалансированная классификацияУвеличение меньшего класса (Oversampling)Алгоритм SMOTE (Synthetic Minority Oversampling Technique) - генерация некоторого количества искусственных примеров, которые

Слайд 21Несбалансированная классификация
Увеличение меньшего класса (Oversampling)
Алгоритм ADASYN (Adaptive Synthetic Minority Oversampling)

- использование функции плотности распределения как критерия для автоматического определения

числа экземпляров, которые необходимо сгенерировать для каждого из объектов миноритарного класса, адаптивно меняя веса разных экземпляров миноритарного класса

Миноритарный пример

Мажоритарный пример

Искусственный пример

Несбалансированная классификацияУвеличение меньшего класса (Oversampling)Алгоритм ADASYN (Adaptive Synthetic Minority Oversampling) - использование функции плотности распределения как критерия

Слайд 22Несбалансированная классификация
Изменение порога решения (Changing Performance Metric)
Многие алгоритмы классификации определяют

степень достоверности предсказания. При данном подходе, изменяя порог в решающем

правиле, можно получать различные разделяющие поверхности.

Правильно классифицированные объекты миноритарного класса

Неправильно классифицированные объекты миноритарного класса

Правильно классифицированные объекты мажоритарного класса

Центральная гиперплоскость

Центральная гиперплоскость

Такие методы довольно просты в реализации; однако, изменение порога не гарантирует точность формы границы, что может привести к значительному повышению общей ошибки.
Существуют методы, предлагающие показатели эффективности, которые могут дать большее представление о точности модели, чем традиционные метрики.

Несбалансированная классификацияИзменение порога решения (Changing Performance Metric)Многие алгоритмы классификации определяют степень достоверности предсказания. При данном подходе, изменяя

Слайд 23Критерии качества классификации
Определим ROC-кривую (receiver operating characteristic, рабочая характеристика приёмника)
Ось

абсцисс: доля неправильных положительных предсказаний как функция w0
Ось ординат: доля

правильных положительных предсказаний
AUC - площадь под кривой, используется для оценки точности классификации (AUC ≥ 0,5)
Пунктирная линия - наихудшая точность (случайное предсказание)
Критерии качества классификацииОпределим ROC-кривую (receiver operating characteristic, рабочая характеристика приёмника)Ось абсцисс: доля неправильных положительных предсказаний как функция

Слайд 24Критерии качества классификации
Точность и полнота (Precision and Recall) для случая

бинарной классификации

TP - правильные положительные предсказания
FP - неправильные положительные предсказания
FN

- неправильные отрицательные предсказания
Критерии качества классификацииТочность и полнота (Precision and Recall) для случая бинарной классификацииTP - правильные положительные предсказанияFP -

Слайд 25Критерии качества классификации

Критерии качества классификации

Слайд 26Ключевые концепции
Задачи классификации оперируют множеством ответов с дискретными значениями, так

как цель таких задач — определить, к какому классу относится

пример.
Чем дальше точка от гиперплоскости, являющейся границей решений (decision boundary), тем выше вероятность, что образец (sample), определяемый этой точкой, попадает в тот или иной класс.
Imbalanced Data : один из классов представлен значительно бо́льшим количеством объектов, чем другой – мажоритарный и миноритарный классы.
Основные подходы к решению проблемы несбалансированных данных в классификации:
1. Сэмплинг
2. Изменение порога решения
Многие алгоритмы классификации определяют степень достоверности предсказания. При данном подходе, изменяя порог в решающем правиле, можно получать различные разделяющие поверхности.

Ключевые концепцииЗадачи классификации оперируют множеством ответов с дискретными значениями, так как цель таких задач — определить, к

Обратная связь

Если не удалось найти и скачать доклад-презентацию, Вы можете заказать его на нашем сайте. Мы постараемся найти нужный Вам материал и отправим по электронной почте. Не стесняйтесь обращаться к нам, если у вас возникли вопросы или пожелания:

Email: Нажмите что бы посмотреть 

Что такое TheSlide.ru?

Это сайт презентации, докладов, проектов в PowerPoint. Здесь удобно  хранить и делиться своими презентациями с другими пользователями.


Для правообладателей

Яндекс.Метрика