Разделы презентаций


Deep Learning Club

Содержание

Искусственный интеллект

Слайды и текст этой презентации

Слайд 1Deep Learning Club
1. Введение

Deep Learning Club1. Введение

Слайд 2Искусственный интеллект

Искусственный интеллект

Слайд 3Решение уравнений
Распознавание образов
Пример задач

Решение уравненийРаспознавание образовПример задач

Слайд 4Эксперименты на животных
Задача: по фотографии определять кошка или собака

Эксперименты на животныхЗадача: по фотографии определять кошка или собака

Слайд 5Пример формальной постановки
Кошки
Собаки
Кошка или собака?
Вопрос:


Пример формальной постановкиКошкиСобакиКошка или собака?Вопрос:……

Слайд 6Семантический разрыв
Кошки
Собаки
Кошка или собака?
Вопрос:


Семантический разрывКошкиСобакиКошка или собака?Вопрос:……

Слайд 7Семантический разрыв
Кошки
Собаки
Кошка или собака?
Вопрос:


Семантический разрывКошкиСобакиКошка или собака?Вопрос:……

Слайд 8Семантический разрыв
Фотографии
Рисунки
Кошка или собака?
Вопрос:


Семантический разрывФотографииРисункиКошка или собака?Вопрос:……

Слайд 9Решение задач
с семантическим разрывом
в формальной постановке

основной предмет науки
«Машинное обучение»

Решение задачс семантическим разрывомв формальной постановке–основной предмет науки«Машинное обучение»

Слайд 10Машинное обучение
Построение моделей по данным
=
То есть алгоритм способен научиться решать

задачу с использованием данных
без прямого программирования модели

Машинное обучениеПостроение моделей по данным=То есть алгоритм способен научиться решать задачу с использованием данныхбез прямого программирования модели

Слайд 11Модели можно использовать для
Прогнозирования
Анализа зависимостей в данных
Построения других моделей

Модели можно использовать дляПрогнозированияАнализа зависимостей в данныхПостроения других моделей

Слайд 12Обучающие данные
ML-Алгоритм
Входные данные
Предсказания
1
1
2
2
Обучение
Вывод (inference)

Обучающие данныеML-АлгоритмВходные данныеПредсказания1122ОбучениеВывод (inference)

Слайд 13Историческая справка

Историческая справка

Слайд 14История
~1800: Интерполяционный полином Лагранжа
~1912: Метод максимального правдоподобия
1963: SVM
1992: Kernel SVM
1993:

Gradient Boosting

История~1800: Интерполяционный полином Лагранжа~1912: Метод максимального правдоподобия1963: SVM1992: Kernel SVM1993: Gradient Boosting

Слайд 15Нейронные сети
1957: Перцептрон Розенблатта
1986: Метод обратного распространения ошибки
1988: Свёрточная нейронная

сеть
1997: Долгая краткосрочная память (LSTM)
2012: AlexNet побеждает на ImageNet LSVRC
2014:

Генеративные состязательные сети
2015: U-Net
2017: Transformer

Нейронные сети1957: Перцептрон Розенблатта1986: Метод обратного распространения ошибки1988: Свёрточная нейронная сеть1997: Долгая краткосрочная память (LSTM)2012: AlexNet побеждает

Слайд 16Компьютерное зрение
1970s: Stages of Visual Representation
1997: Normalized Cut, Shi &

Malik
1999: “SIFT” & Object Recognition, David Lowe
2001: Face Detection, Viola

& Jones
2005: Histogram of Gradients, Dalal & Triggs
2009: Deformable Part Model, Felzenswalb, McAllester, Ramanan
Компьютерное зрение1970s: Stages of Visual Representation1997: Normalized Cut, Shi & Malik1999: “SIFT” & Object Recognition, David Lowe2001:

Слайд 17Соревнования по CV
PASCAL Visual Object Challenge (2006 – 2012)
20 категорий
IMAGENET (2009)
22

тыс. категорий
15 млн. изображений
LJCV: 1000 классов; 1,5 млн. изображений; топ-5

Соревнования по CVPASCAL Visual Object Challenge (2006 – 2012)20 категорийIMAGENET (2009)22 тыс. категорий15 млн. изображенийLJCV: 1000 классов; 1,5

Слайд 18ML работает хорошо,
когда есть
большое количество качественно размеченных
данных

ML работает хорошо,когда естьбольшое количество качественно размеченныхданных

Слайд 19Основные виды обучения

Основные виды обучения

Слайд 20Обучение с учителем

Обучение с учителем

Слайд 21Обучение без учителя
Прецеденты – сами объекты
Данные не размечены
Всё равно можно извлечь

пользу
Выявить закономерности
Решать традиционные задачи, используя эвристики

Обучение без учителяПрецеденты – сами объектыДанные не размеченыВсё равно можно извлечь пользуВыявить закономерностиРешать традиционные задачи, используя эвристики

Слайд 22Обучение с частичным привлечением учителя
С учителем + без учителя
Часть данных

размечена
Наиболее часто встречается на практике
Разметка затратна
Но данных много, и их

не стоит игнорировать

Обучение с частичным привлечением учителяС учителем + без учителяЧасть данных размеченаНаиболее часто встречается на практикеРазметка затратнаНо данных

Слайд 23Обучение с подкреплением
Прецеденты вида «состояние – действие – награда»
Агент взаимодействует со средой
Наблюдает

состояние
Совершает действие
Получает награду

Обучение с подкреплениемПрецеденты вида «состояние – действие – награда»Агент взаимодействует со средойНаблюдает состояниеСовершает действиеПолучает награду

Слайд 24Задачи машинного обучения

Задачи машинного обучения

Слайд 25Классификация
Дан набор значений признаков объекта
Требуется определить к какому классу относится

объект

Множество классов – дискретное

КлассификацияДан набор значений признаков объектаТребуется определить к какому классу относится объектМножество классов – дискретное

Слайд 26Классификация. Пример

Классификация. Пример

Слайд 27Регрессия

Регрессия

Слайд 28Регрессия. Пример

Регрессия. Пример

Слайд 29Кластеризация
Требуется разделить множество объектов на определённое число кластеров
Критерий разделения – близость

в некотором смысле
Источник: sklearn

КластеризацияТребуется разделить множество объектов на определённое число кластеровКритерий разделения – близость в некотором смыслеИсточник: sklearn

Слайд 30На самом деле задач больше
Обучение без учителя
Поиск ассоциативных правил;
Понижение размерности;
Поиск

выбросов.
Обучение с учителем
Ранжирование;
Анализ выживаемости / рисков.

На самом деле задач большеОбучение без учителяПоиск ассоциативных правил;Понижение размерности;Поиск выбросов.Обучение с учителемРанжирование;Анализ выживаемости / рисков.

Слайд 31На самом деле задач сильно больше
Multiple-instance Learning - целевые значения

сопоставлены группам (bag) наблюдений;
One-shot Learning - классификация с одним обучающим

примером для каждого класса;
Similarity Learning - поиск меры схожести объектов;
Collaborative Filtering - построение рекомендаций;
Natural Language Processing (Tagging, перевод, анализ тональности)
Style Transfer
Generative Modeling

Не стоит всегда сводить задачу к
классификации / регрессии

На самом деле задач сильно большеMultiple-instance Learning - целевые значения сопоставлены группам (bag) наблюдений;One-shot Learning - классификация

Слайд 32Регрессия с помощью классификатора
Можно дискретизировать множество значений целевой переменной
Каждый класс

соответствует корзине
В чём проблема?
0.0
1.0
0.5

Регрессия с помощью классификатораМожно дискретизировать множество значений целевой переменнойКаждый класс соответствует корзинеВ чём проблема?0.01.00.5

Слайд 33Отношение порядка (>)
Цена промаха в классификации одинаковая
Вне зависимости от того,

какой класс с каким перепутан
В регрессии чем дальше предсказание от

истинного значения, тем хуже
Значит можем построить хорошую классификационную модель, но очень плохую с точки зрения регрессии
Отношение порядка (>)Цена промаха в классификации одинаковаяВне зависимости от того, какой класс с каким перепутанВ регрессии чем

Слайд 34Отношение порядка для признаков
Аналогичная проблема с признаками
Если отсутствует отношение порядка,

нужна
специальная модель, игнорирующая (>),
либо предобработка признаков
Например: One-hot-encoding

Отношение порядка для признаковАналогичная проблема с признакамиЕсли отсутствует отношение порядка, нужнаспециальная модель, игнорирующая (>),либо предобработка признаковНапример: One-hot-encoding

Слайд 35Трудности с отношением порядка
Средний балл студентов
Число научных публикаций
Ранжируем университеты

Трудности с отношением порядкаСредний балл студентовЧисло научных публикацийРанжируем университеты

Слайд 36Обучение

Обучение

Слайд 37Обучение

Обучение

Слайд 38Примеры функций потерь

Примеры функций потерь

Слайд 39Откуда такие функции потерь?

Откуда такие функции потерь?

Слайд 40Функция потерь подразумевает определённое распределение шума

Функция потерь подразумевает определённое распределение шума

Слайд 41Переобучение

отсутствие способности к обобщению

Переобучение–отсутствие способности к обобщению

Слайд 42Переобучение
Алгоритм обучения сошёлся на тренировочном множестве
Функция потерь достигла минимума
При этом
Упущены

реальные закономерности в данных
Найдены несуществующие закономерности в шуме


ПереобучениеАлгоритм обучения сошёлся на тренировочном множествеФункция потерь достигла минимумаПри этомУпущены реальные закономерности в данныхНайдены несуществующие закономерности в

Слайд 43Обнаружение переобучения
Выделение валидационного множества
Множество, используемое только для оценки качества
Кросс-валидация
Проверка воздействия

малых отклонений (шума)

Обнаружение переобученияВыделение валидационного множестваМножество, используемое только для оценки качестваКросс-валидацияПроверка воздействия малых отклонений (шума)

Слайд 44Переобучение (2)
Вводим validation set
Проверяем модель на нём

Переобучение (2)Вводим validation setПроверяем модель на нём

Слайд 45Переобучение (3)

Переобучение (3)

Слайд 46Кросс-валидация (CV)
Данные разбиваются на K блоков
Обучение проводится на (K –

1) блоке
Тестирование на 1 блоке
Ещё полезна для стохастического перебора гиперпараметров

Кросс-валидация (CV)Данные разбиваются на K блоковОбучение проводится на (K – 1) блокеТестирование на 1 блокеЕщё полезна для

Слайд 47Переобучение (5)

Переобучение (5)

Слайд 48Переобучение: причины
Много параметров
Переусложнённая модель
Мало данных – могут не покрывать test set
Возможно

train/test split неправильный
Кросс-валидация говорит, что модель не переобучена
Но на test

set не работает
И модель, например, слишком простая (!)
Переобучение: причиныМного параметровПереусложнённая модельМало данных – могут не покрывать test setВозможно train/test split неправильныйКросс-валидация говорит, что модель не

Слайд 49Борьба с переобучением
Увеличение размера набора данных для обучения
В том числе

искусственное: аугментация
Улучшение качества данных
Например, удаление заведомо несущественных факторов
Построение ансамблей
Выбор стабильного

метода оценки параметров
Например, RANSAC
Регуляризация
Борьба с переобучениемУвеличение размера набора данных для обученияВ том числе искусственное: аугментацияУлучшение качества данныхНапример, удаление заведомо несущественных

Слайд 50Регуляризация
Обратная задача – получить параметры модели по данным
Например: восстановить форму объекта

по тени
Регуляризация – добавление искусственных ограничений
Исходя из представлений о решении, не

заложенных в данных (априорное распределение)
Примеры: l1, l2-нормы весов
РегуляризацияОбратная задача – получить параметры модели по даннымНапример: восстановить форму объекта по тениРегуляризация – добавление искусственных ограниченийИсходя из представлений

Слайд 51Простые модели

Простые модели

Слайд 52Интерполяционный полином

Интерполяционный полином

Слайд 53Линейная регрессия

Линейная регрессия

Слайд 54Логистическая регрессия

Логистическая регрессия

Слайд 55SVM
Бинарный линейный классификатор
Гиперплоскость с максимальным отступом
Обучается через решение задачи квадратичного

программирования

SVMБинарный линейный классификаторГиперплоскость с максимальным отступомОбучается через решение задачи квадратичного программирования

Слайд 56SVM + Kernel Trick
Если данные непротиворечивы
Можно найти отображение в высокоразмерное

пространство
В котором точки линейно разделимы
Трюк: подменяется скалярное произведение
Плата: долгое время

предсказаний

SVM + Kernel TrickЕсли данные непротиворечивыМожно найти отображение в высокоразмерное пространствоВ котором точки линейно разделимыТрюк: подменяется скалярное

Слайд 57Дерево решений
В каждом узле дерева простое решающее правило
Значение признака сравнивается

с пороговым
Алгоритм построения:
Для каждого признака рассматриваются всевозможные разбиения и рассчитывается

эффективность разбиения

Цена < 10

Площадь < 25

Комнат < 7

90

50

20

3

Дерево решенийВ каждом узле дерева простое решающее правилоЗначение признака сравнивается с пороговымАлгоритм построения:Для каждого признака рассматриваются всевозможные

Слайд 58Нейронные сети

Нейронные сети

Слайд 59Ключевые отличия от других алгоритмов
Гибкая дифференцируемая параметризация произвольной функции
Возможность составлять

сети из готовых блоков
Блоки могут быть предобученными
Функции ошибки могут быть

параметризованными нейронными сетями
Эффективная реализация на GPU инференса и +- обучения

Ключевые отличия от других алгоритмовГибкая дифференцируемая параметризация произвольной функцииВозможность составлять сети из готовых блоковБлоки могут быть предобученнымиФункции

Слайд 60Нейронные сети: Задача

Нейронные сети: Задача

Слайд 61Нейронные сети: Параметризация (1)

Нейронные сети: Параметризация (1)

Слайд 62Нейронные сети: Параметризация (2)

Нейронные сети: Параметризация (2)

Слайд 63Нейронные сети: Параметризация (3)

Нейронные сети: Параметризация (3)

Слайд 64В следующий раз
Обучение нейронных сетей
Свёрточные нейронные сети
Аугментация

В следующий разОбучение нейронных сетейСвёрточные нейронные сетиАугментация

Слайд 65Литература
DeepLearningBook.org (Ian Goodfellow et al.)
Scikit-Learn User Guide
cs231n

ЛитератураDeepLearningBook.org (Ian Goodfellow et al.)Scikit-Learn User Guidecs231n

Обратная связь

Если не удалось найти и скачать доклад-презентацию, Вы можете заказать его на нашем сайте. Мы постараемся найти нужный Вам материал и отправим по электронной почте. Не стесняйтесь обращаться к нам, если у вас возникли вопросы или пожелания:

Email: Нажмите что бы посмотреть 

Что такое TheSlide.ru?

Это сайт презентации, докладов, проектов в PowerPoint. Здесь удобно  хранить и делиться своими презентациями с другими пользователями.


Для правообладателей

Яндекс.Метрика