Разделы презентаций


машинное обучение

Содержание

изучает методы построения алгоритмов, способных обучаться. Различают два типа обучения. Обучение по прецедентам, или индуктивное обучение, основано на выявлении закономерностей в эмпирических данных. Дедуктивное обучение предполагает формализацию знаний экспертов и их

Слайды и текст этой презентации

Слайд 1Машинное обучение

Машинное обучение

Слайд 2изучает методы построения алгоритмов, способных обучаться. Различают два типа обучения.

Обучение по прецедентам, или индуктивное обучение, основано на выявлении закономерностей

в эмпирических данных. Дедуктивное обучение предполагает формализацию знаний экспертов и их перенос в компьютер в виде базы знаний. Дедуктивное обучение принято относить к области экспертных систем, поэтому термины машинное обучение и обучение по прецедентам можно считать синонимами.
Машинное обучение находится на стыке математической статистики, методов оптимизации и дискретной математики, но имеет также и собственную специфику, связанную с проблемами вычислительной эффективности и переобучения. Многие методы индуктивного обучения разрабатывались как альтернатива классическим статистическим подходам. Многие методы тесно связаны с извлечением информации, интеллектуальным анализом данных

Понятие

изучает методы построения алгоритмов, способных обучаться. Различают два типа обучения. Обучение по прецедентам, или индуктивное обучение, основано

Слайд 3Обучение с учителем - для каждого прецедента задаётся пара «ситуация,

требуемое решение»:
Метод коррекции ошибки
Метод обратного распространения ошибки
Обучение без учителя -

для каждого прецедента задаётся только «ситуация», требуется сгруппировать объекты в кластеры, используя данные о попарном сходстве объектов, и/или понизить размерность данных:
Метод ближайших соседей
Обучение с подкреплением - для каждого прецедента имеется пара «ситуация, принятое решение»:
Генетические алгоритмы
Альфа-система подкрепления
Гамма-система подкрепления

Способы

Обучение с учителем - для каждого прецедента задаётся пара «ситуация, требуемое решение»:Метод коррекции ошибкиМетод обратного распространения ошибкиОбучение

Слайд 4Активное обучение - отличается тем, что обучаемый алгоритм имеет возможность

самостоятельно назначать следующую исследуемую ситуацию, на которой станет известен верный

ответ:
Обучение с частичным привлечением учителя (semi-supervised learning) - для части прецедентов задается пара «ситуация, требуемое решение», а для части - только «ситуация»
Трансдуктивное обучение (transduction) - обучение с частичным привлечением учителя, когда прогноз предполагается делать только для прецедентов из тестовой выборки
Многозадачное обучение (multi-task learning) - одновременное обучение группе взаимосвязанных задач, для каждой из которых задаются свои пары «ситуация, требуемое решение»
Многовариантное обучение (multi-instant learning) - обучение, когда прецеденты могут быть объединены в группы, в каждой из которых для всех прецедентов имеется «ситуация», но только для одного из них (причем, неизвестно какого) имеется пара «ситуация, требуемое решение»


Активное обучение - отличается тем, что обучаемый алгоритм имеет возможность самостоятельно назначать следующую исследуемую ситуацию, на которой

Слайд 5Классификация как правило, выполняется с помощью обучения с учителем на

этапе собственно обучения.
Кластеризация как правило, выполняется с помощью обучения без

учителя
Регрессия как правило, выполняется с помощью обучения с учителем на этапе тестирования, является частным случаем задач прогнозирования.
Понижение размерности данных и их визуализация выполняется с помощью обучения без учителя
Восстановление плотности распределения вероятности по набору данных
Одноклассовая классификация и выявление новизны
Построение ранговых зависимостей

Задачи, решаемые обучением

Классификация как правило, выполняется с помощью обучения с учителем на этапе собственно обучения.Кластеризация как правило, выполняется с

Слайд 6Распознавание речи
Распознавание изображений
Распознавание рукописного ввода
Техническая диагностика
Медицинская диагностика
Прогнозирование временных рядов
Биоинформатика
Обнаружение мошенничества
Обнаружение

спама
Категоризация документов
Биржевой технический анализ
Финансовый надзор
Кредитный скоринг
Предсказание ухода клиентов
Хемоинформатика
Обучение ранжированию в

информационном поиске

Практическое применение

Распознавание речиРаспознавание изображенийРаспознавание рукописного вводаТехническая диагностикаМедицинская диагностикаПрогнозирование временных рядовБиоинформатикаОбнаружение мошенничестваОбнаружение спамаКатегоризация документовБиржевой технический анализФинансовый надзорКредитный скорингПредсказание ухода

Слайд 7Признаковое описание — наиболее распространённый случай. Каждый объект описывается набором

своих характеристик, называемых признаками. Признаки могут быть числовыми или нечисловыми.
Матрица

расстояний между объектами. Каждый объект описывается расстояниями до всех остальных объектов обучающей выборки. С этим типом входных данных работают немногие методы, в частности, метод ближайших соседей, метод парзеновского окна, метод потенциальных функций.
Временной ряд или сигнал представляет собой последовательность измерений во времени. Каждое измерение может представляться числом, вектором, а в общем случае — признаковым описанием исследуемого объекта в данный момент времени.
Изображение или видеоряд.
Встречаются и более сложные случаи, когда входные данные представляются в виде графов, текстов, результатов запросов к базе данных, и т. д. Как правило, они приводятся к первому или второму случаю путём предварительной обработки данных и извлечения признаков.

Типы входных данных

Признаковое описание — наиболее распространённый случай. Каждый объект описывается набором своих характеристик, называемых признаками. Признаки могут быть

Слайд 8Когда множество возможных ответов бесконечно (ответы являются действительными числами или

векторами), говорят о задачах регрессии и аппроксимации ;
Когда множество возможных

ответов конечно, говорят о задачах классификации и распознавания образов;
Когда ответы характеризуют будущие поведение процесса или явления, говорят о задачах прогнозирования.

Типы откликов

Когда множество возможных ответов бесконечно (ответы являются действительными числами или векторами), говорят о задачах регрессии и аппроксимации

Слайд 9Испытуемая система принудительно обучается с помощью примеров «стимул-реакция». Между входами

и эталонными выходами (стимул-реакция) может существовать некоторая зависимость, но она

не известна. Известна только конечная совокупность прецедентов — пар «стимул-реакция», называемая обучающей выборкой. На основе этих данных требуется восстановить зависимость (построить модель отношений стимул-реакция, пригодных для прогнозирования), то есть построить алгоритм, способный для любого объекта выдать достаточно точный ответ. Для измерения точности ответов, так же как и в обучении на примерах может вводится функционал качества.

Обучение с учителем

Испытуемая система принудительно обучается с помощью примеров «стимул-реакция». Между входами и эталонными выходами (стимул-реакция) может существовать некоторая

Слайд 10Система подкрепления с управлением по реакции (R — управляемая система)

— характеризуется, тем что информационный канал от внешней среды к

системе подкрепления не функционирует. Данная система несмотря на наличие системы управления относится к спонтанному обучению, так как испытуемая система обучается автономно, под действием лишь своих выходных сигналов независимо от их «правильности». При таком методе обучения для управления изменением состояния памяти не требуется никакой внешней информации;
Система подкрепления с управлением по стимулам (S — управляемая система) — характеризуется, тем что информационный канал от испытываемой системы к системе подкрепления не функционирует. Несмотря на не функционирующий канал от выходов испытываемой системы относится к обучению с учителем, так как в этом случае система подкрепления (учитель) заставляет испытываемую систему вырабатывать реакции согласно определенному правилу, хотя и не принимается во внимание наличие истиных реакций испытываемой системы.

Вырожденные виды «учителей»

Система подкрепления с управлением по реакции (R — управляемая система) — характеризуется, тем что информационный канал от

Слайд 11Испытуемая система спонтанно обучается выполнять поставленную задачу, без вмешательства со

стороны экспериментатора.
Как правило, это пригодно только для задач, в которых

известны описания множества объектов (обучающей выборки), и требуется обнаружить внутренние взаимосвязи, зависимости, закономерности, существующие между объектами.

Обучение без учителя

Испытуемая система спонтанно обучается выполнять поставленную задачу, без вмешательства со стороны экспериментатора.Как правило, это пригодно только для

Слайд 12Испытуемая система (агент) обучается, взаимодействуя с некоторой средой. Откликом среды

(а не специальной системы управления подкреплением, как это происходит в

обучении с учителем) на принятые решения являются сигналы подкрепления, поэтому такое обучение является частным случаем обучения с учителем, но учителем является среда или ее модель.
Также нужно иметь в виду, что некоторые правила подкрепления базируются на неявных учителях, например, в случае ИНС, на одновременной активности формальных нейронов, из-за чего их можно отнести к обучению без учителя.

Обучение с подкреплением

Испытуемая система (агент) обучается, взаимодействуя с некоторой средой. Откликом среды (а не специальной системы управления подкреплением, как

Слайд 13система подкрепления, при которой веса всех активных связей cij, которые

оканчиваются на некотором элементе uj, изменяются на одинаковую величину Δvij(t)

= η, или с постоянной скоростью в течение всего времени действия подкрепления, причем веса неактивных связей за это время не изменяются.
Перцептрон, в котором используется α-система подкрепления, называется α-перцептроном.
Подкрепление называется дискретным, если величина изменения веса является фиксированной, и непрерывным, если эта величина может принимать произвольное значение.

Альфа-система подкрепления

система подкрепления, при которой веса всех активных связей cij, которые оканчиваются на некотором элементе uj, изменяются на

Слайд 14такое правило изменения весовых коэффициентов некоторого элемента, при котором веса

всех активных связей сначала изменяются на равную величину, а затем

из их всех весов связей вычитается другая величина, равная полному изменению весов всех активных связей, деленному на число всех связей.
Эта система обладает свойством консервативности относительно весов, так как у нее полная сумма весов всех связей не может ни возрастать, ни убывать.

Гамма-система подкрепления

такое правило изменения весовых коэффициентов некоторого элемента, при котором веса всех активных связей сначала изменяются на равную

Слайд 15Машинное обучение
Искусственные нейронные сети

Машинное обучениеИскусственные нейронные сети

Слайд 16математические модели, а также их программные или аппаратные реализации, построенные

по принципу организации и функционирования биологических нейронных сетей — сетей

нервных клеток живого организма. Это понятие возникло при изучении процессов, протекающих в мозге, и при попытке смоделировать эти процессы.

Искусственные нейронные сети

математические модели, а также их программные или аппаратные реализации, построенные по принципу организации и функционирования биологических нейронных

Слайд 17ИНС представляют собой систему соединённых и взаимодействующих между собой простых

процессоров (искусственных нейронов). Каждый процессор подобной сети имеет дело только

с сигналами, которые он периодически получает, и сигналами, которые он периодически посылает другим процессорам. И тем не менее, будучи соединёнными в достаточно большую сеть с управляемым взаимодействием, такие локально простые процессоры вместе способны выполнять довольно сложные задачи.


ИНС представляют собой систему соединённых и взаимодействующих между собой простых процессоров (искусственных нейронов). Каждый процессор подобной сети

Слайд 18С математической точки зрения, обучение нейронных сетей — это многопараметрическая

задача нелинейной оптимизации. Технически обучение заключается в нахождении коэффициентов связей

между нейронами. В процессе обучения нейронная сеть способна выявлять сложные зависимости между входными данными и выходными, а также выполнять обобщение. Это значит, что в случае успешного обучения сеть сможет вернуть верный результат на основании данных, которые отсутствовали в обучающей выборке, а также неполных и/или «зашумленных», частично искаженных данных.


С математической точки зрения, обучение нейронных сетей — это многопараметрическая задача нелинейной оптимизации. Технически обучение заключается в

Слайд 19Сети прямого распространения (Feedforward)
Многослойный перцептрон
Сети Ворда
Рекуррентные нейронные сети‎
Сеть Хопфилда
Сеть Хемминга
Сеть

Коско
Радиально-базисные функции (RBF)
Самоорганизующаяся карта Кохонена (SOM)
Классификация

Сети прямого распространения (Feedforward)Многослойный перцептронСети ВордаРекуррентные нейронные сети‎Сеть ХопфилдаСеть ХеммингаСеть КоскоРадиально-базисные функции (RBF)Самоорганизующаяся карта Кохонена (SOM)Классификация

Слайд 20Сети свертки (LeNet-5, неокогнитрон)
Адаптивно-резонансная теория

Сети свертки (LeNet-5, неокогнитрон)Адаптивно-резонансная теория

Слайд 21Структура нейросети

Структура нейросети

Слайд 22Математически, искусственный нейрон обычно представляют как некоторую нелинейную функцию от

единственного аргумента — линейной комбинации всех входных сигналов. Данную функцию

называют функцией активации или функцией срабатывания, передаточной функцией. Полученный результат посылается на единственный выход.

Формальный нейрон

Математически, искусственный нейрон обычно представляют как некоторую нелинейную функцию от единственного аргумента — линейной комбинации всех входных

Слайд 23Входные нейроны — принимают исходный вектор, кодирующий входной сигнал. Как

правило, эти нейроны не выполняют вычислительных операций, а просто передают

полученный входной сигнал на выход, возможно, усилив или ослабив его;
Выходные нейроны — представляют из себя выходы сети. В выходных нейронах могут производиться какие-либо вычислительные операции;
Промежуточные нейроны — выполняют основные вычислительные операции

Классификация

Входные нейроны — принимают исходный вектор, кодирующий входной сигнал. Как правило, эти нейроны не выполняют вычислительных операций,

Слайд 24Структура нейрона

Структура нейрона

Слайд 25Линейная
Сигнал на выходе нейрона линейно связан со взвешенной суммой сигналов

на его входе.
f(x) = tx, где t - параметр функции
Основные

типы передаточных функций
ЛинейнаяСигнал на выходе нейрона линейно связан со взвешенной суммой сигналов на его входе.f(x) = tx, где t

Слайд 26шаговая (линейная функция с насыщением)


Недостатками шаговой и полулинейной активационных функций

относительно линейной можно назвать то, что они не являются дифференцируемыми

на всей числовой оси, а значит не могут быть использованы при обучении по некоторым алгоритмам.


шаговая (линейная функция с насыщением)Недостатками шаговой и полулинейной активационных функций относительно линейной можно назвать то, что они

Слайд 27Пороговая (функция Хевисайда)
До тех пор пока взвешенный сигнал на входе

нейрона не достигает некоторого уровня T — сигнал на выходе

равен нулю. Как только сигнал на входе нейрона превышает указанный уровень — выходной сигнал скачкообразно изменяется на единицу.


Пороговая (функция Хевисайда)До тех пор пока взвешенный сигнал на входе нейрона не достигает некоторого уровня T —

Слайд 28Сигмоидальная

Сигмоидальная

Слайд 29Логистическая
Здесь t — это параметр функции, определяющий её крутизну. Когда

t стремится к бесконечности, функция вырождается в пороговую. При t

= 0 сигмоида вырождается в постоянную функцию со значением 0,5. Область значений данной функции находится в интервале (0,1).
Важным достоинством этой функции является простота её производной, что облегчает использование этой функции при обучении сети по алгоритму обратного распространения.

Сигмоидальная

ЛогистическаяЗдесь t — это параметр функции, определяющий её крутизну. Когда t стремится к бесконечности, функция вырождается в

Слайд 30Гиперболический тангенс
область значений лежит в интервале (-1;1)
Другие функции
Радиально-базисная
Экспонента
Тригонометрический синус

Гиперболический тангенсобласть значений лежит в интервале (-1;1)Другие функцииРадиально-базиснаяЭкспонентаТригонометрический синус

Обратная связь

Если не удалось найти и скачать доклад-презентацию, Вы можете заказать его на нашем сайте. Мы постараемся найти нужный Вам материал и отправим по электронной почте. Не стесняйтесь обращаться к нам, если у вас возникли вопросы или пожелания:

Email: Нажмите что бы посмотреть 

Что такое TheSlide.ru?

Это сайт презентации, докладов, проектов в PowerPoint. Здесь удобно  хранить и делиться своими презентациями с другими пользователями.


Для правообладателей

Яндекс.Метрика