Разделы презентаций


Машинное обучение. Нейронные сети

Содержание

Нейронные сетиМодель ЦНСЛинейная функция с нелинейным «принятием решения»Удобное метод «подбора» коэффициентов линейной функцииУдобный инструмент обучения

Слайды и текст этой презентации

Слайд 1Машинное обучение. Нейронные сети

Машинное обучение. Нейронные сети

Слайд 6Нейронные сети
Модель ЦНС
Линейная функция с нелинейным «принятием решения»
Удобное метод «подбора»

коэффициентов линейной функции
Удобный инструмент обучения

Нейронные сетиМодель ЦНСЛинейная функция с нелинейным «принятием решения»Удобное метод «подбора» коэффициентов линейной функцииУдобный инструмент обучения

Слайд 7НС. Применение
Гибкая модель для аппроксимации многомерных функций.
Средство прогнозирования во времени

процессов, зависящих от большого количества переменных.
Средство распознавания образов
Инструмент для поиска

по ассоциациям
Модель для поиска закономерностей в массивах данных

НС. ПрименениеГибкая модель для аппроксимации многомерных функций.Средство прогнозирования во времени процессов, зависящих от большого количества переменных.Средство распознавания

Слайд 8НС. Базисы
1) ЦНС высших млекопитающих состоит из клеток — нейрон

связанных друг с другом из всевозможными клетками рецепторами (зрительные, слуховые,

тд). Общее количество таких клеток порядка 10^10.
Связь между нейронами осуществляется с помощью контактов — сИнапсы.

Сила связи между двумя нейронами пропорциональна концентрации вещества — нейромедиатор.

Деятельность головного мозга высших млекопитающих представляет собой пребывание в возбуждённом состоянии.

Нейрон становиться активным, тогда. когда количество активных нейронов связанных синапсами превышает определенный порог.
НС. Базисы1) ЦНС высших млекопитающих состоит из клеток — нейрон связанных друг с другом из всевозможными клетками

Слайд 9НС. Базисы
2) Концепция обучения.
В процессе обучения с помощью резких внешних

стимулов существенно корректируется картина мира записанная в голове.
Таким образом для

осуществления обучения мы должны иметь набор векторов характеризующих картину мира и все возможные реакции на нашу действительность.

Такой набор векторов получил название — обучающая выборка.

Чем более адекватная картина мира записанная в нейронах головного мозга, тем меньше истинная реакция окружающей среды будет отличаться от реакции предсказания.

С нейрофизиологической точки зрение обучение может происходить двояко, это отмирание связей и изменение силы связи.
НС. Базисы2) Концепция обучения.В процессе обучения с помощью резких внешних стимулов существенно корректируется картина мира записанная в

Слайд 10Биомодель нейрона

Биомодель нейрона

Слайд 15Функции активации
Жесткая ступенька

Функции активацииЖесткая ступенька

Слайд 16Функции активации
Сигмоида (функция Ферми)

Функции активацииСигмоида (функция Ферми)

Слайд 17Функции активации
Гиперболический тангенс

Функции активацииГиперболический тангенс

Слайд 18Функции активации
SOFTMAX

Функции активацииSOFTMAX

Слайд 19Функции активации

Функции активации

Слайд 20НС. Ограничения
Вычисления нейрона происходят мгновенно, не внося задержку.
Нет четких алгоритмов

для выбора функции активации.
Нет механизмов регулирующих работу сети в целом,

на подобии гормональной регуляции активности в нервных клетках.
Модель формального нейрона не является биоподобной и это скорее математическая абстракция.
НС. ОграниченияВычисления нейрона происходят мгновенно, не внося задержку.Нет четких алгоритмов для выбора функции активации.Нет механизмов регулирующих работу

Слайд 21Персептрон Розенблата

Персептрон Розенблата

Слайд 22Персептрон. Обучение
при синхронном возбуждении двух связанных нервных клеток синаптическая связь

между ними усиливается.
Чем чаще синапс угадывает правильный ответ, тем

сильнее становится связь.
Если же синапс начинает часто ошибаться или вообще перестаёт использоваться, связь ослабевает, информация начинается забываться.
Персептрон. Обучениепри синхронном возбуждении двух связанных нервных клеток синаптическая связь между ними усиливается. Чем чаще синапс угадывает

Слайд 23Персептрон. Обучение
Перед началом обучения вектор весов некоторым способом инициализируется, например,

заполняется нулевыми или случайными значениями. Затем обучающие объекты xi по

очереди подаются на вход модели МакКаллока–Питтса, и выданные ответы сравниваются с правильными.

Если ответ a(xi) совпадает с yi, то вектор весов не изменяется.
Если a(xi) = 0 и yi = 1, то вектор весов w увеличивается..

Поэтому можно положить w := w + ηxi, где η некоторая положительная константа, называемая темпом обучения (learning rate).

Если a(xi) = 1 и yi = 0, то вектор весов уменьшается: w := w − ηxi.
Персептрон. ОбучениеПеред началом обучения вектор весов некоторым способом инициализируется, например, заполняется нулевыми или случайными значениями. Затем обучающие

Слайд 24Персептрон. Обучение

Персептрон. Обучение

Слайд 25Персептрон. Обучение
Пусть классы помечены числами −1 и 1, а нейрон

выдаёт знак скалярного произведения:
a(x) = sign().

Правило Хэбба
yi

0, то w := w + ηxiyi (меняем шаг 4)
Персептрон. ОбучениеПусть классы помечены числами −1 и 1, а нейрон выдаёт знак скалярного произведения:a(x) = sign().Правило Хэббаyi

Слайд 26Персептрон. Обучение

Персептрон. Обучение

Слайд 27Персептрон. Логическое ИЛИ

Персептрон. Логическое ИЛИ

Слайд 28Персептрон. Искл. ИЛИ

Персептрон. Искл. ИЛИ

Слайд 29Многослойный персептрон

Многослойный персептрон

Слайд 30Персептрон общего вида

Персептрон общего вида

Обратная связь

Если не удалось найти и скачать доклад-презентацию, Вы можете заказать его на нашем сайте. Мы постараемся найти нужный Вам материал и отправим по электронной почте. Не стесняйтесь обращаться к нам, если у вас возникли вопросы или пожелания:

Email: Нажмите что бы посмотреть 

Что такое TheSlide.ru?

Это сайт презентации, докладов, проектов в PowerPoint. Здесь удобно  хранить и делиться своими презентациями с другими пользователями.


Для правообладателей

Яндекс.Метрика