Разделы презентаций


Введение в нейросети

Содержание

Исторический очеркТермин «нейронная сеть» появился в середине XX века. Первые работы, в которых были получены основные результаты в данном направлении, были проделаны Мак-Каллоком и Питтсом. В 1943 году ими была разработана

Слайды и текст этой презентации

Слайд 1Введение в нейросети

Введение в  нейросети

Слайд 2Исторический очерк
Термин «нейронная сеть» появился в середине XX века. Первые

работы, в которых были получены основные результаты в данном направлении,

были проделаны Мак-Каллоком и Питтсом. В 1943 году ими была разработана компьютерная модель нейронной сети на основе математических алгоритмов и теории деятельности головного мозга.
Они выдвинули предположение, что нейроны можно упрощённо рассматривать как устройства, оперирующие двоичными числами, и назвали эту модель «пороговой логикой». Подобно своему биологическому прототипу нейроны Мак-Каллока–Питтса были способны обучаться путём подстройки параметров, описывающих синптическую проводимость.
Исследователи предложили конструкцию сети из электронных нейронов и показали, что подобная сеть может выполнять практически любые вообразимые числовые или логические операции. Мак-Каллок и Питтс предположили, что такая сеть в состоянии также обучаться, распознавать образы, обобщать, т. е. обладает всеми чертами интеллекта.

Источник: https://neuronus.com/history/5-istoriya-nejronnykh-setej.html

Исторический очеркТермин «нейронная сеть» появился в середине XX века. Первые работы, в которых были получены основные результаты

Слайд 3Человеческий мозг

Человеческий мозг

Слайд 4Искусственная НС

Искусственная НС

Слайд 5На пальцах
Источник: https://habr.com/post/416211/
Предположим, у нас есть три разных бинарных условия

(да или нет) и одно бинарное решение на выходе (да

или нет):
На пальцахИсточник: https://habr.com/post/416211/Предположим, у нас есть три разных бинарных условия (да или нет) и одно бинарное решение

Слайд 6На пальцах
Простая модель с тремя вводными и одним выводом. Эта

модель может абсолютно отлично работать для разных людей и выдавать

им разные результаты, в зависимости от того, как они обучили нейронную сеть.

Источник: https://habr.com/post/416211/

На пальцахПростая модель с тремя вводными и одним выводом. Эта модель может абсолютно отлично работать для разных

Слайд 7На пальцах
То, что вы видите между вводом и выводом —

это нейроны. Пока что они ни с чем не связаны,

но это и отражает их главную особенность, о которой все забывают сказать: они — это полностью абстрактны. 

Источник: https://habr.com/post/416211/

На пальцахТо, что вы видите между вводом и выводом — это нейроны. Пока что они ни с

Слайд 8На пальцах
У каждого ввода слева есть значение: 0 или 1,

да или нет. Давайте добавим эти значения вводу, предположим, что

на вечеринке не будет водки, будут друзья да будет идти дождь:

Источник: https://habr.com/post/416211/

На пальцахУ каждого ввода слева есть значение: 0 или 1, да или нет. Давайте добавим эти значения

Слайд 9На пальцах
Цифры, которые мы расставили — это веса связей. Помните,

что нейроны — это абстракция? Так вот, связи — это

именно то, из чего и состоит нейронная сеть. 

Источник: https://habr.com/post/416211/

На пальцахЦифры, которые мы расставили — это веса связей. Помните, что нейроны — это абстракция? Так вот,

Слайд 10На пальцах
Ну, вот и все! Нейронка создана, а вы можете

ее использовать для любых нужд. Если сумма получается больше 0.5

— идти на вечеринку нужно. Если меньше или равно — на вечеринку идти не нужно. Спасибо за внимание!

Источник: https://habr.com/post/416211/

На пальцахНу, вот и все! Нейронка создана, а вы можете ее использовать для любых нужд. Если сумма

Слайд 11На пальцах
Дальше все просто: вместо одного слоя нейронов мы делаем

два и снова все перебираем по точно тем же самым

принципам, только уже все нейроны отдают значения другим нейронам. Если сначала у нас было только 3 связи, то теперь 3 + 9 связей с весами. А потом три слоя, четыре, рекурсивные слои, зацикленные на себе и тому подобная дичь:

Источник: https://habr.com/post/416211/

На пальцахДальше все просто: вместо одного слоя нейронов мы делаем два и снова все перебираем по точно

Слайд 12Нейрон и вес
Источник: https://habr.com/post/312450/

Нейрон и весИсточник: https://habr.com/post/312450/

Слайд 13Функция активации (ФА)
Источник: https://habr.com/post/312450/
Линейная функция
Сигмоид
Гиперболический тангенс

Функция активации (ФА)Источник: https://habr.com/post/312450/Линейная функцияСигмоидГиперболический тангенс

Слайд 14Эпохи и шаги
Источник: https://habr.com/post/416211/
Итерация
Это своеобразный счетчик, который увеличивается каждый раз,

когда нейронная сеть проходит один тренировочный сет. Другими словами, это

общее количество тренировочных сетов пройденных нейронной сетью. Эпоха
При инициализации нейронной сети эта величина устанавливается в 0 и имеет потолок, задаваемый вручную. Чем больше эпоха, тем лучше натренирована сеть и соответственно, ее результат. Эпоха увеличивается каждый раз, когда мы проходим весь набор тренировочных сетов, в нашем случае, 4 сетов или 4 итераций.
Эпохи и шагиИсточник: https://habr.com/post/416211/Итерация Это своеобразный счетчик, который увеличивается каждый раз, когда нейронная сеть проходит один тренировочный

Слайд 15Ошибка
Источник: https://habr.com/post/416211/
Ошибка — это процентная величина, отражающая расхождение между ожидаемым

и полученным ответами. Ошибка формируется каждую эпоху и должна идти

на спад. Если этого не происходит, значит, вы что-то делаете не так. Ошибку можно вычислить разными путями, но мы рассмотрим лишь три основных способа: Mean Squared Error (далее MSE), Root MSE и Arctan. 

MSE

Root MSE

Arctan

ОшибкаИсточник: https://habr.com/post/416211/Ошибка — это процентная величина, отражающая расхождение между ожидаемым и полученным ответами. Ошибка формируется каждую эпоху

Слайд 16Формулы
Расчет входа нейрона
Правило Видроу-Хоффа для пересчета весов

ФормулыРасчет входа нейронаПравило Видроу-Хоффа для пересчета весов

Слайд 17Пример. Инициализация
Выбираем задачу (Например логическое ИЛИ)
Проектируем НС
5. Строим таблицу

истинности
6. Выбираем ФА (например пороговую)

Пример. Инициализация Выбираем задачу (Например логическое ИЛИ)Проектируем НС5. Строим таблицу истинности6. Выбираем ФА (например пороговую)

Слайд 18Пример. Обучение

Пример. Обучение

Слайд 19Пример. Обучение

Пример. Обучение

Слайд 20Пример. Обучение
Обучение завершено!

Пример. ОбучениеОбучение завершено!

Слайд 21Пример кода на Python
import numpy as np def generate_vectors(): from

itertools import product as p return(p(range(2), repeat=2)) def f(x):

return(x[0] or x[1]) x_vectors = generate_vectors() t_vector = np.array([f(x) for x in x_vectors]) x_vectors = generate_vectors() nu = 0.3 weight = np.array([0., 0.]) epoch = 1 error = 1
Пример кода на Pythonimport numpy as np  def generate_vectors():   from itertools import product as

Слайд 22Пример кода на Python
while error != 0: x_vectors =

generate_vectors() print(f'\n*************** epoch {epoch} ***************') print(f'weight = {weight}')

print(f'_____________________________________________') error = 0 for i, x_vec in enumerate(x_vectors): net = sum(x_vec[j]*weight[j] for j in range(2)) if net >= 0.5: y = 1 else: y = 0 delta = t_vector[i] - y err = t_vector[i] - net print(f'| net = {net:.3f} | y = {y}| t = {t_vector[i]} | err = {abs(err):.3f} |') if delta != 0: error += 1 weight = [weight[j] + nu * abs(err) * x_vec[j] for j in range(2)] epoch += 1 print(f'¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯') print(f'{error} errors\n')
Пример  кода  на Pythonwhile error != 0:   x_vectors = generate_vectors()   print(f'\n***************

Слайд 23Пример кода на Python
*************** epoch 1 ***************
weight = [0. 0.]
_____________________________________________
|

net = 0.000 | y = 0| t = 0

| err = 0.000 |
| net = 0.000 | y = 0| t = 1 | err = 1.000 |
| net = 0.000 | y = 0| t = 1 | err = 1.000 |
| net = 0.600 | y = 1| t = 1 | err = 0.400 |
¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯
2 errors

*************** epoch 2 ***************
weight = [0.3, 0.3]
_____________________________________________
| net = 0.000 | y = 0| t = 0 | err = 0.000 |
| net = 0.300 | y = 0| t = 1 | err = 0.700 |
| net = 0.300 | y = 0| t = 1 | err = 0.700 |
| net = 1.020 | y = 1| t = 1 | err = 0.020 |
¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯
2 errors

*************** epoch 3 ***************
weight = [0.51, 0.51]
_____________________________________________
| net = 0.000 | y = 0| t = 0 | err = 0.000 |
| net = 0.510 | y = 1| t = 1 | err = 0.490 |
| net = 0.510 | y = 1| t = 1 | err = 0.490 |
| net = 1.020 | y = 1| t = 1 | err = 0.020 |
¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯¯
0 errors
Пример  кода на  Python*************** epoch 1 ***************weight = [0. 0.]_____________________________________________| net = 0.000 | y

Слайд 24Персептрон и n-слойные сети
Источник: https://habr.com/post/312450/

Персептрон и n-слойные сетиИсточник: https://habr.com/post/312450/

Слайд 25Персептрон и n-слойные сети
Источник: https://habr.com/post/312450/

Персептрон и n-слойные сетиИсточник: https://habr.com/post/312450/

Слайд 26Спасибо за внимание!

Спасибо за внимание!

Обратная связь

Если не удалось найти и скачать доклад-презентацию, Вы можете заказать его на нашем сайте. Мы постараемся найти нужный Вам материал и отправим по электронной почте. Не стесняйтесь обращаться к нам, если у вас возникли вопросы или пожелания:

Email: Нажмите что бы посмотреть 

Что такое TheSlide.ru?

Это сайт презентации, докладов, проектов в PowerPoint. Здесь удобно  хранить и делиться своими презентациями с другими пользователями.


Для правообладателей

Яндекс.Метрика