Разделы презентаций


Персептрони, дослідження в області нейронних мереж. Модель нейронної мережі зі

Содержание

Основні визначенняГіпотеза компактності: образам відповідають компактні множини у просторі ознакРозпізнавання образів — це віднессення данных до визначеного класу за допомогою признаків, що характеризують ці дані, з загальной маси даних

Слайды и текст этой презентации

Слайд 1Персептрони, дослідження в області нейронних мереж. Модель нейронної мережі зі

зворотним поширенням помилки. Системи штучного інтелекту

Персептрони, дослідження в області нейронних мереж.  Модель нейронної мережі зі зворотним поширенням помилки. Системи штучного інтелекту

Слайд 2Основні визначення
Гіпотеза компактності: образам відповідають компактні множини у просторі ознак
Розпізнавання

образів — це віднессення данных до визначеного класу за допомогою признаків,

що характеризують ці дані, з загальной маси даних
Основні визначенняГіпотеза компактності: образам відповідають компактні множини у просторі ознакРозпізнавання образів — це віднессення данных до визначеного класу

Слайд 3Адаптація та навчання
Адаптація — це процес зміни параметрів та структури

системи, а можливо, й управляючих впливів на основі поточної інформації

з метою досягнення визначеного стану системи за умовами початковоъ невизначеносты та умовах функціонування, що змінюються.
Навчання — це процес, завдяки якому система поступово набуває здатності відповідати потрібними реакціями на визначені сукупності звнішніх факторів.
Адаптація та навчанняАдаптація — це процес зміни параметрів та структури системи, а можливо, й управляючих впливів на

Слайд 4Розпізнавання мови

Розпізнавання мови

Слайд 5Розпізнавання обличчя

Розпізнавання обличчя

Слайд 6Розпізнавання рукопису

Розпізнавання рукопису

Слайд 7Прогнозування

Прогнозування

Слайд 8Керування

Керування

Слайд 9Керування

Керування

Слайд 10Правила Хебба
Перше правило Хебба — Якщо сигнал перцептрона невірний та дорівнює

нулю, то необхідно збільшити вагові коефіцієнти тих входів, на які

було подано одиницю.
Друге правило Хебба — Якщо сигнал перцептрона невірний та дорівнює одиниці, то необхідно зменьшити вагові коефіцієнти тих входів, на які було подано одиницю.
Правила застосовуються послідовно до всіх образів, що використовуються для навчання.
Правила ХеббаПерше правило Хебба — Якщо сигнал перцептрона невірний та дорівнює нулю, то необхідно збільшити вагові коефіцієнти тих

Слайд 11Метод зворотнього пошириння похибки

Метод зворотнього пошириння похибки

Слайд 12Функціонування мережі

Функціонування мережі

Слайд 13Функціонування мережі

Функціонування мережі

Слайд 14Зворотнє поширення похибки

Зворотнє поширення похибки

Слайд 15Зворотнє поширення похибки

Зворотнє поширення похибки

Слайд 16Зворотнє поширення похибки

Зворотнє поширення похибки

Слайд 17Зворотнє поширення похибки

Зворотнє поширення похибки

Слайд 18Карти Кохонена  (Self-Organizing Maps, SOM)
Ідея мережі Кохонена належить фінскому вченому

Тойво Кохонену (1982 рік)

Карти Кохонена  (Self-Organizing Maps, SOM)Ідея мережі Кохонена належить фінскому вченому Тойво Кохонену (1982 рік)

Слайд 19Навчання мережі Кохонена

Навчання мережі Кохонена

Слайд 20Мережа Хопфілда

Мережа Хопфілда

Слайд 21Функціонування мережі Хопфілда
Встановити значення вхідного вектору
Розрахувати

та
Чи змінились y, якщо так, то 2, інакше на виході маємо найбільш схожий образ
Функціонування мережі ХопфілдаВстановити значення вхідного векторуРозрахувати

Слайд 22Мережа Хеммінга
, i=0...n-1, k=0...m-1
Tk = n / 2, k = 0...m-1
де xik – i-ий

елемент k-ого образу
Вагові коефіцієнти гальмуючих синапсів у другому шарі оберають

рівними 0 < e < 1/m. Синапс нейрона, що зв’язаний з його ж аксоном має вагу +1.
Мережа Хеммінга, i=0...n-1, k=0...m-1Tk = n / 2, k = 0...m-1де xik – i-ий елемент k-ого образуВагові коефіцієнти гальмуючих синапсів у

Слайд 23Функціонування мережі Хеммінга
На входи мережі надається незнайомий вектор X = {xi:i=0...n-1}, виходячи

з якого розраховується стан нейронів першого шару (верхній індекс у

дужках вказує на номер шару):


Після цього значеннями, що отримані ініціалізуються аксони другого шару: yj(2) = yj(1), j = 0...m-1
Обчислити нові стани нейронів другого шару:


та значення їх аксонів:


Функція активації f має вигляд порогу та F повинна бути достатньо великою, щоб будь які значення аргументу не призводили до насичення.
Перевірити, чи зменілись виходи нейронів другого слою за останню ітерацию. Якщо так – перейти до шагу 2. Інакше – завершення функціонування.

, j=0...m-1       

Функціонування мережі ХеммінгаНа входи мережі надається незнайомий вектор X = {xi:i=0...n-1}, виходячи з якого розраховується стан нейронів першого шару

Слайд 24Реалізація
Програмна з використанням матриць
Програмна з використанням об’єктної моделі
Апаратна на ПЛІС

(FPGA)

РеалізаціяПрограмна з використанням матрицьПрограмна з використанням об’єктної моделіАпаратна на ПЛІС (FPGA)

Слайд 25Програмна з використанням матриць
 

Програмна з використанням матриць 

Слайд 26Програмна з використанням об’єктної моделі

Програмна з використанням об’єктної моделі

Слайд 27Апаратна на ПЛІС (FPGA)

Апаратна на ПЛІС (FPGA)

Слайд 28Література
Ф.Уоссермен, Нейрокомпьютерная техника, М.,Мир, 1992.
Саймон Хайкин, Нейронные сети: полный курс,

2-е издание.: Пер. с англ. – М. : Издательский дом

«Вильямс», 2006. – 1104 с.
ЛітератураФ.Уоссермен, Нейрокомпьютерная техника, М.,Мир, 1992.Саймон Хайкин, Нейронные сети: полный курс, 2-е издание.: Пер. с англ. – М.

Обратная связь

Если не удалось найти и скачать доклад-презентацию, Вы можете заказать его на нашем сайте. Мы постараемся найти нужный Вам материал и отправим по электронной почте. Не стесняйтесь обращаться к нам, если у вас возникли вопросы или пожелания:

Email: Нажмите что бы посмотреть 

Что такое TheSlide.ru?

Это сайт презентации, докладов, проектов в PowerPoint. Здесь удобно  хранить и делиться своими презентациями с другими пользователями.


Для правообладателей

Яндекс.Метрика