Разделы презентаций


Персептронный алгоритм получения линейных решающих правил

Персептронный алгоритм получения линейных решающих правил Простейший методы получения линейных решающих функций на основе персептронных алгоритма обучения основывается на рекуррентном построении решающего правила путем коррекции ошибок. Требуется найти WT, Wn+1 для построения

Слайды и текст этой презентации

Слайд 11. Персептронный алгоритм получения линейных решающих правил

1. Персептронный алгоритм получения линейных решающих правил

Слайд 2Персептронный алгоритм получения линейных решающих правил
Простейший методы получения линейных

решающих функций на основе персептронных алгоритма обучения основывается на рекуррентном

построении решающего правила путем коррекции ошибок.
Требуется найти WT, Wn+1 для построения решающего правила d(X)=WT X+ Wn+1 на основе использования конечных обучающих выборок .
Введем понятие расширенных векторов . Перейдем от размерности n к n+1 следующим образом:
Персептронный алгоритм получения линейных решающих правил 		Простейший методы получения линейных решающих функций на основе персептронных алгоритма обучения

Слайд 3 Тогда наша система неравенств сводится к более простой задаче:
(*) d(X)

= WT X> 0 (или

∈ X2)
Персептронный алгоритм основан на последовательном просмотре обучающей выборки:

Процесс обучения заключается в том, что мы циклически просматриваем выборку и подставляем получаемое значение в W в (*), и на каждом шаге просмотра производим или не производим коррекцию весового вектора.

Тогда наша система неравенств сводится к более простой задаче:		(*) d(X) = WT X> 0 (или

Слайд 4 В этом случае получен правильный ответ при классификации текущего

вектора X.
Этот случай соответствует ошибочной классификации и
соответственно производится

коррекция весового вектора
(должно быть С>0)

Эта процедура и является процедурой обучения
персептронного типа.

В этом случае получен правильный ответ при классификации текущего вектора X. Этот случай соответствует ошибочной классификации

Слайд 5Пусть мы имеем величину весового вектора после коррекции:
Подставим новый весовой

вектор в выражение
для решающей функции:
Видно, что значение весовой функции

увеличилось на положительную
величину C , то есть мы продвинулись к правильному решению.
Показано, что если решение существует, то алгоритм сходится
за конечное число шагов.Различные варианты выбора коэффициента C
позволяют улучшить данный алгоритм:
1. С – константа . Скорость сходимости может быть мала.
2. С = Cn = var(n)
Попробуем менять C на каждом шагу так .чтобы сразу получить на текущем
векторе правильное решение. Здесь можно использовать такой выбор С
+ Cn > 0 , отсюда следует :

Рассмотренный алгоритм появился на основе
интуитивных соображений при разработке моделей
работы головного мозга человека при решении задач обучения.
Дальше мы рассмотрим более формальный подход .

Пусть мы имеем величину весового вектора после коррекции:Подставим новый весовой вектор в выражение для решающей функции:Видно, что

Обратная связь

Если не удалось найти и скачать доклад-презентацию, Вы можете заказать его на нашем сайте. Мы постараемся найти нужный Вам материал и отправим по электронной почте. Не стесняйтесь обращаться к нам, если у вас возникли вопросы или пожелания:

Email: Нажмите что бы посмотреть 

Что такое TheSlide.ru?

Это сайт презентации, докладов, проектов в PowerPoint. Здесь удобно  хранить и делиться своими презентациями с другими пользователями.


Для правообладателей

Яндекс.Метрика