Разделы презентаций


Лекция 5

Содержание

Методы одномерной оптимизации

Слайды и текст этой презентации

Слайд 1Лекция 5
Обзор методов оптимизации

Лекция 5Обзор методов оптимизации

Слайд 2Методы одномерной оптимизации

Методы одномерной оптимизации

Слайд 3К методам
одномерной оптимизации относятся:
метод дихотомического деления,
метод золотого

сечения,
метод чисел Фибоначчи,
метод полиномиальной аппроксимации,
ряд модификаций этих методов

К методам одномерной оптимизации относятся: метод дихотомического деления, метод золотого сечения, метод чисел Фибоначчи, метод полиномиальной аппроксимации,ряд

Слайд 4




На отрезке [A,B] имеется один минимум
(в общем случае нечетное

число минимумов).
Согласно методу дихотомического деления отрезок делят пополам и

в точках, отстоящих от центра С отрезка на величину допустимой погрешности q, рассчитывают значения целевой функции F(C+q) и F(C-q). Если окажется, что F(C+q) > F(C-q), то минимум находится на отрезке [A,C], если
F(C+q)< F(C-q), то минимум — на [C,B], если
F(C+q) =F(C-q) — на [C-q,C+q]
На отрезке [A,B] имеется один минимум (в общем случае нечетное число минимумов). Согласно методу дихотомического деления отрезок

Слайд 5На следующем шаге вместо отрезка [A,B] нужно исследовать суженный отрезок

[A,C], [C,B] или [C-q,C+q].
Шаги повторяются, пока длина отрезка не

уменьшится до величины погрешности q.
Таким образом, требуется
не более N шагов,
где N — ближайшее к log((B-A)/q)
целое значение,
но на каждом шаге целевую функцию следует вычислять дважды.
На следующем шаге вместо отрезка [A,B] нужно исследовать суженный отрезок [A,C], [C,B] или [C-q,C+q]. Шаги повторяются, пока

Слайд 6



По методу золотого сечения внутри отрезка [A,B] выделяют две промежуточные

точки С1 и D1 на расстоянии s = aL от

его конечных точек,
где L = B-A — длина отрезка.
Затем вычисляют значения целевой функции F(x) в точках С1 и D1.
Если F(C1) < F(D1), то минимум находится на отрезке [A,D1], если F(C1) > F(D1)),
то — на отрезке [C1,B], если
F(C1) = F(D1) — на отрезке [ C1, D1].
По методу золотого сечения внутри отрезка [A,B] выделяют две промежуточные точки С1 и D1 на расстоянии s

Слайд 7Следовательно, вместо отрезка [A,B] теперь можно рассматривать
отрезок [A,D1], [C1,B]

или [C1, D1],
т.е. длина отрезка уменьшилась не менее чем

в L/(L-aL) = 1/(1-a) раз.
Если подобрать значение a так, что в полученном отрезке меньшей длины одна из промежуточных точек совпадет с промежуточной точкой от предыдущего шага,
т.е. в случае выбора отрезка [A,D1] точка D2 совпадет с точкой C1, а в случае выбора отрезка [C1,B] точка C2 — с точкой D1, то это позволит сократить число вычислений целевой функции на всех шагах
(кроме первого) в 2 раза.
Следовательно, вместо отрезка [A,B] теперь можно рассматривать отрезок [A,D1], [C1,B] или [C1, D1], т.е. длина отрезка уменьшилась

Слайд 8Условие получения такого значения а:

откуда с учетом
имеем

а = 0,382.

Это значение
называют золотым сечением.

Условие получения такого значения а:   откуда с учетомимеем а = 0,382. Это значение называют золотым

Слайд 9Таким образом, требуется
не более N шагов и N+1 вычислений

целевой функции,
где N можно рассчитать, используя соотношение


при заданной

погрешности Е определения экстремума.
Таким образом, требуется не более N шагов и N+1 вычислений целевой функции, где N можно рассчитать, используя

Слайд 10Согласно методу чисел Фибоначчи, используют числа Фибоначчи Ri, последовательность которых

образуется по правилу

при
т.е. ряд чисел Фибоначчи имеет вид
1, 1, 2, 3, 5, 8, 13, 21, 34, 55, 89, 144....
Согласно методу чисел Фибоначчи, используют числа Фибоначчи Ri, последовательность которых образуется по правилу

Слайд 11Метод аналогичен методу золотого сечения с тем отличием, что коэффициент

а равен отношению

начальное значение i определяется из условия,

что Ri должно быть наименьшим числом Фибоначчи, превышающим величину (B-A)/E,
где Е — заданная допустимая погрешность определения экстремума.
Метод аналогичен методу золотого сечения с тем отличием, что коэффициент а равен отношению начальное значение i определяется

Слайд 12Например, если
(В-А)/Е=100,
то начальное значение i = 12,
поскольку

R1=144 и а=55/144=0,3819,
на следующем шаге будет
a=34/89=0,3820

и т.д.
Например, если (В-А)/Е=100, то начальное значение i = 12, поскольку R1=144 и а=55/144=0,3819, на следующем шаге будет

Слайд 13По методу полиномиальной аппроксимации
при аппроксимации F(x) квадратичным полиномом


выбирают

промежуточную точку С и в точках
А, В, С вычисляют

значения целевой функции.
Далее решают систему из трех алгебраических уравнений, полученных подстановкой в уравнение квадратичного полинома значений А, В, С вместо х и вычисленных значений функции вместо Р(х).
По методу полиномиальной аппроксимации при аппроксимации F(x) квадратичным полиномом выбирают промежуточную точку С и в точках А,

Слайд 14В результате становятся известными значения коэффициентов аk в уравнении и,

исходя из условия

, определяют экстремальную точку Э полинома.
Например, если точка С выбрана в середине отрезка [A,B], то
В результате становятся известными значения коэффициентов аk в уравнении и, исходя из условия

Слайд 15Методы безусловной оптимизации

Методы безусловной оптимизации

Слайд 16Среди методов нулевого порядка
в САПР находят применение:
метод Розенброка,
метод

конфигураций (Хука-Дживса),
метод деформируемого многогранника (Нелдера-Мида),
метод случайного поиска.
К методам

с использованием производных относятся:
метод наискорейшего спуска,
метод сопряженных градиентов,
метод переменной метрики.
Среди методов нулевого порядка в САПР находят применение:метод Розенброка, метод конфигураций (Хука-Дживса),метод деформируемого многогранника (Нелдера-Мида), метод случайного

Слайд 17Метод Розенброка является улучшенным вариантом покоординатного спуска.
Характеризуется выбором направлений поиска

поочередно вдоль всех n координатных осей,
шаг рассчитывается на основе

одномерной оптимизации,
критерий окончания поиска |Xk -Xkn| < ε,
где ε — заданная точность определения локального экстремума,
n— размерность пространства управляемых параметров.
Метод Розенброка является улучшенным вариантом покоординатного спуска.Характеризуется выбором направлений поиска поочередно вдоль всех n координатных осей, шаг

Слайд 18





Траектория покоординатного спуска для примера двумерного пространства управляемых параметров показана

на рисунке,
где Xk— точки на траектории поиска,
xi— управляемые

параметры.
Целевая функция представлена своими линиями равного уровня, около каждой линии записано соответствующее ей значение F(X).
Точка Q есть точка минимума.
Траектория покоординатного спуска для примера двумерного пространства управляемых параметров показана на рисунке, где Xk— точки на траектории

Слайд 19





При использовании метода покоординатного спуска велика вероятность «застревания» поиска на

дне оврага вдали от точки экстремума. На рисунке видно, что

после попадания в точку А, расположенную на дне оврага, дальнейшие шаги возможны лишь в направлениях aa или bb, но они приводят к ухудшению целевой функции. Следовательно, поиск прекращается в точке А.
При использовании метода покоординатного спуска велика вероятность «застревания» поиска на дне оврага вдали от точки экстремума. На

Слайд 20Примечание
Оврагом называют часть пространства управляемых параметров, в которой наблюдаются

слабые изменения производных целевой функции по одним направлениям и значительные

изменения с переменой знака — по некоторым другим направлениям.
Знак производной меняется в точках, принадлежащих дну оврага.
Примечание Оврагом называют часть пространства управляемых параметров, в которой наблюдаются слабые изменения производных целевой функции по одним

Слайд 21






В то же время при благоприятной ориентации дна оврага, а

именно при положении одной из координатных осей, близком к параллельности

с дном оврага, поиск оказывается весьма быстрым. Эта ситуация показана на рисунке.
В то же время при благоприятной ориентации дна оврага, а именно при положении одной из координатных осей,

Слайд 22

Метод Розенброка заключается в таком повороте координатных осей, чтобы одна

из них оказалась квазипараллельной дну оврага. Такой поворот осуществляют на

основе данных, полученных после серии из n шагов покоординатного спуска.
Положение новых осей si может быть получено линейным преобразованием прежних осей xi: ось s1 совпадает по направлению с вектором Xk+n-Xk; остальные оси выбирают из условия ортогональности к N1 и друг к другу.
Метод Розенброка заключается в таком повороте координатных осей, чтобы одна из них оказалась квазипараллельной дну оврага. Такой

Слайд 23Другой модификацией покоординатного спуска является метод конфигураций.
В соответствии с

этим методом вначале выполняют обычную серию из n шагов покоординатного

спуска, затем делают дополнительный шаг в направлении вектора
Xk-Xk-n, как показано на рисунке, где дополнительный шаг выполняют в направлении вектора X3- X1, что и приводит в точку X4.
Другой модификацией покоординатного спуска является метод конфигураций. В соответствии с этим методом вначале выполняют обычную серию из

Слайд 24
Поиск экстремума методом деформируемого многогранника основан на построении многогранника
с

(n +1) вершинами на каждом шаге поиска,
где n— размерность

пространства управляемых параметров.
В начале поиска эти вершины выбирают произвольно, на последующих шагах выбор подчинен правилам метода.
Поиск экстремума методом деформируемого многогранника основан на построении многогранника с (n +1) вершинами на каждом шаге поиска,

Слайд 25Эти правила поясняются рисунком на примере двумерной задачи оптимизации. Выбраны

вершины исходного треугольника: X1, X2, X3. Новая вершина X4 находится

на луче, проведенном из худшей вершины X1 (из вершины с наибольшим значением целевой функции) через центр тяжести SM многогранника, причем рекомендуется X4 выбирать на расстоянии d от SM, равном |SM-X1|.
Новая вершина X4 заменяет худшую вершину X1.
Эти правила поясняются рисунком на примере двумерной задачи оптимизации. Выбраны вершины исходного треугольника: X1, X2, X3. Новая

Слайд 26Если оказывается, что X4 имеет лучшее значение целевой функции среди

вершин многогранника, то расстояние d увеличивают. На рисунке именно эта

ситуация имеет место и увеличение d дает точку X5. В новом многограннике с вершинами X2, X3, X5 худшей является вершина X2, аналогично получают вершину X6, затем вершину X7 и т.д.
Если оказывается, что X4 имеет лучшее значение целевой функции среди вершин многогранника, то расстояние d увеличивают. На

Слайд 27
Если новая вершина окажется худшей, то в многограннике нужно сохранить

лучшую вершину, а длины всех ребер уменьшить,
например, вдвое (стягивание

многогранника к лучшей вершине).

Поиск прекращается при выполнении условия уменьшения размеров многогранника до некоторого предела.
Если новая вершина окажется худшей, то в многограннике нужно сохранить лучшую вершину, а длины всех ребер уменьшить,

Слайд 28


Случайные методы поиска характеризуются тем, что направления поиска g выбирают

случайным образом.

Случайные методы поиска характеризуются тем, что направления поиска g выбирают случайным образом.

Слайд 29Особенностью
метода наискорейшего спуска
является выполнение шагов поиска в градиентном

направлении


шаг h выбирается оптимальным с помощью одномерной оптимизации.

Особенностью метода наискорейшего спуска является выполнение шагов поиска в градиентном направлении шаг h выбирается оптимальным с помощью

Слайд 30При использовании метода наискорейшего спуска,
как и большинства других методов,

эффективность поиска существенно снижается в овражных ситуациях.
Траектория поиска приобретает

зигзагообразный вид с медленным продвижением вдоль дна оврага в сторону экстремума.
При использовании метода наискорейшего спуска, как и большинства других методов, эффективность поиска существенно снижается в овражных ситуациях.

Слайд 31
Чтобы повысить эффективность градиентных методов используют различные приемы.
Один из

таких приемов, использованный в
методе сопряженных градиентов (методе Флетчера-Ривса),
основан

на понятии сопряженности векторов.
Чтобы повысить эффективность градиентных методов используют различные приемы. Один из таких приемов, использованный в методе сопряженных градиентов

Слайд 32Векторы А и В называют
Q-сопряженными, если ATQB=0,
где Q

— положительно определенная квадратная матрица того же порядка, что и

размер N векторов А и В
(частный случай сопряженности — ортогональность векторов,
когда Q является единичной матрицей порядка N),
AT - вектор-строка, B — вектор-столбец.
Векторы А и В называют Q-сопряженными, если ATQB=0, где Q — положительно определенная квадратная матрица того же

Слайд 33
Особенность сопряженных направлений для Q = Г, где Г —

матрица Гессе, в задачах с квадратичной целевой функцией F(X) заключается

в следующем:
одномерная минимизация F(X) последовательно по N сопряженным направлениям позволяет найти экстремальную точку не более, чем за N шагов.
Особенность сопряженных направлений для Q = Г, где Г — матрица Гессе, в задачах с квадратичной целевой

Слайд 34Примечание
Матрицей Гессе называют матрицу вторых частных производных целевой функции

по управляемым параметрам.
Основанием для использования поиска по Г -

сопряженным направлениям является то, что для функций F(X) общего вида может быть применена квадратичная аппроксимация, что на практике выливается в выполнение поиска более, чем за N шагов.
Примечание Матрицей Гессе называют матрицу вторых частных производных целевой функции по управляемым параметрам. Основанием для использования поиска

Слайд 35Пример
Поиск экстремума выполняют в соответствии
с формулой

Направление Si+1 поиска

на очередном шаге связано с направлением поиска Si на предыдущем

шаге соотношением

где wi — коэффициент.
Кроме того, учитывают условие сопряженности

и линейную аппроксимацию gradF(X) в окрестностях точки Хi
Пример Поиск экстремума выполняют в соответствии с формулойНаправление Si+1 поиска на очередном шаге связано с направлением поиска

Слайд 36Поскольку шаг h рассчитывается исходя из условия одномерной оптимизации, то,


во-первых, справедливо соотношение

во-вторых, имеем

откуда получаем

Поскольку шаг h рассчитывается исходя из условия одномерной оптимизации, то, во-первых, справедливо соотношение 								во-вторых, имеем откуда получаем

Слайд 37

Алгоритм поиска сводится к применению формулы

пока не будет выполнено условие

окончания вычислений

Алгоритм поиска сводится к применению формулыпока не будет выполнено условие окончания вычислений

Слайд 38Чтобы определить коэффициент wi решают систему уравнений





путем подстановки величин

Si+1 и Si из соответствующих уравнений.

Чтобы определить коэффициент wi решают систему уравнений путем подстановки величин Si+1 и Si из соответствующих уравнений.

Слайд 39
или

откуда


и с учетом

и



или откуда и с учетом            и

Слайд 40Следовательно,


На первом шаге поиска выбирают
S1=-grad F(X0) и находят

точку X1.
На втором шаге по формуле рассчитывают w1, по

соответствующим формулам определяют S2 и X2
и т.д.
Следовательно, 		На первом шаге поиска выбирают S1=-grad F(X0) и находят точку X1. На втором шаге по формуле

Слайд 41Метод переменной метрики
(метод Девидона – Флетчера - Пауэлла) можно

рассматривать как результат усовершенствования метода второго порядка — метода Ньютона.



Метод Ньютона основан на использовании необходимых условий безусловного экстремума целевой функции F(X)
grad F(X)=0.


Метод переменной метрики (метод Девидона – Флетчера - Пауэлла) можно рассматривать как результат усовершенствования метода второго порядка

Слайд 42Выражение grad F(X)=0 представляет собой систему алгебраических уравнений, для решения

которой можно применить известный численный метод, называемый методом Ньютона.
Корень

этой системы есть стационарная точка, т.е. возможное решение
экстремальной задачи.
Метод Ньютона является итерационным, он основан на линеаризации grad F(X)=0 в окрестности текущей точки поиска Хk

Выражение grad F(X)=0 представляет собой систему алгебраических уравнений, для решения которой можно применить известный численный метод, называемый

Слайд 43Выражение

— это система линейных алгебраических уравнений.
Ее корень есть

очередное приближение Хk+1 к решению

Если процесс сходится, то

решение достигается за малое число итераций, окончанием которых служит выполнение условия

Выражение — это система линейных алгебраических уравнений. Ее корень есть очередное приближение Хk+1 к решению Если процесс

Слайд 44Главный недостаток метода — высокая трудоемкость вычисления и обращения матрицы

Г, к тому же ее вычисление численным дифференцированием сопровождается заметными

погрешностями, что снижает скорость сходимости.
В методе переменной метрики вместо трудно вычисляемой обратной матрицы Гессе используют некоторую более легко вычисляемую матрицу N, т.е.

Главный недостаток метода — высокая трудоемкость вычисления и обращения матрицы Г, к тому же ее вычисление численным

Слайд 45Введем обозначения:


E — единичная матрица.
Начальное значение матрицы N0

= E. Матрицу N корректируют на каждом шаге, т.е.

где

Введем обозначения: E — единичная матрица. Начальное значение матрицы N0 = E. Матрицу N корректируют на каждом

Слайд 46Поэтому


Можно показать, что Ai стремится к Г-1, Вi —

к E при k→n,
где n — размерность пространства управляемых

параметров.
Спустя n шагов, нужно снова начинать с Nn+1 = E.
Поэтому Можно показать, что Ai стремится к Г-1, Вi — к E при k→n, где n —

Слайд 47Спасибо за внимание!

Спасибо за внимание!

Обратная связь

Если не удалось найти и скачать доклад-презентацию, Вы можете заказать его на нашем сайте. Мы постараемся найти нужный Вам материал и отправим по электронной почте. Не стесняйтесь обращаться к нам, если у вас возникли вопросы или пожелания:

Email: Нажмите что бы посмотреть 

Что такое TheSlide.ru?

Это сайт презентации, докладов, проектов в PowerPoint. Здесь удобно  хранить и делиться своими презентациями с другими пользователями.


Для правообладателей

Яндекс.Метрика