Реферат: Методы оптимизации
Название: Методы оптимизации Раздел: Рефераты по математике Тип: реферат | |||||||||||||||||||||||||||||||||||||||
ФЕДЕРАЛЬНОЕ АГЕНТСТВО ПО ОБРАЗОВАНИЮ Кафедра математического анализа Дипломная работа по математике студентка 5 курса математического факультета специальность 032100.01 – «Математика» с дополнительной специальностью «Информатика» МЕТОДЫ ОПТИМИЗАЦИИ Научный руководитель: доцент, кандидат технических наук Допущена к защите. Зав. кафедрой математического анализа _________________________ «___» _______ 2010 г., протокол №__ Защищена «____» июня 2010 г. Оценка __________________________ СОДЕРЖАНИЕ
Введение В настоящее время оптимизация находит применение в науке, технике и в любой другой области человеческой деятельности. Оптимизация - целенаправленная деятельность, заключающаяся в получении наилучших результатов при соответствующих условиях. Поиски оптимальных решений привели к созданию специальных математических методов и уже в 18 веке были заложены математические основы оптимизации (вариационное исчисление, численные методы и др). Однако до второй половины 20 века методы оптимизации во многих областях науки и техники применялись очень редко, поскольку практическое использование математических методов оптимизации требовало огромной вычислительной работы, которую без ЭВМ реализовать было крайне трудно, а в ряде случаев - невозможно. Оптимизация как раздел математики существует достаточно давно. Оптимизация - это выбор, т.е. то, чем постоянно приходится заниматься в повседневной жизни. Термином "оптимизация" в литературе обозначают процесс или последовательность операций, позволяющих получить уточненное решение. Хотя конечной целью оптимизации является отыскание наилучшего или "оптимального" решения, обычно приходится довольствоваться улучшением известных решений, а не доведением их до совершенства. По этому под оптимизацией понимают скорее стремление к совершенству, которое, возможно, и не будет достигнуто. На первоначальном этапе решения принимались без специального математического анализа, просто на основе опыта и здравого смысла. Практика порождает все новые и новые задачи оптимизации причем их сложность растет. Требуются новые математические модели и методы, которые учитывают наличие многих критериев, проводят глобальный поиск оптимума. Другими словами, жизнь заставляет развивать математический аппарат оптимизации. Из всего выше сказанного можно сделать вывод об актуальности темы дипломной работы. Объект исследования: методы оптимизации как раздел математики. Предмет исследования: методы оптимизации первого порядка (градиентные методы) и второго порядка: методы Ньютона и Ньютона- Рафсона. Цель работы: изучить вопросы отыскания экстремума функции нескольких переменных, а также рассмотреть алгоритмы численных методов отыскания безусловного экстремума. Задачи , решаемые в работе: 1. Изучить теорию нахождения безусловного и условного экстремумов функции нескольких переменных; 2. Рассмотреть задачи минимизации функции нескольких переменных; 3. Изучить численные методы решения задач поиска безусловного минимума функции. В первой главе сделан анализ теоретического материала, посвященного пониманию природы задач оптимизации — выведены необходимые и достаточные условия, которым должна удовлетворять функция в экстремальных точках. Рассмотрен метод множителей Лагранжа. Во второй главе изложены численные методы отыскания безусловного экстремума, рассмотрены алгоритмы и примеры градиентных методов оптимизации: градиентного спуска с постоянным шагом, наискорейшего градиентного спуска, покоординатного спуска. Также рассмотрены методы второго порядка: метод Ньютона и метод Ньютона-Рафсона. Глава I . ЗАДАЧА ОТЫСКАНИЯ ЭКСТРЕМУМА ФУНКЦИИ МНОГИХ ПЕРЕМЕННЫХ § 1. Функция многих переменных Одной из важных задач анализа является задача отыскания экстремума (наибольшего или наименьшего значения) скалярной функции f (х) n -мерного векторного аргумента х при некоторых ограничениях. Эту задачу мы будем записывать следующим образом: min f ( x ), (1)
Здесь X
—
некоторое подмножество n
-мерного евклидова пространства Еп
.
Будем называть X
допустимым множеством
задачи (1)—(2), а точки, принадлежащие X, — ее допустимыми точками.
Заметим, что задачу максимизации функции f
(х)
тоже можно записать в виде (1)-(2), заменив f
(х)
на В этой главе будут последовательно рассмотрены задача нахождения безусловного экстремума функции нескольких переменных (Х=Еп ) и задача на относительный экстремум, т. е. задача минимизации функции нескольких переменных при наличии ограничений типа равенств, когда X - множество решений уравнения g ( x )=0, где g ( x ) есть m -мерная вектор-функция, т<п. Задача (1) - (2) является классической и рассматривается во всех курсах анализа. Теория решения таких задач развивалась еще в трудах Эйлера, Лагранжа, Бернулли, Лейбница. Она не потеряла своего значения и в настоящее время, несмотря на то, что с тех пор разработаны более общие методы, включающие классические, как частый случай. Классическая теория содержит значительную часть идей, лежащих в основе современных методов оптимизации. 1.1
Необходимое условие экстремума.
Рассмотрим задачу безусловной минимизации, будем теперь считать, что f
(х) —
скалярная функция векторного аргумента размерности п,
т. е. X
=
En
. Если одной переменной xj
,
которая получается из функции f
(
x
),
если зафиксировать все переменные, кроме xj
,
положив х
i
=
получена теорема 1. Теорема 1. Для того чтобы функция
f
(
x
), определенная на вещественной оси, имела безусловный локальный экстремум в точке
Проведя это рассуждение для всех j = 1, ..., п, приходим к следующей теореме. Теорема 2. Для того чтобы в точке
Условие стационарности (4) мы будем записывать еще в одной из следующих эквивалентных форм: grad где Заметим, что необходимое условие экстремума (4) эквивалентно равенству нулю дифференциала функции f
(
x
)
в точке df
(
В самом деле, если выполнено условие (4), то для любых dxl , i = l, ..., n , имеем
Справедливо и обратное утверждение, так как из последнего равенства в силу произвольности независимых приращений dxi
,i
=
l, ..., n
, следует, что все частные производные в точке
Условия (4) образуют систему п
уравнений для определения п
компонент вектора 1.2
Необходимое условие второго порядка. Достаточные условия.
После того как решение
Здесь через
Характер стационарной точки
Напомним, что квадратичная форма называется неотрицательно определенной
в точке
и положительно определенной, если
для любых векторов Соответственно, симметричная матрица вторых производных f
"(х)
называется неотрицательно определенной в точке Таким образом, с учетом разложения (5), приходим к следующей формулировке условий второго порядка экстремальности функции f ( x 1 , ..., хп ). Теорема 3. Для того чтобы дважды непрерывно дифференцируемая функция п переменных
f
(
x
) имела в стационарной точке
Проверка знакоопределенности матриц может быть осуществлена, например, с помощью критерия Сильвестра
. Согласно этому критерию, необходимым и достаточным условием положительной определенности квадратичной формы (х, Ах),
где А = {
aij
}
— симметричная
Необходимым и достаточным условием отрицательной определенности квадратичной формы (х, Ах) является выполнение цепочки следующих п неравенств:
Если квадратичная форма не меняет знака, но обращается в нуль при ненулевых значениях аргумента, то для определения характера стационарной точки Пример. Определить экстремальные значения функции Из необходимых условий (2.1) имеем Поэтому Тогда, согласно теореме 3, имеем следующие случаи: 1) а>0, b
>0
- функция f
(х)
имеет в точке
4) а<0, b<0 - функция f
(х)
имеет в точке Замечание: Здесь и далее {x 1 , ..., хп }T – вектор-столбец. § 2. Относительный экстремум. Метод множителей Лагранжа 2.1 Метод исключения. Рассмотрим теперь задачу на относительный экстремум. Как мы видели в § 1, решение задачи об отыскании экстремумов функции п переменных f (х) на всем пространстве Еп может быть сведено с помощью необходимых условий к решению системы уравнений (4), в результате чего определяются стационарные точки функции f ( x ). Оказывается, что аналогичное сведение возможно и для задачи отыскания экстремумов функции f ( x ) при наличии ограничений типа равенств gi ( x ) = 0, i = 1, 2, ..., т. (10) Условия (10) принято еще называть уравнениями связи . Точку х , удовлетворяющую условиям (10), будем называть допустимой. Определение .
Допустимая точка
Рассмотрим случай, когда уравнения связи (10) могут быть разрешены относительно части переменных. Будем предполагать, что функции gi
(
x
),
i
=l,..., т
,имеют в окрестности рассматриваемой допустимой точки
Тогда по теореме о неявных функциях в некоторой окрестности точки
где
Однако провести исключение части компонент вектора х
обычно бывает трудно или даже невозможно. Поэтому мы используем другой путь определения точки 2.2
Метод множителей Лагранжа.
Как мы видели в замечании к теореме 2, в точке
где dxj ,j =1, ..., m , — дифференциалы «зависимых» переменных, связанные с дифференциалами «независимых» переменных dxk , k = m +1, ..., n , следующим образом:
Метод Лагранжа состоит из следующих этапов: 1) составляется функция п+т переменных, которая называется функцией Лагранжа:
2) вычисляются и приравниваются нулю ее частные производные по х
и
3) решается система (16) п+т
уравнений относительно п+т
неизвестных x
1
, ..., хп
,
Система уравнений (16) представляет собой необходимые условия первого порядка в задаче на относительный экстремум, а ее решения Заметим, что требование неравенства нулю якобиана (11) является существенным. Пример 1. Условие (11) может быть не выполнено, если решение задачи на относительный экстремум реализуется, например, в точке касания поверхностей ограничений (10) (начало координат на рис. 1). Рис. 1 Пусть п = 2, т = 2, f (х) = х 2 ,
Допустимая точка должна одновременно удовлетворять уравнениям g
1
(
x
) = 0
, g
2
(
x
) = 0
и является единственной: х1
=
0, x
2
=
0. Очевидно, что точка Метод множителей Лагранжа приводит к уравнениям Этим уравнениям точка относительного минимума Пример 2. Пусть п =
2, т =
2, f
(х)
= х
2
g ( x )= х 2 -( x 1 )2 . Функция Лагранжа для этой задачи имеет вид Соответственно, правило множителей Лагранжа приводит к уравнениям решением которых будет на прямой
При 2.3 Седловая точка функции Лагранжа. Рассмотрим функцию двух переменных z = Ф(х, у) ,где х, y —скаляры или векторы. Определение. Назовем пару {х*, y *} седловой точкой функции Ф (х, у), если для любых х, y справедливо неравенство
Очевидно, что неравенство (17) эквивалентно выражению
Снова рассмотрим задачу отыскания относительного экстремума функции f ( x ) при ограничениях g ( x ) = 0 . Необходимые условия экстремума (3.10) можно записать в виде
т. е. пара Однако в этой точке функция Покажем теперь, что в точке Следовательно, где Таким образом, по х
и то точка Пример 3. Исследуем на экстремум функцию
Решение. Координаты x , y , z критической точки гладкой функции u должны удовлетворять системе:
Отсюда получаем пять критических точек:
Исследуем поведение функции u в стационарных точках с помощью достаточного условия экстремума: Отсюда получаем Для анализа квадратичной формы Применим критерий Сильвестра. Матрица этой формы:
Её главные миноры: 2>0; Распределение знаков этих миноров показывает, что данная квадратичная форма знакопеременная, следовательно, в точке М1 функция u не имеет экстремума: точка М1 есть седловая точка функции u . Точно так же устанавливается, что точки М2 , М3 , М4 также седловые точки функции u . Глава II . ЧИСЛЕННЫЕ МЕТОДЫ ОТЫСКАНИЯ БЕЗУСЛОВНОГО ЭКСТРЕМУМА § 1. Методы первого порядка (градиентные методы) Как известно из курсов анализа, градиент скалярной функции f
(х)
в некоторой точке xk
направлен в сторону наискорейшего возрастания функции и ортогонален линии уровня (поверхности постоянного значения функции f
(
x
),
проходящей через точку х
k
).
Вектор, противоположный градиенту f
'(
xk
)
, антиградиент, направлен в сторону наискорейшего убывания функции f
(
x
).
Выбирая в качестве направления спуска р
k
в
В координатной форме этот процесс записывается следующим образом:
Все итерационные процессы, в которых направление движения на каждом шаге совпадает с антиградиентом (градиентом) функции, называются градиентными методами
и отличаются друг от друга способами выбора шага 1.1 Метод градиентного спуска с постоянным шагом Постановка задачи Пусть дана функция f (х) , ограниченная снизу на множестве Rn и имеющая непрерывные частные производные во всех его точках. Требуется найти локальный минимум функции f
(х)
на множестве допустимых решений X
= Rn
, т.е. найти такую точку Стратегия поиска Стратегия решения задачи состоит в построении последовательности точек {х
k
}
, k
=
0,1,..., таких, что
где точка х0
задается пользователем; Рис. 2 Построение последовательности {х
k
} заканчивается в точке х
k
, для которой Геометрическая интерпретация метода для п =2приведена на рис. 2. Процедура решения задачи 1. Используя алгоритм градиентного спуска с постоянным шагом, найти точку х k в которой выполнен по крайней мере один из критериев окончания расчетов. 2. Провести анализ точки х
k
с целью установить, является ли точка хк
найденным приближением решения задачи. Процедура анализа определяется наличием у функции f
(х)
непрерывных вторых производных. Если Определение: Матрицей Гессе Н(х) дважды непрерывно дифференцируемой в точке х функции f ( x ) называется матрица частных производных второго порядка, вычисленной в данной точке:
где Определители Пример 1.1. Найти локальный минимум функции □ I. Определение точки х k , в которой выполнен по крайней мере один из критериев окончания расчетов. 1. Зададим х0
, 2. Положим к = 0. 30
. Вычислим 40
. Вычислим 50
. Проверим условие 60
. Зададим 70 . Вычислим х1 : х1 = (0,5; 1)T -0,5(3; 2,5)T = (-1; -0,25)T ; f (х1 ) = 2,31. 80
. Сравним f
(х1
)
с f
(х0
)
= 2. Имеем f
(х1
)
> f
(х0
)
. Вывод: условие 701 . Вычислим х1 : х1 = (0,5; 1)T -0,25(3; 2,5)T = (-0,25; 0,375)T ; f (х1 ) = 0,171. 801 . Сравним f (х1 ) и f (х0 ) . Вывод: f ( x 1 ) < f ( x 0 ). Переходим к шагу 9. 90
. Вычислим
Вывод: полагаем k =1 и переходим к шагу 3. 31
. Вычислим 41
. Вычислим 51
. Проверим условие 61
. Зададим 71 . Вычислим х2 : х2 = (-0,25; 0,375)T - 0,25 (-0,625; 0,5)T = (-0,094; 0,25)T ; f (х2 ) = 0,056. 81 . Сравним f (х2 ) с f (х1 ) . Вывод: f (х2 ) < f (х1 ). Переходим к шагу 9. 91
. Вычислим
Вывод: полагаем k = 2 и переходим к шагу 3. 32
. Вычислим 42
. Вычислим 52
. Проверим условие 62
. Зададим 72 . Вычислим х3 : х3 = (-0,094; 0,25)T -0,25(-0,126; 0,406)T = (-0,063;0,15)T ; f (х3 ) = 0,021. 82 . Сравним f (х3 ) и f (х2 ) . Вывод: f (х3 ) < f (х2 ) .Переходим к шагу 9. 92
. Вычислим
Вывод: полагаем k = 3 и переходим к шагу 3. 33
. Вычислим 43
. Вычислим 53
. Проверим условие 63
. Зададим 73 . Вычислим х4 : х4 = (-0,063; 0,15)T - 0,25(-0,102; 0,237)T = (-0,038; 0,091)Т ; f (х4 ) = 0,0076. 83 . Сравним f (х4 ) и f (х3 ) : f (х4 ) < f (х3 ) . 93
. Вычислим
Условия На рис. 3 полученные точки соединены пунктирной линией. II. Анализ точки х4 . Функция Рис. 3 Матрица постоянна и является положительно определенной (т.е. H
> 0) , так как оба ее угловых минора 1.2 Метод наискорейшего градиентного спуска Стратегия поиска Стратегия решения задачи состоит в построении последовательности точек {х
k
}, k
=
0,1,..., таких, что
где точка х0
задается пользователем; величина шага
Решение задачи (3) может осуществляться с использованием необходимого условия минимума Построение последовательности {х
k
},
k
= 0,1,..., заканчивается в точке х
k
, для которой Рис. 4 Геометрическая интерпретация метода для п = 2приведена на рис. 4. Пример 1. 2. Найти локальный минимум функции
□ I. Определение точки х k , в которой выполнен по крайней мере один из критериев окончания расчетов. 1. Зададим х0
, 2. Положим k = 0. 30
. Вычислим 40
. Вычислим 50
. Проверим условие 6° . Следующая точка находится по формуле
Подставим полученные выражения
Отсюда 70
. Найдем 8°. Вычислим
Вывод: полагаем k = 1 и переходим к шагу 3. 31
. Вычислим 41
. Вычислим 51
. Проверим условие 61
. Определим 71
. Найдем х2 =(-0,22; 0,4)T - 0,546 (- 0,48; 0,58)T = (0,04; 0,08)T . 81
. Вычислим
Полагаем k = 2 и переходим к шагу 3. 32
. Вычислим 42
. Вычислим 52
. Проверим условие 62
. Определим 72
. Найдем х3 =(0,04; 0,08)T - 0,24 (0,24; 0,2)T = (-0,0176; 0,032)T . 82
. Вычислим
Полагаем k =3 и переходим к шагу 3. 33
. Вычислим 43
. Вычислим II. Анализ точки х3 . В примере 1.1 (гл.2 §1) было показано, что функция f ( x ) является строго выпуклой и, следовательно, точка х3 является найденным приближением точки глобального минимума х* . ■ 1.3 Метод покоординатного спуска Стратегия поиска Стратегия решения задачи состоит в построении последовательности точек {х
k
}, k
=
0,1,..., таких, что
где j
- номер цикла вычислений; j
=
0,1,2,...; k
- номер итерации внутри цикла, k
=
0,1,...
,n
-
1; е
k
+1
,
k
= 0,l,..., n
- 1 -единичный вектор, (k
+1) -я проекция которого равна 1; точка х00
задается пользователем, величина шага
Если выбранное условие при текущем Полученные в результате вычислений точки могут быть записаны как элементы последовательности {х
l
}, где Геометрическая интерпретация метода для п = 2 приведена на рис. 5. Рис. 5 Пример 1.3. Найти локальный минимум функции
□ I. Определение точки xjk , в которой выполнен по крайней мере один из критериев окончания расчетов. 1. Зададим х00
, 2. Зададим j = 0. 30
. Проверим выполнение условия 40 . Зададим k = 0. 50
. Проверим выполнение условия 60
. Вычислим 70
. Проверим условие 80
. Зададим 90
. Вычислим
Отсюда х01 = (-1;1)T . 100
. Проверим условие 901
. Вычислим х01
с шагом 1001
. Проверим условие
110
. Проверим условия
Полагаем k =1 и переходим к шагу 5. 51
. Проверим условие 61
. Вычислим 71
. Проверим условие 81
. Зададим 91
. Вычислим
Отсюда х02 = (-0,25; 0,125)Т . 101
. Проверим условие
111
. Проверим условия
Полагаем k = 2, переходим к шагу 5. 52
. Проверим условие 31
. Проверим условие 41 . Зададим k = 0. 52
. Проверим условие 62
. Вычислим 72
. Проверим условие 82
. Зададим 92
. Вычислим 102
. Проверим условие
112
. Проверим условия
Полагаем k =1 и переходим к шагу 5. 53
. Проверим условие 63
. Вычислим 73
. Проверим условия 83
. Зададим 93
. Вычислим 103
. Проверим условие
113
. Проверим условия
Зададим k = 2 и переходим к шагу 5. 54
. Проверим условие Полагаем j = 2, х20 = х12 и переходим к шагу 3. 32
. Проверим условие 42 . Зададим k =0. 54
. Проверим условие 64
. Вычислим 74
. Проверим условие 84
. Зададим 94
. Вычислим 104
. Проверим условие 114
. Проверим условия
Условия На рис. 6 полученные точки соединены пунктирной линией. В методе покоординатного спуска мы спускаемся по ломаной, состоящей из отрезков прямых, параллельных координатным осям. Рис. 6 II. Анализ точки х21 . В примере 1.1 (гл.2 §1) было показано, что функция f (х) строго выпукла, имеет единственный минимум и, следовательно, точка х21 = = (-0,02; 0,07)Т является найденным приближением точки глобального минимума. ■ Во всех рассмотренных выше градиентных методах последовательность точек { xk } сходится к стационарной точке функции f ( x ) при достаточно общих предложениях относительно свойств этой функции. В частности, справедлива теорема: Теорема. Если функция
f
(
x
) ограничена снизу
, ее градиент удовлетворяет условию Липшица (
При практической реализации схемы
итерации прекращаются, если для всех i , i = 1, 2, ..., n , выполнены условия типа
где В условиях теоремы градиентный метод обеспечивает сходимость по функции либо к точной нижней грани Рис. 7 § 2. Методы второго порядка 2.1 Метод Ньютона Процесс отыскания минимума с помощью метода Ньютона оказывается более эффективным (т.е. требует меньшего числа итераций), чем градиентные методы, так как квадратичная функция локально аппроксимирует минимизируемую функцию, чем линейная, лежащая в основе градиентных методов. Основные недостатки метода Ньютона состоят в том, что он, во-первых, предполагает вычисление вторых производных, что может быть связано с существенными трудностями, и, во-вторых, может расходиться, если целевая функция не является сильно выпуклой и начальное приближение находится достаточно далеко от минимума. Стратегия поиска Стратегия метода Ньютона [ NewtonI. ] состоит в построении последовательности точек {х
k
}, k
=
0,1,..., таких, что
где х0
задается пользователем; величина шага
Выбор 1. Функция f
(х)
аппроксимируется в каждой точке последовательности {х
k
} квадратичной функцией 2. Направление Рис. 8 Построение последовательности {х
k
} заканчивается в точке х
k
, для которой Сходимость Утверждение. Пусть f ( x ) дважды непрерывно дифференцируемая сильновыпуклая функция с константой l > 0 на Rn и удовлетворяет условию
где
L
>
0, а начальная точка такова, что
где Замечание 1.
Сходимость метода Ньютона доказана лишь для сильно выпуклых функций и для достаточно хорошего начального приближения, определяемого условием а) анализировать матрицу Н(х
k
)на выполнение условия Н(х
k
) < 0 б) производить анализ точки х k с целью выяснения, является ли она найденным приближением искомой точки х* . Замечание 2. При решении задачи поиска безусловного максимума формула (6) не изменяется, так как в этом случае Н(х k ) < 0. Процедура решения задачи 1. Используя алгоритм Ньютона, найти точку х k , в которой выполняется по крайней мере один критерий окончания расчета. 2. Так как условий минимума Пример 2.1. Найти локальный минимум функции
□ I. Определение точки х k , в которой выполняется по крайней мере один критерий окончания расчетов. 1. Зададим х0
, 2. Положим k = 0. 30
. Вычислим 40
. Проверим выполнение условия Переходим к шагу 5. 50
. Проверим выполнение условия 60
. Вычислим 70
. Вычислим 80
. Проверим выполнение условия 90
. Определим 100
. Вычислим 110
. Проверим выполнение условий
Полагаем k = 1, переходим к шагу 3. 31
. Вычислим 41
. Проверим выполнение условия II. Анализ точки х1 . Функция Найденная точка х1 =(0,0)T есть точка локального и одновременно глобального минимума f (х) . Рис. 9 На рис. 9 траектория спуска изображена сплошной линией. ■ 2.2 Метод Ньютона-Рафсона Стратегия поиска Стратегия метода Ньютона-Рафсона [Newton-Raphson] состоит в построении последовательности точек {х
k
}, k
=
0,1,..., таких, что
где х0
задается пользователем; величина шага
Задача (7.5) может решаться либо аналитически с использованием необходимого условия минимума
где интервал [a , b ]задается пользователем. Если функция При численном решении задачи определения величины шага степень близости найденного значения Построение последовательности {х
k
} заканчивается в точке х
k
, для которой Вопрос о том, может ли точка х k рассматриваться как найденное приближение искомой точки минимума, решается путем проведения дополнительного исследования, которое описано ниже. Сходимость Утверждение. Пусть функция f ( x ) дважды непрерывно дифференцируема и сильно выпукла на Rn , а ее матрица Гессе Н(х) удовлетворяет условию Липшица
Тогда последовательность {х k } сходится независимо от выбора начальной тонки х0 к точке минимума х* с квадратичной скоростью
где т - оценка наименьшего собственного значения матрицы . Замечание. Сходимость к точке минимума метода Ньютона-Рафсона гарантируется независимо от выбора начального приближения лишь для сильно выпуклых функций. Поэтому при практическом использовании метода Ньютона-Рафсона следует: а) анализировать матрицу Гессе б) производить анализ точки х k с целью выяснения, является ли она найденным приближением искомой точки х* . Процедура решения задачи 1. Используя алгоритм Ньютона-Рафсона, построить точку х k , в которой выполняется по крайней мере один критерий окончания расчетов. 2. Так как условий минимума Пример 2.2. Найти локальный минимум функции
□ I. Определение точки х k , в которой выполняется по крайней мере один критерий окончания расчетов. 1. Зададим х0
, 2. Положим k = 0. 30
. Вычислим 40
. Проверим выполнение условия Переходим к шагу 5. 50
. Проверим выполнение условия 60
. Вычислим 70
. Вычислим 80
. Проверим выполнение условия Поэтому найдем 90
. Определим: 100
. Определим Получаем
Из условия 11°. Вычислим 12°. Проверим выполнение условий
Положим k =1 и перейдем к шагу 3. 31
. Вычислим 41
. Проверим выполнение условия окончен: х* = х1 . II. Анализ точки х1 . Точка х* = (0;0)T - точка локального и одновременно глобального минимума f ( x ) . На рис. 9траектория спуска изображена штрихпунктирной линией. ■ Заключение В результате проделанной работы можно сделать следующие выводы: 1. Более или менее сложные задачи отыскания экстремума при наличии ограничений требуют специальных подходов, методов. 2. Многие алгоритмы решения задач с ограничениями включают минимизацию без ограничений как некоторый этап. 3. Различные методы спуска отличаются друг от друга способами выбора направления спуска и длины шага вдоль этого направления. 4. Среди всех наиболее употребительных методов методы второго порядка требуют для получения результата с заданной точностью наименьшего числа шагов (итераций). 5. Нет пока такой теории, которая учла бы любые особенности функций, описывающих постановку задачи. Следует отдавать предпочтение таким методам, которыми проще управлять в процессе решения задачи. Реальные прикладные задачи оптимизации очень сложны. Современные методы оптимизации далеко не всегда справляются с решением реальных задач без помощи человека. Исследования по данной теме можно продолжить, если рассмотреть другие методы оптимизации первого и второго порядка. Литература 1. Моисеев Н.Н., Иванилов Ю.П., Столярова Е.М. Методы оптимизации. – М. Наука, 1978. 2. Кудрявцев Л.Д. Курс математического анализа (в двух томах): Учебник для студентов университетов и втузов. – М.: Высшая школа, 1981. 3. Измаилов А.Ф., Солодов М.В. Численные методы оптимизации: Учеб. пособие. – М.: Физматлит, 2005. 4. Виноградова И.А., Олехник С.Н., Садовничий В.А. Задачи и упражнения по математическому анализу: Пособие для университетов. – М.: Дрофа, 2001. 5. Пантелеев А.В., Методы оптимизации в примерах и задачах: Учеб. Пособие. – М.: Высш. школа, 2005. 6. Васильев Ф.П. Численные методы решения экстремальных задач. - М.: Наука, 1980. 7. Сухарев А.Г., Тимохов А.В., Федоров В.В. Курс методов оптимизации. - М.: Наука, 1986. 8. Поляк Б.Т. Введение в оптимизацию. - М.: Наука, 1983. 9. Сеа Ж. Оптимизация. Теория и алгоритмы. - М.: Мир, 1973. 10. Зангвилл У. Нелинейное программирование. Единый подход. - М.: Сов. радио,1973. 11. Банди Б. Методы оптимизации (вводный курс). - М.: Радио и связь,1988. 12. Компьютерное методическое пособие по методам параметрической оптимизации. МГТУ им. Баумана, 1997. 13. http://sapr.mgsu.ru/biblio/optimiz/opt.htm. 14. http://math.nsc.ru/LBRT/k5/Plyasunov/opt-2.html. 15. http://www.matmetod.ru/metods_optimize. |