Условия оптимальности для некоторых классов моделей принятия решений


Будем говорить, что задача параметрической оптимизации (1.24), представляющая собой обобщенную математическую модель принятия решения в задачах оптимального проектирования, является разрешимой, если критерий оптимальности Q (х) достигает своего минимального значения в некоторой внутренней или граничной точке х* допустимой области D. Как отмечалось выше, вектор х* называется оптимальным решением. Естественно возникает вопрос: «Какие условия должны выполняться в точке х∈D, чтобы она являлась оптимальным решением?» В общем случае, не имея информации о классе функций, образующих критерий оптимальности и ограничения, такие условия, называемые условиями оптимальности (необходимыми и достаточными условиями минимума), сформулировать трудно. Поэтому рассмотрим часто встречающиеся на практике классы моделей принятия решений, которые являются частным случаем задачи параметрической оптимизации (1.24).

Согласно теореме Вейерштрасса задача параметрической оптимизации разрешима, если критерий оптимальности Q (х) является непрерывной функцией, а допустимая область D образует замкнутое, ограниченное множество. Однако одного свойства непрерывности функции Q (х) не достаточно для вывода условий оптимальности. Поэтому введем предположение о ее непрерывной дифференцируемости (гладкости), т. е. предположим, что непрерывная функция Q (х) имеет в ε-окрестности исследуемой точки х* непрерывные частные производные. В этом случае минимизируемая функция Q (х) для любой точки х ∈ d(x*, ε) может быть представлена в виде полиномов первой и второй степени, являющихся усеченными рядами Тейлора:

Q (х) ≈ Q (х*) + ∇QT (х*) (х — х*) (1.50)
или
Q (х) ≈ Q (х*) + ∇QT (х*) (х -х*) + 1/2 (х -х*)TG (x*) (х — х*), (1.51)

где ∇Q (х*) = (∂Q/∂x1, ∂Q/∂x2,…, ∂Q/∂xn) — градиент функции Q (х) в точке х*; G (х*) = {∂2Q/∂xi∂xj} — (n x N) — вещественная симметричная матрица вторых производных, образующая гессиан (матрицу Гессе) функции Q (х) в точке х*.

Введенное предположение позволяет сформулировать для одномерной задачи (1.29) безусловной минимизации унимодальной функции Q (х) следующие условия оптимальности.

Для того чтобы точка х* ∈ R1 являлась оптимальным решением (локальным минимумом), необходимо и достаточно, чтобы в этой точке первая производная минимизируемой функции равнялась нулю, а ее вторая производная была положительной величиной:

dQ/dx|x=x* = 0, d2Q/dx2|x=x* > 0. (1.52)

Пусть точка х* является локальным минимумом функции Q (х). Тогда для любой точки (х* + ξ) ∈ d(х*, ε) справедливо неравенство

Q(x*) ≤ Q (х* + ξ). (1.53)

По формуле Тейлора (1.50) можем записать

Q(х* + ξ) ≈ Q(x*) + ξ dQ/dx|x=x* (1.54)

Предположим, что dQ/dx|x=x* ≠ 0, и выберем приращение ξ = — ρ dQ/dx|x=x*, где ρ > 0 — любое малое положительное число, такое, что выполняется условие ρ | dQ/dx|x=x*|< ε. Тогда из (1.54) получаем

(Q(х* + ξ)-Q (х*))/ρ = -[dQ/dx|x=x*]2.

Так как ρ > 0, то полученное соотношение имеет место только при условии, что Q(х* + ξ) < Q (х*), что противоречит (1.53). Следовательно, в точке локального минимума х* первая производная функции Q (х) должна равняться нулю. Согласно формуле Тейлора (1.51), учитывая, что dQ/dx|x=x* = 0, можем

Q(х* + ξ) — Q (х*) ≈ 1/2 ξ2d2Q/dx2|x=x*.

Знак разности в левой части полученного равенства определяется знаком второй производной функции Q (х) в точке х*. Следовательно, для выполнения неравенства (1.53) необходимо, чтобы d2Q/dx2|x=x* было положительной величиной . Что и требовалось доказать.

Обобщая полученный результат (1.52) на многомерный случай, для задачи (1.29) безусловной минимизации многопараметричеекой унимодальной функции Q (х) можем сформулировать следующие условия оптимальности.

Для того чтобы точка х* ∈ Rn являлась оптимальным решением (локальным минимумом) необходимо и достаточно, чтобы в этой точке градиент минимизируемой функции равнялся нулю, а ее гессиан был положительно определенной матрицей:

∇Q(**) = grad Q(x*) = 0 или ∂Q/∂xj|x=x* = 0, j = 1,2,…, n; (1.55)

xTG(x*)х > 0 для любых х ≠ 0. (1.56)


Комментарии запрещены.




Статистика