Optimization Theory 在研究什么

OT 在研究的内容可以概括为:在给定 requirement 和 constraint 的情况下,minimize/maximize 一个或多个 objective functions

graph LR;
A(Analysis) --> B(Design) --> C(Optimization)

Optimal Design: feasible, best on some measure of effectiveness.


Fundamental Concepts

以下涉及到的概念可以应用到大部分 optimization 的问题之中。

General Problem Statement

GPS 的形式可以表示为:

minf(x)=wherex=[x1x2xn]s.t.gi(x)0,i=1,2,,mhj(x)=0,j=1,2,,L \begin{array}{rllll} \min &f(\bold{x})=\dots \\ \text{where} &\bold{x}=\begin{bmatrix}x_1 \\ x_2 \\ \vdots \\ x_n\end{bmatrix} \\ \text{s.t.} &g_i(\bold{x}) \le 0, i=1,2,\dots, m \\ % equations part &h_j(\bold{x})=0, j=1,2,\dots,L \\ \end{array}

即在 mm 个不等式和 LL 个等式的约束下,最小化有 nn 个变量的 objective function f(x)f(\bold{x}) 的值. 我们也可以通过一些方法把其他形式的优化目标/不等式约束转化成 GPS:

  • maxf(x)    minf(x)\max f(\bold{x})\iff \min -f(\bold{x})
  • 把连不等式 (side inequality) 拆分为多个不等式

Constraints, Design Space

Design Space 是所有可能解的空间,而在 constraints 的约束下,只有一小部分解空间能够符合所有 constraints,这样的一部分称为 Feasible Region

对于某个特定的解 x\bold{x}^\ast,如果

  • g(x)>0g(\bold{x}^\ast)\gt 0,此时不等式条件不成立,我们称约束为 Violated Constraint.
  • g(x)=0g(\bold{x}^\ast)=0,此时不等式恰好取等,我们称其为 Active Constraint.
  • g(x)<0g(\bold{x}^\ast)\lt 0,此时不等式严格满足,称其为 Inactive Constraint.

Gradient Vector, Hessian Matrix 梯度向量与黑塞矩阵

梯度向量是列向量

f(x)=[fx1fx2fxn] \gdef\pt#1#2{\frac{\partial #1}{\partial #2}} \nabla f(\bold{x})= \begin{bmatrix} \pt{f}{x_1}\\ \pt{f}{x_2}\\ \vdots\\ \pt{f}{x_n} \end{bmatrix}

Hessian Matrix 是一个 n×nn\times n 的方阵,每一项都是二阶偏导

2f(x)=[2fx122fx1x22fx1xn2fx2x12fx222fx2xn2fxnx12fxnx22fxn2] \gdef\pf#1#2{\frac{\partial^2 #1}{\partial #2^2}} \gdef\pt#1#2#3{\frac{\partial^2 #1}{\partial #2\partial #3}} \nabla^2 f(\bold{x})= \begin{bmatrix} \pf{f}{x_1}&\pt{f}{x_1}{x_2}&\dots &\pt{f}{x_1}{x_n}\\ \pt{f}{x_2}{x_1}&\pf{f}{x_2}&\dots &\pt{f}{x_2}{x_n}\\ \vdots &\vdots &\ddots &\vdots\\ \pt{f}{x_n}{x_1}&\pt{f}{x_n}{x_2}&\dots &\pf{f}{x_n} \end{bmatrix}

计算这些矩阵可以用于 Sensitivity Analysis.