跳到主要內容

Newton Can Solve Nonlinear System & Unconstrained Optimization

在計算數學(Computational Mathematics),數值分析(Numerical Analysis)領域裡,介紹在$\mathbb{R}^n$ 上解非線性方程組 (System of Nonlinear Equations) 學術上有名的牛頓法(Newton Method) ,它也是很多最佳化演算法的核心概念

現實問題中,我們通常會想要找一組解 $x \in \mathbb{R}^{n}$上,使得 $f(x) = \vec{0}$,
其中 $f : \mathbb{R}^n \longrightarrow \mathbb{R}^{m}$,
詳細一點可以寫成一個有 $n$ 個未知數(unknowns) 跟 $m$ 個限制式(constraints)
 $\text{Find } x = (x_1,x_2,...,x_n) \in \mathbb{R}^n \quad  \text{such that } \left\{\begin{array}{c}f_1(x_1,x_2,x_3,...,x_n)=0\\f_2(x_1,x_2,x_3,...,x_n)=0\\f_3(x_1,x_2,x_3,...,x_n)=0\\f_4(x_1,x_2,x_3,...,x_n)=0\\...\\f_m(x_1,x_2,x_3,...,x_n)=0\\\end{array}\right.$
精確解我們記做 $x^{*}$

1.如果 $f$ 是線性函數,即為我們熟知的線性聯立方程組 $Ax = b $ 或寫成
$\left(\forall i = 1,2,3,...m \quad f_{i}(x) = \sum^{n}_{j=1}a_{ij}x_j  = b_i \right)$
線性系統可以用大家熟知高斯消去法(Gauss Elimination),經過有限步驟得到精確解。

2.如果$f$ 是非線性但連續且可微,即  Jacobian Matrix $f$  存在,則我們可以用牛頓迭代法,
[以下是虛擬碼 (pseudo code)]
+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
$\text{Given Initial Guess : } x^0 \in \mathbb{R}^n , \quad \text{sufficient small stop criterion : } \epsilon > 0 $
$\text{For }( k=0,1,2,3,... )$
$\qquad$ $\qquad$ $J_f (x^k) d^k = f(x^k) \quad \text{[Solve Linear System to get }d^k \in \mathbb{R}^n] \qquad $
$\qquad$ $\qquad$ $x^{k+1} := x^k -d^k \quad \text{[Newton Iteration]} $    
$\qquad$ $\qquad$ $\text{If }(|| f(x^{k+1}) || < \epsilon ) \quad \text{break and output } x^{k+1} \text{ as solution}$
$\text{EndFor }$
+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
其中 $x^k$ 代表第 $k$ 次計算後的結果 !! 
其中 $|| u || = \sqrt{u_1^2+u_2^2+....+u_n^2}$ 為歐式距離 (Euclidean distance)
其中 $J_f$ 為 $m \times n$  Jacobian Matrix (多維空間的微分 $f'$)
$$J_f =\left[ \begin{array}{cccc}\frac{\partial f_1}{\partial x_1} & \frac{\partial f_1}{\partial x_2}  & ... & \frac{\partial f_1}{\partial x_n} \ \\ \frac{\partial  f_2}{\partial x_1}& \frac{\partial f_2 }{\partial x_2}  & ... & \frac{\partial f_2}{\partial x_n}    \\ ... & ... & ... & ... \\ \frac{\partial f_m}{\partial x_1}&  \frac{\partial f_m}{\partial x_2}  & ... &  \frac{\partial f_m }{\partial x_n}  \\ \end{array}\right]   \qquad  \frac{\partial f_i}{\partial x_j}(x) =  \frac{\partial f_i}{\partial x_j}(x_1,x_2,...x_n)   $$
其中 $ d^k := \underbrace{J_f^{-1} (x^k)\cdot f(x^k)}_{\text{Matrix-Vector Multiplication}}$
但實務上我們是直接解線性聯立方程組。而不會計算 $J_f^{-1}$ ,因為耗時昂貴,只是寫法上好理解。

[一維的例子]
$m=1,n = 1$ 則 Newton Iteration 可以寫成  $ x^{k+1} := x^k - (f')^{-1}(x^k) f(x^k) = x^{k} - \frac{f(x^{k})}{f'(x^{k})}$ , 
注意: 這邊的  $(f')^{-1}$ 指的是"倒數"在分母的意思,不是"反函數"(inverse)的意思


[概念澄清 I]
牛頓法是一種迭代法(Iterative Method) 即我們是製造數列 $\{x^k\}$ 使得 $$\lim_{k\rightarrow \infty} x^k = x^{*} \quad \text{ s.t } f(x^{*}) = \vec{0}$$ ,我們無法得到精確解,但是我們可以得到無窮靠近的近似解!!有別於高斯消去法的有限步驟得到精確解,直接法(Direct Method)。

[概念澄清II]
由於實際跑演算法,我們無法跑無窮次,而當 $x^{k} \rightarrow x^{*}  \overset{f \text{ is continuous}}{\Longrightarrow} f(x^{k}) \longrightarrow \underset{=\vec{0}}{f(x^{*})} \overset{\forall i , f_i(x) \rightarrow 0 }{\Longrightarrow}  ||f(x^{k})|| \rightarrow 0  $
所以停止條件設為 $|| f(x^{k+1}) || < \epsilon $ ,當你給定的 $\epsilon $ 越小(解的品質要求越精準),則所花的計算時間就會拉長,是一種 TradeOff ,$\epsilon$ 需要依照實際需求而定 !!

[概念澄清III]
起始點的選擇 $x_0 \in \mathbb{R}^n$ 是使用牛頓法的大議題,有時候會"收斂",有時候會"發散",即只有 "Local Convergence",必須分析"收斂域"(哪些 Input $x_0$ 會收斂),但經驗是"收斂域"往往很小!!

[概念澄清 IV]
不同的起始點可能會收斂到不同的解,假如 $x^{*}\in \{x\in \mathbb{R}^n : f(x)=\vec{0} \} $ 有多組解的話


[優點]
理論證明收斂性 Quardratic Convergence , 即當$ k $ 足夠大,存在Constant $C$ s.t $||x^{k+1}- x^{*}|| \leq C ||x^{k}- x^{*}||^2$ 。以白話來說,假如 $C=1$,這次得到的 $x_k$ 與 $x^{*}$ 距離差距上界為 $10^{-4}$ 則下一次迭代比較$x^{k+1}$與$x^{*}$的距離,可以把差距上界縮小成 $10^{-8}$左右

[進階最佳化應用]
在數值最佳化(Numerical Optimization)領域,即$f:\mathbb{R}^{n}\longrightarrow \mathbb{R}$,
求解無限制式最佳化問題(unconstrained optimization problem) $$\underset{x \in \mathbb{R}^n}{\text{min}} f(x)$$
我們也可以使用牛頓法求解 gradient $f$ 方程組,$\bigtriangledown f(x) = \vec{0}$,即白話文來說"極值發生在微分=0",詳細一點可以寫成以下方程組 $m = n$ ,p.s $\bigtriangledown f : \mathbb{R}^{n} \longrightarrow \mathbb{R}^{n}$
 $$\text{Find } x \in \mathbb{R}^n \text{ such that }\left\{\begin{array}{c}\frac{\partial f}{\partial x_1}(x)=0\\\frac{\partial f}{\partial x_2}(x)=0\\\frac{\partial f}{\partial x_3}(x)=0\\\frac{\partial f}{\partial x_4}(x)=0\\...\\\frac{\partial f}{\partial x_n}(x)=0\\\end{array}\right.$$

同理我們可以計算 Jacobian Matrix of $\bigtriangledown f$ ,剛好會變成 $n \times n$ Hessian Matrix of $f$ (Hessian 可以看成廣義的二次微分)

即 $J_{\bigtriangledown f} = H_{f} =  \left[ \begin{array}{cccc}\frac{\partial^2 f}{\partial x^2_1} & \frac{\partial^2 f}{\partial x_1\partial x_2}  & ... & \frac{\partial^2 f}{\partial x_1\partial x_n} \ \\ \frac{\partial^2  f}{\partial x_2\partial x_1}& \frac{\partial^2 f }{ \partial x_2^2}  & ... & \frac{\partial^2 f}{\partial x_2\partial x_n}    \\ ... & ... & ... & ... \\ \frac{\partial^2 f}{\partial x_n \partial x_1}&  \frac{\partial^2 f}{\partial x_n \partial x_2}  & ... &  \frac{\partial^2 f}{\partial x_n^2 }  \\ \end{array}\right] $

注意 : $\frac{\partial^2  f}{\partial x_j^2}$ 代表 $f$ 對 $x_j$ 做二次偏微
注意 : 在大多情況下,Hessian 每一項元素(entity)都是連續函數則 Hessian 是對稱矩陣,即 $\frac{\partial^2 f}{\partial x_i\partial x_j} = \frac{\partial^2 f}{\partial x_j\partial x_i} \quad \forall i , j $ ,代表說我們只需要計算上半三角形 $\frac{n(n+1)}{2}$ 項就足夠了 !!

所以 Newton Iteration 可以改寫成
$x^{k+1}:= x^{k} - d^{k}$
$ d^{k} := H^{-1}_f(x^{k})\cdot \bigtriangledown f(x^{k})$

根據微積分知識我們知道以下事情
$\underbrace{\{x \in \mathbb{R}^{n} : \bigtriangledown f(x) = \vec{0} , H_f(x) \succ  0  \}}_{\text{second derivative test}}\subseteq \{x \in \mathbb{R}^{n}: x \text{ is local minima } \} \subseteq \underbrace{\{x \in \mathbb{R}^{n} : \bigtriangledown f(x) = \vec{0} \}}_{\text{first derivative test}}$

根據  Second Derivative Test 在求解最佳化問題使用牛頓法我們還需要多檢查收斂的解是否滿足 $H_f(x^{k}) \succ  0$ ,正定矩陣 (positive definite) ,才能確定是否為 local minima !!  如果 $H_f(x^{k}) \prec  0$,則為 local maxima, 其他狀況代表收斂到任何可能 local minima , local maxima ,  saddle point


[Implementation 加速相關]
牛頓法是求解非線性方程組,甚至最佳化演算法主要工具,因為它的收斂性很好,但是在計算 Jacobian/Hessian 上非常的昂貴耗時,所以計算數學家後來發展 Quasi Newton Method,例如 BFGS 算法,原理為加入矩陣的 "Initial Guess" 在迭代過程中會漸漸近似到 Jacobian/Hessian 矩陣 ,而在牛頓法每次迭代子程序都會解一個線性聯立方程組 $J_f (x^k) d^k = f(x^k)$,即 $Ax=b$,在數值線性代數(Numerical Linear Algebra)領域,有許多其他演算法(有別於高斯消去法)可以更有效率解決大型線性系統,如: LU , CG(Conjugate Gradient) , GMRES 等等。

[特殊最佳化與統計應用]
在最小平方法(least square)與非線性迴歸(nonlinear regression),也有 Newton 想法,如 Gauss-Newton , Levenberg-Marquardt 的演算法

[缺點與替代方案]
1. 在解非線性方程組裡 $f $ is vector-valued,牛頓法需要 Jacobian 存在,如果不存在無法使用。此時廣義的割線法(Secant Method)  Broyden method 可以使用
2. 在解最佳化問題時  $f$ is scalar-valued ,牛頓法需要 gradient 存在,而且 Hessian 也要存在。如果 Hessian 不存在,使用大家熟知的 gradient descent !! ,如果連 gradient 都不存在,使用 subgradient !!





[以上純為學術經驗交流知識分享,如有錯誤或建議可留言~~] 
by Plus & Minus 2017.08
                  








留言

這個網誌中的熱門文章

Chain Rule & Identity Function Trick

本文為筆者學習微積分,函數概念與Chain Rule 的時候,遇到的一些概念大坑。本文一一澄清一些個人看法,並分享 Chain Rule 廣義的樣子,以及對於遞迴系統該如何計算...等等看法。 [坑1 : 變數/值符號的認識] 一切從 $y = f(x)$ 開始,我們習慣把 Input 變數用"括號"刮起來,Output y 代表值,f 代表函數。或是可以想成這樣:   $$ x \overset{f}{\longrightarrow} y $$ 這種表示法概念上很嚴謹,但缺點是你必須要用三個符號 $x$,$y$,$f$ 而在微分方程領域出現這種寫法 $y = y(x)$  (把 $f$ 換成 $y$) ,這種寫法就頗簡潔,Chain Rule 通常都是這類表示法。缺點是心裡要能確實明白在哪個場合 $y$ 到底是給定的"值"還是"函數"(註: 通常大多代表函數 $y$,值的話通常會這樣寫 $y(x_{0})$,$y_{0}$) ============================================================== [Bonus] $y=y(x)$這種表示法還有一個好處,如果允許 $f$ 是一對多,那麼 $y(x)$ 就是 $y \text{ is depend on } x$ 的意思,如果你喜歡用集合論來表示可以先定義$f$ 的定義域/對應域 $$ f : X \rightarrow Y$$ 然後 $y(x)$ 可以寫成這樣 $y \in Y_{x}$,其中值域為 $$ f(X):=\bigcup_{x \in X}Y_{x} \subseteq Y$$ ============================================================== [坑2 : Input 的變數到底是哪些] 這邊舉兩個例子提醒: (Ex1) 代換法會重新改變函數的 Input 例如 : $y = f(x) = x+1$ , $ z = g(y) = 2y$  可以代換一下,寫成 $z = g[f(x)] = 2(x+1)$ 如果你用簡記你會發現 $y(x) , z(y) , z(y(x)) \equiv z...

General Solution Of Eigen System In Linear Algebra

本文從淺白的角度回顧線性代數( Linear Algebra ),了解特徵值( eigenvalue ),特徵向量( eigenvector ),還有特徵多項式( Characteristic Polynomial ) 的框架,並推廣其概念,還有它在解差分方程式,微分方程式,差分方程組,微分方程組的關係。 ----------------------------------------------------------- [預備知識]    向量空間( vector space ) $V$,field over $\mathbb{C}$ ,線性獨立( linear independent ), Span , Basis 等概念。 線性函數的定義為 $L : V \longrightarrow V$ , $$\forall \alpha , \beta  \in \mathbb{C} , v_1 ,v_2 \in V \quad L(\alpha v_1 + \beta v_2) =\alpha L(v_1) + \beta L(v_2) $$ 其中 $L(0) = 0 \in V$ 其中 $+$ 都是$V$裡的加法,線性函數空間記做 $L \in \mathcal{L}^{V}$ 其中存在 $O \in \mathcal{L}^{V}$ 零函數 $O(V) = \{0\}$ ,即 $\forall v \in V ,  O(v) = 0 \in V $ 其中存在 $I \in \mathcal{L}^{V}$ 送到自己函數 ,即 $\forall v \in V ,  I(v) = v \in V $ ----------------------------------------------------------- [主要動機] 給定 $b \in V$ ,  $L \in \mathcal{L}^{V}$ 如何解線性系統 $L(x) = b$ ,換句話說就是構造出 $$ S_{b}:= \left\{x \in V : L(x) = b  \right\} $$ ,而 $Ker(L) := S_{0}$ ( Kernel ) 註: 構造出...

All Different Expansion & Bell Numbers

本文分享筆者在計算排列組合(combinatorics)時,發現並描述系統性的窮舉公式 :) 暫時命名為 $\color{red}{\text{All Different Expansion }}$ ??  (有歷史文獻名詞歡迎筆者補充) [情境/動機] 假設箱子裡面有很多種物品,種類集記做 $I$ , 每種物品 $i$ 各有 $\#_i$ 個,向量記做 $\#_{I} := (\#_{i})_{i \in I}$ $$\text{箱子裡共有 } \sum_{i \in I} \#_i  \text{ 個物品}$$    令 $T := \{1,2,3,....|T|\}$,今從箱子裡"逐一"抽取物品共 $|T|$ 次 (抽出 $|T|$ 個物品) ============================================================= $$\color{blue}{\text{形成序列 : } x_{T} := (x_{t})^{|T|}_{t=1} \in I^{|T|}} $$ 註: $x_{t}$ 代表第 $t$ 次抽到的物品 ============================================================= 以下舉個小小的例子,來說明動機~ $I := \{a,b,c,d\}$,$|T| = 4 $,且假設物品個數無上限  $\color{red}{ \forall i \in I \quad \#_{i} = \infty}$ 於是我們可以開始窮舉(brute & force)情況 ~~ $\color{green}{(1)}$  $aaaa$,$bbbb$,$cccc$,$dddd$ 代表全同的情況 $\color{green}{(2)}$  $abcd$,$bcda$,$acbd$,....  代表全異的情況,共 $4!$種 $\color{green}{(3)}$  $abad$,$cbcd$,$bcba$,....  代表二同二異(且$x_{1}=x_{3}$) $\color{green}{(4)...