Processing math: 0%
跳到主要內容

Chain Rule & Identity Function Trick



本文為筆者學習微積分,函數概念與Chain Rule 的時候,遇到的一些概念大坑。本文一一澄清一些個人看法,並分享 Chain Rule 廣義的樣子,以及對於遞迴系統該如何計算...等等看法。

[坑1 : 變數/值符號的認識]
一切從 y = f(x) 開始,我們習慣把 Input 變數用"括號"刮起來,Output y 代表值,f 代表函數。或是可以想成這樣:    x \overset{f}{\longrightarrow} y
這種表示法概念上很嚴謹,但缺點是你必須要用三個符號 xyf

而在微分方程領域出現這種寫法 y = y(x)  (把 f 換成 y) ,這種寫法就頗簡潔,Chain Rule 通常都是這類表示法。缺點是心裡要能確實明白在哪個場合 y 到底是給定的"值"還是"函數"(註: 通常大多代表函數 y,值的話通常會這樣寫 y(x_{0}),y_{0})

==============================================================
[Bonus] y=y(x)這種表示法還有一個好處,如果允許 f 是一對多,那麼 y(x) 就是 y \text{ is depend on } x 的意思,如果你喜歡用集合論來表示可以先定義f 的定義域/對應域
f : X \rightarrow Y
然後 y(x) 可以寫成這樣 y \in Y_{x},其中值域為 f(X):=\bigcup_{x \in X}Y_{x} \subseteq Y
==============================================================
[坑2 : Input 的變數到底是哪些]
這邊舉兩個例子提醒:
(Ex1) 代換法會重新改變函數的 Input
例如 : y = f(x) = x+1 , z = g(y) = 2y  可以代換一下,寫成 z = g[f(x)] = 2(x+1)
如果你用簡記你會發現 y(x) , z(y) , z(y(x)) \equiv z(x) ,所以 z可視為 y 的單變數函數,也可視為 x 的單變數函數,這取決於你是否把方程組做串聯的處理 !! (註: 當然你可以把 z(x) 寫成 \hat{z}(x) = z(y(x))  來區分,唯一定義函數 z,但在實務應用上反而會太多符號!)
如果用簡記的 chain rule :
\frac{d z}{d x} =  \frac{d z}{d y} \cdot   \frac{d y}{d x} 
但本質上是這樣,但會破壞學數學的美感 !!
\frac{d z(y(x))}{d x} =  \frac{d z(y)}{d y} \cdot   \frac{d y(x)}{d x} 

(Ex2) 參數/變數只有一線之隔
例如 : y =  y(x) = ax + b,也可以寫成 y = y(a,x,b) 就從單變數變成三變數函數了,差別就在於,你的 a , b 是否是已給定。你永遠可以有更廣闊的視野,讓所有變數都可以"動"的情況。而不因為它是 a,b,就永遠把它想成常數。這在線性迴歸,bifurcation,敏感度分析,擾動分析,機器學習,出發點應該都是這概念!
==========================================================
[Bonus]  不過如果以嚴謹的寫法,例如:
y = f(x) = ax+b ,  y = F(x,a,b) ,你會有意外的認識,你可以明顯區分 f , F 的差異
f = a * [  ] + b , F = [ ] * [ ] + [ ]。 對f 來說你確實可以改變它(調整 a,b的參數),但還是逃離不出F 就是定義的死"框架",這概念就是 parametric family :)
==========================================================
[坑3: d\partial 的差別 ]
在初學微積分Chain Rule 的時候,一定會碰到就是傻傻分不清,d\partial 的差別,事實上取決於你初始函數的定義是"單變數函數"還是"多變數函數",單變數用 d ,多變數用 \partial,以下舉個例子,應該就能迅速了解 !!
(Ex3)
z = z(x,y) , y=y(t) , x=x(t) 經由代換可以想成單變數函數 z = z(t)

  \frac{d}{dt} z\bigg(x(t),y(t)\bigg)= \frac{dz}{dt} = \left(\frac{\partial z}{\partial x}\right)\left(\frac{dx}{dt}\right) + \left(\frac{\partial z}{\partial y}\right)\left( \frac{dy}{dt}\right) 

(Ex4)
z = z(x,y) , y=y(u,w) , x=x(u,w) 經由代換可以想成雙變數函數 z = z(u,w)

 \frac{\partial}{\partial u} z\bigg(x(u,w),y(u,w)\bigg) = \frac{\partial z}{\partial u} = \left(\frac{\partial z}{\partial x}\right)\left(\frac{\partial x}{\partial u}\right) + \left(\frac{\partial z}{\partial y}\right)\left( \frac{\partial y}{\partial u}\right) 

由上可知,符號的用法會跟代換後是單變數還是多變數有關 :)

[Chain Rule 精簡公式(*)]
眼尖的你可能會發現如果考慮 Layer Network : p \in \prod^{n}_{k=0} N_k =  N_0 \times N_1 \times N_2 ... N_{n} ,其中 o \in N_{0} , N_{n} := \{d \},元素 p 可視為路徑,每個路徑 p 的"邊"集可以寫成 A_p,今天給定起點 o \in N_0 , 終點 d,可以窮舉所有路徑 P_{[o \rightarrow d]} \subset \prod^{n}_{k=0} N_k 
我們有 Chain Rule
\frac{\partial x_{d}}{\partial x_o} := \underbrace{\sum_{p \in P_{[o\rightarrow d]}}\left(\prod_{(i,j)\in A_p} \frac{\partial x_{j}}{\partial x_{i}}\right)}_{\text{generate all paths from $o$ to $d$}}  
(註:如果 |N_i| = 1 的時候,嚴謹的時候要部分寫成 \frac{dx_j}{dx_i})
=========================================================
例如: 上面的 Ex4,有三層網路
N_1 \times N_2 \times N_3 可以想成 \{u,w\} \times \{x,y\} \times \{z\}
P_{[u\rightarrow z]} = \{ (u,x,z) , (u,y,z)  \}
A_{p=(u,x,z) } = \{ (u,x) , (x,z)\} , A_{p=(u,y,z)} = \{ (u,y),(y,z) \}

所以就得到了 ~
\frac{\partial z}{\partial u} = \overbrace{\left(\frac{\partial z}{\partial x}\right)\left(\frac{\partial x}{\partial u}\right)}^{\text{path 1}} + \overbrace{\left(\frac{\partial z}{\partial y}\right)\left( \frac{\partial y}{\partial u}\right)}^{\text{path 2}} 
==========================================================
[坑4: 直接影響/間接影響的差別 ]
這應該是 Chain Rule 裡面最容易混淆的概念,我們從一個例子下手
(Ex5)  給定 y = y(x,t) , x = x(t) ,也就是 t 同時存在直接影響 y與間接影響 y(透過x),經由代換後 y 可視為 t 的函數
則如果經由以上窮舉路徑的想法 P_{[t\rightarrow y]} = \{(t,x,y) , (t,y)\},(*)也會是對的
  \frac{dy}{dt} = \frac{\partial y}{\partial x} \frac{dx}{dt} +  \frac{\partial y}{\partial t} 
但會有一個缺點 ...  你很容易把  \frac{dy}{dt}  跟 \frac{\partial y}{\partial t} 給完全混淆
要記得本質上是
\frac{d  y(x(t),t)) }{dt} = \frac{\partial y(x,t)}{\partial x} \frac{dx(t)}{dt} +  \frac{\partial y(x,t)}{\partial t} 

[Identity Function Trick]
為了解決以上容易混淆的問題,我們還有一個保證觀念正確安全方法,就是加入新的變數 z,並令它為 identity function :),例如:  z=z(t) =  t
則  y = y(x,t) , x = x(t) 這個系統,等價於 y = y(x,z) , x = x(t) , z = z(t)
則新的系統可以寫成三層網路 : \{t\} \times \{x,z\} \times \{y\}
則根據(*)
  \frac{dy}{dt} = \frac{\partial y}{\partial x} \frac{dx}{dt} +  \frac{\partial y}{\partial z}   \overset{=1}{\frac{dz}{dt}} =  \frac{\partial y}{\partial x} \frac{dx}{dt} +  \frac{\partial y}{\partial z}

你會發現結論一樣,這種方法雖然麻煩點,但是比較不會混淆,其抽象的概念,就是想辦法加新一些變數把函數相依關係圖變成  Layer Network
以下再給一個比較複雜的例子做結尾:
============================================================

=============================================================
[小結]
Chain Rule 在現實生活中描述了在上下游函數結構變數們,變化率之間的影響程度,也是深度學習最核心的數學推導,而本文在符號上跟概念上容易混淆的地方做了一些澄清與解釋,以及從圖論的角度,窮舉路徑,邊集的關係~~



[以上純為學術經驗交流知識分享,如有錯誤或建議可留言~~] 
by Plus & Minus 2018.04




留言

這個網誌中的熱門文章

Nash Equilibrium & Best Responce Function (BRF) In Continuous Strategies

經濟學重要的賽局理論( Game Theory )領域,用數學描述人與人之間的理性互動,最重要的就是尋找奈許均衡( Nash equilibrium ), 本篇介紹其數學規劃與非線性方程組!!  假設有 p 名玩家(player i),i=1,2,3,4,5,....p , 正在玩一場遊戲(Game)~~,完全不合作,各自獨立作決策 每個人有決策向量 x_i \in \Omega_i \subseteq R^{n_i} (有n_i個決策變數)  定義長向量: \underbrace{x =  (x_1,x_2,x_3,....x_p)}_{\# \text{ of } \sum^{p}_{i=1}n_i \text{ variables }} \in  \prod^{p}_{i=1} \Omega_i = \Omega 對於每個 player i ,長向量可以寫成 x = (x_i , x_{-i})x_{-i} 代表其他人(不是 player i) 能做的決策向量。 所有人各自作決策後,每個人都會個自的存在報酬效用函數 f_i (x)  \in \mathbb{R}  (報酬函數皆為公開已知資訊) 假設每位玩家是理性人(會極大化自己效用) 即 \forall i = 1,2,3,4....p \qquad  \underset{x_i \in \Omega_i}{\text{max }}f_i(x)   [註: 如果為合作可視為多目標規劃問題( multiobjective ),即 x_1,x_2,...x_p 可以由領導人一起決定] [註: 如果為合作而且把效用加總,即目標式變成 \sum_{i=1}^{p} f_i(x) ,可能對集體效益有更大的幫助,但是如何分配效益給 ( player i )會是個議題,可以查關鍵字 fair optimization ] 我們可以定義每個 player i 的 Best Response Function (BRF) or Best Reponce Set S_i(x_{-i}) \subset \Omega_i $$  S_i(x...

Lattice & Multinomial Theorem

本文介紹格子點(Lattice) 幾何意義與多項式定理(Mutinomial Theorem) 的關係,並可協助我們理解計算一些機率問題。 [符號定義] 非負整數 / 非負實數:  \mathbb{Z}_{\geq 0} := \{0,1,2,3,4,......\}  \subseteq [0,\infty) =: \mathbb{R}_{\geq 0} 離散機率向量:  p_{I} := (p_{i})_{i \in I} \text{ s.t } \sum_{i\in I}p_i =1 ,|I|<\infty  發生事件 i \in I 的累積次數向量: k_{I} := (k_i)_{i \in I} \in \mathbb{Z}^{|I|}_{\geq 0} \mathbb{Z}^{|I|}_{\geq 0} 就是 |I| 維格子點 !! [格子點情境] 出發點定義為 k^{start}_{I}:= \overbrace{(0,0...,0)}^{|I|},今發生一次 p_{I} 分布隨機互斥事件,等價於"點的移動"(state transition),數學定義如下:   \text{Event } i  \text{ happens }  \Longleftrightarrow  \overbrace{(\color{red}{k_i},k_{-i})}^{k^{old}_{I}}  \underset{\text{with probability }p_{i}}{\longrightarrow}   \overbrace{(\color{red}{k_i+1},k_{-i})}^{ k^{new}_{I}}    PS1: 其中  k_{-i} := (k_{i'})_{i' \in I-\{i\}} PS2: 不管怎麼走都在第一象限,也就是只能往右,往上,往高.... 當發生 n 次獨立同分布 p_{I} (iid) 的事件後,所有可能點位置在以下的集合上 $$  S_{n}(\col...

Linear Regression By Using Linear Programming

當拿到一筆資料準備玩統計,往往會想要做線性迴歸( Linear Regression ),找出一個模型( mathematical model )來解釋變數間的關係,一般都是使用平方距離,但是如果我們採用絕對值距離呢?? 而剛好在工業工程( Industrial Engineering ),作業研究( Operation Research ) 領域,發展成熟的線性規劃( Linear Programming ) 恰好可以來解決,是一個跨領域的應用 !! 已經存在有許多商業或open source 軟體,如: Gurobi , Cplex , Xpress , Mosek , SCIP  可以輕易求解大型的線性規劃問題。而不僅如此也可以利用整數規劃( Integer Programming )來做特徵選擇 ( Feature Selection ),甚至可以偵測離群值( Detect Outlier ) !! 本文只介紹最小絕對值和,關於 Feature Selection , Detect Outlier 可以參考 Mixed-Integer Linear Programming Robust Regression with Feature Selection , Oleksii Omelchenko , 2010 的論文。 [Data Fitting Problem] 給定n筆實數型訓練資料 (training data) \{(x^{k},y^{k})\}^{n}_{k=1} = \mathcal{D} , x^{k} =(x^{k}_1,x^{k}_2, ... , x^{k}_{p})\in \mathbb{R}^{p} , y^{k} \in \mathbb{R} , 我們目標是想要找到一個函數 f_{\mathcal{D}} : \mathbb{R}^p \rightarrow \mathbb{R} 使得  \forall x \in \mathbb{R}^{p} , f_{\mathcal{D}}(x) \approx y , 精確來說: $$ \text{Find } f_{\mathcal{D}} \text{ such that } f_{\mathcal{D}}(x)\...