Processing math: 1%
跳到主要內容

Discovery Of Special Integration On Symmetry Function

本文是筆者在計算隨機過程,研究的時候發現的積分公式,很有趣,原理很簡單 !!

[明顯的例子]
假如我要算二重定積分
A = \int^{1}_{0}\int^{1}_{x} (x+y)dydx
今天我不小心把符號寫反 x 寫成 y , y 寫成 x
  A' = \int^{1}_{0}\int^{1}_{y} (y+x)dxdy
但理論上答案是一樣的(你只是換了符號而已,題目本質不變),所以 A' =A
後來你發現加法有交換律 (y+x) = (x+y) ,你會發現 A'' = A'  ,其中   A'' = \int^{1}_{0}\int^{1}_{y} (x+y)dxdy
然後你會發現 \{(x,y) \in [0,1]^2 :   x\leq y    \} \cup \{(x,y) \in [0,1]^2 :   x\geq y    \} = [0,1]^2
2A =  A'' + A =   \int^{1}_{0} \int^{1}_{0} (x+y)dydx
所以我們有 A = \frac{1}{2!} \int^{1}_{0} \int^{1}_{0} (x+y)dydx  

如果令 f(x,y) := x+y = y+x = f(y,x) 我們發現 f 是對稱函數!!
-------------------------------------------------------------------------
[推廣] 所以如果 f(\vec{x}):= f(x_1,x_2,x_3,....,x_n) 是一個在 (x_1,x_2,....,x_n)對稱的函數
[註: 對稱函數代表 \forall \sigma \in S_n  \quad  f(\sigma(\vec{x})) = f(\vec{x})  (其中S_n為交換群(Permutation Group))
考慮 定義域為 \Omega := \{ \vec{x}\in [a,b]^{n} : x_1 \leq x_2 \leq x_3 \leq ...\leq x_n  \}

則很自然我們有 \int_{\Omega} f(\vec{x}) = \frac{1}{n!} \int_{[a,b]^n}f(\vec{x})
如果寫的很詳細大概長這樣

\int_{a}^{b}\int_{x_1}^{b}...\int_{x_{n-1}}^{b} f(\vec{x}) d{x_n}d{x_{n-1}}....d{x_2}d{x_1}   = \frac{1}{n!} \overbrace{\int_{a}^{b}\int_{a}^{b}...\int_{a}^{b}}^{n \text{ integrals }} f(\vec{x}) d{x_n}d{x_{n-1}}....d{x_2}d{x_1}    
---------------------------------------------------------------------------
[額外重要的結果]
另外還有一個很重要的結果,如果 f(\vec{x}):= f(x_1,x_2,x_3,....,x_n) 是一個在 (x_1,x_2,....,x_{n-1})對稱的函數,注意: x_n 要固定,不能換!!



則我們有  
\int_{a}^{b}\int_{x_1}^{b}...\int_{x_{n-1}}^{b} f(\vec{x}) d{x_n}d{x_{n-1}}....d{x_2}d{x_1}   = \frac{1}{(n-1)!} \overbrace{\int_{a}^{b}\int_{a}^{x_n}...\int_{a}^{x_n}}^{n \text{ integrals }} f(\vec{x}) \underbrace{d{x_1}d{x_{2}}....d{x_{n-1}}d{x_n}}_{\text{reverse order}}    

<證明> : 我們先把 d{x_n} 移到最外面,
其中  \Omega := \left\{ (x_1,...x_{n-1}) \in [0,x_n]^{n-1}  : x_1 \leq x_2 \leq x_3 \leq ... x_{n-1}\right\}
所以 \bigcup_{\sigma \in S_{n-1}} \sigma(\Omega) = [0,x_n]^{n-1} \quad |S_{n-1}| = (n-1)!
我們可以得到
\int_{a}^{b}..\underbrace{\iiint_{\Omega}}_{n-1 \text{ integrals }} f(\vec{x}) d{x_{n-1}}....d{x_2}d{x_1}d{x_n} = \frac{1}{(n-1)!} \int^{b}_{a} \iiint_{[0,x_n]^{n-1}} f(\vec{x}) d{x_1}d{x_{2}}....d{x_{n-1}}d{x_n}
得證 !!
--------------------------------------------------------------------------
[關於構造對稱性函數]
如果 f(\vec{x})(x_1,x_2,....x_n)對稱則 
\left[\prod^{n}_{i=1}g(x_i)\right] f(\vec{x})  ,\quad \left[\sum^{n}_{i=1}g(x_i)\right] f(\vec{x})  
都是對稱的 !! (計算多維機率密度與多維期望值大多都有這特性)


[小結]
這個公式非常重要,它可以把 n重積分給化簡,它可以解決 non-homogeneous poisson process (NHPP) 期望值問題!!甚至存貨理論(inventory theory)裡預估最佳訂購量,但由於計算篇幅有點長,且比較高深,日後再寫一篇!!

[以上純為學術經驗交流知識分享,如有錯誤或建議可留言~~] 
by Plus & Minus 2017.09

留言

這個網誌中的熱門文章

Nash Equilibrium & Best Responce Function (BRF) In Continuous Strategies

經濟學重要的賽局理論( Game Theory )領域,用數學描述人與人之間的理性互動,最重要的就是尋找奈許均衡( Nash equilibrium ), 本篇介紹其數學規劃與非線性方程組!!  假設有 p 名玩家(player i),i=1,2,3,4,5,....p , 正在玩一場遊戲(Game)~~,完全不合作,各自獨立作決策 每個人有決策向量 x_i \in \Omega_i \subseteq R^{n_i} (有n_i個決策變數)  定義長向量: \underbrace{x =  (x_1,x_2,x_3,....x_p)}_{\# \text{ of } \sum^{p}_{i=1}n_i \text{ variables }} \in  \prod^{p}_{i=1} \Omega_i = \Omega 對於每個 player i ,長向量可以寫成 x = (x_i , x_{-i})x_{-i} 代表其他人(不是 player i) 能做的決策向量。 所有人各自作決策後,每個人都會個自的存在報酬效用函數 f_i (x)  \in \mathbb{R}  (報酬函數皆為公開已知資訊) 假設每位玩家是理性人(會極大化自己效用) 即 \forall i = 1,2,3,4....p \qquad  \underset{x_i \in \Omega_i}{\text{max }}f_i(x)   [註: 如果為合作可視為多目標規劃問題( multiobjective ),即 x_1,x_2,...x_p 可以由領導人一起決定] [註: 如果為合作而且把效用加總,即目標式變成 \sum_{i=1}^{p} f_i(x) ,可能對集體效益有更大的幫助,但是如何分配效益給 ( player i )會是個議題,可以查關鍵字 fair optimization ] 我們可以定義每個 player i 的 Best Response Function (BRF) or Best Reponce Set S_i(x_{-i}) \subset \Omega_i $$  S_i(x...

Linear Regression By Using Linear Programming

當拿到一筆資料準備玩統計,往往會想要做線性迴歸( Linear Regression ),找出一個模型( mathematical model )來解釋變數間的關係,一般都是使用平方距離,但是如果我們採用絕對值距離呢?? 而剛好在工業工程( Industrial Engineering ),作業研究( Operation Research ) 領域,發展成熟的線性規劃( Linear Programming ) 恰好可以來解決,是一個跨領域的應用 !! 已經存在有許多商業或open source 軟體,如: Gurobi , Cplex , Xpress , Mosek , SCIP  可以輕易求解大型的線性規劃問題。而不僅如此也可以利用整數規劃( Integer Programming )來做特徵選擇 ( Feature Selection ),甚至可以偵測離群值( Detect Outlier ) !! 本文只介紹最小絕對值和,關於 Feature Selection , Detect Outlier 可以參考 Mixed-Integer Linear Programming Robust Regression with Feature Selection , Oleksii Omelchenko , 2010 的論文。 [Data Fitting Problem] 給定n筆實數型訓練資料 (training data) \{(x^{k},y^{k})\}^{n}_{k=1} = \mathcal{D} , x^{k} =(x^{k}_1,x^{k}_2, ... , x^{k}_{p})\in \mathbb{R}^{p} , y^{k} \in \mathbb{R} , 我們目標是想要找到一個函數 f_{\mathcal{D}} : \mathbb{R}^p \rightarrow \mathbb{R} 使得  \forall x \in \mathbb{R}^{p} , f_{\mathcal{D}}(x) \approx y , 精確來說: $$ \text{Find } f_{\mathcal{D}} \text{ such that } f_{\mathcal{D}}(x)\...

Chain Rule & Identity Function Trick

本文為筆者學習微積分,函數概念與Chain Rule 的時候,遇到的一些概念大坑。本文一一澄清一些個人看法,並分享 Chain Rule 廣義的樣子,以及對於遞迴系統該如何計算...等等看法。 [坑1 : 變數/值符號的認識] 一切從 y = f(x) 開始,我們習慣把 Input 變數用"括號"刮起來,Output y 代表值,f 代表函數。或是可以想成這樣:    x \overset{f}{\longrightarrow} y 這種表示法概念上很嚴謹,但缺點是你必須要用三個符號 xyf 而在微分方程領域出現這種寫法 y = y(x)  (把 f 換成 y) ,這種寫法就頗簡潔,Chain Rule 通常都是這類表示法。缺點是心裡要能確實明白在哪個場合 y 到底是給定的"值"還是"函數"(註: 通常大多代表函數 y,值的話通常會這樣寫 y(x_{0}),y_{0}) ============================================================== [Bonus] y=y(x)這種表示法還有一個好處,如果允許 f 是一對多,那麼 y(x) 就是 y \text{ is depend on } x 的意思,如果你喜歡用集合論來表示可以先定義f 的定義域/對應域 f : X \rightarrow Y 然後 y(x) 可以寫成這樣 y \in Y_{x},其中值域為 f(X):=\bigcup_{x \in X}Y_{x} \subseteq Y ============================================================== [坑2 : Input 的變數到底是哪些] 這邊舉兩個例子提醒: (Ex1) 代換法會重新改變函數的 Input 例如 : y = f(x) = x+1 , z = g(y) = 2y  可以代換一下,寫成 z = g[f(x)] = 2(x+1) 如果你用簡記你會發現 $y(x) , z(y) , z(y(x)) \equiv z...