矩阵分析与应用-1.9-Moore-Penrose逆矩阵-Section3

前言

本文学习过程来源是《矩阵分析与应用-张贤达》一书. 可以通过 z-lib 下载.

一、非一致方程的最小范数最小二乘解

我们在之前广义逆矩阵一节中讲到了一致方程的最小范数解和非一致方程的最小二乘解. 但是我们要注意, 最小二乘解非唯一, 我们要在其中找到一个范数最小的解, 我们将其称为非一致方程的最小范数最小二乘解 ( minimun norm least squares solution ), 我们也称其为半范数 ( seminorm ) 最小二乘解

定义 1: 对于非一致方程 A m × n x n × 1 = y m × 1 A_{m \times n} x_{n \times 1} = y_{m \times 1} Am×nxn×1=ym×1 , 如果矩阵 G G G 满足条件:

∥ G y ∥ n ≤ ∥ x ^ ∥ n , 其 中 ∀ x ^ ∈ { x ^ : ∥ A x ^ − y ∥ m ≤ ∥ A z − y ∥ m ∀ y ∈ R m , z ∈ R } (1) \lVert Gy \rVert _n \leq \lVert \hat{x} \rVert _n ,其中 \forall \hat{x} \in \lbrace \hat{x}: \lVert A\hat{x}-y \rVert _m \leq \lVert Az-y \rVert _m \quad \forall y \in R^m, z \in R \rbrace \tag{1} Gynx^n,x^{x^:Ax^ymAzymyRm,zR}(1)

式子中, ∥ ⋅ ∥ n \lVert \cdot \rVert_n n ∥ ⋅ ∥ m \lVert \cdot \rVert_m m 分别是在 R n R^n Rn R m R^m Rm 空间的范数 (半范数); 花括号 { ⋅ } \{ \cdot \} {} 表示 x ^ \hat{x} x^ 是非一直方程 A x = y Ax=y Ax=y 的最小二乘解, 而 ∥ G y ∥ n ≤ ∥ x ^ ∥ n \lVert Gy \rVert_n \leq \lVert \hat{x} \rVert_n Gynx^n 表示 G y Gy Gy 是在所有的最小二乘解中具有最小范数的那个解.

定理 1: 矩阵 G G G 使得 G y Gy Gy 是非一致方程 A x = y Ax=y Ax=y 的最小范数最小二乘解, 当且仅当 G G G 满足条件:

A G A = A , ( A G ) ♯ = A G , G A G = G , ( G A ) ♯ = G A (2) AGA = A, \quad (AG)^{\sharp} = AG, \quad GAG = G, \quad (GA)^{\sharp} = GA \tag{2} AGA=A,(AG)=AG,GAG=G,(GA)=GA(2)

式子中, A ♯ A^{\sharp} A A A A 的伴随矩阵.

该定理也可以等价表述为: 矩阵 G G G 使得 G y Gy Gy 是非一致方程 A x = y Ax = y Ax=y 的最小范数最小二乘解, 当且仅当 G G G A A A M o o r e − P e n r o s e \mathrm{Moore-Penrose} MoorePenrose 逆矩阵.

二、广义逆矩阵的阶数递推计算

系统辨识? 想必又是信号处理那方面的内容. 确实看起来有点打脑壳, 也不知道它的目的是什么. 就直接提出左、右伪逆矩阵的阶数递推计算方法.

1. 左伪逆矩阵的阶数递推

考虑 n × m n \times m n×m 矩阵 F m F_m Fm, 并设 F † = ( F m H F m ) − 1 F m H F^{\dagger}=(F_m^{\mathrm{H}}F_m)^{-1}F_m^{\mathrm{H}} F=(FmHFm)1FmH F m F_m Fm 的左伪逆矩阵.

定理 2: 令

F m = [ F m − 1 f m ] (3) F_m = \begin{bmatrix} F_{m-1}& f_m \end{bmatrix} \tag{3} Fm=[Fm1fm](3)

式子中, f m f_m fm 是矩阵 F m F_m Fm 的第 m m m 列, 且 r a n k ( F m ) = m \mathrm{rank}(F_m)=m rank(Fm)=m, 则计算 F m † F_m^{\dagger} Fm 的递推公式由下可得:

F m † = [ F m − 1 † − F m − 1 † f m e m H Δ m − 1 e m H Δ m − 1 ] (4) F_m^{\dagger} = \begin{bmatrix} F_{m-1}^{\dagger} - F_{m-1}^{\dagger}f_me_m^{\mathrm{H}}\Delta_m^{-1}\\ e_m^{\mathrm{H}}\Delta_m^{-1} \end{bmatrix} \tag{4} Fm=[Fm1Fm1fmemHΔm1emHΔm1](4)

式子中,

e m = [ I n − F m − 1 F m − 1 † ] f m (5) e_m = [I_n - F_{m-1}F_{m-1}^{\dagger}] f_m \tag{5} em=[InFm1Fm1]fm(5)

Δ m − 1 = [ f m H e m ] − 1 (6) \Delta_m^{-1} = [f_m^{\mathrm{H}}e_m]^{-1} \tag{6} Δm1=[fmHem]1(6)

且初始值为

F 1 † = f 1 H / ( f 1 H f 1 ) (7) F_1^{\dagger} = f_1^{\mathrm{H}}/(f_1^{\mathrm{H}}f_1) \tag{7} F1=f1H/(f1Hf1)(7)

2. 右伪逆矩阵的阶数递推

考虑矩阵 F m ∈ C n × m ,   n < m F_m \in C^{n \times m}, \ n < m FmCn×m, n<m.

定理 3: 记 F m = [ F m − 1 , f m ] F_m = [F_{m-1}, f_m] Fm=[Fm1,fm], 则右伪逆矩阵 F m † = F m H ( F m F m H ) − 1 F_m^{\dagger}=F_m^{\mathrm{H}}(F_mF_m^{\mathrm{H}})^{-1} Fm=FmH(FmFmH)1 具有以下递推公式:

F m † = [ F m − 1 † − Δ m F m − 1 † f m c m Δ m c m H ] (8) F_m^{\dagger} = \begin{bmatrix} F_{m-1}^{\dagger} - \Delta_mF_{m-1}^{\dagger}f_mc_m\\ \Delta_m c_m^{\mathrm{H}} \end{bmatrix} \tag{8} Fm=[Fm1ΔmFm1fmcmΔmcmH](8)

式中, c m H = f m H ( I n − F m − 1 F m − 1 † ) ,   Δ m = c m H f m c_m^{\mathrm{H}} = f_m^{\mathrm{H}}(I_n - F_{m-1}F_{m-1}^{\dagger}), \ \Delta_m = c_m^{\mathrm{H}}f_m cmH=fmH(InFm1Fm1), Δm=cmHfm. 递推的初始值为 F 1 † = f 1 H / ( f 1 H f 1 ) F_1^{\dagger} = f_1^{\mathrm{H}}/(f_1^{\mathrm{H}}f_1) F1=f1H/(f1Hf1).

三、超定二维超越方程的求解

这部分就真的是完全看不懂. 从二维信号处理中的一个基本问题: 辨识二维实自回归 —— 移动平均 ( A R M A \mathrm{ARMA} ARMA) 模型的移动平均 ( M A \mathrm{MA} MA) 参数.

关于 A R M A \mathrm{ARMA} ARMA 常用作经济计量和工程预测. 本质上还是统计学, 和机器学习内核是一样的.

A R M A ( p 1 , p 2 ; q 1 , q 2 ) \mathrm{ARMA}(p_1,p_2;q_1,q_2) ARMA(p1,p2;q1,q2) 模型为

∑ i = 0 p 1 ∑ j = 0 p 2 a i j x ( n 1 − i , n 2 − j ) = ∑ i = 0 q 1 ∑ j = 0 q 2 b i j e ( n 1 − i , n 2 − j ) (9) \sum_{i=0}^{p_1}\sum_{j=0}^{p_2}a_{ij}x(n_1 - i, n_2 - j) = \sum_{i=0}^{q_1}\sum_{j=0}^{q_2}b_{ij}e(n_1 - i, n_2 - j) \tag{9} i=0p1j=0p2aijx(n1i,n2j)=i=0q1j=0q2bije(n1i,n2j)(9)

不失一般性, 假定 a 00 = 1 , q 1 ≤ p 1 , q 2 ≤ p 2 a_{00} = 1, q_1 \le p_1, q_2 \le p_2 a00=1,q1p1,q2p2, 且不可观测的实输入激励 e ( n 1 , n 2 ) e(n_1,n_2) e(n1,n2) 为二维正态白噪声, 其均值为零, 方差等于 σ 2 \sigma^2 σ2. 二维 A R M A \mathrm{ARMA} ARMA 过程 { x ( n 1 , x 2 ) } \{ x(n_1,x_2) \} {x(n1,x2)} 的功率谱密度由下式给出:

P ( ω 1 , ω 2 ) = B ( z 1 , z 2 ) B ( z 1 − 1 , z 2 − 1 ) A ( z 1 , z 2 ) A ( z 1 − 1 , z 2 − 1 ) σ 2 ∣ z 1 = e i ω 1 , z 2 = e j ω 2 (10) P(\omega_1,\omega_2) = \frac{B(z_1,z_2)B(z_1^{-1},z_2^{-1})}{A(z_1,z_2)A(z_1^{-1},z_2^{-1})}\sigma^2 \bigg|_{z_1=e^{i\omega_1},z_2=e^{j\omega_2}} \tag{10} P(ω1,ω2)=A(z1,z2)A(z11,z21)B(z1,z2)B(z11,z21)σ2z1=eiω1,z2=ejω2(10)

式中

A ( z 1 , z 2 ) = ∑ i = 0 p 1 ∑ j = 0 p 2 a i j z 1 i z 2 j , B = ( z 1 , z 2 ) ∑ i = 0 q 1 ∑ j = 0 q 2 b i j z 1 i z 2 j A(z_1,z_2) = \sum_{i=0}^{p_1}\sum_{j=0}^{p_2}a_{ij}z_1^iz_2^j, \quad B=(z_1,z_2) \sum_{i=0}^{q_1}\sum_{j=0}^{q_2}b_{ij}z_1^iz_2^j A(z1,z2)=i=0p1j=0p2aijz1iz2j,B=(z1,z2)i=0q1j=0q2bijz1iz2j

注意, 多项式 B ( z 1 , z 2 ) B ( z 1 − 1 , z 2 − 1 ) B(z_1,z_2)B(z_1^{-1},z_2^{-1}) B(z1,z2)B(z11,z21) 中的 z 1 k z 2 m z_1^kz_2^m z1kz2m z 1 − k z 2 − m z_1^{-k}z_2^{-m} z1kz2m 项的系数相同, z 1 k z 2 − m z_1^kz_2^{-m} z1kz2m z 1 − k z 2 m z_1^{-k}z_2^m z1kz2m 的系数相同. 所以可以将式子 (10) 的分子写作

B ( z 1 , z 2 ) B ( z 1 − 1 , z 2 − 1 ) σ 2 = C ( z 1 , z 2 ) + D ( z 1 , z 2 − 1 ) + D ( z 1 − 1 , z 2 ) + C ( z 1 − 1 , z 2 − 1 ) (11) B(z_1,z_2)B(z_1^{-1},z_2^{-1})\sigma^2=C(z_1,z_2) + D(z_1,z_2^{-1}) + D(z_1^{-1},z_2) + C(z_1^{-1},z_2^{-1}) \tag{11} B(z1,z2)B(z11,z21)σ2=C(z1,z2)+D(z1,z21)+D(z11,z2)+C(z11,z21)(11)

式中

C ( z 1 , z 2 ) = ∑ i = 0 q 1 ∑ j = 0 q 2 c i j z 1 i z 2 j , D = ( z 1 , z 2 − 1 ) ∑ i = 0 q 1 ∑ j = 0 q 2 d i j z 1 i z 2 − j C(z_1,z_2) = \sum_{i=0}^{q_1}\sum_{j=0}^{q_2}c_{ij}z_1^iz_2^j, \quad D=(z_1,z_2^{-1}) \sum_{i=0}^{q_1}\sum_{j=0}^{q_2}d_{ij}z_1^iz_2^{-j} C(z1,z2)=i=0q1j=0q2cijz1iz2j,D=(z1,z21)i=0q1j=0q2dijz1iz2j

比较式 (11) 两边相同幂次项的系数, 立即得

c 00 = σ 2 2 ∑ i = 0 q 1 ∑ j = 0 q 2 b i j 2 (12) c_{00}=\frac{\sigma^2}{2}\sum_{i=0}^{q_1}\sum_{j=0}^{q_2}b_{ij}^2 \tag{12} c00=2σ2i=0q1j=0q2bij2(12)

c k m = σ 2 ∑ i = 0 q 1 ∑ j = 0 q 2 b i j b i + k , j + m , k = 0 , 1 , … , q 1 ,   m = 0 , 1 , … , q 2 , ( k , m ) ≠ ( 0 , 0 ) (13) c_{km}=\sigma^2\sum_{i=0}^{q_1}\sum_{j=0}^{q_2}b_{ij}b_{i+k,j+m}, \quad k = 0,1,\dots,q_1, \ m = 0,1,\dots,q_2, (k,m) \neq (0,0) \tag{13} ckm=σ2i=0q1j=0q2bijbi+k,j+m,k=0,1,,q1, m=0,1,,q2,(k,m)=(0,0)(13)

d k m = σ 2 ∑ i = 0 q 1 ∑ j = 0 q 2 b i j b i − k , j + m , k = 0 , 1 , … , q 1 ,   m = 1 , 2 , … , q 2 (14) d_{km}=\sigma^2\sum_{i=0}^{q_1}\sum_{j=0}^{q_2}b_{ij}b_{i-k,j+m}, \quad k = 0,1,\dots,q_1, \ m = 1,2,\dots,q_2 \tag{14} dkm=σ2i=0q1j=0q2bijbik,j+m,k=0,1,,q1, m=1,2,,q2(14)

上述方程称为超定二维超越方程. 二维 A R M A \mathrm{ARMA} ARMA 模型的 M A \mathrm{MA} MA 参数辨识问题的提法是: 已知二维 M A \mathrm{MA} MA 谱参数 c k m c_{km} ckm d k m d_{km} dkm, 求解超定二维超越方程式 (12) ~ (13), 即得到二维 M A \mathrm{MA} MA 参数 b i j b_{ij} bij.

定义估计误差

f 0 , 0 = ∑ i = 0 q 1 ∑ j = 0 q 2 b i j 2 − 2 c 0 , 0 (15) f_{0,0} = \sum_{i=0}^{q_1}\sum_{j=0}^{q_2}b_{ij}^2 - 2c_{0,0} \tag{15} f0,0=i=0q1j=0q2bij22c0,0(15)

f k , m = ∑ i = 0 q 1 − k ∑ j = 0 q 2 − m b i , j b i + k , j + m − c k , m k = 0 , 1 , … , q 1 ,   m = 0 , 1 , … , q 2 , ( k , m ) ≠ ( 0 , 0 ) (16) f_{k,m} = \sum_{i=0}^{q_1-k}\sum_{j=0}^{q_2-m}b_{i,j}b_{i+k,j+m} - c_{k,m} \quad k = 0,1,\dots,q_1, \ m = 0,1,\dots,q_2, (k,m) \neq (0,0) \tag{16} fk,m=i=0q1kj=0q2mbi,jbi+k,j+mck,mk=0,1,,q1, m=0,1,,q2,(k,m)=(0,0)(16)

f k , m = ∑ i = 0 q 1 − k ∑ j = 0 q 2 − m b i , j b i + k , j + m − d k , m k = 1 , 2 , … , q 1 ,   m = 1 , 2 , … , q 2 , ( k , m ) (17) f_{k,m} = \sum_{i=0}^{q_1-k}\sum_{j=0}^{q_2-m}b_{i,j}b_{i+k,j+m} - d_{k,m} \quad k = 1,2,\dots,q_1, \ m = 1,2,\dots,q_2, (k,m) \tag{17} fk,m=i=0q1kj=0q2mbi,jbi+k,j+mdk,mk=1,2,,q1, m=1,2,,q2,(k,m)(17)

f = [ f 0 , 0   , … , f q 1 , q 2   , f q 1 + 1 , q 2 + 1   , … , f 2 q 1 , 2 q 2 ] T b = [ b 0 , 0   , b 0 , 1   … , b 0 , q 2   …   , b q 1 , 0   , b q 1 , 1 … , b q 1 , q 2 ] T \begin{aligned} f &= [f_{0,0} \ , \dots,f_{q_1,q_2} \ , f_{q_1+1,q_2+1} \ , \dots, f_{2q_1,2q_2}]^{\mathrm{T}} \\ b &= [b_{0,0} \ , b_{0,1} \, \dots, b_{0,q_2} \ \dots \ , b_{q_1,0} \ , b_{q_1,1} \dots, b_{q_1,q_2}]^{\mathrm{T}} \end{aligned} fb=[f0,0 ,,fq1,q2 ,fq1+1,q2+1 ,,f2q1,2q2]T=[b0,0 ,b0,1,b0,q2  ,bq1,0 ,bq1,1,bq1,q2]T

则梯度矩阵为

F = ∂ f ∂ b T = [ ∂ f 0 , 0 ∂ b 0 , 0 … ∂ f 0 , 0 ∂ b 0 , q 2 … ∂ f 0 , 0 ∂ b q 1 , 0 … ∂ f 0 , 0 ∂ b q 1 , q 2 ⋮ ⋮ ⋮ ⋮ ∂ f q 1 , q 2 ∂ b 0 , 0 … ∂ f q 1 , q 2 ∂ b 0 , q 2 … ∂ f q 1 , q 2 ∂ b q 1 , 0 … ∂ f q 1 , q 2 ∂ b q 1 , q 2 ∂ f q 1 + 1 , q 2 + 1 ∂ b 0 , 0 … ∂ f q 1 + 1 , q 2 + 1 ∂ b 0 , q 2 … ∂ f q 1 + 1 , q 2 + 1 ∂ b q 1 , 0 … ∂ f q 1 + 1 , q 2 + 1 ∂ b q 1 , q 2 ⋮ ⋮ ⋮ ⋮ ∂ f 2 q 1 , 2 q 2 ∂ b 0 , 0 … ∂ f 2 q 1 , 2 q 2 ∂ b 0 , q 2 … ∂ f 2 q 1 , 2 q 2 ∂ b q 1 , 0 … ∂ f 2 q 1 , 2 q 2 ∂ b q 1 , q 2 ] (18) F = \frac{\partial f}{\partial b^{\mathrm{T}}}=\begin{bmatrix} \frac{\partial f_{0,0}}{\partial b_{0,0}}& \dots & \frac{\partial f_{0,0}}{\partial b_{0,q_2}} & \dots& \frac{\partial f_{0,0}}{\partial b_{q_1,0}}& \dots & \frac{\partial f_{0,0}}{\partial b_{q_1,q_2}}\\ \vdots& & \vdots& & \vdots& & \vdots\\ \frac{\partial f_{q_1,q_2}}{\partial b_{0,0}}& \dots & \frac{\partial f_{q_1,q_2}}{\partial b_{0,q_2}} & \dots& \frac{\partial f_{q_1,q_2}}{\partial b_{q_1,0}}& \dots & \frac{\partial f_{q_1,q_2}}{\partial b_{q_1,q_2}}\\ \frac{\partial f_{q_1+1,q_2+1}}{\partial b_{0,0}}& \dots & \frac{\partial f_{q_1+1,q_2+1}}{\partial b_{0,q_2}} & \dots& \frac{\partial f_{q_1+1,q_2+1}}{\partial b_{q_1,0}}& \dots & \frac{\partial f_{q_1+1,q_2+1}}{\partial b_{q_1,q_2}}\\ \vdots& & \vdots& & \vdots& & \vdots\\ \frac{\partial f_{2q_1,2q_2}}{\partial b_{0,0}}& \dots & \frac{\partial f_{2q_1,2q_2}}{\partial b_{0,q_2}} & \dots& \frac{\partial f_{2q_1,2q_2}}{\partial b_{q_1,0}}& \dots & \frac{\partial f_{2q_1,2q_2}}{\partial b_{q_1,q_2}}\\ \end{bmatrix} \tag{18} F=bTf=b0,0f0,0b0,0fq1,q2b0,0fq1+1,q2+1b0,0f2q1,2q2b0,q2f0,0b0,q2fq1,q2b0,q2fq1+1,q2+1b0,q2f2q1,2q2bq1,0f0,0bq1,0fq1,q2bq1,0fq1+1,q2+1bq1,0f2q1,2q2bq1,q2f0,0bq1,q2fq1,q2bq1,q2fq1+1,q2+1bq1,q2f2q1,2q2(18)

定义矩阵

B i = [ b i , 0 … b i , q 2 − 1 b i , q 2 b i , 1 … b i , q 2 0 ⋮ ⋮ ⋮ b i , q 2 … 0 0 ] (19) B_i = \begin{bmatrix} b_{i,0}& \dots& b_{i,q_2-1}& b_{i,q_2}\\ b_{i,1}& \dots& b_{i,q_2}& 0\\ \vdots& &\vdots & \vdots\\ b_{i,q_2}& \dots& 0& 0 \end{bmatrix} \tag{19} Bi=bi,0bi,1bi,q2bi,q21bi,q20bi,q200(19)

B i ˉ = [ b i , 0 b i , 1 … b i , q 2 0 b i , 0 … b i , q 2 − 1 ⋮ ⋮ ⋮ 0 … 0 b i , 0 ] (20) \bar{B_i} = \begin{bmatrix} b_{i,0}& b_{i,1}& \dots& b_{i,q_2}\\ 0& b_{i,0}& \dots& b_{i,q_2-1}\\ \vdots& &\vdots & \vdots\\ 0& \dots& 0& b_{i,0} \end{bmatrix} \tag{20} Biˉ=bi,000bi,1bi,00bi,q2bi,q21bi,0(20)

A i = [ 0 b i , 0 b i , 1 … b i , q 2 − 1 0 0 b i , 0 … b i , q 2 − 2 ⋮ ⋮ ⋮ ⋮ 0 … 0 0 b i , 0 ] (21) A_i = \begin{bmatrix} 0& b_{i,0}& b_{i,1}& \dots & b_{i,q_2-1}\\ 0& 0& b_{i,0}& \dots & b_{i,q_2-2}\\ \vdots& &\vdots & \vdots & \vdots\\ 0& \dots& 0& 0 & b_{i,0} \end{bmatrix} \tag{21} Ai=000bi,00bi,1bi,000bi,q21bi,q22bi,0(21)

A i ˉ = [ b i , 1 … b i , q 2 − 1 b i , q 2 0 b i , 2 … b i , q 2 0 0 ⋮ ⋮ ⋮ ⋮ b i , q 2 0 … 0 0 ] (22) \bar{A_i} = \begin{bmatrix} b_{i,1}& \dots& b_{i,q_2-1}& b_{i,q_2} & 0\\ b_{i,2}& \dots& b_{i,q_2}& 0 & 0\\ \vdots& &\vdots & \vdots & \vdots\\ b_{i,q_2}& 0& \dots& 0 & 0 \end{bmatrix} \tag{22} Aiˉ=bi,1bi,2bi,q20bi,q21bi,q2bi,q200000(22)

矩阵 F F F 具有下列形式:

F = [ B 0 … B q 1 − 1 B q 1 B 1 … B q 1 O ⋮ ⋮ ⋮ B q 1 … O O A 1 … A q 1 O A 2 … O O ⋮ ⋮ ⋮ A q 1 … O O ] + [ B 0 ˉ B 1 ˉ … B q 1 ˉ O B 0 ˉ … B q 1 − 1 ˉ ⋮ ⋮ ⋮ O O … B 0 ˉ O A 0 ˉ … A q 1 − 1 ˉ O O … A q 1 − 2 ˉ ⋮ ⋮ ⋮ O O O A 0 ˉ ] (23) F=\begin{bmatrix} B_0& \dots& B_{q_1-1}& B_{q_1}\\ B_1& \dots& B_{q_1}& O\\ \vdots& & \vdots& \vdots\\ B_{q_1}& \dots& O& O\\ A_1& \dots& A_{q_1}& O\\ A_2& \dots& O& O\\ \vdots& & \vdots& \vdots\\ A_{q_1}& \dots& O & O \end{bmatrix} + \begin{bmatrix} \bar{B_0}& \bar{B_1}& \dots& \bar{B_{q_1}}\\ O& \bar{B_0}& \dots& \bar{B_{q_1-1}}\\ \vdots& \vdots& & \vdots\\ O& O& \dots& \bar{B_0}\\ O& \bar{A_0}& \dots& \bar{A_{q_1-1}}\\ O& O& \dots& \bar{A_{q_1-2}}\\ \vdots& \vdots& & \vdots\\ O& O& O & \bar{A_0} \end{bmatrix} \tag{23} F=B0B1Bq1A1A2Aq1Bq11Bq1OAq1OOBq1OOOOO+B0ˉOOOOOB1ˉB0ˉOA0ˉOOOBq1ˉBq11ˉB0ˉAq11ˉAq12ˉA0ˉ(23)

我们就能求解, 若第 i i i 步迭代估计的 M A \mathrm{MA} MA 参数向量记为 b ( i ) b^{(i)} b(i), 则第 ( i + 1 ) (i+1) (i+1) 步的估计 b ( i + 1 ) b^{(i+1)} b(i+1) 由下式给出:

b ( i + 1 ) = b ( i ) − F † f (24) b^{(i+1)} = b^{(i)} - F^{\dagger}f \tag{24} b(i+1)=b(i)Ff(24)

式子中, F † F^{\dagger} F 是矩阵 F F F 的广义逆矩阵.

算法 1: (二维 M A \mathrm{MA} MA 参数估计)

  • Step1 : 取初始值 b 0 , 0 = 2 c 0 , 0 b_{0,0} = \sqrt{2c_{0,0}} b0,0=2c0,0 b i , j = 0 ,   ( i , j ) ≠ ( 0 , 0 ) b_{i,j}=0, \ (i,j) \neq (0,0) bi,j=0, (i,j)=(0,0)

  • Step2 : 利用式子 (15)~(17) 计算拟合误差 f k , m f_{k,m} fk,m, 然后利用式子 (23) 构造矩阵 F F F

  • Step3 : 根据式子 (24) 更新二维 M A \mathrm{MA} MA 参数向量估计 b ( i + 1 ) b^{(i+1)} b(i+1)

  • Step4 : 返回 Step2, 并重复以上步骤, 知道所有 M A \mathrm{MA} MA 参数估计值 b k , m b_{k,m} bk,m 都收敛为止. 例如, 当

    ∣ b k m ( i + 1 ) − b k m ( i ) b k m ( i + 1 ) ≤ 0.05 ∣ (25) \bigg| \frac{b_{km}^{(i+1)}-b_{km}^{(i)}}{b_{km}^{(i+1)}} \le 0.05 \bigg| \tag{25} bkm(i+1)bkm(i+1)bkm(i)0.05(25)

    对所有 k = 0 , 1 , … , q 1 , m = 0 , 1 , … , q 2 k = 0,1,\dots,q_1, m=0,1,\dots,q_2 k=0,1,,q1,m=0,1,,q2 成立时, 即认可参数估计已经收敛.

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值