Numerical Optimization Ch10. Least-Squares Problems

第十章: 最小二乘问题


最小二乘问题(Least-square problems)中, 目标函数 f f f具有如下特殊形式: f ( x ) = 1 2 ∑ j = 1 m r j 2 ( x ) , f(x)=\frac{1}{2}\sum_{j=1}^mr_j^2(x), f(x)=21j=1mrj2(x),其中每个 r j : R n → R r_j:\mathbb{R}^n\to\mathbb{R} rj:RnR为光滑函数. 我们称每个 r j r_j rj残差(residual). 本章中假设 m ≥ n m\ge n mn.

最小二乘问题出现在许多应用领域中, 并且(事实上)可能是无约束优化问题最大的源头. 医药、物理、金融等领域的研究者构建参数模型都会考虑上面 f f f的形式来表征模型与观测之间的差距. 通过极小化这一函数, 他们就能获得使模型最佳拟合数据的参数. 本章我们将展示如何通过探究 f f f及其导数的特殊结构, 设计高效的、鲁棒的极小化算法.

上述优化问题比之一般的无约束极小化问题, 具有最优值非负的特点. 其次, 上述 f f f的特殊结构能使得最小二乘问题比一般的无约束极小化问题更易求解. 首先将每个残差组分 r j r_j rj组装成一个残差向量 r : R n → R m r:\mathbb{R}^n\to\mathbb{R}^m r:RnRm: r ( x ) = ( r 1 ( x ) , r 2 ( x ) , … , r m ( x ) ) T . r(x)=(r_1(x),r_2(x),\ldots,r_m(x))^T. r(x)=(r1(x),r2(x),,rm(x))T.利用这一表示, 我们可以将 f f f写作 f ( x ) = 1 2 ∥ r ( x ) ∥ 2 2 f(x)=\frac{1}{2}\Vert r(x)\Vert_2^2 f(x)=21r(x)22. f f f的导数就可以 m × n m\times n m×nJacobi矩阵 J ( x ) J(x) J(x)的形式表示: J ( x ) = [ ∂ r i ∂ x j ] i = 1 , 2 , … , m , j = 1 , 2 , … , n = [ ∇ r 1 ( x ) T ∇ r 2 ( x ) T ⋮ ∇ r m ( x ) T ] , J(x)=\left[\frac{\partial r_i}{\partial x_j}\right]_{i=1,2,\ldots,m,j=1,2,\ldots,n}=\begin{bmatrix}\nabla r_1(x)^T\\\nabla r_2(x)^T\\\vdots\\\nabla r_m(x)^T\end{bmatrix}, J(x)=[xjri]i=1,2,,m,j=1,2,,n=r1(x)Tr2(x)Trm(x)T,其中每个 ∇ r j ( x ) , j = 1 , 2 , … , m \nabla r_j(x),j=1,2,\ldots,m rj(x),j=1,2,,m r j r_j rj的梯度. 于是 f f f的梯度与Hessian矩阵为: ∇ f ( x ) = ∑ j = 1 m r j ( x ) ∇ r j ( x ) = J ( x ) T r ( x ) , ∇ 2 f ( x ) = ∑ j = 1 m ∇ r j ( x ) ∇ r j ( x ) T + ∑ j = 1 m r j ( x ) ∇ 2 r j ( x ) = J ( x ) T J ( x ) + ∑ j = 1 m r j ( x ) ∇ 2 r j ( x ) . \begin{aligned}\nabla f(x)&=\sum_{j=1}^mr_j(x)\nabla r_j(x)=J(x)^Tr(x),\\\nabla^2f(x)&=\sum_{j=1}^m\nabla r_j(x)\nabla r_j(x)^T+\sum_{j=1}^mr_j(x)\nabla^2r_j(x)\\&=J(x)^TJ(x)+\sum_{j=1}^mr_j(x)\nabla^2r_j(x).\end{aligned} f(x)2f(x)=j=1mrj(x)rj(x)=J(x)Tr(x),=j=1mrj(x)rj(x)T+j=1mrj(x)2rj(x)=J(x)TJ(x)+j=1mrj(x)2rj(x).一般, 残差的一阶偏导(从而Jacobi矩阵 J ( x ) J(x) J(x))相对容易(或相对便宜)计算. 从而 ∇ f ( x ) \nabla f(x) f(x)的表达式是可使用的. 而有了 J ( x ) J(x) J(x), 我们也可以计算 ∇ 2 f ( x ) \nabla^2f(x) 2f(x)中的 J ( x ) T J ( x ) J(x)^TJ(x) J(x)TJ(x). 这一过程完全不需要计算 r j r_j rj的任何二阶导数. ∇ 2 f ( x ) \nabla^2f(x) 2f(x)的这一部分"免费"可用性是最小二乘问题的关键特征. 进一步地, J ( x ) T J ( x ) J(x)^TJ(x) J(x)TJ(x)往往要比第二项来得更重要. 这可能是由于在解附近

  • 残差 r j r_j rj接近于线性(也就是说, ∇ 2 r j ( x ) \nabla^2r_j(x) 2rj(x)相对较小); 或者
  • 残差较小(即 r j ( x ) r_j(x) rj(x)相对较小).

绝大多数非线性最小二乘的算法均会探究和利用Hessian的结构性质.

求解最小二乘问题最广为使用的算法均以之前介绍的线搜索和信赖域为框架. 它们主要基于牛顿和拟牛顿法, 其中会考虑 f f f的特殊结构.
本章结构如下: 第1节涵盖最小二乘的一些应用背景; 第2节介绍线性最小二乘问题, 这将启发我们对非线性情形的算法的讨论; 第3节将介绍主要的算法; 第4节概括地介绍最小二乘的一种变体——正交距离回归(也称总体最小二乘). 第五章小谈大规模问题.
本章如不说明, 我们以 ∥ ⋅ ∥ \Vert\cdot\Vert 表示欧式范数 ∥ ⋅ ∥ 2 \Vert\cdot\Vert_2 2.

1. 背景介绍

我们引入一个简单的带参模型以展示最小二乘方法将如何帮助我们选择能最佳拟合观测数据的参数.

例1 现在我们想要研究一种特定药物在病人身上的药效如何. 在病人注射药物后, 我们在特定的时间点抽取血液样本、测定样本中药物的凝聚程度, 最终得到时间 t j t_j tj与凝聚度 y j y_j yj构成的数据表.

基于我们过往的经验, 我们发现函数 ϕ ( x ; t ) \phi(x;t) ϕ(x;t)对药物在 t t t时刻的凝聚度有很好的预测能力, 其中 x x x为五维参数向量 x = ( x 1 , x 2 , x 3 , x 4 , x 5 ) x=(x_1,x_2,x_3,x_4,x_5) x=(x1,x2,x3,x4,x5): ϕ ( x ; t ) = x 1 + t x 2 + t 2 x 3 + x 4 e − x 5 t . \phi(x;t)=x_1+tx_2+t^2x_3+x_4e^{-x_5t}. ϕ(x;t)=x1+tx2+t2x3+x4ex5t.我们待定 x x x, 最终需要我们的模型以某种方式最佳匹配拟合我们的观测数据. 一种较好的表示预测模型值域观测值差距的方式就是如下最小二乘函数: 1 2 ∑ j = 1 m [ ϕ ( x ; t j ) − y j ] 2 . \frac{1}{2}\sum_{j=1}^m[\phi(x;t_j)-y_j]^2. 21j=1m[ϕ(x;tj)yj]2.我们定义 r j ( x ) = ϕ ( x ; t j ) − y j r_j(x)=\phi(x;t_j)-y_j rj(x)=ϕ(x;tj)yj. 几何上, 每个 ∣ r j ∣ |r_j| rj均表示点 ( t j , y j ) (t_j,y_j) (tj,yj)与曲线 ϕ ( x ; t ) \phi(x;t) ϕ(x;t)(视作 t t t的函数, x x x为固定的参数向量)的垂直距离. 可见下图.
Model and the observed measurements

最小二乘问题的极小点 x ∗ x^* x就使得图中虚线长度平方和极小. 有了 x ∗ x^* x, 我们就可以使用 ϕ ( x ∗ ; t ) \phi(x^*;t) ϕ(x;t)预测 t t t时刻病人血液中药物的凝聚程度.

这是固定回归模型(fixed-regressor model)的一个例子: 它假设抽取血液样本的时间点 t j t_j tj具有高精度, 而观测 y j y_j yj则可能(由于仪器或实验人员的限制)或多或少包含随机误差.
在一般的如刚才描述的数据拟合问题中, 模型 ϕ ( x ; t ) \phi(x;t) ϕ(x;t)中的坐标 t t t还可能是向量. 例如刚才问题中的 t t t, 还可以包含病人的其他指标, 例如身高、体重等. 指标涵盖得越全面, 理论上能说明的规律就越丰富.
平方和并不是唯一度量差异的方式. 其他常用的方法还有:

  • 最大绝对值. max ⁡ j = 1 , 2 , … , m ∣ ϕ ( x ; t j ) − y j ∣ . \max_{j=1,2,\ldots,m}|\phi(x;t_j)-y_j|. j=1,2,,mmaxϕ(x;tj)yj.
  • 绝对值和. ∑ j = 1 m ∣ ϕ ( x ; t j ) − y j ∣ . \sum_{j=1}^m|\phi(x;t_j)-y_j|. j=1mϕ(x;tj)yj.

利用 l ∞ l_{\infty} l l 1 l_1 l1范数, 我们可以把这两种函数分别写作 f ( x ) = ∥ r ( x ) ∥ ∞ , f ( x ) = ∥ r ( x ) ∥ 1 . f(x)=\Vert r(x)\Vert_{\infty},\quad f(x)=\Vert r(x)\Vert_1. f(x)=r(x),f(x)=r(x)1.我们将在后面的章节说明如何将上述重构为光滑的约束优化问题. 而本章中我们仅讨论 l 2 l_2 l2范数下的问题.

有时, 选取最小二乘标准也有统计上的动机. 我们稍微改变下记号, 令 ϵ j \epsilon_j ϵj表示模型与观测之间的差距, 即 ϵ j = ϕ ( x ; t j ) − y j . \epsilon_j=\phi(x;t_j)-y_j. ϵj=ϕ(x;tj)yj.通常我们假设 { ϵ j } \{\epsilon_j\} {ϵj}相互独立且同分布(independent and identically distributed, i.i.d.), 它们的概率密度函数为 g σ ( ⋅ ) g_{\sigma}(\cdot) gσ(), 具有一定的方差 σ 2 \sigma^2 σ2. 这一假设一般是符合实际的. 例如当模型能够准确反映过程, 且当测定 y j y_j yj的误差不包含系统误差时. 基于这样的假设, 给定参数向量 x x x, 特定观测集 { y j } \{y_j\} {yj}出现的似然为 p ( y ; x , σ ) = ∏ j = 1 m g σ ( ϵ j ) = ∏ j = 1 m g σ ( ϕ ( x ; t j ) − y j ) . p(y;x,\sigma)=\prod_{j=1}^mg_{\sigma}(\epsilon_j)=\prod_{j=1}^mg_{\sigma}(\phi(x;t_j)-y_j). p(y;x,σ)=j=1mgσ(ϵj)=j=1mgσ(ϕ(x;tj)yj).给定观测 y 1 , y 2 , … , y m y_1,y_2,\ldots,y_m y1,y2,,ym, x x x"最可能"的值就是使得 p ( y ; x , σ ) p(y;x,\sigma) p(y;x,σ)(作为 x x x的函数)最大的位置. 此时得到的值称作极大似然估计(maximum likelihood estimate).
当我们假设差异服从正态分布时, 我们有 g σ ( ϵ ) = 1 2 π σ 2 exp ⁡ ( − ϵ 2 2 σ 2 ) . g_{\sigma}(\epsilon)=\frac{1}{\sqrt{2\pi\sigma^2}}\exp\left(-\frac{\epsilon^2}{2\sigma^2}\right). gσ(ϵ)=2πσ2 1exp(2σ2ϵ2).代入 p ( y ; x , σ ) p(y;x,\sigma) p(y;x,σ)可得 p ( y ; x , σ ) = ( 2 π σ 2 ) − m / 2 exp ⁡ ( − 1 2 σ 2 ∑ j = 1 m [ ϕ ( x ; t j ) − y j ] 2 ) . p(y;x,\sigma)=(2\pi\sigma^2)^{-m/2}\exp\left(-\frac{1}{2\sigma^2}\sum_{j=1}^m[\phi(x;t_j)-y_j]^2\right). p(y;x,σ)=(2πσ2)m/2exp(2σ21j=1m[ϕ(x;tj)yj]2).对任意固定方差 σ 2 \sigma^2 σ2, 取对数可得 p p p最大当且仅当残差平方和极小. 这就是说, 当我们假设差距i.i.d.且服从同一个正态分布时, 极大似然估计与极小化残差平方和得到的极小点是一样的. 满足条件的对 ϵ j \epsilon_j ϵj的假设并不唯一.

进一步我们还有推广形式的目标函数 r ( x ) T W r ( x ) , r(x)^TWr(x), r(x)TWr(x),其中 W ∈ R m × m W\in\mathbb{R}^{m\times m} WRm×m对称. 这可以看做是加权最小二乘(weighted least-square problems).

2. 线性最小二乘问题及求解算法

许多数据拟合问题中的模型函数 ϕ ( x ; t ) \phi(x;t) ϕ(x;t) x x x线性函数. 此时, 残差 r j ( x ) r_j(x) rj(x)也是线性的, 称相应的问题是线性最小二乘问题. 进一步地, 我们可将残差向量写作 r ( x ) = J x − y r(x)=Jx-y r(x)=Jxy, 其中 J J J为Jacobi矩阵, y y y为观测(以及可能存在的截距)构成的向量, 二者均独立于 x x x存在, 从而目标函数为 f ( x ) = 1 2 ∥ J x − y ∥ 2 , f(x)=\frac{1}{2}\Vert Jx-y\Vert^2, f(x)=21Jxy2,其中 y = r ( 0 ) y=r(0) y=r(0). 我们有 ∇ f ( x ) = J T ( J x − y ) , ∇ 2 f ( x ) = J T J . \nabla f(x)=J^T(Jx-y),\quad \nabla^2f(x)=J^TJ. f(x)=JT(Jxy),2f(x)=JTJ.(此时原本 ∇ 2 f ( x ) \nabla^2f(x) 2f(x)的第二项因 ∇ 2 r j = 0 , j = 1 , 2 , … , m \nabla^2r_j=0,j=1,2,\ldots,m 2rj=0,j=1,2,,m而不计.) 易知上述定义的 f ( x ) f(x) f(x)的——这对于一般的非线性问题并不必要. 因此, 任意满足 ∇ f ( x ∗ ) = 0 \nabla f(x^*)=0 f(x)=0 x ∗ x^* x均是 f f f的全局极小点. 这等价于 x ∗ x^* x必须满足如下线性方程组: J T J x ∗ = J T y . J^TJx^*=J^Ty. JTJx=JTy.这称作是对应于 f f f正规方程组.

对于无约束的线性最小二乘问题, 我们介绍三种主要的算法. 在讨论的过程中, 大部分时间我们均假设 m ≥ n m\ge n mn以及 J J J列满秩.

2.1 基于Cholesky分解的直接法

最直接的求解正规方程组的方法分以下三步:

  1. 计算系数矩阵 J T J J^TJ JTJ以及右端项 J T y J^Ty JTy;
  2. 计算对称矩阵 J T J J^TJ JTJ的Cholesky分解;
  3. 经前代、回代求得解 x ∗ x^* x.

这里, Cholesky分解 J T J = R ˉ T R ˉ J^TJ=\bar{R}^T\bar{R} JTJ=RˉTRˉ(其中 R ˉ \bar{R} Rˉ n × n n\times n n×n的上三角矩阵, 其对角元为正数) m ≥ n m\ge n mn J J J列满秩时必定存在. 此法在实际中被频繁使用且通常比较高效, 只是有一个重要的缺陷: J T J J^TJ JTJ的条件数为 J J J的条件数的平方. 由于一个问题计算解的相对误差通常与条件数成比例, 因此在求解精度上基于Cholesky分解的方法要逊于不增加条件数的方法. 特别地, 当 J J J足够病态, Cholesky分解便无法实施, 这是因为舍入误差可能导致分解过程中对角元出现负值.

2.2 基于QR分解的直接法

第二种方法基于对矩阵 J J J的QR分解. 由于正交变换保长, 所以 ∥ J x − y ∥ = ∥ Q T ( J x − y ) ∥ , \Vert Jx-y\Vert=\Vert Q^T(Jx-y)\Vert, Jxy=QT(Jxy),其中 Q Q Q为任意 m × m m\times m m×m的正交阵. 假设我们对 J J J有带列选主元的QR分解: J Π = Q [ R O ] = [ Q 1 Q 2 ] [ R O ] = Q 1 R , J\Pi=Q\begin{bmatrix}R\\O\end{bmatrix}=\begin{bmatrix}Q_1 & Q_2\end{bmatrix}\begin{bmatrix}R\\ O\end{bmatrix}=Q_1R, JΠ=Q[RO]=[Q1Q2][RO]=Q1R,其中

  • Π \Pi Π n × n n\times n n×n的排列矩阵(因此正交);
  • Q Q Q m × m m\times m m×m的正交阵;
  • Q 1 Q_1 Q1 Q Q Q的前 n n n列, Q 2 Q_2 Q2 Q Q Q的后 m − n m-n mn列;
  • R R R为对角元为正的 n × n n\times n n×n上三角阵;

因此我们有 ∥ J x − y ∥ 2 2 = ∥ [ Q 1 T Q 2 T ] ( J Π Π T x − y ) ∥ 2 2 = ∥ [ R O ] ( Π T x ) − [ Q 1 T y Q 2 T y ] ∥ 2 = ∥ R ( Π T x ) − Q 1 T y ∥ 2 2 + ∥ Q 2 T y ∥ 2 . \begin{aligned}\Vert Jx-y\Vert_2^2&=\left\Vert\begin{bmatrix}Q_1^T\\Q_2^T\end{bmatrix}(J\Pi\Pi^Tx-y)\right\Vert_2^2\\&=\left\Vert\begin{bmatrix}R\\O\end{bmatrix}(\Pi^Tx)-\begin{bmatrix}Q_1^Ty\\Q_2^Ty\end{bmatrix}\right\Vert^2\\&=\Vert R(\Pi^Tx)-Q_1^Ty\Vert_2^2+\Vert Q_2^Ty\Vert^2.\end{aligned} Jxy22=[Q1TQ2T](JΠΠTxy)22=[RO](ΠTx)[Q1TyQ2Ty]2=R(ΠTx)Q1Ty22+Q2Ty2.对于上面的第二项我们无能为力, 不过我们可以把第一项消成0, 即令 x ∗ = Π R − 1 Q 1 T y . x^*=\Pi R^{-1}Q_1^Ty. x=ΠR1Q1Ty.(实际操作时, 我们先回代求解 R z = Q 1 T y Rz=Q_1^Ty Rz=Q1Ty, 再排列 z z z的元素得到 x ∗ = Π z x^*=\Pi z x=Πz.)

基于QR分解的直接法并不会恶化问题的条件数, 最终计算解 x ∗ x^* x上的相对误差通常是与 J J J的条件数成比例, 而不是其平方, 从而我们可以说这种方法(相较于第一种方法)是数值稳定的.

2.3 基于奇异值分解(SVD)的直接法

在一些特殊情形下, 我们要求解对数据 ( J , y ) (J,y) (J,y)上的扰动更加鲁棒. 此时基于 J J J的SVD的方法就可派上用场. 矩阵 J J J的SVD为: J = U [ S O ] V T = [ U 1 U 2 ] [ S O ] V T = U 1 S V T , J=U\begin{bmatrix}S\\O\end{bmatrix}V^T=\begin{bmatrix}U_1&U_2\end{bmatrix}\begin{bmatrix}S\\O\end{bmatrix}V^T=U_1SV^T, J=U[SO]VT=[U1U2][SO]VT=U1SVT,其中

  • U U U m × m m\times m m×m的正交阵;
  • U 1 U_1 U1 U U U的前 n n n列, U 2 U_2 U2 U U U的后 m − n m-n mn列;
  • V V V n × n n\times n n×n的正交阵;
  • S S S n × n n\times n n×n对角阵, 其中对角元 σ 1 ≥ σ 2 ≥ ⋯ ≥ σ n > 0 \sigma_1\ge\sigma_2\ge\cdots\ge\sigma_n>0 σ1σ2σn>0.

(注意 J T J = V S 2 V T J^TJ=VS^2V^T JTJ=VS2VT, 因此 V V V的列就是 J T J J^TJ JTJ的对应于奇异值 σ j 2 , j = 1 , 2 , … , n \sigma_j^2,j=1,2,\ldots,n σj2,j=1,2,,n的特征向量.) 类似地我们有 ∥ J x − y ∥ 2 = ∥ [ S O ] ( V T x ) − [ U 1 T U 2 T ] y ∥ 2 = ∥ S ( V T x ) − U 1 T y ∥ 2 + ∥ U 2 T y ∥ 2 . \begin{aligned}\Vert Jx-y\Vert^2&=\left\Vert\begin{bmatrix}S\\O\end{bmatrix}(V^Tx)-\begin{bmatrix}U_1^T\\U_2^T\end{bmatrix}y\right\Vert^2\\&=\Vert S(V^Tx)-U_1^Ty\Vert^2+\Vert U_2^Ty\Vert^2.\end{aligned} Jxy2=[SO](VTx)[U1TU2T]y2=S(VTx)U1Ty2+U2Ty2.我们令第一项为0, 即有 x ∗ = V S − 1 U 1 T y . x^*=VS^{-1}U_1^Ty. x=VS1U1Ty.进一步地, 以 u i ∈ R m , v i ∈ R n u_i\in\mathbb{R}^m,v_i\in\mathbb{R}^n uiRm,viRn分别表示 U , V U,V U,V的第 i i i列, 我们有 x ∗ = ∑ i = 1 n u i T y σ i v i . x^*=\sum_{i=1}^n\frac{u_i^Ty}{\sigma_i}v_i. x=i=1nσiuiTyvi.这一公式给予了我们关于 x ∗ x^* x敏度的丰富的信息: 当 σ i \sigma_i σi很小, x ∗ x^* x对于 y y y中(以及 J J J中)影响 u i T y u_i^Ty uiTy的部分就非常敏感. 这些信息在 J J J几近亏秩时尤其有用, 也就是说当 σ n / σ 1 ≪ 1 \sigma_n/\sigma_1\ll1 σn/σ11时. 我们可以适当地采取一些防护措施避免数值上的不稳定. 有时以SVD的高昂计算量换取这些有效信息是值当的.

2.4 三种方法的讨论

以上三种方法均有它们的适用情形.

  • 基于Cholesky分解的算法尤其适用于 m ≫ n m\gg n mn的情形, 此时储存 J T J J^TJ JTJ(而不仅仅是 J J J)是可以接受的. 当 m ≫ n m\gg n mn J J J稀疏时, 其计算量也并不大. 然而此法 J J J亏秩或病态时必须经过修正, 以允许在 J T J J^TJ JTJ的对角元上选主元.
  • 基于QR分解的算法避免了条件数的爆发, 因此更加数值稳定.
  • 基于SVD的算法尽管计算昂贵, 但确实最鲁棒也是最可靠的. 当 J J J亏秩时, 一些奇异值 σ i \sigma_i σi为0, 此时任一具有以下形式 x ∗ = ∑ σ i ≠ 0 u i T y σ i v i + ∑ σ i = 0 τ i v i x^*=\sum_{\sigma_i\ne0}\frac{u_i^Ty}{\sigma_i}v_i+\sum_{\sigma_i=0}\tau_iv_i x=σi̸=0σiuiTyvi+σi=0τivi(系数 τ i \tau_i τi任意)的 x ∗ x^* x均是问题的极小点. 通常我们最希望得到具有最小范数的解, 此时就令 τ i = 0 \tau_i=0 τi=0即可. 当 J J J列满秩但病态时, 最后几个奇异值 σ n , σ n − 1 , … \sigma_n,\sigma_{n-1},\ldots σn,σn1,相对于 σ 1 \sigma_1 σ1较小. 在 σ i \sigma_i σi较小时, 系数 u i T y / σ i u_i^Ty/\sigma_i uiTy/σi u i T y u_i^Ty uiTy中的扰动尤其敏感. 因此我们可以直接忽略对那些敏感项的求和得到更加稳定的近似解.
  • 当问题规模较大时, 使用迭代法求解正规方程组将更加高效, 例如共轭梯度法. 最直接的共轭梯度法的一次迭代仅需一次矩阵 ( J T J ) (J^TJ) (JTJ)-向量乘积. 这一步可通过接连与 J , J T J,J^T J,JT相乘得到. 至今已有许多共轭梯度法的修正版本, 它们的单步计算量并无大变, 但却具有更优越的数值性质. 例如Paige和Saunders提出的称为是LSQR的算法.

3. 求解非线性最小二乘问题的算法

3.1 Gauss-Newton法

3.1.1 Gauss-Newton法介绍

下面我们介绍目标函数非线性的情形. 我们将充分挖掘梯度 ∇ f \nabla f f和Hessian矩阵 ∇ 2 f \nabla^2f 2f结构. 这其中最简单的算法——Gauss-Newton法——可视为线搜索框架下的修正牛顿法. 我们并不求解标准的牛顿方程 ∇ 2 f ( x k ) p = − ∇ f ( x k ) \nabla^2f(x_k)p=-\nabla f(x_k) 2f(xk)p=f(xk), 转而求解 J k T J k p k G N = − J k T r k J_k^TJ_kp_k^{\mathrm{GN}}=-J_k^Tr_k JkTJkpkGN=JkTrk获得相应的搜索方向 p k G N p_k^{\mathrm{GN}} pkGN. 这一简单的改动带来了许多好处:

  1. ∇ 2 f k ≈ J k T J k \nabla^2f_k\approx J_k^TJ_k 2fkJkTJk的近似省去了我们计算每个残差的Hessian ∇ 2 r j , j = 1 , 2 , … , m \nabla^2r_j,j=1,2,\ldots,m 2rj,j=1,2,,m的功夫. 事实上, 若我们在计算梯度 ∇ f k = J k T r k \nabla f_k=J_k^Tr_k fk=JkTrk的过程中就已经计算了Jacobi矩阵 J k J_k Jk的话, 这一近似是根本不会牵涉到任何的导数计算的. 这在某些应用上可以节省大量的计算时间.
  2. 实际上我们经常看到第一项 J T J J^TJ JTJ(相对于第二项)占主的场景(当然这得离解 x ∗ x^* x足够近), 从而近似是得当的, Gauss-Newton法的收敛速度也并不会逊于Newton法太多. 具体说, 比如第二项中每一小项的范数(即 ∣ r j ( x ) ∣ ∥ ∇ 2 r j ( x ) ∥ |r_j(x)|\Vert\nabla^2r_j(x)\Vert rj(x)2rj(x))比 J T J J^TJ JTJ的特征值要小得多. 在之前我们提到一种情形: 当残差 r j r_j rj较小或者它们近似于线性时. 实际中, 许多最小二乘问题在解附近均有较小的残差, 从而保证了Gauss-Newton法的收敛速度.
  3. 只要 J k J_k Jk列满秩以及梯度 ∇ f k \nabla f_k fk非零, 得到的方向 p k G N p_k^{\mathrm{GN}} pkGN就是下降方向, 从而可用于线搜索中. 事实上, ( p k G N ) T ∇ f k = ( p k G N ) T J k T r k = − ( p k G N ) T J k T J k p k G N = − ∥ J k p k G N ∥ 2 ≤ 0. (p_k^{\mathrm{GN}})^T\nabla f_k=(p_k^{\mathrm{GN}})^TJ_k^Tr_k=-(p_k^{\mathrm{GN}})^TJ_k^TJ_kp_k^{\mathrm{GN}}=-\Vert J_kp_k^{\mathrm{GN}}\Vert^2\le0. (pkGN)Tfk=(pkGN)TJkTrk=(pkGN)TJkTJkpkGN=JkpkGN20.其中最后一个不等式只有在 J k p k G N = 0 J_kp_k^{\mathrm{GN}}=0 JkpkGN=0的时候取等, 此时也应当有 J k T r k = ∇ f k = 0 J_k^Tr_k=\nabla f_k=0 JkTrk=fk=0. 这就是说 x k x_k xk已经是个稳定点了.
  4. Gauss-Newton法所解的方程与线性情形的正规方程方程有一定的相似度. 具体说来, p k G N p_k^{\mathrm{GN}} pkGN可以看做是(也实际上就是)以下线性最小二乘问题的解: min ⁡ p 1 2 ∥ J k p + r k ∥ 2 . \min_p\frac{1}{2}\Vert J_kp+r_k\Vert^2. pmin21Jkp+rk2.因此, 我们可以用求解线性最小二乘问题的算法求解以上子问题. 进一步, 若我们使用基于QR分解或SVD的算法, 我们甚至不需要显式地计算出Hessian的近似 J k T J k J_k^TJ_k JkTJk. 若使用共轭梯度法也是一样: 我们只需计算矩阵 J k T J k J_k^TJ_k JkTJk-向量乘积, 而这一步可以通过先后对 J k , J k T J_k,J_k^T Jk,JkT操作得到.
  5. 大规模情形. 若残差的数量 m m m很大而变量数 n n n相对较小, 此时显式地存储 J J J似乎就显得不太符合情理. 不过我们可以通过连续计算 r j , ∇ r j , j = 1 , 2 , … , m r_j,\nabla r_j,j=1,2,\ldots,m rj,rj,j=1,2,,m再求和得到: J T J = ∑ j = 1 m ( ∇ r j ) ( ∇ r j ) T , J T r = ∑ j = 1 m r j ( ∇ r j ) . J^TJ=\sum_{j=1}^m(\nabla r_j)(\nabla r_j)^T,\quad J^Tr=\sum_{j=1}^mr_j(\nabla r_j). JTJ=j=1m(rj)(rj)T,JTr=j=1mrj(rj).
    以上子问题还启发我们给出得到Gauss-Newton法的另外一种途径. 我们利用Taylor展开得到向量值函数的近似 r ( x k + p ) ≈ r k + J k p r(x_k+p)\approx r_k+J_kp r(xk+p)rk+Jkp. 因此 f ( x k + p ) = 1 2 ∥ r ( x k + p ) ∥ 2 ≈ 1 2 ∥ J k p + r k ∥ 2 , f(x_k+p)=\frac{1}{2}\Vert r(x_k+p)\Vert^2\approx\frac{1}{2}\Vert J_kp+r_k\Vert^2, f(xk+p)=21r(xk+p)221Jkp+rk2,再选取 p k G N p_k^{\mathrm{GN}} pkGN作为这一近似模型的极小点.

Gauss-Newton法的实施通常需要沿着 p k G N p_k^{\mathrm{GN}} pkGN做线搜索, 这其中需要步长参数 α k \alpha_k αk满足第三章中提到的条件, 例如Armijo条件、Wolfe条件.

3.1.2 Gauss-Newton法的收敛性

第三章中的理论可以用于研究Gauss-Newton法的收敛性质. 我们将利用Zoutendijk定理, 证明在假定Jacobi矩阵 J ( x ) J(x) J(x)(这里的 x x x落在需要研究的区域内)的所有奇异值一致远离(uniformly bounded away)0, 即 ∃ γ > 0 \exists\gamma>0 γ>0使得$ ∥ J ( x ) z ∥ ≥ γ ∥ z ∥ , ∀ x ∈ N \Vert J(x)z\Vert\ge\gamma\Vert z\Vert,\quad\forall x\in\mathcal{N} J(x)zγz,xN时(其中 N \mathcal{N} N为水平集 L = { x ∣ f ( x ) ≤ f ( x 0 ) } \mathcal{L}=\{x|f(x)\le f(x_0)\} L={xf(x)f(x0)}的一个邻域, 这里 x 0 x_0 x0为算法初始点. 我们称之为一致满秩条件), Gauss-Newton法的全局收敛性质. 本章从这里开始假设 L \mathcal{L} L是有界的.

定理1 设每个残差函数 r j r_j rj在水平集的一个邻域 N \mathcal{N} N内Lipschitz连续可微, Jacobi矩阵 J ( x ) J(x) J(x) N \mathcal{N} N上满足一致满秩条件. 则由Gauss-Newton法产生的迭代序列 { x k } \{x_k\} {xk}(其中步长参数 α k \alpha_k αk满足Wolfe条件)成立 lim ⁡ k → ∞ J k T r k = 0. \lim_{k\to\infty}J_k^Tr_k=0. klimJkTrk=0.
证明: 首先注意有界水平集 L \mathcal{L} L的邻域可以选取得足够小使得对正常数 L , β L,\beta L,β成立以下不等式: ∣ r j ( x ) ∣ ≤ β , ∥ ∇ r j ( x ) ∥ ≤ β , |r_j(x)|\le\beta,\quad\Vert\nabla r_j(x)\Vert\le\beta, rj(x)β,rj(x)β, ∣ r j ( x ) − r j ( x ~ ) ∣ ≤ L ∥ x − x ~ ∥ , ∥ ∇ r j ( x ) − ∇ r j ( x ~ ) ∥ ≤ L ∥ x − x ~ ∥ , ∀ x , x ~ ∈ N , |r_j(x)-r_j(\tilde{x})|\le L\Vert x-\tilde{x}\Vert,\quad \Vert\nabla r_j(x)-\nabla r_j(\tilde{x})\Vert\le L\Vert x-\tilde{x}\Vert, \quad \forall x,\tilde{x}\in\mathcal{N}, rj(x)rj(x~)Lxx~,rj(x)rj(x~)Lxx~,x,x~N, j = 1 , 2 , … , m . j=1,2,\ldots,m. j=1,2,,m.易知存在常数 β ˉ > 0 \bar{\beta}>0 βˉ>0使得 ∥ J ( x ) T ∥ = ∥ J ( x ) ∥ ≤ β ˉ , ∀ x ∈ L \Vert J(x)^T\Vert=\Vert J(x)\Vert\le\bar{\beta},\forall x\in\mathcal{L} J(x)T=J(x)βˉ,xL, 以及由于 ∇ f ( x ) = ∑ j = 1 m r j ( x ) ∇ r j ( x ) \nabla f(x)=\sum_{j=1}^mr_j(x)\nabla r_j(x) f(x)=j=1mrj(x)rj(x), 从而 ∇ f \nabla f f是Lipschitz连续的. 因此Zoutendijk定理的条件满足.
下面我们验证搜索方向 p k G N p_k^{\mathrm{GN}} pkGN和负梯度 − ∇ f k -\nabla f_k fk的夹角 θ k \theta_k θk一致远离 π / 2 \pi/2 π/2. 事实上, cos ⁡ θ k = − ( ∇ f ) T p G N ∥ p G N ∥ ∥ ∇ f ∥ = ∥ J p G N ∥ 2 ∥ p G N ∥ ∥ J T J p G N ∥ ≥ γ 2 ∥ p G N ∥ 2 β ˉ 2 ∥ p G N ∥ 2 = γ 2 β ˉ 2 > 0. \cos\theta_k=-\frac{(\nabla f)^Tp^{\mathrm{GN}}}{\Vert p^{\mathrm{GN}}\Vert\Vert\nabla f\Vert}=\frac{\Vert Jp^{\mathrm{GN}}\Vert^2}{\Vert p^{\mathrm{GN}}\Vert\Vert J^TJp^{\mathrm{GN}}\Vert}\ge\frac{\gamma^2\Vert p^{\mathrm{GN}}\Vert^2}{\bar{\beta}^2\Vert p^{\mathrm{GN}}\Vert^2}=\frac{\gamma^2}{\bar{\beta}^2}>0. cosθk=pGNf(f)TpGN=pGNJTJpGNJpGN2βˉ2pGN2γ2pGN2=βˉ2γ2>0.由Zoutendijk定理知 ∇ f ( x k ) → 0 \nabla f(x_k)\to 0 f(xk)0, 得证.

J k J_k Jk(对某个 k k k)亏秩, 此时一致满秩条件不成立, 系数矩阵 J k T J k J_k^TJ_k JkTJk是奇异的. J k T J k p = − J k T r k J_k^TJ_kp=-J_k^Tr_k JkTJkp=JkTrk仍然有解, 不过有无穷多解, 其中每个都具有形式 p = ∑ σ i ≠ 0 − u i T r k σ i v i + ∑ σ i = 0 τ i v i , p=\sum_{\sigma_i\ne0}-\frac{u_i^Tr_k}{\sigma_i}v_i+\sum_{\sigma_i=0}\tau_iv_i, p=σi̸=0σiuiTrkvi+σi=0τivi,这里 τ i \tau_i τi任意. 但这样一来我们便无法保证 cos ⁡ θ k \cos\theta_k cosθk一致远离0, 从而得不到如定理1一般的全局收敛性.

J k T J k J_k^TJ_k JkTJk(相对第二项而言)占主时, Gauss-Newton法向解 x ∗ x^* x收敛速度可以很快. 假设 x k x_k xk距离 x ∗ x^* x充分近, 且Jacobi矩阵 J ( x ) J(x) J(x)满足一致满秩条件. 类似于牛顿法的分析, 对于单位步长的Gauss-Newton步, 我们有 x k + p k G N − x ∗ = x k − x ∗ − [ J T J ( x k ) ] − 1 ∇ f ( x k ) = [ J T J ( x k ) ] − 1 [ J T J ( x k ) ( x k − x ∗ ) + ∇ f ( x ∗ ) − ∇ f ( x k ) ] , \begin{aligned}x_k+p_k^{\mathrm{GN}}-x^*&=x_k-x^*-[J^TJ(x_k)]^{-1}\nabla f(x_k)\\&=[J^TJ(x_k)]^{-1}[J^TJ(x_k)(x_k-x^*)+\nabla f(x^*)-\nabla f(x_k)],\end{aligned} xk+pkGNx=xkx[JTJ(xk)]1f(xk)=[JTJ(xk)]1[JTJ(xk)(xkx)+f(x)f(xk)],这里 J T J ( x ) J^TJ(x) JTJ(x) J ( x ) T J ( x ) J(x)^TJ(x) J(x)TJ(x)的简写. 以 H ( x ) H(x) H(x)表示 ∇ 2 f ( x ) \nabla^2f(x) 2f(x)表达式中的二阶项, 由Taylor定理可知 ∇ f ( x k ) − ∇ f ( x ∗ ) = ∫ 0 1 J T J ( x ∗ + t ( x k − x ∗ ) ) ( x k − x ∗ )   d t + ∫ 0 1 H ( x ∗ + t ( x k − x ∗ ) ) ( x k − x ∗ )   d t . \begin{aligned}\nabla f(x_k)-\nabla f(x^*)&=\int_0^1J^TJ(x^*+t(x_k-x^*))(x_k-x^*)\,\mathrm{d}t\\&+\int_0^1H(x^*+t(x_k-x^*))(x_k-x^*)\,\mathrm{d}t.\end{aligned} f(xk)f(x)=01JTJ(x+t(xkx))(xkx)dt+01H(x+t(xkx))(xkx)dt.假定 J J J x ∗ x^* x附近有Lipschitz连续性, 则 ∥ x k + p k G N − x ∗ ∥ ≤ ∫ 0 1 ∥ [ J T J ( x k ) ] − 1 H ( x ∗ + t ( x k − x ∗ ) ) ∥ ∥ x k − x ∗ ∥   d t + O ( ∥ x k − x ∗ ∥ 2 ) ≈ ∥ [ J T J ( x ∗ ) ] − 1 H ( x ∗ ) ∥ ∥ x k − x ∗ ∥ + O ( ∥ x k − x ∗ ∥ 2 ) . \begin{aligned}\Vert x_k+p_k^{\mathrm{GN}}-x^*\Vert&\le\int_0^1\Vert[J^TJ(x_k)]^{-1}H(x^*+t(x_k-x^*))\Vert\Vert x_k-x^*\Vert\,\mathrm{d}t+O(\Vert x_k-x^*\Vert^2)\\&\approx\Vert[J^TJ(x^*)]^{-1}H(x^*)\Vert\Vert x_k-x^*\Vert+O(\Vert x_k-x^*\Vert^2).\end{aligned} xk+pkGNx01[JTJ(xk)]1H(x+t(xkx))xkxdt+O(xkx2)[JTJ(x)]1H(x)xkx+O(xkx2).因此, 若 ∥ [ J T J ( x ∗ ) ] − 1 H ( x ∗ ) ∥ ≪ 1 \Vert[J^TJ(x^*)]^{-1}H(x^*)\Vert\ll1 [JTJ(x)]1H(x)1, 单位步长的Gauss-Newton步的效果就很好, 从而有较好的收敛性. 特别当 H ( x ∗ ) = O H(x^*)=O H(x)=O(当残差为线性时), 就有二次收敛性.
而当 n , m n,m n,m都很大且Jacobi矩阵 J ( x ) J(x) J(x)稀疏时, 每步迭代通过分解 J k J_k Jk J k T J k J_k^TJ_k JkTJk精确计算步长的代价(相较于计算函数和梯度值)就会非常大. 基于此, 我们可以构造类似于第七章中非精确牛顿法的Gauss-Newton法的不精确变体. 在这些方法中, 我们直接以 J k T J k J_k^TJ_k JkTJk代替Hessian ∇ 2 f ( x k ) \nabla^2f(x_k) 2f(xk). 与之前相同, 这一半正定近似简化了算法的许多方面.

3.2 Levenberg-Marquardt法

3.2.1 Levenberg-Marquardt法介绍

3.1中介绍的Gauss-Newton法其实就是线搜索框架下的牛顿法. 唯一的区别在于, 对Hessian我们充分挖掘了问题的内在结构, 使用了更加便利与高效的近似方式. Levenberg-Marquardt法也可用同样的Hessian近似得到, 不同在于它嵌入的是信赖域的框架. 信赖域的使用避免了Gauss-Newton法的一个缺陷, 即当Jacobi矩阵 J ( x ) J(x) J(x)(接近)亏秩时往往效果不好. 由于二者使用相同的Hessian近似, 因此它们的收敛性质也是相似的.
Levenberg-Marquardt法可用第四章信赖域的框架阐明与分析. (事实上, Levenberg-Marquardt法有时也被视为是一般无约束优化信赖域算法的前身.) 我们选取球形的信赖域, 此时每步迭代的子问题为 min ⁡ p 1 2 ∥ J k p + r k ∥ 2 , s . t . &ThinSpace; ∥ p ∥ ≤ Δ k , \min_p\frac{1}{2}\Vert J_kp+r_k\Vert^2,\quad \mathrm{s.t.\,}\Vert p\Vert\le\Delta_k, pmin21Jkp+rk2,s.t.pΔk,其中 Δ k &gt; 0 \Delta_k&gt;0 Δk>0为信赖域半径. 事实上, 我们选取的模型函数为 m k ( p ) = 1 2 ∥ r k ∥ 2 + p T J k T r k + 1 2 p T J k T J k p . m_k(p)=\frac{1}{2}\Vert r_k\Vert^2+p^TJ_k^Tr_k+\frac{1}{2}p^TJ_k^TJ_kp. mk(p)=21rk2+pTJkTrk+21pTJkTJkp.下面的讨论中我们省去迭代指标 k k k. 第四章的结论让我们对以上子问题的解有了如下的了解: 当Gauss-Newton法的 p G N p^{\mathrm{GN}} pGN严格落在信赖域中(即 ∥ p G N ∥ &lt; Δ \Vert p^{\mathrm{GN}}\Vert&lt;\Delta pGN<Δ)时, 此步 p G N p^{\mathrm{GN}} pGN也是子问题的解; 否则, 存在 λ &gt; 0 \lambda&gt;0 λ>0使得解 p = p L M p=p^{\mathrm{LM}} p=pLM满足 ∥ p ∥ = Δ \Vert p\Vert=\Delta p=Δ以及 ( J T J + λ I ) p = − J T r . (J^TJ+\lambda I)p=-J^Tr. (JTJ+λI)p=JTr.注意 J T J J^TJ JTJ本身半正定以及 λ ≥ 0 \lambda\ge0 λ0保证了第四章中结论中的半正定性. 这就是下面的引理.

引理2 p L M p^{\mathrm{LM}} pLM为信赖域子问题 min ⁡ p ∥ J p + r ∥ 2 , s . t . &ThinSpace; ∥ p ∥ ≤ Δ \min_p\Vert Jp+r\Vert^2,\quad\mathrm{s.t.\,}\Vert p\Vert\le\Delta pminJp+r2,s.t.pΔ的解当且仅当 p L M p^{\mathrm{LM}} pLM可行且存在标量 λ ≥ 0 \lambda\ge0 λ0使得 ( J T J + λ I ) p L M = − J T r , λ ( Δ − ∥ p L M ∥ ) = 0. \begin{aligned}(J^TJ+\lambda I)p^{\mathrm{LM}}&amp;=-J^Tr,\\\lambda(\Delta-\Vert p^{\mathrm{LM}}\Vert)&amp;=0.\end{aligned} (JTJ+λI)pLMλ(ΔpLM)=JTr,=0.

求解方程 ( J T J + λ I ) p = − J T r (J^TJ+\lambda I)p=-J^Tr (JTJ+λI)p=JTr实际上等价于求解以下线性最小二乘问题 min ⁡ p 1 2 ∥ [ J λ I ] p + [ r O ] ∥ 2 . \min_p\frac{1}{2}\left\Vert\begin{bmatrix}J\\\sqrt{\lambda}I\end{bmatrix}p+\begin{bmatrix}r\\O\end{bmatrix}\right\Vert^2. pmin21[Jλ I]p+[rO]2.如同Gauss-Newton法中所说明, 这一等价性使我们不计算矩阵-矩阵乘积 J T J J^TJ JTJ以及其Cholesky分解, 就可求解子问题.

3.2.2 Levenberg-Marquardt法的实施
  1. 关于Cholesky分解.
    为求得引理2中的 λ \lambda λ, 我们可以使用第四章中的求根算法. 这一过程是良好的: 只要当前的估计 λ ( l ) \lambda^{(l)} λ(l)为正, Cholesky因子 R R R就一定存在. 由 B = J T J B=J^TJ B=JTJ的特殊结构, 我们无需每步重新计算 B + λ I B+\lambda I B+λI的Cholesky分解.

    我们先来关注如何高效地求得系数矩阵 [ J λ I ] \begin{bmatrix}J\\\sqrt{\lambda}I\end{bmatrix} [Jλ I]的QR分解: [ R λ O ] = Q λ T [ J λ I ] , \begin{bmatrix}R_{\lambda}\\O\end{bmatrix}=Q_{\lambda}^T\begin{bmatrix}J\\\sqrt{\lambda}I\end{bmatrix}, [RλO]=QλT[Jλ I],其中 Q λ Q_{\lambda} Qλ正交, R λ R_{\lambda} Rλ上三角. 易知, R λ R_{\lambda} Rλ即满足 R λ T R λ = ( J T J + λ I ) R_{\lambda}^TR_{\lambda}=(J^TJ+\lambda I) RλTRλ=(JTJ+λI).

    我们可以组合使用Householder变换Givens变换以节省QR分解的计算时间. 假定我们使用Householder变换单独计算了 J J J的QR分解 J = Q [ R O ] . J=Q\begin{bmatrix}R\\O\end{bmatrix}. J=Q[RO].于是我们有 [ R O λ I ] = [ Q T I ] [ J λ I ] . \begin{bmatrix}R\\O\\\sqrt{\lambda}I\end{bmatrix}=\begin{bmatrix}Q^T&amp;\\&amp; I\end{bmatrix}\begin{bmatrix}J\\\sqrt{\lambda}I\end{bmatrix}. ROλ I=[QTI][Jλ I].上式左端的矩阵的上半部分为上三角矩阵, 下半部分则包括 n n n个非零项. 因此左端矩阵可用 n ( n + 1 ) / 2 n(n+1)/2 n(n+1)/2次Givens变换化为上三角阵(这里的计数包括了消除旋转过程中产生填充的过程). 具体说来, 头几步为:

    1. 旋转 R R R的第 n n n行与 λ I \sqrt{\lambda}I λ I的第 n n n行, 消去 λ I \sqrt{\lambda}I λ I ( n , n ) (n,n) (n,n)元;
    2. 旋转 R R R的第 n − 1 n-1 n1行与 λ I \sqrt{\lambda}I λ I的第 n − 1 n-1 n1行, 消去 λ I \sqrt{\lambda}I λ I ( n − 1 , n − 1 ) (n-1,n-1) (n1,n1)元. 这一步旋转会产生 λ I \sqrt{\lambda}I λ I ( n − 1 , n ) (n-1,n) (n1,n)位置上的填充, 而这可通过旋转 R R R的第 n n n行与 λ I \sqrt{\lambda}I λ I的第 n − 1 n-1 n1行消去;
    3. 旋转 R R R的第 n − 2 n-2 n2行与 λ I \sqrt{\lambda}I λ I的第 n − 2 n-2 n2行, 消去 λ I \sqrt{\lambda}I λ I ( n − 2 , n − 2 ) (n-2,n-2) (n2,n2)元. 这一步旋转会产生 λ I \sqrt{\lambda}I λ I ( n − 2 , n − 1 ) , ( n − 2 , n ) (n-2,n-1),(n-2,n) (n2,n1),(n2,n)位置上的填充, 而这可通过先后旋转 R R R的第 n − 1 n-1 n1行与 λ I \sqrt{\lambda}I λ I的第 n − 2 n-2 n2行、 R R R的第 n n n行与 λ I \sqrt{\lambda}I λ I的第 n − 2 n-2 n2行消去.

    依此类推. 若将所有的Givens变换汇成一个矩阵 Q ˉ λ \bar{Q}_{\lambda} Qˉλ, 我们就有 Q ˉ λ T [ R O λ I ] = [ R λ O O ] , \bar{Q}_{\lambda}^T\begin{bmatrix}R\\O\\\sqrt{\lambda}I\end{bmatrix}=\begin{bmatrix}R_{\lambda}\\O\\O\end{bmatrix}, QˉλTROλ I=RλOO,因此前面的正交矩阵 Q λ Q_{\lambda} Qλ就是 Q λ = [ Q I ] Q ˉ λ . Q_{\lambda}=\begin{bmatrix}Q&amp;\\&amp;I\end{bmatrix}\bar{Q}_{\lambda}. Qλ=[QI]Qˉλ.这一方法的优点在于, 当我们在求根时会改变 λ \lambda λ的值, 而这样我们就只需要再计算 Q ˉ λ \bar{Q}_{\lambda} Qˉλ而无需再管Householder变换的部分. 这在 m ≫ n m\gg n mn时可以节省很多的计算量: 对 λ \lambda λ计算 Q ˉ λ \bar{Q}_{\lambda} Qˉλ R λ R_{\lambda} Rλ仅需 O ( n 3 ) O(n^3) O(n3)次运算, 而计算 Q Q Q则需 O ( m n 2 ) O(mn^2) O(mn2)次运算.

  2. 尺度变换.
    最小二乘问题往往尺度较为恶性, 比如一些变量可能会达 1 0 4 10^4 104量阶, 而其他的一些又会小到 1 0 − 6 10^{-6} 106. 若我们忽略如此巨大的差距, 算法就会不稳定或者产生一些不好的解. 一种减缓尺度带来的问题的途径是, 选取适当的椭球型信赖域代替上述的球形信赖域. 此时信赖域子问题变为: min ⁡ p 1 2 ∥ J k p + r k ∥ 2 , s . t . &ThinSpace; ∥ D k p ∥ ≤ Δ k , \min_p\frac{1}{2}\Vert J_kp+r_k\Vert^2,\quad \mathrm{s.t.\,}\Vert D_kp\Vert\le\Delta_k, pmin21Jkp+rk2,s.t.DkpΔk,其中 D k D_k Dk为对角元为正的对角阵. 相应地, 解满足 ( J k T J k + λ D k 2 ) p k L M = − J k T r k , (J_k^TJ_k+\lambda D_k^2)p_k^{\mathrm{LM}}=-J_k^Tr_k, (JkTJk+λDk2)pkLM=JkTrk,这又等价于求解下面的线性最小二乘问题 min ⁡ p ∥ [ J k λ D k ] p + [ r k O ] ∥ 2 . \min_p\left\Vert\begin{bmatrix}J_k\\\sqrt{\lambda}D_k\end{bmatrix}p+\begin{bmatrix}r_k\\O\end{bmatrix}\right\Vert^2. pmin[Jkλ Dk]p+[rkO]2.这里对角阵 D k D_k Dk可随迭代改变, 其依据为 x x x的每个分量的典型范围信息. 若变动在一定范围内, 则球形情形的收敛理论就仍然适用, 其中仅需稍微做些修正. 进一步地, 以上计算 R λ R_{\lambda} Rλ的步骤无需改动. Seber与Wild表示可以选取 D k 2 D_k^2 Dk2 J k T J k J_k^TJ_k JkTJk的对角元, 从而使得算法在 x x x的对角尺度变换下不变. 这与第四章中缩放Hessian对角元的方法类似.

  3. 大规模问题.
    而对于 m , n m,n m,n都较大以及 J ( x ) J(x) J(x)稀疏的问题, 我们更倾向于使用第七章CG-Steihaug算法求解, 其中以 J k T J k J_k^TJ_k JkTJk代替真实的 ∇ 2 f k \nabla^2f_k 2fk. J k T J k J_k^TJ_k JkTJk的半正定性可用来简化算法, 这是因为原本算法中着重考虑的负曲率不会出现. 同时我们也不需要显式地去计算 J k T J k J_k^TJ_k JkTJk, 而是先后做两次矩阵-向量乘积.

3.2.3 Levenberg-Marquardt法的收敛性

为达全局收敛, 我们其实不必精确求解信赖域子问题. 下面的收敛性结果为第四章中定理的直接推论.

定理3 设信赖域算法中 η ∈ ( 0 , 1 4 ) \eta\in(0,\frac{1}{4}) η(0,41), 水平集 L \mathcal{L} L有界, 残差函数 r j ( ⋅ ) , j = 1 , 2 , … , m r_j(\cdot),j=1,2,\ldots,m rj(),j=1,2,,m L \mathcal{L} L的一个邻域 N \mathcal{N} N中Lipschitz连续可微. 假设对每个 k k k, 近似解 p k p_k pk满足不等式 m k ( 0 ) − m k ( p k ) ≥ c 1 ∥ J k T r k ∥ min ⁡ ( Δ k , ∥ J k T r k ∥ ∥ J k T J k ∥ ) , m_k(0)-m_k(p_k)\ge c_1\Vert J_k^Tr_k\Vert\min\left(\Delta_k,\frac{\Vert J_k^Tr_k\Vert}{\Vert J_k^TJ_k\Vert}\right), mk(0)mk(pk)c1JkTrkmin(Δk,JkTJkJkTrk),其中 c 1 &gt; 0 , ∥ p k ∥ ≤ γ Δ k , γ ≥ 1 c_1&gt;0,\Vert p_k\Vert\le\gamma\Delta_k,\gamma\ge1 c1>0,pkγΔk,γ1. 于是有 lim ⁡ k → ∞ ∇ f k = lim ⁡ k → ∞ J k T r k = 0. \lim_{k\to\infty}\nabla f_k=\lim_{k\to\infty}J_k^Tr_k=0. klimfk=klimJkTrk=0.

也如第四章, 我们不需精确地计算上面不等式右端项, 而仅需要求近似解 p k p_k pk给出的函数值下降不低于Cauchy点. 而Cauchy点可用第四章的方法方便地计算. 若使用迭代算法CG-Steihaug, 则不等式对 c 1 = 1 / 2 c_1=1/2 c1=1/2自动成立, 这是因为CG_Steihaug的 p k p_k pk第一步估计就是Cauchy点, 而后面的估计只可能会给出更小的函数值.

Levenberg-Marquardt法的局部收敛性质与Gauss-Newton法类似. 在解 x ∗ x^* x附近 ∇ 2 f ( x ∗ ) \nabla^2f(x^*) 2f(x)的第一项起主要作用, 此时信赖域约束不起作用, 算法将取Gauss-Newton步从而有较快的收敛速度.

3.3 大残差问题的算法

对于大残差的问题, 我们就不能再忽略 ∇ 2 f ( x ) \nabla^2f(x) 2f(x)的第二项了. 在数据拟合问题中, 大残差的出现可能就说明模型不适合数据或者是在观测时引入了较大的误差. 尽管如此, 我们仍需要利用当前的模型和数据求解最小二乘问题, 以提出在观测的赋权、模型建立或者数据收集过程中可以做出的改进.

在大残差问题中, Gauss-Newton法与Levenberg-Marquardt法的渐进收敛速度仅为线性——这要比一些求解一般无约束问题的算法(如牛顿法、拟牛顿法)慢. 若每个Hessian阵 ∇ 2 r j \nabla^2r_j 2rj容易计算, 我们不如忽略最小二乘而直接使用信赖域或线搜索框架下的牛顿法计算. 无需计算 ∇ 2 r j \nabla^2r_j 2rj拟牛顿法也是个选择. 不过话说回来, 牛顿法与拟牛顿法在迭代早期(即还未进入解的某个邻域)的表现可能并不如Gauss-Newton法与Levenberg-Marquardt法.

当然通常我们是没有问题是小的还是大残差的先验的. 因此, 使用混合算法就比较合理了. 具体说, 它们在残差较小时表现得像Gauss-Newton法或Levenberg-Marquardt法(从而也继承了相应的计算优势), 但在残差较大时转为牛顿法或拟牛顿法.

我们有很多构建混合算法的方式. 由Fletcher和Xu提出的一种方式需要保存一系列正定Hessian近似 B k B_k Bk:

  • 若由 x k x_k xk出发的Gauss-Newton步以一定的因子(如5)减小了函数值, 我们就采纳这一步并重写 B k B_k Bk J k T J k J_k^TJ_k JkTJk.
  • 否则, 使用 B k B_k Bk计算搜索方向, 并利用线搜索得到新点 x k + 1 x_{k+1} xk+1.

二者均以类似于BFGS更新公式的方式更新 B k B_k Bk得到 B k + 1 B_{k+1} Bk+1. 在零残差的情形, 这一策略最终总会采纳Gauss-Newton步(从而二次收敛); 在残差非零情形, 最终会约减为BFGS(从而超线性收敛).

第二种结合Gauss-Newton法与拟牛顿法的方式是仅保存Hessian二阶部分的近似. 也就是说, 我们保留矩阵列 { S k } \{S_k\} {Sk}近似 ∑ j = 1 m r j ( x k ) ∇ 2 r j ( x k ) \sum_{j=1}^mr_j(x_k)\nabla^2r_j(x_k) j=1mrj(xk)2rj(xk), 然后以之估计整个Hessian B k = J k T J k + S k , B_k=J_k^TJ_k+S_k, Bk=JkTJk+Sk,接着使用信赖域或线搜索计算 p k p_k pk. 对 S k S_k Sk的更新要求近似矩阵 B k B_k Bk或其组成部分能较好地模拟刚走完的那一步的特征. 更新公式则基于割线方程. 这里有许多不同的方式可以用来定义割线方程以及设计其他的条件得到 S k S_k Sk的更新公式. 下面我们介绍Dennis, Gay和Welsch的算法.
理想状态下, S k + 1 S_{k+1} Sk+1应当很接近于 x = x k + 1 x=x_{k+1} x=xk+1处的二阶项: S k + 1 ≈ ∑ j = 1 m r j ( x k + 1 ) ] ∇ 2 r j ( x k + 1 ) . S_{k+1}\approx\sum_{j=1}^mr_j(x_{k+1})]\nabla^2r_j(x_{k+1}). Sk+1j=1mrj(xk+1)]2rj(xk+1).我们不想计算右端的 ∇ 2 r j \nabla^2r_j 2rj, 因此我们可代之以某个近似 ( B j ) k + 1 (B_j)_{k+1} (Bj)k+1并在 ( B j ) k + 1 (B_j)_{k+1} (Bj)k+1上提些条件. 也即 ( B j ) k + 1 ( x k + 1 − x k ) = ∇ r j ( x k + 1 ) − ∇ r j ( x k ) = ( r o w &ThinSpace; j &ThinSpace; o f &ThinSpace; J ( x k + 1 ) ) T − ( r o w &ThinSpace; j &ThinSpace; o f &ThinSpace; J ( x k ) ) T . \begin{aligned}(B_j)_{k+1}(x_{k+1}-x_k)&amp;=\nabla r_j(x_{k+1})-\nabla r_j(x_k)\\&amp;=(\mathrm{row\,}j\mathrm{\,of\,}J(x_{k+1}))^T-(\mathrm{row\,}j\mathrm{\,of\,}J(x_k))^T.\end{aligned} (Bj)k+1(xk+1xk)=rj(xk+1)rj(xk)=(rowjofJ(xk+1))T(rowjofJ(xk))T.这一条件最终推出 S k + 1 S_{k+1} Sk+1上的割线方程: S k + 1 ( x k + 1 − x k ) = ∑ j = 1 m r j ( x k + 1 ) ( B j ) k + 1 ( x k + 1 − x k ) = ∑ j = 1 m r j ( x k + 1 ) [ ( r o w &ThinSpace; j &ThinSpace; o f &ThinSpace; J ( x k + 1 ) ) T − ( r o w &ThinSpace; j &ThinSpace; o f &ThinSpace; J ( x k ) ) T ] = J k + 1 T r k + 1 − J k T r k + 1 . \begin{aligned}S_{k+1}(x_{k+1}-x_k)&amp;=\sum_{j=1}^mr_j(x_{k+1})(B_j)_{k+1}(x_{k+1}-x_k)\\&amp;=\sum_{j=1}^mr_j(x_{k+1})[(\mathrm{row\,}j\mathrm{\,of\,}J(x_{k+1}))^T-(\mathrm{row\,}j\mathrm{\,of\,}J(x_k))^T]\\&amp;=J_{k+1}^Tr_{k+1}-J_k^Tr_{k+1}.\end{aligned} Sk+1(xk+1xk)=j=1mrj(xk+1)(Bj)k+1(xk+1xk)=j=1mrj(xk+1)[(rowjofJ(xk+1))T(rowjofJ(xk))T]=Jk+1Trk+1JkTrk+1.当然割线方程还不能完全决定 S k + 1 S_{k+1} Sk+1. Dennis, Gay和Welsch又要求 S k + 1 S_{k+1} Sk+1对称并且 S k + 1 − S k S_{k+1}-S_k Sk+1Sk要在某种意义下达到极小, 从而得到了下面的更新公式: S k + 1 = S k + ( y # − S k s ) y T + y ( y # − S k s ) T y T s − ( y # − S k s ) T s ( y T s ) 2 y y T , S_{k+1}=S_k+\frac{(y^\#-S_ks)y^T+y(y^\#-S_ks)^T}{y^Ts}-\frac{(y^\#-S_ks)^Ts}{(y^Ts)^2}yy^T, Sk+1=Sk+yTs(y#Sks)yT+y(y#Sks)T(yTs)2(y#Sks)TsyyT,其中 s = x k + 1 − x k , y = J k + 1 T r k + 1 − J k T r k , y # = J k + 1 T r k + 1 − J k T r k + 1 . \begin{aligned}s&amp;=x_{k+1}-x_k,\\y&amp;=J_{k+1}^Tr_{k+1}-J_k^Tr_k,\\y^\#&amp;=J_{k+1}^Tr_{k+1}-J_k^Tr_{k+1}.\end{aligned} syy#=xk+1xk,=Jk+1Trk+1JkTrk,=Jk+1Trk+1JkTrk+1.注意上述更新公式仅是DFP更新公式的微小改动版本. 若 y # , y y^\#,y y#,y相同, 则二者就完全一样了. Dennis, Gay和Welsch将他们的近似Hessian J k T J k + S k J_k^TJ_k+S_k JkTJk+Sk联合信赖域的框架使用, 不过其中需要加以更多的约束以提升表现. 其基本策略的一个缺陷在于, S k S_k Sk的更新策略并不保证当迭代点趋近一个零残差解时 S k S_k Sk会消失, 因此有时难以保证超线性收敛性. 这一问题可通过在 S k S_k Sk更新之前对其缩放避免: 我们以 τ k S k \tau_kS_k τkSk代替 S k S_k Sk, 其中 τ k = min ⁡ ( 1 , ∣ s T y # ∣ ∣ s T S k s ∣ ) . \tau_k=\min\left(1,\frac{|s^Ty^\#|}{|s^TS_ks|}\right). τk=min(1,sTSkssTy#).最后, 若Gauss-Newton法能产生较好的下降, 我们就应省去Hessian近似中的 S k S_k Sk.

4. 正交距离回归

在例1中我们假设在抽取血液样本的时间上不存在误差, 从而模型 ϕ ( x ; t j ) \phi(x;t_j) ϕ(x;tj)和观测 y j y_j yj的差在于模型构造或 y j y_j yj的测量误差上. 这里实际上我们假设在横坐标——时间 t j t_j tj——上的误差远比观测上误差小从而可以忽略. 这一假设通常是合理的, 但有时若我们不考虑横坐标上的误差, 得到的结果就会有严重偏差. 将这种误差纳入考量的模型在统计上称作变量含误差模型(errors-in-variables models), 而引出的优化问题则称为总体最小二乘(线性模型下)或正交距离回归(非线性模型下).

下面我们从数学上严格地进行表述. 引入 t j t_j tj上的扰动 δ j \delta_j δj, y j y_j yj上的扰动 ϵ j \epsilon_j ϵj. 我们需要求得这 2 m 2m 2m个扰动的值, 使之极小化模型和观测的差异. 这里差异以加权最小二乘目标函数度量. 具体地说, 定义极小化问题为 min ⁡ x , δ j , ϵ j 1 2 ∑ j = 1 m w j 2 ϵ j 2 + d j 2 δ j 2 , s . t . &ThinSpace; y j = ϕ ( x ; t j + δ j ) + ϵ j , j = 1 , 2 , … , m . \min_{x,\delta_j,\epsilon_j}\frac{1}{2}\sum_{j=1}^mw_j^2\epsilon_j^2+d_j^2\delta_j^2,\quad\mathrm{s.t.\,}y_j=\phi(x;t_j+\delta_j)+\epsilon_j,\quad j=1,2,\ldots,m. x,δj,ϵjmin21j=1mwj2ϵj2+dj2δj2,s.t.yj=ϕ(x;tj+δj)+ϵj,j=1,2,,m. w i , d i w_i,d_i wi,di为权重, 它们由使用者或一些自动估计误差项的相对重要性的方式决定.
当我们图示上述问题时, 我们便能知道"正价距离回归"这个称谓是怎么来的了.
Orthogonal distance regression

若所有的 w i , d i w_i,d_i wi,di都相等, 则目标函数中求和的每一项就是点 ( t j , y j ) (t_j,y_j) (tj,yj)与曲线 ϕ ( x ; t ) \phi(x;t) ϕ(x;t)之间的最短距离. 而点与曲线之间的最短直线就与曲线在与直线的交点处正交.
我们可以用约束消去 ϵ j \epsilon_j ϵj, 从而得到无约束最小二乘问题 min ⁡ x , δ F ( x , δ ) = 1 2 ∑ j = 1 m w j 2 [ y j − ϕ ( x ; t j + δ j ) ] 2 + d j 2 δ j 2 = 1 2 ∑ j = 1 2 m r j 2 ( x , δ ) , \min_{x,\delta}F(x,\delta)=\frac{1}{2}\sum_{j=1}^mw_j^2[y_j-\phi(x;t_j+\delta_j)]^2+d_j^2\delta_j^2=\frac{1}{2}\sum_{j=1}^{2m}r_j^2(x,\delta), x,δminF(x,δ)=21j=1mwj2[yjϕ(x;tj+δj)]2+dj2δj2=21j=12mrj2(x,δ),其中 δ = ( δ 1 , δ 2 , … , δ m ) T \delta=(\delta_1,\delta_2,\ldots,\delta_m)^T δ=(δ1,δ2,,δm)T, r j ( x , δ ) = { w j [ ϕ ( x ; t j + δ j ) − y j ] , j = 1 , 2 , … , m , d j − m δ j − m , j = m + 1 , … , 2 m . r_j(x,\delta)=\left\{\begin{array}{ll}w_j[\phi(x;t_j+\delta_j)-y_j], &amp; j=1,2,\ldots,m,\\d_{j-m}\delta_{j-m}, &amp; j=m+1,\ldots,2m.\end{array}\right. rj(x,δ)={wj[ϕ(x;tj+δj)yj],djmδjm,j=1,2,,m,j=m+1,,2m.此时的问题就是带有 2 m 2m 2m个残差和 m + n m+n m+n个未知量的标准最小二乘问题. 我们可以使用本章中介绍的算法求解之. 不过直接使用可能会带来计算量上的困难, 这是因为此时的问题所带的参数数目与观测数可能原始的问题要大得多.

但若我们进一步深究Gauss-Newton法或Levenberg-Marquardt法中Jacobi矩阵的结构, 我们会发现: 它有许多元素都为0, 例如 ∂ r j ∂ δ i = ∂ [ ϕ ( t j + δ j ; x ) − y j ] ∂ δ i = 0 , i , j = 1 , 2 , … , m , i ≠ j , ∂ r j ∂ x i = 0 , j = m + 1 , … , 2 m , i = 1 , 2 , … , n , ∂ r m + j ∂ δ i = { d j i = j , 0 o t h e r w i s e , i , j = 1 , 2 , … , m . \frac{\partial r_j}{\partial \delta_i}=\frac{\partial[\phi(t_j+\delta_j;x)-y_j]}{\partial\delta_i}=0,\quad i,j=1,2,\ldots,m,i\ne j,\\\frac{\partial r_j}{\partial x_i}=0,\quad j=m+1,\ldots,2m,\quad i=1,2,\ldots,n,\\\frac{\partial r_{m+j}}{\partial\delta_i}=\left\{\begin{array}{ll}d_j &amp; i=j,\\0 &amp; \mathrm{otherwise},\end{array}\right.\quad i,j=1,2,\ldots,m. δirj=δi[ϕ(tj+δj;x)yj]=0,i,j=1,2,,m,i̸=j,xirj=0,j=m+1,,2m,i=1,2,,n,δirm+j={dj0i=j,otherwise,i,j=1,2,,m.因此我们可以将Jacobi矩阵分块写作 J ( x , δ ) = [ J ^ V O D ] , J(x,\delta)=\begin{bmatrix}\hat{J} &amp; V\\O &amp; D\end{bmatrix}, J(x,δ)=[J^OVD],其中 V , D V,D V,D m × m m\times m m×m对角阵, J ^ \hat{J} J^ m × n m\times n m×n矩阵, 其中元素为 w j ϕ ( t j + δ j ; x ) w_j\phi(t_j+\delta_j;x) wjϕ(tj+δj;x) x x x的偏导. 对应地, 将 p , r p,r p,r也分块为 p = [ p x p δ ] , r = [ r ^ 1 r ^ 2 ] , p=\begin{bmatrix}p_x\\p_{\delta}\end{bmatrix},\quad r=\begin{bmatrix}\hat{r}_1\\\hat{r}_2\end{bmatrix}, p=[pxpδ],r=[r^1r^2],并将正规方程分块为 [ J ^ T J ^ J ^ T V V J ^ V 2 + D 2 + λ I ] [ p x p δ ] = − [ J ^ T r ^ 1 V r ^ 1 + D r ^ 2 ] . \begin{bmatrix}\hat{J}^T\hat{J} &amp; \hat{J}^TV\\V\hat{J} &amp; V^2+D^2+\lambda I\end{bmatrix}\begin{bmatrix}p_x\\p_{\delta}\end{bmatrix}=-\begin{bmatrix}\hat{J}^T\hat{r}_1\\V\hat{r}_1+D\hat{r}_2\end{bmatrix}. [J^TJ^VJ^J^TVV2+D2+λI][pxpδ]=[J^Tr^1Vr^1+Dr^2].由于右下方的子阵 V 2 + D 2 + λ I V^2+D^2+\lambda I V2+D2+λI对角, 因此我们可以方便地消去 p δ p_{\delta} pδ得到用来求 p x p_x px n × n n\times n n×n子系统. 这样求得一步的计算量就仅比标准最小二乘模型下的 m × n m\times n m×n问题稍微大一点.

5. 再谈大规模情形

对大规模非线性最小二乘问题, Wright和Holt提出了一种非精确的Levenberg-Marquardt方法. 这一方法直接控制参数 λ \lambda λ的变动而非借用与信赖域算法的联系. 它将(类似第七章)采纳满足以下不等式的 p ˉ k \bar{p}_k pˉk: ∥ ( J k T J k + λ k I ) p ˉ k + J k T r k ∥ ≤ η k ∥ J k T r k ∥ , η k ∈ [ 0 , η ] , \Vert(J_k^TJ_k+\lambda_kI)\bar{p}_k+J_k^Tr_k\Vert\le\eta_k\Vert J_k^Tr_k\Vert,\quad \eta_k\in[0,\eta], (JkTJk+λkI)pˉk+JkTrkηkJkTrk,ηk[0,η],其中 η ∈ ( 0 , 1 ) \eta\in(0,1) η(0,1)为一常数, { η k } \{\eta_k\} {ηk}为一强迫序列. 之后再由实际对预测的下降比值决定是否要采纳 p ˉ k \bar{p}_k pˉk. 在一定的假设条件下, 我们可以证明这一方法的全局收敛性.

  • 2
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
这是一个OLS回归结果汇总表,其中包含了回归模型的基本信息、拟合度、系数、显著性检验等多个指标。具体解读如下: - Dep. Variable:因变量为y。 - R-squared:拟合优度为0.049,即模型能够解释因变量变异的4.9%。 - Adj. R-squared:根据自变量数量进行调整后的拟合优度为0.036,说明模型的解释能力有限。 - F-statistic:F值为3.581,对应的P值为0.0305,说明模型具有一定的显著性。 - Prob (F-statistic):F检验的P值为0.0305,小于通常的显著性水平0.05,说明回归模型在总体上是显著的。 - const、x1、x2:分别是截距项和自变量的回归系数。 - t:t值表示系数是否显著,P>|t|表示对应的双侧检验的P值。 - [0.025 0.975]:系数的置信区间,如果包含了0则说明系数不显著。 - Omnibus:Omnibus值为86.169,对应的P值为0.000,说明残差不服从正态分布。 - Durbin-Watson:Durbin-Watson值为2.062,说明残差之间存在自相关性。 - Prob(Omnibus):Omnibus检验的P值为0.000,小于0.05,说明残差不服从正态分布。 - Jarque-Bera (JB):JB值为394.216,对应的P值为2.50e-86,说明残差不服从正态分布。 - Skew:Skew值为2.304,说明残差呈现严重的正偏态分布。 - Kurtosis:Kurtosis值为9.772,说明残差呈现严重的峰态分布。 - Cond. No.:条件数为2.31e+03,说明模型存在较强的多重共线性或者其他数值问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值