文章目录
- 1前言
- 2 传统模型与functional模型比较
- 2.1 signal regression
- 2.2 B-Spline Expansion
- 2.3 Penalized B-Spline Expansion(PBSE)
- 2.4 Principal Component Regression
- 2.5 FUNCTIONAL PRINCIPAL COMPONENT REGRESSION WITH B-SPLINE
- 2.6 {functional principal component} regression( F P C R C FPCR_C FPCRC)
- 2.7 functional {principal component regression} ( F P C R R FPCR_R FPCRR)
- 2.8 Partial Least Squares With Smooth Factor
- 2.9 Functional Partial Least Square
- 3 λ \lambda λ的选择
- 4 小结
- 参考文献
1前言
Functional Data Analysis (FDA)比较热门,好多算法都出来Functional版本。网上有些评论好像对此评价不高,不过目前已经能找到不少支持FDA的工具包,至少开始有一些生态,应该还是有一些用处。
前面几篇文章所讲得,仅仅是将拟合信号,还不是真正意义上得回归建模
2 传统模型与functional模型比较
大致罗列一下常见得几种functional 回归模型和传统的回归做对比。详情见参考文献1
2.1 signal regression
∥
y
−
α
1
−
X
ω
∥
2
\|\mathbf{y}-\alpha \mathbf{1}-\mathbf{X} \omega\|^{2}
∥y−α1−Xω∥2
y
∈
R
m
×
1
,
α
∈
R
,
X
∈
R
m
×
n
,
ω
∈
R
n
×
1
\mathbf{y} \in \mathbb{R}^{m\times 1},\alpha \in \mathbb{R},\mathbf{X} \in \mathbb{R}^{m\times n}, \omega \in \mathbb{R}^{n\times 1}
y∈Rm×1,α∈R,X∈Rm×n,ω∈Rn×1。
α
,
ω
\alpha ,\omega
α,ω为待求系数。FDA的处理情况中,通常有
m
≪
n
m \ll n
m≪n。
2.2 B-Spline Expansion
∥
y
−
α
1
−
X
B
β
∥
2
\|\mathbf{y}-\alpha \mathbf{1}-\mathbf{X B} \boldsymbol{\beta}\|^{2}
∥y−α1−XBβ∥2
B
\mathbf{ B}
B是基函数,离散代替连续,一列代表一个基函数。这里用design matrix
X
B
\mathbf{X B}
XB代替了
X
\mathbf{X }
X,背后的意义比较明显。通过 B-Spline的曲线拟合,可以将
X
\mathbf{X }
X的一行,即一条曲线,作为B-Spline的基函数展开得到
X
^
\mathbf{\hat{X}}
X^,用来代替原来的
X
\mathbf{X }
X,
X
^
\mathbf{\hat{X}}
X^的计算过程如下
∥
X
T
−
B
A
∥
⇒
A
=
B
+
X
T
⇒
X
^
=
(
B
B
+
X
T
)
T
=
X
B
(
B
T
B
)
−
1
B
T
\|\mathbf{X }^T-\mathbf{BA}\| \Rightarrow \mathbf{A = B^+X}^T\\ \Rightarrow \mathbf{\hat{X} = (BB^+X^T)^T=XB(B^TB)^{-1}B^T}
∥XT−BA∥⇒A=B+XT⇒X^=(BB+XT)T=XB(BTB)−1BT代入到普通最小二乘回归中得到
∥
y
−
α
1
−
X
^
ω
∥
2
=
∥
y
−
α
1
−
X
B
(
B
T
B
)
−
1
B
T
ω
∥
2
\|\mathbf{y}-\alpha \mathbf{1}-\mathbf{\hat{X}} \omega\|^{2}=\|\mathbf{y}-\alpha \mathbf{1}-\mathbf{XB(B^TB)^{-1}B^T} \omega\|^{2}
∥y−α1−X^ω∥2=∥y−α1−XB(BTB)−1BTω∥2
到这里已经相当明显,就是将
ω
\omega
ω投影到
B
\mathbf{B}
B的空间,投影部分用
B
β
\mathbf{B} \boldsymbol{\beta}
Bβ表示,就得到了B-Spline Expansion的目标式子。后面谈到的functional PCR和functional PLS也是照样画葫芦。
2.3 Penalized B-Spline Expansion(PBSE)
∥ y − α 1 − X B β ∥ 2 + λ β T P T P β \|\mathbf{y}-\alpha \mathbf{1}-\mathbf{X B} \boldsymbol{\beta}\|^{2}+\lambda \boldsymbol{\beta}^{T} \mathbf{P}^{T} \mathbf{P} \boldsymbol{\beta} ∥y−α1−XBβ∥2+λβTPTPβ
P \mathbf{P} P跟系数的差分阶次有关,跟前面的文章原理差不多。前面主要是对 X \mathbf{X} X的拟合,后者主要用来做回归。
2.4 Principal Component Regression
∥
y
−
α
1
−
X
V
A
ζ
∥
2
\left\|\mathbf{y}-\alpha \mathbf{1}-\mathbf{X} \mathbf{V}_{A} \zeta\right\|^{2}
∥y−α1−XVAζ∥2
V
A
\mathbf{V}_{A}
VA是
X
\mathbf{X}
X奇异分解的右奇异矩阵,代表了
X
\mathbf{X}
X的主成分方向,
ζ
\zeta
ζ为待求系数
2.5 FUNCTIONAL PRINCIPAL COMPONENT REGRESSION WITH B-SPLINE
∥
y
−
α
1
−
X
B
V
A
ζ
∥
2
\left\|\mathbf{y}-\alpha \mathbf{1}-\mathbf{X} \mathbf{B} \mathbf{V}_{A} \zeta\right\|^{2}
∥y−α1−XBVAζ∥2
显然,这个目标式对于追求系数平滑的FDA是不够的,文献列了两个方法,并相应地取了有趣的名称。
2.6 {functional principal component} regression( F P C R C FPCR_C FPCRC)
v
T
B
T
X
T
X
B
v
v
T
(
I
+
λ
P
T
P
)
v
\frac{\mathbf{v}^{T} \mathbf{B}^{T} \mathbf{X}^{T} \mathbf{X} \mathbf{B} \mathbf{v}}{\mathbf{v}^{T}\left(\mathbf{I}+\lambda \mathbf{P}^{T} \mathbf{P}\right) \mathbf{v}}
vT(I+λPTP)vvTBTXTXBv
求取特征向量地时候,要求特征向量本身地系数比较平滑。在如何确定
λ
\lambda
λ,文章提到的方法就不是那么直观了。略
2.7 functional {principal component regression} ( F P C R R FPCR_R FPCRR)
∥
y
−
α
1
−
X
B
V
A
ζ
∥
2
+
λ
ζ
T
V
A
T
P
T
P
V
A
ζ
\left\|\mathbf{y}-\alpha \mathbf{1}-\mathbf{X B V}_{A} \zeta\right\|^{2}+\lambda \zeta^{T} \mathbf{V}_{A}^{T} \mathbf{P}^{T} \mathbf{P V}_{A} \zeta
∥y−α1−XBVAζ∥2+λζTVATPTPVAζ
PBSE可以看作上式的特殊形式
2.8 Partial Least Squares With Smooth Factor
p
a
T
E
a
−
1
T
f
a
−
1
f
a
−
1
T
E
a
−
1
p
a
−
λ
p
a
T
V
T
V
p
a
\mathbf{p}_{a}^{T} \mathbf{E}_{a-1}^{T} \mathbf{f}_{a-1} \mathbf{f}_{a-1}^{T} \mathbf{E}_{a-1} \mathbf{p}_{a}-\lambda \mathbf{p}_{a}^{T} \mathbf{V}^{T} \mathbf{V} \mathbf{p}_{a}
paTEa−1Tfa−1fa−1TEa−1pa−λpaTVTVpa
仍然对权值进行平滑,对应于
F
P
C
R
C
FPCR_C
FPCRC
2.9 Functional Partial Least Square
∥
y
−
α
1
−
X
B
R
A
ζ
∥
2
+
λ
ζ
T
R
A
T
P
T
P
R
A
ζ
\left\|\mathbf{y}-\alpha \mathbf{1}-\mathbf{X B R}_{A} \zeta\right\|^{2}+\lambda \zeta^{T} \mathbf{R}_{A}^{T} \mathbf{P}^{T} \mathbf{P R}_{A} \zeta
∥y−α1−XBRAζ∥2+λζTRATPTPRAζ
在总目标式中,对系数进行惩罚,对应于
F
P
C
R
R
FPCR_R
FPCRR。
R
A
\mathbf{R}_{A}
RA是PLS模型中,各个成分,对应的权值(基于原始矩阵,非残差),个人认为这种方式最直接一些,前面对于权值,虽然直觉上,也有平滑作用,总觉得有些隔靴搔痒。
3 λ \lambda λ的选择
前面列了很多目标式,都带有 λ \lambda λ,作者列了三种,除了第一种知道一些,其他的也没看明白,当作工具用吧
3.1. cross-validation (GCV) criterion
1
n
∥
(
I
−
H
λ
)
y
∥
2
/
[
1
n
tr
(
I
−
H
λ
)
]
2
y
^
=
H
λ
y
\frac{1}{n}\left\|\left(\mathbf{I}-\mathbf{H}_{\lambda}\right) \mathbf{y}\right\|^{2} /\left[\frac{1}{n} \operatorname{tr}(\mathbf{I}-\left.\mathbf{H}_{\lambda}\right)\right]^{2} \\\hat{\mathbf{y}}=\mathbf{H}_{\lambda} \mathbf{y}
n1∥(I−Hλ)y∥2/[n1tr(I−Hλ)]2y^=Hλy
前文讲到过这个
3.2. linear unbiased prediction (BLUP) criterion for the linear mixed mode
V
A
T
P
T
P
V
A
=
S
V
D
U
∗
D
∗
U
∗
T
\mathbf{V}_{A}^{T} \mathbf{P}^{T} \mathbf{P} \mathbf{V}_{A}\overset{SVD }{= }\mathbf{U_*D_*U_*^T}
VATPTPVA=SVDU∗D∗U∗T
U
∗
D
∗
U
∗
T
=
U
∗
D
1
(
I
s
0
0
0
)
D
1
U
∗
T
\mathbf{U}_{*} \mathbf{D}_{*} \mathbf{U}_{*}^{T}=\mathbf{U}_{*} \mathbf{D}_{1}\left(\begin{array}{cc} {\mathbf{I}_{s}} & {\mathbf{0}} \\ {\mathbf{0}} & {\mathbf{0}} \end{array}\right) \mathbf{D}_{1} \mathbf{U}_{*}^{T}
U∗D∗U∗T=U∗D1(Is000)D1U∗T
∥
y
−
α
1
−
X
B
V
A
U
∗
D
1
−
1
ζ
1
∥
2
+
λ
ξ
1
T
(
I
s
0
0
0
)
ξ
1
\left\|\mathbf{y}-\alpha \mathbf{1}-\mathbf{X B V}_{A} \mathbf{U}_{*} \mathbf{D}_{1}^{-1} \zeta_{1}\right\|^{2}+\lambda \xi_{1}^{T}\left(\begin{array}{cc} {\mathbf{I}_{s}} & {\mathbf{0}} \\ {\mathbf{0}} & {\mathbf{0}} \end{array}\right) \xi_{1}
∥∥y−α1−XBVAU∗D1−1ζ1∥∥2+λξ1T(Is000)ξ1
3.3mean integrated squared error (MISE) of ω ^ \hat{\omega} ω^
M I S E = ∑ i = 1 N E [ ( ω ^ i − ω i ) 2 ] \mathbf{MISE}=\sum_{i=1}^{N} E\left[\left(\hat{\omega}_{i}-\omega_{i}\right)^{2}\right] MISE=i=1∑NE[(ω^i−ωi)2]
4 小结
这篇文章从SR出发,讨论了普通回归模型,再介绍PCR和PLS,最后利用B-Spline regression,将FDA加入到PCR和PLS中。其实本质上还是比较简单,先用B-Spline替换原来的样本数据 X X X,然后,为了平滑的目的,加入相应的惩罚项目,最后利用几种标准确定惩罚因子。文章写得相对浅显易懂,就是几个筛选标准没看明白,也没时间多做研究,后面是算法的实验结果,没去重现。functional目前虽然热度不算低,但是就应用上的效果,似乎并不惊人,毕竟原来已有的算法,已经达到相当的程度,再想有大的飞跃,估计是不容易的。这篇文章就读到这里吧。
参考文献
- Reiss P T , Ogden R T . Functional Principal Component Regression and Functional Partial Least Squares[J]. Journal of the American Statistical Association, 2007, 102(479):984-996.