1 、引言
在监督学习算法中,尽管过程不同,但它们都有一个共同点:
通过样本训练一个网络,对于给定的输入模式给出输出模式,等价于构造一个超平面(即多维映射),用输入模式定义输出模式。
从样本中学习是一个可逆的问题,因为其公式是建立在由相关直接问题的实例中获得的知识之上,后一类问题包含潜在的未知物理定律,但是,在现实情况下我们通常发现训练样本会受到极大的局限:
训练样本包含的信息内容通常不能够充分地由自身唯一地重构出未知的输入输出映射,因此就产生了机器学习的过拟合的可能性
为了克服这个严重的问题,可以使用正则化方法,其目的是通过最小化如下的代价函数的方法把超平面重构问题的求解限制在压缩子集中:
(正则化代价函数)=(经验代价函数)+(正则化参数)x(正则化项)
给定一个训练样本,假设经验风险或标准代价函数可以由误差平均和定义。附加的正则化算子是用来平滑超平面重构问题的解。因此,通过选择一个适当的正则化参数,正则化代价函数提高了在训练样本的精度和解的光滑程度之间的折中。
2、良态问题
假设有一定义域
X
X
X和一个值域
Y
Y
Y,其中通过一个固定但未知的映射关系
f
f
f关联,如果满足以下三个条件(Hadamard条件),那么重构映射
f
f
f的问题就被称为是良态的。
(1) 存在性 对于每个输入向量
x
∈
X
x\in X
x∈X,存在一个输出
y
=
f
(
x
)
y = f(x)
y=f(x),其中
y
∈
Y
y\in Y
y∈Y。
(2)唯一性 对于任意输入向量对x,
t
∈
X
t\in X
t∈X,有
f
(
x
)
=
f
(
t
)
f(x)=f(t)
f(x)=f(t)当且仅当
x
=
t
x=t
x=t
(3) 连续性 映射
f
f
f是连续的;即对于任意的
ε
>
0
\varepsilon >0
ε>0,存在
δ
=
δ
(
ε
)
\delta = \delta(\varepsilon)
δ=δ(ε)使得条件
ρ
x
(
x
,
t
)
<
δ
\rho _x(x,t)<\delta
ρx(x,t)<δ蕴含
ρ
y
(
f
(
x
)
,
f
(
t
)
)
<
ε
\rho _y(f(x),f(t))<\varepsilon
ρy(f(x),f(t))<ε。
不满足上述任意条件,则称为病态的。
3、Tikhonov正则化理论
一种解决病态问题的方法即,1963年Tikhonov提出的方法,即正则化。其基本思想就是通过某些含有解的先验知识的非负的辅助泛函来使解稳定,先验知识的一般形式涉及假设输入输出映射函数是光滑的,即:
对于一个光滑的输入输出映射,相似的输入对应着相似的输出。
Tikhonov正则化理论包括两项:
(1)误差函数,该项用
ε
s
(
F
)
\varepsilon _s(F)
εs(F)表示,以逼近函数
F
(
x
i
)
F(x_i)
F(xi)和训练样本
(
x
i
,
d
i
)
(x_i,d_i)
(xi,di)的形式定义,对应最小二乘估计,其代价函数为:
(式1)
ε
s
(
F
)
=
1
2
∑
i
=
1
N
(
d
i
−
F
(
X
i
)
)
2
\varepsilon _s(F) = \frac{1}{2} \sum_{i=1}^{N}(d_i-F(X_i))^2 \tag {式1}
εs(F)=21i=1∑N(di−F(Xi))2(式1)
(2)正则化项,用
ε
c
(
F
)
\varepsilon _c(F)
εc(F)表示,其定义为:
(式2)
ε
c
(
F
)
=
1
2
∣
∣
D
F
∣
∣
2
\varepsilon _c(F) =\frac{1}{2} ||DF||^2 \tag {式2}
εc(F)=21∣∣DF∣∣2(式2)
其中
ε
c
\varepsilon _c
εc中下标c代表复杂度,D是线性微分算子。在正则化理论中,用于最小化的最小二乘损失量为
(式3) ε ( F ) = 1 2 ∑ i = 1 N ( d i − F ( X i ) ) 2 + 1 2 λ ∣ ∣ D F ∣ ∣ 2 \varepsilon (F) = \frac{1}{2} \sum_{i=1}^{N}(d_i-F(X_i))^2 + \frac{1}{2} \lambda||DF||^2 \tag {式3} ε(F)=21i=1∑N(di−F(Xi))2+21λ∣∣DF∣∣2(式3)
3、Tikhonov正则化应用
(1)、回归问题
(2)、分类问题
(3)、结构预测
4、Tikhonov泛函的Frechet微分
为进行代价泛函
ε
(
F
)
\varepsilon (F)
ε(F)的最小化,首先需要求
ε
(
F
)
\varepsilon (F)
ε(F)微分的规则,可以用Frechet微分来处理这件事。在初等微积分中,曲线上某点的切线是在该点邻域上的曲线的最佳逼近直线。Frechet微分可以理解为一个最佳局部线性逼近。Frechet微分可以定义为:
(式4)
d
ε
(
F
)
=
[
d
d
β
ε
(
F
+
β
h
)
]
β
=
0
d \varepsilon (F) =\left[ \frac{d}{d\ \beta} \varepsilon (F+ \beta h) \right]_{\beta=0} \tag {式4}
dε(F)=[d βdε(F+βh)]β=0(式4)
对于所有的
h
∈
H
h \in H
h∈H,函数
F
(
x
)
F(x)
F(x)为泛函
ε
(
F
)
\varepsilon (F)
ε(F)的一个相对极限的必要条件是,泛函
ε
(
F
)
\varepsilon (F)
ε(F)的Frechet微分
d
ε
(
F
,
h
)
d \varepsilon (F,h)
dε(F,h)在
ε
(
F
)
\varepsilon (F)
ε(F)处均为零,表示为:
(式5)
d
ε
(
F
,
h
)
=
d
ε
s
(
F
,
h
)
+
λ
d
ε
c
(
F
,
h
)
=
0
d \varepsilon (F,h) = d \varepsilon_s (F,h) +\lambda d \varepsilon_c (F,h) =0 \tag {式5}
dε(F,h)=dεs(F,h)+λdεc(F,h)=0(式5)
计算最小二乘估计标准误差项
ε
s
(
F
)
\varepsilon _s(F)
εs(F)的Frechet微分如下:
d
ε
s
(
F
)
=
[
d
d
β
ε
s
(
F
+
β
h
)
]
β
=
0
=
[
1
2
d
d
β
∑
i
=
1
N
[
d
i
−
F
(
x
i
)
−
β
h
(
x
i
)
]
2
]
d \varepsilon _s(F) = \left[ \frac{d}{d\ \beta} \varepsilon _s(F+ \beta h) \right]_{\beta=0}= \left[ \frac{1}{2} \frac{d}{d \beta} \sum _{i=1} ^N \left[ d_i - F(x_i) - \beta h(x_i)\right] ^2\right]
dεs(F)=[d βdεs(F+βh)]β=0=[21dβdi=1∑N[di−F(xi)−βh(xi)]2]
(式6)
=
−
∑
i
=
1
N
[
d
i
−
F
(
x
i
)
]
h
(
x
i
)
=-\sum_{i=1} ^{N} \left[d_i - F(x_i)\right] h(x_i) \tag {式6}
=−i=1∑N[di−F(xi)]h(xi)(式6)
5、Riesz表示理论
为了继续处理Hibert空间(详见博文 https://blog.csdn.net/baimafujinji/article/details/50528565) 中Frechet微分问题,引入Riesz表示理论。其描述如下:
令
f
f
f为Hibert空间
H
H
H上的一个有界线性泛函。存在一个
h
0
∈
H
h_0 \in H
h0∈H,使得
f
(
h
)
=
<
h
,
h
0
>
H
对
于
所
有
h
∈
H
f(h)=<h,h_0>_H 对于所有h\in H
f(h)=<h,h0>H对于所有h∈H
且
∣
∣
f
∣
∣
=
∣
∣
h
0
∣
∣
H
||f|| = ||h_0||_H
∣∣f∣∣=∣∣h0∣∣H
其中
h
0
h_0
h0和
f
f
f在各自的空间上都存在范数。
这里所用的符合
<
.
,
.
>
H
<.,.>_H
<.,.>H表示
H
H
H空间上两个函数的内积(标量)
因此可以将式(6)中的Frechet微分
d
ε
s
(
F
,
h
)
d \varepsilon _s(F,h)
dεs(F,h)重写如下:
(式7)
d
ε
s
(
F
,
h
)
=
−
<
h
,
∑
i
=
1
N
(
d
i
−
F
)
δ
x
i
>
H
d \varepsilon _s(F,h) = - <h,\sum _{i=1} ^N(d_i -F)\delta_{x_i}>_H \tag {式7}
dεs(F,h)=−<h,i=1∑N(di−F)δxi>H(式7)
其中
δ
x
i
\delta_{x_i}
δxi表示以
x
i
x_i
xi为中心的x的Dirac delta分布(脉冲函数),即
(式8)
δ
x
i
(
x
)
=
δ
(
x
−
x
i
)
\delta_{x_i}(x) = \delta (x-x_i) \tag {式8}
δxi(x)=δ(x−xi)(式8)
用上述方法计算式(2)可以得出(假设
D
F
∈
L
2
DF \in L_2
DF∈L2):
d
ε
c
(
F
)
=
d
d
β
ε
c
(
F
+
β
h
)
∣
β
=
0
=
1
2
d
d
β
∫
R
m
(
D
[
F
+
β
h
]
)
2
d
x
∣
β
=
0
d\varepsilon _c(F) =\frac{d}{d \beta} \varepsilon _c(F + \beta h)|_{\beta = 0} = \frac{1}{2} \frac{d}{d \beta} \int_{R^m}(D[F+ \beta h]) ^2 dx|_{\beta =0}
dεc(F)=dβdεc(F+βh)∣β=0=21dβd∫Rm(D[F+βh])2dx∣β=0
(式9)
=
∫
R
m
D
[
F
+
β
h
]
D
h
d
x
∣
β
=
0
=
∫
R
m
D
F
D
h
d
x
=
<
D
h
,
D
F
>
H
= \int_{R^m}D[F+ \beta h]Dh dx|_{\beta =0} =\int_{R^m}DFDh dx = <Dh,DF>_H \tag {式9}
=∫RmD[F+βh]Dhdx∣β=0=∫RmDFDhdx=<Dh,DF>H(式9)
6、Euler-拉格朗日方程
给定一个线性微分算子
D
D
D,可以确定它的伴随算子
D
~
\tilde{D}
D~,使得对于一对足够可微且满足恰当的边界条件的函数
u
(
x
)
u(x)
u(x)和
v
(
x
)
v(x)
v(x)有:
(式10)
∫
R
m
u
(
x
)
D
v
(
x
)
d
x
=
∫
R
m
v
(
x
)
D
~
u
(
x
)
d
x
\int_{R^m} u(x)Dv(x) dx = \int_{R^m}v(x) \tilde{D} u(x)dx \tag {式10}
∫Rmu(x)Dv(x)dx=∫Rmv(x)D~u(x)dx(式10)
将D看作一个矩阵,则伴随算子
D
~
\tilde{D}
D~的作用类似于一个转置矩阵的作用。
比较(式9)和(式10),可得出如下恒等式:
u
(
x
)
=
D
F
(
x
)
u(x) = DF(x)
u(x)=DF(x)
D
v
(
x
)
=
D
h
(
x
)
Dv(x)= Dh(x)
Dv(x)=Dh(x)
根据式10,可以得到如下等式:
(式11)
d
ε
c
(
F
)
=
∫
R
m
h
(
x
)
D
~
D
F
(
x
)
d
x
=
<
h
,
D
~
D
F
>
H
d\varepsilon _c(F) =\int_{R^m} h(x) \tilde{D}DF(x)dx = <h,\tilde{D}DF>_H \tag {式11}
dεc(F)=∫Rmh(x)D~DF(x)dx=<h,D~DF>H(式11)
其中
D
~
\tilde{D}
D~是
D
D
D的伴随算子。
根据式7和式11代入式5可以重新得到:
(式12)
d
ε
(
F
,
h
)
=
<
h
,
[
D
~
D
F
−
1
λ
∑
i
=
1
N
(
d
i
−
F
)
δ
x
i
]
>
d \varepsilon (F,h) =<h,[\tilde{D}DF -\frac{1}{\lambda} \sum_{i=1}^N(d_i - F)\delta_{x_i} ]> \tag {式12}
dε(F,h)=<h,[D~DF−λ1i=1∑N(di−F)δxi]>(式12)
因为正则化参数
λ
\lambda
λ通常取开区间
(
0
,
∞
)
(0,\infty)
(0,∞)上的某个值,所以当且仅当下列条件在广义函数
F
=
F
λ
F=F_{\lambda}
F=Fλ下满足时,对于空间
H
H
H中所有的函数
h
(
x
)
h(x)
h(x),Frechet微分
d
ε
(
F
)
d \varepsilon (F)
dε(F)才为零:
D
~
D
F
λ
−
1
λ
∑
i
=
1
N
(
d
i
−
F
)
δ
x
i
=
0
\tilde{D}DF_{\lambda} -\frac{1}{\lambda} \sum_{i=1}^N(d_i - F)\delta_{x_i} = 0
D~DFλ−λ1i=1∑N(di−F)δxi=0
即:
(式13)
D
~
D
F
λ
=
1
λ
∑
i
=
1
N
(
d
i
−
F
λ
(
x
i
)
)
δ
x
−
x
i
\tilde{D}DF_{\lambda} = \frac{1}{\lambda} \sum_{i=1}^N(d_i - F_{\lambda}(x_i))\delta_{x-x_i} \tag {式13}
D~DFλ=λ1i=1∑N(di−Fλ(xi))δx−xi(式13)
7 Green函数
式13 表示逼近函数
F
λ
F_{\lambda}
Fλ的偏微分,该方程的解是由方程右边的积分变换组成的。想求解该方程,现对Green函数进行介绍。
令
G
(
x
,
ξ
)
G(x,\xi)
G(x,ξ)是表示x和
ξ
\xi
ξ函数,向量x作为参数,而向量
ξ
\xi
ξ则作为自变量,对于给定的线性微分算子L,规定
G
(
x
,
ξ
)
G(x,\xi)
G(x,ξ) 以下条件
(1)当固定
ξ
\xi
ξ,
G
(
x
,
ξ
)
G(x,\xi)
G(x,ξ) 是
x
x
x函数,且满足规定的边界条件;
(2)除了点
x
=
ξ
x = \xi
x=ξ外,
G
(
x
,
ξ
)
G(x,\xi)
G(x,ξ) 对于x的倒数是连续的,倒数的次数由线性算子L的阶数决定。
(3)
G
(
x
,
ξ
)
G(x,\xi)
G(x,ξ) 看作x的函数,除了点
x
=
ξ
x=\xi
x=ξ奇异点外,它满足偏微分方程:
(式14)
L
G
(
x
,
ξ
)
=
0
LG(x,\xi)=0 \tag{式14}
LG(x,ξ)=0(式14)
也即函数
G
(
x
,
ξ
)
G(x,\xi)
G(x,ξ) 满足(在广义函数的意义下)
(式15)
L
G
(
x
,
ξ
)
=
δ
(
x
−
ξ
)
LG(x,\xi) = \delta(x - \xi) \tag{式15}
LG(x,ξ)=δ(x−ξ)(式15)
上述函数
G
(
x
,
ξ
)
G(x,\xi)
G(x,ξ)叫做微分算子
L
L
L的
G
r
e
e
Gree
Gree函数,
G
r
e
e
n
Green
Green函数对于线性微分算子的作用类似于一个矩阵的逆矩阵对该矩阵方程的作用。
令
ψ
(
x
)
表
示
一
个
关
于
x
∈
R
m
0
\psi(x)表示一个关于 x \in R^{m_0}
ψ(x)表示一个关于x∈Rm0的连续或者分段连续的函数,那么函数
(式16)
F
(
x
)
=
∫
R
m
G
(
x
,
ξ
)
φ
(
ξ
)
d
ξ
F(x) = \int_{R^m} G(x,\xi)\varphi(\xi)d\xi \tag{式16}
F(x)=∫RmG(x,ξ)φ(ξ)dξ(式16)就是微分方程
(式17)
L
F
(
x
)
=
φ
(
x
)
LF(x) = \varphi(x) \tag{式17}
LF(x)=φ(x)(式17)为了说明
F
(
x
)
F(x)
F(x)为式17的解,将微分算子用于式16中,可得:
(式18)
L
F
(
x
)
=
L
∫
R
m
o
G
(
x
,
ξ
)
ψ
(
ξ
)
d
ξ
=
∫
R
m
o
L
G
(
x
,
ξ
)
φ
(
ξ
)
d
ξ
LF(x) = L\int_{R^{m_o}} G(x,\xi)\psi(\xi)d\xi =\int_{R^{m_o}} L G(x,\xi)\varphi(\xi)d\xi \tag{式18}
LF(x)=L∫RmoG(x,ξ)ψ(ξ)dξ=∫RmoLG(x,ξ)φ(ξ)dξ(式18)
微分算子L将
ξ
\xi
ξ视为常量,它作用于
G
(
x
,
ξ
)
G(x,\xi)
G(x,ξ)时仅将其视为x的函数。将15式代入18式中有
L
F
(
x
)
=
∫
R
m
o
δ
(
x
−
ξ
)
φ
(
ξ
)
d
ξ
LF(x) = \int_{R^{m_o}} \delta(x - \xi) \varphi(\xi)d\xi
LF(x)=∫Rmoδ(x−ξ)φ(ξ)dξ
利用Diract Delta函数的性质,可得
∫
R
m
o
φ
(
ξ
)
δ
(
x
−
ξ
)
d
(
ξ
)
=
φ
(
ξ
)
\int_{R^{m_o}} \varphi(\xi) \delta(x - \xi)d(\xi) = \varphi(\xi)
∫Rmoφ(ξ)δ(x−ξ)d(ξ)=φ(ξ)
即
L
F
(
x
)
=
φ
(
x
)
LF(x) =\varphi(x)
LF(x)=φ(x)
8 正则化问题的解
令
L
=
D
~
D
L = \tilde{D}D
L=D~D
(式19)
φ
(
x
)
=
1
λ
∑
i
=
1
N
[
d
i
−
F
(
x
i
)
]
δ
(
ξ
−
x
i
)
\varphi (x) = \frac{1}{\lambda} \sum_{i=1}^N[d_i - F(x_i)] \delta( \xi - x_i) \tag{式19}
φ(x)=λ1i=1∑N[di−F(xi)]δ(ξ−xi)(式19)
根据式15,有
F
λ
=
∫
R
m
0
G
(
x
,
ξ
)
{
1
λ
∑
i
=
1
N
[
d
i
−
F
(
x
i
)
]
δ
(
ξ
−
x
i
)
}
d
ξ
F_{\lambda} = \int_{R^{m_0}} G(x,\xi)\lbrace \frac{1}{\lambda} \sum_{i=1}^N[d_i - F(x_i)] \delta( \xi - x_i)\rbrace d\xi
Fλ=∫Rm0G(x,ξ){λ1i=1∑N[di−F(xi)]δ(ξ−xi)}dξ
(式20)
=
1
λ
∑
i
=
1
N
(
d
i
−
F
(
x
i
)
)
∫
R
m
0
G
(
x
,
ξ
)
δ
(
ξ
−
x
i
)
d
ξ
= \frac{1}{\lambda} \sum_{i=1}^N(d_i - F(x_i))\int_{R^{m_0}} G(x,\xi) \delta( \xi - x_i) d\xi \tag{式20}
=λ1i=1∑N(di−F(xi))∫Rm0G(x,ξ)δ(ξ−xi)dξ(式20)
利用Dirac Delta函数的筛选性质,可以得到式13的解如下:
(式21)
F
λ
(
x
)
=
1
λ
∑
i
=
1
N
[
d
i
−
F
(
x
i
)
]
G
(
x
,
x
i
)
F_{\lambda}(x) = \frac{1}{\lambda} \sum_{i=1}^N [d_i - F(x_i)] G(x,x_i) \tag{式21}
Fλ(x)=λ1i=1∑N[di−F(xi)]G(x,xi)(式21)
式21说明正则化问题的最小化解
F
λ
(
x
)
F_\lambda(x)
Fλ(x)是N个
G
r
e
e
n
Green
Green函数的线性叠加。
x
i
x_i
xi代表扩展中心,权值
[
d
i
−
F
(
x
i
)
]
/
λ
[d_i - F(x_i)]/\lambda
[di−F(xi)]/λ代表展开系数。换言之,正则化问题的解在光滑函数的空间的一个N维子空间上,以
x
i
,
i
=
1
,
2
,
3
,
.
.
.
,
N
x_i,i = 1,2,3,...,N
xi,i=1,2,3,...,N为中心的一组Green函数{
G
(
x
,
x
i
)
G(x,x_i)
G(x,xi)}组成了该空间的基。
9 确定展开系数
令
(式22)
w
i
=
1
λ
[
d
i
−
F
(
x
i
)
]
,
i
=
1
,
2
,
.
.
.
.
,
N
w_i = \frac{1}{\lambda} [d_i - F(x_i)], i=1,2,....,N \tag{式22}
wi=λ1[di−F(xi)],i=1,2,....,N(式22)
因此式21可以改写成如下形式:
(式23)
F
λ
(
x
)
=
∑
i
=
1
N
w
i
G
(
x
,
x
i
)
F_{\lambda} (x)= \sum _{i=1} ^Nw_iG(x,x_i) \tag{式23}
Fλ(x)=i=1∑NwiG(x,xi)(式23)
分别在
x
j
(
j
=
1
,
2
,
.
.
.
,
N
x_j(j = 1,2,...,N
xj(j=1,2,...,N上计算式23的值,可得
(式24)
F
λ
(
x
j
)
=
∑
i
=
1
N
w
i
G
(
x
j
,
x
i
)
F_{\lambda} (x_j)= \sum _{i=1} ^Nw_iG(x_j,x_i) \tag{式24}
Fλ(xj)=i=1∑NwiG(xj,xi)(式24)
引入如下定义:
(式25)
F
λ
=
[
F
λ
(
x
1
)
,
F
λ
(
x
2
)
.
.
.
.
F
λ
(
x
N
)
]
T
F_{\lambda} = [F_{\lambda}(x_1),F_{\lambda}(x_2)....F_{\lambda}(x_N)]^T \tag{式25}
Fλ=[Fλ(x1),Fλ(x2)....Fλ(xN)]T(式25)
(式26)
d
=
[
d
1
,
d
2
,
d
3
,
.
.
.
,
d
N
]
T
d = [d_1,d_2,d_3,...,d_N]^T \tag{式26}
d=[d1,d2,d3,...,dN]T(式26)
(式27)
G
=
∣
G
(
x
1
,
x
1
)
G
(
x
1
,
x
2
)
.
.
.
G
(
x
1
,
x
N
)
G
(
x
2
,
x
1
)
G
(
x
2
,
x
2
)
.
.
.
G
(
x
2
,
x
N
)
.
.
.
.
G
(
x
N
,
x
1
)
G
(
x
N
,
x
2
)
.
.
.
G
(
x
N
,
x
N
)
∣
G = \begin{vmatrix} G(x_1,x_1) &G(x_1,x_2) & ... &&G(x_1,x_N) \\G(x_2,x_1) &G(x_2,x_2) & ... &&G(x_2,x_N) \\ &....\\\\ G(x_N,x_1) &G(x_N,x_2) & ... &&G(x_N,x_N) \\ \end{vmatrix} \tag{式27}
G=∣∣∣∣∣∣∣∣∣∣G(x1,x1)G(x2,x1)G(xN,x1)G(x1,x2)G(x2,x2)....G(xN,x2).........G(x1,xN)G(x2,xN)G(xN,xN)∣∣∣∣∣∣∣∣∣∣(式27)
(式28)
W
=
[
w
1
,
w
2
,
.
.
.
,
w
T
]
T
W = [w_1,w_2,...,w_T] ^T \tag{式28}
W=[w1,w2,...,wT]T(式28)
将式22和式23分别写成矩阵形式:
(式29)
w
=
1
λ
(
d
−
F
λ
)
w = \frac{1}{\lambda}(d - F_{\lambda}) \tag{式29}
w=λ1(d−Fλ)(式29)
和
(式30)
F
λ
=
G
w
F_{\lambda} = Gw \tag{式30}
Fλ=Gw(式30)
消去式29和式30中中的
F
λ
F_{\lambda}
Fλ,重新调整可得
(
G
+
λ
I
)
w
=
d
(G+\lambda I) w = d
(G+λI)w=d