特征选择:从
n
n
n个度量值集合
{
x
1
,
x
2
,
⋯
,
x
n
}
\{x_1,x_2,\cdots,x_n\}
{x1,x2,⋯,xn}中,按某一准则选取出供分类用的子集,作为降维(
m
m
m维,
m
<
n
m \lt n
m<n)的分类特征
特征提取:使
(
x
1
,
x
2
,
⋯
,
x
n
)
(x_1,x_2,\cdots,x_n)
(x1,x2,⋯,xn)通过某种变换,产生
m
m
m个特征
(
y
1
,
y
2
,
⋯
,
y
m
)
(
m
<
n
)
(y_1,y_2,\cdots,y_m)(m \lt n)
(y1,y2,⋯,ym)(m<n),作为新的分类特征,或称为二次特征
特征选择和特征提取的目的都是为了在尽可能保留识别信息的前提下,降低特征空间的维数,以达到有效的分类
模式类别可分性的测度
点与点之间的距离
在
n
n
n维空间中,
a
,
b
a,b
a,b两点之间的欧式距离为:
D
(
a
,
b
)
=
∣
∣
a
−
b
∣
∣
D(a,b) = ||a - b||
D(a,b)=∣∣a−b∣∣
写成距离平方:
D
2
(
a
,
b
)
=
(
a
−
b
)
T
(
a
−
b
)
=
∑
k
=
1
n
(
a
k
−
b
k
)
2
D^2(a,b) = (a - b)^T(a - b) = \sum_{k = 1}^n(a_k - b_k)^2
D2(a,b)=(a−b)T(a−b)=k=1∑n(ak−bk)2
其中
a
,
b
a,b
a,b是
n
n
n维向量,其第
k
k
k个分量分别是
a
k
,
b
k
a_k,b_k
ak,bk
点到点集之间的距离
在
n
n
n维空间中,点
x
x
x到点
a
(
i
)
a^{(i)}
a(i)之间的距离平方为:
D
2
(
x
,
a
(
i
)
)
=
∑
k
=
1
n
(
x
k
−
a
k
(
i
)
)
2
D^2(x,a^{(i)}) = \sum_{k = 1}^n(x_k - a_k^{(i)})^2
D2(x,a(i))=k=1∑n(xk−ak(i))2
因此,点
x
x
x到点集
{
a
(
i
)
}
i
=
1
,
2
,
⋯
,
K
\{a^{(i)}\}_{i = 1,2,\cdots,K}
{a(i)}i=1,2,⋯,K之间的均方距离为:
D
2
(
x
,
{
a
(
i
)
}
)
‾
=
1
K
∑
i
=
1
K
D
2
(
x
,
a
(
i
)
)
=
1
K
∑
i
=
1
K
{
∑
k
=
1
n
(
x
k
−
a
k
(
i
)
)
2
}
\overline{D^2(x,\{a^{(i)}\})} = \frac1K\sum_{i = 1}^KD^2(x,a^{(i)}) = \frac1K\sum_{i = 1}^K\left\{\sum_{k = 1}^n(x_k - a_k^{(i)})^2\right\}
D2(x,{a(i)})=K1i=1∑KD2(x,a(i))=K1i=1∑K{k=1∑n(xk−ak(i))2}
类内距离
n
n
n维空间中同一类内各模式样本点集
{
a
(
i
)
}
i
=
1
,
2
,
⋯
,
K
\{a^{(i)}\}_{i = 1,2,\cdots,K}
{a(i)}i=1,2,⋯,K,其内部各点的均方距离为
D
2
(
{
a
(
j
)
,
}
,
{
a
(
i
)
}
)
‾
\overline{D^2(\{a^{(j)},\},\{a^{(i)}\})}
D2({a(j),},{a(i)}),其中
i
,
j
=
1
,
2
,
⋯
,
K
,
i
≠
j
i,j = 1,2,\cdots,K,i\neq j
i,j=1,2,⋯,K,i=j,即:
D
2
(
{
a
(
j
)
,
}
,
{
a
(
i
)
}
)
‾
=
1
K
∑
j
=
1
K
[
1
K
−
1
∑
i
=
1
,
i
≠
j
K
∑
k
=
1
n
(
a
k
(
j
)
−
a
k
(
i
)
)
2
]
\overline{D^2(\{a^{(j)},\},\{a^{(i)}\})} = \frac1K\sum_{j = 1}^K\left[\frac{1}{K - 1}\sum_{i = 1,i\neq j}^K\sum_{k = 1}^n(a_k^{(j)} - a_k^{(i)})^2\right]
D2({a(j),},{a(i)})=K1j=1∑K⎣
⎡K−11i=1,i=j∑Kk=1∑n(ak(j)−ak(i))2⎦
⎤
可以证明:
a
k
‾
=
1
K
∑
i
=
1
K
a
k
(
i
)
σ
k
2
=
1
K
−
1
∑
i
=
1
K
(
a
k
(
i
)
−
a
k
‾
)
2
D
2
‾
=
2
∑
k
=
1
n
σ
k
2
\begin{aligned} \overline{a_k} &= \frac1K\sum_{i = 1}^Ka_k^{(i)} \\ \sigma_k^2 &= \frac{1}{K - 1}\sum_{i = 1}^K(a_k^{(i)} - \overline{a_k})^2 \\ \overline{D^2} &= 2\sum_{k = 1}^n\sigma_k^2 \end{aligned}
akσk2D2=K1i=1∑Kak(i)=K−11i=1∑K(ak(i)−ak)2=2k=1∑nσk2
类内散布矩阵
考虑一类内模式点集
{
a
(
i
)
}
i
=
1
,
2
,
⋯
,
K
\{a^{(i)}\}_{i = 1,2,\cdots,K}
{a(i)}i=1,2,⋯,K,其类内散布矩阵为:
S
=
∑
i
=
1
K
{
(
a
(
i
)
−
m
)
(
a
(
i
)
−
m
)
T
}
S = \sum_{i = 1}^K\{(a^{(i)} - m)(a^{(i)} - m)^T\}
S=i=1∑K{(a(i)−m)(a(i)−m)T}
其中:
m
=
1
K
∑
i
=
1
K
a
(
i
)
m = \frac1K\sum_{i = 1}^Ka^{(i)}
m=K1i=1∑Ka(i)
对属于同一类的模式样本,类内散布矩阵表示各样本点围绕其均值周围的散布情况
类间距离和类间散布矩阵
在考虑有两个以上的类别,如集合
{
a
(
i
)
}
,
{
b
(
j
)
}
\{a^{(i)}\},\{b^{(j)}\}
{a(i)},{b(j)}时,类间距离对类别的可分性起着重要作用,此时应计算:
D
2
(
{
a
(
i
)
,
}
,
{
b
(
j
)
}
)
‾
i
=
1
,
2
,
⋯
,
K
a
,
j
=
1
,
2
,
⋯
,
K
b
\overline{D^2(\{a^{(i)},\},\{b^{(j)}\})}_{i = 1,2,\cdots,K_a,j = 1,2,\cdots,K_b}
D2({a(i),},{b(j)})i=1,2,⋯,Ka,j=1,2,⋯,Kb
为简化起见,常用两类样本各自质心间的距离作为类间距离,并假设两类样本出现的概率相等,则:
D
2
=
∑
k
=
1
n
(
m
1
k
−
m
2
k
)
2
D^2 = \sum_{k = 1}^n(m_{1_k} - m_{2_k})^2
D2=k=1∑n(m1k−m2k)2
其中
m
1
,
m
2
m_1,m_2
m1,m2为两类模式样本集各自的均值向量,
m
1
k
,
m
2
k
m_{1_k},m_{2_k}
m1k,m2k为第
k
k
k个分量,
n
n
n为维数
写成矩阵形式:
S
b
2
=
(
m
1
−
m
2
)
(
m
1
−
m
2
)
T
S_{b2} = (m_1 - m_2)(m_1 - m_2)^T
Sb2=(m1−m2)(m1−m2)T
上式为两类模式的类间散布矩阵,对于三个以上的类别,类间散布矩阵常写成:
S
b
=
∑
i
=
1
c
P
(
w
i
)
(
m
i
−
m
0
)
(
m
i
−
m
0
)
T
S_b = \sum_{i =1}^cP(w_i)(m_i - m_0)(m_i - m_0)^T
Sb=i=1∑cP(wi)(mi−m0)(mi−m0)T
其中
m
0
m_0
m0是多类模式
c
c
c类分布的总体均值向量,即:
m
0
=
E
(
x
)
=
∑
i
=
1
c
P
(
w
i
)
m
i
,
∀
w
i
,
i
=
1
,
2
,
⋯
,
c
m_0 = E(x) = \sum_{i = 1}^cP(w_i)m_i,\forall w_i,i = 1,2,\cdots,c
m0=E(x)=i=1∑cP(wi)mi,∀wi,i=1,2,⋯,c
多类模式集散布矩阵
多类情况的类内散布矩阵,可写成各类的类内散布矩阵的先验概率的加权和,即:
S
w
=
∑
i
=
1
c
P
(
w
i
)
E
{
(
x
−
m
i
)
(
x
−
m
i
)
T
∣
w
i
}
=
∑
i
=
1
c
P
(
w
i
)
C
i
S_w = \sum_{i =1}^cP(w_i)E\{(x - m_i)(x - m_i)^T|w_i\} = \sum_{i = 1}^cP(w_i)C_i
Sw=i=1∑cP(wi)E{(x−mi)(x−mi)T∣wi}=i=1∑cP(wi)Ci
其中
C
i
C_i
Ci是第
i
i
i类的协方差矩阵
有时,用多类模式总体分布的散布矩阵来反映其可分性,即:
S
t
=
E
{
(
x
−
m
0
)
(
x
−
m
0
)
T
}
,
x
∈
∀
w
i
,
i
=
1
,
2
,
⋯
,
c
S_t = E\{(x - m_0)(x - m_0)^T\},x \in \forall w_i,i = 1,2,\cdots,c
St=E{(x−m0)(x−m0)T},x∈∀wi,i=1,2,⋯,c,其中
m
0
m_0
m0为多类模式分布的总体均值向量。可以证明
S
t
=
S
w
+
S
b
S_t = S_w + S_b
St=Sw+Sb,即总体散布矩阵是各类类内散布矩阵与类间散布矩阵之和
特征选择
从
n
n
n个度量值集合
{
x
1
,
x
2
,
⋯
,
x
n
}
\{x_1,x_2,\cdots,x_n\}
{x1,x2,⋯,xn}中,按某一准则选取出供分类用的子集,作为降维(
m
m
m维,
m
<
n
m \lt n
m<n)的分类特征,特征选择的准则为:使不同类别模式特征的均值向量之间的距离最大,而属于同一类的模式特征,其方差之和应最小,假设各原始特征是统计独立的,此时只需要对训练样本的
n
n
n个测量值独立的进行分析,从中选出
m
m
m个最好的作为分类特征即可,下面以对于
w
i
,
w
j
w_i,w_j
wi,wj两类训练样本的特征选择为例:
对于
w
i
,
w
j
w_i,w_j
wi,wj两类训练样本,假设其均值向量为
m
i
,
m
j
m_i,m_j
mi,mj,其
k
k
k维方向的分量为
m
i
k
,
m
j
k
m_{ik},m_{jk}
mik,mjk,方差为
σ
i
k
2
,
σ
j
k
2
\sigma_{ik}^2,\sigma_{jk}^2
σik2,σjk2,定义可分性准则函数:
G
k
=
(
m
i
k
−
m
j
k
)
2
σ
i
k
2
+
σ
j
k
2
,
k
=
1
,
2
,
⋯
,
n
G_k = \frac{(m_{ik} - m_{jk})^2}{\sigma_{ik}^2 + \sigma_{jk}^2},k = 1,2,\cdots,n
Gk=σik2+σjk2(mik−mjk)2,k=1,2,⋯,n
则
G
K
G_K
GK为正值,
G
K
G_K
GK值越大,表示测度值的第
k
k
k个分量对分离
w
i
,
w
j
w_i,w_j
wi,wj两类越有效,将
G
K
G_K
GK按大小排列,选出最大的
m
m
m个对应的测度值作为分类特征,此准则函数在类概率密度函数不是或不近似正态分布的时候不再适用,下面是一般特征的散布矩阵准则:
类内:
S
w
=
∑
i
=
1
c
P
(
w
i
)
E
{
(
x
−
m
i
)
(
x
−
m
i
)
T
∣
w
i
}
=
∑
i
=
1
c
P
(
w
i
)
C
i
S_w = \sum_{i =1}^cP(w_i)E\{(x - m_i)(x - m_i)^T|w_i\} = \sum_{i = 1}^cP(w_i)C_i
Sw=∑i=1cP(wi)E{(x−mi)(x−mi)T∣wi}=∑i=1cP(wi)Ci
类间:
S
b
=
∑
i
=
1
c
P
(
w
i
)
(
m
i
−
m
0
)
(
m
i
−
m
0
)
T
S_b = \sum_{i =1}^cP(w_i)(m_i - m_0)(m_i - m_0)^T
Sb=∑i=1cP(wi)(mi−m0)(mi−m0)T
直观上,类间离散度越大且类内离散度越小,则可分性越好,因此,可推导出散布矩阵准则采用如下形式:
行列式形式:
J
1
=
d
e
t
(
S
w
−
1
S
b
)
=
∏
i
λ
i
J_1 = det(S_w^{-1}S_b) = \prod_i\lambda_i
J1=det(Sw−1Sb)=∏iλi
迹形式:
J
2
=
t
r
(
S
w
−
1
S
b
)
=
∑
i
λ
i
J_2 = tr(S_w^{-1}S_b) = \sum_i\lambda_i
J2=tr(Sw−1Sb)=∑iλi
λ
i
\lambda_i
λi为
S
w
−
1
S
b
S_w^{-1}S_b
Sw−1Sb的特征值,使
J
1
,
J
2
J_1,J_2
J1,J2最大的子集可作为选择的分类特征
离散K-L变换
之前的特征选择是简单的删掉
n
−
m
n - m
n−m个特征,而原来的
n
n
n个数据都在不同程度上反映了识别对象的某些特征,如果将原来的特征做正交变换,获得的每个数据都是原来
n
n
n个数据的线性组合,然后从新的数据中选出少数几个,使其尽可能的反映各类模式之间的差异,而这些特征间又尽可能的相互独立,则比单纯的选择方法更灵活,K-L变换(Karhunen-Loeve变换)就是一种适用于任意概率密度函数的正交变换,下面是离散的有限K-L展开式的形式:
设一连续的随机实函数
x
(
t
)
,
T
1
≤
t
≤
T
2
x(t),T_1 \leq t \leq T_2
x(t),T1≤t≤T2,则
x
(
t
)
x(t)
x(t)可用已知的正交函数集
{
ϕ
j
(
t
)
,
j
=
1
,
2
,
⋯
}
\{\phi_j(t),j = 1,2,\cdots\}
{ϕj(t),j=1,2,⋯}的线性组合来展开,即:
x
(
t
)
=
a
1
φ
1
(
t
)
+
a
2
φ
2
(
t
)
+
⋯
+
a
j
φ
j
(
t
)
+
⋯
=
∑
j
=
1
∞
a
j
φ
j
(
t
)
,
T
1
≤
t
≤
T
2
x(t) = a_1\varphi_1(t) + a_2\varphi_2(t) + \cdots + a_j\varphi_j(t) + \cdots = \sum_{j = 1}^\infty a_j\varphi_j(t),T_1 \leq t \leq T_2
x(t)=a1φ1(t)+a2φ2(t)+⋯+ajφj(t)+⋯=j=1∑∞ajφj(t),T1≤t≤T2
其中,
a
j
a_j
aj为展开式的随机系数,
ϕ
j
(
t
)
\phi_j(t)
ϕj(t)为一连续的正交函数,满足:
∫
T
1
T
2
φ
n
(
t
)
φ
~
m
(
t
)
d
t
=
{
1
m
=
n
0
m
≠
n
\int_{T_1}^{T_2}\varphi_n(t)\tilde{\varphi}_m(t)dt = \begin{cases} 1 & m = n \\ 0 & m \neq n \end{cases}
∫T1T2φn(t)φ~m(t)dt={10m=nm=n
φ
~
m
(
t
)
\tilde{\varphi}_m(t)
φ~m(t)表示的是共轭复数式,将上式写成离散形式:使连续随机函数
x
(
t
)
x(t)
x(t)和连续正交函数
ϕ
j
(
t
)
\phi_j(t)
ϕj(t)在区间
T
1
≤
t
≤
T
2
T_1 \leq t \leq T_2
T1≤t≤T2内被等间隔采样为
n
n
n个离散点,即:
x
(
t
)
→
{
x
(
1
)
,
x
(
2
)
,
⋯
,
x
(
n
)
}
φ
j
(
t
)
→
{
φ
j
(
1
)
,
φ
j
(
2
)
,
⋯
,
φ
j
(
n
)
}
x(t) \rightarrow \{x(1),x(2),\cdots,x(n)\} \\ \varphi_j(t) \rightarrow \{\varphi_j(1),\varphi_j(2),\cdots,\varphi_j(n)\}
x(t)→{x(1),x(2),⋯,x(n)}φj(t)→{φj(1),φj(2),⋯,φj(n)}
写成向量形式:
x
=
(
x
(
1
)
,
x
(
2
)
,
⋯
,
x
(
n
)
)
T
φ
j
=
(
φ
j
(
1
)
,
φ
j
(
2
)
,
⋯
,
φ
j
(
n
)
)
T
,
j
=
1
,
2
,
⋯
,
n
x = (x(1),x(2),\cdots,x(n))^T \\ \varphi_j = (\varphi_j(1),\varphi_j(2),\cdots,\varphi_j(n))^T,j = 1,2,\cdots,n
x=(x(1),x(2),⋯,x(n))Tφj=(φj(1),φj(2),⋯,φj(n))T,j=1,2,⋯,n
得到离散展开式:
x
=
∑
j
=
1
n
a
j
ϕ
j
=
Φ
a
,
T
1
≤
t
≤
T
2
x = \sum_{j = 1}^na_j\phi_j = \Phi a,T_1 \leq t \leq T_2
x=j=1∑najϕj=Φa,T1≤t≤T2
其中
a
a
a为展开式中随机系数的向量形式:
a
=
(
a
1
,
a
2
,
⋯
,
a
j
,
⋯
,
a
n
)
T
a = (a_1,a_2,\cdots,a_j,\cdots,a_n)^T
a=(a1,a2,⋯,aj,⋯,an)T
Φ
\Phi
Φ为
n
×
n
n \times n
n×n矩阵,即:
Φ
=
(
φ
1
,
φ
2
,
⋯
,
φ
n
)
=
[
φ
1
(
1
)
φ
2
(
1
)
⋯
φ
n
(
1
)
φ
1
(
2
)
φ
2
(
2
)
⋯
φ
n
(
2
)
⋯
⋯
⋯
⋯
φ
1
(
n
)
φ
2
(
n
)
⋯
φ
n
(
n
)
]
\Phi = (\varphi_1,\varphi_2,\cdots,\varphi_n) = \left[ \begin{matrix} \varphi_1(1) & \varphi_2(1) & \cdots & \varphi_n(1) \\ \varphi_1(2) & \varphi_2(2) & \cdots & \varphi_n(2) \\ \cdots & \cdots & \cdots & \cdots \\ \varphi_1(n) & \varphi_2(n) & \cdots & \varphi_n(n) \end{matrix} \right]
Φ=(φ1,φ2,⋯,φn)=⎣
⎡φ1(1)φ1(2)⋯φ1(n)φ2(1)φ2(2)⋯φ2(n)⋯⋯⋯⋯φn(1)φn(2)⋯φn(n)⎦
⎤
如果对
c
c
c中模式类别
{
w
i
}
i
=
1
,
⋯
,
c
\{w_i\}_{i = 1,\cdots,c}
{wi}i=1,⋯,c做离散正交展开,则对每一模式可分别写成
x
i
=
Φ
a
i
x_i = \Phi a_i
xi=Φai,对于各个模式类别,正交函数都是相同的,但其展开系数向量
a
i
a_i
ai不同,K-L展开式的根本性质是将随机向量
x
x
x展开为另一组正交向量
φ
j
\varphi_j
φj的线性和,下面是正交向量集
{
φ
j
}
\{\varphi_j\}
{φj}的确定:
设随机向量
x
x
x的总体相关矩阵为
R
=
E
{
x
x
T
}
R = E\{xx^T\}
R=E{xxT},由:
x
=
∑
j
=
1
n
a
j
ϕ
j
=
Φ
a
,
T
1
≤
t
≤
T
2
x = \sum_{j = 1}^na_j\phi_j = \Phi a,T_1 \leq t \leq T_2
x=j=1∑najϕj=Φa,T1≤t≤T2
将上式代入自相关矩阵得:
R
=
E
{
Φ
a
a
T
Φ
T
}
=
Φ
(
E
{
a
a
T
}
)
Φ
T
R = E\{\Phi aa^T\Phi^T\} = \Phi(E\{aa^T\})\Phi^T
R=E{ΦaaTΦT}=Φ(E{aaT})ΦT
要求向量
a
a
a的不同分量统计独立:
E
(
a
j
a
k
)
=
{
λ
j
j
=
k
0
j
≠
k
E(a_ja_k) = \begin{cases} \lambda_j & j = k \\ 0 & j \neq k \end{cases}
E(ajak)={λj0j=kj=k
写成矩阵形式:
E
{
a
a
T
}
=
D
λ
=
[
λ
1
0
⋯
⋯
0
0
⋱
0
⋯
0
0
λ
j
0
0
⋯
0
⋱
0
0
⋯
⋯
0
λ
n
]
E\{aa^T\} = D_\lambda = \left[ \begin{matrix} \lambda_1 & 0 & \cdots & \cdots & 0 \\ 0 & \ddots & 0 & \cdots & 0 \\ 0 & & \lambda_j & & 0 \\ 0 & \cdots & 0 & \ddots & 0 \\ 0 & \cdots & \cdots & 0 & \lambda_n \end{matrix} \right]
E{aaT}=Dλ=⎣
⎡λ100000⋱⋯⋯⋯0λj0⋯⋯⋯⋱00000λn⎦
⎤
则有:
R
=
Φ
D
λ
Φ
T
R = \Phi D_\lambda \Phi^T
R=ΦDλΦT
由于
Φ
\Phi
Φ的各个分量
ϕ
j
\phi_j
ϕj都相互正交,所以:
R
Φ
=
Φ
D
λ
Φ
T
Φ
=
Φ
D
λ
R\Phi = \Phi D_\lambda \Phi^T\Phi = \Phi D_\lambda
RΦ=ΦDλΦTΦ=ΦDλ
ϕ
j
\phi_j
ϕj对应为:
R
ϕ
j
=
λ
j
ϕ
j
R\phi_j = \lambda_j\phi_j
Rϕj=λjϕj
可以看出,
λ
j
\lambda_j
λj是
x
x
x的自相关矩阵
R
R
R的特征值,
ϕ
j
\phi_j
ϕj是对应的特征向量,K-L展开式系数为:
a
=
Φ
T
x
a = \Phi^T x
a=ΦTx
下面总结一下K-L展开式系数的计算步骤:
- 求随机向量 x x x的自相关矩阵: R = E { x x T } R = E\{xx^T\} R=E{xxT}
- 求出矩阵
R
R
R的特征值
λ
j
\lambda_j
λj和对应的特征向量
Φ
j
,
j
=
1
,
2
,
⋯
,
n
\Phi_j,j = 1,2,\cdots,n
Φj,j=1,2,⋯,n,得矩阵:
Φ = ( φ 1 , φ 2 , ⋯ , φ n ) \Phi = (\varphi_1,\varphi_2,\cdots,\varphi_n) Φ=(φ1,φ2,⋯,φn) - 计算展开式系数:
a = Φ T x a = \Phi^Tx a=ΦTx
K-L展开式用于特征选择相当于一种线性变换,若从
n
n
n个特征向量中取出
m
m
m个组成变换矩阵
Φ
\Phi
Φ,即:
Φ
=
(
φ
1
φ
2
⋯
φ
m
)
,
m
<
n
\Phi = (\varphi_1\ \varphi_2\ \cdots\ \varphi_m),m \lt n
Φ=(φ1 φ2 ⋯ φm),m<n
此时,
Φ
\Phi
Φ是一个
n
×
m
n \times m
n×m维矩阵,
x
x
x是
n
n
n维向量,经过
Φ
T
x
\Phi^T x
ΦTx变换,即得到降维为
m
m
m的新向量,接下来的问题是如何选取变换矩阵
Φ
\Phi
Φ,使得降维后的新向量在最小均方差条件下接近原来的向量
x
x
x,对于
x
=
∑
j
=
1
n
a
j
ϕ
j
x = \sum_{j = 1}^na_j\phi_j
x=∑j=1najϕj,现在仅取
m
m
m项,对略去的系数项用预先选定的常数
b
b
b代替,此时对
x
x
x的估计值为:
x
^
=
∑
j
=
1
m
a
j
ϕ
j
+
∑
j
=
m
+
1
n
b
ϕ
j
\hat{x} = \sum_{j = 1}^ma_j\phi_j + \sum_{j = m + 1}^nb\phi_j
x^=j=1∑majϕj+j=m+1∑nbϕj
则产生的误差为:
Δ
x
=
x
−
x
^
=
∑
j
=
m
+
1
n
(
a
j
−
b
)
ϕ
j
\Delta x = x - \hat{x} = \sum_{j = m + 1}^n(a_j - b)\phi_j
Δx=x−x^=j=m+1∑n(aj−b)ϕj
Δ
x
\Delta x
Δx的均方误差为:
ε
2
‾
=
E
{
∣
∣
Δ
x
∣
∣
}
2
=
∑
j
=
m
+
1
n
{
E
(
a
j
−
b
)
2
}
\overline{\varepsilon^2} = E\{||\Delta x||\}^2 = \sum_{j = m + 1}^n\{E(a_j - b)^2\}
ε2=E{∣∣Δx∣∣}2=j=m+1∑n{E(aj−b)2}
要使均方误差最小,对
b
b
b的选择应满足:
∂
∂
b
[
E
(
a
j
−
b
)
2
]
=
∂
∂
b
[
E
(
a
j
2
−
2
a
j
b
+
b
2
)
]
=
−
2
[
E
(
a
j
)
−
b
]
=
0
\frac{\partial}{\partial b}[E(a_j - b)^2] = \frac{\partial}{\partial b}[E(a^2_j - 2a_jb + b^2)] = -2[E(a_j) - b] = 0
∂b∂[E(aj−b)2]=∂b∂[E(aj2−2ajb+b2)]=−2[E(aj)−b]=0
因此:
b
=
E
(
a
j
)
b = E(a_j)
b=E(aj)
也就是省略掉的
a
a
a中的分量应该使用它们的数学期望来代替,此时的误差为:
ε
2
‾
=
∑
j
=
m
+
1
n
E
[
(
a
j
−
E
{
a
j
}
)
2
]
=
∑
j
=
m
+
1
n
ϕ
j
T
E
[
(
x
−
E
{
x
}
)
(
x
−
E
{
x
}
)
T
]
ϕ
j
=
∑
j
=
m
+
1
n
ϕ
j
T
C
x
ϕ
j
\overline{\varepsilon^2} = \sum_{j = m+ 1}^nE[(a_j - E\{a_j\})^2] = \sum_{j = m + 1}^n\phi_j^TE[(x - E\{x\})(x - E\{x\})^T]\phi_j = \sum_{j = m + 1}^n\phi_j^TC_x\phi_j
ε2=j=m+1∑nE[(aj−E{aj})2]=j=m+1∑nϕjTE[(x−E{x})(x−E{x})T]ϕj=j=m+1∑nϕjTCxϕj
其中,
C
x
C_x
Cx为
x
x
x的协方差矩阵,设
λ
j
\lambda_j
λj是
C
x
C_x
Cx的第
j
j
j歌特征值,
ϕ
j
\phi_j
ϕj是与
λ
j
\lambda_j
λj对应的特征向量,则:
C
x
ϕ
j
=
λ
j
ϕ
j
C_x\phi_j = \lambda_j\phi_j
Cxϕj=λjϕj
由于:
ϕ
j
T
ϕ
j
=
1
\phi_j^T\phi_j = 1
ϕjTϕj=1
从而:
ϕ
j
T
C
x
ϕ
j
=
λ
j
\phi_j^TC_x\phi_j = \lambda_j
ϕjTCxϕj=λj
所以:
ε
2
‾
=
∑
j
=
m
+
1
n
ϕ
j
T
C
x
ϕ
j
=
∑
j
=
m
+
1
n
λ
j
\overline{\varepsilon^2} = \sum_{j = m + 1}^n\phi_j^TC_x\phi_j = \sum_{j = m + 1}^n\lambda_j
ε2=j=m+1∑nϕjTCxϕj=j=m+1∑nλj
也就是省略掉的系数项对应的
λ
j
\lambda_j
λj越小,误差也越小
在进行特征提取之前,需要确保
E
[
a
j
]
=
0
E[a_j] = 0
E[aj]=0,因为
E
(
a
]
=
E
[
ϕ
T
x
]
=
ϕ
T
E
[
x
]
E(a] = E[\phi^Tx] = \phi^TE[x]
E(a]=E[ϕTx]=ϕTE[x],所以也就是计算
x
x
x的均值是不是为0,在进行K-L变换之前需要现将其均值作为新坐标轴的原点,如果均值不为0,那么只能得到次最佳的结果
将K-L展开式系数
a
j
a_j
aj(也就是变换之后的特征)用
y
j
y_j
yj表示,写成向量形式
y
=
ϕ
T
x
y=\phi^Tx
y=ϕTx,此时变换矩阵
ϕ
\phi
ϕ用
m
m
m个特征向量组成,为了使均方误差最小,根据上面的推导,不采用的特征向量,其对应的特征值应该尽可能小,通过K-L变换能获得互不相关的新特征,若采用较大特征值对应的特征向量组成变换矩阵,则能对应的保留原模式中方差最大的特征成分,所以K-L变换起到了减小相关性,突出差异性的效果,K-L变换也称为主成分变换PCA变换