引言
上一节介绍了线性分类中硬分类的代表方法——感知机算法(Perceptron),本节将介绍硬分类中的另一种经典算法——线性判别分析(Linear Discriminant Analysis,LDA)。
回顾:线性分类与硬分类
线性分类与线性回归的模型形式是相同的——都是高维样本空间中的一条直线(超平面)。但由于任务性质不同,对应直线(超平面)使用的方式截然不同:
- 回归任务是模型拟合样本,回归任务中使用直线(超平面)的目的是基于给定的真实样本,如何最大程度地描述整个样本空间中样本的趋势。
- 分类任务是模型划分样本,分类任务中使用直线(超平面)的目的是直线(超平面)对样本空间划分后,样本空间中的样本在对应样本子空间中呈现分类效果。
给予上述思路,线性回归与线性分类的模型之间的核心区别是全局特征结果 W T x ( i ) + b \mathcal W^{T}x^{(i)} + b WTx(i)+b是否为线性特征。
- 线性回归模型表示如下:
f ( W , b ) = W T x ( i ) + b f(\mathcal W,b) = \mathcal W^{T}x^{(i)} + b f(W,b)=WTx(i)+b - 线性分类模型表示如下:
f ( W , b ) = s i g n ( W T x ( i ) + b ) f(\mathcal W,b) = sign(\mathcal W^{T}x^{(i)} + b) f(W,b)=sign(WTx(i)+b)
其中
s
i
g
n
sign
sign函数被称作激活函数,是一种非线性函数。硬分类中对于激活函数映射结果
y
p
r
e
d
(
i
)
y_{pred}^{(i)}
ypred(i)所对应的特征空间与真实标签
y
(
i
)
y^{(i)}
y(i)对应的特征空间相同。以
{
−
1
,
1
}
\{-1,1\}
{−1,1}二分类为例表示如下:
y
p
r
e
d
(
i
)
,
y
(
i
)
∈
{
−
1
,
1
}
(
i
=
1
,
2
,
⋯
,
N
)
y_{pred}^{(i)},y^{(i)} \in \{-1,1\}(i=1,2,\cdots,N)
ypred(i),y(i)∈{−1,1}(i=1,2,⋯,N)
而这种性质映射在激活函数中,具体表现为 基于阈值的分段函数:
s
i
g
n
(
a
)
=
{
1
i
f
y
p
r
e
d
(
i
)
>
k
−
1
e
l
s
e
sign(a) = \begin{cases}1 \quad if \quad y_{pred}^{(i)} > k \\ -1 \quad else \end{cases}
sign(a)={1ifypred(i)>k−1else
线性判别分析
场景描述
数据集合
D
a
t
a
=
{
(
x
(
i
)
,
y
(
i
)
)
}
i
=
1
,
2
,
⋯
,
N
Data=\{(x^{(i)},y^{(i)})\}_{i=1,2,\cdots,N}
Data={(x(i),y(i))}i=1,2,⋯,N由样本集合
X
\mathcal X
X和标签集合
Y
\mathcal Y
Y构成:
D
a
t
a
=
{
X
,
Y
}
X
=
{
x
(
1
)
,
x
(
2
)
,
⋯
,
x
(
N
)
}
Y
=
{
y
(
1
)
,
y
(
2
)
,
⋯
,
y
(
N
)
}
Data = \{\mathcal X,\mathcal Y\} \\ \mathcal X = \{x^{(1)},x^{(2)},\cdots,x^{(N)}\} \\ \mathcal Y = \{y^{(1)},y^{(2)},\cdots,y^{(N)}\}
Data={X,Y}X={x(1),x(2),⋯,x(N)}Y={y(1),y(2),⋯,y(N)}
其中
N
N
N表示样本数量,任意一个样本
x
(
i
)
(
i
=
1
,
2
,
⋯
,
N
)
x^{(i)}(i=1,2,\cdots,N)
x(i)(i=1,2,⋯,N)均是
p
p
p维向量,对应
y
(
i
)
y^{(i)}
y(i)是一个标量。
X
,
Y
\mathcal X,\mathcal Y
X,Y向量表示如下:
X
=
(
x
(
1
)
,
x
(
2
)
,
⋯
,
x
(
N
)
)
T
=
(
x
1
(
1
)
,
x
2
(
1
)
,
⋯
,
x
p
(
1
)
x
1
(
2
)
,
x
2
(
2
)
,
⋯
,
x
p
(
2
)
⋮
x
1
(
N
)
,
x
2
(
N
)
,
⋯
,
x
p
(
N
)
)
N
×
p
Y
=
(
y
(
1
)
,
y
(
2
)
,
⋯
,
y
(
N
)
)
T
=
(
y
(
1
)
y
(
2
)
⋮
y
(
N
)
)
N
×
1
\begin{aligned}\mathcal X & = (x^{(1)},x^{(2)}, \cdots,x^{(N)})^{T}=\begin{pmatrix}x_1^{(1)},x_2^{(1)},\cdots,x_p^{(1)} \\ x_1^{(2)},x_2^{(2)},\cdots,x_p^{(2)} \\ \vdots \\ x_1^{(N)},x_2^{(N)},\cdots,x_p^{(N)}\end{pmatrix}_{N \times p} \\ \mathcal Y & = (y^{(1)},y^{(2)},\cdots,y^{(N)})^{T} = \begin{pmatrix}y^{(1)} \\ y^{(2)} \\ \vdots \\ y^{(N)}\end{pmatrix}_{N \times 1}\end{aligned}
XY=(x(1),x(2),⋯,x(N))T=⎝
⎛x1(1),x2(1),⋯,xp(1)x1(2),x2(2),⋯,xp(2)⋮x1(N),x2(N),⋯,xp(N)⎠
⎞N×p=(y(1),y(2),⋯,y(N))T=⎝
⎛y(1)y(2)⋮y(N)⎠
⎞N×1
设标签集合
Y
\mathcal Y
Y的空间分布为:
y
(
i
)
∈
{
1
,
−
1
}
(
i
=
1
,
2
,
⋯
,
N
)
y^{(i)} \in \{1,-1\}(i=1,2,\cdots,N)
y(i)∈{1,−1}(i=1,2,⋯,N)
并假设标签集合中结果为1对应的样本集合为
X
C
1
\mathcal X_{ C_1}
XC1,结果为-1 对应的样本集合为
X
C
2
\mathcal X_{C_2}
XC2。即:
X
C
1
=
{
x
(
i
)
∣
y
(
i
)
=
1
}
X
C
2
=
{
x
(
i
)
∣
y
(
i
)
=
−
1
}
\mathcal X_{C_1} = \{x^{(i)} \mid y^{(i)} = 1\} \\ \mathcal X_{C_2} = \{x^{(i)} \mid y^{(i)} = -1\}
XC1={x(i)∣y(i)=1}XC2={x(i)∣y(i)=−1}
记集合
X
C
1
\mathcal X_{C_1}
XC1中样本数量为
N
1
N_1
N1,集合
X
C
2
\mathcal X_{C_2}
XC2中样本数量为
N
2
N_2
N2,那么集合
X
C
1
,
X
C
2
\mathcal X_{C_1},\mathcal X_{C_2}
XC1,XC2包含如下性质:
X
C
1
∪
X
C
2
=
X
N
1
+
N
2
=
N
\mathcal X_{C_1} \cup\mathcal X_{C_2} = \mathcal X \\ N_1+N_2 = N
XC1∪XC2=XN1+N2=N
线性判别分析思想
由于线性判别分析的模型形式依然是样本空间中的一条直线,用最朴素的思想将线性判别分析理解为:高内聚、低耦合。
具体意思是指:以二分类为例,存在某条直线对样本空间进行划分从而得到两个样本子空间,如果该直线使被划分的每个样本子空间内部样本之间的距离足够小的同时,两个样本子空间的样本距离足够大,即可达到线性分类的目的。
但由于每个样本 x ( i ) ( i = 1 , 2 , ⋯ , N ) x^{(i)}(i=1,2,\cdots,N) x(i)(i=1,2,⋯,N)均是 p p p维向量,我们计算样本间距离是非常麻烦的——为了简化上述思想,使用降维:将 p p p维空间中的所有样本点全部映射到一维空间中。
在几何角度观察高斯分布中介绍过,将当前的
p
p
p维坐标系映射到另一个
p
p
p维坐标系中,本质上是将样本点的每一维度结果乘以对应维度的参考系向量,从而得到一个新的
p
p
p维向量:
k
=
(
k
1
k
2
⋮
k
p
)
,
k
i
=
x
T
u
i
(
i
=
1
,
2
,
⋯
,
p
)
k = \begin{pmatrix}k_1 \\k_2 \\ \vdots \\ k_p\end{pmatrix},k_i = x^{T}u_i \quad(i=1,2,\cdots,p)
k=⎝
⎛k1k2⋮kp⎠
⎞,ki=xTui(i=1,2,⋯,p)
其中,
u
i
∈
R
p
,
x
∈
R
p
u_i \in \mathbb R^p,x \in \mathbb R^p
ui∈Rp,x∈Rp。通过观察可以看出,基于新的特征空间向量
k
k
k中每个维度分量
k
i
k_i
ki都需要原始向量
x
x
x乘以对应维度的参考系向量
u
i
u_i
ui。那么整个参考系矩阵
U
U
U自然是
p
×
p
p \times p
p×p维度:
U
=
(
u
1
,
u
2
,
⋯
,
u
p
)
p
×
p
T
U = (u_1,u_2,\cdots,u_p)^{T}_{p \times p}
U=(u1,u2,⋯,up)p×pT
线性判别分析中并不是将
p
p
p维空间映射到
p
p
p维空间,而只是将
p
p
p维空间映射到1维空间。基于上述逻辑,参考系矩阵
U
U
U只需要是一个
p
p
p维向量,从而将原始的
p
p
p维向量映射成一个标量(1维坐标系中的点):
某一具体
p
p
p维样本点
x
(
i
)
=
(
x
1
(
i
)
,
x
2
(
i
)
,
⋯
,
x
p
(
i
)
)
T
x^{(i)} = (x_1^{(i)},x_2^{(i)},\cdots,x_p^{(i)})^{T}
x(i)=(x1(i),x2(i),⋯,xp(i))T,被映射的1维参考系为
U
^
=
(
u
1
^
,
u
2
^
,
⋯
,
u
p
^
)
p
×
1
T
\hat U = (\hat {u_1}, \hat {u_2},\cdots,\hat {u_p})^{T}_{p \times 1}
U^=(u1^,u2^,⋯,up^)p×1T,它的映射结果
k
(
i
)
k^{(i)}
k(i)表示如下:
k
(
i
)
=
x
(
i
)
T
U
^
=
(
x
1
(
i
)
,
x
2
(
i
)
,
⋯
,
x
p
(
i
)
)
(
u
1
^
u
2
^
⋮
u
p
^
)
=
x
1
(
i
)
u
1
^
+
x
2
(
i
)
u
2
^
+
⋯
x
p
(
i
)
u
p
^
k^{(i)} = {x^{(i)}}^{T} \hat U = (x_1^{(i)},x_2^{(i)},\cdots,x_p^{(i)})\begin{pmatrix}\hat {u_1} \\ \hat{u_2} \\ \vdots \\ \hat{u_p}\end{pmatrix} = x_1^{(i)}\hat {u_1} + x_2^{(i)}\hat {u_2} + \cdots x_p^{(i)}\hat {u_p}
k(i)=x(i)TU^=(x1(i),x2(i),⋯,xp(i))⎝
⎛u1^u2^⋮up^⎠
⎞=x1(i)u1^+x2(i)u2^+⋯xp(i)up^
我们发现:这种表现形式和 W T x ( i ) \mathcal W^{T}x^{(i)} WTx(i)殊途同归。此时,我们可以给 W \mathcal W W一个实际意义:
W
\mathcal W
W是
p
p
p维样本空间映射到1维空间的参考系。判定
W
\mathcal W
W优劣的标准是:对映射后的一维空间中的子空间内尽最大程度满足高内聚、低耦合条件。一旦找到最优参考系
W
^
\hat {\mathcal W}
W^,通过最优参考系求解最优模型斜率
W
^
T
\hat {\mathcal W}^{T}
W^T,最后通过调整偏置项
b
b
b(阈值)来确定最终模型。
由于参考系
W
\mathcal W
W与模型参数
W
T
\mathcal W^{T}
WT之间属于垂直关系,一旦参考系被确定,那么模型直线的方向也自然被确定。
关键问题在于:如何确定最优 W \mathcal W W?这里需要一个策略(损失函数)。这个损失函数如何构建?此时就需要用数学符号表示“高内聚、低耦合”思想了。
思想的符号化表示
回到当前样本集合
{
(
x
(
i
)
,
y
(
i
)
)
}
i
=
1
,
2
,
⋯
,
N
\{(x^{(i)},y^{(i)})\}_{i=1,2,\cdots,N}
{(x(i),y(i))}i=1,2,⋯,N,假设
W
\mathcal W
W是
p
p
p维样本空间映射到1维空间的参考系,并定义 映射后的特征结果为
z
(
i
)
z^{(i)}
z(i)。
z
(
i
)
z^{(i)}
z(i)的数学符号表示如下:
z
(
i
)
=
W
T
x
(
i
)
z^{(i)} = \mathcal W^{T}x^{(i)}
z(i)=WTx(i)
由于
z
(
i
)
z^{(i)}
z(i)是一个标量,其实际意义可以理解为样本点
x
(
i
)
x^{(i)}
x(i)在参考系
W
\mathcal W
W上投影的具体结果;
也可以直接理解成‘数轴’
W
\mathcal W
W上的一个实数点;
由于每一组数据都包含真实标签信息,按照真实标签结果进行划分。结合场景描述,分别将标签为
1
,
−
1
1,-1
1,−1的样本点使用参考系
W
\mathcal W
W进行投影,并将均值结果作为各分类标签对应样本点投影的综合考量:
令
Z
1
ˉ
,
Z
2
ˉ
\bar {\mathcal Z_1},\bar {\mathcal Z_2}
Z1ˉ,Z2ˉ分别为样本集合
X
C
1
,
X
C
2
\mathcal X_{C_1},\mathcal X_{C_2}
XC1,XC2内样本点投影后的均值结果。
Z
1
ˉ
=
1
N
1
∑
i
=
1
N
1
W
T
x
(
i
)
Z
2
ˉ
=
1
N
2
∑
i
=
1
N
2
W
T
x
(
i
)
\bar {\mathcal Z_1} = \frac{1}{N_1}\sum_{i=1}^{N_1} \mathcal W^{T}x^{(i)} \\ \bar {\mathcal Z_2} = \frac{1}{N_2}\sum_{i=1}^{N_2} \mathcal W^{T}x^{(i)}
Z1ˉ=N11i=1∑N1WTx(i)Z2ˉ=N21i=1∑N2WTx(i)
至此,我们将
Z
1
ˉ
,
Z
2
ˉ
\bar {\mathcal Z_1},\bar {\mathcal Z_2}
Z1ˉ,Z2ˉ之间的差距 作为原始
p
p
p维空间被划分后的样本子空间的综合考量距离,由于
Z
1
ˉ
,
Z
2
ˉ
\bar {\mathcal Z_1},\bar {\mathcal Z_2}
Z1ˉ,Z2ˉ之间大小关系不确定,因此类间关系定义如下:
Z
1
ˉ
,
Z
2
ˉ
\bar {\mathcal Z_1},\bar {\mathcal Z_2}
Z1ˉ,Z2ˉ之间差距越大,类间关系越清晰,就越容易被模型划分;
(
Z
1
ˉ
−
Z
2
ˉ
)
2
(\bar {\mathcal Z_1} - \bar {\mathcal Z_2})^2
(Z1ˉ−Z2ˉ)2
同理,分别计算 各类标签对应样本点投影的方差 作为各类标签对应样本点内部凝聚程度的综合考量:
令
S
1
,
S
2
\mathcal S_1,\mathcal S_2
S1,S2分别为样本集合
X
C
1
,
X
C
2
\mathcal X_{C_1},\mathcal X_{C_2}
XC1,XC2内部样本点投影的方差结果。
S
1
=
1
N
1
∑
j
=
1
N
1
(
W
T
x
(
j
)
−
Z
1
ˉ
)
(
W
T
x
(
j
)
−
Z
1
ˉ
)
T
S
2
=
1
N
2
∑
j
=
1
N
2
(
W
T
x
(
j
)
−
Z
2
ˉ
)
(
W
T
x
(
j
)
−
Z
2
ˉ
)
T
\mathcal S_1 = \frac{1}{N_1} \sum_{j=1}^{N_1}(\mathcal W^{T}x^{(j)} - \bar {\mathcal Z_1})(\mathcal W^{T}x^{(j)} - \bar {\mathcal Z_1})^{T} \\ \mathcal S_2 = \frac{1}{N_2}\sum_{j=1}^{N_2}(\mathcal W^{T}x^{(j)} - \bar {\mathcal Z_2})(\mathcal W^{T}x^{(j)} - \bar {\mathcal Z_2})^{T}
S1=N11j=1∑N1(WTx(j)−Z1ˉ)(WTx(j)−Z1ˉ)TS2=N21j=1∑N2(WTx(j)−Z2ˉ)(WTx(j)−Z2ˉ)T
至此,分别得到了 两组标签对应样本点的凝聚程度信息,类内关系定义如下:
S
1
,
S
2
\mathcal S_1,\mathcal S_2
S1,S2越小,意味着各分类内部样本点的凝聚程度越高,越容易被模型划分;
S
1
+
S
2
\mathcal S_1 + \mathcal S_2
S1+S2
最终,结合类内、类间关系的性质,构建策略如下:
J
(
W
)
\mathcal J(\mathcal W)
J(W)结果越大,样本更容易被模型划分;
J
(
W
)
=
(
Z
1
ˉ
−
Z
2
ˉ
)
2
S
1
+
S
2
\mathcal J(\mathcal W) = \frac{(\bar {\mathcal Z_1} - \bar {\mathcal Z_2})^2}{\mathcal S_1 + \mathcal S_2}
J(W)=S1+S2(Z1ˉ−Z2ˉ)2
将上述公式化简为含变量
W
\mathcal W
W的结果:
观察分子,将分子展开:
(
Z
1
ˉ
−
Z
2
ˉ
)
2
=
(
1
N
1
∑
j
=
1
N
1
W
T
x
(
j
)
−
1
N
2
∑
j
=
1
N
2
W
T
x
(
j
)
)
2
\begin{aligned}(\bar {\mathcal Z_1} - \bar {\mathcal Z_2})^2 & = \left(\frac{1}{N_1} \sum_{j=1}^{N_1} \mathcal W^{T}x^{(j)} - \frac{1}{N_2}\sum_{j=1}^{N_2}\mathcal W^{T}x^{(j)}\right)^2 \end{aligned}
(Z1ˉ−Z2ˉ)2=(N11j=1∑N1WTx(j)−N21j=1∑N2WTx(j))2
由于
W
T
\mathcal W^{T}
WT中不含
j
j
j,视为常数,因此将
W
T
\mathcal W^{T}
WT提出:
[
W
T
(
1
N
1
∑
j
=
1
N
1
x
(
j
)
−
1
N
2
∑
j
=
1
N
2
x
(
j
)
)
]
2
\left[\mathcal W^{T}\left(\frac{1}{N_1}\sum_{j=1}^{N_1}x^{(j)} - \frac{1}{N_2}\sum_{j=1}^{N_2}x^{(j)}\right)\right]^2
[WT(N11j=1∑N1x(j)−N21j=1∑N2x(j))]2
观察,
1
N
1
∑
j
=
1
N
1
x
(
j
)
,
1
N
2
∑
j
=
1
N
2
x
(
j
)
\frac{1}{N_1}\sum_{j=1}^{N_1}x^{(j)},\frac{1}{N_2}\sum_{j=1}^{N_2}x^{(j)}
N11∑j=1N1x(j),N21∑j=1N2x(j)包含实际意义,即 两组标签对应原始样本点的均值结果。具体定义如下:
X
C
1
ˉ
=
1
N
1
∑
j
=
1
N
1
x
(
j
)
X
C
2
ˉ
=
1
N
2
∑
j
=
1
N
2
x
(
j
)
\bar {\mathcal X_{C_1}} = \frac{1}{N_1}\sum_{j=1}^{N_1}x^{(j)} \\ \bar {\mathcal X_{C_2}} = \frac{1}{N_2}\sum_{j=1}^{N_2}x^{(j)}
XC1ˉ=N11j=1∑N1x(j)XC2ˉ=N21j=1∑N2x(j)
最终分子可以表示为如下格式:
(
Z
1
ˉ
−
Z
2
ˉ
)
2
=
[
W
T
(
X
C
1
ˉ
−
X
C
2
ˉ
)
]
2
=
W
T
(
X
C
1
ˉ
−
X
C
2
ˉ
)
(
X
C
1
ˉ
−
X
C
2
ˉ
)
T
W
\begin{aligned}(\bar {\mathcal Z_1} - \bar {\mathcal Z_2})^2 & = \left[\mathcal W^{T} \left(\bar {\mathcal X_{C_1}} - \bar {\mathcal X_{C_2}}\right)\right]^2 \\ & = \mathcal W^{T}(\bar {\mathcal X_{C_1}} - \bar {\mathcal X_{C_2}})(\bar {\mathcal X_{C_1}} - \bar {\mathcal X_{C_2}})^{T} \mathcal W\end{aligned}
(Z1ˉ−Z2ˉ)2=[WT(XC1ˉ−XC2ˉ)]2=WT(XC1ˉ−XC2ˉ)(XC1ˉ−XC2ˉ)TW
观察分母,观察其中一项:
S
1
\mathcal S_1
S1
S
1
=
1
N
1
∑
j
=
1
N
1
(
W
T
x
(
j
)
−
Z
1
ˉ
)
(
W
T
x
(
j
)
−
Z
1
ˉ
)
T
=
1
N
1
∑
j
=
1
N
1
(
W
T
x
(
j
)
−
1
N
1
∑
i
=
1
N
1
W
T
x
(
i
)
)
(
W
T
x
(
j
)
−
1
N
1
∑
i
=
1
N
1
W
T
x
(
i
)
)
T
\begin{aligned}\mathcal S_1 & = \frac{1}{N_1}\sum_{j=1}^{N_1}(\mathcal W^{T}x^{(j)} - \bar {\mathcal Z_1})(\mathcal W^{T}x^{(j)} - \bar {\mathcal Z_1})^{T} \\ & = \frac{1}{N_1}\sum_{j=1}^{N_1}\left(\mathcal W^{T}x^{(j)} - \frac{1}{N_1}\sum_{i=1}^{N_1}\mathcal W^{T}x^{(i)}\right)\left(\mathcal W^{T}x^{(j)} - \frac{1}{N_1}\sum_{i=1}^{N_1}\mathcal W^{T}x^{(i)}\right)^{T} \end{aligned}
S1=N11j=1∑N1(WTx(j)−Z1ˉ)(WTx(j)−Z1ˉ)T=N11j=1∑N1(WTx(j)−N11i=1∑N1WTx(i))(WTx(j)−N11i=1∑N1WTx(i))T
同上,
W
T
\mathcal W^{T}
WT不含
i
,
j
i,j
i,j,视为常数;化简求得:
S
1
=
W
T
[
1
N
1
∑
j
=
1
N
1
(
x
(
j
)
−
X
C
1
ˉ
)
(
x
(
j
)
−
X
C
1
ˉ
)
T
]
W
\mathcal S_1 = \mathcal W^{T}\left[\frac{1}{N_1}\sum_{j=1}^{N_1}(x^{(j)} - \bar {\mathcal X_{C_1}})(x^{(j)} - \bar {\mathcal X_{C_1}})^{T}\right]\mathcal W
S1=WT[N11j=1∑N1(x(j)−XC1ˉ)(x(j)−XC1ˉ)T]W
观察中间项:
1
N
1
∑
j
=
1
N
1
(
x
(
j
)
−
X
C
1
ˉ
)
(
x
(
j
)
−
X
C
1
ˉ
)
T
\frac{1}{N_1}\sum_{j=1}^{N_1}(x^{(j)} - \bar {\mathcal X_{C_1}})(x^{(j)} - \bar {\mathcal X_{C_1}})^{T}
N11∑j=1N1(x(j)−XC1ˉ)(x(j)−XC1ˉ)T,它同样具有实际意义,即:
X
C
1
\mathcal X_{C_1}
XC1样本集合的方差结果。 同样适用一个符号定义该数值:
S
C
1
=
1
N
1
∑
j
=
1
N
1
(
x
(
j
)
−
X
C
1
ˉ
)
(
x
(
j
)
−
X
C
1
ˉ
)
T
\mathcal S_{C_1} = \frac{1}{N_1} \sum_{j=1}^{N_1}(x^{(j)} - \bar {\mathcal X_{C_1}})(x^{(j)} - \bar {\mathcal X_{C_1}})^{T}
SC1=N11j=1∑N1(x(j)−XC1ˉ)(x(j)−XC1ˉ)T
至此,
S
1
\mathcal S_1
S1可记作为如下格式:
S
1
=
W
T
S
C
1
W
\mathcal S_1 = \mathcal W^{T}\mathcal S_{C_1}\mathcal W
S1=WTSC1W
同理,
S
2
\mathcal S_2
S2可记作如下格式:
S
C
2
\mathcal S_{C_2}
SC2表示
X
C
2
\mathcal X_{C_2}
XC2样本集合的方差结果;
S
2
=
W
T
S
C
2
W
\mathcal S_2 = \mathcal W^{T}\mathcal S_{C_2}\mathcal W
S2=WTSC2W
分母结果可表示为:
W
T
(
S
C
1
+
S
C
2
)
W
\mathcal W^{T}(\mathcal S_{C_1} + \mathcal S_{C_2})\mathcal W
WT(SC1+SC2)W
最终,基于高内聚、低耦合思想的关于模型参数
W
\mathcal W
W的策略
J
(
W
)
\mathcal J(\mathcal W)
J(W)表示如下:
J
(
W
)
=
(
Z
1
ˉ
−
Z
2
ˉ
)
2
S
1
+
S
2
=
W
T
(
X
C
1
ˉ
−
X
C
2
ˉ
)
(
X
C
1
ˉ
−
X
C
2
ˉ
)
T
W
W
T
(
S
C
1
+
S
C
2
)
W
\begin{aligned}\mathcal J(\mathcal W) & = \frac{(\bar {\mathcal Z_1} - \bar {\mathcal Z_2})^2}{\mathcal S_1 + \mathcal S_2} \\ & = \frac{\mathcal W^{T}(\bar {\mathcal X_{C_1}} - \bar {\mathcal X_{C_2}})(\bar {\mathcal X_{C_1}} - \bar {\mathcal X_{C_2}})^{T}\mathcal W}{\mathcal W^{T}(\mathcal S_{C_1} + \mathcal S_{C_2})\mathcal W}\end{aligned}
J(W)=S1+S2(Z1ˉ−Z2ˉ)2=WT(SC1+SC2)WWT(XC1ˉ−XC2ˉ)(XC1ˉ−XC2ˉ)TW
观察最终结果,除了 W \mathcal W W,其他符号如 S C 1 , S C 2 , X C 1 ˉ , X C 2 ˉ \mathcal S_{C_1},\mathcal S_{C_2},\bar {\mathcal X_{C_1}},\bar {\mathcal X_{C_2}} SC1,SC2,XC1ˉ,XC2ˉ均可以通过样本集合 { ( x ( i ) , y ( i ) ) } i = 1 , 2 , ⋯ , N \{(x^{(i)},y^{(i)})\}_{i=1,2,\cdots,N} {(x(i),y(i))}i=1,2,⋯,N直接求解。均为已知项。
下一节针对策略 J ( W ) \mathcal J(\mathcal W) J(W)求解最优模型参数 W ^ \hat {\mathcal W} W^.
相关参考:
机器学习-线性分类3-线性判别分析-模型定义