策略
极小化损失函数:
m
i
n
w
,
b
L
(
w
,
b
)
=
−
∑
x
i
∈
M
y
i
(
w
⋅
x
i
+
b
)
min_{w,b}^{} L(w,b)=-\sum_{x_i\in M}^{}y_i(w\cdot x_i+b)
minw,bL(w,b)=−xi∈M∑yi(w⋅xi+b)
原始形式
输入:训练数据集
T
=
{
(
x
1
,
y
1
)
,
(
x
2
,
y
2
)
,
…
,
(
x
N
,
y
N
)
}
T=\left \{ (x_1,y_1),(x_2,y_2),…,(x_N,y_N) \right \}
T={(x1,y1),(x2,y2),…,(xN,yN)}
其中
x
i
∈
X
=
R
n
,
y
i
∈
Y
=
{
−
1
,
+
1
}
,
i
=
1
,
2
,
…
,
N
;
学习率
η
(
0
<
η
≤
1
)
x_i\in X =\mathbf{R}^{n},y_i\in Y=\left \{ -1,+1 \right \},i=1,2,…,N;学习率\eta (0< \eta \le 1)
xi∈X=Rn,yi∈Y={−1,+1},i=1,2,…,N;学习率η(0<η≤1)
输出:
w
,
b
w,b
w,b;感知机模型
f
(
x
)
=
s
i
g
n
(
w
⋅
x
+
b
)
f(x)=sign(w·x+b)
f(x)=sign(w⋅x+b)。
步骤:
- 选取初值 w 0 , b 0 w_0,b_0 w0,b0
- 在训练集中选取数据 ( x i , y i ) (x_i,y_i) (xi,yi)
- 如果
y
i
(
w
⋅
x
i
+
b
)
≤
0
y_i(w·x_i+b) \le 0
yi(w⋅xi+b)≤0,
w ← w + η y i x i , b ← b + η y i w\gets w+\eta y_ix_i,b\gets b+\eta y_i w←w+ηyixi,b←b+ηyi - 转至(2),直至训练集中没有误分类点
对偶形式
输入:线性可分的数据集
T
=
{
(
x
1
,
y
1
)
,
(
x
2
,
y
2
)
,
…
,
(
x
N
,
y
N
)
}
T=\left \{ (x_1,y_1),(x_2,y_2),…,(x_N,y_N) \right \}
T={(x1,y1),(x2,y2),…,(xN,yN)}
其中
x
i
∈
X
=
R
n
,
y
i
∈
Y
=
{
−
1
,
+
1
}
,
i
=
1
,
2
,
…
,
N
;
学习率
η
(
0
<
η
≤
1
)
x_i\in X =\mathbf{R}^{n},y_i\in Y=\left \{ -1,+1 \right \},i=1,2,…,N;学习率\eta (0< \eta \le 1)
xi∈X=Rn,yi∈Y={−1,+1},i=1,2,…,N;学习率η(0<η≤1)
输出:
α
,
b
\alpha ,b
α,b;感知机模型
f
(
x
)
=
s
i
g
n
(
∑
j
=
1
N
α
j
y
j
x
j
⋅
x
+
b
)
f(x)=sign(\sum_{j=1}^{N}\alpha _jy_jx_j ·x+b)
f(x)=sign(j=1∑Nαjyjxj⋅x+b)其中
α
=
(
α
1
,
α
2
,
…
α
n
)
T
\alpha =(\alpha _1,\alpha _2,…\alpha _n)^{T}
α=(α1,α2,…αn)T
步骤:
- a ← 0 , b ← 0 a\gets 0,b\gets 0 a←0,b←0
- 计算Gram矩阵(预先处理内积)
- 在训练集中选取数据 ( x i , y i ) (x_i,y_i) (xi,yi)
- 如果 y i ( ∑ j = 1 N α j y j x j ⋅ x + b ) ≤ 0 y_i(\sum_{j=1}^{N}\alpha _jy_jx_j ·x+b) \le 0 yi(j=1∑Nαjyjxj⋅x+b)≤0有 α i ← α i + η , b ← b + η y i \alpha _i\gets \alpha _i+\eta ,b\gets b+\eta y_i αi←αi+η,b←b+ηyi
- 转至(3)直到没有误分类数据。