算法原理
在现实任务中,线性不可分的情形才是最常见,因此需要允许支持向量机犯错。
策略
可以对损失函数进行优化
支持向量回归
相比于线性回归用一条线来拟合训练样本,支持向量机回归(SVR)采用一个以
f
(
x
)
=
w
T
x
+
b
f(x)=w^Tx+b
f(x)=wTx+b为中心,宽度为2e的间隔带,来拟合训练样本
落在带子上的样本不计算损失(类比线性回归在线上的点预测误差为0),不在带子上的则以偏离为带子的距离作为损失(类比线性回归的均方误差),然后以最小化损失的方式迫使间隔带从样本最密集的地方(中心地带)穿过,进而达到你和训练样本的目的。
之后使用拉格朗日乘子法得到SVR形如
f
(
x
)
=
∑
i
=
1
m
(
α
i
−
α
i
)
x
i
T
x
i
+
b
f(x)=\displaystyle\sum_{i=1}^m( \alpha_i- \alpha_i)x^T_ix_i+b
f(x)=i=1∑m(αi−αi)xiTxi+b
都一个阿拉法要加hat