感知机算法分类原理学习笔记

1. 感知机模型

给定训练样本集

若存在超平面,使下面等式成立:

若某一样本满足超平面不等式:

则该样本为正样本;

若另一样本满足平面不等式:

为了简化该模型,我们使用向量x表示样本,向量w表示参数,并用sign函数表示不等式,则有:

函数sign(x)的含义为:

上述这一模型就是我们熟知的感知机模型,如下图:

2. 感知机模型的损失函数

若我们知道了感知机模型的超平面,我们定义误分类点到超平面的距离为该样本点的损失函数。

误分类点的含义为感知机模型错误分类的点,如下图:

误分类点满足下式:

误分类样本的损失函数为该样本点到超平面的距离:

我们发现,当分子参数 w 增加N倍时,分母参数的L2范数也会相应的增加N倍,因此误分类样本可以简化为:

损失函数为误分类点到超平面的距离之和:

3. 感知机模型损失函数的优化过程

由上节可知,损失函数为误分类点到超平面的距离之和:

损失函数相对于参数w的偏导数为:

梯度下降法更新模型参数:

即:

其中λ为学习率。

梯度下降法迭代过程中止条件:当参数 w 迭代过程中,没有任何的误分类点,则迭代结束。

4. 感知机模型的算法对偶形式

若样本容量为N,每一个样本的迭代次数为,模型参数的初始值为0,由梯度下降法可得:

我们容易知道正确分类样本的迭代次数等于0。

有:

上式就是参数 w 的表达式。

对于某一个样本,若:

则该样本为误分类点,需要用梯度下降法更新参数。

若:

则该样本为正确分类的点,不需要更新参数。

为了加快算法运行速度,我们首先计算每个样本间的Gram矩阵,在感知机对偶形式的内积计算时直接调用Gram矩阵的元素,节省了样本内积计算的时间。

6.感知机分类模型的缺点

感知机模型的超平面不是唯一的,超平面与误分类点的计算顺序、初始值以及学习率相关,如下两个超平面,都能使损失函数等于0。

    

               

分类模型肯定会有最佳的超平面,感知机模型不能得到最优超平面,支持向量机在感知机模型的基础上得到最优超平面,下节将介绍支持向量机。

参考:

https://www.cnblogs.com/pinard/p/6042320.html

欢迎扫码关注:

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值