感知机原理及数学推导

感知机

—感知机是一个线性的二分类模型,其输入为实例的特征向量,输出为实例类别,取+1,-1.其旨在求出将训练数据进行现线性划分的分离超平面,当然,按照三要素原则,在此处引入损失函数,并通过梯度下降法对损失函数进行极小化以求得感知机模型。

感知机模型

在这里插入图片描述
w,b为感知机模型参数,w叫做权值或权值向量,b叫做偏置,w.x表示w和x的内积。其几何解释如下:
在这里插入图片描述
对应于特征空间中的一个超平面S,其中w是超平面的法向量,b是超平面的截距。该超平面将特征空间划分为两个部分,即正、负两类,其效果如图:
在这里插入图片描述

感知机学习策略

显然,对于机器学习的策略制定,我们都需要考虑一个合适的衡量损失的指标,一般来讲,这个指标都是损失函数,此处也是如此。对于分类问题,我们首先可以考虑用误判数来构建损失函数,但这样获得的函数对于w和b来讲是不可连续的,要达到损失函数极小化目的显然不易。但是从点到超平面的距离这个度量出发的话就合适多了。
任一点到超平面的距离
任一点到超平面的距离。
其次,对于误分类的数据来说:
在这里插入图片描述
因为当在这里插入图片描述
在这里插入图片描述
所以,误分类点到超平面距离可以写为:
在这里插入图片描述
误分类点到超平面总距离可以写为:
在这里插入图片描述
不考虑||w||,就能够得到感知机学习的损失函数。
在这里插入图片描述
M为误分类点的集合,L(w,b)就是感知机学习的经验风险函数。
显然,这个经验损失函数是非负的,当误分类点个数为0时,损失值也为0,且误分类点越少,误分类点总距离离超平面就越近。

感知机学习算法

根据惯例,我们对获得的经验风险函数进行最优化处理,由于之前考虑到风险函数对w与b连续可导,所以求取风险函数最小值时可以采取梯度下降的方法。
在这里插入图片描述
其中在这里插入图片描述是步长,又称学习率,如此迭代下去,经验风险最后能够降低至0。

算法流程(原始形式)

在这里插入图片描述
总结来讲,此算法就是不断地减少误分类集合中的点,并一一将其归类于正确分类中,直至全部正确分类。

对偶形式

在这里插入图片描述
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值