感知器算法原理详解

感知器是人工神经网络中的一种典型结构, 它的主要的特点是结构简单。它是一种分类学习器,是很多复杂算法的基础。其“赏罚概念”在机器学习算法在中广为应用。在分类正确时,对正确的权重向量w赏,即w不变;当分类错误时,对权重向量罚,即将权重向量w向着争取的方向转变。

算法步骤

在这里先对感知器算法步骤进行说明。
假设有样本集如下图所示,其中xi为样本特征向量,yi为对应样本分类标签。

在这里插入图片描述
在传统线性可分的二分类情况下,可以使wTx>=0时分类为正样本,wTx<0分类为负样本。
算法步骤如下图所示,对所有负样本乘以-1以方便算法流程,即使wTx>=0时判断为分类正确。
随机生成初始权重向量w0,在每轮迭代中,若样本i分类正确即wTxi>=0时,不对w进行修改;当本轮迭代中,针对样本i出现分类错误,即wTxi<0时,对权重向量w“罚”,使之朝着正确的趋势改进。η为学习率。
在迭代次数t=T时,如果无错误分类,则迭代结束。
感知器算法步骤

算法步骤解释

用错分样本xi作为权重向量的改进尺度,迭代能否收敛呢?答案是肯定的,对于特征向量xi,其内积大于xiTxi必定大于0。即:
在这里插入图片描述
而当我们讨论到为什么要用自身样本特征向量xi作为“”时,实际上,对于权重向量w,如果某个样本特征向量x被错误分类,则wTx<0。我们可以用对所有错分样本的求和来表示对错分样本的惩罚:
在这里插入图片描述
Γ为所有错分样本集。Jp(w)为风险泛函。
对于解向量w*,我们希望它满足以下公式。即无错分样本时,Jp(w*)值为0。实际上,当Jp(w)越趋近于0时,我们可以认为样本越朝着正确的方向前进。
在这里插入图片描述
对于Jp(w*)的最小化,可以由梯度下降法求解。t为迭代次数,η为学习率。即:
在这里插入图片描述
根据上式:
在这里插入图片描述
那么,我们最终的迭代方案可以为:
在这里插入图片描述

  • 6
    点赞
  • 82
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值