统计机器学习笔记(一):感知机

 **perceptron:感知机,二分类的线性分类模型。**
 从输入的特征向量判定类别,向量-->{-1,1},目的是为了求出将数据进行线性划分的分离超平面。
模型特点:线性,判别。

在这里插入图片描述

  • 数据的线性可分:存在一个超平面S,使得所有yi=1的f(xi)>0,所有yi=-1的f(xi)<0,则称数据为线性可分。

    学习策略:(损失函数的选择)首先想到的是误分类点的个数,但是这个不能表示为参数的可微函数,不容易优化,因此选择的损失函数为**误分类点到感知机S的距离。***
    对于误分类点:有-yi(w
    xi+b)>0

    因此,将样本点的函数间隔 定义为感知机的损失函数。在这里插入图片描述

感知机算法的原始形式:
W=-∑_(xi∈m)xiyi b=-∑_(xi∈m)yi
M为所有误分类点的集合。在误分类时是w与b的可导线性函数,在没有误分类时为0。
minL(w,b):选取任意超平面(w0,b0),然后随机选取误分类点(xi,yi),更新w=w+lrxiyi,b=b+lryi。通过不断迭代使得损失函数L减小至零。lr∈[0,1],yi为-1或者1.
不是一次使所有误分类点的梯度下降,而是随机选取一个误分类点使其梯度下降
感知机初值选取与迭代顺序不同,最后获得的超平面也不同。

误分类的次数k是有上界的。在这里插入图片描述

感知机的对偶形式:
原始形式是通过迭代不断累加误分类点的xiyi与yi值,因此最后求得的W与b必然是不同点的xiyi与yi值的线性加权,因此可以通过直接求解应该给每个点赋予的不同系数来求解。当系数越大时,证明在这个点进行迭代的次数也就越多,说明这个点越接近超平面,越难进行分类。

感知机解决线性可分的问题:
单层感知机输出:
在这里插入图片描述

感知机表示简单逻辑
与:y=(1x1+1x2-1.5),只有同为1才取正。
或:y=(1x1+1x2-0.5),只有同为0才取负。
非:y=(-x1+0.5),x为0时,取正,x为1时,取负。
异或:不可通过单层感知机表达。
‘与的感知机表示‘’
‘异或的感知机推导’

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值