台大·林轩田·机器学习基石·第二讲

本文详细介绍了感知机学习算法,包括Perceptron假设集、学习算法、算法的保障以及处理非可分数据的方法。感知机模型是线性分类器,通过不断调整权重向量以提高预测准确性。当数据集可分时,感知机学习算法能够收敛找到最优解;对于非可分数据,算法通过比较更新前后的预测效果进行参数更新。
摘要由CSDN通过智能技术生成

第二讲···感知机学习算法

2-1 Perceptron hypothesis set

对于银行是否决定要给申请者信用卡问题,对于输入数据(例如申请者的个人信息,年龄,性别,收入,工作情况等)可用一组特征表示,不妨表示为:

X = (x1, x2, x3,···, xd)

即可视为每一维数据是该申请者对应每一项条件的分数,设想是根据每一维数据的重要程度不同,每一维数据与一个权值相乘,最后的总和可视为该申请者的得分,若得分超过某一阈值,则输出同意借贷信用卡,否则拒绝。

在这里插入图片描述

这种感知机模型的设立易于理解,与生活实际相通,最后得到上图最后的模型,当加权和超过阈值,差为正数,输出为1,否则负数为-1,分别代表两种结果。

继续将上式简化,将+1作为申请者的另外一个特征的值,只不过这个值是常数,且该特征对应的权重为负的阈值。如下图所示:
在这里插入图片描述

最终,sign函数内部为两个向量的內积值,即权重向量与特征数值向量的內积。

可知感知机模型是个线性分类器,以上图为例,拥有两个特征,在二维平面内,不同的参数w可生成不同的直线,在高维空间中依旧如此,且直线两侧不同颜色代表是不同的预测结果值,因此称作线性分类器。

2-2 Perceptron learning algorithm

有了上一节设定的感知机模型之后,我们同时也拥有很多的data,还有相应的label,接下来就是根据所得到的data,用机器学习算法在感知机模型中找到一组最好的参数,可以使得该模型有很好的预测结果。

但是W参数是多维度的,每个维度都有无穷个的取值,因此,用穷举的办法找到最佳的W是不太可行的。

所以就采用另外一个办法,先假设一个初始的参数W,根据data慢慢修改W的值,来使模型越来越准确。
我们假设给W一个初始值,初始值可以任意,例如可以全部都取值为零,将这一组参数记为W0。

回顾上节知识,参数W为权重向量,包括第零维的负的阈值,x为data中的一个向量,为某一个个体的特征的分数,包括第零维1,W与x的內积若为正数,代入sign函数之后为1,即表明这组参数W所构成的感知机,在预测当前这个例子x时,输出记过为1,当然输出结果可能正确也可能错误。

在我们假定了初始参数W0之后,让拥有这组参数的感知机去一个个预测data中的每一个个体,W与x皆为高维空间中的向量,两者內积类比于平面向量的內积。若找到一个个体,W0与该个体向量內积与该个体的label异号,说明感知机在这个个体的预测上面有问题,说明需要适当调整W0向量的值。

若感知机预测的结果为正,而实际label为-1,则说明两向量夹角太小,导致向量內积大于0,因此要适当增加向量之间的夹角,方法就是W向量加上x向量与x向量的label相乘,此和来作为新的W的值,到此W参数更新一次,感知机结果为负数的时候,也是同理,公式仍然保持一致。

在每一轮更新中,感知机找到一个预测错误样本即可,再根据此样本进行更新,之后再进行新的一轮。直到便利所有data中的样本,所有的样本都被感知机预测正确,到此结束。

过程如图所示:
在这里插入图片描述

2-3 Guarantee of PLA

让PLA算法可以停下来的条件就是确实存在一组参数向量可以使感知机对所有个体都预测正确,假设这一组参数为 W f {W}_f Wf,代表就是我们通过算法想要模拟的最佳的参数向量。

因此对于任意一个个体( x n , y n {x}_n,{y}_n xn,yn)都有 y n {y_n} yn= s i g n ( W f T ⋅ x n ) sign({W^T_f·x_n}) sign(WfTxn) 代表全部预测正确。

在这里插入图片描述

上图证明了随着 W {W} W的不断更新,其与 W f {W}_f Wf的內积越来越大,一定程度上代表 W {W} W W f {W}_f Wf越来越接近,不过两向量內积的增大除了向量夹角变小之外,向量的长度变大也会有影响。

在这里插入图片描述

上图证明了向量长度的确在增长,不过根据前两页的公式,我们可以得到如下推导:

W f T ⋅ W T ≥ W f T ⋅ W T − 1 + m i n n ( y n ⋅ W f T ⋅ x n ) {W_f^T}\cdot{W_T}\geq{W_f^T}\cdot{W_{T-1}}+\underset{n}{min}(y_n\cdot{W_f^T}\cdot{x_n}) WfTWTWfTWT1+nmin(ynWfTxn)
≥ W f T ⋅ W T − 2 + 2 m i

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值