机器学习基石-Learning to Answer Yes/No

课程大纲

这里写图片描述

Perceptron Hypothesis Set

1.Hypothesis的线性表示

  • x=(x1,x2,...xd)
  • y={+1,1}

h(x)=sign((i=1dwixi)thershold)

2.Hypothesis的向量表示

h(x)=sign(wTx)

3.Hypothesis的图像表示

这里写图片描述

  • x :平面上的点
  • y (+1) , (1)
  • hypothesis :平面上的线,不同的 w 代表不同的线,也代表不同的假设

Perceptron Learning Algorithm

1.算法的目的:从假设空间寻找一个比较好的假设

这里写图片描述

2.算法的流程

这里写图片描述

这里解释一下右图:
我们知道犯错有两种情况

  • x是正类,错分为负类,即wTx<0, w x向量夹角是钝角,所以我们需要纠正一下 w ,也就是w+yx,在 w 上加上一个正向量,让w x 更近一些.
  • x是负类,错分为正类,即wTx>0, w x向量夹角是锐角,所以我们需要纠正一下 w ,也就是w+yx,在 w 上加上一个负向量,让w x 更远一些

Guarantee of PLA

如果要保证PLA是收敛的,前提是数据集是线性可分的(Linear Separability)

算法的收敛性

(1)由于训练数据是线性可分的,存在超平面可将训练数据集完全正确分开,取此超平面为ŵ optx̂ =0,使 wopt^2=1 对于训练数据集均有

yi(ŵ optxi^)>0

所以存在
γ=mini{yi(ŵ optxi^)}

使
yi(ŵ optxi^)γ

(2)

wk^wopt^=wk1^wopt^+yiwopt^xi^wk1^wopt^+γ=kγ

(3)

因为

yi(wk1^xi^)0

定义
R=max1iNxi^

wk^2=wk1^+2yiwk1^xi^+xi^wk1^+xi^wk1^+R2=kR2

所以有

kγwk^wopt^wk^wopt^kR

k(Rγ)2

说明误分类的次数是有上界的,经过有限次搜索可以找到训练数据完全正确分开的的分离超平面,也就是说,当训练数据线性可分时,感知机学习算法形式迭代是收敛的

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值