《统计学习方法》第二章-感知机-总结

感知机是二分类的线形分类模型,其输入是实例的特征向量,输出是实例的类型,定义为{-1, +1}

2.1 感知机模型

由输入空间映射到输出空间的函数为如下形式:

f(x)=sign(w·x+b) f ( x ) = s i g n ( w · x + b )

其中 sign(x) s i g n ( x )

sign(x)={+11if x >= 0if x < 0 s i g n ( x ) = { + 1 if  x  >= 0 − 1 if  x  < 0

线形方程 w·x+b=0 w · x + b = 0 的几何解释是一个超平面。如果所有实例是线形可分的,则该平面将正负实例划分开。如图2.1:
这里写图片描述

2.2 感知机策略

对线性可分的实例集而言, yi=+1 y i = + 1 的实例 i i ,有yi(wxi+b)>0 yi=1 y i = − 1 的实例 i i ,同样有yi(wxi+b)>0。因此,可以根据误分类的点构造目标函数:

L(w,b)=xiMyi(wxi+b) L ( w , b ) = ∑ x i ∈ M − y i ∗ ( w ∗ x i + b )

M是所有误分类点的集合。感知机学习的策略就是取 L(w, b)最小时的参数 w, b

2.3 感知机学习算法

感知机学习算法是误分类驱动的,具体采用的是梯度下降算法。在上一节我们学习到,感知机的目标函数为:

L(w,b)=xiMyi(wxi+b) L ( w , b ) = ∑ x i ∈ M − y i ∗ ( w ∗ x i + b )

对应地, w, b的梯度:
wL(w,b)=xiMyixi ▽ w L ( w , b ) = − ∑ x i ∈ M y i x i

bL(w,b)=xiMyi ▽ b L ( w , b ) = − ∑ x i ∈ M y i

算法的核心是设定初始的w = 0, b = 0,迭代,每轮通过1个误分类点,使用梯度进行更新,直到所有的点都正确分类:

ww+ηyixibb+ηyi w ← w + η y i x i b ← b + η y i

2.3.2 算法收敛性

要使用迭代法更新参数,必须要能够收敛,可以证明,迭代的次数k有上限:

k(Rγ)2 k ≤ ( R γ ) 2

R R 表示所有实例x的长度的最大值, γ γ 表示实例点到超平面函数距离的最小值:
yi(wxi+b)γ y i ∗ ( w ∗ x i + b ) ≥ γ

除此之外,感知机学习算法还有对偶形式,其基本想法是将 w w b表示为实例 xi x i 和标记 yi y i 的线形组合的形式,通过求解其系数而求得 w w b

感知机学习算法根据每次使用误分类点的顺序不同,可能产生的解会是多个,并不能求出最优解。

问题思考

  • 感知机算法能实现异或吗?为什么?
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值