感知机学习笔记

感知机

什么是感知机

基于误分类的损失函数,利用梯度下降法对损失函数进行极小化,求得感知机模型。
分为原始形式和对偶形式。
感知机是1957年由Rosenblatt提出,是神经网络和SVM的基础。

1. 感知机模型

定义(是什么我已经忘记了)
假设输入空间(特征空间)是 XRn X ⊆ R n ,输出空间是 Y={1,+1} Y = { − 1 , + 1 } ,输入 yY y ∈ Y 表示实例的类别。由输入空间到输出空间的如下函数

f(x)=sign(wx+b)(3552) (3552) f ( x ) = s i g n ( w ⋅ x + b )

称为感知机。其中,w和b为感知机模型参数, wRn w ∈ R n 叫做权值或权值向量, bR b ∈ R 叫做偏置(bias), wx w ⋅ x 表示w和x的內积。sign是符号函数,即
f(x)={+11x0x < 0(3553) (3553) f ( x ) = { + 1 x ≥ 0 − 1 x < 0

感知机是一种线性分类模型,属于判别模型。感知机模型的假设空间是定义在特征空间中的所有线性分类模型(linear classification model)或线性分类器(linear classifier),即函数集合 {f|f(x)=wx+b} { f | f ( x ) = w ⋅ x + b } .
感知机的几何解释:线性方程
wx+b=0(3554) (3554) w ⋅ x + b = 0

对应于特征空间 Rn R n 中的一个超平面S,w是S的法向量,b对应于该超平面的截距。S将该特征空间分为两部分,位于两部分的点分别被分为正、负两类。称超平面S为分离超平面(separating hyperplane).
感知机学习,由训练数据集(实例的特征向量和类别)
T={(x1,y1),(x2,y2),...(xN,yN)}(3555) (3555) T = { ( x 1 , y 1 ) , ( x 2 , y 2 ) , . . . ( x N , y N ) }

其中, xiX=Rn,yiY={+1,1},i=1,2,...N x i ∈ X = R n , y i ∈ Y = { + 1 , − 1 } , i = 1 , 2 , . . . N ,求得感知机模型,即求模型参数w,b。

2. 学习策略

定义:数据集的线性可分性,给定一个数据集,同上,如果存在某个超平面S

wx+b=0(3517) (3517) w ⋅ x + b = 0

能够将数据集的正实例点和负实例点完全正确的划分到超平面的两侧,即对所有 yi=+1iwwi+b>0 y i = + 1 的 实 例 i , 有 w ⋅ w i + b > 0 ,对所有 yi=1iwwi+b<0 y i = − 1 的 实 例 i , 有 w ⋅ w i + b < 0 ,则该数据集T为线性可分数据集(linearly separable data set);否则,称数据集T线性不可分。

感知机学习策略

假设数据集是线性可分的,感知机学习的目标是能将该数据集完全正确分离的超平面,即需要去顶参数w,b,需要确定学习策略,即定义损失函数并最小化。
损失函数可以是误分类点的总数,但这样不是w,b的连续可导函数,难优化。
感知机采用的是误分类点到超平面S的总距离。
输入空间 Rn R n 中任一点 xo x o 到超平面S的距离:

1||w|||wx0+b|(3518) (3518) 1 | | w | | | w ⋅ x 0 + b |

这里, ||w|| | | w | | wL2 w 的 L 2 范数(欧式距离是一种 L2 L 2 范数)。
对于,误分类的数据 (xi,yi) ( x i , y i ) 来说,
yi(wxi+b)>0(3519) (3519) − y i ( w ⋅ x i + b ) > 0

成立。因此误分类点 xi x i 到超平面S的距离是
1||w||wxi+b(3520) (3520) − 1 | | w | | ( w ⋅ x i + b )

对于误分类集合M,所有误分类点到超平面S的总距离为
1||w||xiMyi(wxi+b) − 1 | | w | | ∑ x i ∈ M y i ( w ⋅ x i + b )

不考虑范数,可以得到感知机 sign(wx+b) s i g n ( w ⋅ x + b ) 学习的损失函数(是感知机的经验风险函数):
L(w,b)=xiMyi(wxi+b)(3521) (3521) L ( w , b ) = − ∑ x i ∈ M y i ( w ⋅ x i + b )

一个特定的样本点的损失函数:在误分类时是参数w,b的线性函数,在正确分类是,损失函数的值为0。因此,给定训练数据集T,损失函数 L(w,b)w,b L ( w , b ) 是 w , b 的连续可导函数。
感知机学习的策略,即在假设空间中选取使损失函数最小的模型参数 w,b w , b ,即感知机模型。

3. 学习算法

感知机学习问题转化为求解损失函数式的最优化问题,最优化的方法是随机梯度下降法。

3.1 原始形式

给定一个数据集(同前面的描述),求参数 w,b w , b ,使其为以下损失函数极小化问题的解

minw,bL(w,b)=xiMyi(wxi+b)(3522) (3522) min w , b L ( w , b ) = − ∑ x i ∈ M y i ( w ⋅ x i + b )

学习算法具体采用随机梯度下降(stochastic gradient descent)。首先,任意选取一个超平面 w0,b0 w 0 , b 0 ,然后用随机选取一个误分类点使其梯度下降。
wL(w,b)=xiMyixi(3523) (3523) ∇ w L ( w , b ) = − ∑ x i ∈ M y i x i

bL(w,b)=xiMyi(3524) (3524) ∇ b L ( w , b ) = − ∑ x i ∈ M y i

假设M固定,损失函数 L(w,b) L ( w , b ) 的梯度有由上述两式给出。
随机选取一个误分类点 (xi,yi) ( x i , y i ) ,对 w,b w , b 进行更新:
ww+ηyixi(3525) (3525) w ← w + η y i x i

bw+ηyi(3526) (3526) b ← w + η y i

η0η1 η ( 0 ≤ η ≤ 1 ) 是步长,即学习率(learning rate)。通过迭代不断减小损失函数,直到为0.
算法如下:
输入:训练数据集T,学习率
输出: w,b w , b ;感知机模型 f(x)=sign(wx+b) f ( x ) = s i g n ( w ⋅ x + b )
(1)选取初值 w0,b0 w 0 , b 0
(2)在训练集中选取数据 (xi,yi) ( x i , y i )
(3)如果 yi(wxi+b)0 y i ( w ⋅ x i + b ) ≤ 0
ww+ηyixi(3527) (3527) w ← w + η y i x i

bw+ηyi(3528) (3528) b ← w + η y i

(4)转至步骤2,直至训练集中么有误分类点。
感知机学习算法由于采用不同的初值或选取不同的误分类点,解可以不同。

3.2 算法收敛性证明

对于线性可分数据集感知机学习算法原始形式收敛,即经过有限次的迭代,可以得到一个能将训练集完全正确划分的超平面和感知机模型。
感知机算法在训练数据集上的误分类次数k满足不等式:

kRγ2(3529) (3529) k ≤ ⟮ R γ ⟯ 2

3.3 对偶形式

w,b w , b 表示为实例 xiyi x i 和 标 记 y i 的线性组合形式,通过求解洗漱从而求得 wb w 和 b 。假设初始值 w0,b0 w 0 , b 0 均为0。对误分类点 (xi,yi) ( x i , y i ) 通过

ww+ηyixi(3530) (3530) w ← w + η y i x i

bw+ηyi(3531) (3531) b ← w + η y i

不断修改 w,b w , b ,设修改n次,则 w,b w , b 关于 (xi,yi) ( x i , y i ) 的增量分别为 αiyixiαiyiαi=niη α i y i x i 和 α i y i , α i = n i η ,最后学习都的 w,b w , b 可以分别表示为
w=i=1Nαiyixi(3532) (3532) w = ∑ i = 1 N α i y i x i

bi=1Nαiyi(3533) (3533) b ∑ i = 1 N α i y i

这里, αi0,i=1,2,...N,η=1i α i ≥ 0 , i = 1 , 2 , . . . N , 当 η = 1 时 , 表 示 第 i 个实例点由于误分而进行更新的次数。更新次数越多,距离分离超平面越近,就越难正确分类。这样的实例对学习结果影响最大。

算法

输入:线性可分数据集T,学习率
输出: α,b α , b ,感知机模型 f(x)=signNj=1αiyixi+bα=(α1,α2,...αN)T f ( x ) = s i g n ⟮ ∑ j = 1 N α i y i x i + b ⟯ , 其 中 α = ( α 1 , α 2 , . . . α N ) T
(1) α0,b0 α ← 0 , b ← 0
(2)在训练集中选取数据 (xi,yi) ( x i , y i )
(3)如果 yiNj=1αiyixi+b0 y i ⟮ ∑ j = 1 N α i y i x i + b ⟯ ≤ 0

αiαi+η(3534) (3534) α i ← α i + η

bb+η(3535) (3535) b ← b + η

(4)转至(2)直至没有误分类数据
对偶实例中训练实例仅以內积的形式出现,可以预先将训练集中实例间的內积计算出来并以矩阵形式存储,即Gram 矩阵。
同样,对偶形式也是收敛的,存在多个解。

4. 习题

(1)验证感知机为什么不能表示异或
虽然通过画图或者异或表,可以看出,但还想到怎样形式化的证明。待续
(2)构建从训练数据集求解感知机模型的例子
(3)证明一下定理:样本集线性可分的充分必要条件是正实例点集所构成的凸壳,与负实例点集所构成的凹壳互不相交。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值