统计学习方法笔记 第二章 感知机(包含Python代码)


1. 感知机模型

感知机是用于二分类的线性分类模型,目标是求出将实例划分正负的超平面,属于判别式模型。
感知机的形式如下:

f ( x ) = s i g n ( w ⋅ x + b ) f(x)=sign(w\cdot{x}+b) f(x)=sign(wx+b)

其中 w w w称为权值向量, b b b称为偏置, w ⋅ x w\cdot{x} wx表示内积, s i g n sign sign是符号函数,表示:

s i g n ( x ) = { + 1 , x &gt; 0 − 1 , x &lt; 0 sign(x)=\begin{cases} +1, &amp; x&gt;0 \\[2ex] -1, &amp; x&lt;0 \end{cases} sign(x)=+1,1,x>0x<0


2. 感知机学习策略

2.1 数据集的线性可分性

如果存在一个超平面可以将二分类数据集的正负实例完全正确的划分到两边,那么称数据集是线性可分的。

2.2 感知机学习策略

学习策略等价于定义一个损失函数并且将损失函数极小化。感知机的损失函数定义为误分类点到超平面的总距离:

− 1 ∣ ∣ w ∣ ∣ ∑ x i ∈ M y i ( w ⋅ x i + b ) -\frac{1}{||w||}\sum_{x_i\in{M}}y_i(w\cdot{x_i}+b) w1xiMyi(wxi+b)

由于只考虑分类正误,那么损失函数可以定义为:

L ( x , b ) = − ∑ x i ∈ M y i ( w ⋅ x i + b ) L(x,b)=-\sum_{x_i\in{M}}y_i(w\cdot{x_i}+b) L(x,b)=xiMyi(wxi+b)

感知机的学习策略是再假设空间选取使损失函数最小的模型参数 w w w b b b

$$


3. 感知机的学习算法

3.1 原始形式学习算法

感知机的学习算法的目标是极小化损失函数的解:

min ⁡ w , b L ( w , b ) = − ∑ x i ∈ M y i ( w ⋅ x i + b ) \min_{w,b}{L(w,b)}=-\sum_{x_i\in{M}}y_i(w\cdot{x_i}+b) w,bminL(w,b)=

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值