机器学习 | 分类算法原理——感知机

Hi,大家好,我是半亩花海。接着上次的内积继续更新《白话机器学习的数学》这本书的学习笔记,在此分享感知机这一回归算法基础。本章的回归算法基础基于《基于图像大小进行分类》项目,欢迎大家交流学习!

目录

一、感知机概述

二、案例分析

1. 设置问题

2. 训练数据的准备

3. 权重向量的更新表达式


一、感知机概述

感知机(perceptron)是二分类线性分类模型,属于监督学习算法。输入为实例的特征向量,输出为实例的类别(取 +1 和 -1)。感知机旨在求出将训练数据进行线性划分的分离超平面。为求得超平面,感知机导入了基于误分类的损失函数,利用梯度下降法对损失函数进行最优化求解,求得感知机模型。

感知机学习算法具有简单而易于实现的优点,分为原始形式和对偶形式,感知机预测是学习得到的感知机模型对于新的输入实例进行分类。感知机是作为神经网络(深度学习)的起源的算法,因此,学习感知机的构造也就是学习通向神经网络和深度学习的一种重要思想。


二、案例分析

1. 设置问题

具体要如何求出权重向量呢? 基本做法和回归时相同:将权重向量用作参数,创建更新表达式来 更新参数。接下来,我要说明的就是被称为感知机(perceptron) 的模型。入门知识里经常会提到它。

感知机是接受多个输入后将每个值与各自的权重相乘(类似于向量内积或者矩阵乘法),最后输出总和的模型。人们常用这样的下面这样的图来表示它:

在介绍参数更新表达式之前,我们需要做好一些准备工作。

2. 训练数据的准备

首先是训练数据。设表示宽的轴为 x_1、表示高的轴为 x_2,用 y 来表示图像是横向还是纵向的,横向的值为 1、纵向的值为 −1,如下表所示。

接下来,根据参数向量 x 来判断图像是横向还是纵向的函数,即返回 1 或者 −1 的函数 f_w(x) 的定义如下。这个函数被称为判别函数

f_{\boldsymbol{w}}(\boldsymbol{x})= \begin{cases}1 & (\boldsymbol{w} \cdot \boldsymbol{x} \geqslant 0) \\ -1 & (\boldsymbol{w} \cdot \boldsymbol{x}<0)\end{cases}

一起来思考一下,比如,与权重向量 \boldsymbol{w} 的内积为负的向量 \boldsymbol{x} 是什么样的向量呢?用图形来解释更容易理解,所以我们利用这个包含 cos 的表达式来思考:\boldsymbol{w} \cdot \boldsymbol{x}=|\boldsymbol{w}| \cdot|\boldsymbol{x}| \cdot \cos \theta。|w| 和 |x| 必定为正数,所以决定内积符号的是 cos \thetacos \theta 图像如下图所示。

在 90° < θ < 270° 的时候 cos \theta 为负。此时,我们需要知道向量在图形上处于什么位置。与权重向量 \boldsymbol{w} 之间的夹角为 \theta,在 90° < θ < 270° 范围内的所有向量都符合条件,所以向量在图形上处于这条直线下面、与权重向量方向相反的这个区域,如下图左侧所示。同理,使内积为正的向量就是与负的区域相反的区域,同样如下图右侧所示。

内积是衡量向量之间相似程度的指标。结果为正,说明二者相似; 为 0 则二者垂直;为负则说明二者不相似。

3. 权重向量的更新表达式

在这个基础上,我们可以这样定义权重向量更新表达式

\boldsymbol{w}:= \begin{cases}\boldsymbol{w}+y^{(i)} \boldsymbol{x}^{(i)} & \left(f_{\boldsymbol{w}}\left(\boldsymbol{x}^{(i)}\right) \neq y^{(i)}\right) \\ \boldsymbol{w} & \left(f_{\boldsymbol{w}}\left(\boldsymbol{x}^{(i)}\right)=y^{(i)}\right)\end{cases}

式中,f_{\boldsymbol{w}}\left(\boldsymbol{x}^{(i)}\right) \neq y^{(i)}表示判别函数的分类结果不正确f_{\boldsymbol{w}}\left(\boldsymbol{x}^{(i)}\right) = y^{(i)}表示判别函数的分类结果正确i 在介绍回归的时候也出现过,它指的是训练数据的索引,而不是 i 次方的意思,这一点一定要注意。用这个表达式重复处理所有训练数据,更新权重向量。

其次,光看 \boldsymbol{w}+y^{(i)} \boldsymbol{x}^{(i)} 这个表达式的话是会觉得很难。一边把学习过程实际地画在图上,一边去考虑它的含义可能就容易理解了。权重向量通过随机值来初始化,我们可以首先在图上随意画一个权重向量和直线作为初始向量(就像我们在回归时随意确定初始值一样)。

在这个状态下,假设第一个训练数据是 \boldsymbol{x}^{(1)}=(125,30), 目前我们就先用它来更新参数。

这是上述表中列举的训练数据中的一个,标签是 1,它表示图像是横向的:

现在权重向量 \boldsymbol{w} 和训练数据的向量 \boldsymbol{x}^{(1)} 二者的方向几乎相 反,\boldsymbol{w} 和 \boldsymbol{x}^{(1)} 之间的夹角 \theta 的范围是 90° < \theta < 270° ,内积为负。因此,判别函数 f_{\boldsymbol{w}}\left(\boldsymbol{x}^{(1)}\right) 的分类结果为 −1。而训练数据 \boldsymbol{x}^{(1)} 的标签 \boldsymbol{y}^{(1)} = 1,所以 f_{\boldsymbol{w}}\left(\boldsymbol{x}^{(1)}\right) \neq y^{(1)},说明分类失败

已知现在 \boldsymbol{y}^{(1)} = 1,根据向量的加法运算,更新表达式如下。

\boldsymbol{w}+y^{(1)} \boldsymbol{x}^{(1)}=\boldsymbol{w}+\boldsymbol{x}^{(1)}

则 \boldsymbol{w}+\boldsymbol{x}^{(1)} 的矢量图如下所示。

此时,我们得到新的权重,继续更新权重:这个 \boldsymbol{w}+\boldsymbol{x}^{(1)} 就是下一个新的 \boldsymbol{w},我们可以画一条与新的权重向量垂直的直线,相当于把原来的线旋转了一下,如下所示。

如此看来,刚才 \boldsymbol{x}^{(1)} 与权重向量分居直线两侧,现在它们在同一侧了,如下图所示。

这次 \theta < 90°,所以内积为正,判别函数 f_w(\boldsymbol{x}) 的分类结果为 1。而且 \boldsymbol{x}^{(1)} 的标签也为 1,说明分类成功。如此迭代搜索循环,不断更新参数的权重向量。

刚才处理的是标签值 y = 1 的情况,而对于 y = -1 的情况,只是更新表达式的向量加法变成了减法而已,做的事情是一样的。 也就是说,虽然有加法和减法的区别,但它们的做法都是在分类 失败时更新权重向量,使得直线旋转相应的角度。像这样重复更新所有的参数,就是感知机的学习方法。

  • 17
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值