训练softmax分类器实例_softmax和SVM的区别和比较

目前解决图像分类问题,比较流行的方法是卷积神经网络上。这种方法主要有两部分组成:一个是评分函数(score function),它是原始图像数据到类别分值的映射。另一个是损失函数(loss function),它是用来量化预测分类标签的得分与真实标签之间一致性的。该方法可转化为一个最优化问题,在最优化过程中,将通过更新评分函数的参数来最小化损失函数值。

1.线性分类器

1.线性分类器

a9abfdbcc00419516f918ee3f12a3967.png

2.理解线性分类器
线性分类器计算图像中3个颜色通道中所有像素的值与权重的矩阵乘,从而得到分类分值。根据我们对权重设置的值,对于图像中的某些位置的某些颜色,函数表现出喜好或者厌恶(根据每个权重的符号而定)。举个例子,可以想象“船”分类就是被大量的蓝色所包围(对应的就是水)。那么“船”分类器在蓝色通道上的权重就有很多的正权重(它们的出现提高了“船”分类的分值),而在绿色和红色通道上的权重为负的就比较多(它们的出现降低了“船”分类的分值)。

fb371919721878c0bad99f743d7975e1.png

一个将图像映射到分类分值的例子。为了便于可视化,假设图像只有4个像素(都是黑白像素,这里不考虑RGB通道),有3个分类(红色代表猫,绿色代表狗,蓝色代表船,注意,这里的红、绿和蓝3种颜色仅代表分类,和RGB通道没有关系)。首先将图像像素拉伸为一个列向量,与W进行矩阵乘,然后得到各个分类的分值。需要注意的是,这个W一点也不好:猫分类的分值非常低。从上图来看,算法倒是觉得这个图像是一只狗。

3.将图像看做高维度的点

既然图像被伸展成为了一个高维度的列向量,那么我们可以把图像看做这个高维度空间中的一个点(即每张图像是3072维空间中的一个点)。整个数据集就是一个点的集合,每个点都带有1个分类标签。

既然定义每个分类类别的分值是权重和图像的矩阵乘,那么每个分类类别的分数就是这个空间中的一个线性函数的函数值。我们没办法可视化3072维空间中的线性函数,但假设把这些维度挤压到二维,那么就可以看看这些分类器在做什么了:

e877ba3e790482c055b3253033b23665.png


图像空间的示意图。其中每个图像是一个点,有3个分类器。以红色的汽车分类器为例,红线表示空间中汽车分类分数为0的点的集合,红色的箭头表示分值上升的方向。所有红线右边的点的分数值均为正,且线性升高。红线左边的点分值为负,且线性降低。

2.损失函数

2.1多类支持向量机损失 Multiclass Support Vector Machine Loss

SVM的损失函数定义:

a287d12b34d636dae0579f47b65820a4.png

折叶损失(hinge loss)
定义如下:

73e43bdadee57c0b4e06fd3ce77ae1a7.png

平方折叶损失(hinge loss)
定义如下:

1f9cbf5ade322a297dffbd115bc55a8a.png

边界损失:

700b551c35dab5e0dcc5284141847e6a.png

SVM举例说明:

fcc2f5fc1c4a9d8e3ab2ee15808b507a.png
用预测错误的得分减去预测正确的得分加上一个容错

152c6cadb554d86aab686cbbbd93014d.png

N为图片样本的个数,损失函数的大小不和样本图片的数量有关系。

2.2 正则化(Regularization)

为什么要正则化?

64dd95fa64463ede50102d06f4138620.png

权重w1和权重w2对输入的评分结果相同都是1,但是w1只考虑第一个像素,w2把每一个像素都考虑进去了,可知要得到相同的评分结果的权重参数w可能是无穷多个的。

存在问题:假设有一个数据集和一个权重集W能够正确地分类每个数据(即所有的边界都满足,对于所有的i都有L_i=0)。问题在于这个W并不唯一:可能有很多相似的W都能正确地分类所有的数据。

换句话说,我们希望能向某些特定的权重W添加一些偏好,对其他权重则不添加,以此来消除模糊性。这一点是能够实现的,方法是向损失函数增加一个

正则化惩罚(regularization penalty)

059b6632635cc916aa7662d35803579d.png

上面的表达式中,将W中所有元素平方后求和。

所以一个完整的损失函数由两个部分组成:数据损失(data loss),即所有样例的的平均损失L_i,以及正则化损失(regularization loss)。

28d08b671cf52fe3387616657a9869ce.png

又加了一个正则化惩罚项,惩罚就是惩罚权重参数,一般用L2惩罚,对输入的每个参数进行平方计算。

损失函数的最终版:

5a4c9ca227809b63e724395dab1e2244.png

N是训练集的数据量,λ是权重。

正则化项在神经网络中的重要作用::

1abd774e149d83024fa3865e38a7e690.png

3.Softmax

SVM得到的是得分值,并不是确定的概率值,可以通过sigmoid函数把输入为任意数的得分值转化为概率值。
Softmax分类器使用交叉熵损失(cross-entropy loss)

softmax函数

softmax函数:

d8f9c80b577141de407bb2d989d964b5.png

和SVM 分类器一样,整个数据集的损失值是数据集中所有样本数据的损失Li的均值与正则化损失R(W)之和。

举例如下:

47212f5b08b1cce487d9e60392c1e928.png

如何求分类的概率?
把得分值取e操作,让大的更大,小的更小,然后求概率。
如何求损失?
对于概率再取log运算。

bd2b1a23dd9eb2fd1803b5a8ac66d7eb.png

54fb0c044d848e4345542e2a3e7df0ec.png

Softmax时一个永远不知道满足的分类器。

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值