神经网络学习引入-图片预处理Preprocessing与损失函数

本文介绍了神经网络中的图片预处理,包括计算平均图像并进行归一化,以及普遍的特征缩放方法。接着探讨了损失函数,如SVM的hinge loss和二次hinge loss,以及Softmax分类器的交叉熵损失。SVM损失函数强调正确分类的得分明显高于其他分类,而Softmax提供了概率输出和交叉熵损失。文章还讨论了规范化在避免权重过大中的作用。
摘要由CSDN通过智能技术生成

图片数据预处理 Image data preprocessing

样本:原始像素数据(随机选取于[0,255])
在机器学习中:输入特征的规范化
(perform normalization of your input features)
在实际应用中:通过缩减每个特征的含义来中心化数据集具有重要意义
(It is important to center your data by subtracting the mean from every feature)

对于图像数据的预处理,它对应于计算训练图像上的平均图像,并从每个图像中减去它,以获得一个像素在[-127,127]之间的图像。

更普遍的预处理方法是缩放每个输入的特征使每个特征的值在[-1,1]之间。

损失函数

SVM损失函数(hinge loss)

SVM损失函数基于SVM想要得到这样一个结果:对于每一张图片,正确分类的得分远远高于其余分类。
也就是说,一个第i类的样本,我们得到它的像素矩阵,以及对应标签 y i y_{i} yi。评分函数利用像素计算出分类的得分 f ( x i , W ) f(x_{i},W) f(xi,W),下面我们用s表示这个得分。比如该图像在分类j上的得分 s j = f ( x i , W ) j s_{j}=f(x_{i},W)_{j} sj=f(xi,W)j
SVM损失函数如下所示:
L i = ∑ j ≠ y i m a x ( 0 , s j − s y i + Δ ) L_{i}=\sum_{j\neq y_{i}}max(0,s_{j}-s_{y_{i}}+\Delta) Li=j̸=yimax(0,sjsyi+Δ)
SVM 损失希望正确分类 y i y_{i} yi的得分远大于不正确分类的得分,他们之间的差值至少大于 Δ \Delta Δ。上式亦可写做:
L i = ∑ j ≠ y i m a x ( 0 , w j T x i − w y i T x i + Δ ) L_{i}=\sum_{j \neq y_{i}}max(0,w_{j}^{T}x_{i}-w_{y_{i}}^{T}x_{i}+\Delta) Li=

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值