深度学习-损失、优化器

0.损失函数

0.0 回归损失函数

0.0.1 L1 Loss

L1的loss可以用函数表示为,挺好的,就是0点不可导
L ( x , y ) = 1 n ∑ i = 1 n ∣ y i − f ( x i ) ∣ L(x,y)=\frac{1}{n}\sum_{i=1}^n|y_i-f(x_i)| L(x,y)=n1i=1nyif(xi)

0.0.2 L2 Loss

L2的loss可以用汉书表示为,0点可导,但远处容易梯度爆炸
L ( x , y ) = 1 n ∑ i = 1 n ( y i − f ( x i ) ) 2 L(x,y)=\frac{1}{n}\sum_{i=1}^n(y_i-f(x_i))^2 L(x,y)=n1i=1n(yif(xi))2

0.0.3 Smooth L1 Loss

L1的Smooth loss可以用汉书表示为,挺好的,结合了L1、L2的优点
L ( x , y ) = 1 n ∑ i = 1 n { 1 2 ( y i − f ( x i ) ) 2    , i f   ∣ y i − f ( x i ) ∣ ≤ 1 ∣ y i − f ( x i ) ∣ − 1 2 , o t h e r w i s e L(x,y)=\frac{1}{n}\sum_{i=1}^n \begin{cases} \frac{1}{2}(y_i-f(x_i))^2\ \ ,\quad if \ |y_i-f(x_i)| \leq 1\\ |y_i-f(x_i)|-\frac{1}{2}, \quad otherwise \end{cases} L(x,y)=n1i=1n{21(yif(xi))2  ,if yif(xi)1yif(xi)21,otherwise
在这里插入图片描述

0.1 分类损失

0.1.0 cross entropy

正确分类的就不计算损失,计算错误的要计算损失
N个样本,每个样本有M个类别需要预测
L = 1 N ∑ i = 1 N L ( y i , p i ) = 1 N ∑ i = 1 N ∑ j = 1 M y i c l n ( p i c ) L = \frac{1}{N}\sum_{i=1}^NL(y_i, p_i) = \frac{1}{N}\sum_{i=1}^N\sum_{j=1}^My_{ic}ln(p_{ic}) L=N1i=1NL(yi,pi)=N1i=1Nj=1Myicln(pic)

N N N 表示样本总数目
M M M 表示单个样本中的类别数目
y i c y_{ic} yic 表示 i i i 样本中,第 c c c 个目标是否正确分类,正确时值为 0 0 0 否则为 1 1 1
p i c p_{ic} pic 表示 i i i 样本中,第 c c c 个目标的预测概率, 值为 0 ~ 1

0.1.1 Focal loss

上面已经得出交叉熵损失是所有样本中损失的均值,但是如果样本中正负样本的分布不均匀

1.优化器

优化器的最终目标是最小化Loss函数,从而优化网络本身参数
它包含了 learning rate 和 函数两部分
Momentum-动量法

1.1 SGD

又名随机梯度下降,前期算法没有增加动量,目前是一类动量法
优化参数的过程可以表示为如下,其中 α \alpha α 就是学习率, ν \nu ν 是动量, 参数 γ \gamma γ通常取值0.9
θ t = θ t − 1 − ν t ν t = γ ν t − 1 + α ∂ L ( θ ) ∂ θ \theta_t = \theta_{t-1}-\nu_t \\ \nu_t=\gamma \nu_{t-1} + \alpha \frac{\partial L(\theta)}{\partial\theta} θt=θt1νtνt=γνt1+αθL(θ)
代表着当前如何走与梯度有关,还与过去的累积梯度有关

1.2 RMSprop

此文仅供学习使用,禁止其他用处

参考:

CSDN:深度学习中常见的损失函数(L1Loss、L2loss)
知乎:如何通俗理解深度学习优化器?
博客园:深度学习中常用的优化器简介
知乎:从 SGD 到 Adam —— 深度学习优化算法概览(一)
知乎:损失函数|交叉熵损失函数

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

小灰灰的大灰灰

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值