《南溪的目标检测学习笔记》——激活函数的学习笔记

介绍

激活函数的作用是为神经网络提供非线性;

1. Sigmoid

Sigmoid函数的图像如下:
在这里插入图片描述
梯度曲线如下:
在这里插入图片描述
关于Sigmoid的详细分析请参考《为什么sigmoid会造成梯度消失?》

2. ReLU——最常用的激活函数

我们可以看看ReLU的图像
在这里插入图片描述

ReLU比Sigmoid好的原因是因为梯度更加容易更新

可以使用Cockpit来进行实验看看,请参考《Cockpit:深度神经网络的训练调试神器!NeurIPS 2021》

3. SiLU – nn.functional.silu

使用ReLU和Sigmoid的机制改进的激活函数,被用于GiraffeDet[paper]中;
其函数公式如下:
SiLU ( x ) = x ⋅ σ ( x ) \text{SiLU}(x) = x \cdot \sigma(x) SiLU(x)=xσ(x)

2. Swish (同“SiLU”)

Swish函数在PyTorch中没有进行实现,需要自己实现;
其公式与SiLU一样。

3. H-Swish

H-Swish对ReLU函数的高效近似,使用在PicoDet中;

3. SiLU

SiLU可以看作是一种较为平滑的ReLU函数;
可以看看SiLU的图像,
在这里插入图片描述

3 PyTorch激活函数

使用nn.ActFunc()来新建一个激活函数层,
(这里我们参考官方ResNet的实现形式,不使用torch.nn.functional.act_func()来进行计算);

  • 1
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值