Mish: A Self Regularized Non-Monotonic Neural Activation Function论文笔记

本文介绍了Mish激活函数,一种非单调的平滑激活函数,其性能优于ReLU和Swish。Mish函数在CIFAR-100数据集上展示了更高的准确率,并具有无上界、有下界、平滑和非单调的特性,有助于防止梯度消失和增强网络的正则化能力。
摘要由CSDN通过智能技术生成

Mish: A Self Regularized Non-Monotonic Neural Activation Function论文笔记

作者:Diganta Misra
下载连接:https://arxiv.org/abs/1908.08681

这篇论文提出了一种全新的激活函数,并且在大多数任务下的指标都要优于ReLU和Swish。

Introduction

激活函数在神经网络中的意义主要是为模型引入非线性,而当前广泛使用的激活函数主要有两种,分别是ReLU: f(x) = max⁡(0, x)Swish:f(x) = x⋅sigmoid(x)。其中ReLU作为激活函数主要是有无上界和有下界的特点,而Swish相比ReLU又增加了平滑和非单调的特点,这也使得其在ImageNet上的效果更好。本文中提出的Mish激活函数与Swish函数相同也是一个平滑的非单调的激活函数,具体表达式为:
f(x) = ⁡x ⋅ tanh(softplus(x)) = ⁡x ⋅ tanh(ln⁡(1 + ex))
在CIFAR-100数据集上,且同样以Squeeze Excite -18 Network作为基础网络的情况下,Mish相比Swish和ReLU,其Top-1准确率分别提高了0.494% 和 1.671%。

Mish

Mish函数的曲线如下图:

  • 0
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值