激活函数30年回顾总结,全paper第一份详尽研究来了!

新年好,离退休又近了一年

假期躺平未更新,但该保存的素材及热点还是拿小本本记了下来,如这篇今年2月14号arXiv上发表的长达100+页神经网络中激活函数大总结文章就进了我的收藏夹

在这里插入图片描述

https://arxiv.org/abs/2402.09092

这篇文章做了什么工作?直接看摘要

事实证明,神经网络是解决生活中许多领域复杂问题的高效工具。最近,随着深度学习的出现,神经网络的重要性和实用性得到了进一步加强。神经网络成功的重要条件之一是选择合适的激活函数,将非线性引入模型。过去的文献中曾提出过多种类型的激活函数,但目前还没有一个包含这些函数详尽概述的综合资料。根据我们的经验,缺乏这种概述会导致冗余和无意中重新发现已有的激活函数。为了填补这个空白,我们对 400 个激活函数进行了广泛的调查,规模是以往的数倍。主要目标是对以前发表的激活函数进行最全面的概述和系统化并提供原始链接,其次是更新对这一系列函数的理解

首先该工作回顾了近30年研究文章,总结了400+激活函数,前无古人,有名称、公式及参考文献,完全可以当激活函数表进行查询。无论出于什么目的,可能一部分同学搜索过“激活函数有哪些”,得到的是几年前以SigmoidReLU为首的老文章

在这里插入图片描述

其次,摘要中说的“unintentional rediscovery of already existing activation functions”其实表述的很有意思,我们可能“自创了”一些激活函数并在自己的模型上得到不错收益,并将其写为了创新点。那么这篇文章可以给个参考,告诉大家这个函数已经在某个工作中做过了

在我个人看来,如果能进一步说明什么场合使用该函数,或者说这个激活函数为何这样定义,解决了什么问题、有何优缺点那就更舒服了(工作量激增)

其次,对于一些影响力大或者常用的激活函数,可以绘制成图表的形式,图是最直观说明问题的方式,比如GELUMishSwishSELU本质都只是对ReLU进行平滑,都在试图优化gradient flow及计算时间

在这里插入图片描述

整体来说这个工作还是肥肠不错的,感兴趣的同学可以去看看,为了方便各位获取,可在公众号后台回复【激活函数】

我是啥都生,下次再见

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

啥都生

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值