自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(1)
  • 收藏
  • 关注

原创 论文笔记 (GAUSSIAN ERROR LINEAR UNITS (GELUS))

一、介绍(introduce) 我们都知道激活函数可以避免网络形成深度线性分类器,RELU是其中的一个典型的代表激活函数,本文在ReLUs成功的基础上提出了GELUS,它利用ELUs的修正阳离子(Clevertetal.,2016)允许类似relu的非线性输出负值。 在前人的研究上,随机正则化与激活函数(非线性)分离,他们共同决定一个神经元的输出,而且,两者都不包含另一种,因为流行的随机正则化器分别与输入无关,而非线性得到了这些正则化器的帮助。 GELUS与随机正则化器有关,它是对dropout的一种

2021-10-06 16:14:05 789

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除