FRN+TLU,小batch size训练的福音

该论文提出FRN(Filter Response Normalization)解决了BN在小batch尺寸下效果下降的问题,且在不同batch size上表现优秀。FRN不依赖batch,通过全局channel归一化增强滤波器的重要性。同时,TLU(Thresholded Linear Unit)解决了FRN的偏差问题,其在全连接层和N=1激活层中表现出色。
摘要由CSDN通过智能技术生成

论文地址https://arxiv.org/pdf/1911.09737.pdf

笔记内容:

  • 论文总览

  • 论文图表与内容

  • Normalization各种方法回顾(BN,GN,LN,IN)

 

论文总览:

1、解决的问题:BN(Batch Normalization)在mini-batch尺寸太小的时候会降低训练效果,GN(Group Normalization),Batch Renormalization都在解决这些问题,但是达不到BN在大batch上的表现,或在小batch上表现不佳

2、FRN表现:FRN结合归一化和激活函数的方式,替代其他的归一化与激活函数的结合,在各个batch size上的表现都更好

3、改进的方向:FRN未来会在NLP领域继续探索

论文图表与内容:

FRN不依赖于batch的设置,在small batch size 和large batch size上表现都很好

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值