前言
论文名:Targeted Dropout
论文作者:Aidan N. Gomez et.al.
机构:
Google Brain
FOR.ai
University of Oxford
期刊/会议名:NIPS 2018
本文作者:XMU_MIAO
日期:2020/12/4
摘要
神经网络由于拥有大量参数,有利于学习,但也存在高度冗余。这使得压缩神经网络而不对性能产生很大影响成为可能。本文中,我们引入了 t a r g e t d r o p o u t target\,\,dropout targetdropout,一种应用于神经网络权值和单元事后剪枝的策略,其将剪枝机制直接应用于训练过程。 每一次权值在更新时, t a r g e t d r o p o u t target\,\,dropout targetd