【论文笔记】Efficient Neural Architecture Search via Parameter Sharing
本文中作者提出了ENAS,是一种快速且廉价的自动模型设计方法。ENAS中,控制器通过在大型计算途中搜索最佳子图来搜索神经架构;同时通过在子模型间的参数空降大大降低了计算开销。这项工作的主要贡献在于,通过强制所有子模型共享权重来避免从头到尾地训练每个子模型,从而提高了NAS的效率。
Methods
ENAS概念的核心是,NAS最终迭代所得的所有图都可以看作是较大图的子图。换句话说,我们可以使用单个有向无环图(DAG)表示NAS的搜索空间。如下图所示,图中的节点表示局部计算,边表示信息流:
Designing Recurrent Cell(设计循环单元)
ENAS的控制器是一个RNN,它决定:1)激活哪些边,以及2)在DAG中的每个节点上执行了哪些计算。为了创建一个循环单元,控制器RNN对N个决策块进行采样,如下图所示: