《神经架构搜索NAS》最新进展综述,25页pdf

点击上方,选择星标置顶,不定期资源大放送

阅读大概需要5分钟

Follow小博主,每天更新前沿干货

来源于:专知

【导读】本文为大家整理了神经架构搜索NAS的最新进展综述,神经架构搜索(NAS)自动化网络结构工程。它的目标是学习一种网络拓扑,可以在特定任务上获得最佳性能。通过将NAS的方法分解为三个组件:搜索空间、搜索算法和子模型演化策略,这篇文章回顾了许多更好、更快、更经济的自动神经结构搜索的有趣想法。(文末附下载方式)

虽然大多数流行和成功的模型架构都是由人工专家设计的,但这并不意味着我们已经探索了整个网络架构空间并确定了最佳选择。如果我们采用一种系统的、自动的方式来学习高性能模型体系结构,那么我们将更有可能找到最佳的解决方案。

自动学习和演化网络拓扑并不是一个新想法(Stanley & Miikkulainen, 2002)。近年来,Zoph & Le 2017和Baker等人在2017年的开创性工作吸引了神经架构搜索(NAS)领域的大量关注,为更好、更快、更经济的NAS方法带来了许多有趣的想法。

当我开始研究NAS时,我发现Elsken等人2019年的这项调查非常有帮助。它们将NAS描述为一个由三个主要成分组成的系统,简洁明了,也被其他NAS论文广泛采用。

  • 搜索空间: NAS搜索空间定义了一组操作(例如卷积、全连接、池化)以及如何将操作连接起来形成有效的网络架构。搜索空间的设计通常涉及人类的专业知识,以及不可避免的人类偏见。

  • 搜索算法: NAS搜索算法对网络体系结构候选对象进行采样。它接受子模型性能指标作为奖励(例如,高精度,低延迟),并优化生成高性能架构候选。

  • 评估策略: 我们需要测量、估计或预测提出的大量子模型的性能,以获得反馈,供搜索算法学习。候选评估的过程可能非常昂贵,许多新的方法被提出来节省时间或计算资源。

图1所示:神经架构搜索(NAS)模型的三个主要组件

  • 搜索空间 Search Space

    • Sequential Layer-wise Operations

    • Cell-based Representation

    • Hierarchical Structure

    • Memory-bank Representation

  • 搜索算法 Search Algorithms

    • Random Search

    • Reinforcement Learning

    • Evolutionary Algorithms

    • Progressive Decision Process

    • Gradient descent

  • 评价策略 Evaluation Strategy

    • Training from Scratch

    • Proxy Task Performance

    • Parameter Sharing

    • Prediction-Based

  • One-Shot Approach: Search + Evaluation

  • What’s the Future?

  • Appendix: Summary of NAS Papers

  • Reference

下载地址:

https://lilianweng.github.io/lil-log/2020/08/06/neural-architecture-search.html

重磅!DLer-NAS交流群已成立!

欢迎各位Cver加入NAS微信交流群,本群旨在交流模型压缩/量化/剪枝、NAS、迁移学习、自监督学习、无监督学习、元学习等内容。欢迎对这些研究方向感兴趣的小伙伴加群一起交流学习!

加群请备注:研究方向+学校/公司+昵称(如NAS+上交+小明

???? 长按识别添加,邀请您进群!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值