神经网络架构搜索(NAS)综述 | 附AutoML资料推荐

本文深入探讨了神经网络架构搜索(NAS)的关键方面,包括搜索空间、搜索策略和评价预估。文章指出,由于深度学习模型的复杂性和高昂的评估成本,NAS成为研究焦点。搜索空间涉及网络结构的定义,早期方法侧重于超参数优化,而现代方法专注于网络架构。常见的搜索策略包括随机搜索、强化学习和进化算法。此外,评价预估策略如代理模型和参数级迁移有助于降低评估成本。文章最后讨论了未来研究方向和AutoML领域的进展。
摘要由CSDN通过智能技术生成

640


文是一篇神经网络架构搜索综述文章,从 Search Space、Search Strategy、Performance Estimation Strategy 三个方面对架构搜索的工作进行了综述,几乎涵盖了所有近几年的优秀工作。


■ 论文 | Neural Architecture Search: A Survey

■ 链接 | https://www.paperweekly.site/papers/2249

■ 作者 | Thomas Elsken / Jan Hendrik Metzen / Frank Hutter


引言


深度学习模型在很多任务上都取得了不错的效果,但调参对于深度模型来说是一项非常苦难的事情,众多的超参数和网络结构参数会产生爆炸性的组合,常规的 random search 和 grid search 效率非常低,因此最近几年神经网络的架构搜索和超参数优化成为一个研究热点。


本文从网络架构搜索的三个方面进行了分类综述,包括: 


  • 搜索空间 

  • 搜索策略 

  • 评价预估


640


问题定义


网络架构和超参数优化的问题,有以下的特点: 


1. 评价函数未知,是一个黑箱优化问题,因为评价往往是在 unseen dataset 上进行评价;


2. 非线性;


3. 非凸;


4. 混合优化,既有离散空间,又有连续空间; 


5. 一次优化结果的评价非常耗时,大型的深度学习模型参数数以亿计,运行一次结果需要几周时间;


6. 在某些应用场景中,存在多个目标。比如:移动端的模型结构优化,既希望得到尽量高的准确率,又希望有非常好的模型计算效率。


搜索空间


搜索空间定义了优化问题的变量,网络结构和超参数的变量定义有所不同,不同的变量规模对于算法的难度来说也不尽相同。

  • 2
    点赞
  • 19
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值