NAS之《Neural Architecture Transfer》论文笔记

《Neural Architecture Transfer》论文探讨了一种高效的方法,通过一次运行生成多个任务的神经网络模型,重点在于构建task-specific super-net并进行进化搜索。文章介绍了accuracy predictor、evolutionary search和网络编码等关键组成部分,提出了在线迁移学习和多目标进化搜索策略,大大减少了模型评估时间和资源消耗。
摘要由CSDN通过智能技术生成

截图均来自原论文,如有侵权,请联系删除。

1、 论文主要特点

高效的产生针对特定任务的模型, 一次NAT的运行就能有效地获得多个任务的神经网络

  • 训练task-specific super-net

  • 从super-net中采样特定的子网络,而不需要额外的训练。

大量实验表明:

​ 通过对ImageNet上预训练好的模型进行迁移学习,往往比直接在小数据集上进行训练得到的模型好

关键是:

  • 一个综合的在线迁移学习
  • 多目标进化搜索过程

在搜索特定任务子网的同时,对预先训练好的super-net进行迭代调整。

NAT返回两个:

  1. 适用于不同任务的子网
  2. super-net

训练包含重复循环两个阶段:

1、Adapt super-net

  • 首先从进化搜索返回的最佳子网构造一个分层的经验分布。
  • 然后,对从该分布中采样的子网进行微调

2、search stage

  • 采用代理模型来快速预测任何抽样子网的objectives,而不需要进行全面和昂贵的评估。
  • 预测模型本身也在线学习以前的评估子网

2、提出的方法

1、三个重要组成:
  1. an accuracy predictor,
  2. an evolutionary search routine,
  3. a supernet.
2、算法流程:

开始时, an archive A of architectures (subnets) 从supernet中随机采样子网络,子网络参数直接继承于supernet。

然后重复以下两步:</

评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值