视觉与图形学领域的封神论文-基于强化学习的神经架构搜索

图片

通过一个controller在搜索空间(search space)中得到一个网络结构(child network),然后用这个网络结构在数据集上训练得到准确率,再将这个准确率回传给controller,controller继续优化得到另一个网络结构,如此反复进行直到得到最佳的结果。这里使用RNN网络目的是在一个variable-length space中搜索模型,而原先其他超参数优化只能在一个fixed-length space中搜索模型。

摘要

神经网络是一种功能强大且灵活的模型,适用于图像、语音和自然语言理解中的许多困难学习任务。尽管取得了成功,神经网络仍然很难设计。在本文中,我们使用一个递归网络来生成神经网络的模型描述,并使用强化学习来训练该RNN,以最大限度地提高在验证集上生成结构的预期精度。在CIFAR-10数据集上,我们的方法从零开始,可以设计一种新的网络体系结构,在测试集精度方面可以与人类发明的最佳体系结构相媲美。我们的CIFAR-10模型实现了3.65的测试错误率,比以前使用类似架构方案的最先进模型高0.09%,快1.05倍。在Penn Treebank数据集上,我们的模型可以组成一个新的循环单元,其性能优于广泛使用的LSTM单元和其他最先进的算法。我们的单元在Penn Treebank数据集上的测试复杂度为62.4,比之前最先进的模型好3.6复杂度。该单元还可以转移到PTB上的字符语言建模任务中,并实现1.214的最新复杂度。

图片

控制器递归神经网络如何对简单卷积网络进行采样。它预测一层和重复层的滤波器高度、滤波器宽度、步幅高度、步幅宽度和滤波器数量。每个预测都由softmax分类器执行,然后作为输入输入输入到下一时间步。

神经结构搜索的分布式训练。我们使用一组S参数服务器来存储参数并将参数发送到K控制器副本。然后,每个控制器副本对m个体系结构进行采样,并并行运行多个子模型。记录每个子模型的精度以计算关于θ的梯度,然后将其发送回参数服务器。由此可见,2017年发表的这篇文章,需要较高的硬件资源

图片

控制器使用定位点,并设置“选择注意”以形成跳过连接。引入跳连接后,也带来了一些问题,具体可看论文。

图片

由具有两个叶节和一个内部节点的树构造的递归单元示例。左:定义控制器要预测的计算步骤的树。中心:控制器对树中每个计算步骤所做的预测的示例集。右:根据控制器的示例预测构建的递归单元的计算图。

实验结果:CIFAR-10上神经结构搜索和其他最先进模型的性能

图片

微信公众号:

图片

下载对应的论文,在公众号中回复:paper

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值