nips-day01

1. 卷积神经网络和CoordConv解决方案的一个有趣的缺陷

摘要
卷积对深度学习的影响之大,几乎没有其他思想能与之媲美。对于任何涉及像素或空间表示的问题,一般直觉认为卷积神经网络可能是合适的。

在本文中,我们通过看似微不足道的坐标变换问题展示了一个与这种直觉相反的突出例子,它仅仅需要学习(x,y)笛卡尔空间中的坐标与一个热点像素空间中的坐标之间的映射。虽然卷积网络似乎很适合这项任务,但我们发现它们失败得很惨。

我们首先演示并仔细分析一个玩具问题上的失败,在此情况下,一个简单的修复变得很明显。我们将这个解决方案称为CoordConv,它通过使用额外的坐标通道,使卷积能够访问自己的输入坐标。CoordConv在不牺牲普通卷积的计算和参数效率的前提下,允许网络根据最终任务的要求,学习完全平移不变性或不同程度的平移依赖性。CoordConv在参数比卷积少10-100倍的情况下,以完美的泛化和150倍的速度解决了坐标变换问题。

这种鲜明的对比提出了一个问题:在其他任务中,卷积的无能在多大程度上持续存在于其他任务中,微妙地妨碍了内部的性能?这个问题的完整答案需要进一步的研究,但是我们展示了初步的证据,用CoordConv交换卷积可以在不同的任务集上改进模型。在GAN中使用CoordConv可以减少模式崩溃,因为高级空间延迟与像素之间的转换变得更容易学习。训练MNIST检测的更快R-CNN检测模型显示,在使用CoordConv时,IOU提高了24%,在玩Atari游戏的强化学习(RL)域代理中,CoordConv层的使用显著受益。

2. TADAM:基于任务的自适应度量方法,用于改进小样本学习

摘要:
小样本的学习对于从很少的例子中归纳出模型已经变得非常重要。在这项工作中,我们发现度量尺度和度量任务条件对改进小样本算法的性能非常重要。

我们的分析表明,简单的度量尺度变换完全改变了小样本算法参数更新的性质。在迷你mini-imagenet 5-way 5-shot分类任务中的某些度量,度量缩放提供了高达14%的精度改进。我们进一步提出了一种简单有效的方法,使学习者适应于任务样本集,从而形成一个与任务相关的度量空间。

此外,我们还提出并实证检验了一种基于辅助任务协同训练的实用端到端优化方法,以学习任务相关度量空间。基于任务相关比例度量的少镜头学习模型实现了微型图像网络的技术现状。我们在本文介绍的另一个基于CIFAR100的少量镜头数据集上验证了这些结果。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值