A SIMPLE NEURAL ATTENTIVE META-LEARNER

该博客介绍了元学习中的一个模型,称为SNAIL。它结合了时序卷积和注意力机制,适用于Omniglot和Mini-ImageNet数据集。SNAIL在处理序列数据时,通过膨胀的时序卷积获取历史信息,并使用注意力模块实现精确的信息定位。实验结果显示,SNAIL在元学习任务上表现出良好性能。
摘要由CSDN通过智能技术生成
数据集
Omniglot
  • 包含50个字母表的1623个手写字符,每个字符包含20个样本
  • 先调整尺寸到28x28,之后通过多次旋转90度的方式增加字符的种类,一共6492类
  • 划分
    • 训练集:82240项 4112类
    • 验证集:13760项 688类
    • 测试集:33840项 1692类
Mini-ImageNet
  • 从ImageNet中随机选取100个类,每类包含600个样本
  • 将尺寸缩放到84x84
  • 包含
    • 训练集:64类
    • 验证集:16类
    • 测试集:20类
数据准备

每个iteration包含多个batch,也就是多个eposide;每个eposide包含随机的classes_per_it个类别,每个类别包含随机选择的sample_per_class个样本组成support set,query set由这些类中的一个随机类的一个随机样本组成。由于这些样本是作为一个序列输入到模型中的,所以最后一个样本即为query set,也就是要预测标签的样本。输入时,将一个batch中的所有eposide的样本拼接起来一起输入。

模型

将图像输入到时序卷积网络前,先要对图像做特征提取

特征提取
  • Omniglot:使用和PrototpicalNet相同的结构
  • Mini-ImageNet:在PrototpicalNet中,使用的是和Omniglot相同的结构,通道数减少到32,但是这样浅层的特征提取网络没有充分的利用SNAIL的容量,所以使用了ResNet进行特征提取
    • 在这里插入图片描述
      [ 84 , 84 , 3 ] → [ 42 , 42 , 64 ] → [ 21 , 21 , 96 ] → [ 10 , 10 , 128 ] → [ 5 , 5 , 256 ] → [ 5 , 5 , 2048 ] → [ 1 , 1 , 2048 ] → [ 1 , 1 , 384 ] [84,84,3]\rightarrow[42,42,64]\rightarrow[21,21,96]\rightarrow[10,10,128]\rightarrow[5,5,256]\rightarrow[5,5,2048]\rightarrow[1,1,2048]\rightarrow[1,1,384] [84,84,3][42,42,64][21,21,96][10,<
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值