lstm原始论文_论文笔记:Matching Networks for One Shot Learning

本文介绍了谷歌DeepMind的论文——Matching Networks for One Shot Learning,探讨如何利用少量样本进行学习。文章阐述了一种端到端的类似最近邻分类器,通过双向LSTM对样本进行编码,解决了小样本学习问题。实验部分展示了模型在Omniglot和ImageNet上的表现。
摘要由CSDN通过智能技术生成

33dd4d9652b5c3f8317a045940751946.png

今天写点关于 "one-shot" learning(就是从一个(或极少个)样本学习而非现在普遍的大量数据集,毕竟,一个小孩能通过一个图片知道什么是长颈鹿,而机器却需要大量的样本!) 的东西

Matching Networks for One Shot Learning这篇论文是来自谷歌DeepMind的一篇论文,主要在于解决:基于小样本去学习归类(或者别的任务),并且这个训练好的模型不需要经过调整,也可以用在对训练过程中未出现过的类别进行归类(这里可能有些绕,稍后会结合符号定义做详细的解释,其实个人觉得这个任务也颇有些“迁移学习”的感觉)。

PS. 本文的大部分内容参考自Andrej Karpathy关于这篇论文的读文笔记。也许可以看做加了自己的理解和一些补充的笔记翻译?然后,这篇论文的说话方式有点晦涩难懂,就连Andrej Karpathy也在笔记中多次提到作者的各种地方说的不太清楚,所以本人的理解也难免有错,希望有意见不一致的地方大家可以多多交流。

PPS. 其实这篇论文是下周要讲的paper reading,所以也可以说是对自己的屁屁踢做了个翻译 []~( ̄▽ ̄)~*,虽然毕设是做对抗样本,但是平时的一些进度还是要跟着组里的方向来的。


核心思想:

训练一个端到端的类似于nearest neighbor的分类器,之所以说类似,是因为虽然整体思想是很相像的,但对于NN而言,样本是什么输入就是什么,但是在这里需要对样本学习一个样本的表示,把他们编码一下。

模型结构:

baf6df7bafca62ef18d5183fe7502b78.png

Task:

训练过程:给定一个有k个样本的支撑集

,对测试样本
分类(归类,因为
的类别是和S中的某个或几个样本类别相同
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值