小样本学习
文章平均质量分 90
Dreamcreationman
科学谦卑的自我审视和自我否定不但没有削弱他的光荣,反而使它获得了永恒的力量。
展开
-
Few-shot Object Detection via Feature Reweighting 阅读笔记
Zeng H, Song X, Chen G, et al. Learning Scene Attribute for Scene Recognition[J]. IEEE Transactions on Multimedia, 2019, 22(6): 1519-1530.文章目录什么是场景识别MotivationMethodology场景属性建模多特征上下文关系建模Experimental ResultsMy CommentReference什么是场景识别场景识别(scene classifi.原创 2021-08-11 12:54:40 · 405 阅读 · 0 评论 -
TIM阅读笔记
TIM阅读笔记Boudiaf M, Masud Z I, Rony J, et al. Transductive information maximization for few-shot learning[J]. arXiv preprint arXiv:2008.11297, 2020.昨天下午出去蹦跶去了,今天来赶工。今天这篇论文是 NeurIPS 2020 的一个工作,乍一看还是一个Tim?腾讯的那个?不是哈哈哈,Transductive Information Maximization F原创 2021-01-15 14:00:52 · 532 阅读 · 0 评论 -
TAML阅读笔记
TAML阅读笔记Jamal M A, Qi G J. Task agnostic meta-learning for few-shot learning[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2019: 11719-11727.这篇TAML一看名字就知道是meta learning……他的这个名字太像MAML了哈哈哈,只不过MAML是Model Agnostic,这个TAM原创 2020-12-23 00:32:46 · 954 阅读 · 0 评论 -
Prototypical Net阅读笔记
Prototypical Net阅读笔记Snell J, Swersky K, Zemel R. Prototypical networks for few-shot learning[C]//Advances in neural information processing systems. 2017: 4077-4087.文章主要思想上篇博客在讲Relation Network的时候讲到relation net在处理few shot learning的时候对于N-way K-shot当K大于1原创 2020-12-18 20:58:57 · 624 阅读 · 2 评论 -
Relation Net阅读笔记
Relation Net阅读笔记Sung F, Yang Y, Zhang L, et al. Learning to compare: Relation network for few-shot learning[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2018: 1199-1208.乱扯这篇文章叫Relation Network,今天早上醒来一看群里,今天组会分享的同学原创 2020-12-18 18:28:17 · 533 阅读 · 1 评论 -
Matching Net阅读笔记
Matching Net阅读笔记Vinyals O, Blundell C, Lillicrap T, et al. Matching networks for one shot learning[C]//Proceedings of the 30th International Conference on Neural Information Processing Systems. 2016: 3637-3645.文章主要思想本文主要解决的是FSL问题,但是本文的出现时间比MAML早,是Goog原创 2020-12-17 20:40:25 · 757 阅读 · 0 评论 -
MAML阅读笔记
MAML阅读笔记Finn C, Abbeel P, Levine S. Model-agnostic meta-learning for fast adaptation of deep networks[J]. arXiv preprint arXiv:1703.03400, 2017.为什么我今天这么晚还在工作呢?因为我今天下午又浪费了一下午的光阴……所以罚自己今晚完成任务。。。其实也是因为任务没有完成55555,所以来熬夜完成任务…背景又是一篇高被引论文,MAML可谓是元学习的里程碑之作,当原创 2020-12-16 01:59:00 · 699 阅读 · 0 评论 -
Reviews On Few Shot Learning
文章目录IntroductionBackgroundDefinitionGoalApplication in CVMethodologyDataModelMulti-Task LearningMetrics LearningNTM Based LearningAlgorithmFuture WorkIntroductionBackground随着2012年AlexNet在ImageNet上取得优异的成绩后,这种基于Data-Driven的深度学习逐渐成为现代机器学习最庞大和繁荣的一个分支体系,其实仔细原创 2020-12-13 23:02:52 · 207 阅读 · 0 评论