![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
论文阅读
文章平均质量分 91
寒霜雨刃
这个作者很懒,什么都没留下…
展开
-
【小样本学习】【CVPR2021】补全原型网络达到SOTA,Prototype Completion with Primitive Knowledge for Few-Shot Learning
小样本学习是一种通过少量样本训练分类器的方法,目前是一项比较困难的任务。目前比较有效的方法是基于元学习的预训练方法,首先在样本比较丰富的基础类别上训练一个特征提取器,然后在样本比较少的新类别上进行微调。然而实验表明微调对网络在新类别上的分类准确率的改进比较有限,本文发现,在用于预训练的基础类别数据集中,每个类别中样本的分布都比较紧凑,不同类别之间泾渭分明,而在样本比较少的新类别数据集中,各个类别中的样本分布比较混乱,不同类别的样本混在一起,不容易分开,即方差比较大。针对上述问题,该文对所有类别的名称进原创 2022-02-04 23:02:45 · 1969 阅读 · 2 评论 -
【论文阅读】【逐字翻译】 爱丁堡大学IEEE TPAMI 2021年最新元学习综述 《Meta-Learning in Neural Networks: A Survey》
近年来,元学习,或者说学会学习获得了广泛关注。传统人工智能技术利用固定的学习算法从零开始进行学习,不同的是,给定多个学习过程所学知识后,元学习的目的在于改进算法本身。元学习能够更好处理传统深度学习面临的问题,例如数据和计算瓶颈、泛化能力等。本综述描述当前元学习领域的进展。首先,给出元学习的定义,介绍其在迁移学习和超参数优化等相关领域的进展,其次,给出一种新分类方式,更准确地对当前元学习方法进行划分。然后,给出元学习在少样本学习和强化学习等领域的前景和成功之处。最后,讨论元学习的主要困难和未来前景。原创 2021-09-02 22:35:21 · 913 阅读 · 0 评论