小样本与元学习🔥🔥🔥
文章平均质量分 86
主要分享与介绍关于小样本学习、元学习、迁移学习等方面的研究、应用和技术。
华师数据学院·王嘉宁
研究方向:深度学习、自然语言处理、知识图谱。
研究兴趣:大语言模型训练与推理、知识增强预训练、Prompt-tuning、小样本学习、问答系统、信息抽取。
展开
-
论文解读:Task Agnostic Meta-Learning for Few-shot Learning(TAML)
论文解读:Task Agnostic Meta-Learning for Few-shot Learning(TAML) 通常的,元学习可以被在多个任务(task)上训练以期望能够泛化到一个新的task。然而当在现有的task上过度地学习(过拟合),在新的task泛化能力会变差。换句话说,初始的meta-learner在现有的task上会学习到有偏的知识(bias),特别是样本数量非常少的情况下。为了避免在样本数量非常少时,meta-learner会学习到有偏的信息,本文提出一种Task-Agnosti原创 2021-04-26 10:07:35 · 1369 阅读 · 0 评论 -
A survey on Few-shot Learning (小样本学习)
A survey on Few-shot Learning (小样本学习) 机器学习已经成功地在数据密集型任务上得以应用,但通常却不能够处理数据很少的情况。最近,小样本学习(Few-shot Learning,FSL)被提出用于解决这个问题。在先验知识的基础上,FSL可以有效的涵盖一个只有极少监督信息数量样本的新任务。本文,我们将对小样本学习FSL进行一个系统的梳理。首先给出FSL一个形式化的定义,其次根据相关机器学习的问题进行分类,同时指出一个核心的关键问题即小样本学习不能依赖于传统的经验风险最小化的原创 2020-09-25 17:39:11 · 4807 阅读 · 2 评论