- 博客(2)
- 资源 (11)
- 问答 (1)
- 收藏
- 关注
原创 论文解读:Task Agnostic Meta-Learning for Few-shot Learning(TAML)
论文解读:Task Agnostic Meta-Learning for Few-shot Learning(TAML) 通常的,元学习可以被在多个任务(task)上训练以期望能够泛化到一个新的task。然而当在现有的task上过度地学习(过拟合),在新的task泛化能力会变差。换句话说,初始的meta-learner在现有的task上会学习到有偏的知识(bias),特别是样本数量非常少的情况下。为了避免在样本数量非常少时,meta-learner会学习到有偏的信息,本文提出一种Task-Agnosti
2021-04-26 10:07:35 1223
原创 论文解读:Making Pre-trained Language Models Better Few-shot Learners(LM-BFF)
Making Pre-trained Language Models Better Few-shot Learners 陈丹琦团队提出的一种改进GPT-3的模型,其可以扩展到任意的预训练模型上,并可以在小样本情景下更好的进行微调。1、动机GPT-3在小样本上进行微调获得了很大的效果,但其参数太多,不适用于真实场景,因此受到GPT-3的启发,我们提出一种LM-BFF(小样本微调预训练模型),主要包括:(1)基于提示(prompt)的微调方法,且提出自动生成提示模板的方法;(2)动态选择样本示例。
2021-04-12 21:30:21 6979
Movie Review.rar
2020-04-25
NYT(New York Times)Dataset for Distant Supervision Relation Extraction
2020-03-20
SemEval2010_task8_all_data.rar
2019-11-24
数据结构图谱构建与关系抽取数据集.rar
2019-11-11
word2vec中文词向量
2019-09-28
自然语言处理数据集——初中数学学科
2019-02-19
自然语言处理数据集——高中数学学科
2019-02-19
SSM框架整合jar包,还包括上传文件、JSTL、mysql、linux远程访问和ftp文件传输jar包
2018-11-20
如何让自己训练的tensorflow模型通过http的形式调用
2019-05-03
TA创建的收藏夹 TA关注的收藏夹
TA关注的人