【论文泛读154】ERNIE 3.0:大规模知识增强语言理解和生成的预训练

ERNIE 3.0是一个统一框架,用于预训练100亿参数的知识增强模型,结合自编码和自回归网络。在4TB的语料库上训练,包括纯文本和知识图,该模型在54个中文NLP任务和SuperGLUE基准上超越了最先进的模型,展示出优秀的零样本和少样本学习能力。
摘要由CSDN通过智能技术生成

贴一下汇总贴:论文阅读记录

论文链接:《ERNIE 3.0: Large-scale Knowledge Enhanced Pre-training for Language Understanding and Generation》

一、摘要

预训练模型在各种自然语言处理 (NLP) 任务中取得了最先进的结果。最近的工作如 T5 和 GPT-3 表明,扩大预训练的语言模型可以提高它们的泛化能力。特别是,具有 1750 亿个参数的 GPT-3 模型显示了其强大的任务无关的零样本/少样本学习能力。尽管取得了成功,但这些大规模模型是在纯文本上训练的,而没有引入语言知识和世界知识等知识。此外,大多数大型模型都是以自回归方式训练的。因此,这种传统的微调方法在解决下游语言理解任务时表现出相对较弱的性能。为了解决上述问题,我们提出了一个统一的框架,命名为 ERNIE 3.0 用于预训练大规模知识增强模型。它融合了自回归网络和自编码网络,因此可以通过零样本学习、少样本学习或微调轻松地为自然语言理解和生成任务量身定制训练好的模型。我们在由纯文本和大规模知识图组成的 4TB 语料库上用 100 亿个参数训练模型。实证结果表明,该模型在 54 个中文 NLP 任务上的表现优于最先进的模型,其英文版在 SuperGLUE 基准测试(2021 年 7 月 3 日)上获得第一名,超过人类表现 +0.8%( 90.6% 对 89.8%)。这样训练好的模型可以通过零样本学习、少样本学习或微调轻松地针对自然语言理解和生成任务进行定制。我们在由纯文本和大规模知识图组成的 4TB 语料库上用

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值