A Survey on Knowledge-Enhanced Pre-trained Language Models

本文深入探讨了知识增强预训练语言模型(KEPLMs),概述了KEPLMs中的知识类型和格式,介绍了构建和评估方法,讨论了它们在NLP任务中的应用及未来发展方向。KEPLMs通过整合外部知识,提高了模型的可解释性、鲁棒性和推理能力,有望克服传统PLM的局限性。
摘要由CSDN通过智能技术生成

摘要

自然语言处理(NLP)已经通过使用BERT等预训练语言模型(plm)发生了革命性的变化。尽管几乎在每个NLP任务中都创造了新的记录,但plm仍然面临许多挑战,包括可解释性差,推理能力弱,以及在应用于下游任务时需要大量昂贵的注释数据。通过将外部知识集成到plm中,知识增强预训练语言模型(keplm)具有克服上述限制的潜力。本文通过一系列的研究,对KEPLMs进行了系统的考察。具体而言,我们概述了KEPLMs中常见的知识类型和不同的知识格式,详细介绍了现有的构建和评估KEPLMs的方法,介绍了KEPLMs在下游任务中的应用,并讨论了未来的研究方向。研究人员将从这项调查中受益,获得该领域最新发展的快速和全面的概述。

1.介绍

重新训练的语言模型(plm)首先在一个大数据集上进行训练,然后直接转移到下游任务,或者在另一个小数据集上进一步微调以用于特定的NLP任务。早期的plm,如Skip-Gram[1]和GloVe[2],是浅层神经网络,它们的词嵌入(从窗口大小的上下文中学习)是静态语义向量,这使得它们无法处理动态环境中的多义词问题。随着深度学习的发展,研究人员试图利用深度神经网络通过动态语义嵌入来提高任务的性能。起初,人们仍然局限于监督学习的范式,认为如果没有足够的标记数据,就很难释放深度学习的潜力。然而,随着自监督学

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

小蜗子

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值