文献阅读

该论文研究了预训练语言模型如BART和T5在AMR-to-Text和KG-to-Text任务中的效果,发现直接应用预训练模型即可取得良好成果。通过增加相关预训练任务,能进一步增强模型性能。实验显示,即使破坏图结构,模型仍能在一定程度上恢复,证明预训练有助于图编码。
摘要由CSDN通过智能技术生成

Investigating Pretrained Language Models for Graph-to-Text Generation

论文地址: https://arxiv.org/abs/2007.08426

1 简介

	这篇论文主要是探究预训练语言模型在AMR-to-Text,KG上的应用,其中主要做了一下研究
		1 首先直接使用预训练语言模型应用到图到文本生成任务,并取得了很好的效果
		2 在预训练模型的基础上,增加额外的预训练任务(与目标任务相关的任务),然后再对目标任务进行fine-tune
		3 探究为何预训练模型能够在图到文本生成任务上有这么好的效果

2 实验

2.1 model

论文使用BART和T5模型作为预训练模型

2.2 Datasets

AMR-to-Text: 使用AMR2.0数据集
KG-to-Text:
	通识领域: WebNLG
	科学领域:AGENDA
	![在这里插入图片描述](https://img-blog.csdnimg.cn/20210426153035636.PNG#pic_center)

2.3 Result

实验结果可在论文中查看

2.4 总结

论文表明,大型预训练模型在图到文本生成任务上有着很好的效果,增加与任务相关的预训练任务能够进一步提高效果。且实验表明,即使破坏图的结构,预训练学到的知识也能在一定程度上还原图的结构(特别是对于KG), 这说明预训练学到的知识是有助于图的编码的
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值