How Do Seq2Seq Models Perform on End-to-End Data-to-Text Generation?
一、论文来源及选读原因
1论文来源
发表会议:ACL2022
作者:Xunjian Yin,万小军
北京大学王选计算机研究所
北京大学计算语言学教育部重点实验室
2 选读原因
前段时间我打算看一下ACL2022中关于摘要生成方向的文章,选了几篇进行了下载。其中这篇的主要原因是论文名字十分有趣,从题目能够看出论文主要工作是对于seq2seq模型在端到端生成任务上进行了一个表现分析,并且采取了疑问句作为题目。
二、论文内容
不是对论文全部内容的翻译,主要记录我认为的重要内容!
摘要
在seq2seq在端到端
原创
2022-05-24 21:11:12 ·
310 阅读 ·
0 评论