![](https://img-blog.csdnimg.cn/20190918140213434.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
自动摘要论文阅读 ACL 2023
文章平均质量分 97
ACL 2023 摘要论文
yuyuyu_xxx
这个作者很懒,什么都没留下…
展开
-
NLP论文阅读记录-ACL 2023 | 12 Incorporating Distributions of Discourse Structure for Long Document Abstrac
通过人工编辑改进摘要(2310)codepaper。原创 2023-12-12 20:14:57 · 909 阅读 · 0 评论 -
NLP论文阅读记录-ACL 2023 | 09 Improving Factuality of Abstractive Summarization without Sacrificing Summar
在不牺牲摘要质量的情况下提高抽象摘要的真实性(2305)codepaper提高抽象概括的事实一致性一直是一个广泛研究的话题。然而,大多数先前关于训练事实感知模型的工作都忽略了它对摘要质量的负面影响。我们提出了 EFACTSUM(即有效事实摘要),这是一种候选摘要生成和排名技术,可在不牺牲摘要质量的情况下提高摘要事实性。我们表明,使用对比学习框架和我们完善的候选人摘要可以在事实性和基于相似性的指标上带来显着的收益。原创 2023-12-18 17:21:56 · 975 阅读 · 1 评论 -
NLP论文阅读记录-ACL 2023 | 10 Best-k Search Algorithm for Neural Text Generation
用于神经文本生成的 Best-k 搜索算法(2211)codepaper现代自然语言生成范式需要良好的解码策略才能从模型中获得高质量的序列。集束搜索产生高质量但低多样性的输出;随机方法存在高方差和有时低质量的问题,但输出往往更加自然和富有创意。在这项工作中,我们提出了一种平衡质量和多样性的确定性搜索算法。我们首先研究普通的最佳优先搜索 (BFS) 算法,然后提出 Best-k 搜索算法。受 BFS 的启发,我们贪婪地扩展前 k 个节点,而不是仅扩展第一个节点,以提高效率和多样性。原创 2023-12-18 21:09:23 · 862 阅读 · 1 评论 -
NLP论文阅读记录-ACL 2023 | Improving the Robustness of Summarization Systems with Dual Augmentation
利用双增强提高摘要系统的鲁棒性强大的摘要系统应该能够捕获文档的要点,而不管输入中的特定单词选择或噪音如何。在这项工作中,我们首先探讨摘要模型对扰动(包括词级同义词替换和噪声)的鲁棒性。为了创建语义一致的替代品,我们提出了 SummAttacker,这是一种基于语言模型生成对抗性样本的有效方法。实验结果表明,最先进的摘要模型在对抗性和噪声测试集上的性能显着下降。接下来,我们分析摘要系统的漏洞,并探索通过数据增强来提高鲁棒性。具体来说,我们发现的第一个脆弱因素是对输入中不常见单词的理解不佳。原创 2023-12-10 17:35:38 · 1237 阅读 · 0 评论