论文阅读系列
github_37228709
这个作者很懒,什么都没留下…
展开
-
GRET: Global Representation Enhanced Transformer----AAAI 2020
整理一下阅读的关于transformer的应用相关的论文。原创 2020-09-05 11:36:19 · 3731 阅读 · 4 评论 -
Self-Attention Guided Copy Mechanism for Abstractive Summarization---ACL 2020
仅仅是记录一下最近阅读的论文,前段时间也没怎么记录,有些论文看过也忘记了!这篇论文是文本摘要CNN/DM数据集上达到了SOTA的效果,发表于ACL 2020.按照文章整体脉络整理信息,细节内容后面看有时间在仔细阅读整理一下吧。论文链接:Self-Attention Guided Copy Mechanism for Abstractive Summarization1. 论文提出背景复制模块是最近抽象式摘要模型里面广泛使用的模块,这个模块使得decoder可以从源文档中提取单词作为摘要。原创 2020-08-29 11:10:00 · 1144 阅读 · 2 评论 -
AR: Auto-Repair the Synthetic Data for Neural Machine Translation---ACL 2020
这是一篇应用于机器翻译领域的文章,这篇文章提出来的模型是Auto-Repair(AR),核心目的是对生成的句子进行自动修复。论文篇幅不长,一共只有6页,下面就详细记录一下自己的对论文的翻译以及一点点理解(有待进一步理解模型),附上原文链接:AR: Auto-Repair the Synthetic Data for Neural Machine Translation1 Introduction引言部分主要介绍了目前机器翻译领域面临的问题:数据集不够充分,因为很多机器翻译的数据集是不公开的,那么对N原创 2020-07-27 14:53:54 · 394 阅读 · 0 评论 -
Get to the pointer:Abstractvie summarization with pointer-generator networks(指向生成器网络)---2017ACL
上个礼拜做了实验室的小组论文分享,选择了这篇生成摘要领域高引的一篇经典论文给大家分享。所以重新梳理了一下论文的主要内容,方便日后回顾。没有把论文的全部内容翻译出来,只是按照自己对论文的理解做了一个概述性的总结。b站有一个论文原作者的论文分享视频,感兴趣的可以去看一下Pointer-Generator Networks.目录1. Introduction2. Our models2.1Sequence-to-sequence attentional model2.2Pointer-..原创 2020-07-25 10:13:18 · 367 阅读 · 0 评论
分享