公众号 系统之神与我同在
概述
ProphetNet: 用序列到序列预测N-gram. EMNLP- Findings 2020
增强版的知识注入模型来生成常识. COLING 2020.
BANG: 结合大规模预训练的自回归和非自回归生成. ICML 2021
Poolingformer: 集中注意力的长文档建模. ICML 2021
EL-Attention: 记忆效率,无损的生成注意力. ICML 2021
GLGE:一种新的通用语言生成评估基准. ACL-Findings 2021
ProphetNet: 用序列到序列预测N-gram
背景
NLG with Trie
Motivation Of ProphetNet
Transformer的结构
ProphetNet的结构
ProphetNet训练
基于中文的任务
实验结果
摘要任务(英文)
问答生成任务(英文)
在 CNN/DM 结果
在Gigaword结果
在SQuAD 1.1结果
多语言实验结果
增强版的知识注入模型来生成常识
Commengen任务
目标
增强知识注入
问题的设置
整体框架
Group Embedding
扩展模块
Prototype 位置推理
Prototype Collection
BANG: 结合大规模预训练的自回归和非自回归生成
bang的结构:
实验
问题生成任务结果
抽象摘要任务结果
回答生成任务结果
Poolingformer: 集中注意力的长文档建模
Transformer 编码器
Longformer 和 Linformer
Poolingformer 编码器
计算复杂度
文档级别的QA问答的Poolingformer
EL-Attention: 记忆效率,无损的生成注意力
生成背景
Transformer
多头——伤害缓存
EL-Attention
每个操作的配置
实验的速度比较
不同批量大小的度量
GLGE:一种新的通用语言生成评估基准
GLGE Leaderboard