自然语言生成与应用 (校对纠错算法排序的真谛就是靠生成模型)

在这里插入图片描述

公众号 系统之神与我同在

概述
ProphetNet: 用序列到序列预测N-gram. EMNLP- Findings 2020
增强版的知识注入模型来生成常识. COLING 2020.
BANG: 结合大规模预训练的自回归和非自回归生成. ICML 2021
Poolingformer: 集中注意力的长文档建模. ICML 2021
EL-Attention: 记忆效率,无损的生成注意力. ICML 2021
GLGE:一种新的通用语言生成评估基准. ACL-Findings 2021
ProphetNet: 用序列到序列预测N-gram
背景
在这里插入图片描述
NLG with Trie
在这里插入图片描述
Motivation Of ProphetNet
在这里插入图片描述
Transformer的结构
在这里插入图片描述
ProphetNet的结构
在这里插入图片描述
ProphetNet训练
在这里插入图片描述
在这里插入图片描述
基于中文的任务
在这里插入图片描述

实验结果
在这里插入图片描述

摘要任务(英文)

在这里插入图片描述
问答生成任务(英文)
在这里插入图片描述
在 CNN/DM 结果
在这里插入图片描述
在Gigaword结果
在这里插入图片描述
在SQuAD 1.1结果
在这里插入图片描述
多语言实验结果
在这里插入图片描述
增强版的知识注入模型来生成常识
Commengen任务
在这里插入图片描述
目标
在这里插入图片描述
增强知识注入
在这里插入图片描述
问题的设置
在这里插入图片描述

整体框架
在这里插入图片描述
Group Embedding
在这里插入图片描述

扩展模块
在这里插入图片描述
Prototype 位置推理在这里插入图片描述
Prototype Collection

在这里插入图片描述
BANG: 结合大规模预训练的自回归和非自回归生成
bang的结构:
在这里插入图片描述
实验
在这里插入图片描述
问题生成任务结果
在这里插入图片描述
抽象摘要任务结果
在这里插入图片描述
回答生成任务结果在这里插入图片描述
Poolingformer: 集中注意力的长文档建模
Transformer 编码器

在这里插入图片描述
Longformer 和 Linformer
在这里插入图片描述
Poolingformer 编码器
在这里插入图片描述
计算复杂度
在这里插入图片描述
在这里插入图片描述文档级别的QA问答的Poolingformer
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
EL-Attention: 记忆效率,无损的生成注意力
生成背景

在这里插入图片描述
Transformer
在这里插入图片描述
多头——伤害缓存

在这里插入图片描述
EL-Attention

在这里插入图片描述
每个操作的配置
在这里插入图片描述
实验的速度比较

在这里插入图片描述
不同批量大小的度量
在这里插入图片描述
GLGE:一种新的通用语言生成评估基准
在这里插入图片描述
GLGE Leaderboard
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值