创新实训(11)-生成式文本摘要之BertAbs

本文介绍了EMNLP2019论文《Text Summarization with Pretrained Encoders》的学习过程,重点讲解了BERTAbs模型在文本摘要中的应用。模型通过在每个句子前添加[CLS]标记并采用两步训练策略,首先训练提取式模型,再训练生成式模型,以提升效果。数据集为cnn/dailymail,虽然GPU环境限制导致训练时间过长,但预训练模型可用于测试,结果显示为提取式摘要。
摘要由CSDN通过智能技术生成

创新实训(11)-生成式文本摘要之BertAbs

1.简介

这是一个EMNLP2019的paper Text Summarization with Pretrained Encoders 的学习记录

2.模型介绍

model

左边的是原始的Bert模型,右边的是用于文本摘要的Bert模型。

主要的区别是在最上方输入文档时原始的Bert模型只用一个[CLS]标记,用于文本摘要的Bert模型每个句子开头都有一个[CLS]标记。在下面的Segment Embeddings中也对不同的句子进行区分,然后经过Transformer层得到的输出也不同,在每个句子的起始部分[SEP]变成了[CLS]标记,用来表示句子基本的含义。

Encoder就是如上图所示,Decoder使用了随机初始化的6层的Tranformer,然后使用两个不通的优化器进行分别优化。并且使用了两步训练的方式,首先训练一个提取式的模型,然后在此基础上再去训练生成式的模型,可以提高生成式模型的效果。

  • 3
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值