Neural Headline Generation with Minimum Risk Training

综述


本文研究NHG(Neural Headline Generation)模型。

用Neural的思路来解决HG问题有以下优势:

1、完全数据驱动,不依赖与人工标注和语言学特征。

2、完全端到端,引入注意力机制会得到更好的效果。

存在以下弊端:

1、当前的优化方法都是用最大似然估计(MLE)来训练数据,没有将评价指标考虑在内。

本文用Minimum Risk Training(MRT)来改善NHG模型,将评价指标考虑在优化目标内,在中文和英文两个真实数据集上取得了不错的结果。


NHG模型

640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=

模型采用encoder-decoder框架,encoder和decoder都采用rnn作为模型。


Encoder

Encoder包括两种:GRUBi-RNN

Bi-RNN克服了传统RNN的语义偏置最后一个词的缺点。


Decoder

Decoder采用GRU,在生成结果时引入了注意力模型。


MRT+NHG


MLE

传统的训练方法都是采用最大似然估计来做,目标函数如下:

640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=

MRT

本文采用了最小风险训练方法来训练模型,目的是减少期望的损失。目标函数如下:

640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=

进一步可以推出:

640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=

作进一步近似处理:

640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=

公式中的640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=用来计算误差,这样训练处的模型将会将评价指标考虑在内。ROUGE是最常见的评价方法,所以本文考虑将ROUGE评价方法融入到目标函数中。

ROUGE

本文考虑两种ROUGE指标,ROUGE-N和ROUGE-L。本文为了将ROUGE评价指标融入到目标函数中,定义了

640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=


实验结果


DUC2004评测对比结果:

640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=

英文数据集上,本文模型的结果明显优于其他模型,包括之前的ABS+模型。

中文LCSTS数据上平尺对比结果:

640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=

采用MRT目标函数的模型远优于MLE作为目标函数的模型。


Review


本文通过将评价指标融入目标函数来训练模型,在中文和英文数据集上均取得了超过之前所有模型的结果。结果一点也不意外,因为传统的MLE并不是以ROUGE评价指标最大为目标函数,而本文的方法针对了评价指标来做文章,一定会得到不错的结果。反过来,我们需要思考一个问题,如果文本摘要领域中出现了一个更加科学和准确的评价指标,不仅仅简单的比共现n-gram,那么本文的模型会不会得到一个优于其他模型的结果呢?个人觉得本文的方法很好地利用了评价指标,但对于研究摘要问题的本质并无太多的帮助,只是获得了更好的指标。有一点投其所好的感觉。


来源:paperweekly


原文链接

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值