增加文本内部逻辑结构信息来促进关键词生成

题目: SenSeNet: Neural Keyphrase Generation with Document Structure
论文链接: https://arxiv.org/pdf/2012.06754.pdf
前沿: 本文讲述的主要是发现文档中的关键词大都可以很好的在文档的不同逻辑结构中得到均匀分布,这个现象,促进作者产生对于不同句子对于对于结果产生是不是效果不同的猜想,于是构建一个句子选择模型,然后将句子针对关键词的影响力加入进行,最终构建出了一个新的模型。这种思想逆向思维其实也是前面很多基于topic模型的泛化。
samples:
在这里插入图片描述
问题定义: 本身问题就是一个常见的关键词生成问题,输入一个源文本,输出是一个多个关键词,每个关键词可以由不同的单词构成。

模型架构图:
在这里插入图片描述

Sentence Selective Encoder
目前只停留在文章层次,还没有深入代码。

  • 句子选择编码器考虑的是利用Bi-GRU对句子进行编码
  • 将获得的word-embedding送入CNN,max_pooling获取句子embedding
  • 再就是二分类任务。
  • 最后考虑选择器结果和word embedding一起送入decoder

Decoder
译码器部分就是正常的attention处理了,只不过将attention的对象转换成了对应了新的context C了,这里面有一个点就是如何处理的attention和copy的

train:
这个部分有一个疑问点就是为什么提到了一个对于梯度的评估器,后面提到考虑弱监督标签,针对每一个句子考虑一个打标签的方式,考虑多任务,那么为什么还需要评估器?

Weakly Supervised Trainin
简单考虑就是前面提到的句子选择分类问题,作者考虑训练难度,选择给它打了一个弱标签。

dataset:
使用KP20k几个连续使用的数据集

得到启示:

  • 添加针对文本逻辑结构的信息进入网络,也就是针对不同句子的判断信息
  • 考虑每个不同句子针对结果的影响的时候不是考虑直接删除无关句子,而是采用添加1,0,ebedding的方式,使得也会考虑无关句子信息。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值