分割文本_《双层Transformer辅以连贯性建模用于文本分割》阅读笔记

本文介绍了一种采用双层Transformer的文本分割模型,结合连贯性建模提升分割效果。模型在不同语言数据集上表现出色,并能实现零样本语言迁移。实验显示,该模型在多项指标上优于基于循环神经网络的模型和无监督基线。
摘要由CSDN通过智能技术生成

738ca16e83c84395b71a79bbed27187b.png
标题:Two-Level Transformer and Auxiliary Coherence Modeling for Improved Text Segmentation
作者:Goran Glavaš, Swapna Somasundaran
备注:AAAI 2020
原文链接: https:// arxiv.org/abs/2001.0089 1

简介

文本的连贯性与文本的分割具有本质上的紧密联系,在分割后,同一部分的文本之间的连贯性应当强于不同部分的文本。如下图,共四种分割方式,其中T1均描述荷兰历史,T2均描述荷兰地理,T3,T4包含两个部分的句子。且T1的连贯性强于T3和T4,这说明第四句应该是一个新部分的起始。

491538bccaa5d8fbfbea920d3ec92f74.png
图1 语义连贯性与文本分割的关系

依据语义连贯性解构长文本能够提升文本的可读性,有益于下游任务(检索、摘要、主题分类等)。而现存的文本分割方法都仅仅隐式的使用连贯性这项特征。

本文提出的监督模型使用双层Transformer网络编码句子序列,除了以预测分割结果作为目标以外,还对连贯性进行建模并应用在训练过程中。迫使模型预测连贯性更强的文本段落作为分割结果。进一步,文章提出的模型能够实现零样本语言迁移,其使用英文维基百科训练的模型能够在其他语言上获得较好的分割效果。

模型结构

模型接收定长句子序列作为输入,字符编码由预训练词嵌入和位置嵌入连接得到。句子序列首先通过字符级Transformer得到句子表示,再经句子级Transformer强化上下文信息。编码

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值