自动文摘(Automatic document summarization)方法综述(一)——基于中心的(Centroid-based)与基于图的(graph-based)方法

从Luhn1958年发表第一遍自动文摘论文开始,自动文摘(Automatic document summarization)一直是自然语言处理中最为活跃的分支。自动文摘希望通过计算机自动将冗长的文本压缩到规定长度内,同时保持原始文本主要信息不丢失。在信息爆炸的互联网时代,每时每刻互联网上都在积累更多的文本;而移动互联网的到来,对信息的呈现方式也提出了更高的要求,因此自动文摘的重要性和迫切需求更为凸显。一份自动文摘的质量主要从以下三方面进行度量:

  1. 信息的覆盖度(coverage of information):这是自动文摘最需要保证的基础,摘要的内容要尽可能的覆盖原始文本传达的信息,保留最重要的信息,这样的摘要才不会对读者造成误导。
  2. 内容的冗余度(redundancy in information):也可以理解成内容的多样性(diversity),摘要的长度有着严格的限制,如果对某一方面的内容描述占用了大部分篇幅,不仅会造成冗余也会影响后续内容的生成。因此一份合格的摘要既要准确的描述各方面的信息,也要保证描述的简练
  3. 内容的可读性(coherent/readable text):生成的摘要要内容连贯,可读性强

至今,各种各样的自动摘要方法被提出,根据摘要的生成方式,自动文摘方法可以分为抽取式摘要(extractive summarization)和生成式摘要(abstractive summarization)。抽取式摘要直接从原始文本中抽取具有显著性的句子构成摘要,这类方法虽然相对简单粗暴,但是直接复用原文中的句子能够准确的捕获原文意图;另一方面,因为是句子级别的操作,生成的摘要连贯性较低,可读性因此会差一些。生成式摘要采用更加复杂的自然语言生成技术,在对原文理解的基础上,生成新的描述形成摘要,因此可能出现原始文本中不存在的单词句子,这类方法更加贴合人类手写摘要的过程,因此生成的摘要可读性更强,但对内容的复现上可能会有偏差。
本系列将关注自动文摘的研究进展,对该领域的主要论文进行整理。首先将专注于抽取式方法,总结其中最具代表性的几类方法,本文是该系列的第一篇。

1、基于中心(Centroid-based)的方法

Radev, Dragomir R., et al. “Centroid-based summarization of multiple documents.” Information Processing & Management 40.6(2004):919-938.
中心性(centrality)可以看作是句子的一个统计特征,Radev在2004年的论文中明确提出将中心度作为句子重要性度量的一个特征,扩展了传统的基于统计(Statistical-based)的方法,常用的统计特征包括但不限于以下:句子位置(position)、关键词频率(TF)、TF-IDF、首句/标题相似度(resemblance)、句子相对长度(length)、专有词(numerical data,name entity etc.)、信息熵(information gain)、互信息(mutual information)等。
在该论文中,作者提出了一种基于中心的多文档摘要方法,作者将中心(centroid)定义为:统计上能够代表关于某一主题的一系列文章的单词集合。 因此首先要对文档进行聚类,确定簇中心,步骤如下:

  • 将每篇文章用TF-IDF向量表示;
  • 将初始中心确定为第一篇文章;
  • 比较后续文章与中心的相似度,在阈值范围内,则加入类簇中,同时更新TF-IDF,生成新的中心;
    S i m ( D , C ) = ∑ k ( d k ∗ c k ∗ i d f ( k ) ) ∑ k ( d k ) 2 ∑ k ( d k ) 2 Sim(D,C)=\frac{\sum_k(d_k*c_k*idf(k))}{\sqrt{\sum_k(d_k)^2}\sqrt{\sum_k(d_k)^2}} Sim(D,C)=k(dk)2 k(dk)2 k(dkckidf(k))
  • 迭代步骤二、三,直至处理完所有文本,形成一个个文章簇和簇中心。

假设:如果一个句子含有越多的中心词,那么这个句子越能代表这个文章簇。 因此作者考虑以下三个特征作为句子筛选的依据:

  • 中心值: C i = ∑ w C w , i C_i=\sum_wC_{w,i} Ci=wCw,i
  • 位置值: P i = n − i + 1 n ∗ C m a x P_i=\frac{n-i+1}{n}*C_{max} Pi=nni+1Cmax
  • 首句吻合度: F i = s 1 ⃗ s i ⃗ F_i=\vec{s_1}\vec{s_i} Fi=s1 si

最终句子总得分为
S C O R E ( S i ) = ω c C i + ω p P i + ω f F i SCORE(S_i)=\omega_cC_i+\omega_pP_i+\omega_fF_i SCORE(Si)=ωcCi+ωpPi+ωfFi

2、基于图(graph-based)的方法

基于统计特征的方法只能从预先规定好的特征上孤立的给每个句子打分,忽略了文本自身的结构,因而有研究者提出了基于图(graph-based)的方法,将文本表示成一个图模型,充分利用文本自身的结构,在全局上(global information)确定文本单元(句子、单词短语、unigram、bigram、trigram)的重要度。在图模型中,文本单元被表示成顶点,边用来连接具有相似性的两个顶点。在网络建立好后,重要句子通过随机游走(random walk)算法被筛选出来。
①Mihalcea, Rada, and P. Tarau. “TextRank: Bringing Order into Texts.” Emnlp (2004):404-411.
TextRank算法是基于图模型的文本摘要最具代表性的方法,由Mihalcea等人于2004年提出。TextRank采用与Google PageRank类似的算法用于确定句子重要度,其背后的思想是“voting”或者“recommendation”。当一个顶点链接到另一个顶点时,它也完成了对另一个顶点的一次投票,当为一个顶点投的票数越多,这个顶点的重要性也就越高。此外,投票顶点自身的重要性也决定了该次投票的分量,PageRank算法也考虑了这一信息。因此,一个顶点的重要性由这个顶点收到的投票数以及投这些票的顶点的重要度共同决定。
(1) S ( V i ) = ( 1 − d ) + d ∗ ∑ j ∈ I n ( V i ) 1 ∣ O u t ( V j ) ∣ S ( V j ) S(V_i)=(1-d)+d*\sum_{j\in In(V_i)}\frac{1}{|Out(V_j)|}S(V_j) \tag 1 S(Vi)=(1d)+djIn(Vi)Out(Vj)1S(Vj)(1)

其中d是阻尼系数,在0-1之间取值,通常设置为0.85。TextRank对PageRank稍作了修改,(1)用无向边代替了有向边;(2)用带权图替代了无权图,边的权值是相连两顶点的相似度。
(2) W S ( V i ) = ( 1 − d ) + d ∗ ∑ V j ∈ I n ( V i ) ω j i ∑ V k ∈ O u t ( V j ) ω j k W S ( v j ) WS(V_i)=(1-d)+d*\sum_{V_j\in In(V_i)}\frac{\omega_{ji}}{\sum_{V_k\in Out(V_j)}\omega_{jk}}WS(v_j) \tag 2 WS(Vi)=(1d)+dVjIn(Vi)VkOut(Vj)ωjkωjiWS(vj)(2)

TextRank算法主要步骤如下:

  1. 确定最适合待解决问的文本单元,并将它们作为顶点加入图模型中;
  2. 定义连接文本单元的关系,用这些关系补全图中的边;
  3. 迭代基于图的排序算法直至收敛;
  4. 基于顶点最终得分对顶点进行排序。

TextRank可以用于关键词提取也可以用于文本摘要。在关键词提取方面,图的顶点表示从文本中提取的一个或多个词汇单元组成的序列,边定义为顶点之间的共现(co-occurrence)关系:如果两个顶点对应的词汇单元在大小为N的窗口中共同出现(co-occur),则在这两个顶点之间添加一条边。共现窗口的大小N通常设置为2-10。在句子抽取方面,图的顶点代表句子,边表示顶点对应的句子之间的相似度(similarity),作者在论文中将相似度定义为两个句子内容的重合度:
(3) S i m i l a r i t y ( S i , S j ) = ∣ { w k ∣ w k ∈ S i w k ∈ S j } ∣ l o g ( ∣ S i ∣ ) + l o g ( S j ) Similarity(S_i,S_j)=\frac{|\{w_k|w_k\in S_iw_k\in S_j\}|}{log(|S_i|)+log(S_j)} \tag 3 Similarity(Si,Sj)=log(Si)+log(Sj){wkwkSiwkSj}(3)

②Erkan G, Radev D R. LexPageRank: Prestige in Multi-Document Text Summarization[C], EMNLP 2004, 2004:365-371.
LexRank是同一时期另外一个研究组提出的一种与TextRank类似的基于图的文本摘要模型。在论文中,作者假设:与文档簇中很多句子相似的句子更加靠近文档簇的主题中心。 关于重要度有两点需要澄清:
一、如何定义两个句子之间的相似度,在论文中作者采用了TF-IDF余弦相似度
(4) S i m i l a r i t y ( x , y ) = ∑ w ∈ x , y t f w , x t f w , y ( i d f w ) 2 ∑ x i ∈ x ( t f x i , x i d f x i ) 2 ∑ y i ∈ y ( t f y i , y i d f y i ) 2 Similarity(x,y)=\frac{\sum_{w\in x,y}tf_{w,x}tf_{w,y}(idf_w)^2}{\sqrt{\sum_{x_i\in x}(tf_{x_i,x}idf_{x_i})^2}\sqrt{\sum_{y_i\in y}(tf_{y_i,y}idf_{y_i})^2}} \tag 4 Similarity(x,y)=xix(tfxi,xidfxi)2 yiy(tfyi,yidfyi)2 wx,ytfw,xtfw,y(idfw)2(4)

二、在给定一个句子与其他句子的相似度之后,如何计算一个句子的overall centrality。 作者首先设定了一个阈值,过滤掉相似性较低的值,构成一个无向无权相似图。随后作者定义了两种centrality:
1、Degree Centrality
一个句子Degree Centrality定义为其对应的顶点在相似图中的度,其弊端是将每条边看作是一个投票同等对待。
2、Eigenvector Centrality
Degree Centrality的弊端可以通过考虑投票顶点权威性得以解决,因此一个顶点的Eigenvector Centrality定义为:
(5) p ( u ) = ∑ v ∈ a d j [ u ] p ( v ) d e g ( v ) p(u)=\sum_{v\in adj[u]}\frac{p(v)}{deg(v)} \tag 5 p(u)=vadj[u]deg(v)p(v)(5)

等价的,上述公式可以写成矩阵形式:
(6) p = B T p o r p T B = p T p=B^Tp\quad or\quad p^TB=p^T \tag 6 p=BTporpTB=pT(6)

其中B是相似图邻接矩阵中每个元素除以这一行的和得到的矩阵:
(7) B ( i , j ) = A ( i , j ) ∑ k A ( i , k ) B(i,j)=\frac{A(i,j)}{\sum_kA(i,k)} \tag 7 B(i,j)=kA(i,k)A(i,j)(7)

等式6中, p T p^T pT是矩阵B的特征向量,对应的特征值为1。为了保证这种特征向量的存在,并且能够唯一的识别和计算,我们需要引入马尔可夫链知识。
一个随机矩阵 X X X(每一行元素之和等于1)就是一个马尔可夫链的状态转移矩阵,其中元素 X ( i , j ) X(i,j) X(i,j)指定了马尔可夫链中从状态 i i i转移到状态 j j j的概率,状态转移矩阵为 X X X的马尔可夫链收敛到一个平稳分布如果:
(8) lim ⁡ n → ∞ X n = 1 T r \lim_{n\to\infty}X^n=\textbf{1}^T\textbf{r} \tag 8 nlimXn=1Tr(8)

其中, 1 = ( 1 , 1 , … , 1 ) \textbf{1}=(1,1,\dots,1) 1=(1,1,,1) r \textbf{r} r是平稳分布向量。一个马尔可夫链如果满足以下两个性质:

  1. 不可约:任何一个状态能够转移到其他所有状态;
  2. 非周期:经过任意次转移都不会回到自身。

那么这个马尔可夫链一定能收敛到唯一的平稳分布,且这个平稳分布 r \textbf{r} r满足:
r X = r \textbf{r}X=\textbf{r} rX=r

因为等式6中的相似矩阵 B B B满足每一行之和等于1,所以我们能够将它看作是一个马尔可夫链。centrality vector p p p对应于平稳分布 r \textbf{r} r。然而,我们需要保证相似矩阵总是不可约和非周期的,为了解决这个问题,Page等人建议预留一些较低概率用于转移到任意状态,通过这种方式,随机游走者可以从周期性或者无连接中“逃脱”,从而使图不可约和非周期性。如果为跳转到图中任意顶点指定统一的概率,我们将得到公式5的修改版,也就是PageRank算法:
p ( u ) = d N + ( 1 − d ) ∑ v ∈ a d j [ u ] p ( v ) d e g ( v ) p(u)=\frac{d}{N}+(1-d)\sum_{v\in adj[u]}\frac{p(v)}{deg(v)} p(u)=Nd+(1d)vadj[u]deg(v)p(v)

上述公式同样可以写成矩阵形式:
p = [ d U + ( 1 − d ) B ] T p p=[dU+(1-d)B]^Tp p=[dU+(1d)B]Tp

其中, U U U是一个所有元素都等于1/N的方阵。

总结

系列第一篇主要总结了基于统计(中心度特征)的方法和基于图的方法,特别是基于图的方法是对基于统计方法的一次大的提升,将自动文摘的研究带入到一个新的方向,目前很仍然有很多将图模型与其他方法相结合的研究。话说回来,统计特征仍然是自然语言处理的基础,同样非常重要。

参考文献

[1]Radev, Dragomir R., et al. “Centroid-based summarization of multiple documents.” Information Processing & Management 40.6(2004):919-938.
[2]Mihalcea, Rada, and P. Tarau. “TextRank: Bringing Order into Texts.” Emnlp (2004):404-411.
[3]Page L. The PageRank Citation Ranking : Bringing Order to the Web[J]. Stanford Digital Libraries Working Paper, 1998, 9(1):1-14.
[4]Erkan G, Radev D R. LexPageRank: Prestige in Multi-Document Text Summarization[C], EMNLP 2004, 2004:365-371.

  • 0
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值