TFIDF算法

TF-IDF算法在两个方面都有重要的作用:1. 提取文章的关键字词 2. 根据关键词检索出相关度高的文本。这个算法被公认为信息检索领域最重要的发明,是很多算法和模型的基础。


什么是TF-IDF

TF-IDF(term frequency–inverse document frequency)是一种用于资讯检索与资讯探勘的常用加权技术。TF-IDF是一种 统计方法,用以评估一字词对于一个文件集或一个语料库中的其中一份文件的重 要程度。字词的重要性随著它在文件中出现的次数成正比增加,但同时会随著它 在语料库中出现的频率成反比下降。TF-IDF加权的各种形式常被搜索引擎应用, 作为文件与用户查询之间相关性程度的度量或评级。除了TF-IDF以外,因特网上 的搜寻引擎还会使用基于连结分析的评级方法,以确定文件在搜索结果中出现的顺序。  

TFIDF的主要思想是:如果某个词或短语在一篇文章中出现的频率TF 高,并且在其他文章中很少出现,则认为此词或者短语具有很好的类别区分能力 ,适合用来分类。TFIDF实际上是:TF * IDF,TF词频(Term Frequency),IDF反文档频率(Inverse Document Frequency)。TF表示词条,在文档d中出现的频率。IDF的主要思想是:如果包 含词条t的文档越少,也就是n越小,IDF越大,则说明词条t具有很好的类别区分 能力。如果某一类C.中包含词条t的文档数为m,而其它类包含t的文档总数为k ,显然所有包含t的文档数n=m+k,当gfl大的时候,n也大,按照IDF公式得到的 IDF的值会小,就说明该词条t类别区分能力不强。但是实际上,如果一个词条在 一个类的文档中频繁出现,则说明该词条能够很好代表这个类的文本的特征,这 样的词条应该给它们赋予较高的权重性,并选来作为该类文本的特征词以区别与 其它类文档。这就是IDF的不足之处. 

 

TF-IDF算法原理  

在一份给定的文件 里,词频 (term frequency, TF) 指的是某一个给定的词语在该文件中出现的次数。这个数字通常会被正规化, 以防止它偏向长的文件。(同一个词语在长文件里可能会比短文件有更高的词频 ,而不管该词语重要与否。)  逆向文件频率 (inverse document frequency, IDF) 是一个词语普遍重要性的度量。某一特定词语的IDF,可以由总文件数目除以 包含该词语之文件的数目,再将得到的商取对数得到。  某一特定文件内的高 词语频率,以及该词语在整个文件集合中的低文件频率,可以产生出高权重的 TF-IDF。因此,TF-IDF倾向於过滤掉常见的词语,保留重要的词语。

  

举个例子   

有很多不同的数学公式可以用来计算TF- IDF。词频 (TF) 是一词语出现的次数除以该文件的总词语数。假如一篇文件的总词语数是100 个,而词语「母牛」出现了3次,那麽「母牛」一词在该文件中的词频就是 0.03 (3/100)。一个计算文件频率 (DF) 的方法是测定有多少份文件出现过「母牛」一词,然後除以文件集里包含的文 件总数。所以,如果「母牛」一词在1,000份文件出现过,而文件总数是 10,000,000份的话,其文件频率就是 0.0001 (1000/10,000,000)。最後,TF-IDF分数就可以由计算词频除以文件频率而得 到。以上面的例子来说,「母牛」一词在该文件集的TF- IDF分数会是 300 (0.03/0.0001)。这条公式的另一个形式是将文件频率取对数。 

 

在向量空间模型里的应用  

TF-IDF权重计算方法经常会和余弦相似度(cosine similarity)一同使用於向量空间模型中,用以判断两份文件之间的相似性。


我的理解

tfidf算法可以用来计算文件中某个词的权重。

通过将文件中所有关键词的权重相加,再加上文件中关键词的密度,可以用来表示文件的权重。

通过计算文件中所有词的权重,利用余弦定理来计算两个文件的相似度。


  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值