特征选择之TF-IDF

TF-IDF,最开始用于信息检索,在信息检索中其计算过程如下

TF-IDF模型的主要思想是:如果词w在一篇文档d中出现的频率高,并且在其他文档中很少出现,则认为词w具有很好的区分能力,适合用来把文章d和其他文章区分开来。该模型主要包含了两个因素:TF,IDF

词频TF(Term Frequency)

词w在文档d中出现次数count(w, d)和文档d中总词数size(d)的比值:

1240

TF

逆向文档频率IDF(Inverse Document Frequency)

文档总数n与词w所出现文件数docs(w, D)比值的对数:

 

1240

IDF

加1是为了防止分母为0的情况

TF-IDF

1240

TF-IDF

TF-IDF= TF * IDF  =(词频*词权)

TF-IDF与一个词在文档中的出现次数成正比,与该词在整个语言中的出现次数成反比。所以,自动提取关键词的算法就很清楚了,就是计算出文档的每个词的TF-IDF值,然后按降序排列,取排在最前面的几个词。

一句话或者一个文档的TF-IDF:各个词组的TF-IDF的和

其他计算TF 、IDF的方式

 

1240

 

1240

TF-IDF的权值

1240

TF-IDF算法的优点是简单快速,结果比较符合实际情况。缺点是,单纯以"词频"衡量一个词的重要性,不够全面,有时重要的词可能出现次数并不多。而且,这种算法无法体现词的位置信息,出现位置靠前的词与出现位置靠后的词,都被视为重要性相同,这是不正确的。(一种解决方法是,对全文的第一段和每一段的第一句话,给予较大的权重。)

但是但是,我们这里利用TFIDF作为特征选择,上面的好像只是计算了一个词和文档的相识度的过程,如何将上面的过程转换成特征选择?

只需要将上面的文档换成某一类,就能理解一大半了。

某综述中看到下面的方法用于特征选择

 

1240

 

1240

参考1:http://www.ruanyifeng.com/blog/2013/03/tf-idf.html

参考2:https://en.wikipedia.org/wiki/Tf%E2%80%93idf

转载于:https://my.oschina.net/u/1462678/blog/896314

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值