机器学习笔记-TF-IDF统计方法

本文介绍了TF-IDF统计方法,用于评估词在文件集中的重要性。TF-IDF结合词频TF和逆向文件频率IDF,过滤常见词语,保留关键信息。在scikit-learn中,通过TfidfTransformer、CountVectorizer和TfidfVectorizer实现TF-IDF计算和文本特征提取。
摘要由CSDN通过智能技术生成

机器学习笔记-TF-IDF统计方法

TF-IDF统计方法

简介

TF-IDF是一种统计方法,用以评估一字词对于一个文件集或一个语料库中的其中一份文件的重要程度。字词的重要性随着它在文件中出现的次数成正比增加,但同时会随着它在语料库中出现的频率成反比下降。

其主要思想是:如果某个词或短语在一篇文章中出现的频率TF高,并且在其他文章中很少出现,则认为此词或者短语具有很好的类别区分能力,适合用来分类。

TFIDF实际上是:
T F ∗ I D F TF * IDF TFIDF
TF为词频(Term Frequency),指的是某一个给定的词语在该文件中出现的频率。这个数字是对词数(term count)的归一化,以防止它偏向长的文件。

IDF为逆向文件频率(Inverse Document Frequency),某一特定词语的IDF,可以由总文件数目除以包含该词语之文件的数目,再将得到的商取以10为底的对数得到:
i d f ( t ) = l o g [ ( 1 + n ) / ( 1 + d f ( t ) ) ] + 1 idf(t) = log[(1+n)/(1+df(t))] + 1 idf(t)=log[(1+n)/(1+df(t))]+1

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值