使用 TF-IDF 和余弦相似度计算文本相似度

在文本挖掘和信息检索领域,衡量两个文本的相似度是一个非常重要的任务。本文将介绍如何使用 TF-IDF(词频-逆文档频率)和余弦相似度来计算文本的相似度。

1. TF-IDF 介绍

TF-IDF(Term Frequency-Inverse Document Frequency)是一种统计方法,用于评估一个词语在一个文档或一个文档集合中的重要程度。TF-IDF 的值随着一个词语在文档中出现的次数成正比,但同时会随着它在整个文档集合中的出现频率成反比。

1.1 词频(Term Frequency, TF)

词频表示某个词语在文档中出现的次数。计算公式为:

T F ( t , d ) = f ( t , d ) N ( d ) TF(t, d) = \frac{f(t, d)}{N(d)} TF(t,d)=N(d)f(t,d)

其中,(f(t, d)) 表示词语 (t) 在文档 (d) 中出现的次数,(N(d)) 表示文档 (d) 中的总词数。

1.2 逆文档频率(Inverse Document Frequency, IDF)

逆文档频率表示某个词语在整个文档集合中出现的频率。计算公式为:

I D F ( t , D ) = log ⁡ N 1 + ∣ d ∈ D : t ∈ d ∣ IDF(t, D) = \log \frac{N}{1 + |d \in D: t \in d|} IDF(t,D)=log1+dD:tdN

其中,(N) 表示文档集合中的文档总数,(|d \in D: t \in d|) 表示包含词语 (t) 的文档数量。

1.3 TF-IDF 计算

将词频和逆文档频率相乘,得到词语在文档中的 TF-IDF 值:

T F − I D F ( t , d , D ) = T F ( t , d ) × I D F ( t , D ) TF-IDF(t, d, D) = TF(t, d) \times IDF(t, D) TFIDF(t,d,D)=TF(t,d)×IDF(t,D)

2. 余弦相似度

余弦相似度(Cosine Similarity)用于衡量两个向量之间的相似度,通过计算它们夹角的余弦值来表示。对于两个向量 (A) 和 (B),计算公式为:

Cosine Similarity = A ⋅ B ∥ A ∥ ∥ B ∥ \text{Cosine Similarity} = \frac{A \cdot B}{\|A\| \|B\|} Cosine Similarity=A∥∥BAB

其中,(A \cdot B) 表示向量的点积,(|A|) 和 (|B|) 分别表示向量的模。

3. 使用 Python 进行 TF-IDF 和余弦相似度计算

下面是一个使用 Python 和 scikit-learn 库进行 TF-IDF 向量化和余弦相似度计算的示例:

from sklearn.feature_extraction.text import TfidfVectorizer
from sklearn.metrics.pairwise import cosine_similarity

# 示例文档集合
documents = [
    "今天天气很好",
    "我们去公园散步",
    "天气预报说今天有雨",
    "出去玩需要带伞"
]

# 创建 TF-IDF 向量化器
vectorizer = TfidfVectorizer()

# 计算 TF-IDF 值并将文档转换为向量
tfidf_matrix = vectorizer.fit_transform(documents)

# 打印每个文档的 TF-IDF 向量
print("TF-IDF 矩阵:")
print(tfidf_matrix.toarray())

# 计算余弦相似度
cosine_sim = cosine_similarity(tfidf_matrix)

# 打印余弦相似度矩阵
print("余弦相似度矩阵:")
print(cosine_sim)
4. 解释结果

上面的代码首先将文档集合转换为 TF-IDF 矩阵,每一行代表一个文档的 TF-IDF 向量。然后,计算这些向量之间的余弦相似度,得到一个相似度矩阵,其中的每个值表示两个文档之间的相似度。

  • TF-IDF 矩阵: 表示每个文档的词语在文档中的重要程度。
  • 余弦相似度矩阵: 表示每两个文档之间的相似度值,取值范围为 [0, 1],值越大表示两个文档越相似。

结论

通过本文的介绍,我们了解了 TF-IDF 和余弦相似度的基本原理,并学习了如何使用 Python 进行具体实现。这些技术在文本分类、聚类和检索等任务中具有广泛应用。希望本文对你理解和应用这些技术有所帮助!


这篇博客可以记录下来,以便以后复习和与他人分享。如果有任何问题或需要进一步的帮助,请随时联系!

namespace ServiceRanking { /// <summary> /// Summary description for TF_IDFLib. /// </summary> public class TFIDFMeasure { private string[] _docs; private string[][] _ngramDoc; private int _numDocs=0; private int _numTerms=0; private ArrayList _terms; private int[][] _termFreq; private float[][] _termWeight; private int[] _maxTermFreq; private int[] _docFreq; public class TermVector { public static float ComputeCosineSimilarity(float[] vector1, float[] vector2) { if (vector1.Length != vector2.Length) throw new Exception("DIFER LENGTH"); float denom=(VectorLength(vector1) * VectorLength(vector2)); if (denom == 0F) return 0F; else return (InnerProduct(vector1, vector2) / denom); } public static float InnerProduct(float[] vector1, float[] vector2) { if (vector1.Length != vector2.Length) throw new Exception("DIFFER LENGTH ARE NOT ALLOWED"); float result=0F; for (int i=0; i < vector1.Length; i++) result += vector1[i] * vector2[i]; return result; } public static float VectorLength(float[] vector) { float sum=0.0F; for (int i=0; i < vector.Length; i++) sum=sum + (vector[i] * vector[i]); return (float)Math.Sqrt(sum); } } private IDictionary _wordsIndex=new Hashtable() ; public TFIDFMeasure(string[] documents) { _docs=documents; _numDocs=documents.Length ; MyInit(); } private void GeneratNgramText() { } private ArrayList GenerateTerms(string[] docs) { ArrayList uniques=new ArrayList() ; _ngramDoc=new string[_numDocs][] ; for (int i=0; i < docs.Length ; i++) { Tokeniser tokenizer=new Tokeniser() ; string[] words=tokenizer.Partition(docs[i]); for (int j=0; j < words.Length ; j++) if (!uniques.Contains(words[j]) ) uniques.Add(words[j]) ; } return uniques; } private static object
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值