TF-idf算法进行文本相似度分析代码

编程:所用python的包下的gensim。
编程路径:
1.读取文档
2.对要计算的文档进行分词
3.把文档按照空格整理成一个超长的字符串
4.计算词语出现的频率
5.对频率低的词进行过滤,如果文档过小就不用选,过大的话把频率过低的词过滤后,在更快计算
6.通过语料库建立词典
7.加载要对比的文档
8.将要对比的文档通过doc2bow转化为稀疏向量
9.对稀疏向量进行处理,获得新语料库
10.将新语料库进行通过算法处理tf-idf算法
11.通过token2id得到特征数
12.稀疏矩阵相似度,从而建立索引
13.得到最终相似度结果

import jieba
from gensim import corpora
from gensim import models
from gensim import similarities
from collections import defaultdict

# 加载两个文档,这两个文档内容是不同的,我们要对比的文档在后面加载
d1 = open("D:/pyProject/novel/wudong.txt", encoding="utf-8").read()
d2 = open("D:/pyProject/novel/wanmei.txt", encoding="utf-8").read()
# 对两个文档进行切词
data1 = jieba.cut(d1)
data2 = jieba.cut(d2)
# 将文档词语变成我们需要的形式,这里的形式是按照空格分隔
data11 = ""
for i in data1:
data11 += i + " "
data22 = ""
for j in data2:
data22 += j + " "
# 这里是测试代码
'''print(data11)
print("===========")
print(data22)'''
# 将两个字符串放入list
documents = [data11, data22]
# 将list中每个字符串切分,list里套list
texts = [[word for word in docu.split(" ")] for docu in documents]
# 测试代码
'''print(texts)'''
# 进行词频统计,类似于wordcount,导包,其实这个频率统计的唯一意义是,为了在后面筛选出那些频率高的词,剔除掉频率低的词,这个词频统计与最后的稀疏矩阵的建立没有任何关系
frequency = defaultdict(int)
for t1 in texts:
for t2 in t1:
frequency[t2] += 1
# 这个循环的意思是,原本默认是0,出现了加一,再出现再加一
# frequency里面是一个元组,里面是一个字典,键值对
'''print(frequency)'''
texts = [[t2 for t2 in t1 if frequency[t2] > 500] for t1 in texts]
# 词频的作用就是把关键词频率大于某个值的词拿出来,重新放到text里,最终生成稀疏向量的是text,而不是frequency
# print(texts)
# ps:怪不得最后比较是两个文件,因为我们之前已经放进去到text列表,每个列表里有两个小列表。


dictionary = corpora.Dictionary(texts)
# text做好后生成语料库进行比较,
# dictionary.save("D:/pyProject/novel/dict.txt")
# 做好的语料库可以保存到本地,也可以不保存,这次不保存了


d3 = open("D:/pyProject/novel/doupo.txt", encoding="utf-8").read()
data3 = jieba.cut(d3)
# 加载要对比的文档并且进行分词
# 切词之后改变成我们需要的模式
data33 = ""
for t in data3:
data33+=t+" "
#print(data33)
new_doc =data33
new_vec=dictionary.doc2bow(new_doc.split())
#这个应该是语料库建立的词典,用这个词典把新文件变成稀疏向量
#print(new_vec)
#向量测试如上
corpus = [dictionary.doc2bow(text)for text in texts]
#把原来的数据也变成稀疏向量,这个向量里面是两个列表,因为有两本书
#print(corpus)
tfidf = models.TfidfModel(corpus)
#对原始文档进行模型计算,获得tifidf值
print(tfidf)
#TfidfModel(num_docs=2, num_nnz=184) 结果
featureNum=len(dictionary.token2id.keys())
#得到语料库的特征数
#计算稀疏矩阵相似度
index=similarities.SparseMatrixSimilarity(tfidf[corpus],num_features=featureNum)
sims=index[tfidf[new_vec]]
print(sims)
  • 5
    点赞
  • 26
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
namespace ServiceRanking { /// <summary> /// Summary description for TF_IDFLib. /// </summary> public class TFIDFMeasure { private string[] _docs; private string[][] _ngramDoc; private int _numDocs=0; private int _numTerms=0; private ArrayList _terms; private int[][] _termFreq; private float[][] _termWeight; private int[] _maxTermFreq; private int[] _docFreq; public class TermVector { public static float ComputeCosineSimilarity(float[] vector1, float[] vector2) { if (vector1.Length != vector2.Length) throw new Exception("DIFER LENGTH"); float denom=(VectorLength(vector1) * VectorLength(vector2)); if (denom == 0F) return 0F; else return (InnerProduct(vector1, vector2) / denom); } public static float InnerProduct(float[] vector1, float[] vector2) { if (vector1.Length != vector2.Length) throw new Exception("DIFFER LENGTH ARE NOT ALLOWED"); float result=0F; for (int i=0; i < vector1.Length; i++) result += vector1[i] * vector2[i]; return result; } public static float VectorLength(float[] vector) { float sum=0.0F; for (int i=0; i < vector.Length; i++) sum=sum + (vector[i] * vector[i]); return (float)Math.Sqrt(sum); } } private IDictionary _wordsIndex=new Hashtable() ; public TFIDFMeasure(string[] documents) { _docs=documents; _numDocs=documents.Length ; MyInit(); } private void GeneratNgramText() { } private ArrayList GenerateTerms(string[] docs) { ArrayList uniques=new ArrayList() ; _ngramDoc=new string[_numDocs][] ; for (int i=0; i < docs.Length ; i++) { Tokeniser tokenizer=new Tokeniser() ; string[] words=tokenizer.Partition(docs[i]); for (int j=0; j < words.Length ; j++) if (!uniques.Contains(words[j]) ) uniques.Add(words[j]) ; } return uniques; } private static object

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值