【Educoder数据挖掘实训】用Jaccard系数计算文本之间的相似度
开挖!!
这个题就是上两个实训的应用,关于 J a c c a r d Jaccard Jaccard系数之前的实训有介绍过。
这里的分词跟上个实训没任何区别,只不过写成了两步。
之后关于相似度的计算完全没区别,只需要计算一下集合个数即可。
代码如下:
#import numpy as np
#from scipy.spatial.distance import pdist#直接调包可以计算JC值 ,需要两个句子长度一样;
import jieba
jieba.setLogLevel(jieba.logging.INFO)
def Jaccrad(model, reference):#terms_reference为源句子,terms_model为候选句子
#1.分词
########## Begin ##########
terms_reference= jieba.cut(reference)
terms_model= jieba.cut(model)
########## End ##########
grams_reference = list(set(terms_reference))
grams_model = list(set(terms_model))
#2.计算交集
########## Begin ##########
temp=0
for i in grams_reference:
if i in grams_model:
temp=temp+1
########## End ##########
fenmu=len(grams_model)+len(grams_reference)-temp
#3.计算Jaccard系数
########## Begin ##########
jaccard_coefficient=float(temp/fenmu)
########## End ##########
return jaccard_coefficient
str1="我爱北京天安门"
str2="天安门雄伟壮阔让人不得不爱"
jaccard_coefficient=Jaccrad(str1,str2)
print(jaccard_coefficient)