python jieba 文本相似度_使用jieba和gensim模块判断文本相似度

本文介绍了如何使用Python的jieba和gensim模块计算文本相似度,涉及内容包括预处理、分词、词袋模型、TF-IDF和LSI模型。示例代码展示了从数据库获取文章、文本过滤、分词、建立相似度索引的过程,并提到了使用Flask创建API以接收远程请求。
摘要由CSDN通过智能技术生成

本文重新整理的更详细规范的介绍见这里

判断文本的相似度在很多地方很有用,比如在爬虫中判断多篇已爬取的文章是否相似,只对不同文章进一步处理可以大大提高效率。

在Python中,可以使用gensim模块来判断长篇文章的相似度。点这里进官网

官方的文档部分内容实在太含糊了,网上也找不到很有用的文章,所以我现在写下来记录一下自己的踩坑史。

实际中我用的是数据库抽取的批量文章,所以就不放上来了,只讲代码本身使用。

假定最初给定的格式是内容为(content_id, content)的cur数据库游标。

初步处理

在使用gensim模块之前,要对爬取的文章做一些清洗:

del_words = {

'编辑', '责编', '免责声明', '记者 ', '摘要 ', '风险自担', '扫码下载', '(原题为', '依法追究', '严正声明',

'关键词 ', '原标题', '原文', '概不承担', '转载自', '来源:', '仅做参考', '仅供参考', '未经授权',

'禁止转载', '阅后点赞', '研究员:', '本文首发', '微信公众号', '个人观点', '蓝字关注', '微信号:', '欢迎订阅', '点击右上角分享', '加入我们'

}

def filter_words(sentences):

'''

过滤文章中包含无用词的整条语句

:sentences list[str]

:return list[str]

'''

text = []

for sentence in sentences:

if sentence.strip() and not [word for word in del_words if word in sentence]:

text.append(sentence.strip())

return text

contents = []

for id_, content in cur:

sentences = c

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值