python实现文本查重系统_NLP之gensim库python实现文本相似度/匹配/查重

本文介绍了如何使用Python的gensim库结合jieba进行文本处理,通过构建词袋模型和TF-IDF模型,实现文本的相似度计算和查重。通过示例展示了查重系统在寻找与特定文本最相关的文章时的工作流程。
摘要由CSDN通过智能技术生成

目的

给定一个或多个搜索词,如“高血压 患者”,从已有的若干篇文本中找出最相关的(n篇)文本。

理论知识

文本检索(text retrieve)的常用策略是:用一个ranking function根据搜索词对所有文本进行排序,选取前n个,就像百度搜索一样。

算法:模型选择

1、基于word2vec的词语相似度计算模型

2、python的实现用到了gensim库

3、“jieba”中文分词

分步实现:

jieba.cut

方法接受三个输入参数: 需要分词的字符串;cut_all 参数用来控制是否采用全模式;HMM 参数用来控制是否使用

HMM 模型

构建停用词表

"""分词、去停用词"""

# stopwords =["项目",'招标','中标', '公告', '标题'] # 停用词

stopwords = []

stopwords = [ w.strip() for w in stopwords ]

结巴分词后的停用词性 [标点符号、连词、助词、副词、介词、时语素、‘的’、数词、方位词、代词]

# stop_flag = ['x', 'c', 'u', 'd', 'p', 't', 'uj', 'm', 'f', 'r'] # 停用词性

stop_flag = []

对一篇文章分词、去停用词

  • 1
    点赞
  • 15
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值