文档查重结巴分词+gensim

该博客介绍了如何结合结巴分词和gensim库来执行文档查重,通过分词处理后利用gensim计算文本相似度。
摘要由CSDN通过智能技术生成

通过结巴分词+gensim实现简单的文档查重,先分词处理再用gensim计算相似度。

#!/usr/bin/env python
# _*_ coding:utf-8 _*_

import os
import jieba    # 导入结巴分词模块
import sys
import time
import jieba.posseg as pseg

sys.path.append("C:/Users/asus/Desktop/User_Interests/fenci")   # 添加程序所在路径
jieba.load_userdict("database/userdict.txt")    # 加载用户自定义词典,可在此txt文档中自行添加词汇


def cutTxtWord(dealpath, savepath, stopwordspath):
    """
    函数功能:对单个txt文档进行分词
    入口参数:dealpath:需要分词的txt文件路径
            savepath:分词完成后保存分词结果的txt路径
            stopwordspath:停用词txt文件路径
    """
    with open(stopwordspath, "r") as f:
        stopwords = {}.fromkeys([line.rstrip() for line in f])
    with open(dealpath, "r") as f:
        txtlist = f.read()
        txtlist.decode('gbk', 'ignore').encode('utf-8')
    words = pseg.cut(txtlist)
    cutresult = ""
    for word, flag in words:
        if word not in stopwords:
            cutresult += word + "/" + flag + " "
    # print(cutresult)
    getFlag(cutresult, savepath)


def cutFileWord(read_folder_path, write_folder_path, stopwordspath):
    """
    函数功能:对整个文件夹内的txt文件进行分词
    
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值