python 大批量文本分词 以及词频统计 (高效处理案例)

本文介绍如何使用Python高效地对大量文本进行分词和词频统计。通过结合jieba分词库和xlwings库,处理了包含100W条数据的Excel表格,避免了常规读取方式的低效问题,实现了快速的文本处理。运行结果以Excel文件形式展示,包括分词结果和词频统计。
摘要由CSDN通过智能技术生成

环境:python3.6

库:jieba,xlwt,xlwings,collections

 

前两天有个需求要对一张表里的中文语句进行分词,并统计每个词语出现的次数。

表格1231.xlsx大致内容如下:

由于表格内容过大,约有100W条数据,普通读取表格的方式效率非常慢,所以这次用的方法是xlwings,

xlwings是目前看来操作excel最快速、做的比较完善的一个库,优化很好,调用方式非常灵活。对读取大表格的有很高的效率

 

以下是完整的代码:

import jieba
import xlwt, xlrd
import xlwings as xw
from collections import Counter

# 定义一个空列表
all_word_list = []

# 分词
def trans_CN(text):
    # 接收分词的字符串
    word_list = jieba.cut(text)
    # 分词后在单独个体之间加上空格
    result = " ".join(word_list)
    # 转换成list
    result = result.split(" ")
    return result


#
  • 9
    点赞
  • 136
    收藏
    觉得还不错? 一键收藏
  • 10
    评论
评论 10
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值