自动分词+热词统计

代码

# -*- coding: utf-8 -*-
"""
Spyder Editor

This is a temporary script file.
"""

import xlrd
import numpy as np
import pandas as pd
import jieba
import collections
import xlwt

def readexcel(rPath):
       workbook = xlrd.open_workbook(rPath)
       #print(workbook.sheet_names())
       sheet = workbook.sheet_by_index(1)
       #构建ylist
       ylist = []
       for i in range(1, sheet.nrows):
              ylist.append(str(sheet.cell_value(rowx = i, colx = 1)))
       return ylist

def countWord(l):
    l = ''.join(l)
    l = list(jieba.lcut(l))
    word_counts = dict(collections.Counter(l))
    word_counts=dict(sorted(word_counts.items(), key=lambda x:x[1], reverse=True))
    print(word_counts)
    return word_counts

def write2Excel(wPath, word_counts):
    # 创建一个workbook 设置编码
    workbook = xlwt.Workbook(encoding = 'utf-8')
    # 创建一个worksheet
    worksheet = workbook.add_sheet('Sheet1')
    
    worksheet.write(0,0, '词汇')
    worksheet.write(0,1, '频率')
    
    row=1
    for k,v in word_counts.items():
         # 写入excel
        # 参数对应 行, 列, 值
        worksheet.write(row,0, k)
        worksheet.write(row,1, v)
        row+=1
    
    # 保存
    workbook.save(wPath)
    return
        

rPath = r'C:\Users\K43\Desktop\xppcode\热词统计.xlsx'
wPath = r'C:\Users\K43\Desktop\xppcode\热词统计-结果.xlsx'
ylist = readexcel(rPath)
result= countWord(ylist)
write2Excel(wPath, result)
#print(result,len(result.keys()))
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
本系统具备中文自动分词、全文检索、统计等基本功能,具体介绍如下: 1、中文自动分词 1)能对给定的中文文本进行自动分词、词性一级、词性二级标注; 2)支持大批量文本的自动分词及词性标注处理,可处理各级子文件夹下的文件; 3)能根据待分词及标注文本的类别,加挂用户自定义词典,进一步提高分词和标注的精确度; 4)用户可对系统词典进行扩展,可添加、删除、查看系统词典,可将系统词典输出为TXT文本编辑后再转换为系统用的电子词典; 5)支持人名、地名、机构名等未登录词识别,支持基于GBK字符集的简、繁体文本的处理。 2、全文检索 1)能对给定的大批量文本分别建立基于字、词、词及词性的三种索引库; 2)打开相应的索引库后,可进行字串、词串、词及词性串的全文检索; 3)能显示检索结果的出处,点击后可自动打开对应的文本,进行具体的查阅; 4)支持语言学属性的全文检索,可控制检索串中字串的前后搭配及范围; 5)能控制检索结果中关键字串前后显示的字数并对结果中的查询关键字串以红色或蓝色显示。 3、统计 1)可对大批量文本进行字频、词频统计,可处理各级子文件夹下的文件; 2)对统计结果,提供基于字符码表、频率、拼音、部首四种方式的排序显示; 3)能对指定文件夹及子文件夹下的所有的TXT文本文件进行词频统计(对未分词文本可边自动分词统计或对已分词并经人工校对的文本进行词频统计); 4)词频统计对象不是基于词表的词才统计,而是将分词结果中所有的词进行词频统计; 5)可对统计、检索结果进行编辑并保存为TXT或RTF格式的文件。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值