python中文怎么通过jieba分词计算数量_【python】利用jieba中文分词进行词频统计...

以下代码对鲁迅的《祝福》进行了词频统计:

import io

import jieba

txt = io.open("zhufu.txt", "r", encoding='utf-8').read()

words = jieba.lcut(txt)

counts = {}

for word in words:

if len(word) == 1:

continue

else:

counts[word] = counts.get(word,0) + 1

items = list(counts.items())

items.sort(key=lambda x:x[1], reverse=True)

for i in range(15):

word, count = items[i]

print (u"{0:<10}{1:>5}".format(word, count))

结果如下:

L3Byb3h5L2h0dHBzL2ltZzIwMjAuY25ibG9ncy5jb20vYmxvZy8xOTY2NzAzLzIwMjAwNC8xOTY2NzAzLTIwMjAwNDE1MTA1MjI5MTY4LTIxMzk1MTcxMTEucG5n.jpg

并把它生成词云

from wordcloud import W

  • 1
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
在处理上市公司年报时,可以使用Python中的jieba进行关键提取和词频统计的程序。以下是一个年报样例的处理步骤: 首先,我们需要将年报文本读入程序中。假设该年报的文本保存在一个名为"annual_report.txt"的文本文件中,我们可以使用Python的文件读取功能来读取该文件,将其内容存储在一个字符串变量中。 接下来,需要使用jieba库来进行中文分词。首先,我们需要使用jieba的初始化函数进行分词器的初始化,并加载自定义的典(如果有)。然后,使用jieba分词函数来对年报文本进行分词处理。分词结果可以保存在一个列表变量中。 之后,我们可以利用Python的数据结构来进行数据处理和统计。我们可以使用一个字典变量来存储每个关键词频统计结果。遍历分词结果列表,对每个分词进行判断,如果分词已经在字典中,我们就将对应的频加1;如果分词不在字典中,我们就在字典中新增该关键,并将其频设置为1。 最后,我们可以按照进行排序,以便找出出现频率最高的关键。可以使用Python的排序函数对字典进行排序,按照频降序排列。然后,根据需要,可以选择前几个关键进行输出显示。 综上所述,使用Python中的jieba库可以实现上市公司年报的关键提取和词频统计。这个程序可以帮助我们对年报进行数字化处理,并快速地获取关键信息。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值