提取一篇文章中出现最多的词

高频词提取 -------提取一篇文章中出现最多的词

1.需要cmd库 pip install jieba  (分词)

jieba.lcut()       分词函数

hist.sort(key=lambda x: x[1], reverse=True)  # 排序  还是降序

# -*- coding:utf-8 -*-
import jieba
content = open('meizu.txt', 'r', encoding='utf-8').read()
words = jieba.lcut(content)

counts = {}

for word in words:
    if len(word) == 1:  # 排除单个字的分词结果
        continue
    else:
        counts[word] = counts.get(word, 0) + 1  # dict用法

hist = list(counts.items())  # 形成列表
hist.sort(key=lambda x: x[1], reverse=True)  

for i in range(20):        #输出高频前20个词
    word, count = hist[i]
    print("{:<10}{:>5}".format(word, count))

2.注意文件的路径问题不要出错

3.还有txt文件的编码格式也需要修改(一般为utf-8),或者换一个编码格式

 

需要处理的原txt文件:

结果如下:

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值