中文分词及词频统计

问题背景

最近在一个比赛里划水,需要完成一些词频统计的工作。

以及实验室任务还需要做一个短语挖掘和分词的任务,所以针对此来做一些实践。

很多东西不记住下次用就不会了,所以还是小小的记录一下,方便之后拿出来用。

基本工具

结巴分词

stanford nlp

import jieba
import os
import codecs
from collections import Counter


def get_words(txt):
    seg_list = jieba.cut(txt)
    c = Counter()
    for x in seg_list:
        if len(x) > 1 and x != '\r\n':
            c[x] += 1
    print('常用词频度统计结果')
    for (k, v) in c.most_common(50):
        print('%s%s %s  %d' % ('  '*(5-len(k)), k, '*'*int(v/2), v))


if __name__ == '__main__':
    with codecs.open('财经.txt', 'r', encoding='utf-8') as f:
        txt = f.read()
    get_words(txt)

 

参考资料

中文分词方法和软件工具汇总笔记:  https://zhuanlan.zhihu.com/p/86322679

自然语言处理NLP知识和产品的笔记:   https://zhuanlan.zhihu.com/p/85940466

  • 0
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值