用Python 3.5结巴分词包做词频统计

工作中有的时候需要对文本进行拆分,然后分析词频,分词用结巴分词做了一个简单的,代码如下:

import pandas  ##引入pandas包
from pandas import Series as sr, DataFrame as df  ##从pandas包引入Series与DataFrame格式
from collections import Counter as cr  ##引入Counter进行计数
import jieba.posseg as pseg  ##引入结巴分词词性标注

path = ''  ##读取文件路径
data1 = df.read_csv(path,sep= )  ## sep后填文件间隔符,csv一般为'\t'
l = len(data1)
df1=df(columns=['word','type'])
for i in range(l):
    words = pseg.cut(data1.ix[i][x]) ##x填写要分词的内容所在列数-1
    for t in words:
        df2 = pd.DataFrame([t.word,t.flag], columns=data2.columns)
        df1.append(df2,ignore_index=True)
df3=df1.groupby(['word','type']).count()

  

转载于:https://www.cnblogs.com/helloxia/p/6374198.html

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值