python快速示例_Python实现快速计算词频功能示例

本文实例讲述了Python实现快速计算词频功能。分享给大家供大家参考,具体如下:

这几天看到一位同事的代码,方法如下:

def cut_word(body):

temp_dict={}

if body is not None:

temp=jieba.cut(body)

for t in temp:

temp_dict[t]=1

else:

pass

return temp_dict

这个函数的功能是,输入一段字符串,比如:’今天天气很不错’,输出一个字典,key为使用结巴的cut方法之后切分的词,value为1,如:{‘很’:1,’今天天气’:1,’不错’: 1}。

然后我看到同事的另一个方法:

def union_dict(x,y):

_keys = set(sum([obj.keys() for obj in [x,y]],[]))

_total = {}

for _key in _keys:

_total[_key] = sum([obj.get(_key,0) for obj in [x,y]])

return _total

是这样调用的:

final_dict=reduce(union_dict,result)

result是这样产生的:

result=df['body'].apply(cut_word)

也就是把df的body列每一行进行cut_word函数操作(即将字符串转换成一个字典)。

result的类型是series,随后对result用reduce函数进行union_dict操作。

union_dict的作用是,输入两个字典,比如{‘很’:1,’今天天气’:1,’不错’: 1}和{‘很’:1,’今天天气’:1,’差’: 1},对key相同的进行value求和,也就是输出会变成{‘很’:2,’今天天气’:2,’不错’: 1,’差’:1}。

所以这一系列的操作其实是为了计算一大堆文字的词频数,但同事使用的是对每一行分别进行拆分,生成字典,随后

对字典进行合并,其实有些麻烦。

再学习自然语言处理的时候,我了解到nltk有一个方法,可以直接计算词频,用在此处正好。

# -*- coding:utf-8 -*-

import nltk

import jieba

str = '今天天气很不错。今天天气很差'

a = list(jieba.cut(str))

cfd = nltk.FreqDist(a)

结果直接是一个带有频数的字典:{‘很’:2,’今天天气’:2,’不错’: 1,’很差’:1,’。’}

由于同事的函数cut_word对每个词只计一次频数,所以不能直接拼接字符串后调用FreqDist函数,需要对每个cut出来的列表去重,随后再拼接为大字符串调用FreqDist,这也比之前写这两个函数简单许多。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值