中文文本的字数统计(不包括标点符号且考虑英文/数字序列)

#-*-coding=utf-8 -*-
"""
统计一遍中文文章的字数(不包括标点符号,考虑英文/数字序列(不拆分成当个字母或数字)
"""
import re
import jieba
c = "\\"
text = """然而,在参加string聚会或者出席典礼时,很多人会抱怨自己挑不出一件拿得出手的裙子。望着摆满了鞋子的鞋架,发觉自己花了这么多钱,却选不出一双满意的鞋子。梳妆台上摆满了化妆品,拿起来一看,已经过了保质期。联想电脑过了4年服役期后,老化明显,今天这个问题花400去修,明天那个问题花 300去换。
"""

pat = r"(?u)\w"
#统计会包含标点符号
print "包含标点符号,且未考虑英文和量词拆分的统计的长度:",len(text.decode('utf-8'))
#去掉标点符号后的统计
print "未考虑英文和量词拆分的统计的长度:",len(re.findall(pat,text.decode('utf-8')))

print re.findall(pat,text.decode('utf-8'))
"""
上面的统一没有考虑到英文单词和数量。比如`string`,实际是一个词,结果被拆分成字母,当成了6个字。400当成了3个字
下面的方法成功的解决了英文和数字的统计问题。
"""
#去掉标点符号后的text
print re.findall(r'(?u)\w+',text.decode('utf-8'))

text_len = 0

for text in re.findall(r'(?u)\w+',text.decode('utf-8')):
    #结巴分词不会把英文和量数分拆
    words = jieba.cut(text)
    for word in words:
        if re.compile('[a-zA-z0-9]+').search(word):
            '''如果是英文或数字序列,当成1个字'''
            length = 1
        else:
            '''中文继续对词拆分成字统计'''
            length = len(re.findall(r"(?u)\w",word))
        text_len += length
print "去掉标点符号,且不拆分英文数字序列统计的长度:",text_len
  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值