Python--实现长篇文档中的多频词统计

案例:三国小说主要人物出场频率统计

@Time : 19-5-11

@Author : Zurich.恋战

@Email : 1178824808@qq.com

@Software: PyCharm

首先导入必要的模块:

import jieba
from collections import Counter
from wordcloud import WordCloud

注释:导入模块之前,需要先下载 jieba模块WordCloud模块

在terminal窗格下输入:
pip install jieba(回车)
pip install WordCloud(回车)

下载完成后,如下图所示:

先举个栗子:

import jieba
# 使用 jieba 分词
txt = '我来到北京清华大学'
seg_list = jieba.lcut(txt)
print(seg_list)

这个代码块主要使用了 jieba库 来实现对字符串的分割

输出:

Building prefix dict from the default dictionary ...
Building prefix dict from the default dictionary ...
Loading model from cache C:\Users\ADMINI~1\AppData\Local\Temp\jieba.cache
Loading model cost 0.810 seconds.
Prefix dict has been built succesfully.
['我', '来到', '北京', '清华大学']

Process finished with exit code 0
那么,说完了上面的基本操作,现在进入正题。
  • 第一步:导入电子版文档,存储在sanguo.txt中(当然,也可以使用迭代对象来分次导入,好处是节约内存)
      with open('sanguo.txt','r', encoding='utf-8') as f:
        # 打开文件路径
        txt = f.read() # 这里直接导入
  • 第二步:将字符串分割成等量的中文
words = jieba.lcut(txt)
    print(words)
    # ‘人物名字’:出现次数

输出:

', '汉中', '', '', '', '李严', '曾结', '生死之交', '', '', '', '成都', '时留', '', '严守', '永安', '', '', '', '已作', '一书', '', '', '', '李严', '亲笔', '令人', '送与', '孟达',, '', '', '必然', '推病', '不出', '以慢', '军心', '', '', '一路', '', '不足', '', '', '', '', '', '曹真', '引兵', '', '阳平关', '', '此地', '险峻',
  • 第三步:一个小说中,按照常理,主角的名字不会是一个字,所以要筛选出大于1的字符串
counts = {}   #创建空字典
    for word in words:   # 遍历字典
        if len(word) == 1:
            continue
        else:
            # 往字典里添加元素
            #counts['key'] = 888
            counts[word] = counts.get(word, 0) + 1
            # counts['曹操'] = counts.get('曹操', 0) + 1
    print(counts)

输出:

{'正文': 1, '第一回': 1, '桃园': 19, '豪杰': 22, '结义': 14, '黄巾': 40, '英雄': 82, '立功': 22, '滚滚': 5, '长江': 25, '逝水': 1, '浪花': 1, '淘尽': 1, '是非成败': 1, '转头': 2, '青山': 1, '依旧': 11, '几度': 1, '夕阳红': 1, '渔樵': 1, '江渚': 2, '上惯': 1, '秋月春风': 1, }   # 这里只是一部分
  • 第四步:删除 无关词。例如:将军", “却说”, “丞相”, “二人”, “不可”, “荆州”, “不能”, “如此”, “商议”, “如何”, “主公”, “军士”, “军马”, “左右”, “次日”, “引兵”, “大喜”, “天下”,“东吴”, “于是”, “今日”, “不敢”, “魏兵”, “陛下”, “都督”, “人马”, “不知”,…等。

在一篇文章中,除一个字符之外的其他多字符若不是人物名字,需要删除

# 定义无关词集合
    excludes = {"将军", "却说", "丞相", "二人", "不可", "荆州", "不能", "如此", "商议",
                "如何", "主公", "军士", "军马", "左右", "次日", "引兵", "大喜", "天下",
                "东吴", "于是", "今日", "不敢", "魏兵", "陛下", "都督", "人马", "不知",
                '玄德曰', '孔明曰', '刘备', '关公', '孔明曰', '玄德曰', '先主', '此人',
                '上马', '大叫', '后主', '众将', '只见', '一人', '汉中', '太守', '天子',}
    for word in excludes:
        del counts[word]
  • 第五步:将一些字符串整合在一起,比如‘孔明’和‘孔明曰’,‘玄德’和‘玄德曰’等等
    counts['孔明'] = counts.get('孔明') + counts.get('孔明曰')
    counts['玄德'] = counts.get('玄德') + counts.get('玄德曰')
    counts['玄德'] = counts.get('玄德') + counts.get('刘备')
    counts['云长'] = counts.get('关公') + counts.get('云长')
  • 第六步:统计出现频率最高的前10个词
    items = list(counts.items())
    items.sort(key=lambda x: x[1], reverse=True)  # 使用了隐函数
    # print('排序后:', items)
    for i in range(10):
        character, count = items[i]
        print(character, count)

输出:

孔明 1204
玄德 1159
曹操 910
张飞 340
孙权 259
吕布 258
赵云 254
云长 241
司马懿 221
周瑜 216

拓展 : 统计出现频率最高的前10个词–方法2

    roles = Counter(counts)
    role = roles.most_common(10)
    print(role)

输出:

[('孔明', 1204), ('玄德', 1159), ('曹操', 910), ('张飞', 340), ('孙权', 259), ('吕布', 258), ('赵云', 254), ('云长', 241), ('司马懿', 221), ('周瑜', 216)]
  • 第七步:构造词云字符串
    li =[]
    for i in range(10):
        character, count = items[i]
        for _ in range(count):
            li.append(character)
    # print(li)
    cloud_txt = " ".join(li)
    wc = WordCloud(
        background_color='white',
        font_path='msyh.ttc',
        collocations=False  # 是否包含两个词的搭配,默认为Ture
    ).generate(cloud_txt)
    wc.to_file('三国中出现的前十大人物.png')

生成图片如下:
三国中出现的前十大人物.png
完整代码如下:

# 案例:三国小说人物出场词频率统计
import jieba
from collections import Counter
from wordcloud import WordCloud

def parse():
    # 定义无关词集合
    excludes = {"将军", "却说", "丞相", "二人", "不可", "荆州", "不能", "如此", "商议",
                "如何", "主公", "军士", "军马", "左右", "次日", "引兵", "大喜", "天下",
                "东吴", "于是", "今日", "不敢", "魏兵", "陛下", "都督", "人马", "不知",
                '玄德曰', '孔明曰', '刘备', '关公', '孔明曰', '玄德曰', '先主', '此人',
                '上马', '大叫', '后主', '众将', '只见', '一人', '汉中', '太守', '天子',}
    """三国小说人物出场词频率统计"""
    with open('sanguo.txt','r', encoding='utf-8') as f:
        # 打开文件路径
        txt = f.read()
    # print(txt)
    # 将字符串分割成等量的中文
    words = jieba.lcut(txt)
    print(words)
    # ‘人物名字’:出现次数
    counts = {}   #创建空字典
    for word in words:   # 遍历字典
        if len(word) == 1:
            continue
        else:
            # 往字典里添加元素
            #counts['key'] = 888
            counts[word] = counts.get(word, 0) + 1
            # counts['曹操'] = counts.get('曹操', 0) + 1
    print(counts)

    counts['孔明'] = counts.get('孔明') + counts.get('孔明曰')
    counts['玄德'] = counts.get('玄德') + counts.get('玄德曰')
    counts['玄德'] = counts.get('玄德') + counts.get('刘备')
    counts['关公'] = counts.get('关公') + counts.get('云长')

    # 删除 无关词
    for word in excludes:
        del counts[word]
    # 统计出现频率最高的前20个词
    items = list(counts.items())
    items.sort(key=lambda x: x[1], reverse=True)  # 使用了隐函数
    # print('排序后:', items)
    for i in range(10):
        character, count = items[i]
        print(character, count)

    # 统计出现频率最高的前20个词--方法2(拓展)
    roles = Counter(counts)
    role = roles.most_common(10)
    print(role)

#     构造词云字符串
    li =[]
    for i in range(10):
        character, count = items[i]
        for _ in range(count):
            li.append(character)
    # print(li)
    cloud_txt = " ".join(li)
    wc = WordCloud(
        background_color='white',
        font_path='msyh.ttc',
        collocations=False  # 是否包含两个词的搭配,默认为Ture
    ).generate(cloud_txt)
    wc.to_file('三国中出现的前十大人物.png')
parse()
孔明 1204
玄德 1159
曹操 910
张飞 340
孙权 259
吕布 258
赵云 254
云长 241
司马懿 221
周瑜 216
[('孔明', 1204), ('玄德', 1159), ('曹操', 910), ('张飞', 340), ('孙权', 259), ('吕布', 258), ('赵云', 254), ('云长', 241), ('司马懿', 221), ('周瑜', 216)]

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值