python词频统计三国演义_python实例:三国演义TXT文本词频分析

0x00 前言

找不到要写什么东西了!今天有个潭州大牛讲师  说了个  文本词频分析

我基本上就照抄了一遍

中间遇到一些小小的问题 自我百度 填坑补全了  如下 :

效果演示

0x01   准备环境及介绍

python3.x版本   随意

安装jieba库

pip install jieba

jieba三种模式:

1.精准模式 lcut函数,返回一个分词列表

2.全模式

3.搜索引擎模式

词频:

:的键值对

IPO描述 imput output process

输入 :从文件读取三国演义的内容

处理 :采用jiedb进行分词,字典数据结构统计词语出现的频率

输出 :文章中出现最对的前10个词

代码:

第一步:读取文件

第二步:分词

第三步:统计

第四步:排序

介绍完毕了!那么进入实战吧!

0x02 实战

完整代码如下:

1 importjieba2

3 content = open('三国演义.txt', 'r',encoding='utf-8').read()4 words =jieba.lcut(content)#分词

5 excludes={"将军"

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
三国演义》是中国四大名著之一,如果你想了解其中的词频统计,可以使用Python中的文本处理和数据分析库,如NLTK(自然语言工具包)和collections等。以下是一个简单的步骤: 1. **数据获取**:首先,你需要下载《三国演义》的电子文本,可以从网络上找到TXT格式的版本。 2. **读取和预处理**:使用Python的`open()`函数读取文件,然后对文本进行分词、去除停用词(如“的”、“了”等常见但不反映主题的词)和标点符号。 3. **计词频**:使用`collections.Counter`类对每个词进行计数。这个类会返回一个字典,键是词,值是这个词在文本出现的次数。 4. **排序和输出**:对字典按照值(词频)进行降序排序,输出最常出现的词语。 以下是一个简化的示例代码片段: ```python import nltk from collections import Counter import re # 1. 数据获取 # 假设你已经有一个名为"三国演义.txt"的文件 with open('三国演义.txt', 'r', encoding='utf-8') as file: text = file.read() # 2. 预处理 nltk.download('punkt') # 如果还没安装nltk的punkt分词器 tokens = nltk.word_tokenize(text) tokens = [token.lower() for token in tokens if token.isalnum() and token not in nltk.corpus.stopwords.words('chinese')] # 去除停用词和非字母数字字符 # 3. 计词频 word_counts = Counter(tokens) # 4. 排序和输出 most_common_words = word_counts.most_common() for word, count in most_common_words[:10]: # 输出最常见的10个词及其频率 print(f"{word}: {count}") ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值