第6周学习python

这段代码展示了如何使用jieba进行中文分词,并利用WordCloud生成词云图。通过排除特定词汇,对《三国演义》文本进行处理,显示出现频率最高的50个词。
摘要由CSDN通过智能技术生成

分词的源码

注:此代码为老师分享如有侵权请联系本人删除
import jieba
#from scipy.misc import imread # 这是一个处理图像的函数
from wordcloud import WordCloud
import matplotlib.pyplot as plt

excludes = {“将军”,“却说”,“荆州”,“二人”,“不可”,“不能”,“如此”,“左右”,“一人”,“不敢”,“一面”,‘大叫’,‘一面’,‘不知’,}

with open(“threekingdoms.txt”, “r”, encoding=‘utf-8’)as fp:
text=fp.read()
words = jieba.lcut(text)
counts = {}
c=[]
for word in words:
if len(word)== 1:
continue
elif word==“孔明曰” or word==“孔明”:
rword=“孔明”

elif word == "孟德" or word == "丞相":
    rword = "曹操"

elif word == "关公" or word == "云长":
    rword = "关羽"

elif word == "玄德" or word == "玄德曰":
    rword = "刘备"
else:
    rword=word
counts[rword]=counts.get(rword,0)+1
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值