python生成词云图_python生成词云图

#!/usr/bin/python

# coding: UTF-8

# coding:utf8

# wordcloud库默认为英文文本设置,默认字体也是英文

# jieba支持中文

import sys

from os import path

import os

from PIL import Image

import numpy as np

import matplotlib.pyplot

import jieba

import jieba.analyse

from wordcloud import WordCloud

matplotlib.use('TkAgg')

d=path.dirname(__file__)

# stopwords_path = 'stopwords\stopwords1893.txt' # 停用词词表

# 添加的自定义中文语句的代码在这里

jieba.add_word('路明非')

# 读取整个文本-要分析的文本

text=open(path.join(d,'doubancomment.csv')).read()

def jiebaclearText(text):

mywordlist = []

seg_list = jieba.cut(text, cut_all=False) #精确模式

liststr="/ ".join(seg_list)

f_stop = open(path.join(d,'stopwords1893.txt'))

try:

f_stop_text = f_stop.read( )

f_stop_text= f_stop_text.encode("utf-8")

finally:

f_stop.close( )

f_stop_seg_list=str(f_stop_text,encoding="utf-8").split('\n')

for myword in liststr.split('/'):

if not(myword.strip() in f_stop_seg_list) and len(myword.strip())>1:

mywordlist.append(myword)

return ''.join(mywordlist)

text1 = jiebaclearText(text)

print(text1)

file_path = os.path.abspath('.')

alice_mask=np.array(Image.open(path.join(d,"pyworld.png")))

font =file_path+ '/huawen.ttf' #一定要设置中文字体否则显示乱码 先下载

print(file_path)

wc=WordCloud(background_color="black",font_path=font,max_words=2000,mask=alice_mask,stopwords=open(path.join(d,file_path + "/stopwords/stopwords1893.txt")).read())

# 生成一个词云图像

wordcloud=wc.generate(text1)

image=wordcloud.to_image()

# 展示生成的词云图像

image.show()

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值