jieba
又要起名字了
这个作者很懒,什么都没留下…
展开
-
用jieba+wordcloud批量绘制词云
from PIL import Imageimport numpy as npfrom wordcloud import WordCloud, ImageColorGeneratorfrom matplotlib import pyplot as pltimport jiebaimport os#定义分词函数def word_cut(file): with open(...原创 2019-04-19 15:08:57 · 598 阅读 · 0 评论 -
扫福字,集五福——用python制作个性化词云
春节马上到了,又到了集五福的时候。身边没有福字怎么办?往年都是手写来扫,今天脑洞大开,何不试试生成“福”字形的词云,来扫扫看呢?哈哈哈,说干就干:1、先在网上随便搜了几篇关于怎么集福的文章,然后保存在wufu.txt文件里;2、读取wufu.txt文件,调用jieba进行分词并将结果保存在wufu中;3、百度一张福字图片,抠图保存成白色背景png格式;4、以第三步保存的福字为背景调...原创 2019-01-31 14:40:43 · 2153 阅读 · 1 评论 -
多文件分词并统计词频
import osimport jieba数据集如下:folder_path = r"C:\Users\Machine Learning\comments"os.listdir(folder_path)['201603枕.txt', '201603锅.txt', '201604枕.txt', '201604锅.txt', '201605枕.txt', '201605...原创 2019-04-18 20:35:57 · 2459 阅读 · 2 评论 -
WordCloud中屏蔽词+背景色设置
利用python的wordcloud包生成词云是一个很实用的技能,最近在绘制词云的过程中又学会了如何屏蔽不想要出现的词及设置更丰富的背景图,特别是背景颜色的设置很多资料都是一笔带过,语焉不详,好在经过痛苦的摸索之后终于被我找到了方法,原谅我激动的心情,啰嗦了这么多(捂脸。。。)from PIL import Imageimport numpy as npfrom wordcloud imp...原创 2019-07-20 18:14:55 · 5791 阅读 · 0 评论