Python3+jieba中文分词+wordcloud生成人形词云

这篇博客介绍了如何利用Python3的jieba库进行中文分词,包括基本分词操作和关键词抽取。同时,通过jieba.analyse的TF-IDF和TextRank方法提取关键词,并利用wordcloud生成词云。文中还强调了在生成中文词云时设置中文字体的重要性。
摘要由CSDN通过智能技术生成

博客1106

需要依赖的库:
jieba
wordcloud
matplotlib
scipy
安装方式: 命令行输入 pip install jieba / pip install wordcloud

jieba 分词

先用jieba分词对简单句子进行划分:

import jieba
sentence = "我来到了异世界,转生成一只史莱姆。萌王万岁!"
print("Default Mode: " + "/".join(jieba.cut(sentence, cut_all=False, HMM=True)))
print("Full Mode: " + "/".join(jieba.cut(sentence, cut_all=True)))
print("HMM OFF: " + "/".join(jieba.cut(sentence, cut_all=False, HMM=False)))
print("Search Engine Mode: " + "/".join(jieba.cut_for_search(sentence, cut_all=True, HMM=False)))

输出如下:
在这里插入图片描述

上述输出中,“异世界”一词被划分开,可以通过调节单个词语的语频,使其能(或不能)被分出来。也可以选择调整词典。

  • 0
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 7
    评论
评论 7
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值