本科毕业论文代码
LDA,文本挖掘等相关文章
青风learing
这个作者很懒,什么都没留下…
展开
-
LDA主题模型从分词到词云再到模型
这是我在做本科内容时,从python小白,一直到能够做出计算结果有关代码的记录,代码均能跑起来,有些内容可以看我前面文章,这个章节主要是我的一些代码记录。结巴分词# -*- coding: utf-8 -*-import jiebaimport jieba.analyseimport jieba.posseg as psegimport re# 加载词典jieba.load_us...原创 2019-11-16 12:59:25 · 2954 阅读 · 0 评论 -
python读取文件,jieba分词,posseg标注词性,并写入文件,代码实战
先列出代码如下# -*- encoding=utf-8 -*- # 定义编码格式import jieba.analyseimport jieba.possegimport jiebaimport pandas as pd# 载入自定义词典jieba.load_userdict('dict.txt')# 载入自定义停止词jieba.analyse.set_stop_words(...原创 2019-04-26 22:44:18 · 11709 阅读 · 2 评论 -
python中读入文件jieba分词,使用字典和停用词,再将结果写入文件
具体代码如下# -*- encoding=utf-8 -*-import jieba.analyseimport jiebaimport pandas as pd# 载入自定义词典jieba.load_userdict('dict.txt')# 载入自定义停止词jieba.analyse.set_stop_words('stop_words.txt')# 去掉中英文状态下的逗号...原创 2019-04-26 12:10:59 · 3431 阅读 · 6 评论 -
wordcloud 词云 关键字重复多次
参考链接:https://segmentfault.com/q/1010000014224890转载 2019-04-26 11:18:48 · 8334 阅读 · 0 评论 -
python中wordcloud库的使用制作词云
首先,pip安装wordcloud库,不再进行讲解wordcloud库的基本知识wordcloud库把词云当做一个WordCloud对象wordcloud.WordCloud()代表一个文本对应的词云可以根据文本中词语出现的频率等参数绘制词云词云的形状,尺寸,颜色都可以设定注: wordcloud是库,WordCloud是对象wordcloud的使用思路w = wordclou...翻译 2019-04-25 13:50:00 · 920 阅读 · 0 评论 -
python中jieba分词,并输出词云(基础版)
环境与文件准备环境anaconda+pycharm,已经安装结巴库,wordcloud库,将0001-text.txt,stop_words.txt,dict.txt与新建py文件放到同一文件夹下。0001-text.txt内容如下,直接复制即可国务院办公厅关于发展众创空间推进大众创新创业的指导意见国办发〔2015〕9号各省、自治区、直辖市人民政府,国务院各部委、各直属机构: ...原创 2019-04-25 10:16:39 · 4125 阅读 · 0 评论 -
python中jieba分词使用基本介绍
python中jieba分词使用基本介绍结巴分词的三种模式# encoding=utf-8# 分词模式介绍import jiebaseg_list = jieba.cut("我来到北京清华大学", cut_all=True)print("Full Mode: " + "/ ".join(seg_list)) # 全模式seg_list = jieba.cut("我来到北京清华大学...翻译 2019-04-24 17:57:59 · 684 阅读 · 0 评论