文本分析
Claroja
这个作者很懒,什么都没留下…
展开
-
词频统计
import jiebastopwords = [line.strip() for line in open("./stopwords.txt", 'r', encoding='utf-8').readlines()] # 获得停词表,停词表可以在网上搜集def word_counts(text): seg_list = jieba.cut(text) # 使用结巴对文本分词原创 2018-01-12 15:29:15 · 839 阅读 · 0 评论 -
wordcloud
安装词云 pip install wordcloud构建词云对象class wordcloud.WordCloud(font_path=None, width=400, height=200, margin=2, ranks_only=None, prefer_horizontal=0.9, mask=None, scale=1, color_func=None, max_words...翻译 2018-01-12 16:59:55 · 672 阅读 · 0 评论 -
自然语言处理
TF-IDF词频统计 词云百度 自然语言处理API原创 2018-01-12 15:22:04 · 625 阅读 · 0 评论 -
语料库
参考文献:https://blog.csdn.net/u010041824/article/details/77848523原创 2018-11-23 16:30:52 · 1165 阅读 · 0 评论