NLP 中文短文本分类
- 通过 WordCloud 制作词云、用 LDA 主题模型获取文本关键词、以及用朴素贝叶斯算法和 SVM 分别对文本分类
WordCloud 制作词云
-
jieba 分词安装
-
jieba 俗称中文分词利器,作用是来对文本语料进行分词。
-
全自动安装:easy_install jieba 或者 pip install jieba / pip3 install jieba
-
半自动安装:先下载 https://pypi.python.org/pypi/jieba/ ,解压后运行 python setup.py
-
install 手动安装:将 jieba 目录放置于当前目录或者 site-packages 目录。 安装完通过 import jieba
验证安装成功与否。 -
WordCloud 安装
-
下载:https://www.lfd.uci.edu/~gohlke/pythonlibs/#wordcloud 安装(window
环境安装)找的下载文件的路径:pip install wordcloud-1.3.2-cp36-cp36m-win_amd64.whl
安装完通过 fr