2020-12-13- NLP 中文短文本分类

该博客介绍了如何使用NLP进行中文短文本分类,包括使用WordCloud制作词云,利用jieba进行分词,以及应用LDA主题模型获取文本关键词。此外,还探讨了使用朴素贝叶斯和SVM算法进行文本分类的方法。
摘要由CSDN通过智能技术生成

NLP 中文短文本分类

  • 通过 WordCloud 制作词云、用 LDA 主题模型获取文本关键词、以及用朴素贝叶斯算法和 SVM 分别对文本分类

WordCloud 制作词云

  • jieba 分词安装

  • jieba 俗称中文分词利器,作用是来对文本语料进行分词。

  • 全自动安装:easy_install jieba 或者 pip install jieba / pip3 install jieba

  • 半自动安装:先下载 https://pypi.python.org/pypi/jieba/ ,解压后运行 python setup.py

  • install 手动安装:将 jieba 目录放置于当前目录或者 site-packages 目录。 安装完通过 import jieba
    验证安装成功与否。

  • WordCloud 安装

  • 下载:https://www.lfd.uci.edu/~gohlke/pythonlibs/#wordcloud 安装(window
    环境安装)找的下载文件的路径:pip install wordcloud-1.3.2-cp36-cp36m-win_amd64.whl
    安装完通过 fr

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值