python中文文本分析_python--文本分析

本文介绍了使用Python进行中文文本分析,包括分词(jieba)、情感分析(textblob, snownlp)和主题分析(LDA)。通过一个脚本展示了词频统计、重要词提取及主题抽取等功能,强调了jieba分词的运用,并提到pynlpir作为另一种分词选项。文章还提到了文本处理涉及的技术和框架,以及资源推荐。" 119231475,10546101,Instagram API:解决429 Too Many Requests错误,"['Instagram开发', 'HTTP状态代码', 'API限制', '服务器响应']
摘要由CSDN通过智能技术生成

一. 导读

文本分析主要用来分词分析,情感分析以及主题分析,参考 知乎用户的文章,他从方法代码上讲解了中英文分词(wordcloud,jieba),中英文情感分析(textblob,snownlp),以及主题分析(LDA).

应某位同学的要求,要处理文档里的分词,主题的统计功能,故本人做了个通用的小脚本,功能如下:

1. 词频取词,并生成气泡图

2. 重要性取词,并生成气泡图

3. 主题取词, 并导出html格式(好吧,pyLDAvis这个包有问题,没法导出来..,可以在notebook里面看)

接下来进行举例和分析

程序功能界面

二. 功能应用和分析

1.生成词频并生成气泡图

python term.py -type 1 -n 8 baidu.txt

结果如下:我们看到如下8个高词频词汇 :Baidu,Search,Users,Internet...... ,而在图中节点颜色越深,越大,词频越高,我们可以分析出,这篇文章应该是以用户使用搜索引擎的文章,没错----------就是百度的自我介绍:Baidu | Investors | Company Overview

技术分析:在Python ---网易云音乐评论自动云图生成器 这篇文章我使用的是pynlpir分词,而这次使用的jieba分词,注意:结巴分词并没有提供去除停用词的功能,这里要手动实现

气泡图一开始使用matplotlib画,但是很丑陋(调试了很久),这里使用网络格式画.

2. 生成重要词并生成气泡图

python term.py -type 2 -n 5 baidu.txt

结果如下:前5个关

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值