Python爬虫,看看我最近博客都写了啥,带你制作高逼格的数据聚合云图

今天一时兴起,想用python爬爬自己的博客,通过数据聚合,制作高逼格的云图(对词汇出现频率视觉上的展示),看看最近我到底写了啥文章。
1.1 爬取文章的标题的聚合

爬取的文章标题的数据聚合

爬取的文章标题的数据聚合

爬取的文章标题的数据聚合

1.2 爬取文章的摘要的聚合

33.jpeg

34.jpeg

1.3 爬取文章的标题+摘要的聚合

21.jpeg

22.jpeg

我最近写了SpringCloud系列教程,还有一些微服务架构方面,从云图上看,基本吻合。你若不信,新航道雅思班可以进我的博客看看,数据还是非常准确的

  • 开发工具: pycharm
  • 爬虫技术:bs64、requsts、jieba
  • 分析工具:wordArt

Azure.png

整个爬虫架构非常简单:

  • 爬取我的博客:http://blog.csdn.net/forezp
  • 获取数据
  • 将数据用“结巴”库,分词。
  • 将得到的数据在在artword上制作云图。
  • 将制作出来的云图展示给用户。

先根据博客地址爬去数据:

 
  

解析标题

 
  

解析摘要:

 
  

用“结巴”分词,"激8"分词怎么用,看这里:https://github.com/fxsjy/jieba/

 
  

因为数据比较少,所以我直接打印在控制台,并把它复制下来,更好的方法是存在mongodb中。

制作云图:
用 artword在线工具,地址:https://wordart.com

首先:
导入从控制台复制过来的数据:

Paste_Image.png

令人尴尬的是,这个网站在绘制图的时候不支持中文,需要你从c:/windows/fonts下选择一个支持中文的字体,mac 用户从windows拷下文件夹也可以,或者在网上下。

Paste_Image.png

然后点击Visulize就可以生成高逼格的云图了。讲解完毕,有什么需要改进的请大家留言。

源码下载:https://github.com/forezp/ZhihuSpiderMan/tree/master/blogspider

五、文章参考

超简单:快速制作一款高逼格词云图

  • 如何爬取百万知乎用户信息,并做了简单的分析 

转载于:https://www.cnblogs.com/chenjunkang/p/9805597.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值