python爬微博超话图片_GitHub - czy1999/weibo-topic-spider: 微博超级话题爬虫,微博词频统计+情感分析+简单分类,新增肺炎超话爬取数据...

weibo-topic-spyder

微博超级话题爬虫,微博词频统计+情感分析+简单分类

新增微博普通话题爬取,其中讨论和阅读数量的爬取待完善

爬取数据展示

使用方法

爬虫主文件:

微博普通话题:normal-topic-spyder.py

微博超级话题:super-topic-spyder.py

在爬虫主文件中的主函数中输入账号、密码和想要爬取的超话名称即可开始爬取,需要提前安装所需的python库和chromedriver驱动

爬取结束后数据会自动保存在当前目录下的excel文件中,每行为一个微博数据。

提示:普通的话题爬取需要添加#,例如#话题#,超级话题无需添加;一般而言,在微博中超级话题前带有钻石标志,普通话题为#话题#的格式

超级话题爬虫

使用了selenium模拟浏览器登陆进行爬取,具体话题爬取数量受微博限制,目前单个话题最大获取微博数量为8000条左右,选择了使用手机网页模式爬取,以获得最佳的爬取效果。

账号与IP数量对单个超话的爬取帮助不大,就只设置了单账号和ip模式,若需多超话同时爬取可以自行添加。

如需爬取多个超话,可以选择使用cookie登陆,最为方便

词频统计

使用了jieba库进行分词,最后对分词结果进行简单统计并且存储到txt中

情感分析

调用了百度大脑的api接口,可以自行注册获取key,平台不限调用次数,详细接口见百度大脑

其他

欢迎大家参与和完善:如有其他问题,欢迎提交issue

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值