Python爬虫scrapy系列(一)Bilibili分布式爬虫

一、背景:

爬取Bilibili用户信息及其发布过的视频信息,并进行数据清洗、分析、可视化

二、爬虫思路:

利用一个粉丝多的大v用户作为爆点,爬取用户信息、视频信息

三、数据去重问题:

利用用户粉丝的思路去爬取用户,必然会导致用户数据重复问题,我们可以巧妙地利用mongodb的存储机制,利用唯一的一个字段标识,可以既增量存储而又不重复的问题,这里我们利用用户id和视频id作为标识,数据不重复的存储到mongodb中。

四、具体使用:

源码其实很清晰,在github的Readme中有详细说明。

五、源码:

Biibili_Spider

六、数据可视化:

1.视频分类词云图
在这里插入图片描述
2.粉丝
在这里插入图片描述
3.性别
在这里插入图片描述
4.注册时间
在这里插入图片描述
5.签名词频
在这里插入图片描述
6.会员等级
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值