python3-B站各分类的信息收集.

将各个分类的信息进行收集整合,本地化存储.

只展示思路.

url='https://www.bilibili.com/'

携带基本的Headers信息.https的请求头 verify=False

在这里插入图片描述

目标获取这几个分类的URL.

在我们能有效的获得对应的URL之后.
在这里插入图片描述

根据情况判断使用.

采用requests.session()的方法 .保留登录状态继续访问.


还是要说仔细分析当前页面的结构.你需要的结果是否有更快捷的方式获取.

在这里插入图片描述
URL:
在这里插入图片描述


当我们进去后,再看页面我们在观察.

在这里插入图片描述

在这里插入图片描述

这样模块的分类详情和分页都有了.


在这里插入图片描述
喜欢更详细的 获取到URL 后在 get . 提取信息就好了.

怎么存储你开心就好.


可以看出 爬虫是主体(仿佛在说废话).在解析过程中 加入 try 和 except 来抛出异常 , 抛出异常时,将报错信息 收集起来就行了.


仅供参考,有更好的建议欢迎提出.

在这里插入图片描述
下载链接(你自己看着玩吧).

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值