Python分页爬取数据的分析

PS:如有需要Python学习资料的小伙伴可以加点击下方链接自行获取

python免费学习资料以及群交流解答点击即可加入


对爬虫爬取数据时的分页进行一下总结。分页是爬取到所有数据的关键,一般有这样几种形式:

1、已知记录数,分页大小(pagesize, 一页有多少条记录)

  • 已知总页数(在页面上显示出总页数)

  • 页面上没有总记录数,总页数,但能从分页条中找到总页数

  • 滚动分页,知道总页数

  • 滚动分页,不知道总页数

以上前三种情况比较简单,基本上看一下加载分页数据时的地址栏,或者稍微用Chrome – network分析一下,就可以了解分页的URL。

一、页面分析,获取分页URL

典型的如豆瓣图书、电影排行榜的分页。

在这里插入图片描述

对于像以下这种分页,没有显示总记录数,但从分页条上看到有多少页的,一般的处理方法有两种:一是先把最后一页的页码抓取下来;二是一页一页的访问抓取,直到没有“下一页”。

在这里插入图片描述

二、用抓包工具,查看分页URL

在这里插入图片描述

通过抓包工具,获取了分页的URL,再进行总页数的分析,一般是进行计算,如这里,有文章总数量,每页显示的文章数(页大小),就可以计算出总页数。

看一下这个,七日热门文章的分页,比较有意思。这么一长串,是不是比较崩溃。

在这里插入图片描述

这时候一般要缩短参数,确定关键参数。分页关键的参数是page=2,直接把url减少成这样:

在这里插入图片描述

感谢每一个认真阅读我文章的人,看着粉丝一路的上涨和关注,礼尚往来总是要有的:

① 2000多本Python电子书(主流和经典的书籍应该都有了)

② Python标准库资料(最全中文版)

③ 项目源码(四五十个有趣且经典的练手项目及源码)

④ Python基础入门、爬虫、web开发、大数据分析方面的视频(适合小白学习)

⑤ Python学习路线图(告别不入流的学习)

加入社区:https://bbs.csdn.net/forums/4304bb5a486d4c3ab8389e65ecb71ac0

Python中进行分页爬取,可以使用循环来遍历不同页面的URL,并发送HTTP请求获取页面内容。以下是一个简单的示例来说明分页爬取的过程: ```python import requests # 定义分页数量和起始页码 page_count = 5 start_page = 1 # 循环遍历不同页面 for page in range(start_page, start_page + page_count): url = f'https://www.example.com/page/{page}' # 构造不同页面的URL response = requests.get(url) # 发送HTTP请求获取页面内容 # 处理页面内容,例如解析HTML或提取数据 # ... # 在这里执行你的爬取逻辑 # ... print(f'爬取第 {page} 页完成') print('所有页面爬取完成') ``` 在上面的示例中,我们首先定义了要爬取的总页数`page_count`和起始页码`start_page`。然后使用循环来遍历不同页面,构造不同页面的URL并发送HTTP请求获取页面内容。你可以根据实际情况进行URL的构造。 在循环内部,你可以根据需要对每个页面的内容进行处理,如解析HTML、提取数据等。然后,在合适的位置编写你的爬取逻辑,对页面内容进行进一步处理或提取所需数据。 最后,我们打印出完成爬取的信息,当所有页面都爬取完成后,会打印出"所有页面爬取完成"的提示。 请注意,上述示例只是一个简单的框架,具体的爬取逻辑和页面处理需要根据实际需求进行编写。此外,需要注意爬虫的合法性和遵守相关网站的爬取规则,避免给目标网站带来不必要的负担或违反法律法规。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值