python爬取换页_Python爬取数据的分页分析

本文总结了爬虫在处理分页时的常见策略,包括已知记录数和分页大小、总页数以及滚动分页等情况。通过页面分析、抓包工具使用,解析分页URL,并探讨了如何处理没有总记录数但能从分页条获取总页数的情况,以及AJAX异步加载导致的复杂分页问题。
摘要由CSDN通过智能技术生成

对爬虫爬取数据时的分页进行一下总结。分页是爬取到所有数据的关键,一般有这样几种形式:

已知记录数,分页大小(pagesize, 一页有多少条记录)

已知总页数(在页面上显示出总页数)

页面上没有总记录数,总页数,但能从分页条中找到总页数

滚动分页,知道总页数

滚动分页,不知道总页数

以上前三种情况比较简单,基本上看一下加载分页数据时的地址栏,或者稍微用Chrome -- network分析一下,就可以了解分页的URL。

一、页面分析,获取分页URL

典型的如豆瓣图书、电影排行榜的分页。

859669b41bab

豆瓣图书分页

859669b41bab

51JOB职位分页

对于像以下这种分页,没有显示总记录数,但从分页条上看到有多少页的,一般的处理方法有两种:一是先把最后一页的页码抓取下来;二是一页一页的访问抓取,直到没有“下一页”。

859669b41bab

Snip20170208

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值