python爬虫抓取分页论文_关于爬虫分页问题 - 自我总结

本文总结了Python爬虫在处理分页爬取时的两种常见方法:静态加载和异步加载。对于静态加载,可通过观察URL变化或提取页面信息计算页码数进行爬取;对于异步加载,需分析XHR请求,构造URL列表。提供了具体代码示例。
摘要由CSDN通过智能技术生成

最近跟着老师学习,写了几个爬虫。写爬虫不可能只爬取一个页面,往往涉及到分页爬取。本文对自己在写爬虫的过程中关于分页爬取做一次小小的总结。

一、静态加载

如糗事百科,美股吧。这种网页url一般都带有页码信息,翻页的时候url会发生变化,页面内容全部刷新,分页爬取比较容易实现。

19573441b6c5

糗事百科

19573441b6c5

美股吧

方法一: 取得页码总数,根据url的结构来构造一个url列表,然后遍历列表中的url分别爬取信息即可。参考代码(来自Python爬虫—糗事百科@loading_miracle)如下:

#总页码

def totalUrl(self):

urls = [self.url+'page/{}/?s=4985075'.format(i) for i in range(1,36)]

for url in urls:

print u'正在获取:'+url.split('/')[-2]+u'页'

self.getInfo(url)

获取页码数

HTML页面中直接提取(页面中有最大页码数/共22页这些信息(如图图糗

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值