爬虫-Scrapy(三) 翻页的实现

本文介绍了如何在Scrapy中实现翻页功能,通过查找并跟随'下一页'按钮的href,回调parse方法实现循环爬取,直到没有下一页链接。此外,还展示了将爬取的数据导出到CSV文件的方法。
摘要由CSDN通过智能技术生成

1. 翻页的实现

上一篇实现了单页的爬取,再加3行代码就可以实现翻页了。

基本思路是查找页面中‘下一页’按钮对应的href地址,然后回调parse方法实现循环,直至找不到’下一页’的链接为止。

QiubaiSpider.py

import scrapy
import re
from scpy1.items import Scpy1Item

class Qiubai1Spider(scrapy.Spider):
    name = 'qiubai1'
    allowed_domains = ['qiushibaike.com'
  • 4
    点赞
  • 19
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值