scrapy 中不同页面的拼接_极简Scrapy爬虫2:爬取多页内容

本文介绍了如何使用Scrapy爬虫爬取多页内容。通过在原有代码基础上增加response.urljoin()和scrapy.Request(),实现从相对URL到绝对URL的转换,并递归请求下一页,提取每页的名言、作者和标签信息。在实际运行中,还应考虑下一页可能不存在的情况,添加判断语句避免无效请求。
摘要由CSDN通过智能技术生成

运行环境:

* Python 2.7.12

* Scrapy 1.2.2

* Mac OS X 10.10.3 Yosemite

继续爬取Scrapy 1.2.2文档提供的练习网址:

可以暂时不用考虑爬虫被封的情况,用于初级爬虫练习。

目标

爬取该网站所有页的名言(quote)、作者(author)以及标签(tag)。

增加内容

response.urljoin():将相对网址拼接成绝对网址。

scrapy.Request():发出请求。可以用参数(callback=),对返回的响应(response)进行解析。

步骤1:增加爬虫代码

继续使用极简爬虫中的代码,增加三行内容即可。但是更改了爬虫的名字(name),变成name = 'quotes_2_2',用以区分第一个爬虫。

next_page = response.css('li.next a::attr("href")').extract_first()

next_full_url = response.urljoin(next_page)

yield scrapy.Request(next_full_url, callback=self.parse)

完整代码如下:

import scrapy

class QuotesSpider(scrapy.Spider):

name = 'quotes_2_2'

start_urls = [

'http://quotes.toscrape.com'

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值