scrapy爬取ajax分页,Scrapy:从分页中抓取数据

到目前为止,我已经从一页抓取了数据。我想继续到分页结束。

似乎有问题,因为href包含一个javascript元素。

我的代码

# -*- coding: utf-8 -*-

import scrapy

class AlibabaSpider(scrapy.Spider):

name = 'alibaba'

allowed_domains = ['alibaba.com']

start_urls = ['https://www.alibaba.com/catalog/agricultural-growing-media_cid144?page=1']

def parse(self, response):

for products in response.xpath('//div[contains(@class, "m-gallery-product-item-wrap")]'):

item = {

'product_name': products.xpath('.//h2/a/@title').extract_first(),

'price': products.xpath('.//div[@class="price"]/b/text()').extract_first('').strip(),

'min_order': products.xpath('.//div[@class="min-order"]/b/text()').extract_first(),

'company_name': products.xpath('.//div[@class="stitle util-ellipsis"]/a/@title').extract_first(),

'prod_detail_link': products.xpath('.//div[@class="item-img-inner"]/a/@href').extract_first(),

'response_rate': products.xpath('.//i[@class="ui2-icon ui2-icon-skip"]/text()').extract_first('').strip(),

#'image_url': products.xpath('.//div[@class=""]/').extract_first(),

}

yield item

#Follow the paginatin link

next_page_url = response.xpath('//link[@rel="next"]/@href').extract_first()

if next_page_url:

yield scrapy.Request(url=next_page_url, callback=self.parse)

问题

如何解决分页问题?

您将如何提供帮助

帮我修改代码,使我可以跟踪分页链接并将数据刮到最后。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值