Scrapy框架之【Scrapy-Splash 爬取动态网页】 详解

Scrapy-Splash 是一个用于 Scrapy 的扩展,其主要功能是处理动态网页。Scrapy 本身在抓取静态网页时表现出色,但对于由 JavaScript 渲染的动态网页,它的处理能力有限。而 Scrapy-Splash 借助 Splash 服务,能够让 Scrapy 抓取动态生成的内容。

目标:Scrapy-Splash 抓取动态网页的内容

一.安装Splash

可以通过 Docker 来安装和运行 Splash:

docker run -p 8050:8050 scrapinghub/splash

在这里插入图片描述

上述命令会启动一个 Splash 服务,它会监听 http://localhost:8050 端口。

然后浏览器打开http://localhost:8050
在这里插入图片描述
在这里插入图片描述
访问百度,可以看到请求和渲染的HTML页面
在这里插入图片描述

1. 安装 Splash

2. 安装 Scrapy-Splash
安装 Scrapy-Splash

pip install scrapy-splash

3. 配置 Scrapy 项目
在 Scrapy 项目的 settings.py 文件里添加如下配置:

# 启用 Splash 服务的 URL
SPLASH_URL = 'http://localhost:8050'

# 启用 Splash 中间件
DOWNLOADER_MIDDLEWARES = {
    'scrapy_splash.SplashCookiesMiddleware': 723,
    'scrapy_splash.SplashMiddleware': 725,
    'scrapy.downloadermiddlewares.httpcompression.HttpCompressionMiddleware': 810,
}

# 启用 Splash 的 DupeFilter
SPIDER_MIDDLEWARES = {
    'scrapy_splash.SplashDeduplicateArgsMiddleware': 100,
}

# 启用 Splash 的 Cache
DUPEFILTER_CLASS = 'scrapy_splash.SplashAwareDupeFilter'
HTTPCACHE_STORAGE = 'scrapy_splash.SplashAwareFSCacheStorage'

4. 创建 Spider
用于抓取动态网页

import scrapy
from scrapy_splash import SplashRequest

class DynamicSpider(scrapy.Spider):
    name = "dynamic_spider"
    start_urls = ['http://example.com']  # 替换为你要抓取的动态网页 URL

    def start_requests(self):
        for url in self.start_urls:
            yield SplashRequest(url, self.parse, args={'wait': 5}, endpoint='render.html')

    def parse(self, response):
        # 处理响应内容
        title = response.css('title::text').get()
        self.log(f"Page title: {title}")

5. 运行 Spider

scrapy crawl dynamic_spider
  • SplashRequest:这是Scrapy-Splash提供的一个特殊请求类,它可以向 Splash 服务发送请求。args={'wait': 5} 表示在页面加载完成后等待 5 秒,确保 JavaScript 代码执行完毕。
  • 中间件配置:在 settings.py 中配置的中间件会对请求和响应进行处理,确保 Scrapy 与 Splash 服务正常交互。
  • DupeFilter 和 Cache:这些配置可以避免重复请求,提高抓取效率。
  • endpoint='render.html' 能让 Splash 服务渲染页面,执行页面中的 JavaScript 代码,最终返回完整渲染后的 HTML 内容

值得注意的是 Scrapy、scrapy-splash、Twisted(Scrapy 依赖的网络库)版本兼容的问题,不兼容运行爬虫就会报错

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值