Scrapy架构图(工作原理)


架构图

(1).旧版

(2).最新版


组件

Scrapy Engine

引擎负责控制数据流在系统中所有组件中流动,并在相应动作发生时触发事件。

调度器(Scheduler)

调度器从引擎接受request并将他们入队,以便之后引擎请求他们时提供给引擎。

下载器(Downloader)

下载器负责获取页面数据并提供给引擎,而后提供给spider。

Spiders

Spider是Scrapy用户编写用于分析response并提取item(即获取到的item)或额外跟进的URL的类。 每个spider负责处理一个特定(或一些)网站。 更多内容请看 Spiders 。

Item Pipeline

Item Pipeline负责处理被spider提取出来的item。典型的处理有清理、 验证及持久化(例如存取到数据库中)。 更多内容查看 Item Pipeline 。

下载器中间件(Downloader middlewares)

下载器中间件是在引擎及下载器之间的特定钩子(specific hook),处理Downloader传递给引擎的response(也包括引擎传递给下载器的Request)。 其提供了一个简便的机制,通过插入自定义代码来扩展Scrapy功能。更多内容请看 下载器中间件(Downloader Middleware) 。

一句话总结就是:处理下载请求部分

Spider中间件(Spider middlewares)

Spider中间件是在引擎及Spider之间的特定钩子(specific hook),处理spider的输入(response)和输出(items及requests)。 其提供了一个简便的机制,通过插入自定义代码来扩展Scrapy功能。更多内容请看 Spider中间件(Middleware) 。

一句话总结就是:处理解析部分

数据流(Data flow)

Scrapy中的数据流由执行引擎控制,其过程如下:

  1. 引擎打开一个网站(open a domain),找到处理该网站的Spider并向该spider请求第一个要爬取的URL(s)。
  2. 引擎从Spider中获取到第一个要爬取的URL并在调度器(Scheduler)以Request调度。
  3. 引擎向调度器请求下一个要爬取的URL。
  4. 调度器返回下一个要爬取的URL给引擎,引擎将URL通过下载中间件(请求(request)方向)转发给下载器(Downloader)。
  5. 一旦页面下载完毕,下载器生成一个该页面的Response,并将其通过下载中间件(返回(response)方向)发送给引擎。
  6. 引擎从下载器中接收到Response并通过Spider中间件(输入方向)发送给Spider处理。
  7. Spider处理Response并返回爬取到的Item及(跟进的)新的Request给引擎。
  8. 引擎将(Spider返回的)爬取到的Item给Item Pipeline,将(Spider返回的)Request给调度器。
  9. (从第二步)重复直到调度器中没有更多地request,引擎关闭该网站。
现在来说下DownloaderMiddleware、SpiderMiddleware的使用

DownloaderMiddleware主要处理请求Request发出去和结果Response返回的一些回调,

比如说你要加UserAgent,使用代理,修改refferer,添加cookie,或者请求异常超时处理啥的

主要有几个方法:

process_request ( request,  spider )

当每个request通过下载中间件时,该方法被调用,这里可以修改UA,代理,Refferer

process_response(requestresponsespider) 这里可以看返回是否是200加入重试机制

process_exception(requestexceptionspider) 这里可以处理超时


SpiderMiddleware主要处理解析Item的相关逻辑修正,比如数据不完整要添加默认,增加其他额外信息等

process_spider_input(responsespider)当response通过spider中间件时,该方法被调用,处理该response。

rocess_spider_output ( response,  result,  spider )

当Spider处理response返回result时,该方法被调用。

process_spider_exception ( response,  exception,  spider )

当spider或(其他spider中间件的) process_spider_input() 跑出异常时, 该方法被调用。


### Scrapy 工作原理概述 Scrapy 是一种用于取网站并提取结构化数据的框架。其核心在于高效管理和执行网络请求,同时提供灵活的数据处理机制。 #### 架构组成 - **Scrapy Engine (引擎)** 控制着整个系统的运作流程,协调其他组件间的交互[^3]。 - **Scheduler (调度器)** 接收来自引擎的新请求,并管理这些请求的优先级和去重逻辑[^4]。 - **Downloader (下载器)** 负责实际发起HTTP(S)请求,获取目标页面的内容后反馈给引擎。 - **Spiders ()** 定义了如何解析响应内容,从中抽取所需的信息项或新的URL地址供进一步探索[^1]。 - **Item Pipeline (项目管道)** 处理由蜘蛛程序产生的条目对象,支持保存至数据库、清理字段等多种操作。 - **Middleware (中间件)** 提供了一种方式来拦截进出流量,在不修改原有代码的情况下增强功能,比如添加代理服务器支持或是自定义User-Agent头信息等。 #### 流程描述 当启动一个Scrapy项目时: 1. 引擎向特定的`Spider`实例询问下一个要访问的目标网址; 2. `Spider`返回若干个初始请求(`Request`)对象给引擎; 3. 这些请求被转发到调度器等待被执行; 4. 下载器接收到经由中间件层过滤后的请求后开始加载资源; 5. 获取的结果作为`Response`对象回传给引擎; 6. 引擎再将其交给对应的`Spider`进行解析; 7. 解析过程中可能产生更多新请求或者是待存储的数据记录(即Items); 8. 新生的Requests重新进入循环;而完成填充的Items则会被送入Pipeline做最终处置。 ```mermaid graph TD; A[Start] --> B{Engine Requests Next URL}; B --> C[Spider Yields Initial Request]; C --> D[Schedulers Stores and Deduplicates URLs]; D --> E[Middlewares Preprocess Outgoing Requests]; E --> F[Downloader Fetches Web Pages]; F --> G[Middlewares Post-process Incoming Responses]; G --> H[Engine Receives Response Data]; H --> I[Spider Parses Response, Extract Items or New Links]; I --> J{Are There More Requests?}; J -->|Yes| K(New Requests Go Back to Scheduler); J -->|No| L(Pipeline Processes Collected Items); ``` 此展示了从初始化直到结束的一个典型周期内各部件间的主要互动关系。每一步骤都紧密相连,形成了完整的闭环控制系统,确保能够稳定可靠地遍历大量网页节点的同时收集有用情报。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值