数据分析与数据挖掘实战视频——学习笔记之Scrapy架构图(工作原理)

参考链接:
https://blog.csdn.net/baidu_32542573/article/details/79415947
https://blog.csdn.net/yancey_blog/article/details/53888473

这部分是在数据分析与爬虫视频里面的补充,放在那边太挤了,所以单独放在这边。

旧版的图
在这里插入图片描述
scrapy engine是scrapy引擎,调度器(Scheduler)是一个插件,去发送请求request,去互联网请求对应的信息,然后在这边Downloader下载信息,发送相应的响应给Spiders.Spiders中,比如说自动爬虫吧,自动爬虫爬取的链接LinkExtractor可以交给Scheduler继续请求,爬取的内容给以交给Item Pipeline处理.整个流程是这样。

但是现在scrapy的框架有了新版。但是我学的这个视频是基于旧版的。新版的部分主要是看参考文献写的。

组件

Scrapy Engine:引擎负责控制数据流在系统中所有组件中流动,并在相应动作发生时触发事件。

调度器(Scheduler):调度器从引擎接受request并将他们入队,以便之后引擎请求他们时提供给引擎。

**下载器(Downloader)**下载器负责获取页面数据并提供给引擎,而后提供给spider。

Spiders:Spider是Scrapy用户编写用于分析response并提取item(即获取到的item)或额外跟进的URL的类。 每个spider负责处理一个特定(或一些)网站。 更多内容请看 Spiders 。

Item Pipeline:Item Pipeline负责处理被spider提取出来的item。典型的处理有清理、 验证及持久化(例如存取到数据库中)。 更多内容查看 Item Pipeline 。

下载器中间件(Downloader middlewares)下载器中间件是在引擎及下载器之间的特定钩子(specific hook),处理Downloader传递给引擎的response(也包括引擎传递给下载器的Request)。 其提供了一个简便的机制,通过插入自定义代码来扩展Scrapy功能。更多内容请看 下载器中间件(Downloader Middleware) 。
一句话总结就是:处理下载请求部分

Spider中间件(Spider middlewares)Spider中间件是在引擎及Spider之间的特定钩子(specific hook),处理spider的输入(response)和输出(items及requests)。 其提供了一个简便的机制,通过插入自定义代码来扩展Scrapy功能。更多内容请看 Spider中间件(Middleware) 。
一句话总结就是:处理解析部分
在这里插入图片描述

数据流(Data flow)

Scrapy中的数据流由执行引擎控制,其过程如下:

1、爬虫引擎Engine获得初始请求Request开始抓取(这里Spiders把Request传给了Engine)。
2、爬虫引擎Engine开始请求调度程序,并准备对下一次的请求Request进行抓取。
3、爬虫调度器Scheduler返回下一个请求Request给爬虫引擎Engine。
4、引擎Engine请求Request发送到下载器Downloader,通过下载中间件Downloader middlewares下载网络数据。
5、一旦下载器Downloader完成页面下载,将下载结果response返回给爬虫引擎Engine。
6、引擎Engine将下载器Downloader的响应response通过中间件Spider middlewares返回给爬虫Spider 进行处理。
7、爬虫Spider 处理响应response,并通过中间件Spider middlewares返回处理后的items,以及新的请求Request给引擎Engine。
8、引擎Engine发送处理后的items到项目管道,然后把处理结果Request返回给调度器Scheduler,调度器Scheduler计划处理下一个请求Request抓取。
9、重复该过程(继续步骤1),直到爬取完所有的url请求。

DownloaderMiddleware、SpiderMiddleware的使用

这部分主要是看参考文献的,我也没用到,之后如果用到我再回来看看。

现在来说下DownloaderMiddleware、SpiderMiddleware的使用
DownloaderMiddleware主要处理请求Request发出去和结果Response返回的一些回调,

比如说:UserAgent,使用代理,修改refferer,添加cookie,或者请求异常超时处理啥的

主要有几个方法:
process_request(request, spider)
当每个request通过下载中间件时,该方法被调用,这里可以修改UA,代理,Refferer
process_response(request, response, spider) 这里可以看返回是否是200加入重试机制
process_exception(request, exception, spider) 这里可以处理超时

SpiderMiddleware主要处理解析Item的相关逻辑修正,比如数据不完整要添加默认,增加其他额外信息等

process_spider_input(response, spider)当response通过spider中间件时,该方法被调用,处理该response。

rocess_spider_output(response, result, spider)
当Spider处理response返回result时,该方法被调用。

process_spider_exception(response, exception, spider)
当spider或(其他spider中间件的) process_spider_input() 跑出异常时, 该方法被调用。
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值