python3 Scrapy简介

Scrapy是一个基于Twisted的Python爬虫框架,用于爬取网站数据和提取结构化信息。它包括Scrapy Engine、Scheduler、Downloader、Spiders、Item Pipeline、Downloader Middlewares、Spider Middlewares和Scheduler Middlewares等组件。Scrapy的工作流程涉及引擎获取URL、调度、下载网页、蜘蛛解析响应生成Item、Item通过Pipeline处理和请求的反复调度。整个框架提供了灵活的数据处理和中间件扩展能力。
摘要由CSDN通过智能技术生成

什么是Scrapy

Scrapy 是一套基于Twisted的异步处理框架,是纯python实现的爬虫框架。

Scrapy 是一个为了爬取网站数据,提取结构性数据而编写的应用框架。 可以应用在包括数据挖掘,信息处理或存储历史数据等一系列的程序中。

其最初是为了网络抓取所设计的,也可以应用在获取API所返回的数据或者通用的网络爬虫。

用户只需要定制开发几个模块就可以轻松的实现一个爬虫,用来抓取网页内容或者各种图片。

Scrapy组件说明

1.Scrapy Engine(Scrapy引擎)

Scrapy Engine是用来控制整个系统的数据处理流程,并进行事务处理的触发。

2.Scheduler(调度)

Scheduler从Scrapy Engine接受请求并排序列入队列,并在Scrapy Engine发出请求后返还给他们。

3.Downloader(下载器)

Downloader的主要职责是抓取网页并将网页内容返还给Spiders。

4.Spiders(蜘蛛)

Spider是有Scrapy用户自己定义用来解析网页并抓取制定URL返回的内容的类,每个spider都能处理一个域名或一组域名。

换句话说就是用来定义特定网站的抓取和解析规则。

Spider的整个抓取流程(周期)是这样的:

  1. 首先获取第一个URL的初始请求,当请求返回后调取一个回调函数。第一个请求是通过调用start_re

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值