007Python-Scrapy爬虫框架

本文介绍了Scrapy爬虫框架,包括其作为爬虫框架的特点、基本结构如Engine、Downloader、Scheduler和Spider,以及用户需要关注的Spider和Item Pipelines组件。此外,还讨论了Scrapy与Requests库的异同,并列举了Scrapy的常用命令及其采用命令行的原因。最后,文章探讨了yield关键字在生成器中的作用,强调了生成器在节省存储空间和提高响应速度上的优势。
摘要由CSDN通过智能技术生成

一、Scrapy爬虫框架介绍

  • Scrapy是一个快速功能强大的网络爬虫框架
  • Scrapy 不是一个函数功能库,而是一个爬虫框架
    爬虫框架是实现爬虫功能的一个软件结构和功能组合集合。
    爬虫框架是一个半成品,能够帮助用户实现专业网络爬虫。

二、Scrapy爬虫框架解析

1、Scrapy爬虫框架结构
Engine:

1.控制所有模块之间的数据流
2.根据条件触发事件
不需要用户修改

Downloader:

1.根据请求下载网页
不需要用户修改

Scheduler:

1.对所有爬虫请求进行调度管理
不需要用户修改

Spider:

1.解析Downloader返回的响应(Response)
2.产生爬取项(Scrapy item)
3.产生额外的爬取请求(Request)
需要用户编写配置代码

Item Pipelines:

1.以流水线方式处理Spider产生的爬取项
2.由一组操作顺序组成,类似流水线,每个操作是一个Item Pipeline类型
3.可能操作包括:清理

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值