Python网络爬虫之框架1

12 篇文章 0 订阅
5 篇文章 0 订阅

scrapy爬虫框架介绍

scrapy不是一个简单的函数功能库,而是一个爬虫框架
爬虫框架:

  • 爬虫框架是实现爬虫功能的一个软件结构和功能组件的集合。
  • 爬虫框架是一个半成品,能够帮助用户实现专业网络爬虫。

scrapy爬虫框架结构

“5+2”结构:

  1. ENGINE :已有的,核心,控制所有模块之间的数据流,根据条件触发事件
  2. SCHEDULER:已有的,对所有的爬虫请求进行调度管理
  3. ITEM PIPELINES :框架出口,用户编写,以流水线方式处理Spider产生的爬取项,由一组操作顺序组成,类似流水线,每个操作是一个item pipline类型,可能操作包括:清理,检验和查重爬取项中的HTML数据,将数据存储到数据库
  4. SPIDERS :框架入口,用户编写,解析downloader返回的响应,产生爬取项,以及额外的爬取请求
  5. DOWNLOADER :已有的,根据请求下载网页
  6. 2个MIDDLEWARE:Download Middleware:实施Engine,Scheduler和Downloader之间用户可配置的控制,即用户可以修改、丢弃、新增请求或响应。Spider Middleware,对spider的请求和爬取项的再处理。修改、丢弃、新增请求或爬取项。

requests库和scrapy库比较

相同点:两者都可以进行页面请求和爬取,Python爬虫的两个重要技术路线。 两者可用性好,文档丰富,入门简单。
两者都没有处理js、提交表单、应对验证码等功能(可扩展)

不同点:

requestsscrapy
页面级爬虫网站级爬虫
功能库框架
并发性考虑不足,性能较差并发性好,性能较高
重点在于页面下载重点在于爬虫结构
定制灵活一般定制灵活,深度定制困难
上手十分简单入门稍难

scrapy的常用命令

命令说明格式
startproject创建一个新工程scrapy startproject <name> [dir]
genspider创建一个爬虫scrapy genspidr [option] <name><domin>
settings获取爬虫配置信息scrapy settings [options]
crawl运行一个爬虫scrapy crawl <spider>
lsit列出工程中所有爬虫scrapy list
shell启动URL调试命令行scrapy shell [url]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值