Python网络爬虫与信息提取(北京理工大学慕课)学习笔记4

Scrapy 爬虫框架

Scrapy 爬虫框架介绍

pip install scrapy

  • 爬虫框架:实现爬虫功能的一个软件结构和功能组件集合
  • 爬虫框架是一个半成品,能够帮助用户实现专业网络爬虫
    在这里插入图片描述
    在这里插入图片描述
Scrapy 爬虫框架解析

Engine:

  • 控制所有模块之间的数据流
  • 根据条件触发事件

Downloader

  • 根据请求下载网页

Scheduler:

  • 对所有爬取请求进行调度管理

Downloader Middleware
实施Engine, Scheduler和Downloader之间进行用户可配置的控制
修改,丢弃,新增请求或响应
用户可以编写配置代码

Spider

  • 解析Downloader返回的响应(Response)
  • 产生爬取项(scraped item)
  • 产生额外的爬取请求(Request)

Item Pipelines

  • 以流水线方式处理Spider产生的爬取项
  • 由一组操作顺序组成,类似流水线,每个操作是一个Item Pipeline类型
  • 可能操作包括:清理,检验和查重爬取项中的HTML数据,将数据存储到数据库

Spider Middleware
对请求和爬取项的再处理
修改,丢弃,新增请求或爬取项
用户可以编写配置代码

requests库和Scrapy爬虫的比较

相同点:

  • 都可以进行页面请求和爬取
  • 可用性好
  • 都没有处理js, 提交表单,应对验证码等功能(可扩展)
Scrapy爬虫的常用命令
命令说明格式
startproject创建一个新工程scrapy startproject <name>[dir]
genspider创建一个爬虫scrapy genspider [options] <name> <domain>
settings获得爬虫配置信息scrapy settings [options]
crawl运行一个爬虫scrapy crawl <spider>
list列出工程中所有爬虫scrapy list
shell启动URL调试命令行scrapy shell [url]
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值