python - crawler 之 scrapy多线程爬虫

本文详细介绍了Scrapy爬虫框架,包括官方文档、学习资源、安装配置步骤。Scrapy是一个强大的Python爬虫框架,利用Twisted进行异步网络通信。其主要组件包括引擎、调度器、下载器、爬虫、ItemPipeline和中间件。Scrapy通过这些组件协同工作,实现高效的数据抓取和处理。同时,文章提供了Anaconda和pip两种安装方式,以及实战案例链接,帮助读者快速上手。
摘要由CSDN通过智能技术生成

目录

1.scrapy教程资料

2scrapy安装配置

3.介绍scrapy框架


1.scrapy教程资料

官方文档

  • 中文版:http://scrapy-chs.readthedocs.io/zh_CN/0.24/intro/tutorial.html
  • 英文版:https://doc.scrapy.org/en/latest/topics/request-response.html

训练资料

  • scrapy学习篇:https://www.cnblogs.com/cnkai/category/1061919.html
  • scrapy实战篇:https://www.cnblogs.com/cnkai/category/1062011.html
  • Redis + Scrapy 搭建分布式爬虫
  • https://blog.csdn.net/tichimi3375/article/details/82353597#t0

 

2scrapy安装配置

  • Anaconda集成环境安装scrapy-推荐
  • cmd进入控制台,conda install  scrapy
  • pip安装scrapy
  • pip install scrapy ,该方法安装问题较多

 

3.介绍scrapy框架

Scrapy 使用了Twisted异步网络库来处理网络通讯。整体架构大致如下

基本组件

(1)引擎(Engine)

  • 引擎负责控制数据流在系统中所有组件中流动,并在相应动作发生时触发事件。

(2)调度器(Scheduler)

  • 调度器从引擎接受request并将他们入队,以便之后引擎请求他们时提供给引擎。

(3)下载器(Downloader)

  • 下载器负责获取页面数据并提供给引擎,而后提供给spider。

(4)爬虫(Spiders)

  • Spider是Scrapy用户编写用于分析response并提取item(即获取到的item)或额外跟进的URL的类。 每个spider负责处理一个特定(或一些)网站。

(5)管道(Item Pipeline)

  • Item Pipeline负责处理被spider提取出来的item。典型的处理有清理、验证及持久化(例如存取到数据库中)。

(6)下载器中间件(Downloader middlewares)

  • 下载器中间件是在引擎及下载器之间的特定钩子(specific hook),如下图,处理Downloader传递给引擎的response。 其提供了一个简便的机制,通过插入自定义代码来扩展Scrapy功能。

(7)Spider中间件(Spider middlewares)

  • Spider中间件是在引擎及Spider之间的特定钩子(specific hook),如下图,处理spider的输入(response)和输出(items及requests)。 其提供了一个简便的机制,通过插入自定义代码来扩展Scrapy功能。

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值