Scrapy 豆瓣搜索页爬虫
使用scrapy爬虫框架对豆瓣图书搜索结果进行爬取
Scrapy
Scrapy是一个为了爬取网站数据,提取结构性数据而编写的应用框架
可以应用在包括数据挖掘,信息处理或存储历史数据等一系列的程序
它提供了多种类型爬虫的基类,如BaseSpider、CrawlSpider等
主要组件
Scrapy框架主要由五大组件组成
-
调度器(Scheduler)
调度器,说白了把它假设成为一个URL的优先队列,由它来决定下一个要抓取的网址是什么,同时去除重复的网址,用户可以自己的需求定制调度器。 -
下载器(Downloader)
下载器,是所有组件中负担最大的,它用于高速地下载网络上的资源
Scrapy的下载器代码不会太复杂,但效率高,主要的原因是Scrapy下载器是建立在twisted这个高效的 异步模型上的 -
爬虫(Spider)
爬虫,是用户最关心的部份。用户定制自己的爬虫(通过定制正则表达式等语法),用于从特定的网页中提取自己需要的信息,即所谓的实体(Item)。 用户也可以从中提取出链接,让Scrapy继续抓取下一个页面
-
实体管道(Item Pipeline)
实体管道,用于处理爬虫(spider)提取的实体(Item)
主要的功能是持久化实体、验证实体的有效性、清除不需要的信息 -
Scrapy引擎(Scrapy Engine)
Scrapy引擎是整个框架的核心
它用来控制调试器、下载器、爬虫。实际上,引擎相当于计算机的CPU,它控制着整个流程
数据流(Data flow)
Scrapy中的数据流由执行引擎控制,其过程如下:
- 引擎打开一个网站,找到处理该网站的Spider并向该spider请求第一个要爬取的URL(s)
- 引擎从Spider中获取到第一个要爬取的URL并在调度器(Scheduler)以Request调度
- 引擎向调度器请求下一个要爬取的URL
- 调度器返回下一个要爬取的URL给引擎,引擎将URL通过下载中间件(request方向)转发给下载器(Downloader)
- 一旦页面下载完毕,下载器生成一个该页面的Response,并将其通过下载中间件(response方向)发送给引擎
- 引擎从下载器中接收到Response并通过Spider中间件(输入方向)发送给Spider处理
- Spider处理Response并返回爬取到的Item及(跟进的)新的Request给引擎
- 引擎将(Spider返回的)爬取到的Item给Item Pipeline,将(Spider返回的)Request给调度器
- (从第二步)重复直到调度器中没有更多地request,引擎关闭该网站
简单使用
创建项目
scrapy startproject xxx
创建爬虫scrapy genspider xxx(爬虫名) xxx.com (爬取域)
生成文件scrapy crawl xxx -o xxx.json (生成json/csv文件)
运行爬虫scrapy crawl XXX
列出所有爬虫scrapy list
scrapy项目目录结构
通过命令scrapy startproject tutorial
创建一个新的项目tutorial
将会创建包含下列内容的 tutorial
目录
tutorial/
scrapy.cfg