Python-Scrapy框架(框架学习)

一、概述

        Scrapy是一个用于爬取网站数据的Python框架,可以用来抓取web站点并从页面中提取结构化的数据。

基本组件:

  1. 引擎(Engine):负责控制整个爬虫的流程,包括调度请求、处理请求和响应等。

  2. 调度器(Scheduler):负责接收引擎发送的请求,并将其按照一定的策略进行调度,生成待下载的请求。

  3. 下载器(Downloader):负责下载请求对应的网页,可以使用多种下载器,例如基于Twisted的异步下载器和基于requests的同步下载器。

  4. 中间件(Middleware):负责对请求和响应进行预处理和后处理,可以用于添加请求头、处理cookies等操作。

  5. 爬虫(Spider):负责定义如何解析网页和提取数据的规则,包括起始URL、请求构造、响应解析和数据提取等。

  6. 项目管道(Item Pipeline):负责处理爬虫从网页中提取的数据,并进行后续的处理,例如数据清洗、数据存储等。

数据处理流程:

  1. 引擎从爬虫中获取起始URL,并生成对应的请求。

  2. 引擎将请求发送到调度器,调度器将获取到的URL存储在队列中,按照一定的策略进行调度,并生成待下载的请求。

  3. 引擎从调度器中获取接下来需要爬取的页面。

  4. 引擎将待下载的请求通过下载中间件发送到下载器。

  5. 下载器下载网页,并将响应返回给引擎。

  6. 引擎将响应通过爬虫中间件发送给爬虫,爬虫根据定义的规则对响应进行解析,并提取出需要的数据。

  7. 爬虫将提取的数据发送给项目管道,项目管道对数据进行处理,并进行后续的存储或其他操作。

  8. 引擎根据配置的规则继续生成新的请求,并重复上述步骤,直到没有新的请求或达到指定的停止条件。

 下面是Scrapy框架的运行流程

图片来源:www.cxiansheng.cn

二、基本使用方法

2.1 创建&管理Scrapy项目

2.1.1 Scrapy命令行

Scrapy自带一套命令行工具用于管理和运行Scrapy项目。

  1. 创建一个新的Scrapy项目:

    scrapy startproject <project_name>
    
  2. 在项目中创建一个新的Spider:

    scrapy genspider <spider_name> <website_url>
    
  3. 运行Spider并将结果保存为JSON或其他格式:

    scrapy crawl <spider> -o <output_file>.json
    
  4. 列出可用的Spider:

    scrapy list
    
  5. 检查Spider是否正确工作:

    scrapy check <spider_name>
    
  6. 运行Scrapy Shell来交互式地测试和调试Spider:

    scrapy shell <website_url>
    
  7. 查看Scrapy信息:

    scrapy version
    

2.1.2 Pycharm

创建Scrapy项目:

1. 在Pycharm中创建一个“纯python”项目

注:demo1是项目名

2.在pycharm内使用命令行工具创建Scrapy项目

创建spider程序的命令行

scrapy genspider douban movie.douban.com
# douban为爬虫名称
# movie.douban.com为爬虫的作用域

 创建的目录

这些文件分别是:

  • scrapy.cfg: 项目的配置文件。
  • spider2107/: 项目的Python模块,将会从这里引用代码。
  • spider2107/items.py: 项目的目标文件。
  • spider2107/pipelines.py: 项目的管道文件。
  • spider2107/settings.py: 项目的设置文件。
  • spider2107/spiders: 存储爬虫代码目录。

新建虚拟环境:

文件 ——>设置项目设置 ——>新项目的设置

选择python解释器 ——>添加解释器 ——>Virtualenv环境 ——>在项目文件夹下添加envs (虚拟环境)——>确定

激活虚拟环境(Virtualenv环境)

env\Script\activate

注:如果显示无法加载模块,可以先等一段时间,当pycharm新建索引到env文件夹时在运行这段命令 

在pycharm中打开终端

使用pip下载scrapy

pip install scrapy

 创建spider程序

scrapy genspider <spidername><domain>

写好程序后会scrapy会出现一个crawl的执行选项可用于执行spider

scrapy crawl <spidername>

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值