scrapy框架的Spiders模块的基本类Spider的主要方法以及作用

Spider 是最基本的类,所有编写的爬虫必须继承这个类!

这个类的主要功能(也是spiders模块在框架里的作用):

    1.发起起始的请求
    2.解析响应,抽取数据和跟进的url
①定义了爬取行为

②定义了数据抽取行为

    通俗来说就是解析response,分析得到数据以及产生新的url

以下是Spider源码里面核心模块的主要功能


Spider源代码的init方法:初始化并判定spider名字以及创建首次url列表



Spider源代码的start_requests 方法:生成第一次连接loaddowns的url列表,并把结果返回给引擎


Spider源代码的make_request_from_url方法以及Request类:

make_request_from_url()是实例一个Request对象返回,

Request对象是一个Spider模块到Scheduler到Downloads之间通讯的数据对象,l类似于ajax的json!

类内部的主要方法是对url与body的读写操作!encoding是编码格式



而parse方法则是解析response的功能,分析逻辑都是在这里执行的,根据源码这个方法是必须重写的,否则会抛一个异常



这几个主要方法维持了scrapy框架里Spiders模块的完整流程

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值