Python爬虫之Scrapy框架(CrawlSpider的简单使用)

请添加图片描述

@作者 : SYFStrive

@博客首页 : HomePage

🥧 上一篇续文传送门

📌:个人社区(欢迎大佬们加入) 👉:社区链接🔗

📌:如果觉得文章对你有帮助可以点点关注 👉:专栏连接🔗

🥧: 感谢支持,学习累了可以先看小段由小胖给大家带来的街舞😀

🔗:
阅读文章
请添加图片描述


简介

  1. CrawlSpider是爬取那些具有一定规则网站的常用的爬虫,它基于Spider并有一些独特属性 rules: 是 Rule 对象的集合,用于匹配目标网站并排除干扰 parse_start_url: 用于爬取起始响应,必须要返回 Item , Request 中的一个。
  2. 爬取那些具有一定规则网站的常用的爬虫

CrawlSpider使用前准备📦

相关说明

  • 继承自scrapy.Spider
  • 独门秘笈
    CrawlSpider可以定义规则,再解析html内容的时候,可以根据链接规则提取出指定的链接,然后再向这些链接发。
    送请求所以,如果有需要跟进链接的需求,意思就是爬取了网页之后,需要提取链接再次爬取,使用CrawlSpider是非常合适的。
  • 提取链接
    链接提取器,在这里就可以写规则提取指定链接。
    scrapy.linkextractors.LinkExtractor(
    allow = (), # 正则表达式 提取符合正则的链接
    restrict_xpaths = (), # xpath,提取符合xpath规则的链接
    restrict_css = () # 提取符合选择器规则的链接)
  • 举例
  1. 正则用法:links1 = LinkExtractor(allow=r’list_23_\d+.html’)
  2. xpath用法:links2 = LinkExtractor(restrict_xpaths=r’//div[@class=“x”]')
  3. css用法:links3 = LinkExtractor(restrict_css=‘.x’)
  • 注意事项
  1. callback只能写函数名字符串, callback=‘parse_item’
  2. 在基本的spider中,如果重新发送请求,那里的callback写的是 callback=self.parse_item 【注‐
    ‐稍后看】follow=true 是否跟进 就是按照提取连接规则进行提取

基本使用

  1. 创建项目:scrapy startproject XXX
  2. 跳转到spiders路径
  3. 创建爬虫类:scrapy genspider -t crawl XXX URL
  4. 简单步骤:items 👉 spiders 👉 settings 👉 pipelines(数据保存到本地 或 数据保存到mysql数据库)

案例

遇到如下使用 CrawlSpider 是最好的选择
在这里插入图片描述

简单蜘蛛13页内容

📰代码演示:

dushuwangS.py

在这里插入图片描述

pipelines.py

在这里插入图片描述

如下图(蜘蛛成功🆗):

在这里插入图片描述

简单蜘蛛全部内容

开启跟进需求

follow=True

如下图(蜘蛛成功🆗):

在这里插入图片描述

最后

Scrapy框架还未结束(待更),觉得不错的请给我专栏点点订阅,你的支持是我们更新的动力,感谢大家的支持,希望这篇文章能帮到大家

点击跳转到我的Python案例专栏

在这里插入图片描述

下篇文章再见ヾ( ̄▽ ̄)ByeBye

在这里插入图片描述

  • 18
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 10
    评论
评论 10
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

SYFStrive

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值