python基础爬虫——Scrapy快速入门

本文介绍了Python爬虫框架Scrapy的基础使用,包括安装、工作原理及主要组件。通过创建项目、设置爬虫、配置相关模块,演示了一个简单的网页爬取过程,帮助读者快速掌握Scrapy的基本操作。
摘要由CSDN通过智能技术生成

困于心衡于虑而后作
今天的学习目标是,scrapy的基本使用
经过之前的学习,对爬虫有了基本的认识
写小型爬虫的常用的基本库有

  • urllib
  • requests

常用爬取网站的爬虫框架

  • scrapy

当然还有信息提取

  • re
  • beautiful soup
  • css selector
  • lxml
  • xpath selector

最后的就是数据库了,数据库暂时没有接触到,
暂时爬取的文件都是直接写入txt文件的中

一、首先还是安装
打开命令行输入
pip install scrapy
二、原理部分
完成之后,讲解原理
在这里插入图片描述
scrapy使用5+2结构,即spiders,engine,downloader,scheduler和item pipelines,还有两个中间键middleware

爬取的过程分3步走
1.首先是入口模块spiders发送request爬取请求——>engine处理——>发给scheduler调度
2.数据经过scheduler调度,调度发送request请求——>engine处理——>发送给downloader爬取网页——>返回给engine处理——>下载完毕后将数据返回给spiders
3.spiders得到数据之后——>请求engine处理——>发给出口模块item pipelines,或者开启下一轮的爬取,发送消息给scheduler调度模块

用户实现scrapy爬虫,一般只需要编辑spiders,item pipelines还有两个中间键,一共四个部分的代码
1.engine和downloader中间键
用户可以进行配置和控制
配置的目的:修改,丢弃,新增爬取请求或者响应

2.spiders和engine中间键
配置的目的ÿ

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值