Scrapy爬虫基础框架及实例演示

Scrapy爬虫基础框架及实例演示

安装scrapy

安装 scrapy 之前需安装了window版的 Anaconda python,我的安装版本是

Anaconda3-5.1.0-Windows-x86_64.exe

①: DOS命令行输入:

conda install scrapy

②:下载完成输入 scrapy ,出现以下页面说明scrapy安装成功
在这里插入图片描述

注: 若需要卸载scrapy,命令为:pip uninstall scrapy

使用 scrapy 框架创建爬虫项目

Scrapy爬虫工程首先要通过 DOS命令行 创建工程,然后再使用Pycharm打开工程

①:创建一个爬虫文件的工作目录,我的是:D:\work\scrapyWorkSpace

②:在 DOS 命令行中切换至该目录:

d:
cd D:work/scrapyWorkSpace

③:创建一个爬虫项目 ScrapyProject

scrapy startproject ScrapyProject

④:切换至这个目录:

cd ScrapyProject

⑤:创建爬虫名 examplespider ,并指定访问的 url地址(地址随便写,可以用pycharm打开再修改)

scrapy genspider examplespider example.com

注:步骤②~⑤如下图所示:

在这里插入图片描述


⑥:使用pycharm打开工程,注意打开文件夹为最外层的工程名文件夹 ScrapyProject
在这里插入图片描述
⑦:在 spiders/examplespider.py 文件中修改需要爬虫的url地址及parse方法,验证爬虫是否可用
如下图所示:
在这里插入图片描述

⑧:启动Spider,有两种方式启动

(1)在DOS命令行启动 Spider
scrapy crawl 爬虫名

scrapy crawl examplespider 

出现以下页面说明启动成功(部分截图,爬虫是可用的:
在这里插入图片描述
(2)在pycharm中直接启动爬虫Spider ,需要通过脚本启动,步骤如下:
在最外层的项目文件名下创建执行文件 run.py ,内容如下:

from scrapy.cmdline import execute
execute("scrapy crawl examplespider".split())

测试爬虫连接:
如图所示:

parse() 方法中设置断点测试
在这里插入图片描述

右击 Debug 运行run.py文件
在这里插入图片描述
若Debug测试成功,说明顺利进入 parse() 方法,爬虫顺利运行,如下如所示:
在这里插入图片描述

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值