scrapy常用的指令总结

 

1、全局命令
scrapy -h 查看全局命令 

1)fetch 命令主要用来显示爬虫的过程
显示爬取百度的首页
scrapy fetch http://www.baidu.com
2)  --header --nolog 参数控制了展现爬虫爬取新闻的首页的头信息,和
不显示日记信息
   scrapy fetch --header --nolog http://news.sina.com.cn/

3)runspider 可以实现不依托Scrapy的爬虫项目,直接运行一个爬虫文件
  scrapy runspider --loglevel=INFO first.py
  
4)setttings 命令查看Scrapy对应的配置信息
scrapy settings --get BOT_NAME

5)shell命令可以启动Scrapy的交互终端
scrapy shell http://www.baidu.com --nolog

6)version查看Scrapyde 版本信息

7)view  可以实现下载某个网页并用浏览器查看功能

2、项目命令  进入某个项目目录下
1)bench 用于测试本地硬件的性能
scrapy bench

2)genspider 命令来创建scrapy爬虫文件
  scrapy genspider -l
  
3)check 实现对某个爬虫文件合同检查
scrapy check gaozhen
4)crawl 启动某个爬虫
scrapy crawl gaozhen --loglevel=INFO

5)list命令  可以列出当前使用的爬虫文件
scrapy list

6)edit命令  可以直接打开对应的编辑器对爬虫文件进行编辑
scrapy edit abc

7)parse 命令  可以实现获取指定的URL网址,并使用对应的爬虫文件进行解析
scrapy parse http://www.baidu.com
--------------------- 
 

genspider命令

用于创建爬虫文件,这是一种快速创建爬虫文件的方式。

# scrpay genspider -t 基本格式
# basic 模板
# baidu.com 爬取的域名
scrapy genspider -t basic xxx baidu.com

此时在spider文件夹下会生成一个以xxx命名的py文件。可以使用scrapy genspider -l查看所有可用爬虫模板。当前可用的爬虫模板有:basic、crawl、csvfeed、xmlfeed


https://www.jb51.net/article/144511.htm


scrapy genspider -t basic zyn baidu.com 快捷创建爬虫文件
scrapy crawl zyn 运行py文件
scrapy list 展示当前目录下可以使用的爬虫文件
scrapy edit 直接通过编辑器打开爬虫文件(win系统运行不了哦)

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值