python之爬虫requests与scrapy比较及scrapy常用命令

我们前面学习了requests和scrapy两种方式,作为两种技术路线,我们需要知道他们的相同点和不同点,以及我们应该按情况来使用

相同点

  • 都可以进行页面请求和爬取
  • 可用性好,文档丰富,入门简单
  • 不用处理js,提交表单,应对验证等功能(需要扩展才能实现)

不同点

requestsscrapy
页面级爬虫网站级爬虫
功能库框架
并发性考虑不足并发性好,性能较高
重点在于页面下载重点在于爬虫结构
定制灵活一般定制灵活,深度定制困难
上手十分简单入门稍难

补充:
scrapy常用命令

命令说明格式
start project创建一个新工程scrapy startproject<name’ [dir]
genspider创建一个爬虫scrapy genspider [options’ <name’ <domain’
settings获得爬虫的配置信息scrapy settings [options’
crawl运行一个爬虫scrapy crawl <spider’
list列出工程中的所有爬虫scrapy list
shell启动URL调试命令行scrapy shell [url]
  • 3
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值