Python爬虫框架Scrapy使用心得

Python爬虫框架Scrapy使用心得

Scrapy及爬虫简介

所谓爬虫,就是从互联网上自动获取信息的过程。Scrapy是Python语言下的一个使用广泛的爬虫框架,提供了公式化的爬虫代码模板,用户只需填充即可。爬虫所要解决的问题是共通的,经过多年发展,Scrapy内置了爬虫业务所需的众多功能(构造和发送请求对象、下载并解析响应对象、保存数据、处理各种异常),加速了爬虫开发,避免了开发者“重新造轮子”,但也意味着上手周期略长,内容繁杂,因此,需要注意随时查看对应版本权威且详细的官网文档。尽管如此,学习Scrapy还是非常值得的,因为它相当于聚合了requests、lxml等各种爬虫要用到的Python库并且对使用接口做了简化,相比用其它库组合起来的小爬虫,Scrapy爬虫更通用、容错性更强、更容易扩展,而且性能也不错。使用Scrapy需要有一定的Python语言基础但不用太深。Scrapy基于Python的twisted框架,有兴趣可以打开源码深入了解。
本文总结了Scrapy使用过程的心得体会,分享了遇到的一些坑,并给出一些具体的代码。但是需要注意Scrapy仍在更新中,一切以对应版本官方文档为准。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值