![a1acb6e7da5b393620f102a11ed0eea4.png](https://i-blog.csdnimg.cn/blog_migrate/7c8dfc71e12a72953a8f815f796c686d.jpeg)
我是一个程序员,我见过很多人在学习的时候一上手就是这个框架那个框架。其实我是非常不认同的,现实工作和日常学习是两码事,一个项目当你完成了99%,剩下的1%你搞不定,那这个项目还是无法上线。所以我在学习的时候提倡所有人从基础开始。
scrapy框架用着很舒服,这个这个框架给我的第一映像。有了这个框架绝壁能提高我们的编程效率。但是这是对于有经验的程序员来说的。scrapy采用异步模式,这能给我们的代码带来高性能,并且代码同样易于编写与维护。但是爬虫的本身就是一个requests.get(),对于一个python都不太熟悉的人,其中scrapy中略显抽象的代码会让你抓狂,更不要说那些都不是这个专业的人。
import
这是我加了注释的代码,可以看一下。
scrapy提高了自己的并发能力,但是这对于一般的爬虫工作是无效的,你的并发量上去,人家的网站服务压力暴增服务挂掉,要不你拿不到任何数据,要不就是拿不到数据。而且现在的反爬机制也让这些高并发特性显得不那么突出。
听说过这个框架的人都有了解,这个框架对于开发人员来说是没有主动权的,引擎自动的帮开发者调用着一切,再给我们便利的同时也给我们带上了一条枷锁,让我们收到限制。
写到这儿,如果你赞同我的看法就好好去学习Python的基础吧,好好的把requests库学习一下。如果你觉得你已经有学习scrapy的基础,那我们就开始吧,下一张,scrapy的安装。