利用scrapy批量下载壁纸图片
文章末尾有整个项目的链接
1、创建项目
scrapy startproject huicheSpider
cd huicheSpider
scrapy genspider huiche enterdesk.com
2、修改设置(setting.py)
3、编写要爬取的字段(items.py)
4、编写huiche.py
这里主要是因为这个网站链接分类了,不全部写上的话我们只能爬取一部分图片(一个类别的图片),所以我多写了一些start_url这样的话可以最大限度的爬取整个网站的图片
5、编写pipeline.py保存图片
6、编写运行程序
7、运行结果
8、项目提取链接
链接:https://pan.baidu.com/s/1KUdAjEEVhU4mLWOrlHuBTA
提取码:9dvv