scrapy 图片url 转base64_Scrapy:图片爬取 与 No module named 'PIL'

fee4f6fae136dae5bb423e4067f5380a.png

问题:使用ImagesPipeline的时候出现错误 No module named 'PIL'

解决:pip install Pillow 安装依赖后无误

正题:爬取一百张360图片上的艺术类图片

进入cmd,cd致自己想存放的文件夹

step1:scrapy startproject so_image

step2: cd so_image

stpe3: genspider images http://image.so.com

修改:

step4: 修改Item

class SoImageItem(scrapy.Item):
    
    image_urls = scrapy.Field()
    images = scrapy.Field()

step5: 修改setting

ITEM_PIPELINES = {
    'scrapy.pipelines.images.ImagesPipeline':1
}
IMAGES_STORE = 'download_images'

#不要忘了把协议False掉

step6: 写自己的spider

# -*- coding: utf-8 -*-
import scrapy
from  scrapy import Request
import json
from scrapy import cmdline

class ImagesSpider(scrapy.Spider):
    BASE_URL = 'http://image.so.com/zj?ch=art&sn=%s&listtype=new&temp=1'
    start_index = 0

    MAX_DOWNLOAD_NUM = 100  #设置爬取上限

    name = 'images'
    # allowed_domains = ['image.so.com']
    start_urls = [BASE_URL%0]

    def parse(self, response):
        # pass
        #使用json模块解析响应结果
        infos = json.loads(response.body.decode('utf-8'))
        #提取所有图片下载url到一个列表中
        #给Item中的image_urls复制
        yield {'image_urls':[info['qhimg_url']for info in infos['list']]}

        self.start_index += infos['count']
        if infos['count']>0 and self.start_index<self.MAX_DOWNLOAD_NUM:
            yield Request(self.BASE_URL%self.start_index)

def main():
    #直接使用main函数调用cmd,不用再打开cmd一个一个敲命令,直接在这里运行就可以了
    scrapy.cmdline.execute(['scrapy', 'crawl', 'images'])

#调用main函数
main()
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值