python 爬虫(九)——从网站上批量爬取图片

如何从网页(例如:百度图片,搜狗图片……)等网页上批量爬取图片并将图片保存到本地呢?

在网页当中,图片是以动态的形式进行存储和加载的,因此如果我们单纯的通过requests来获取网页的url,我们将只能得到,图片的静态的编码。因此我们就使用其他的方式来获取动态的网页图片,并实现批量爬取。

这里以搜狗图片为例:

import requests
import json
import urllib
 
def getSogouImag(category,length,path):  #图片的分类,数量,存放路径
 n = length
 cate = category
 imgs = requests.get('http://pic.sogou.com/pics/channel/getAllRecomPicByTag.jsp?category='+cate+'&tag=%E5%85%A8%E9%83%A8&start=0&len='+str(n)) #分析网址找到其中分类和数量属性的位置,进行替换
 jd = json.loads(imgs.text)
 jd = jd['all_items']
 imgs_url = []
 for j in jd:
  imgs_url.append(j['bthumbUrl'])
 m = 0
 for img_url in imgs_url:
   print('Downloading...')
   urllib.request.urlretrieve(img_url,path+str(m)+'.jpg') #图片批量命名
   m = m + 1
 print('Download complete!')
 
getSogouImag('壁纸',20,'d:/壁纸/')  #存取的category,图片数量,和本地存放位置

 

  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值