python爬虫图片工具安卓版下载_python爬虫之图片下载APP1.0

今天给大家来个好玩一点的,运用python爬取图片到本地,网站为https://www.pexels.com/

这个网站为外文网,所以搜索图片要用英语,今天要做的就是在python中进行搜索和下载图片,做一个网页版的APP。

直接上代码

from bs4 import BeautifulSoup

import requests

headers ={

'accept':'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8',

'Cookie':'__cfduid=dcb472bad94316522ad55151de6879acc1479632720; locale=en; _ga=GA1.2.1575445427.1479632759; _gat=1; _hjIncludedInSample=1',

'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/53.0.2785.143 Safari/537.36'

}

url_path = 'https://www.pexels.com/search/'

content= input('请输入你要下载的图片:')

url = url_path + content + '/'

wb_data = requests.get(url,headers=headers)

soup = BeautifulSoup(wb_data.text,'lxml')

imgs = soup.select('a > img')

list = []

for img in imgs:

photo = img.get('src')

list.append(photo)

path = 'C://Users/Administrator/Desktop/photo/'

i = 1

for item in list:

if item==None:

pass

elif '?' in item:

data = requests.get(item,headers=headers)

fp = open(path+content+str(i)+'.jpeg','wb')

fp.write(data.content)

fp.close

i = i+1

else:

data = requests.get(item, headers=headers)

fp = open(path+item[-10:],'wb')

fp.write(data.content)

fp.close()

分析代码

1我首先网站上分别搜索snow和girl,网站分别为:https://www.pexels.com/search/snow/

https://www.pexels.com/search/girl/

所以我利用input函数进行输入,然后自己构建url。

2解析和找到图片的url放到list中,这部分就不多讲了。

3之前用urlretrieve来下载一直报错,可能是外文网的原因,所以我把取到的图片的url再request一次,并加上了headers。

4为什么要用判断了?因为这个网站我爬取出现了None,我把它pass掉,其它有jpeg格式的,有png格式的,所以要分别下载。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值