需求:昨晚一个同事用电脑在网站上面下载图片(一个一个图片另存到本地路径),我看了看你这样太费劲了把,
我问:你要下载多少图片?干什么用?,
他说:几百张,用来一个小测试。
我说:几百张你要一个一个下一晚上啊。
他说:不然了,还可以批量下载?
我说:人生苦短,快用python把
实现:
我于是百度一下python爬取图片,随便复制粘贴一段代码,用了两分多钟(直接用别人代码坑很多,调试了半天才搞好)。
# -*-coding:utf-8 -*-
import requests
from bs4 import BeautifulSoup
import os
import time
url = "http://www.yestone.com/gallery/1501659888020"
headers = {
"User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36"}
r = requests.get(url, headers=headers) # 使用headers避免访问受限
soup = BeautifulSoup(r.content, 'html.parser')
items = soup.find_all('img', class_='img-responsive')
folder_path = r"D://Phots"
if os.path.exists(folder_path) == False: # 判断文件夹是否已经存在
os.makedirs(folder_path) # 创建文件夹
for index, item in enumerate(items):
if item:
html = requests.get(item.get('data-src')) # get函数获取图片链接地址,requests发送访问请求
img_name = folder_path + str(index + 1) + '.png'
with open(img_name, 'wb') as file: # 以byte形式将图片数据写入
file.write(html.content)
file.flush()
file.close() # 关闭文件
print('第%d张图片下载完成' % (index + 1))
time.sleep(1) # 自定义延时
print('抓取完成')
print time.clock()