python爬取一张图片并保存_Python3直接爬取图片URL并保存示例

有时候我们会需要从网络上爬取一些图片,来满足我们形形色色直至不可描述的需求。

一个典型的简单爬虫项目步骤包括两步:获取网页地址和提取保存数据。

这里是一个简单的从图片url收集图片的例子,可以成为一个小小的开始。

获取地址

这些图片的URL可能是连续变化的,如从001递增到099,这种情况可以在程序中将共同的前面部分截取,再在最后递增并字符串化后循环即可。

抑或是它们的URL都保存在某个文件中,这时可以读取到列表中:

def getUrls(path):

urls = []

with open(path,'r') as f:

for line in f:

urls.append(line.strip('\n'))

return(urls)

保存图片

在python3中,urllib提供了一系列用于操作URL的功能,其中的request模块可以非常方便地抓取URL内容,也就是发送一个GET请求到指定的页面,然后返回HTTP的响应。具体细节请看注释:

def requestImg(url, name, num_retries=3):

img_src = url

# print(img_src)

header = {

'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) \

AppleWebKit/537.36 (KHTML, like Gecko) \

Chrome/35.0.1916.114 Safari/537.36',

'Cookie': 'AspxAutoDetectCookieSupport=1'

}

# Request类可以使用给定的header访问URL

req = urllib.request.Request(url=img_src, headers=header)

try:

response = urllib.request.urlopen(req) # 得到访问的网址

filename = name + '.jpg'

with open(filename, "wb") as f:

content = response.read() # 获得图片

f.write(content) # 保存图片

response.close()

except HTTPError as e: # HTTP响应异常处理

print(e.reason)

except URLError as e: # 一定要放到HTTPError之后,因为它包含了前者

print(e.reason)

except IncompleteRead or RemoteDisconnected as e:

if num_retries == 0: # 重连机制

return

else:

requestImg(url, name, num_retries-1)

其他

捕获异常

以下是批量爬取网页时可能需要捕获的异常,同时可以看出,urllib2库对应urllib库,而httplib库对应http.client:

Python2

Pyhton3

urllib2.HTTPError

urllib.error.HTTPError

urllib2.URLError

urllib.error.URLError (HTTPError被包含其中)

httplib.IncompleteRead

http.client.IncompleteRead

httplib.RemoteDisconnected

http.client.RemoteDisconnected

重连机制

在函数参数中设置一个参数num_retries并对其进行初始化,即默认参数。在某些异常出现时可以将该参数递减,再让它递归调用自身,这就是基本的重连机制。

修饰器

有种设计模式叫修饰器模式,它可以在不修改目标函数代码的前提下,在目标函数执行前后增加一些额外功能。

def clock(func): # 修饰器函数,对函数计时

def clocked(*args):

t0 = timeit.default_timer()

result = func(*args)

elapsed = timeit.default_timer() - t0

name = func.__name__

arg_str = ', '.join(repr(arg) for arg in args)

print('[%0.8fs] %s(%s)' % (elapsed, name, arg_str))

# print('%s(%s) -> %r [%0.8fs]' % (name, arg_str, result, elapsed))

return result

return clocked

上面这段代码是修饰器函数的一个例子,用来对函数运行时间进行计时,在需要计时的函数上一行添加一点点代码即可:

@clock

完整代码

from urllib.error import HTTPError, URLError

from http.client import IncompleteRead, RemoteDisconnected

import timeit, time

import urllib.request

import socket

# timeout = 20

# socket.setdefaulttimeout(timeout) # 等待,防止被简单地反爬

def getUrls(path):

urls = []

with open(path,'r') as f:

for line in f:

urls.append(line.strip('\n'))

return(urls)

def clock(func): # 修饰器函数,对函数计时

def clocked(*args):

t0 = timeit.default_timer()

result = func(*args)

elapsed = timeit.default_timer() - t0

name = func.__name__

arg_str = ', '.join(repr(arg) for arg in args)

print('[%0.8fs] %s(%s)' % (elapsed, name, arg_str))

# print('%s(%s) -> %r [%0.8fs]' % (name, arg_str, result, elapsed))

return result

return clocked

@clock

def requestImg(url, name, num_retries=3):

img_src = url

# print(img_src)

header = {

'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) \

AppleWebKit/537.36 (KHTML, like Gecko) \

Chrome/35.0.1916.114 Safari/537.36',

'Cookie': 'AspxAutoDetectCookieSupport=1'

}

req = urllib.request.Request(url=img_src, headers=header)

try:

response = urllib.request.urlopen(req)

filename = name + '.jpg'

with open(filename, "wb") as f:

content = response.read()

f.write(content)

response.close()

except HTTPError as e:

print(e.reason)

except URLError as e:

print(e.reason)

except IncompleteRead or RemoteDisconnected as e:

if num_retries == 0:

return

else:

requestImg(url, name, num_retries-1)

if __name__ =='__main__':

urls = getUrls('./'URLS.txt') # 换成你的URL文件路径

nLines = len(urls)

print(nLines)

for index, value in enumerate(urls):

requestImg(value, './'+str(index).zfill(6)) # zfill用来格式化数字:000001

以上这篇Python3直接爬取图片URL并保存示例就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持我们。

本文标题: Python3直接爬取图片URL并保存示例

本文地址: http://www.cppcns.com/jiaoben/python/293525.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值