在我们⽤urlopen⽅法发出⼀个请求时,如果 urlopen 不能处理这个response,就产⽣urlError。这⾥主要说的是 URLError 和 HTTPError,以及对它们的错误处理。
URLError:
URLError 产⽣的原因可能有:
1. 没有⽹络连接
2. 服务器连接失败
3. 找不到指定的服务器
我们可以⽤ try except 语句来捕获相应的异常。下⾯的例⼦⾥我们访问了⼀个不存在的域名:
import urllib.request
request = urllib.request.Request('http://www.ajkfhafwjqh.com')
try:
urllib.request.urlopen(request, timeout=5)
except urllib.request.URLError as e:
print("出现异常: "+str(e))
#运行结果
出现异常: <urlopen error [Errno 11001] getaddrinfo failed>
目前来看,我们处理异常只需要加上一个异常模块即可。
import urllib.error
import urllib.request
#try下面是正常爬虫工作的步骤,就是在你正常爬去的过程中加上try...except组合就可以实现简单的异常处理
url="http://blog.csdn.net"
try:
urllib.request.urlopen(url)
except urllib.error.URLError as e:
if hasattr(e,"code"):
print(e.code)
if hasattr(e,"reason"):
print(e.reason)
异常处理就先讲这些常用的简单情况,下一篇将介绍重点内容--正则表达式!