我有一个简单的函数(在python3中)来获取一个url并尝试解析它:如果有错误代码,则打印一个错误代码(例如404),或者将其中一个缩短的url解析为它的完整url。我的url在csv文件的一列中,输出保存在下一列中。当程序遇到一个url,服务器需要很长时间才能响应时,问题就出现了——程序只是崩溃了。如果服务器花费的时间太长,有没有一种简单的方法可以强制urllib打印错误代码。我研究了Timeout on a function call,但这看起来有点太复杂了,因为我刚刚开始。有什么建议吗?在def urlparse(urlColumnElem):
try:
conn = urllib.request.urlopen(urlColumnElem)
except urllib.error.HTTPError as e:
return (e.code)
except urllib.error.URLError as e:
return ('URL_Error')
else:
redirect=conn.geturl()
#check redirect
if(redirect == urlColumnElem):
#print ("same: ")
#print(redirect)
return (redirect)
else:
#print("Not the same url ")
return(redirect)