单一窗口服务器响应时间过长,当页面响应时间过长时,urllib请求失败

我有一个简单的函数(在python3中)来获取一个url并尝试解析它:如果有错误代码,则打印一个错误代码(例如404),或者将其中一个缩短的url解析为它的完整url。我的url在csv文件的一列中,输出保存在下一列中。当程序遇到一个url,服务器需要很长时间才能响应时,问题就出现了——程序只是崩溃了。如果服务器花费的时间太长,有没有一种简单的方法可以强制urllib打印错误代码。我研究了Timeout on a function call,但这看起来有点太复杂了,因为我刚刚开始。有什么建议吗?在def urlparse(urlColumnElem):

try:

conn = urllib.request.urlopen(urlColumnElem)

except urllib.error.HTTPError as e:

return (e.code)

except urllib.error.URLError as e:

return ('URL_Error')

else:

redirect=conn.geturl()

#check redirect

if(redirect == urlColumnElem):

#print ("same: ")

#print(redirect)

return (redirect)

else:

#print("Not the same url ")

return(redirect)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值