Python使用urllib进行http请求无限等待问题

最近在改一个python写的爬虫代码,多线程并行爬取,发现程序的线程会莫名其妙的消失掉也不抛异常,于是仔细研读了代码,确定所有的模块都return后,问题仍然得不到解决,最后通过调试发现消失掉的线程会卡在如下语句:

response = urllib2.urlopen(req)

百思不得其解,察看官方文档后才知道原来urllib2中的urlopen还有另外两个可选参数,定义如下:

urllib2.urlopen(url[, data][, timeout]),细节请看http://docs.python.org/2/library/urllib2.html

关键是第三个timeout参数,如果没有设置则线程一旦碰见网络情况糟糕,则会出现无限等待的情况,因而导致线程“消失”。

作如下修改:

response = urllib2.urlopen(req,None,10)

10s超时后,抛出异常,线程继续。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值