import urllib.request #如果网页长时间未响应,系统判定超时,无法爬取 for i in range(1,100): try: response=urllib.request.urlopen("http://www.baidu.com",timeout=0.5) print(len(response.read().decode("utf-8"))) except: print("请求超时,继续下一个爬收")
python爬虫-请求超时
最新推荐文章于 2023-08-01 10:56:40 发布