PythonrequestsHTTP“Maxretriesexceededwithurl”error

今天跑了一下之前写的额爬虫,发现频繁执行时会报出一个超过最大连接数的问题。

 

网上查了一下,

原因是http连接太多没有关闭导致的

通俗来说就是每次爬取时建立一个HTTP连接,但是这个http连接没有结束,又新建了连接。

解决办法:

1、增加重试连接次数

  requests.adapters.DEFAULT_RETRIES = 5

2、关闭多余的连接

requests使用了urllib3库,默认的http connection是keep-alive的,requests设置False关闭。

  s = requests.session()


  s.keep_alive = False
评论 21
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值