作为一个python小白,想往爬虫方向发展,于是为了培养对爬虫的兴趣,自己写了一个小爬虫爬一些自己喜欢的东西,爬的途中持续报这个错误,requests.exceptions.ConnectionError: HTTPSConnectionPool(host=‘i.meizitu.net’, port=443): Max retries exceeded with url: /2018/12/03a05.jpg (Caused by NewConnectionError(’<urllib3.connection.VerifiedHTTPSConnection object at 0x000002225A082A90>: Failed to establish a new connection: [WinError 10048] 通常每个套接字地址(协议/网络地址/端口)只允许使用一次。’,)),百度了好多文章终于的出解决方案,在请求头里面加上,headers ={“Connection”: “close”}。个人理解,爬虫因为网速电脑的关系,发送请求过后,响应会时快时慢,如果你的爬虫在运行的过程中没有合适的sleep,那么多次请求会冲突,因此出现端口重用的情况。如果在请求头里面加上headers ={“Connection”: “close”},程序发送请求后会断开连接,以便于发出下一请求。当然这个解决方案并不是终极解决方案,终极解决方案是提升自己功力,数量掌握scrapy才是王道,欢迎大牛在评论区对我提出批评和指正。
requests.exceptions.ConnectionError:通常每个套接字地址(协议/网络地址/端口)只允许使用一次
最新推荐文章于 2024-07-08 11:28:19 发布