过滤代理 爬虫代理 Max retries exceeded with URL

博客主要讨论了在爬虫过程中遇到的'Max retries exceeded with URL'错误,该问题通常由于过多的未关闭连接导致。文章提到了通过调整连接池大小(POOLSIZE)来解决此问题,并且介绍了如何有效管理和过滤爬虫使用的代理。
摘要由CSDN通过智能技术生成

Max retries exceeded with URL :  主要是连接太多没关闭.

sess = requests.session()
sess.keep_alive = False

也可以自定义配置POOLSIZE :

#作用于全局
requests.adapters.DEFAULT_RETRIES = 2  
requests.adapters.DEFAULT_POOLSIZE = 100
#对某个会话配置
s = requests.Session()
adapter = requests.adapters.HTTPAdapter(100,100)
s.mount('http://', adapter)
s.mount('https://', adapter)

 

过滤代理及爬代理:

import gevent.monkey; gevent.monkey.patch_all()
import sys,threading,requests,re,random
from lxml import etree

import random
import gevent
import time
import  requests.adapters
import requests.sessions

USER_AGENT_LIST = [
    'MSIE (MSIE 6.0; X11; Linux; i686) Opera 7.23',
    'Opera/9.20 (Macintosh; Intel Mac OS X; U; en)'
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值